Begründungsstrategien
Begründungsstrategien
Begründungsstrategien
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Begründungsstrategien</strong><br />
Ein Weg durch die analytische<br />
Erkenntnistheorie<br />
von Thomas Bartelborth<br />
Copyright „Akademie Verlag, Berlin 1996“<br />
Postprint mit freundlicher Genehmigung des Akademie Verlags
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 2<br />
Inhaltsverzeichnis<br />
I Epistemologie und Wissenschaftstheorie.......................................... 10<br />
A. Problemstellungen der Erkenntnistheorie .................................. 17<br />
1. Wissen und Begründung ....................................................... 17<br />
2. Epistemische Rechtfertigungen als Wahrheitsindikatoren ...... 19<br />
a) Die Entwicklung einer diachronischen Kohärenztheorie .. 23<br />
b) Metarechtfertigungen...................................................... 26<br />
B. Wissenschaftliche Theorien und Erklärungen............................. 27<br />
1. Theorien und ihre innere Struktur ........................................ 28<br />
2. Unterschiedliche Erklärungskonzeptionen ............................ 28<br />
II Der metatheoretische Rahmen ....................................................... 34<br />
A. Zur Naturalisierung der Erkenntnistheorie................................ 35<br />
1. Genese und Rechtfertigung................................................... 36<br />
2. Resignation in bezug auf das Projekt einer ersten Philosophie43<br />
3. Methodologischer Naturalismus ........................................... 45<br />
a) Poppers Falsifikationismus............................................... 47<br />
b) Reflektives Überlegungsgleichgewicht.............................. 52<br />
4. Evolutionäre Erkenntnistheorie ............................................ 61<br />
5. Resümee............................................................................... 67<br />
B. Wahrheit und Wahrheitsindikatoren ......................................... 67<br />
1. Deflationäre Wahrheitskonzeptionen .................................... 68<br />
2. Epistemische Wahrheitsbegriffe............................................. 70<br />
3. Eine Korrespondenztheorie der Wahrheit ............................. 74<br />
4. Resümee............................................................................... 76<br />
C. Zur Struktur unserer Erkenntnis ............................................... 77<br />
1. Epistemische Subjekte........................................................... 78<br />
2. Inferentielle Rechtfertigungen .............................................. 79<br />
3. Implizites Wissen.................................................................. 83<br />
4. Epistemische Arbeitsteilung .................................................. 86<br />
5. Hierarchische Strukturen...................................................... 93<br />
a) Grade von Allgemeinheit ................................................. 94<br />
b) Metaüberzeugungen ........................................................ 96<br />
c) Rechtfertigungshierarchien .............................................. 97<br />
6. Resümee............................................................................... 99
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 3<br />
III <strong>Begründungsstrategien</strong> ................................................................ 100<br />
A. Externalistische Strategien....................................................... 100<br />
1. Externalistische Wissenskonzeptionen ................................ 102<br />
a) Eine neue Wissensbedingung ......................................... 102<br />
b) Was heißt „zuverlässige Überzeugungsbildung“?............ 104<br />
c) Eine Antwort auf den Skeptiker? ................................... 107<br />
d) Ein nicht-kognitiver Wissensbegriff?.............................. 111<br />
2. Externalistische Rechtfertigungen....................................... 114<br />
a) Fragen der klassischen Erkenntnistheorie....................... 115<br />
b) Eine externalistisch-internalistische Mischform ............. 118<br />
c) Rechtfertigung und Ursachen......................................... 119<br />
d) Rationalität und Rechtfertigung .................................... 124<br />
e) Kritik am Internalismus ................................................. 125<br />
3. Eine Diagnose der intuitiven Attraktivität des Externalismus.....<br />
127<br />
4. Resümee............................................................................. 131<br />
B. Fundamentalistische Erkenntnistheorien.................................. 132<br />
1. Fundamentalistische versus kohärentistische Rechtfertigungsstrukturen<br />
.............................................................................. 132<br />
a) Formaler Fundamentalismus.......................................... 133<br />
b) Spielarten des Fundamentalismus .................................. 136<br />
2. Das Regreßargument für den Fundamentalismus................. 138<br />
3. Natürliche epistemische Arten und Hintergrundwissen....... 143<br />
4. Der Einwand des Kriteriums............................................... 145<br />
5. Substantieller Fundamentalismus ........................................ 147<br />
a) Sinnesdaten und der Phänomenalismus.......................... 147<br />
b) Mosers Fundamentalismus ............................................ 155<br />
6. Resümee............................................................................. 165<br />
IV Kohärenz .................................................................................... 166<br />
A. Bestandteile von Kohärenz ...................................................... 167<br />
1. Kohärenz und Konsistenz ................................................... 167<br />
2. Die Bedeutung von Theorien für Kohärenz......................... 168<br />
3. Sind unsere Schlüsse deduktiv? .......................................... 170<br />
4. Abduktion und Induktion ................................................... 179<br />
5. Epistemische Stützung durch Erklärungen .......................... 184<br />
6. Analogiebeziehungen.......................................................... 190<br />
B. Eine Kohärenztheorie der Wahrnehmung ................................ 192<br />
1. Vier Typen von Irrtumsquellen ........................................... 193<br />
2. Eine kohärentistische Rechtfertigung von Wahrnehmungen 198
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 4<br />
3. Empiristische und rationalistische Wahrnehmungsauffassungen<br />
202<br />
4. Erinnerung und Introspektion ............................................ 204<br />
C. Lokale und Globale Aspekte von Rechtfertigung ..................... 207<br />
D. Drei Kohärenzkonzeptionen ................................................... 211<br />
1. Lehrers Kohärenztheorie .................................................... 212<br />
2. BonJours Theorie der Rechtfertigung ................................. 215<br />
3. Thagards Theorie der Erklärungskohärenz ......................... 221<br />
E. Einwände gegen Kohärenz als Erklärungskohärenz.................. 228<br />
1. „Erklärung“ ist kein epistemischer Begriff........................... 229<br />
2. Sind Erklärungen interessenrelativ? .................................... 230<br />
3. Der Trivialitätsvorwurf ....................................................... 233<br />
4. Rechtfertigungen ohne Erklärung ....................................... 236<br />
F. Eine diachronische Theorie der Erklärungskohärenz................ 241<br />
G. Die Vereinheitlichung unseres Wissens .................................... 250<br />
H. Einige Konsequenzen der KTR ............................................... 253<br />
I. Resümee................................................................................... 259<br />
Anhang: Bayesianistische Schlüsse................................................ 260<br />
V Einwände gegen eine Kohärenztheorie ......................................... 264<br />
A. Das Regreßproblem................................................................. 264<br />
1. Pragmatischer Kontextualismus .......................................... 265<br />
2. Lineare Rechtfertigungsstrukturen? .................................... 267<br />
3. Epistemologischer Konservatismus ..................................... 273<br />
a) Anwendungen des epistemischen Konservatismus .......... 281<br />
b) Ist die konservative Strategie irrational? ........................ 283<br />
B. Der Isolationseinwand............................................................. 287<br />
C. Der mehrere-Systeme Einwand ............................................... 288<br />
D. Resümee ................................................................................. 290<br />
VI Metarechtfertigung ..................................................................... 291<br />
A. Interne Skepsis ........................................................................ 294<br />
B. Externe Skepsis ....................................................................... 301<br />
1. Fallibilismus und Skeptizismus............................................ 302<br />
2. Wissensskeptizismus und Rechtfertigungsskeptizismus ........ 305<br />
3. Unnatürliche Zweifel? ........................................................ 312<br />
4. Realismus als beste Erklärung?............................................ 316<br />
5. Erkenntnistheoretische Ziele .............................................. 322<br />
6. Eine Entscheidung gegen den Skeptiker .............................. 324<br />
C. Resümee ................................................................................. 332
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 5<br />
VII Wissenschaftliche Theorien........................................................ 333<br />
A. Die Entscheidung für den Strukturalismus............................... 335<br />
B. Mehrdeutigkeiten des Theoriekonzepts ................................... 338<br />
C. Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik...............................................................................................<br />
339<br />
1. Die begriffliche Struktur und die Gesetze von Theorie-Elementen..........................................................................................<br />
340<br />
2. Innertheoretische Querverbindungen: Constraints.............. 342<br />
3. Intertheoretische Querverbindungen: Links........................ 346<br />
4. Die „empirische“ Ebene einer Theorie................................ 349<br />
5. Der Anwendungsbereich einer Theorie............................... 352<br />
6. Das Theorien-Netz der Newtonschen Partikelmechanik...... 354<br />
7. Theoriendynamik ............................................................... 356<br />
8. Die empirische Behauptung einer Theorie .......................... 359<br />
9. Approximationen und erlaubte Unschärfemengen............... 363<br />
10. Zusammenfassung der strukturalistischen Theorienauffassung<br />
370<br />
VIII Wissenschaftliche Erklärungen.................................................. 374<br />
A. Erkenntnistheoretische Funktionen von Erklärungen............... 374<br />
B. Wissenschaftliches Verstehen ................................................... 375<br />
C. Die klassische Erklärungskonzeption....................................... 378<br />
1. Erste Probleme des DN-Schemas ....................................... 380<br />
a) Das Problem der Gesetzesartigkeit................................. 380<br />
b) Sind Gesetze für Erklärungen notwendig? ..................... 382<br />
i. Unvollständige Erklärungen....................................... 382<br />
ii. Statistische Erklärungen ........................................... 384<br />
iii. Erklärungen in der Evolutionstheorie ...................... 388<br />
2. Asymmetrie und Irrelevanz................................................. 390<br />
3. Grade von Erklärungen ...................................................... 392<br />
D. Neue Ansätze in der Erklärungstheorie ................................... 393<br />
1. Zur Pragmatik von Erklärungen ......................................... 393<br />
2. Kausale Erklärungen........................................................... 404<br />
a) Kausale Prozesse............................................................ 405<br />
b) Sind alle Erklärungen kausale Erklärungen?................... 409<br />
c) Koexistenzgesetze.......................................................... 413<br />
d) Theoretische Erklärungen ............................................. 414<br />
e) Erklärungen in der Quantenmechanik ........................... 416<br />
f) Eine deflationäre Theorie der Kausalität ........................ 423<br />
E. Resümee.................................................................................. 428
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 6<br />
IX Erklärung als Vereinheitlichung .................................................. 430<br />
A. Friedmans Vereinheitlichung der Phänomene .......................... 430<br />
B. Kitchers Vereinheitlichung der Argumentationsformen ............ 438<br />
C. Einbettung in ein Modell ........................................................ 451<br />
1. Ein allgemeiner Modellbegriff ............................................ 452<br />
2. Einbettungen und Erklärungen ........................................... 456<br />
D. Ein Beispiel für Vereinheitlichung ........................................... 458<br />
E. Komponenten der Vereinheitlichung ....................................... 462<br />
1. Begriffliche Vereinheitlichung in Strukturarten ................... 462<br />
2. Sukzessive Vereinheitlichung durch Gesetze........................ 465<br />
3. Vereinheitlichung durch Konsistenzforderungen ................. 467<br />
4. Vortheoretische Vereinheitlichung und theoretische Größen468<br />
5. Vereinheitlichung der Phänomene....................................... 469<br />
6. Stringenz durch kleinere erlaubte Unschärfen ..................... 475<br />
7. Intertheoretische Vereinheitlichung .................................... 477<br />
8. Empirische Behauptung und organische Einheit von Theorien ..<br />
478<br />
9. Formale Explikation von Vereinheitlichung ........................ 484<br />
F. Analogien und Kohärenz.......................................................... 493<br />
G. Einbettung und kausale Erklärung........................................... 495<br />
H. Zur Problemlösekraft des Einbettungsmodells......................... 498<br />
1. Erklärungsanomalien.......................................................... 498<br />
2. Asymmetrien der Erklärung................................................ 500<br />
3. Irrelevanz ........................................................................... 503<br />
4. Statistische Theorien und Erklärungen................................ 504<br />
(i) Gesamtheiten als Anwendungen des Gesetzes................ 507<br />
(ii) Wahrscheinlichkeiten als Eigenschaften........................ 508<br />
(iii) Probabilistische Aussagen als Constraints .................... 508<br />
5. Und wenn die Welt nicht einheitlich ist? ............................. 509<br />
I. Resümee................................................................................... 512<br />
Literaturverzeichnis:......................................................................... 513<br />
Index................................................................................................ 527
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 7<br />
Vorwort<br />
Die Erkenntnistheorie ist eines der zentralen Gebiete der Philosophie.<br />
Sie fragt, wann unsere Wissensansprüche berechtigt sind und wann wir<br />
über gute Begründungen unserer Meinungen verfügen. Leider ist die gegenwärtige<br />
analytisch orientierte Philosophie der Erkenntnis überwiegend<br />
im englischsprachigen Raum zu Hause. In dieser Arbeit versuche<br />
ich sie auch dem deutschsprachigen Publikum etwas näher zu bringen<br />
und einen Einstieg in eine grundlegende Fragestellung dieser Disziplin<br />
zu geben. Es geht mir vor allem darum, was eine Begründung einer Meinung<br />
auszeichnet, während ich die weniger einschlägigen Diskussionen<br />
um den Wissensbegriff nur nebenbei erwähne. Außerdem möchte ich einem<br />
Versäumnis der Erkenntnistheorie entgegenwirken, nämlich neue<br />
wissenschaftstheoretische Resultate nicht zur Kenntnis zu nehmen, die<br />
wichtige Hilfsmittel zur Lösung epistemischer Probleme bereitstellen. Es<br />
wird Zeit für eine engere Zusammenarbeit beider Disziplinen.<br />
Mein Weg durch die analytische Philosophie der Erkenntnis bietet<br />
eine Einführung in das Thema und beginnt mit einer Erörterung der<br />
grundlegenden Begriffe wie „Meinung“, „Rechtfertigung“ und „Wahrheit“.<br />
Dann werden die verschiedenen Grundpositionen vorgestellt, wobei<br />
ich für eine ganz bestimmte Theorie eintrete, nämlich eine Kohärenztheorie<br />
der Begründung. Die Argumentation für diese Theorie und<br />
ihre Ausgestaltung begleiten uns als roter Faden überall auf unserem<br />
Weg. Dabei müssen wir uns nach und nach von einigen liebgewordenen<br />
etwa empiristischen Ansichten verabschieden und uns mit einer diachronischen<br />
Theorie der Erklärungskohärenz anfreunden. Um diese vollends<br />
kennenzulernen, müssen wir uns außerdem der Frage zuwenden, was eigentlich<br />
das Charakteristische an einer Erklärung ist. Eine substantielle<br />
Antwort auf diese Frage, die im letzten Drittel der Arbeit gegeben wird,<br />
ist auf eine Teilnahme an der entsprechenden wissenschaftstheoretischen<br />
Debatte angewiesen. Die versuche ich so intuitiv wie möglich und mit<br />
vielen Beispielen zu gestalten, damit man auch als Nichtfachmann verstehen<br />
kann, worum es dabei geht.<br />
Die Arbeit ist aus meiner Habilitationsschrift des Jahres 1993 hervorgegangen,<br />
die anhand zahlreicher Diskussionen überarbeitet wurde.<br />
Für Anregungen danke ich in erster Linie Prof. Ulrich Gähde, Prof. Uli-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 8<br />
ses Moulines und Prof. Peter Bieri; des weiteren danke ich Dr. Elke<br />
Brendel, Dr. Oliver Scholz, Dr. Dirk Koppelberg und einigen Studenten<br />
aus meinen Seminaren. Die verbliebenen Fehler sind natürlich trotzdem<br />
mir zuzuschreiben, schon deshalb, weil ich nicht allen Anregungen gefolgt<br />
bin.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 9<br />
I Epistemologie und Wissenschaftstheorie<br />
Sehen wir im ebenmäßigen Sand eines Strandes klare Fußabdrücke in regelmäßiger<br />
Folge, so denken wir unwillkürlich: Da muß ein Mensch gelaufen<br />
sein. Doch trotz der Unwillkürlichkeit haben wir damit bereits<br />
eine Art von Schluß vollzogen. Einen Schluß von Indizien auf etwas, das<br />
wir nicht direkt gesehen haben. Unser Alltag ist voll von solchen Schlüssen,<br />
obwohl wir sie meist nicht einmal bemerken. Verzieht jemand das<br />
Gesicht, nachdem er sich mit einem Messer in den Finger geschnitten<br />
hat, nehmen wir selbstverständlich an, daß er Schmerzen hat. Auch das<br />
können wir nicht direkt wahrnehmen – jedenfalls nicht so direkt wie er<br />
selbst. Wir verfahren in all diesen Fällen ähnlich wie ein Detektiv, der<br />
anhand bestimmter Spuren erschließen muß, wer wohl der Mörder war.<br />
Selbst wenn uns jemand erzählt, er hätte einen Verkehrsunfall beobachtet,<br />
und wir ihm das glauben, vollziehen wir einen Schluß von der Schilderung<br />
zu dem Glauben an das Vorliegen eines bestimmten Verkehrsunfalls.<br />
Daß es sich tatsächlich um Schlüsse handelt, mag folgender Hinweis<br />
verdeutlichen: Auch wenn wir in den geschilderten Beispielen unseren<br />
Sinneswahrnehmungen vollkommen vertrauen, können wir uns in<br />
den darauf gestützten Annahmen irren. Die Spuren im Sand hätte auch<br />
eine Maschine dort hinterlassen können; das Messer schneidet vielleicht<br />
nur in eine Fingerattrappe (etwa bei Filmaufnahmen) und der Betreffende<br />
spielte nur den angeblichen Schmerz; die Schilderung war gelogen<br />
usw.<br />
All die genannten Schlüsse sind natürlich völlig in Ordnung, aber<br />
nicht zuletzt die Irrtumsmöglichkeiten weisen darauf hin, daß wir trotzdem<br />
nach einer Rechtfertigung oder Begründung für die Schlüsse fragen<br />
dürfen. Etwa: Wieso glaubst du, daß dein Bekannter dich nicht angelogen<br />
hat? Oder: Wieso glaubst du, daß du dich nicht getäuscht hast und<br />
nur den Trickaufnahmen zu einem Spielfilm zuschautest? Den Philosophen<br />
und speziell den Erkenntnistheoretiker interessiert außerdem, welches<br />
Schlußverfahren jeweils zum Einsatz kam und wie es sich begründen<br />
läßt, daß wir diesem Verfahren vertrauen. Schlüsse, in denen wir<br />
über das uns Bekannte hinausgehen, nennt man induktive Schlüsse (oder<br />
technischer: nichtmonotone Schlüsse), während sichere Schlüsse, in denen<br />
wir uns nicht irren können, deduktive genannt werden. Man kann
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 10<br />
die Frage also auch so formulieren: Gibt es bestimmte induktive Schlußweisen,<br />
die in unseren Beispielen angewandt wurden, und wie lassen sie<br />
sich rechtfertigen?<br />
Ein einfaches Induktionsverfahren wird schon seit der Antike diskutiert,<br />
nämlich die enumerative oder konservative Induktion. Danach sammeln<br />
wir eine Reihe von gleichartigen Fällen und schließen dann, daß<br />
wir auch in allen weiteren Fällen auf ähnliche Zusammenhänge stoßen<br />
werden. Wenn wir etwa 20 Raben untersucht haben und sie waren alle<br />
schwarz, werden wir von allen Raben erwarten, daß sie schwarz sind.<br />
Unsere Schlüsse im Alltag entsprechen allerdings oft nicht diesem einfachen<br />
Verfahren. Muß ich tatsächlich erst viele Schilderungen von Verkehrsunfällen<br />
meines Bekannten auf ihren Wahrheitsgehalt hin untersucht<br />
haben, ehe ich mit Fug und Recht annehmen darf, daß sein Bericht<br />
auch in diesem Fall der Wahrheit entspricht? Das geht wohl doch zu<br />
weit. Wir können aus vielen anderen Indizien begründen, daß wir ihn<br />
für glaubwürdig halten, und haben dann gute Gründe, seiner Schilderung<br />
zu glauben, selbst wenn es sich um seine erste Schilderung eines<br />
Verkehrsunfalls handelt. Ebenso ist es mit den Spuren im Sand. Es genügt<br />
schon ein einzelner Fall, um unsere Schlüsse zu untermauern. Wir<br />
schließen ohne eine Untersuchung weiterer Beispiele, daß hier ein<br />
Mensch gelaufen sein muß.<br />
Statt von enumerativer Induktion zu sprechen, läßt sich der vollzogene<br />
Schluß daher besser als ein Schluß auf die beste Erklärung beschreiben.<br />
D.h. wir suchen jeweils nach der Annahme, die die beste Erklärung<br />
für unsere Wahrnehmungen darstellt, und halten sie wegen ihrer Erklärungskraft<br />
auch für gut begründet. Für derartige Schlüsse (die ich im folgenden<br />
auch „Abduktionen“ nennen werde) gelten ganz andere Maßstäbe<br />
als für die konservativen Induktionen. So kommt es nicht darauf an,<br />
daß wir schon sehr viele ähnliche Fälle untersucht haben. Wichtiger ist<br />
meist, ob wir über alternative Erklärungen verfügen. Da im Normalfall<br />
keine anderen Erklärungen für die Fußspuren in Betracht kommen, als<br />
die gegebene, scheint unser Schluß vollkommen gerechtfertigt zu sein.<br />
Schon die wenigen Beispiele offenbaren allerdings einen grundlegenden<br />
Aspekt der Schlüsse auf beste Erklärungen: Sie sind wesentlich abhängig<br />
vom jeweiligen Hintergrundwissen. Was für uns die beste Erklärung<br />
für etwas ist, hängt von unseren anderen Annahmen über die Welt<br />
ab. Wir nehmen eventuell an, daß Menschen die Abdrücke im Sand hinterlassen<br />
haben müssen, weil es keine dazu geeigneten Maschinen gibt<br />
und wir normalerweise auch keine Motive kennen, entsprechende Ma-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 11<br />
schinen zu bauen. Vielleicht haben wir noch nicht einmal die Phantasie,<br />
derartige Möglichkeiten überhaupt zu erwägen.<br />
Diese Abhängigkeit der Abduktionen von unseren Hintergrundannahmen<br />
ist im Alltag oft versteckt, weil sie sich nur auf Selbstverständliches<br />
bezieht. Aber sie wird schnell deutlich, sobald wir annehmen, daß<br />
keine „Normalsituation“ vorliegt. Befinden wir uns auf einer Insel, die<br />
einem Ferienclub gehört, der gerne Belebtheit vortäuschen möchte und<br />
zu diesem Zweck rund um die Uhr Maschinen herumschickt, die Fußabdrücke<br />
hinterlassen, ist nicht mehr klar, welches nun die beste Erklärung<br />
unserer Beobachtung ist. Wissen wir darüber hinaus, daß es außer uns<br />
praktisch noch keine Gäste auf der Insel gibt, aber sehr viele Abdruckmaschinen,<br />
gewinnt die Maschinenerklärung die Oberhand. Nicht nur<br />
die Beurteilung der Plausibilität von Erklärungen und erklärenden Hypothesen,<br />
sondern natürlich auch ihre Auswahl ist von unserem Hintergrundwissen<br />
abhängig. In vielen Fällen halten wir sogar nur eine erklärende<br />
Hypothese für möglich. Vielleicht denken wir, es ließen sich überhaupt<br />
keine Fußabdruckmaschinen bauen und können uns z. B. nicht erklären,<br />
wie diese so gebaut werden sollten, daß sie außer Fußabdrücken<br />
keine anderen Abdrücke wie Reifenspuren im Sand hinterlassen. Dann<br />
würden wir diese Alternativerklärung nicht ernsthaft erwägen.<br />
In gewisser Weise stoßen wir hier bereits auf ein weiteres wichtiges<br />
Merkmal der Abduktionen, nämlich einen Regreß. Die gesuchten Erklärungen<br />
sollten möglichst selbst wieder nur erklärbare Bestandteile enthalten.<br />
Diese Einbettung von Erklärungen in weitergehende Erklärungszusammenhänge<br />
wird in meiner Arbeit unter dem Stichwort „Kohärenz“<br />
präzisiert werden. Doch dem möchte ich an dieser Stelle noch nicht vorgreifen.<br />
Bleiben wir noch ein wenig bei den einfachen Abduktionen.<br />
Man könnte anhand der Beispiele vielleicht den Eindruck gewinnen,<br />
die Abduktion sei nur ein typisches Schlußverfahren unseres Alltags.<br />
Doch das wäre ein ganz falscher Eindruck. Gerade in den Wissenschaften<br />
oder auch vor Gericht sind Schlüsse auf die besten Erklärungen allgegenwärtig.<br />
Denken wir z. B. an einen Mordprozeß. Die Staatsanwältin<br />
wird Indizien (dazu zähle ich auch Zeugenaussagen) vorlegen, die gegen<br />
den Angeklagten sprechen sollen. Sie könnte anführen, daß am Tatort<br />
Blut mit seiner Blutgruppe gefunden wurde, daß er ein Mordmotiv und<br />
die Gelegenheit hatte: Er war etwa in Geldnot und hatte einen Schlüssel<br />
zum Haus seiner ermordeten Erbtante. Da außerdem ein Ermordeter<br />
vorliegt und es dafür eine Erklärung (sprich einen Mörder) geben muß,<br />
sei die Geschichte der Staatsanwaltschaft, wonach der Angeklagte nachts<br />
in das Haus seiner Tante ging und sie die Treppe hinunterstieß (wobei er
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 12<br />
sich verletzte), die beste Erklärung für die gesammelten Indizien. Für ihre<br />
Beweisführung muß die Staatsanwältin nicht erst etliche einschlägige<br />
Straftaten des Angeklagten abwarten, um dann einen enumerativen Induktionsschluß<br />
führen zu können. Entsprechende Vorstrafen des Angeklagten<br />
machen die Erklärung der Staatsanwältin zwar noch überzeugender,<br />
aber sie sind weder notwendig noch hinreichend für eine Verurteilung.<br />
Die Verteidigung könnte die Beweisführung unter anderem dadurch<br />
angreifen, daß sie alternative Erklärungshypothesen vorträgt. Vielleicht<br />
hatte die Tante noch einen weiteren geldgierigen Neffen, der sehr gut<br />
mit einem Dietrich umzugehen weiß und ebenfalls kein Alibi für die<br />
Mordnacht besitzt. Sie muß also nicht einmal bestreiten, daß die Staatsanwältin<br />
eine gute Erklärung der Indizien geliefert hat. Es genügt meist<br />
schon zu zeigen, daß sie nicht unbestreitbar die beste Erklärung darstellt.<br />
Zumal die Staatsanwaltschaft gerade in Strafverfahren nicht nur eine<br />
recht gute Erklärung liefern muß, sondern eine, die jenseits allen vernünftigen<br />
Zweifels die beste ist. Die gerade nur angedeuteten Mechanismen<br />
der Beweisführung stellen erste Hinweise für meine Behauptung<br />
dar, daß wir es hier wiederum mit den typischen Regeln für Abduktionen<br />
zu tun haben.<br />
Auch in wissenschaftlichen Kontexten treffen wir wieder auf abduktive<br />
Schlüsse. Wenn es um Fragen der Rechtfertigung oder Wahrheit wissenschaftlicher<br />
Theorien geht, berufen wir uns gern auf ihre Erklärungsleistung.<br />
Eine in den Wissenschaften vielfach anzutreffende Argumentation<br />
besagt sogar, daß eine Theorie genau dann besser begründet ist als<br />
eine andere, wenn sie mehr Phänomene und diese möglichst auch noch<br />
besser erklärt als ihre Konkurrentin. Wir nehmen etwa an, daß sich unser<br />
Weltall ausdehnt, denn diese Annahme ist die beste Erklärung für die<br />
zu beobachtende Rotverschiebung in den Spektrallinien entfernter<br />
Sterne. Die Erklärungsleistung zeichnet diese Annahme gegenüber anderen<br />
kosmologischen Modellen erkenntnistheoretisch aus.<br />
Selbst in philosophischen Begründungen wird der Schluß auf die beste<br />
Erklärung eingesetzt; z. B. in Argumenten für die Existenz einer Außenwelt.<br />
So beruft sich schon Hume (1978, 196ff) auf Konsistenz und<br />
Kohärenzphänomene für die Behauptung, es gäbe unbeobachtete Gegenstände.<br />
Hume spricht zwar manchmal davon, wir müßten sie annehmen,<br />
um Kontradiktionen zu vermeiden, aber Bennett (1984, 325) hat gezeigt,<br />
daß Hume tatsächlich nur sagen kann, daß wir ohne die Annahme<br />
dieser Gegenstände über keine Erklärung für die Kohärenz und Konstanz<br />
unserer Wahrnehmungen verfügen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 13<br />
Der Schluß auf die beste Erklärung ist bis heute eines der prominentesten<br />
Argumente für realistische Positionen geblieben. Das gilt sowohl<br />
für einen „Common Sense“ Realismus wie für den wissenschaftlichen<br />
Realismus (s. z. B. Devitt 1991, 111ff). Abduktionen sind geradezu allgegenwärtig<br />
in den Wissenschaften und eigentlich in allen Disziplinen<br />
festzustellen. Ein Beispiel aus der Linguistik: Dort finden wir in Chomskys<br />
Hypothese einer angeborenen Grammatik einen weiteren typischen<br />
Vertreter dieses Schlußverfahrens. Wir können uns nach Chomsky nämlich<br />
nur aufgrund einer derartigen Annahme erklären, wieso wir so<br />
schnell unsere Sprache erlernen, obwohl diese eine sehr komplexe Struktur<br />
aufweist.<br />
Die Beispielliste für dieses Begründungsverfahren ließe sich ohne<br />
weiteres verlängern. Jedenfalls weist sie schon darauf hin, daß gerade<br />
die erkenntnistheoretisch interessantesten Schlüsse keine deduktiven<br />
und auch keine konservativen induktiven Schlüsse sind. Wir werden im<br />
Verlauf der Arbeit immer wieder feststellen müssen, daß das grundlegendste<br />
Schlußverfahren, das uns für nichtdeduktive Schlüsse zur Verfügung<br />
steht, das des Schlusses auf die beste Erklärung ist. Eine der zentralen<br />
Thesen meiner Arbeit besagt daher:<br />
Für wissenschaftliche Theorien und auch für viele Alltagsüberzeugungen<br />
ist ihre Erklärungsstärke der zentrale Aspekt ihrer epistemischen<br />
Beurteilung.<br />
Dieses Phänomen erklärt das große Interesse von Philosophen an einem<br />
besseren Verständnis dessen, was eine Erklärung ausmacht. Doch so gut<br />
wir auch im Entwerfen und im Beurteilen von konkreten Erklärungen<br />
sind, so schwierig ist es trotzdem, die folgenden drei Fragen zu beantworten:<br />
1. Was ist eine (wissenschaftliche) Erklärung?<br />
2. Warum sind Erklärungen so bedeutsam in der epistemischen<br />
Beurteilung von Meinungen bzw. Theorien?<br />
und schließlich:<br />
3. Wann sind die Erklärungen durch eine Annahme (Theorie) besser<br />
als die durch eine andere?<br />
Diesen Fragen ist meine Arbeit gewidmet. Zu ihrer Beantwortung wird<br />
neben einer allgemeinen Erklärungstheorie vor allem eine Theorie der<br />
wissenschaftlichen Erklärung entwickelt, die wiederum eng mit einer<br />
Analyse, was eine wissenschaftliche Theorie ist und welche inneren<br />
Strukturen sie aufweist, verknüpft wird. Voraussetzung für eine erfolg-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 14<br />
versprechende Bearbeitung der genannten Projekte ist zunächst eine<br />
Antwort auf die zweite Frage, welchen epistemischen Wert Erklärungen<br />
besitzen. Hauptsächlich an dieser Antwort wird die zu entwickelnde Metatheorie<br />
der Erklärung zu messen sein. Sie wird in einer Theorie der epistemischen<br />
Rechtfertigung oder Begründung gegeben, die Erklärungen<br />
eine grundlegende erkenntnistheoretische Aufgabe zuweist. Bei der<br />
Rechtfertigungstheorie handelt es sich um eine diachronische Version einer<br />
Kohärenztheorie, die an bestimmten Stellen an die Theorien von<br />
BonJour, Harman, Lehrer, Sellars, Thagard und anderen Kohärenztheoretikern<br />
anknüpft, aber an anderen Stellen auch eigene Wege geht, um<br />
die bekannten Schwächen der genannten Ansätze zu vermeiden. In dieser<br />
Konzeption wird Kohärenz maßgeblich durch Erklärungsbeziehungen<br />
gestiftet. Zugleich beantwortet sie die alte Frage, welche Struktur<br />
unsere Begründungen aufweisen: Statt linearer Ketten, wie man sie aus<br />
logischen Ableitungen kennt, bilden sie ein Netzwerk von sich gegenseitig<br />
stützenden Aussagen, die durch Erklärungen untereinander verknüpft<br />
sind. Erklärungen bilden demnach geradezu den „Zement unseres Wissens“,<br />
der die Teile unseres Wissens zu einem systematischen Ganzen zusammenfügt.<br />
Diese Anknüpfung an Humes Metapher von der Kausalität als dem<br />
„cement of the universe“ legt es nahe, die Aufgabe von Erklärungen gerade<br />
in der Aufdeckung von kausalen Beziehungen zu sehen. In dieser<br />
Richtung sind deshalb auch viele Wissenschaftsphilosophen vorgegangen;<br />
z. B. Salmon (1984) ist hier als einer der prominentesten zu nennen.<br />
Doch meine Untersuchung der epistemischen Funktionen von Erklärungen<br />
zeigt, daß diese intuitiv so ansprechende Erklärungskonzeption<br />
letztlich zu kurz greift und nur einen Aspekt von Erklärungen erfaßt.<br />
Das wird an den Stellen offensichtlich, an denen es nicht nur kausale Beziehungen<br />
sind, die unsere Welt „zusammenhalten“, sondern z. B. auch<br />
strukturelle Zusammenhänge. In unseren Modellen der Welt finden sich<br />
daher neben Kausalerklärungen Beziehungen inferentieller und begrifflicher<br />
Art, die genauso gut erklärende Funktionen übernehmen können<br />
wie die kausalen. Wir benötigen also eine neue und umfassendere Erklärungstheorie.<br />
Den Bereich des wissenschaftlichen Wissens werde ich in der Arbeit<br />
hervorheben, denn zum einen finden wir dort Erklärungen, die eine explizite<br />
Form annehmen, wie wir sie in unseren Alltagserklärungen meist<br />
nicht erreichen, und zum anderen stellt dieser Bereich einen nicht mehr<br />
wegzudenkenden Teil unseres Hintergrundwissens dar. Die Einschätzung<br />
der Erklärungsstärke und Entwicklung von entsprechenden Kriterien ist
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 15<br />
für Alltagserklärungen oft mit großen Vagheiten behaftet, weil sie kaum<br />
ausformuliert werden und sich unscharfer Begriffe bedienen. Für wissenschaftliche<br />
Erklärungen, die in schriftlicher Form vorliegen und sich auf<br />
entwickelte wissenschaftliche Theorien stützen, kann ihre Bewertung dagegen<br />
präzisiert werden; zumal in den Wissenschaften selbst bereits bestimmte<br />
methodische Standards für eine derartige Einschätzung etabliert<br />
sind. Kriterien, die für den Bereich der Wissenschaften Geltung besitzen,<br />
lassen sich schließlich mit manchen Einschränkungen und Modifikationen<br />
auf Erklärungen aus dem Alltag übertragen, weil zwischen alltäglichen<br />
und wissenschaftlichen Erklärungen grundlegende Gemeinsamkeiten<br />
bestehen.<br />
Mein Unternehmen beginnt also damit, eine diachronische Kohärenztheorie<br />
der Rechtfertigung zu entwickeln, die den allgemeinen Rahmen<br />
bereitstellt, in dem Erklärungen die wichtigste Aufgabe bei der Erzeugung<br />
von Kohärenz zukommt. Erst im zweiten Schritt wird eine Explikation<br />
von „(guter) Erklärung“ folgen, die ihren Schwerpunkt in einer Explikation<br />
von „wissenschaftlicher Erklärung“ findet.<br />
Neben diesen beiden Aufgabenstellungen ist es ein Anliegen dieses<br />
Buchs, einen längst fälligen Brückenschlag zwischen der heutigen Erkenntnistheorie<br />
und der Wissenschaftstheorie zu bewerkstelligen. Denn<br />
obwohl diese philosophischen Disziplinen thematisch eng verbunden<br />
sind, treten sie in den meisten akademischen Diskussionen, wie z. B. der<br />
über epistemische Rechtfertigungen, getrennt in Erscheinung. Meine Arbeit<br />
wird diese Beobachtung an vielen Stellen weiter untermauern. Obgleich<br />
etwa der Erklärungsbegriff explizit eine zentrale Rolle in zahlreichen<br />
erkenntnistheoretischen Ansätzen neueren Datums spielt, wird<br />
dort kaum zu seiner Explikation beigetragen – schon gar nicht gemäß<br />
dem Stand der entsprechenden wissenschaftstheoretischen Diskussion.<br />
Vielmehr wird, was unter einer Erklärung zu verstehen ist, entweder offengelassen<br />
und nur an ein vages Alltagsverständnis dieses Begriffs appelliert,<br />
oder man bezieht sich schlicht auf das Hempel-Oppenheim<br />
Schema der Erklärung, das in der wissenschaftstheoretischen Debatte<br />
um Erklärungen wegen seiner zahlreichen Mängel schon seit längerem<br />
ausgedient hat. Auf der anderen Seite sieht es nicht besser aus: Die wissenschaftsphilosophische<br />
Diskussion, welche der auf das DN-Schema<br />
der Erklärung folgenden Konzeptionen über wissenschaftliche Erklärungen<br />
zu bevorzugen sei, wird nahezu ausschließlich anhand von Anwendungen<br />
dieser Erklärungsansätze auf Beispielfälle geführt. Welche epistemische<br />
Funktion Erklärungen zu erfüllen haben und wie sie sich in bestimmte<br />
Erkenntnistheorien einfügen, bleibt dabei außen vor, obwohl
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 16<br />
diese Überlegungen offensichtlich einschlägig für die Beurteilung von<br />
Erklärungen sind.<br />
A. Problemstellungen der Erkenntnistheorie<br />
BonJour hat in seinem vielbeachteten Buch The Structure of Empirical<br />
Knowledge (1985) im wesentlichen drei Problembereiche für die heutige<br />
Erkenntnistheorie genannt, die auch für die vorliegende Arbeit eine<br />
fruchtbare Unterteilung darstellen. Da ist zunächst ein vornehmlich begriffsanalytisches<br />
Projekt, in dem der Begriff „Wissen“ zu explizieren<br />
und die Wahrheitsbedingungen für Sätze wie „S weiß, daß p“ zu bestimmen<br />
sind. Ein zweites Unternehmen der Erkenntnistheorie läßt sich in<br />
einer Theorie der Rechtfertigung ermitteln, die uns angeben soll, was<br />
eine gute epistemische Rechtfertigung bzw. Begründung einer Meinung<br />
ist. Das dritte Vorhaben, das BonJour als „Metarechtfertigung“ bezeichnet,<br />
bezieht sich insbesondere auf das Zweite, indem es den Zusammenhang<br />
zwischen dem explizierten Rechtfertigungsverfahren und dem<br />
Wahrheitsbegriff untersucht und beinhaltet vor allem die Auseinandersetzung<br />
mit dem Skeptiker. Dieses Buch soll in seinem erkenntnistheoretischen<br />
Teil überwiegend das zweite Problem behandeln und darüber<br />
hinaus zumindest eine Antwortskizze auf den Fragenkomplex der Metarechtfertigung<br />
(speziell auf die Herausforderung durch den Skeptiker)<br />
anbieten, während die Wissensdefinition keinen Gegenstand der Arbeit<br />
bilden wird. Trotzdem ist ein erster Blick auf dieses Thema schon zu<br />
Zwecken der Abgrenzung erforderlich.<br />
1. Wissen und Begründung<br />
Die Aufgabe zu bestimmen, was Wissen ist, ist eine der grundlegenden<br />
Fragen seit den Anfängen der Philosophie. Der wohl einflußreichste Vorschlag<br />
war der Platons im Theaetet und im Menon. Danach verstand<br />
man den Wissensbegriff lange Zeit so, daß jemand eine Aussage p weiß,<br />
wenn er den wahren und zugleich begründeten Glauben hat, daß p. Erst<br />
Gettier hat (1963) einen Typ von Situationen gefunden, der nach ihm<br />
benannt wurde und in seinen zahlreichen Ausgestaltungen Gegenbeispiele<br />
gegen die meisten vorgelegten Wissensdefinitionen anbieten kann.<br />
An einem einfachen Gettierbeispiel möchte ich auf das Verhältnis von<br />
Wissensdefinition und der Begründung von Meinungen eingehen. Nehmen<br />
wir an, ein Student von mir fährt einen BMW und behauptet, er ge-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 17<br />
höre ihm auch. Da ich keinen Grund habe, seine Behauptung in Zweifel<br />
zu ziehen, denn er ist weder ein Angeber, noch finanziell zu schlecht gestellt<br />
für ein solches Auto, glaube ich ihm, daß ihm der Wagen gehört.<br />
Dazu habe ich in diesem Fall auch gute Gründe, und man dürfte meine<br />
Überzeugung sicherlich als Wissen bezeichnen, wenn nicht eine Komplikation<br />
ins Spiel käme. Der Student wollte mich tatsächlich an der Nase<br />
herumführen. Der BMW gehört – so nimmt er jedenfalls an – einem<br />
Freund von ihm, der ihm den Wagen geliehen hat. Er selbst besäße demnach<br />
überhaupt kein Auto. Aber, ohne daß er davon wußte, hat sein Vater<br />
den BMW von seinem Freund für ihn gekauft. Entgegen seinen eigenen<br />
Annahmen gehört ihm der BMW also doch. Damit sind für meine<br />
entsprechende Überzeugung alle Anforderungen der Platonischen Wissensdefinition<br />
buchstäblich erfüllt: Mein Glaube, daß ihm der BMW gehört,<br />
ist wahr und auch begründet.<br />
Trotzdem möchten wir in diesem Fall nicht von Wissen sprechen,<br />
weil meine Gründe für die Meinung, daß der Student einen BMW besitzt,<br />
mit ihrer Wahrheit nichts zu tun haben. Bei meinem Wissensstand,<br />
der sich ganz auf die Angaben des Studenten stützt, ist es bloß ein glücklicher<br />
Zufall, daß die Meinung wahr ist, und somit keineswegs Wissen.<br />
Wir hätten genau dieselben Gründe zur Verfügung gehabt, wenn der Vater<br />
nicht so großzügig gewesen und der Student immer noch auf ein<br />
Leihauto angewiesen wäre. Also können wir nicht mit Fug und Recht<br />
behaupten, ich hätte gewußt, daß dem Student ein BMW gehört, denn<br />
Wissen verlangt mehr als eine bloß zufällig wahre Meinung, für die man<br />
Gründe hat, die nur zufällig mit der Wahrheit der Meinung zusammenhängen.<br />
Diese Beschreibung des Falles, die von den meisten Wissenstheoretikern<br />
geteilt wird, setzt voraus, daß wir in der geschilderten Situation tatsächlich<br />
über eine Rechtfertigung unserer Überzeugung: „Student X besitzt<br />
einen BMW“ verfügen, da sonst die entsprechende Platonische Bedingung<br />
in dem Gettierbeispiel nicht erfüllt wäre und dieses seine Funktion<br />
als Gegenbeispiel nicht übernehmen könnte. Diese Redeweise entspricht<br />
auch unseren üblichen Vorstellungen von Rechtfertigungen. Die<br />
geschilderten Gründe – die man in einer erweiterten Geschichte natürlich<br />
ohne weiteres noch verstärken könnte – stellen gute Gründe für<br />
meine Überzeugung dar, nur reichen diese Gründe eben nicht für Wissen<br />
aus. Dazu müssen in eine Wissensdefinition vermutlich weitere Anforderungen<br />
mit aufgenommen werden.<br />
An dieser Stelle wird erkennbar, wie sich die Wege für eine Theorie<br />
der Rechtfertigung und eine Wissensexplikation trotz ihres Zusammen-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 18<br />
hangs trennen. In dem Projekt der Wissensdefinition sucht man nach<br />
spezifischen Rechtfertigungen, nämlich solchen, die für wahre Meinungen<br />
auch zu Wissen führen, oder beschreitet ganz andere Wege, indem<br />
man die Rechtfertigungsbedingung der Platonischen Definition durch<br />
völlig andersgeartete Forderungen ersetzt. Die für Wissen spezifischen<br />
Rechtfertigungsbedingungen sind aber keinesfalls für Rechtfertigungen<br />
per se unerläßlich, denn in dem Gettierbeispiel liegen sie offensichtlich<br />
nicht vor, obwohl wir es mit guten Gründen für unsere Meinung, daß<br />
der Student einen BMW besitzt, zu tun haben. Das Projekt der Wissensexplikation,<br />
das manchmal auch als „Gettierologie“ bezeichnet wird, hat<br />
sich so zu einer subtilen Tüftelei der Formulierung immer ausgefeilterer<br />
Bedingungen für Wissen und dem Konstruieren immer komplizierterer<br />
Gegenbeispiele im Stile Gettiers entwickelt. Dabei geht es nicht darum,<br />
besonders gute Rechtfertigungen von schlechteren abzugrenzen, sondern<br />
darum, einen ganz speziellen Typ von Rechtfertigungen für eine geeignete<br />
Wissensbedingung zu bestimmen. Es wird schon vorausgesetzt, unsere<br />
Vorstellung, was eine Rechtfertigung ausmacht, sei bereits hinreichend<br />
geklärt, und wir könnten nun unter den Rechtfertigungen nach<br />
solchen für Wissen suchen. Eine beliebige Rechtfertigung ist eben nur zu<br />
wenig für Wissen. Sie kann daher z. B. durch externalistische Anforderungen<br />
an die Rechtfertigung ergänzt werden; wie etwa die Harmansche<br />
Bedingung, nach der die Rechtfertigung selbst nicht auf falschen Annahmen<br />
beruhen darf.<br />
Es ist wichtig, dieses Projekt deutlicher von dem zu trennen, eine<br />
Theorie der epistemischen Rechtfertigung zu entwerfen, als das in der erkenntnistheoretischen<br />
Forschung bisher geschieht. Etliche Autoren vermengen<br />
beide Fragestellungen, als ob es um ein und dasselbe Unternehmen<br />
ginge oder versuchen auf dem „Umweg“ über die Rechtfertigungstheorie<br />
eigentlich nur zu einer Wissensdefinition zu gelangen. Dann hat<br />
die Rechtfertigungstheorie meist erkennbar darunter zu leiden, daß ihre<br />
Konstrukteure schon auf den zweiten Schritt abzielen. Mir soll es in dieser<br />
Arbeit nur um eine Theorie der epistemischen Rechtfertigung oder Begründung<br />
zu tun sein und die Explikation von „Wissen“ wird dabei bestenfalls<br />
am Rande besprochen.<br />
2. Epistemische Rechtfertigungen als Wahrheitsindikatoren<br />
Der kurze Abstecher in das Vorhaben der Wissensexplikation sollte daran<br />
erinnern, an welcher Stelle in den klassischen Wissensdefinitionen<br />
eine Konzeption von Rechtfertigung bereits vorausgesetzt wird. Die Bedeutung<br />
einer Theorie der Rechtfertigung von Meinungen erschöpft sich
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 19<br />
aber keinesfalls darin, eine Vorarbeit zur Wissensdefinition zu sein. Es ist<br />
ein Vorhaben der Erkenntnistheorie, das weit über die spezielle Problematik<br />
des Wissensbegriffs hinausreicht und unabhängig von den Idiosynkrasien<br />
unseres Wissensbegriffs behandelt werden kann.<br />
Wenn man Jay F. Rosenberg (1986, 17ff) wenigstens im Grunde zustimmt,<br />
daß das Wesen des Philosophierens geradezu darin besteht, Positionen<br />
immer nur mit Begründungen zu vertreten und bereit zu sein, auf<br />
Argumente gegen diese Positionen wieder mit Argumenten zu antworten,<br />
gehört das Anfertigen von Rechtfertigungen unerläßlich zur Praxis<br />
des Philosophierens. Eine Analyse, was Rechtfertigungen ausmacht,<br />
sollte daher ein wichtiges Geschäft für jede Metaphilosophie darstellen.<br />
Die Bereitschaft, für eigene Behauptungen auch Gründe anzuführen und<br />
nicht bloß auf zufällig angenommenen Behauptungen zu beharren, ist<br />
die kognitive Leistung, die einen Philosophen von einem bloßen Dogmatiker<br />
oder einem Kind unterscheidet, das eine Meinung von seinen Eltern<br />
übernommen hat, ohne sie selbst begründen zu können. Offenheit<br />
für neue Argumente, die es gestattet, auch die angeführten Begründungen<br />
selbst wieder in Zweifel ziehen zu können, ist der wichtigste Schritt<br />
weg von einer dogmatischen Verteidigung seiner Ansichten zu einer rationalen<br />
Auseinandersetzung.<br />
Eine Rechtfertigung einer Behauptung besteht in idealtypischer Vereinfachung<br />
aus zwei Teilen. Einmal aus weiteren Hypothesen oder Annahmen,<br />
die als Prämissen der Rechtfertigung auftreten und zum zweiten<br />
aus der Behauptung, daß diese Annahmen die in Frage stehende Position<br />
in bestimmter Weise rechtfertigen. Ein Angriff auf eine philosophische<br />
Position kann sich dementsprechend entweder gegen die Prämissen<br />
richten und nach Begründungen für sie verlangen oder dagegen, daß<br />
sie tatsächlich die fragliche Meinung stützen. Im Verlaufe eines solchen<br />
Angriffs auf eine philosophische Ansicht werden meist selbst wieder Behauptungen<br />
formuliert, die ebenfalls zu begründen sind. Diese natürlich<br />
stark vereinfachte Darstellung einer dialektischen geführten Diskussion<br />
mag als Hinweis genügen, warum Rechtfertigungen in philosophischen<br />
Disputen eine zentrale Rolle zukommt. Wir sollten schon deshalb die<br />
philosophische Verpflichtung übernehmen, über die Frage zu reflektieren,<br />
wie eine gute epistemische Rechtfertigung auszusehen hat.<br />
Begründungen bzw. Rechtfertigungen (diese Ausdrücke werden von<br />
mir bezogen auf epistemische Kontexte synonym gebraucht) anzugeben,<br />
ist natürlich keineswegs Philosophen vorbehalten, sondern eine Selbstverständlichkeit<br />
in vielen außerphilosophischen, wissenschaftlichen und<br />
eventuell vollkommen banalen Kontexten. Selbst wenn ich auf einer Par-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 20<br />
ty äußere: „Fritz ist eifersüchtig auf Hans“, ist die Erwiderung: „Wieso<br />
glaubst du das?“, eine naheliegende Aufforderung, die geäußerte Meinung<br />
nun auch zu begründen. Dann kann ich womöglich anführen, Fritz<br />
habe sich gestern sehr feindselig gegenüber Hans verhalten und dies sei<br />
ein Zeichen seiner Eifersucht. Wenn meinem Gesprächspartner diese<br />
Rechtfertigung meiner Behauptung nicht ausreicht, kann er entweder<br />
meine Prämisse bestreiten: „Fritz hat sich nicht feindselig gegenüber<br />
Hans verhalten, sondern war nur allgemein mürrisch“, oder den Rechtfertigungsanspruch<br />
dieser Prämisse in Abrede stellen: „Auch wenn Fritz<br />
sich feindselig verhalten hat, so deutet das keineswegs auf Eifersucht<br />
hin, sondern ist darin begründet, daß Hans den Fritz geschäftlich hereingelegt<br />
hat.“ Wie eine derartige Diskussion weiter verlaufen kann, läßt<br />
sich leicht ausmalen.<br />
Schon in diesem einfachen Beispiel sind zwei Aspekte von Rechtfertigungen<br />
gut erkennbar. Zum einen die oben schon beschriebene Grundstruktur<br />
von Rechtfertigungen und zum anderen ihre erkenntnistheoretische<br />
Funktion. Da wir in vielen Fällen die Wahrheit bestimmter Behauptungen<br />
nicht direkt überprüfen können, suchen wir nach indirekten Anzeichen<br />
für ihre Wahrheit oder auch Falschheit. Dabei steht meist der in<br />
der Pflicht, Wahrheitsindikatoren vorzulegen, der eine Meinung vorträgt.<br />
Indizien für die Wahrheit einer Aussage darzustellen soll zugleich die für<br />
die weitere Arbeit leitende Charakterisierung von Rechtfertigungen sein.<br />
Eine terminologische Abgrenzung ist aber noch angebracht. Mit<br />
„Rechtfertigung“ beziehe ich mich nur auf epistemische Rechtfertigungen.<br />
Bekanntlich spricht man auch in anderen Kontexten von Rechtfertigung.<br />
So könnte mein Chef mich z. B. auffordern, mich zu rechtfertigen,<br />
warum ich in der letzten Woche nicht gearbeitet habe. Wenn die Fakten<br />
bereits geklärt sind und ich ihm nicht in seiner Behauptung, daß es so<br />
war, widersprechen möchte, erwartet er eine moralische oder sogar juristische<br />
Rechtfertigung von mir. Diese Rechtfertigung soll dabei nicht<br />
eine Begründung dafür darstellen, daß bestimmte Annahmen wahr sind,<br />
sondern hat die Funktion, mich moralisch zu entlasten, mein Verhalten<br />
zu rechtfertigen. Dazu teile ich ihm in der Regel gleichfalls neue Fakten<br />
mit – etwa, daß ich krank war –, aber diese Fakten werden in diesem<br />
Kontext nicht als Indizien dafür betrachtet, daß ich nicht im Dienst war,<br />
sondern gelten hoffentlich als angemessene Entschuldigung für meine<br />
Abwesenheit.<br />
Epistemische Rechtfertigungen zielen dagegen auf Wahrheit ab. Sie<br />
sind noch nicht einmal in erster Linie dazu geeignet, andere von der<br />
Wahrheit einer Behauptung zu überzeugen – selbst wenn das Partybei-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 21<br />
spiel oder diskurstheoretische Ansätze das vielleicht nahelegen mögen.<br />
Das können in bestimmten Fällen andere Überlegungen, die z. B. an bestimmte<br />
Vorurteile des Adressaten appellieren oder an gewisse Emotionen<br />
rühren, viel eher leisten, obwohl wir diese Überlegungen nicht unbedingt<br />
als Wahrheitsindikatoren anerkennen werden. Im Gegenteil erachten<br />
wir sie sogar oft als irreführend: Wir werden nicht in der Werbung<br />
nach typischen Vertretern guter Rechtfertigungen und Wahrheitsindikatoren<br />
suchen, obwohl sie ganz darauf abstellt, uns von etwas zu<br />
überzeugen.<br />
Die tatsächliche Überzeugungskraft einer Argumentation möchte ich<br />
aus der Diskussion um Rechtfertigungen weitgehend heraushalten und<br />
in einer Theorie der Argumentation oder Rhetorik ansiedeln. So kann ein<br />
zwingender mathematischer Beweis ein optimaler Wahrheitsindikator<br />
sein, weil er die Wahrheit einer Behauptung sogar garantiert, aber trotzdem<br />
wenig überzeugend wirken, weil er zu lang und kompliziert erscheint,<br />
um von vielen Leuten verstanden zu werden. Außerdem sind typische<br />
Argumentationsweisen häufig nur aus der dialektischen Situation<br />
heraus zu analysieren, etwa in einer dialektischen Logik, und in bestimmten<br />
Fällen kaum als Rechtfertigungen zu bezeichnen. Walton<br />
(1984, 4ff) gibt dazu ein Beispiel für eine Variante eines ad hominem Arguments,<br />
dem sehr wohl ein Platz in einem entsprechenden Disput zukommt,<br />
das aber keine epistemische Begründung darstellt: Der Vater ermahnt<br />
den Sohn weniger zu rauchen, denn das würde sein Krebsrisiko<br />
dramatisch erhöhen. Darauf erwidert der Sohn: „Aber Du rauchst doch<br />
selbst jeden Tag ein Päckchen.“ Diese Replik sagt uns nichts über den<br />
Zusammenhang von Rauchen und Krebs, aber ein Vorstoß des Mottos<br />
„Du praktizierst nicht, was Du predigst“ kann auf eine Art pragmatischer<br />
Inkonsistenz eines Diskussionspartners verweisen, die der Überzeugungskraft<br />
seiner Argumente Abbruch tut. Die epistemologische<br />
Rechtfertigungstheorie hat in derartigen Fällen andere Aufgabenstellungen<br />
als eine Argumentationstheorie und bedient sich bei allen Zusammenhängen,<br />
die es unzweifelhaft zwischen diesen Gebieten gibt, auch<br />
anderer Methoden.<br />
Trotz dieser sicher notwendigen Warnungen, den Zusammenhang<br />
zwischen Rechtfertigungen und Motiven oder Ursachen für unsere Überzeugungen<br />
nicht zu eng zu sehen, sollte es bestimmte Gemeinsamkeiten<br />
geben. Wenn wir von guten Argumenten verlangen, nachhaltige Überzeugungsarbeit<br />
zu leisten und nicht nur auf die menschlichen Schwächen<br />
einiger Diskussionspartner zu zielen, so sollte hinter jedem guten Argument<br />
auch eine gute Begründung stehen. Gute Argumente wären dem-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 22<br />
nach überzeugend verpackte Begründungen. Darüber hinaus erwarten<br />
wir einen Zusammenhang zum Rationalitätsbegriff. Vollkommen rationale<br />
Personen sollten von guten epistemischen Rechtfertigungen überzeugt<br />
werden können, wenn sie keine Gegenargumente anzubieten haben.<br />
Das ist aber vielleicht nicht so sehr eine Behauptung über die kausale<br />
Wirksamkeit von Rechtfertigungen in der Meinungsbildung, als vielmehr<br />
ein analytischer Bestandteil eines entsprechenden normativen Konzepts<br />
von Rationalität.<br />
Neben epistemischen Rechtfertigungen lassen sich also noch viele<br />
Beispiele anderer Rechtfertigungen finden, die im folgenden ebenso ausgeklammert<br />
werden sollen, wie die motivationalen Aspekte von Rechtfertigungen.<br />
Es wird nur um die Frage gehen, was eine gute Rechtfertigung<br />
ist, und nicht um die, von welchen Argumenten bestimmte Menschen<br />
sich besonders beeindrucken lassen. Epistemisch zu rechtfertigen<br />
sind – und das wurde in den Beispielen schon angedeutet – Aussagen<br />
oder Meinungen aus recht unterschiedlichen Bereichen. Im folgenden<br />
möchte ich mich vornehmlich mit Rechtfertigungen für empirische Meinungen<br />
beschäftigen, aber an vielen Stellen ist offensichtlich, daß zumindest<br />
wesentliche Strukturähnlichkeiten zu Rechtfertigungen von moralischen<br />
oder anderen nicht-empirischen Behauptungen gegeben sind.<br />
Allerdings treten für Begründungen normativer Behauptungen spezifische<br />
Probleme hinzu, die zunächst auszuklammern ein methodisches<br />
Gebot sein sollte. Die Moralphilosophie ist ein gutes Beispiel dafür, daß<br />
wir von Begründungen sprechen, die etwas mit der Richtigkeit moralischer<br />
Normen zu tun haben, obwohl die Frage, ob es so etwas wie ethisches<br />
Wissen und moralische Wahrheit gibt, recht umstritten ist. Was das<br />
genaue Ziel moralphilosophischer Begründungen von ethischen Normen<br />
sein soll, wenn wir nicht auch in einem anspruchsvollen nichtrelativistischen<br />
Sinn von moralischer Wahrheit sprechen möchten, ist ein schwieriges<br />
Problem der Metaethik. Das hat einige Moralphilosophen wie<br />
Brink (1989) zu der Ansicht des moralischen Realismus geführt. Für ihn<br />
kann auch im Bereich der Ethik die Suche nach Wahrheit eine geeignete<br />
Beschreibung unserer Praxis moralischen Räsonierens abgeben.<br />
a) Die Entwicklung einer diachronischen Kohärenztheorie<br />
Meine Argumentation für eine bestimmte „Ethik des Meinens“, nämlich<br />
eine Kohärenztheorie der Rechtfertigung, erfolgt in mehreren Schritten.<br />
In Kapitel (II) wird der metatheoretische oder metaphysische Hintergrund<br />
skizziert, vor dem die folgende Untersuchung stattfinden soll. In<br />
(II.A) wende ich mich als erstes gegen Versuche, die Erkenntnistheorie in
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 23<br />
radikaler Weise zu „naturalisieren“, wie wir sie etwa bei Quine finden,<br />
der die Erkenntnistheorie zur Gänze an die Naturwissenschaften delegieren<br />
möchten. Eine sorgfältige Unterscheidung zwischen Genese und<br />
Rechtfertigung von Meinungen bietet dabei immer wieder den besten<br />
Ausgangspunkt zur Zurückweisung naturalistischer Angriffe auf die philosophische<br />
Erkenntnistheorie, die im Unterschied zu rein naturwissenschaftlichen<br />
Forschungsvorhaben eine zum Teil normative Zielsetzung<br />
verfolgt. Ähnliche Einwände sind auch gegen Naturalisierungsvorstöße<br />
wie den der evolutionären Erkenntnistheorie wirksam, der darüber hinaus<br />
noch eine ganze Reihe inhärenter Probleme mit sich bringt.<br />
Zusätzlich zu dieser negativen Abgrenzung gegenüber radikalen naturalistischen<br />
Vorgehensweisen, beinhaltet Kapitel (II.A) auch die Ausarbeitung<br />
einer positiven Methodologie. Die Naturalisierung der Epistemologie<br />
wurde zumindest teilweise durch die Fehlschläge motiviert,<br />
die Erkenntnistheorie in Form einer ersten Philosophie zu begründen,<br />
und es bleibt daher die Frage offen, was an die Stelle der ersten Philosophie<br />
treten kann, wenn die Naturwissenschaften und ihre Methoden dafür<br />
ungeeignet erscheinen. Hier, wie auch für normative Theorien in der<br />
Ethik, scheint mir nur eine Form des von Goodman und Rawls propagierten<br />
reflektiven Gleichgewichts – das ich in seiner hier vertretenen<br />
Form auch als „methodologischen Naturalismus“ bezeichne – den richtigen<br />
Weg zu weisen.<br />
Das Kapitel (II.B) ist einer Bestimmung derjenigen Wahrheitskonzeption<br />
gewidmet, die mit der Redeweise von Wahrheitsindikatoren gemeint<br />
ist. Dabei wähle ich denselben Rahmen, in dem auch klassische erkenntnistheoretische<br />
Debatten geführt wurden, d.h. eine realistische Vorstellung<br />
von der Außenwelt gepaart mit einem realistischen Wahrheitsbegriff<br />
im Sinne einer Korrespondenzauffassung von Wahrheit. Allen noch<br />
so verlockenden Versuchen, den Einwänden des radikalen Skeptikers dadurch<br />
zu entkommen, daß man die Welt als wesentlich durch uns konstruiert<br />
ansieht oder Wahrheit als epistemisch ideale Rechtfertigung betrachtet,<br />
wird damit eine klare Absage zugunsten der klassischen Erkenntnisproblematik<br />
erteilt.<br />
Ehe ich zu einer direkten Untersuchung von Begründungsverfahren<br />
übergehen kann, werden in Kapitel (II.C) noch einige Grundfragen der<br />
Struktur unserer Meinungssysteme und ihrer Rechtfertigungsbeziehungen<br />
rekonstruiert, so etwa, daß Rechtfertigungen immer relativ zu einem<br />
bestimmten Hintergrundwissen bestehen. Bei Menschen setzt sich das zu<br />
einem großen Teil aus dem nicht unproblematischen impliziten Wissen<br />
zusammen. Für andere epistemische Subjekte wie z. B. Wissenschaftler-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 24<br />
gemeinschaften, die hier auch zugelassen werden sollen, ergeben sich dagegen<br />
völlig andere Probleme.<br />
Um zu einer einigermaßen realistischen Darstellung unseres Erkenntniserwerbs<br />
zu kommen, ist aber in jedem Fall ein Phänomen zu berücksichtigen,<br />
das ich als „erkenntnistheoretische Arbeitsteilung“ bezeichne.<br />
Schon der Spracherwerb aber auf jeden Fall der Wissenserwerb und die<br />
uns zur Verfügung stehenden epistemischen Rechtfertigungen unterliegen<br />
zu wesentlichen Teilen einer gesellschaftlichen Arbeitsteilung. Der<br />
methodologische Solipsismus Descartes verkennt, daß wir bereits zum<br />
Verständnis der Wörter, mit denen wir unsere Überzeugungen wiedergeben,<br />
auf sozial vermittelte Bedeutungen – etwa in Form der Putnamschen<br />
Stereotypen – angewiesen sind. Das gilt für die meisten Bereiche<br />
unseres Wissens. Sie sind nur als eine Form von gesellschaftlichem Wissen<br />
verfügbar, und eine Erkenntnistheorie, die diesem Phänomen nicht<br />
Rechnung tragen kann, gerät immer in die Gefahr, dem Erkenntnissubjekt<br />
eine Herkulesarbeit aufzubürden.<br />
Diese Vorarbeiten sind zwar langwierig, aber notwendig, um im folgenden<br />
einer Reihe von Einwänden und Mißverständnissen begegnen zu<br />
können. Erst in Kapitel (III) beginnt eine direkte Argumentation für die<br />
Kohärenztheorie, indem ihr Hauptkonkurrent, der fundamentalistische<br />
Ansatz, bekämpft wird. Dazu wird zunächst einmal die heutzutage für<br />
Fundamentalisten gebräuchliche externalistische Variante ihrer Rechtfertigungsstrategie<br />
zurückgewiesen; jedenfalls für den Bereich der epistemischen<br />
Rechtfertigungen, denn für das Projekt der Wissensexplikation<br />
sind externalistische Schachzüge kaum noch wegzudenken. Für die Ausarbeitung<br />
einer Rechtfertigungstheorie erweist sich das externalistische<br />
Vorgehen allerdings als eine glatte Themaverfehlung. Mit dieser generellen<br />
Argumentation gegen alle externalistischen Schachzüge, die in verschiedenen<br />
Variationen immer wieder in fundamentalistischen Erkenntnistheorien<br />
auftreten, untergrabe ich gleichzeitig das wichtigste Standbein<br />
der empiristischen Epistemologie.<br />
Die Festlegung auf nicht-externalistische Rechtfertigungen verringert<br />
also die Attraktivität fundamentalistischer Ansätze im allgemeinen. Sie<br />
können dann keine überzeugende Antwort auf die Frage geben, welcher<br />
Art die Rechtfertigungen ihrer basalen Meinungen sind. Dadurch verlieren<br />
sie auch die Unterstützung ihres wichtigsten Arguments, dem Regreßargument,<br />
weil sie selbst keine stichhaltige Lösung für einen Stopp des<br />
Regresses mehr anzubieten haben. Dazu kommt eine Reihe interner Probleme,<br />
wie ihre implizite Annahme, es gäbe natürliche epistemische Arten<br />
von Aussagen, die sich anhand von Beispielen als unplausibel heraus-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 25<br />
stellt. Da sie darüber hinaus noch nicht einmal andere erkenntnistheoretische<br />
Ziele wie die Irrtumssicherheit ihrer fundamentalen Aussagen (etwa<br />
im Phänomenalismus) gewährleisten können, führt das letztlich zu einer<br />
Zurückweisung der Konzeption basaler Überzeugungen.<br />
Demnach ist jede unserer Meinungen im Prinzip anhand anderer<br />
Meinungen begründungspflichtig, und die einzige Metatheorie, die diesem<br />
Erfordernis Rechnung trägt, ist eine Kohärenztheorie der Rechtfertigung.<br />
Sie wird in Kapitel (IV) entwickelt und selbst begründet. Dafür ist<br />
als erstes zu klären, was Kohärenz über bloße Konsistenz hinaus ist, worauf<br />
meine Antwort lautet: Ein Netz von Abduktionsbeziehungen, das<br />
über einen gewissen Zeitraum hinweg stabil geblieben ist. Kohärenz<br />
setzt sich dabei aus verschiedenen Aspekten der relationalen und systematischen<br />
Kohärenz zusammen, die außer der Güte der Einbettung einer<br />
Meinung in ein Netzwerk von Meinungen auch holistische Beurteilungen<br />
der globalen Kohärenz dieses Systems von Meinungen berücksichtigten.<br />
Neben einer Reihe von Überlegungen und Beispielen, die die intuitive<br />
Kraft dieser Kohärenztheorie belegen sollen, zeigt die Kohärenztheorie<br />
ihre Leistungsfähigkeit speziell in der bisherigen Domäne der empiristischen<br />
Theorien, den Beobachtungsaussagen. Für sie stütze ich mich<br />
auf die von BonJour entwickelte kohärenztheoretische Begründung von<br />
Wahrnehmungsaussagen, die auch das besondere Irrtumsrisiko bestimmter<br />
Typen von Beobachtungsaussagen besser als empiristische Konzeptionen<br />
erklären kann.<br />
Abgeschlossen wird die Ausgestaltung der Kohärenztheorie in Kapitel<br />
(V) mit einer Beantwortung der Standardeinwände, die gegen Kohärenztheorien<br />
erhoben werden. Da ist in erster Linie wieder das schon erwähnte<br />
Regreßargument zu nennen, das gerade Fundamentalisten gerne<br />
für ihre Position zitieren. Doch relativ zur Antwort des Fundamentalisten<br />
hat die Kohärenztheorie die eindeutig informativere Antwort anzubieten<br />
und kann darüber hinaus eine falsche Voraussetzung des Regreßarguments<br />
entlarven. Zusätzlich verstärke ich an diesem Punkt die Kohärenztheorie<br />
durch den epistemologischen Konservatismus, der noch<br />
einmal den diachronischen Charakter der Rechtfertigungstheorie betont.<br />
b) Metarechtfertigungen<br />
Im Verlauf der Ausarbeitung meiner Rechtfertigungstheorie wird die<br />
Plausibilität bestimmter Rechtfertigungsverfahren immer schon ein Thema<br />
sein – wie für die Wissensexplikation die Auseinandersetzung mit<br />
den Gettierschen Beispielen. Trotzdem bleibt noch Raum für ein eigenständiges<br />
drittes Projekt innerhalb der Erkenntnistheorie, das „Meta-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 26<br />
rechtfertigung“ genannt wird. Für das entwickelte Rechtfertigungsverfahren<br />
soll gezeigt werden, daß es sich tatsächlich um einen Vorschlag<br />
für epistemische Rechtfertigungen handelt, d.h. ein Verfahren, das auf<br />
Wahrheit abzielt. Spätestens in diesem Rahmen haben wir uns mit den<br />
verschiedenen Formen des Skeptizismus auseinanderzusetzen, der das<br />
ganze erkenntnistheoretische Unternehmen bedroht. Der Skeptiker kann<br />
sich auf den vorgegebenen Rahmen einer realistischen Auffassung der<br />
Welt und den korrespondenztheoretischen Wahrheitsbegriff berufen, der<br />
immer eine Lücke zwischen unseren gerechtfertigten Überzeugungen<br />
und der Wahrheit läßt, von der der Skeptiker behauptet, wir könnten sie<br />
nicht überwinden.<br />
In meiner Antwort auf den Skeptizismus beschränke ich mich darauf,<br />
Erwiderungen auf zwei Typen von Skeptikern zu formulieren, nämlich<br />
einen Cartesianischen radikalen Skeptiker und einen sehr gemäßigten<br />
Skeptiker, der unsere Überzeugungen über unsere kausale Stellung in der<br />
Welt nicht gänzlich in Frage stellt. In beiden Fällen betrachte ich die<br />
skeptischen Einwände aber als sowohl verständliche wie auch berechtigte<br />
Herausforderungen, denen nicht leicht zu begegnen ist.<br />
Ein reflektives Unternehmen wie das der Metarechtfertigung wird<br />
dabei mit dem Problem konfrontiert, wie sich Behauptungen im Rahmen<br />
einer Metarechtfertigung selbst begründen lassen. Dazu wiederum auf<br />
die explizierten Rechtfertigungsverfahren zurückzugreifen, erscheint zirkulär.<br />
Zu Metarechtfertigungsverfahren Zuflucht zu nehmen, scheint<br />
nur auf einen Regreß immer höherer Ebenen zu führen. Trotzdem ist<br />
man natürlich auf den Einsatz bestimmter grundlegender Rechtfertigungsmöglichkeiten<br />
angewiesen. Dazu untersuche ich unter anderem<br />
eine bestimmte apriorische Anwendung des Schlusses auf die beste Erklärung,<br />
deren Schwachpunkte ich aufzeigen werde, und zu der ich eine<br />
Alternative vorschlagen möchte.<br />
B. Wissenschaftliche Theorien und Erklärungen<br />
Die von mir vertretene Kohärenztheorie der Rechtfertigung bestimmt<br />
Kohärenz wesentlich als Erklärungskohärenz. Dabei blieb jedoch der Erklärungsbegriff<br />
selbst noch relativ unexpliziert. Diesen weißen Fleck<br />
auszufüllen ist die Aufgabe der letzten drei Kapitel meiner Arbeit, in denen<br />
ich aus den bereits genannten Gründen den Schwerpunkt der Explikation<br />
auf die wissenschaftlichen Erklärungen lege.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 27<br />
1. Theorien und ihre innere Struktur<br />
Für sie wird noch deutlicher als etwa für Alltagserklärungen, wie sehr<br />
sie auf wissenschaftliche Theorien angewiesen sind. Allerdings zeigt sich<br />
schon in der allgemeinen Erkenntnistheorie, daß wir uns in den Begründungen<br />
einer Meinung immer auf allgemeine Annahmen oder „kleine<br />
Theorien“ stützen müssen. Schon aus diesem Grund lohnt es sich, die<br />
Explikation von „Erklärungskohärenz“ mit einer Untersuchung von<br />
Theorien und ihren Leistungen für den Zusammenhalt unseres Wissens<br />
zu beginnen (Kap. VII). Bei der Untersuchung, was Theorien sind, präsentieren<br />
sie sich keineswegs als eine nahezu amorphe Menge von Sätzen,<br />
wie es etwa noch von den logischen Empiristen oder den Popperianern<br />
angenommen wurde. Vielmehr weisen sie eine Vielzahl von inneren<br />
Komponenten auf. Die ermöglichen es ihnen, anhand eines komplizierten<br />
Zusammenspiels, Beobachtungsdaten aber auch andere Theorien<br />
in einen Zusammenhang zu stellen. Um die innere Struktur von Theorien<br />
und das Zusammenwirken der Komponenten verstehen zu können,<br />
setze ich die sogenannte strukturalistische Auffassung von Theorien ein,<br />
die auf Arbeiten von Suppes und Sneed zurückgeht und in Deutschland<br />
vor allem durch Wolfgang Stegmüller Verbreitung fand. Diese semantische<br />
Konzeption versucht anhand von Fallstudien – aus inzwischen fast<br />
allen Wissenschaftsbereichen (s. dazu Diederich/Ibarra/Mormann 1989)<br />
– die Funktionsweise von Theorien zu erfassen, indem sie den Informationsflüssen<br />
innerhalb von Theorien und zwischen Theorien nachgeht.<br />
Theorien sind demnach hierarchisch aufgebaute Netze, die mit Hilfe von<br />
Grundgesetzen und Spezialgesetzen, innertheoretischen und intertheoretischen<br />
Brückenstrukturen sowie durch die Einführung theoretischer<br />
Obermodelle versuchen, eine systematische Konzentration unserer Erkenntnisse<br />
zu erreichen. Aufgrund dieser differenzierten Sicht von Theorien<br />
läßt sich der empirische Gehalt, d.h. die mit einer Theorie aufgestellte<br />
Behauptung über die Welt, präzisieren. Es werden dabei viele metatheoretische<br />
Phänomene zugänglich, wie z. B. die Bedeutung der allgegenwärtigen<br />
Approximationen in quantitativen empirischen Theorien<br />
für ihren Gehalt. Der ist wiederum eng verbunden mit der Erklärungsstärke<br />
und den Erklärungsspielräumen der Theorie, die sich in diesem<br />
Rahmen ebenfalls bestimmen lassen.<br />
2. Unterschiedliche Erklärungskonzeptionen<br />
In den Kapiteln (VIII) und (IX) entwickle schließlich ich meine Antwort<br />
auf die Fragen, wieso wir für Erklärungen auf Theorien angewiesen sind<br />
und was unter einer Erklärung zu verstehen ist. Dazu nenne ich neben
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 28<br />
der epistemischen Funktion, die Erklärungen zu erfüllen haben – die im<br />
erkenntnistheoretischen Teil der Arbeit bereits ausführlich erörtert wurde<br />
– eine andere wesentliche Funktion von Erklärungen: Sie sollen uns<br />
zu einem Verständnis bestimmter Vorgänge verhelfen. Der Verstehensbegriff<br />
ist seinerseits erläuterungsbedürftig, wobei ich an Explikationsvorschläge<br />
von Michael Friedman und Karel Lambert anknüpfe.<br />
Unter diesen Gesichtspunkten – und natürlich auch anhand von Beispielen<br />
– werden unterschiedliche wissenschaftstheoretische Ansätze bewertet,<br />
für die ich mit dem klassischen deduktiv nomologischen Erklärungsschema<br />
von Hempel und seinen Schwierigkeiten den Anfang mache.<br />
Einige grundlegende Fragen der Debatte lassen sich bereits an diesem<br />
Schema erörtern. So argumentiere ich mit Beispielen aus der Wissenschaftspraxis<br />
gegen Hempel dafür, daß Naturgesetze weder notwendige<br />
noch hinreichende Bestandteile von Erklärungen darstellen; und<br />
auch Hempels Berufung auf elliptische oder statistische Erklärungen vermag<br />
die nomologische Sichtweise von wissenschaftlichen Erklärungen<br />
nicht zu retten.<br />
Entsprechende Einsichten und vor allem Probleme der Kontextabhängigkeit<br />
von Erklärungen waren der Anlaß für die Entwicklung von<br />
pragmatischen Erklärungstheorien. Die Einbeziehung pragmatischer<br />
Aspekte von Erklärungen stellt unbestritten eine fruchtbare Ergänzung<br />
einer Explikation von Erklärung dar. Sie kann aber nicht die Aufgabe ablösen,<br />
objektive Beziehungen zwischen Explanans und Explanandum zu<br />
ermitteln. Deshalb werden zwei prominente Ansätze zur Charakterisierung<br />
objektiver Erklärungsbeziehungen daraufhin untersucht, ob sie erfolgreich<br />
die Nachfolge der Hempelschen Theorie antreten können. Das<br />
ist zum einen die kausale Erklärungstheorie, für die Erklärungen eines<br />
Ereignisses in der Angabe seiner Ursachen bestehen (Kap. VIII) und zum<br />
anderen die Vereinheitlichungskonzeption von Erklärung, für die Erklärungen<br />
zwar weiterhin Deduktionen à la Hempel sind, aber nur solche<br />
Deduktionen eine Erklärungsleistung erbringen, die vereinheitlichende<br />
und systematisierende Funktionen in einem bestimmten Sinn besitzen<br />
(Kap. IX).<br />
Für die kausalen Ansätze spricht insbesondere, daß sie die Asymmetrie<br />
der Erklärungsbeziehung nachzuzeichnen gestatten und wir intuitiv<br />
in vielen Fällen eine Aufdeckung von Ursachen als erklärend ansehen.<br />
Das größte Problem, vor dem jede heutige kausale Erklärungstheorie zu<br />
bestehen hat, ist jedoch die Analyse von Kausalität selbst. Sie muß auf<br />
der einen Seite die meisten Fälle heutiger wissenschaftlicher Erklärungen<br />
abdecken können und auf der anderen Seite trotzdem noch inhalt-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 29<br />
lich hinreichend bestimmt sein, daß der Ausdruck „x ist Ursache von y“<br />
nicht zu einer bloßen Leerformel verfällt. Einer der prominentesten Versuche,<br />
diesen Erfordernissen gerecht zu werden, der von Wesley Salmon<br />
stammt, stellt eine Analyse von kausalen Prozessen und ihren Interaktionen<br />
ins Zentrum. Ihn unterziehe ich einer detaillierten Kritik.<br />
Allgemein schätze ich die Vorgehensweise der Proponenten kausaler<br />
Erklärungstheorien als nicht sehr erfolgversprechend ein, wenn es darum<br />
geht, eine vollständige Erklärungstheorie zu entwickeln, denn es gibt<br />
bereits zu viele Beispiele von nichtkausalen Erklärungen, die als wissenschaftliche<br />
„Erklärungen“ nicht weniger überzeugend wirken als ihre<br />
kausalen Amtsbrüder. Auf entsprechende Beispiele stoßen wir bevorzugt<br />
in bestimmten Bereichen der Wissenschaft wie etwa der Evolutionstheorie<br />
oder in den Gesellschaftswissenschaften. Aber auch in zentralen Feldern<br />
der heutigen Physik finden wir mit der Quantenmechanik eine genuin<br />
statistische Theorie, die sich noch nicht einmal mehr in eine statistische<br />
Kausalvorstellung wie das „Common-Cause“ Modell zwängen<br />
läßt. Die kausale Erklärungstheorie deckt daher zwar einen wichtigen<br />
Teilbereich von wissenschaftlichen Erklärungen ab, kann aber nicht beanspruchen,<br />
allgemein zu bestimmen, was unter „Erklärung“ zu verstehen<br />
ist. Das ist auch nicht verwunderlich, denn eine Untersuchung allein<br />
der recht unterschiedlichen in der Physik vertretenen Modelle von Kausalität<br />
ergibt keine gehaltvollen Gemeinsamkeiten mehr, auf die eine<br />
Theorie kausaler Erklärungen aufbauen könnte. Die Kausalitätskonzeption<br />
erweist sich eher als ein Familienähnlichkeitsbegriff, der für eine Erläuterung<br />
des Erklärungsbegriffs zu wenige Gemeinsamkeiten für alle<br />
Typen kausaler Beziehungen mit sich bringt.<br />
Umfassender gelingt es dagegen den Vereinheitlichungskonzeptionen,<br />
heutige wissenschaftliche Erklärungen in einer Theorie zu erfassen. Das<br />
konnten insbesondere Friedman und Kitcher in einer Reihe von Fallstudien<br />
zeigen. Für sie gibt die Systematisierungsleistung von Theorien zugleich<br />
an, in welchem Maß sie unser Verständnis befördern und zur Erklärung<br />
der Welt beitragen. Beide haben denn auch in diesem Rahmen<br />
Explikationsvorschläge vorgelegt, die allerdings bei genauerer Analyse<br />
ebenfalls gravierende Mängel aufweisen.<br />
Für Friedman werden in wissenschaftlichen Erklärungen typischerweise<br />
nicht Einzelereignisse, sondern Phänomene, also allgemeinere Ereignistypen,<br />
erklärt. Wissenschaftliche Erklärungen bewirken nach Friedman<br />
vor allem eine Reduktion der Vielzahl von Phänomenen auf wenige<br />
grundlegende. Das versucht er am Beispiel der kinetischen Gastheorie zu<br />
belegen. Aber seine formale Explikation von Vereinheitlichung, die auf
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 30<br />
eine Zählung von Phänomenen angewiesen ist, weist schwerwiegende<br />
Defekte auf, die Kitcher schon bald aufdecken konnte. Trotzdem erfaßt<br />
Friedmans Konzeption wesentliche Ideen der Vereinheitlichung und<br />
kann als Wegweiser in die richtige Richtung dienen.<br />
Einen anderen Weg zur Charakterisierung von Vereinheitlichung beschreitet<br />
Kitcher selbst, für den unsere besten wissenschaftlichen Erklärungen<br />
gerade darauf beruhen, daß wir mit nur wenigen Argumenttypen<br />
auskommen, um eine Vielzahl von Phänomenen abzuleiten. Statt der Reduktion<br />
vieler Phänomene auf wenige, besteht für Kitcher das Ziel der<br />
Vereinheitlichung in der Reduktion der (erklärenden) Argumente auf einige<br />
wenige Typen von Argumenten – Kitcher spricht hier von „Argumentschemata“.<br />
Diese Typen werden im wesentlichen beschrieben durch<br />
die Grundgleichungen zentraler Theorien wie die Newtonschen<br />
Axiome. Kitcher lenkt unseren Blick von den Dingen, die vereinheitlicht<br />
werden, stärker auf die Art und Weise, wie wir sie mit Hilfe von Gesetzen<br />
vereinheitlichen. Das ist eine hilfreiche Ergänzung der Friedmanschen<br />
Ideen.<br />
Dabei betont auch Kitcher wie schon Friedman die Bedeutung holistischer<br />
Zusammenhänge für die Beurteilung von Erklärungen. Ob ein<br />
einzelner Erklärungsvorschlag eine gute Erklärung darstellt oder nicht,<br />
ist demnach nicht allein anhand seiner Struktur zu erkennen (astrologische<br />
Erklärungen können dieselbe Struktur aufweisen wie vorzügliche<br />
wissenschaftliche), sondern nur an seiner Einbettung in größere Zusammenhänge.<br />
Für seine Konzeption sprechen seine Fallstudien von wissenschaftlichen<br />
Theorien, deren Erklärungskraft er in seinem Ansatz überzeugend<br />
zu rekonstruieren weiß.<br />
Probleme treten allerdings wiederum in der Präzisierung dieser Idee<br />
von Vereinheitlichung auf. Um etwa der Gefahr durch triviale Argumentmuster<br />
zu entgehen – Kitcher spricht auch von „unechter Vereinheitlichung“<br />
–, muß er für seine Argumentmuster eine gewisse „Stringenz“<br />
verlangen, für deren Explikation er sich auf die Inhalte der Theorien<br />
zu beziehen hat. Das fällt ihm ausgesprochen schwer, da seine Konzeption<br />
eher auf einer abstrakteren Beurteilungsebene angesiedelt ist<br />
und er auch über keine ausgearbeitete Konzeption der inneren Struktur<br />
von Theorien verfügt. Hier kann die strukturalistische Wissenschaftsauffassung<br />
bessere Resultate erzielen und eine Bestimmung der Stringenz<br />
von Theorien auf eine Untersuchung ihres empirischen Gehalts zurückführen.<br />
Dabei wird der Schritt von einer eher syntaktischen Analyse bei<br />
Kitcher zu einer semantischen oder modelltheoretischen Auffassung im<br />
Sinne des Strukturalismus notwendig.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 31<br />
Außerdem gelingt es Kitcher nicht, ein Phänomen einzufangen, das<br />
man besonders für hochentwickelte quantitative Theorien – die Kitcher<br />
nicht untersucht – und ihre Dynamik beobachten kann, nämlich das des<br />
Fortschritts durch Verkleinerung der notwendigen Unschärfemengen und<br />
Approximationen einer Theorie. Um dieses wissenschaftliche Phänomen<br />
der geringeren Unschärfen korrekt zu rekonstruieren, bedarf es ebenso<br />
einer semantischen Sichtweise auf Theorien wie an anderen Stellen. Das<br />
spricht wiederum für eine modelltheoretische Analyse, da diese Approximationen<br />
und ihre Bedeutung für den empirischen Gehalt einer Theorie<br />
exakt zu erfassen vermag.<br />
Eine noch stärkere Abkehr von der Kitcherschen Konzeption wird<br />
schließlich notwendig, weil Kitcher dem „Deduktions-Chauvinismus“<br />
verhaftet bleibt und nur deduktive Argumente für ihn wirklich erklärend<br />
sind. Doch viele Erklärungen in den Wissenschaften entsprechen nicht<br />
dieser Vorstellung: etwa in den Geschichtswissenschaften oder in den<br />
Fällen statistischer Theorien.<br />
Die semantische Theorienauffassung bietet dazu eine Lösung, die sowohl<br />
deduktive wie auch nichtdeduktive Erklärungen unter eine Konzeption,<br />
nämlich die der Einbettung in ein Modell, bringen kann. Das ist<br />
die Erklärungstheorie, die ich im letzten Kapitel der Arbeit ausarbeite.<br />
Sie ist nicht mehr dem Deduktions-Chauvinismus verpflichtet und kann<br />
von Einbettungen nicht nur im logisch präzisen Begriffsapparat der Modelltheorie<br />
sprechen, sondern auch in informellen Kontexten, in denen<br />
wir Erklärungsmodelle nur informell beschreiben oder vielleicht nur mit<br />
Analogiemodellen arbeiten. So läßt sich auch verstehen, inwiefern Alltagserklärungen<br />
als die informellen Vorläufer wissenschaftlicher Erklärungen<br />
zu betrachten sind und wo die Vorteile der letzteren liegen.<br />
Überdies gelingt es der semantischen Einbettungstheorie, die drei zentralen<br />
Beurteilungsdimensionen einer Vereinheitlichungskonzeption von<br />
Erklärung zu bestimmen, die man als ihre Systematisierungsleistung, ihre<br />
Stringenz (bzw. ihren Informationsgehalt) und ihre organische Einheitlichkeit<br />
bezeichnen kann. In dieser Analyse kann ich weiterhin das schon<br />
erwähnte Phänomen der Approximationen präzise behandeln und darüber<br />
hinaus eine andere in der Erklärungsdebatte schon mehrfach erhobene<br />
Forderung einlösen, nämlich zu ermitteln, welchen Beitrag die unterschiedlichen<br />
Theoriekomponenten zu einer Erklärung leisten. Dazu<br />
präsentiere ich eine Erklärungstheorie, die die vereinheitlichende Funktion<br />
der verschiedenen Teile einer (wissenschaftlichen) Theorie angibt.<br />
Sie schließt so die noch verbliebene Lücke in der diachronischen Kohärenztheorie<br />
der Rechtfertigung, die der intuitive und nicht weiter präzi-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 32<br />
sierte Gebrauch des Erklärungskonzepts dort hinterlassen hatte. Dabei<br />
lassen sich mit der neuen Erklärungskonzeption außerdem viele der alten<br />
Probleme lösen, auf die das DN-Schema der Erklärung keine Antworten<br />
geben konnte.<br />
Es ist das Ziel dieses Buchs, ein Forschungsprogramm vorzustellen,<br />
das in konstruktiver Weise eine Kohärenztheorie der Rechtfertigung entwickelt,<br />
einen weitergehenden Vorschlag in der Debatte um wissenschaftliche<br />
Erklärungen gibt und darüber hinaus die engen Beziehungen<br />
dieser beiden Projekte deutlich macht. Natürlich kann ein so umfassendes<br />
Forschungsprogramm nicht mit einer Monographie als abgeschlossen<br />
angesehen werden, sondern bietet an nahezu allen Stellen Raum für<br />
eine weitere Ausarbeitung sowie zahlreiche Anhaltspunkte für Auswirkungen<br />
auf „Nebenkriegsschauplätze“, denen ich hier noch nicht nachgehen<br />
konnte. Ich bitte den Leser daher um Verständnis, daß ich die Diskussionen<br />
an vielen Stellen nicht vertiefe, obwohl das naheliegend erscheint.<br />
Das habe ich vor allem dort nicht getan, wo ich den Eindruck<br />
hatte, die mir zur Zeit bekannten weitergehenden Analysen würden<br />
zwar hilfreiche Differenzierungen vornehmen, aber keine neuen konstruktiven<br />
Resultate für die Kohärenz- und Erklärungstheorie bieten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 33<br />
II Der metatheoretische Rahmen<br />
Ehe ich in die erkenntnistheoretische Diskussion um konkrete Ansätze<br />
für Rechtfertigungstheorien einsteige, sind einige Vorüberlegungen über<br />
die Rahmenbedingungen angebracht, unter denen diese Diskussion stattfinden<br />
soll. Im Teil (A) dieses Kapitels wird es daher um den methodologischen<br />
Rahmen der Arbeit gehen. Neben der Verteidigung gegen einen<br />
radikalen Skeptiker muß jede Rechtfertigungskonzeption auch gegenüber<br />
Konkurrenztheorien begründet werden. Doch wie kann man dabei<br />
vorgehen, auf welches Begründungsverfahren können wir uns berufen,<br />
wenn wir erst noch zu entscheiden haben, welches Verfahren tatsächlich<br />
Wahrheitsindikatoren liefert? Zunächst weise ich einige naturalistische<br />
Strategien zurück, die zu diesem Zweck vorgeschlagen wurden, aber<br />
schließlich trete ich für einen moderaten „methodologischen Naturalismus“<br />
ein. Der Abschnitt (B) betrifft den semantisch-metaphysischen Rahmen,<br />
in dem die erkenntnistheoretischen Fragestellungen angesiedelt<br />
werden. Den Hintergrund der klassischen Erkenntnistheorie – auf den<br />
ich mich ebenfalls verpflichten werde – bilden korrespondenztheoretische<br />
und realistische Auffassungen, deren erkenntnistheoretische Bedeutung<br />
ich anhand einer kurzen Betrachtung der Alternativen verdeutlichen<br />
möchte. Der letzte größere Abschnitt (C) ist dem empirisch-deskriptiven<br />
Hintergrund gewidmet, der die grundlegende Struktur von Meinungssystemen<br />
auf einer phänomenologischen Ebene beschreibt und die<br />
für mein Unternehmen wesentlichen Elemente in Erinnerung ruft. Einige<br />
der Punkte, die in diesem Kapitel zur Sprache kommen, werden dem<br />
einen oder anderen recht selbstverständlich erscheinen – das hoffe ich<br />
sogar –, trotzdem werden alle genannten Punkte in der erkenntnistheoretischen<br />
Diskussion an bestimmten Stellen vernachlässigt, übersehen<br />
oder sogar explizit abgestritten. Deshalb ist es erforderlich, diesen Rahmen<br />
noch einmal explizit anzugeben und kurz zu seinen Gunsten zu plädieren.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 34<br />
A. Zur Naturalisierung der Erkenntnistheorie<br />
Schon in der Einleitung habe ich darauf hingewiesen, daß ich mit einer<br />
naturalistischen Vorgehensweise in der Erkenntnistheorie sympathisiere,<br />
mich aber in späteren Phasen meines Projekts von einer rein naturalistischen<br />
Methodologie lösen möchte. Mein Verhältnis zur naturalistischen<br />
Vorgehensweise genauer zu bestimmen, ist für den Fortgang der<br />
Untersuchung unerläßlich, und ich möchte deshalb den systematischen<br />
Teil meiner Arbeit damit beginnen. Unter einer Naturalisierung der Erkenntnistheorie<br />
werden von Philosophen leider recht unterschiedliche<br />
Dinge verstanden. Der wohl radikalste Naturalist der heutigen Erkenntnistheorie<br />
ist der amerikanische Philosoph Willard van Orman Quine,<br />
für den die Erkenntnistheorie ein Projekt ist, das die Philosophie besser<br />
gleich an die Naturwissenschaft – vermutlich die empirische Psychologie<br />
– abgeben sollte. Eine Beschäftigung mit Quines radikalen Ansichten<br />
wird daher den Ausgangspunkt meiner Stellungnahme zum Naturalismus<br />
bilden.<br />
Neben Quine firmieren allerdings auch noch moderatere Naturalisten<br />
unter diesem Stichwort. Grundsätzlich läßt sich der epistemologische<br />
Naturalismus am besten als eine Ansicht darüber klassifizieren, wie<br />
man in der Erkenntnistheorie vorzugehen hat, also als eine Art von Meta-Erkenntnistheorie<br />
oder Methodologie der Erkenntnistheorie. Keith<br />
Lehrer (1990, 154) faßt darunter alle Positionen, die die Erkenntnistheorie<br />
allein durch natürliche Begriffe wie den der kausalen Beziehungen<br />
analysieren oder sogar vollständig auf solche Begriffe reduzieren<br />
wollen. Dazu gehören dann vor allem die externalistischen Positionen,<br />
denen ich das Kapitel (III.A) gewidmet habe. Trotzdem gehört für diese<br />
Autoren eine Analyse, wie eine dritte Bedingung für Wissen auszusehen<br />
hat, sehr wohl noch zur Erkenntnistheorie philosophischer Prägung. Sie<br />
verlangen nur, daß diese Bedingung sich wesentlich auf kausale Zusammenhänge<br />
stützen muß. Eine Überzeugung, die Wissen darstellen soll,<br />
muß auf „zuverlässige Weise“ durch unsere Umwelt verursacht sein (s.<br />
III.A). Natürlich gehört dann die Untersuchung, ob diese Beziehung in<br />
einem konkreten Einzelfall besteht, ganz in den Zuständigkeitsbereich<br />
des Naturwissenschaftlers. Aber die Präzisierung der Bedingung selbst<br />
verbleibt innerhalb der Philosophie.<br />
Devitt (1991, Kap. 5.8) bestimmt den Begriff des Naturalismus noch<br />
liberaler: Zunächst beginnt man mit einer Beschreibung der tatsächlich<br />
akzeptierten epistemischen Verfahren und Bewertungen. Das ist ein<br />
„low-level“ empirisches Unternehmen. In einem zweiten Schritt wird
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 35<br />
man versuchen, anhand von Konsistenz- und Kohärenzüberlegungen<br />
Kriterien für gute und schlechte Rechtfertigungen anzugeben. Das ist<br />
eine vage Beschreibung eines Projekts, das zumindest durch seinen metatheoretischen<br />
Status und seine eindeutig normativen Aspekte im zweiten<br />
Schritt nicht in den gewöhnlichen Zuständigkeitsbereich der Naturwissenschaften<br />
fällt. Unter dieses Verständnis von naturalistischer Erkenntnistheorie<br />
gehört auch das von Rawls propagierte Verfahren zur Begründung<br />
normativer Aussagen, das Rawls (1979, 38) selbst als „reflective<br />
equilibrium“ bezeichnet. In diesem recht liberalen Sinn von Naturalismus,<br />
in dem man zwar mit einer Beschreibung unserer tatsächlichen epistemischen<br />
Begründungspraxis startet, aber dann mit Hilfe des Verfahrens<br />
eines reflektiven Gleichgewichts zu einer normativen Theorie gelangt,<br />
möchte auch ich mich als Naturalisten bezeichnen. Diese stellt allerdings<br />
eindeutig keine naturwissenschaftliche Theorie mehr dar, sondern<br />
eine Metatheorie mit normativer Kraft. Da es sich hierbei um einen<br />
Naturalismus handelt, der unsere tatsächlichen Bewertungsmethoden<br />
zum Ausgangspunkt nimmt, spreche ich manchmal auch von „methodologischem<br />
Naturalismus“. Das dient zugleich einer Abgrenzung von den<br />
radikalen Naturalisierungsversuchen Quines.<br />
1. Genese und Rechtfertigung<br />
Als Ausgangspunkt der Erörterung soll die alte Unterscheidung zwischen<br />
den zwei Fragen dienen, die man beide mit einer Äußerung wie: „Warum<br />
glaubst Du das?“ meinen kann. Die eine fragt danach, wie es dazu kam,<br />
daß man eine bestimmte Meinung annahm, während die andere fragt,<br />
welche Rechtfertigungen man für diese Meinung besitzt. Daß die Antworten<br />
auf diese beiden Fragen keineswegs immer identisch sein müssen,<br />
können viele Beispiele illustrieren. Nehmen wir an, ich halte die politische<br />
Partei X für die beste Partei. Auf die erste Frage, wie ich zu dieser<br />
Ansicht kam, könnte ich z. B. antworten: Meine Eltern fanden die<br />
Partei X schon immer am besten, und ich übernahm früher alle Ansichten<br />
von meinen Eltern, unter anderem auch diese. Das scheint eine annehmbare<br />
Antwort auf die erste Frage zu sein, ist aber nicht befriedigend<br />
als Antwort auf die zweite Frage, wie ich meine Behauptung, die<br />
Partei X sei die beste, begründen kann. Solange ich meine Eltern nicht<br />
in politischen Fragen für besonders kompetent halte – und das war hier<br />
nicht vorausgesetzt –, erwarte ich auf die zweite Frage eine Antwort<br />
ganz anderer Art. Etwa eine Erklärung, wieso ich die Mietrechtspolitik<br />
und andere Vorhaben der Partei X für besonders gut halte oder Ähnliches.<br />
Die erste Antwort gibt mir sozusagen den kausalen Weg an, auf
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 36<br />
dem ich zu dieser Meinung gelangt bin und bezieht sich damit auf Vergangenes,<br />
während die zweite Antwort nach der Verankerung dieser<br />
Meinung in meinem heutigen Überzeugungssystem fragt. Beide exemplarisch<br />
vorgeschlagenen Antworten können daher auch nebeneinander bestehen<br />
und zugleich wahr sein. Meine Vorliebe für die Partei X kann einfach<br />
aus der Übernahme der Ansichten meiner Eltern entstanden sein,<br />
aber gerechtfertigt ist sie heute durch eine detaillierte Analyse der Politik<br />
von X.<br />
Das Phänomen des Auseinanderklaffens der Entstehung einer Meinung<br />
und ihrer Rechtfertigung findet sich natürlich nicht nur im Alltag,<br />
sondern genauso in den Wissenschaften. Der Chemiker Kekulé, der das<br />
System der chemischen Strukturformeln entwickelt hat, beschrieb einige<br />
Jahre später, wie er im Jahre 1865 die spezielle Strukturformel für das<br />
von Faraday entdeckte Benzol fand. Während einer Reise hatte er einen<br />
Tagtraum, in dem Ketten aus Kohlenstoffatomen wie lebende Wesen<br />
herumtanzten und sich plötzlich zusammenrollten wie eine Schlange. Da<br />
kam er auf den entscheidenden Gedanken: Das Benzolmolekül mußte<br />
ringförmig sein. Diese Überzeugung Kekulés konnte er später anhand einer<br />
entsprechenden Strukturformel und vieler Daten bestätigen. 1 Auch<br />
in diesem Beispiel finden wir eine Antwort auf die erste Frage, die nur<br />
wenig mit der Antwort auf die zweite Frage gemein hat.<br />
Man sollte die Fragen der Genese einer Meinung und die ihrer Rechtfertigung<br />
wenigstens zu Beginn einer Analyse der Struktur unserer Erkenntnis<br />
voneinander trennen, und es werden gute Argumente erforderlich,<br />
wenn man trotzdem behaupten möchte, daß die Antworten auf die<br />
beiden Fragen zusammenfallen. Dabei ist offensichtlich, daß die erste<br />
Frage keine genuin philosophische Frage ist, sondern eher in den Bereich<br />
der empirischen Psychologie fällt. Das ist für die zweite Frage aber<br />
alles andere als selbstverständlich, und Quines Plädoyer für eine naturalisierte<br />
Erkenntnistheorie lebt zuweilen davon, daß er diese beiden Fragen<br />
nicht klar genug unterscheidet. Quines Position wurde motiviert<br />
durch seine Kritik an seinen empiristischen Vorgängern – bei denen die<br />
Trennung auch nicht immer deutlich ist –, die in ihrer Erkenntnistheorie<br />
Wahrnehmungstheorien darüber vorschlagen, wie wir von bestimmten<br />
Beobachtungen, Reizungen der Sinnesorgane oder gar Sinnesdaten zu<br />
unseren Meinungen gelangen. Dabei bedienen sie sich häufig einer Reihe<br />
problematischer empirischer Annahmen und Konstruktionen wie Sinnesdaten<br />
oder dem empirisch Gegebenen. Für diese Ansätze hat Quine<br />
sicher Recht, daß sie aus heutiger Sicht nicht immer als gelungene For-<br />
1 Siehe dazu Asimov 1986, 19f.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 37<br />
schungsprogramme anzusehen sind, und wir an diesen Stellen lieber auf<br />
die empirische Forschung setzen sollten, als eine Lehnsessel-Psychologie<br />
zu betreiben.<br />
Mit den angesprochenen Wahrnehmungstheorien ist aber nur ein<br />
kleiner Teilbereich der Erkenntnistheorie in den Blick genommen worden.<br />
Davon, daß dieser Bereich vermutlich besser an die Psychologie delegiert<br />
werden sollte, können wir nicht einfach schließen, auch das angeführte<br />
Rechtfertigungsprojekt, das mit der zweiten Frage verknüpft ist,<br />
gehöre ebenfalls zur Psychologie. Die Psychologie beschreibt und erklärt<br />
nur, wie wir zu bestimmten Meinungen gelangen – jedenfalls, wenn sie<br />
es schafft, so erfolgreich zu sein –, aber doch nicht, wann eine Meinung<br />
als gut begründet in unserem Meinungssystem zu gelten hat. Auch wenn<br />
konkrete empirische Theorien in der Rechtfertigung unserer Meinungen<br />
eine wichtige Rolle zu spielen haben, so klären diese Theorien doch<br />
nicht die Frage, was eine gute Rechtfertigung ausmacht und von einer<br />
schlechten unterscheidet. Das bleibt weiterhin einer metatheoretischen<br />
Reflexion etwa über die rechtfertigende Rolle bestimmter Theorien in<br />
einem bestimmten Kontext überlassen. Die Frage nach der Güte von<br />
Rechtfertigungen ist aber sicherlich sinnvoll, denn wir finden im Alltag,<br />
in der Politik und in den Wissenschaften eindeutige Beispiele für gute<br />
und schlechte Begründungen.<br />
Man muß sich nur einmal konkret vor Augen führen, welche Folgen<br />
die Quinesche Konzeption der Abgabe der Erkenntnistheorie an die empirische<br />
Psychologie bezogen auf den Fall wissenschaftlicher Forschung<br />
hätte, wenn wir sie tatsächlich ernst nähmen. Um die empirische Bestätigung<br />
einer Theorie einzuschätzen, müßte ein Psychologe denjenigen untersuchen,<br />
der an die Theorie glaubt, um herauszufinden, wie der Weg<br />
der Überzeugungsbildung von den Sinnesreizungen bis hin zur Entwicklung<br />
der Theorie bei ihm vor sich ging. Das scheint kaum ein hilfreiches<br />
Verfahren zur Bewertung wissenschaftlicher Hypothesen zu sein. 2 Eine<br />
Zeitschrift wie Nature wird keine Psychologen zu ihren Autoren schikken,<br />
sondern diese eher fragen, welche Fakten und Experimente sie anbieten<br />
können, die ihre Theorie stützen. Ob diese das tun und in welchem<br />
Ausmaß, ist dann Gegenstand einer logischen Analyse der Beziehung<br />
zwischen Theorie und Fakten und ihrer metatheoretischen Bewertung.<br />
Wenn die Fakten, die ein Wissenschaftler uns nennt, stimmen, was<br />
2 Stellen wir uns ruhig einmal ernsthaft vor, jemand hätte zu Ohm einen<br />
Psychologen geschickt, um festzustellen, ob dessen Theorie über den Zusammenhang<br />
von Stromstärke und elektrischem Feld stimmt. Was könnte der eigentlich<br />
untersuchen?
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 38<br />
sich unter anderem mit Hilfe eigener Experimente überprüfen ließe,<br />
könnte uns auch die Mitteilung des untersuchenden Psychologen, daß<br />
der Wissenschaftler selbst nicht an seine Theorie glaubt und uns nur hinters<br />
Licht führen wollte oder alle eigenen Experimente und Ableitungen<br />
nur geträumt hat, im Hinblick auf die Glaubwürdigkeit seiner Theorie<br />
kalt lassen – nicht so natürlich im Hinblick auf die Integrität des Wissenschaftlers.<br />
Wieso nimmt Quine die intuitive Unterscheidung in Ursachenforschung<br />
und Bewertung von Meinungen trotzdem nicht ernst?<br />
Quine scheint beispielsweise in (1975) für die Erkenntnistheorie nur<br />
ein wichtiges philosophisches Projekt zu identifizieren, das man als eine<br />
Form von sprachlich gewendeter erster Philosophie beschreiben könnte:<br />
die Übersetzungsreduktion all unserer Begriffe und insbesondere die der<br />
Wissenschaften auf die Begriffe einer unteren, etwa einer phänomenalen,<br />
Ebene. Das Scheitern Carnaps, der dieses Unternehmen in seinem<br />
Logischen Aufbau der Welt am weitesten vorangetrieben hat, und die<br />
Übersetzungsunbestimmtheit zeigen für Quine, daß dieses Unternehmen<br />
nicht gelingen kann (s. Koppelberg 1987, 301ff). Auch mir scheint dieses<br />
Projekt einer Übersetzungsreduktion auf erste Grundbegriffe nicht<br />
besonders aussichtsreich. 3 Das Reduktionsprojekt ist obendrein ein Vorhaben,<br />
das in den Bereich der rein sprachphilosophisch geprägten Philosophie<br />
fällt, die den Rahmen der metatheoretischen Untersuchung unnötig<br />
einschränkt und deren Bedeutung für die Erkenntnis- und Wissenschaftstheorie<br />
leicht überschätzt wird. 4 Andere Fragen, d.h. Fragen außerhalb<br />
der Übersetzungsreduktion und formaler Gebiete wie der Logik<br />
und Mathematik, siedelt Quine hingegen in den empirischen Wissenschaften<br />
an. Nach dem Scheitern des Reduktionsprojekts kann es für ihn<br />
daher nur noch empirische Fragen geben, die in den Fachwissenschaften<br />
zu behandeln sind.<br />
Die Philosophen haben zu Recht die Hoffnung aufgegeben, alles in<br />
logisch-mathematische und Beobachtungsbegriffe übersetzen zu kön-<br />
3 In einer Argumentation für diese Annahme würde ich mich allerdings<br />
nicht auf eine Übersetzungsunbestimmtheitsthese berufen, sondern vielmehr auf<br />
die konkreten Schwierigkeiten dieses Vorhabens wie die drohenden Unendlichkeiten<br />
(s. Stegmüller 1958).<br />
4 Ich möchte mich hier eher van Fraassens (1980, 56) Diktum anschließen,<br />
daß viele Probleme der syntaktischen Sichtweise von Theorien, die sich etwa<br />
um solche Definierbarkeitsfragen drehen, „purely selfgenerated problems,<br />
and philosophically irrelevant“ sind; zumal die Aufteilung in ein Beobachtungsund<br />
ein theoretisches Vokabular und die damit erhoffte Bestimmung des empirischen<br />
Gehalts von Theorien aus unterschiedlichen Gründen nicht funktioniert.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 39<br />
nen, ... Und manche Philosophen haben in dieser Irreduzibilität den<br />
Bankrott der Erkenntnistheorie gesehen. Carnap und die anderen logischen<br />
Positivisten des Wiener Kreises hatten schon den Begriff<br />
„Metaphysik“ in einen pejorativen, Sinnlosigkeit konnotierenden<br />
Gebrauch gedrängt; der Begriff „Erkenntnistheorie“ war der nächste.<br />
Wittgenstein und seine Jünger vor allem in Oxford, fanden eine<br />
philosophische Restbeschäftigung in der Therapie: nämlich Philosophen<br />
von der Verblendung zu kurieren, es gäbe erkenntnistheoretische<br />
Probleme. Aber ich meine, daß es an dieser Stelle wohl nützlicher<br />
ist, statt dessen zu sagen, daß die Erkenntnistheorie auch weiterhin<br />
fortbesteht, jedoch in einem neuen Rahmen und mit einem<br />
geklärten Status. Die Erkenntnistheorie oder etwas Ähnliches erhält<br />
ihren Platz innerhalb der Psychologie und somit innerhalb der empirischen<br />
Wissenschaften. (Quine 1975, 114f; kursiv von mir)<br />
Doch damit übersieht Quine, daß noch Raum übrig bleibt für metatheoretische<br />
Untersuchungen z. B. über die Methoden in den Naturwissenschaften,<br />
die sicherlich keine definitorischen Reduktionen beabsichtigen,<br />
aber als metatheoretische Projekte zumindest zum Teil auch normativen<br />
Charakter haben und nicht zuletzt dadurch eine gewisse Eigenständigkeit<br />
gegenüber den rein naturwissenschaftlichen Fragestellungen besitzen.<br />
Auch der Hinweis von Koppelberg (1987, 181f), daß Theorien<br />
nicht nur durch Tatsachen bestimmt werden, sondern auch „normative<br />
Ingredienzen“ in den Naturwissenschaften eine Rolle spielen, entlastet<br />
Quine nicht. Die metatheoretische Untersuchung solcher Werte und ihrer<br />
Funktionen, ihrer Begründung sowie ihrer Richtigkeit, ist zu unterscheiden<br />
von ihrer Verwendung in den Wissenschaften. Der Naturwissenschaftler,<br />
der sich bei seiner Theorienwahl auf bestimmte Normen<br />
stützt, wird allein dadurch noch nicht zu einem Metawissenschaftler, der<br />
diese Normen untersucht. Ebensowenig wie der Vogel, der die Gesetze<br />
der Aerodynamik für sein Fliegen ausnutzt, deshalb schon ein Physiker<br />
ist.<br />
Quines strikte Ablehnung einer Erkenntnistheorie mit normativen<br />
Anteilen erinnert mich an die Ansicht der logischen Empiristen, für die<br />
moralische Normen nicht rational diskutierbar waren, und wird mit<br />
ähnlich puritanischer Strenge vorgetragen. 5 So wenig wie dieses Dogma<br />
der logischen Empiristen die Philosophen von einer rationalen Diskussion<br />
und Bewertung moralischer Normen abhalten konnte, kann Quines<br />
5 Eine deutliche Äußerung dieser Ansicht findet sich z. B. in der sprachphilosophischen<br />
Argumentation für die Sinnlosigkeit moralischer Normen bei<br />
Ayer (1970, 141ff).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 40<br />
Argumentation mit der Konsequenz, normative Überlegungen seien in<br />
der Erkenntnistheorie unmöglich, eine Diskussion der zahlreichen heute<br />
vorliegenden Ansätze zu entsprechenden Erkenntnistheorien ersetzen.<br />
Eine klare Trennung von Genese und Rechtfertigung von Meinungen<br />
erleichtert die Einschätzung von Quines Position: Wenn er die Erkenntnistheorie<br />
an die empirischen Wissenschaften abgeben möchte, so bedeutet<br />
das eigentlich etwas anderes, als daß die bisherigen erkenntnistheoretischen<br />
Fragen nun an eine andere Disziplin verwiesen werden.<br />
Sie werden aufgegeben und andere Fragen – eben die der empirischen<br />
Wissenschaften – sollen an ihrer Statt in den Vordergrund treten. Er plädiert<br />
für einen Themenwechsel und nicht eine andere Art, dieselben Fragen<br />
der klassischen Erkenntnistheorie zu beantworten. Quine selbst verschleiert<br />
diesen Unterschied zwischen der genetischen und der Rechtfertigungsfrage<br />
gern durch die Redeweise vom Erwerb von Informationen.<br />
Die Erkenntnistheorie verwirft der Naturalismus nicht, sondern er<br />
assimiliert sie der empirischen Psychologie. Die Wissenschaft selbst<br />
sagt uns, daß unsere Informationen über die Welt auf Erregungen<br />
unserer Oberflächen beschränkt sind, und dann wird die erkenntnistheoretische<br />
Frage ihrerseits zu einem innerwissenschaftlichen Problem:<br />
Wie ist es uns menschlichen Tieren gelungen, aufgrund derart<br />
beschränkter Informationen zur Wissenschaft zu gelangen? (Quine<br />
1985, 95)<br />
Innerwissenschaftlich wird aber höchstens die kausale Genese unserer<br />
wissenschaftlichen Überzeugungen erforscht. Quine berücksichtigt wiederum<br />
keine metatheoretischen Untersuchungen über die Fachwissenschaften<br />
und ihre Normen, die auf der Ebene einer Metatheorie gerade<br />
nicht innerwissenschaftlich im Sinne Quines sind. Aber was sollte uns<br />
hindern, auch die Normen von Wissenschaftlern in rationaler Weise zu<br />
kritisieren? Quines (1985, 94) einziges Argument dafür scheint zu sein,<br />
daß es keine erste Philosophie geben kann, von der aus sich diese Praxis<br />
kritisieren ließe.<br />
Damit bringt er die fragwürdige Voraussetzung ins Spiel, daß solch<br />
eine Kritik nur auf der Grundlage einer ersten Philosophie stattfinden<br />
könne. Daß das keineswegs das einzige Verfahren zur Begründung normativer<br />
Sätze sein muß, ist aber längst bekannt und wird in (A.3) weiter<br />
ausgeführt. Es bleiben also – auch wenn man mit Quine in der Meinung<br />
übereinstimmt, daß es keine erste Philosophie als sichere Grundlage der<br />
Erkenntnis geben kann – die Fragen offen: Warum sollen die klassischen<br />
erkenntnistheoretischen Fragen nun nicht mehr weiter untersucht wer-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 41<br />
den? Warum sollten wir nur noch quid-factis Fragen und keine de-jure<br />
Fragen mehr stellen? Damit ist natürlich noch nicht vorentschieden, ob<br />
es einen allgemeinen Kanon von Regeln der epistemischen Rechtfertigung<br />
zu entdecken gibt oder vielleicht nur Regeln für bestimmte Gebiete<br />
unserer Erkenntnis oder sogar noch weniger. Das kann erst am Ende eines<br />
derartigen Vorhabens beurteilt werden. Die neueren Arbeiten in diesem<br />
Bereich der Philosophie geben jedoch keinen Grund für den Quineschen<br />
Pessimismus oder sogar einen darauf gegründeten Philosophieverzicht.<br />
Wie steht Quine dann zum Skeptiker? In dieser Frage ist seine Haltung<br />
nicht immer einheitlich, 6 doch in der Hauptsache betrachtet er ihn<br />
als „Überreaktion“, die sich als Reaktion auf bestimmte Irrtumsmöglichkeiten<br />
ergab. Dennoch bleibt der Skeptizismus auch für Quines eigene<br />
Darstellung unserer Erkenntnis ein virulentes Problem, obwohl er ihn<br />
nonchalant beiseite zu schieben versucht. An verschiedenen Stellen (z. B.<br />
in 1975a) beschreibt er den kausalen Weg unserer Erkenntnis als auf der<br />
Reizung unserer Sinnesorgane durch Lichtstrahlen und Molekülen beruhend.<br />
Da er nicht wirklich zwischen Fragen der Rechtfertigung und der<br />
Genese unserer Meinungen unterscheidet und die kausale Genese unserer<br />
Meinungen für ihn immer bei unseren Sinnesreizungen beginnt, beruhen<br />
seiner Meinung nach alle unsere Überzeugungen auch im Sinne<br />
ihrer Begründbarkeit auf unseren Sinnesreizungen. 7 Genau auf dieses<br />
fundamentalistische Bild unserer Erkenntnis weiß der radikale Skeptiker<br />
seine Einwände aufzubauen. Er bietet uns mögliche Modelle an, in denen<br />
wir dieselben Wahrnehmungen oder Sinnesreizungen haben, wie in<br />
unserem jetzigen Bild der Welt, aber ihre kausalen Entstehungsgeschichten<br />
sind von unseren radikal verschieden. Wir sind in diesen Modellen<br />
etwa Spielbälle eines bösen Dämons oder Gehirne in der Nährlösung eines<br />
üblen Wissenschaftlers, dem es mit Hilfe eines Computers gelingt, irreführende<br />
Sinnesreizungen vorzunehmen. Die Herausforderung des<br />
Skeptikers an Quine besagt nun: Wieso sollten wir diese Möglichkeiten<br />
nicht genauso ernst nehmen, wie die von uns bevorzugten Entstehungsgeschichten,<br />
wenn doch unser einziger Zugang zur Welt in unseren Sinnesreizungen<br />
besteht, die uns – so sind die skeptischen Modelle konstruiert<br />
– keinen diskriminierenden Hinweis für eines der beiden Modelle<br />
6 Für eine interessante Analyse dieses Punktes s. Williams (1990, 256ff).<br />
7 Wir werden später sehen, daß die kausale Genese unserer Überzeugungen<br />
keineswegs die Rechtfertigungsstruktur unseres Wissens in dieser Weise festlegt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 42<br />
geben können? Auch vis-à-vis dem Skeptiker hat Quine keine überzeugenden<br />
Gründe für seine Zurückweisung dieser Fragen anzubieten.<br />
Quine kommt dem Skeptiker mit seinem Holismus eigentlich zunächst<br />
ein Stück weit entgegen, denn wir können nach Ansicht Quines<br />
unser Überzeugungssystem an vielen Stellen – im Prinzip an allen beliebigen<br />
Stellen – umbauen, um es mit unseren Beobachtungen in Einklang<br />
zu bringen (s. Quine 1979, 47). An welchen Stellen wir Änderungen<br />
vornehmen, scheint für Quine deshalb relativ willkürlich zu sein, weil er<br />
metatheoretische Bewertungen nicht sehr schätzt und unsere Theorien<br />
durch die Erfahrung immer wesentlich unterbestimmt bleiben. Ein solcher<br />
Umbau kann nach Quine sogar die zentralsten Teile unseres Wissen<br />
wie z. B. die eingesetzte Logik betreffen. Der Skeptiker geht nun einfach<br />
noch einen Schritt weiter und nimmt die Unterbestimmtheit auch für<br />
seine radikalen skeptischen Hypothesen in Anspruch. Die Daten, für<br />
Quine die Sinnesreizungen, genügen nicht, um unsere gewöhnlichen<br />
Theorien über die Welt festzulegen, aber ebensowenig, um unser übliches<br />
Weltbild gegenüber den radikalen skeptischen Hypothesen zu bevorzugen.<br />
Die Sinnesreizungen enthalten keine internen Hinweise, ob<br />
sie vom Computer des Wissenschaftlers erzeugt wurden, oder auf die<br />
normale Weise. Also fragt der Skeptiker, warum wir seine Hypothesen<br />
ablehnen. Quines Antwort, diese seien Überreaktionen, nennt keine Anhaltspunkte,<br />
wieso diese Frage illegitim sein sollte (s. Quine 1981, 475),<br />
wo sie doch nur eine konsequente Fortführung seiner eigenen Überlegungen<br />
darstellen. So führt Quines eigene liberale Methodologie gepaart<br />
mit seinen fundamentalistischen Tendenzen, die sich aus seiner empiristischen<br />
Beschreibung unseres Erkenntnisprozesses ergeben, direkt zu<br />
skeptischen Fragen, wenn man sie nur konsequent anwendet. Zumindest<br />
der radikale Naturalismus Quines ist meines Erachtens somit unbegründet,<br />
und wir finden weiterhin sinnvolle Fragestellungen in der Epistemologie,<br />
die wir nicht komplett an die Naturwissenschaften abgeben können,<br />
sondern müssen auf die Herausforderung durch den Skeptiker reagieren.<br />
Daher werde ich im übernächsten Abschnitt für eine andere und<br />
moderatere Form von Naturalismus plädieren.<br />
2. Resignation in bezug auf das Projekt einer ersten Philosophie<br />
Ein Grund für die wachsende Popularität naturalistischer Ansätze in der<br />
Erkenntnistheorie ist vermutlich die Einsicht, daß die hochgesteckten<br />
Anforderungen des radikalen Skeptikers nicht erfüllt werden können. So
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 43<br />
sieht sich der Erkenntnistheoretiker der Forderung Descartes aus seiner<br />
ersten Meditation gegenüber:<br />
Da ja schon die Vernunft anrät, bei nicht ganz gewissen und zweifelsfreien<br />
Ansichten uns ebenso der Zustimmung zu enthalten wie bei<br />
solchen, die ganz sicher falsch sind, so reicht es für ihre Verwerfung<br />
insgesamt aus, wenn ich bei einer jeden irgendeinen Anlaß zum<br />
Zweifeln finde. (Descartes 1986, 63; kursiv von mir)<br />
Diese Forderung nach völliger Gewißheit scheint uns heute ausgerechnet<br />
für die interessantesten Teile unseres empirischen Wissens unerreichbar<br />
zu sein. Das gilt um so mehr, wenn man unter Gewißheit nicht nur subjektive<br />
Sicherheit versteht – wie es der Begriff zunächst nahelegen könnte<br />
–, sondern sogar Unkorrigierbarkeit im Sinne von Williams (1981,<br />
31). Es genügt für das Cartesische Unternehmen, ein sicheres Fundament<br />
für unsere Erkenntnis zu schaffen, natürlich nicht, daß wir uns bestimmter<br />
Meinungen sicher sind, in dem Sinn, daß uns keine Zweifel<br />
mehr bedrängen oder gerade einfallen. Das mag vielleicht schon anhand<br />
mangelnder Phantasie oder posthypnotischer Befehle gelingen. Es soll<br />
vielmehr aus unserer Überzeugung, daß p, auch tatsächlich folgen, daß<br />
p. Unsere Überzeugung soll ihre Wahrheit garantieren. Im Sinne der subjektiven<br />
Sicherheit waren sich einige Gelehrte des Mittelalters sicher,<br />
daß die Erde den Mittelpunkt der Welt darstellt und die Sonne sich um<br />
die Erde dreht, aber diese Überzeugungen waren nicht unkorrigierbar<br />
und bildeten daher keine sichere erste Grundlage unseres Wissens.<br />
Doch im Bereich der Wissenschaften, aber auch für weite Teile unseres<br />
Alltagswissens, gerät die Forderung Descartes in einen massiven Konflikt<br />
mit unseren übrigen metatheoretischen Ansichten. So sind wohl die<br />
meisten heutigen Wissenschaftler Fallibilisten, die metatheoretische<br />
Überzeugung teilen, daß unsere wissenschaftlichen Theorien immer einen<br />
hypothetischen Charakter behalten und damit immer die Möglichkeit<br />
offen bleibt, daß sie falsch sind. 8 Der Fallibilismus impliziert, daß<br />
wir die Forderung Descartes nach einer sicheren Grundlage unserer Erkenntnis<br />
nie werden einlösen können. Einige Erkenntnistheoretiker haben<br />
sich deshalb mit einer gewissen Resignation von dem klassischen<br />
Unternehmen Erkenntnistheorie abgewandt. So beschreibt auch Devitt<br />
(1991, 75) in etwa seine Hinwendung zum Naturalismus. Die Suche<br />
nach Gewißheit paßt nicht mehr zu unseren anderen epistemischen<br />
8 Das mag sogar auf der Objektebene bei der Betrachtung einzelner Theorien<br />
durchaus mit völliger subjektiver Sicherheit, daß eine bestimmte Theorie<br />
wahr ist, einhergehen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 44<br />
Überzeugungen, die stark durch die Überlegungen Poppers beeinflußt<br />
wurden.<br />
Ein ähnliches Motiv fanden wir auch bei Quine für seine naturalisierte<br />
Erkenntnistheorie. Gerade die empiristisch geprägten fundamentalistischen<br />
Erkenntnistheorien – in deren Tradition Quine steht, die er<br />
aber auch kritisiert – sind seiner Ansicht nach in dem Versuch einer<br />
Grundlegung unseres Wissens gescheitert. 9 Quine veranlaßte das zu einem<br />
allgemeinen Verzicht in bezug auf Fragestellungen der Erkenntnistheorie<br />
kombiniert mit einer gewissen Form von Wissenschaftsgläubigkeit.<br />
Er scheint manchmal davon auszugehen, mit dem Scheitern einer<br />
ersten Philosophie sei keine Form von Erkenntnistheorie mehr möglich.<br />
Diese zwei Optionen, Suche nach absoluter Gewißheit oder Aufgabe der<br />
Erkenntnistheorie, sind aber sicher nicht erschöpfend, was große Teile<br />
der heutigen Erkenntnistheorie beweisen. Auch in dieser Arbeit soll ein<br />
dritter Weg für die Erkenntnistheorie beschritten werden.<br />
3. Methodologischer Naturalismus<br />
Während der Quinesche Naturalismus in der Erkenntnistheorie sich in<br />
erster Linie der kausalen Entstehungsgeschichte unserer Meinungen zuwendet<br />
und nicht dem Problem, wie sie gerechtfertigt werden können,<br />
möchte ich einen anderen naturalistischen Ansatz vorschlagen. Statt die<br />
empirische Frage zu stellen, welche Mechanismen unsere Überzeugungen<br />
hervorgerufen haben, beginne ich mit der ebenfalls empirischen Frage,<br />
welche Rechtfertigungen und Rechtfertigungsverfahren wir gewöhnlich<br />
als gut anerkennen. Diese Beurteilung von konkreten Rechtfertigungen<br />
als mehr oder weniger gut hat immer schon normativen Charakter,<br />
der sich in der rein naturwissenschaftlichen Aufklärung der kausalen Zusammenhänge<br />
zwischen unseren Überzeugungen und den sie verursachenden<br />
Ereignissen allein nicht wiederfinden läßt. Wir sollten uns vielmehr<br />
auf unsere Werturteile beziehen, wie überzeugend eine bestimmte<br />
Begründung unserer Meinungen ist. Sie bieten uns erste Anhaltspunkte,<br />
in welchen Fällen, wir von erfolgreichen und in welchen wir von minderwertigen<br />
Rechtfertigungsversuchen sprechen sollten.<br />
Derartige Einschätzungen von Begründungen manifestieren sich im<br />
Alltagsleben und ebenso in politischen Kontexten, wo wir unsere jeweiligen<br />
Behauptungen zu begründen haben und diese Begründungen von<br />
den Zuhörern oder Wählern je nach Bewertung goutiert oder abgelehnt<br />
9 Die Lebensfähigkeit einer empiristischen Erkenntnistheorie wird ein<br />
Thema des nächsten Kapitels sein.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 45<br />
werden können. Ähnliche Beispiele finden wir um so mehr in stärker institutionalisierten<br />
Rechtfertigungsverfahren wie der Wahrheitsfindung<br />
vor Gericht oder in den Wissenschaften, bei denen unsere Vorstellungen<br />
von einer gelungenen Rechtfertigung noch stärker ausgeprägt sind. In einem<br />
ersten Schritt der Untersuchung werde ich unsere üblichen epistemischen<br />
Bewertungen und die Rechtfertigungsstruktur unserer Erkenntnis<br />
auf einem recht allgemeinen Niveau beschreiben. Dabei geht es<br />
nur um relativ schwache und allgemein akzeptierte Vorstellungen zur<br />
Rechtfertigung und nicht so sehr um die idiosynkratischen Konzeptionen<br />
von Rechtfertigung einzelner Personen. Es handelt sich aber bereits<br />
an dieser Stelle um ein hermeneutisch geprägtes und rekonstruktives Unternehmen,<br />
denn wir alle verwenden zwar ständig Rechtfertigungen und<br />
Begründungen und bewerten sie, aber nur die wenigsten Menschen haben<br />
explizite Ansichten darüber, was gute Rechtfertigungen ausmacht.<br />
Hier ist die metatheoretische Theoriebildung gefragt, die ein Interpretationsmodell<br />
vorlegt, in das unsere Begründungspraxis eingebettet<br />
werden kann und durch das sie verstehbar wird. Natürlich können auch<br />
die in dieser Metatheorie ermittelten Bewertungen, die unsere herkömmlichen<br />
Bewertungen zum Ausgangspunkt nehmen, nicht als sakrosankt<br />
erklärt und schlicht übernommen werden, sondern sind jeweils einer<br />
philosophischen Reflexion oder Metabewertung zu unterziehen. An<br />
keiner dieser Stellen geht es um eine rein empirische Theorie, sondern<br />
immer auch um eine normative Klärung und Weiterentwicklung unserer<br />
epistemischen Ansichten. Eine solche kritische Weiterentwicklung und<br />
Auseinandersetzung mit unserer Rechtfertigungs- und Begründungspraxis<br />
wird aber erst durch ein Offenlegen und Explizitmachen wesentlicher<br />
Teile dieser Praxis ermöglicht.<br />
In der Erkenntnistheorie und der Wissenschaftsphilosophie treffen<br />
wir aber auch immer wieder auf eine grundsätzlich andere Vorgehensweise,<br />
die eben nicht die konkrete Wissenschaftspraxis zum Ausgangspunkt<br />
nimmt. Man verfolgt statt dessen eine stärker aprioristische Strategie<br />
und beruft sich auf allgemein plausible erkenntnistheoretische Annahmen,<br />
ohne sie laufend an konkreten Beispielen zu überprüfen. Welche<br />
Gefahren das in sich birgt, möchte ich durch einen kleinen Exkurs<br />
enthüllen, der den Unterschied von naturalistischen und aprioristisch<br />
orientierten Methodologien verdeutlicht. In der Wissenschaftsphilosophie<br />
finden wir viele schöne und berühmte Beispiele für metatheoretische<br />
Plausibilitätsüberlegungen ohne Rückbindung an konkrete Fallstudien.<br />
Ulrich Gähde hat dafür einmal das Schlagwort „Wissenschaftsphilosophie<br />
ohne Wissenschaft“ geprägt. Nun gibt es sicher „schwere Fälle“
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 46<br />
dieser Vorgehensweise, mit denen zu beschäftigen geradezu unfair erschiene,<br />
weshalb ich mich einem versteckteren Fall zuwenden möchte,<br />
der noch dazu eine große anfängliche Plausibilität auf seiner Seite hat,<br />
nämlich Poppers Falsifikationismus. Der Wissenschaftshistoriker Kuhn<br />
hat sicher schon einiges dazu beigetragen, unsere Wachsamkeit gegenüber<br />
der recht einfachen erkenntnistheoretischen Auffassung Poppers<br />
von der Wissenschaftsdynamik zu schärfen. Er argumentiert dafür, daß<br />
Poppersche Falsifikationen in der Wissenschaftsgeschichte so gut wie nie<br />
vorkommen. Doch woran liegt das? Verhalten sich die Wissenschaftler<br />
aus Gründen des persönlichen Ehrgeizes oder anderen externen Motivationen<br />
erkenntnistheoretisch skrupellos oder sogar irrational? Der<br />
„Apriorist“ stimmt solchen Vermutungen vorschnell zu, während der<br />
Naturalist zunächst die Hypothese verfolgen wird, daß die Wissenschaftler<br />
sich in den meisten Fällen durchaus einigermaßen vernünftig entschieden<br />
haben, aber die Poppersche Rationalitätskonzeption defizitär<br />
sein könnte. Um diese Vermutung zu testen, hat er die tatsächlichen wissenschaftlichen<br />
Entscheidungssituationen ausführlicher zu analysieren,<br />
als das durch kurze Verweise auf Beispiele – wie wir sie auch bei Popper<br />
finden – möglich ist. 10 Wie ein derartiges Verfahren aussehen kann,<br />
möchte ich zumindest an einem Kritikpunkt an der Popperschen Wissenschaftsmethodologie<br />
exemplarisch vorführen.<br />
a) Poppers Falsifikationismus<br />
Das Beispiel von Poppers Logik der Forschung und der großen Resonanz,<br />
die Kuhns Kritik daran gefunden hat, bringt eindeutige naturalistische<br />
Tendenzen unserer Metaphilosophie zum Ausdruck. Popper kann zwar<br />
gute Argumente zugunsten seiner falsifikationistischen Anschauung der<br />
Wissenschaften beibringen, aber wenn sich die Wissenschaftler tatsächlich<br />
ganz anders verhalten, als er es vorschreibt, betrachten wir das als<br />
einen bedeutsamen Einwand gegen seine Theorie, der Poppers apriorischere<br />
Argumente dafür aus dem Felde schlagen kann. Auch Popper ist<br />
natürlich von seiner Kenntnis konkreter wissenschaftlicher Theorien<br />
ausgegangen, als er seine Wissenschaftskonzeption entwickelt hat. Aber<br />
er hat von Beginn an normativen Zielen – wie zu zeigen, daß die Astrologie<br />
oder die Psychoanalyse keine wirklich wissenschaftlichen Theorien<br />
seien – großes Gewicht in seiner Vorstellung von wissenschaftlicher Ra-<br />
10 Natürlich ist damit auch das mögliche Ergebnis, daß trotz aller wohlwollenden<br />
Interpretation des Wissenschaftlerverhaltens sich keine Rationalisierung<br />
finden läßt und somit schließlich die Vermutung, er handele unvernünftig,<br />
als richtig erweist, nicht von vornherein ausgeschlossen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 47<br />
tionalität eingeräumt. Seine Falsifikationstheorie der empirischen Wissenschaften,<br />
wonach Theorien als gewagte Hypothesen ins Leben treten<br />
sollen und sich dort empirischen Falsifikationsversuchen zu stellen haben,<br />
wenn sie sich bewähren möchten, scheint für eine idealisierte Sicht<br />
der Wissenschaften zunächst ausgesprochen plausibel zu sein. Auch die<br />
Forderung, daß Theorien im Prinzip falsifizierbar sein sollten, um überhaupt<br />
empirischen Gehalt zu besitzen und dann bei tatsächlichem Auftreten<br />
von Widersprüchen mit der Erfahrung als falsifiziert zu gelten haben<br />
und aufgegeben werden müssen, wirkt recht überzeugend. Schließlich<br />
besitzen nur falsifizierbare Theorien auch prognostische Fähigkeiten<br />
und sind nicht ausschließlich auf post hoc „Erklärungen“ vergangener<br />
Ereignisse beschränkt. Eine Wettertheorie, die nur für das Wetter der<br />
letzten Tage sagen kann, wie es zu erklären ist, und dabei darauf festgelegt<br />
ist, jedes Wetter zu akzeptieren, ist kaum als interessante empirische<br />
Theorie zu betrachten. Sie bringt als Prognose nur Tautologien wie:<br />
„Morgen regnet es oder es regnet nicht“ zustande. Gestattet die Theorie<br />
dagegen auch nur eine gehaltvolle Vorhersage über das morgige Wetter,<br />
die jedenfalls irgendein Wetter für den nächsten Tag ausschließt, ist sie<br />
natürlich auch falsifizierbar im Sinne Poppers. So weit so gut. Die aufgezeigte<br />
Plausibilität der Popperschen Methodologie betrifft aber nur die<br />
eher apriorisch zu nennende Betrachtungsweise. Sobald man sich metaempirischen<br />
Untersuchungen der Wissenschaften zuwendet, verliert<br />
die Poppersche Metatheorie schnell an Glaubwürdigkeit.<br />
Im Fall der Popperschen Theorie geschah das auf zwei Weisen. Kritik<br />
ging einmal von den schon erwähnten wissenschaftshistorischen Analysen<br />
aus, die darauf hinweisen, daß tatsächliche wissenschaftsdynamische<br />
Prozesse nicht die Gestalt von Popperschen Falsifikationen besitzen. 11<br />
Man muß schon einen gesunden popperianischen Dogmatismus aufweisen,<br />
um darauf mit einem Achselzucken und der Bemerkung: „Um so<br />
schlimmer für die Wissenschaften“, zu reagieren. Der naturalistisch gesinnte<br />
Wissenschaftsphilosoph wird dagegen jetzt hellhörig, denn wissenschaftliche<br />
Vorgehensweisen sind, wenn auch selbstverständlich nicht<br />
in jedem Einzelfall, zunächst unsere paradigmatischen Vorbilder wissenschaftlicher<br />
Rationalität. Sie können als solche nicht ohne eingehendere<br />
Diagnose als irrational eingestuft werden, wollen wir uns mit unserem<br />
Rationalitätsbegriff nicht jeglicher Anbindung an unseren gewöhnlichen<br />
Begriff von Rationalität begeben. Ein völlig neu eingeführter Rationalitätsbegriff<br />
wäre ein reines Kunstprodukt und der Wissenschaftler könnte<br />
zu Recht fragen, wieso er sich dafür interessieren sollte. Das gilt dann<br />
11 Für Diskussionen dieser Art s. Kuhn, Lakatos, Feyerabend.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 48<br />
nicht mehr, wenn man ihm zeigt, daß er gemäß einer konsequenten Anwendung<br />
seiner eigenen Normen nicht mehr rational handelt. Erst bei<br />
einer solchen Anbindung unserer normativen Methodologie an seine eigene<br />
Praxis kann diese Methodologie ihm auch Hinweise auf Inkonsistenzen<br />
oder Inkohärenzen in seiner eigenen Vorgehensweise aufzeigen.<br />
Doch der alleinige Hinweis der Wissenschaftshistoriker, daß die Wissenschaften<br />
nicht falsifikationistisch verfahren, bleibt höchst steril, solange<br />
nicht aufgeklärt wird, wieso Poppers Methodologie nicht befolgt<br />
wird und auch nicht so zwingend ist, wie sie zunächst wirkt. Die neuere<br />
Wissenschaftsphilosophie bietet anhand differenzierterer metatheoretischer<br />
Modelle wissenschaftlicher Theorien tiefergehende Einblicke in<br />
die Struktur und Funktionsweise von Theorien. Sie ermöglichen unter<br />
anderem eine präzise Diagnose, woran der Falsifikationismus krankt und<br />
weshalb das tatsächliche Vorgehen der Wissenschaftler weder als falsifikationistisch<br />
noch als irrational anzusehen ist.<br />
An dieser Stelle setzt die zweite Kritik an Popper an, die die Poppersche<br />
Theorie in bezug auf ihre methodologische Brauchbarkeit für die<br />
Beschreibung wissenschaftsdynamischer Prozesse analysiert. Poppers<br />
Fehler, aber auch der einiger Vorgänger wie der logischen Empiristen ist<br />
es, von einer zu einfachen und zu stark idealisierten Konzeption dessen<br />
auszugehen, was eine empirische Theorie ausmacht. Seine metatheoretische<br />
Konzeption empirischer Theorien ist der Metatheorie der Mathematik<br />
entlehnt, nach der Theorien einfach aus deduktiv abgeschlossenen<br />
Satzklassen bestehen, die weitgehend amorph und ohne innere Struktur<br />
sind. Popper geht sogar noch weiter und behauptet, es handle sich dabei<br />
nur um Allsätze. Diese können dann durch Beobachtungen, die in Form<br />
singulärer Existenzsätze niedergelegt werden, mit Hilfe des Modus Tollens<br />
widerlegt werden. Daß es zumindest auch Existenzsätze in empirischen<br />
Theorie gibt, die dort eine wesentliche Funktion übernehmen, ist<br />
eigentlich zu offensichtlich, um hier noch einmal erörtert zu werden. 12<br />
Aber die metamathematische Sicht auf Theorien ist auch aus anderen<br />
Gründen unangemessen. Empirische Theorien besitzen zunächst eine<br />
reichhaltige innere Struktur mit mehreren Komponenten, die aufzuklären<br />
erforderlich ist, um die empirische Behauptung der Theorie zu explizieren<br />
und zu verstehen. So wird in vielen metatheoretischen Konzeptionen<br />
für solche Theorien zwischen zwei Typen von Begriffen unterschieden:<br />
Beobachtungsbegriffe oder empirische Begriffe und theoretische<br />
12 Man denken dazu nur an die in Gesetze auftretenden Naturkonstanten<br />
wie die Newtonsche Gravitationskonstante, die Lichtgeschwindigkeit oder das<br />
Plancksche Wirkungsquantum.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 49<br />
Begriffe. Während die empirischen Begriffe bereits ohne die Theorie zur<br />
Verfügung stehen, werden die theoretischen erst durch die Theorie eingebracht<br />
und eventuell implizit definiert. Das ist nur eine vorläufige und<br />
allein unzureichende Unterscheidung, um zu verstehen, wie empirische<br />
Theorien aufgebaut sind. Sie zeigt aber schon einen wichtigen Unterschied<br />
zwischen empirischen und mathematischen Theorien, den man in<br />
einem rein metamathematischen Konzept nicht wiedergeben kann.<br />
Die sogenannte strukturalistische Auffassung von empirischen Theorien,<br />
die an Patrick Suppes semantische Darstellung von Theorien anknüpft<br />
und von Sneed, Stegmüller, Moulines und anderen weiterentwikkelt<br />
wurde, hat dazu eine Reihe weiterer interessanter Angebote gemacht,<br />
auf die ich in Kapitel (VII) ausführlicher eingehen werde. Ein<br />
einfacher Punkt soll jedoch schon an dieser Stelle Erwähnung finden:<br />
Für mathematische Theorien ist ihr Anwendungsbereich vorgegeben. Sie<br />
treffen auf alle Strukturen zu, die die Definition ihrer Grundelemente<br />
erfüllen. Das heißt z. B., daß die Theoreme der Zahlentheorie von allen<br />
Gegenständen erfüllt werden, die den Peano Axiomen genügen. Empirische<br />
Theorien funktionieren in diesem Punkt vollkommen anders. Ihr<br />
Anwendungsbereich wird nicht anhand einer formalen Definition allgemeiner<br />
Strukturen festgelegt, sondern wird außerhalb der mathematischen<br />
Theorie etwa durch Angabe paradigmatischer Elemente oder Typen<br />
von physikalischen Systemen beschrieben. Die Newtonsche Partikelmechanik<br />
soll z. B. auf Pendel, Billiardbälle, Planeten, das Erde-Mond<br />
System, Kanonenkugeln usw. angewandt werden. Diese realen Systeme<br />
(oder Typen von solchen) können zunächst vorgängig zur Behandlung<br />
durch die Theorie und unabhängig von der Begrifflichkeit der mathematisch<br />
formulierten Gesetze der Theorie identifiziert werden.<br />
Es ist auch keineswegs intendiert, daß alle realen Systeme, die sich<br />
mit der Begrifflichkeit der Newtonschen Theorie wie Kräften und Massen<br />
beschreiben lassen, deshalb gleich als Anwendungen dieser Theorie<br />
zu betrachten sind. Selbst wenn es gelingt, einen wirtschaftlichen Binnenmarkt<br />
mit Hilfe von „Kräften“ und sogar „Massen“ in irgendeiner<br />
Weise zu beschreiben, wird er dadurch noch nicht zum Anwendungsobjekt<br />
der Newtonschen Mechanik – oder sogar zu einem Testfall für die<br />
Brauchbarkeit dieser Theorie. Hier sind bestenfalls heuristisch hilfreiche<br />
Analogiebeziehungen zu erkennen. Diese Einsicht, daß der Bereich der<br />
intendierten Anwendungen einer Theorie ein relativ selbständiger Bestandteil<br />
in einer empirischen Theorie ist, zeigt schon einen, historisch<br />
tatsächlich oft beschrittenen, Weg auf, der Popperschen Falsifikation auf<br />
sinnvolle Weise zu entkommen. Newton hatte ursprünglich angenom-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 50<br />
men, seine Theorie noch auf viele andere als die oben genannten Phänomene<br />
erfolgreich anwenden zu können, wie z. B. die Bereiche chemischer<br />
und optischer Phänomene und Ebbe und Flut. Als sich diese Gebiete<br />
und später noch andere Bereiche, in denen wir elektrische oder<br />
magnetische Kräfte finden, nicht im Rahmen der Newtonschen Theorie<br />
behandeln ließen, haben Newton und seine Anhänger nicht seine Theorie<br />
verworfen, sondern – und wem scheint das nicht sinnvoll zu sein? –<br />
schlicht auf „mechanische“ Phänomene eingeschränkt. Selbst im Bereich<br />
der mechanischen Phänomene war die Geschichte nicht ganz so einfach,<br />
und es mußten zwischenzeitlich noch verwegenere Abgrenzungen vorgenommen<br />
werden (s. Moulines 1979), die in der Popperschen Methodologie<br />
keinen angemessenen Platz finden.<br />
Ein weiteres Beispiel für dynamische Entwicklungen in der Wissenschaft,<br />
die sich am besten als Veränderungen des Bereichs der intendierten<br />
Anwendungen beschreiben lassen, findet sich in der Elektrodynamik.<br />
Obwohl die klassische Maxwellsche Elektrodynamik hervorragend funktionierte,<br />
zeigte sich zu Anfang dieses Jahrhunderts, daß sie für die elektrisch<br />
geladenen Teilchen innerhalb eines Atoms nicht eingesetzt werden<br />
konnte. Hier waren es auf der einen Seite die Abstrahlungsphänomene<br />
der schwarzen Körperstrahlung und der photoelektrische Effekt, die diesen<br />
Ausschluß nahelegten und auf der anderen Seite die intertheoretischen<br />
Verbindungen des Bohrschen Atommodells, die ihn sogar verlangten,<br />
um Inkonsistenzen zu vermeiden. Das war Bohr bei dem Erarbeiten<br />
seiner Atomtheorie auch bewußt, wenn auch vielleicht nicht unter genau<br />
derselben Beschreibung, wie ich sie gegeben habe (s. dazu Bartelborth<br />
1989). Für ihn gehörten daher die gebundenen Elektronen nicht mehr<br />
zum Anwendungsbereich der klassischen Elektrodynamik.<br />
Natürlich sind derartige Immunisierungen von Theorien – die widerspenstige<br />
intendierte Anwendungen schlichtweg aufgeben – nicht in allen<br />
Fällen sinnvoll. So hilfreich das Streichen der Chemie aus der Newtonschen<br />
Theorie auch war, so blieb es doch unbefriedigend, die gebundenen<br />
Elektronen im Atom einer Behandlung durch die Elektrodynamik<br />
zu entziehen, während freie Elektronen weiterhin der Maxwellschen<br />
Theorie gehorchen. Dieser unbefriedigende Zustand war der natürliche<br />
Ausgangspunkt der Suche nach einer beide Fälle umfassenden Theorie,<br />
die letztlich zur Entwicklung der Quantenelektrodynamik geführt hat.<br />
Trotzdem scheint auch vom heutigen Kenntnisstand die Forderung maßlos,<br />
die klassische Elektrodynamik hätte bei Bekanntwerden der widerspenstigen<br />
Phänomene eigentlich vollständig aufgegeben werden müs-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 51<br />
sen. Sie ist selbst heute noch eine durchaus zutreffende Theorie für sehr<br />
viele Anwendungsbereiche.<br />
Popper hat sich mit seiner zu idealisierten Sichtweise von Theorien<br />
den Blick auf eine Analyse dieser Phänomene selbst verstellt und kann<br />
diese Beispiele in seiner Auffassung von Theorien nicht erfassen. Nur<br />
wenn man Poppers einfache Konzeption von Theorien akzeptiert, bleibt<br />
seine Forderung des Falsifikationismus damit noch so intuitiv überzeugend<br />
wie zunächst angenommen. 13 Eine Metatheorie, die demgegenüber<br />
in enger Anbindung an konkrete Beispiele die Struktur von Theorien<br />
und ihrer Bedeutung in der Theoriendynamik ermittelt, wird Theoriekomponenten<br />
wie den Anwendungsbereich einer Theorie und ihre empirische<br />
Funktion in den Blick nehmen. Die strukturalistische Auffassung<br />
hat tatsächlich noch eine ganze Reihe weiterer innerer Strukturen von<br />
Theorien offengelegt, die ebenfalls verständlich machen, weshalb die<br />
Wissenschaften nicht falsifikationistisch verfahren und trotzdem rational<br />
bleiben können. Zu dem methodologischen Naturalismus – wie ich<br />
meine Metaphilosophie nenne – gehört es also, unsere tatsächliche Methodologie<br />
und ihre Bewertung zum Ausgangspunkt einer metatheoretischen<br />
Untersuchung zu nehmen, und sie anhand von Beispielen immer<br />
wieder in bezug auf ihre Gültigkeit hin zu überprüfen. Demgegenüber<br />
fällt der Apriorist zu schnell dem Fehler anheim, seine normativen Ansichten<br />
für verbindlich zu erklären, ohne ihre Anwendbarkeit zu überprüfen.<br />
b) Reflektives Überlegungsgleichgewicht<br />
In der Erkenntnistheorie wiegen die methodologischen Probleme sogar<br />
noch schwerer als in der Wissenschaftstheorie, denn auf welche Begründungsformen<br />
soll man sich beziehen, wenn man erst eine allgemeine<br />
Theorie der Begründung aufstellen und selbst rechtfertigen möchte?<br />
Wenn wir nicht über eine erste Philosophie verfügen, die ohne jede eigene<br />
Voraussetzung als Basis für die Begründung der Rechtfertigungstheorie<br />
dienen kann, sind wir daher bei der Konstruktion erkenntnistheoretischer<br />
Theorien mehr denn je auf einen methodologischen Naturalismus<br />
angewiesen. Doch wie kann der in diesem Fall aussehen? Chisholm<br />
(1979, 171) unterscheidet zwei Fragen, die auf verschiedene Vorgehensweisen<br />
für die Erkenntnistheorie deuten:<br />
13 Das Beispiel der Popperschen Methodologie zeigt allerdings auch, wie<br />
eine falsche aber gut verständliche und intuitive Theorie einen wichtigen Anstoß<br />
für die metatheoretische Forschung darstellen kann.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 52<br />
1. Welchen Umfang hat unser Wissen? und<br />
2. Was sind die Kriterien des Wissens?<br />
Für den Empirismus ist es charakteristisch anzunehmen, wir hätten eine<br />
Antwort auf die zweite Frage und könnten auf dieser Grundlage versuchen,<br />
die erste zu beantworten. Chisholm sieht sich dagegen mit Moore<br />
auf der anderen Seite. Er betont die Gewißheit unserer Common-Sense<br />
Überzeugungen, denen wir gegen skeptische Spitzfindigkeiten vertrauen<br />
sollten, und versucht Kriterien für Wissen auf eine Weise anzugeben,<br />
daß unsere bisherigen Annahmen über den Umfang unseres Wissens aufrechterhalten<br />
werden können. Doch diese Vorgehensweise ist sicher viel<br />
zu blauäugig, denn der Common-Sense hat zu allen Zeiten viele offensichtlich<br />
falsche und ungerechtfertigte Ansichten enthalten. Warum<br />
sollte also gerade er für philosophische Reflexionen sakrosankt sein?<br />
Da auch die empiristische Vorgehensweise schließlich nicht überzeugend<br />
wirkt (s. dazu III.B) sollte ein metaphilosophisches Verfahren irgendwo<br />
dazwischen zu suchen sein. Eine erste schon relativ klare Beschreibung,<br />
wie es aussehen kann, bietet uns Russell in seiner Erörterung<br />
der Bedeutung von Wahrheit:<br />
Der Vorgang, den wir zu durchlaufen haben, ist seinem Wesen nach<br />
der einer Analyse: wir haben verschiedene komplexe und mehr oder<br />
weniger verworrene Meinungen über das Wahre und das Falsche<br />
und müssen sie auf Formen zurückführen, die einfach und klar sind,<br />
ohne einen Widerstreit zwischen unseren ursprünglichen komplexen<br />
und verworrenen Meinungen und unseren zum Schluß einfachen<br />
und klaren Behauptungen hervorzurufen. Diese schließlichen Behauptungen<br />
sind teils nach ihrer eigenen Evidenz, teils nach ihrem<br />
Vermögen zu prüfen, das ‘Gegebene’ zu erklären; und das ‘Gegebene’<br />
sind bei einem solchen Problem die komplexen und verworrenen<br />
Meinungen, mit denen wir beginnen. Diese Meinungen müssen bei<br />
ihrer Klärung notwendig einer Veränderung unterliegen, aber diese<br />
Veränderung sollte nicht größer sein als durch ihre anfängliche Verwirrung<br />
gerechtfertigt ist. (Russell 1910, 100)<br />
Eine entsprechende Darstellung findet sich bei Nelson Goodman (1988)<br />
in seiner Rechtfertigung des von Hume so gebeutelten Induktionsschlusses.<br />
Dabei zieht er die Rechtfertigung deduktiver Schlüsse zum Vergleich<br />
heran und kommt zu dem Ergebnis:<br />
Das sieht eindeutig zirkulär aus. Ich sagte, deduktive Schlüsse würden<br />
aufgrund ihrer Übereinstimmung mit gültigen allgemeinen Re-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 53<br />
geln gerechtfertigt, und allgemeine Regeln würden gerechtfertigt<br />
aufgrund ihrer Übereinstimmung mit gültigen Schlüssen. Doch das<br />
ist ein guter Zirkel… Eine Regel wird abgeändert, wenn sie zu einem<br />
Schluß führt, den wir nicht anzuerkennen bereit sind; ein Schluß<br />
wird verworfen, wenn er eine Regel verletzt, die wir nicht abzuändern<br />
bereit sind. Der Vorgang der Rechtfertigung besteht in feinen<br />
gegenseitigen Abstimmungen zwischen Regeln und anerkannten<br />
Schlüssen; die erzielte Übereinstimmung ist die einzige Rechtfertigung,<br />
derer die einen wie die anderen bedürfen. (Goodman 1988,<br />
86f)<br />
Sowohl unsere anerkannten Schlüsse wie auch unsere Schlußverfahren<br />
können nach Goodman in einem Prozeß der gegenseitigen Abstimmung<br />
schließlich als ungültig verworfen werden; wir müssen uns nicht, wie<br />
Chisholm vorschlägt, für eine Seite entscheiden, und diese als ohne<br />
wenn und aber gegeben voraussetzen. Neben den deskriptiven Aspekten<br />
kommen in diesem Verfahren normative ins Spiel, denn man begnügt<br />
sich nicht mit einer unkritischen Beschreibung und Übernahme der bisherigen<br />
Schlüsse und Regeln, sondern versucht in mehreren Arbeitsgängen<br />
die guten von den schlechten Rechtfertigungen zu trennen und die<br />
schlechten Regeln und Schlüsse auszufiltern. Schlüsse und Regeln, die<br />
diesen Prozeß überstehen, gelten dadurch als begründet.<br />
Es ist daher kein Zufall, daß dieses Verfahren auch für ethische<br />
Theorien, die als ein Paradebeispiel für normative Theorien stehen, Anwendung<br />
findet. Rawls (1975, 65ff) machte das Goodmansche Verfahren<br />
unter dem Namen des reflektiven Gleichgewichts bekannt und begründete<br />
mit seiner Hilfe seine Theorie der Gerechtigkeit. In der Erkenntnistheorie<br />
können wir nicht umhin, in ähnlicher Weise zu verfahren<br />
und mit bestimmten anerkannten Rechtfertigungen zu beginnen, um<br />
dann ihnen entsprechende Rechtfertigungsverfahren vorzuschlagen, die<br />
uns zudem plausibel erscheinen. In deren Licht haben wir wiederum unsere<br />
anerkannten Rechtfertigungen zu untersuchen, ob sie wirklich gute<br />
Gründe bereitstellen. Anschließend müssen wir erneut überlegen, ob unsere<br />
Rechtfertigungsverfahren im Lichte dieser Überlegungen wirklich so<br />
überzeugend sind, wie wir zunächst angenommen haben usf. Das kann<br />
ein längerer Reflexionsprozeß sein, der aber vielleicht schon nach wenigen<br />
Schritten zu einer einigermaßen stabilen Metatheorie führt. Tatsächlich<br />
finden alltägliche und philosophische Dispute oft in entsprechender<br />
Weise statt, wobei allerdings im allgemeinen nicht gleich mehrere Reflexionsstufen<br />
durchlaufen werden. Denken wir als Beispiel an Platons<br />
Staat (erstes Buch 331c), wo Sokrates gegen die Ansicht argumentiert,
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 54<br />
Gerechtigkeit bestehe darin, die Wahrheit zu sagen und das, was man<br />
von jemandem empfangen hat, diesem zurückzugeben. Sokrates verweist<br />
darauf, daß wir nach dieser Konzeption von Gerechtigkeit einem Menschen,<br />
der inzwischen wahnsinnig geworden ist, auch seine Waffen zurückgeben<br />
müßten, die er uns geliehen hat. Das kann aber nicht gerecht<br />
sein, und daher ist im Sinne einer reductio ad absurdum diese Gerechtigkeitsvorstellung<br />
zu verwerfen. Hier wurde eine auf den ersten Blick<br />
plausibel erscheinende Regel für gerechtes Verhalten zurückgewiesen,<br />
weil sie in Konflikt mit unseren Intuitionen über gerechtes Verhalten in<br />
einem bestimmten Anwendungsfall steht.<br />
Umgekehrt berufen wir uns in Diskussionen, ob eine bestimmte<br />
Handlung moralisch richtig war, meist auf allgemeinere Regeln, um unsere<br />
Meinung zu stützen, wobei wir hoffen, daß diese Regeln so einleuchtend<br />
sind, daß auch unser Widerpart sich von ihnen überzeugen<br />
lassen wird. Gegen jemanden, den wir dabei beobachten, wie er aus Vergnügen<br />
seinen Hund schlägt, werden wir z. B. einwenden, es sei doch<br />
offensichtlich Unrecht, einer leidensfähigen Kreatur nur zum Spaß<br />
Schmerzen zuzufügen. Ein solcher Appell wird zwar wahrscheinlich nur<br />
in den seltensten Fällen praktischen Erfolg haben, aber wenn es dem<br />
Tierquäler aus irgendeinem Grund um eine moralische Rechtfertigung<br />
seiner Handlung zu tun ist, ist es nun an ihm, sich gegen den Vorwurf zu<br />
wehren. Als rationaler Diskussionspartner könnte er versuchen, die genannte<br />
Regel anzugreifen – etwa indem er anhand von entsprechenden<br />
Anwendungsfällen zeigt, daß sie nicht in dieser Allgemeinheit gültig ist –<br />
oder ihr zustimmen und etwa erläutern, wieso sein Verhalten trotz des<br />
Anscheins nicht unter die Regel subsumierbar sei. Und selbst wenn er<br />
nur eine fadenscheinige Ausrede daherstottert, zeigt das schon, daß ihn<br />
der Hinweis auf die allgemeine Regel nicht einfach kalt läßt.<br />
Dieses Verfahren wirkt noch etwas spärlich und bedarf einer weiteren<br />
Ausarbeitung. In seiner bisherigen Form wird es meist als enges Reflektives<br />
Gleichgewicht zwischen Regeln und Einzelfällen bezeichnet, das<br />
zu einem Verfahren des weiten reflektiven Gleichgewichts zu erweitern<br />
ist. Dafür werden größere Teile unseres Hintergrundwissens in die Beurteilung<br />
mit eingebracht, die nicht nur aus den jeweiligen Bereichen stammen,<br />
um deren Regeln es geht, wie das bisher der Fall war. Daniels hat<br />
in (1979) einen derartigen Vorschlag für die Ethik unterbreitet, den ich<br />
auf die Erkenntnistheorie übertragen möchte. Danach müssen wir dem<br />
oft holistischen Charakter von Begründungen auch auf der Metaebene<br />
gerecht werden, indem wir alle relevanten Teile unseres Hintergrundwissens<br />
in einen solchen Reflexionsprozeß einbringen. Als Ausgangspunkt
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 55<br />
des Verfahrens sind dann die folgenden drei Komponenten unseres<br />
Überzeugungssystems zu nennen:<br />
(a) Eine Menge wohlüberlegter epistemischer Bewertungen<br />
einzelner Rechtfertigungen,<br />
(b) eine Menge von erkenntnistheoretischen Prinzipien und<br />
(c) unser weiteres relevantes Hintergrundwissen,<br />
das z. B. in Form von empirischen Theorien über unsere Wahrnehmung<br />
und unsere Erinnerungsfähigkeiten und anderen typischen Hilfstheorien<br />
wie etwa der Statistik vorliegt. 14 Unter den wohlüberlegten und reflektierten<br />
epistemischen Bewertungen sind Einschätzungen von bestimmten<br />
rechtfertigenden Argumenten zu verstehen, bei denen wir uns relativ sicher<br />
sind, daß die bekannten Fehlerquellen, wie besondere persönliche<br />
Betroffenheit, mangelhafter Kenntnisstand etc., keine Rolle gespielt haben<br />
und wir zu einem ausgewogenen Urteil anhand einer Abwägung aller<br />
uns bekannten relevanten Umstände gelangt sind. Wie für die Rechtfertigung<br />
empirischer Theorien nicht einfach alle Daten unterschiedslos herangezogen<br />
werden, sondern nur solche, die schon einen Ausleseprozeß<br />
durchlaufen haben, werden also auch hier nicht alle epistemischen Bewertungen,<br />
die wir vorfinden, als Ausgangsdaten zugelassen, sondern<br />
nur solche, die einen vortheoretischen Filterprozeß überstanden haben.<br />
Dabei werden die aussortiert, für die wir bereits, ohne über eine ausgefeilte<br />
Rechtfertigungstheorie zu verfügen, erkennen können, daß sie unzuverlässig<br />
sind. Unter (b) werden verschiedene epistemische Prinzipien<br />
betrachtet und in der Suche nach einem Reflexionsgleichgewicht daraufhin<br />
untersucht, wie gut sie im Lichte unserer Hintergrundtheorien – die<br />
z. B. aus gewissen Metaprinzipien und relevantem empirischen Wissen<br />
bestehen – die wohlüberlegten epistemischen Bewertungen erklären<br />
oder systematisieren können. Das Ziel besteht in einem Überzeugungssystem,<br />
in dem die drei Komponenten in möglichst kohärenter Form vorliegen;<br />
d.h., wir suchen nach Prinzipien, die unsere epistemischen Bewertungen<br />
in optimaler Form erklären, wobei aber in verschiedenen Reflexionsschritten<br />
auch einige der wohlüberlegten Bewertungen selbst<br />
wieder aufgegeben oder revidiert werden können. Die allgemeine Strategie<br />
bei der Suche nach einem Reflexionsgleichgewicht wird dabei vermutlich<br />
eher konservativ sein und versucht mit möglichst wenig Änderungen<br />
im Gesamtsystem unserer Überzeugungen auszukommen, wobei<br />
14 Sie zeigt etwa, daß viele typische Schlußweisen unseres Alltags, die statistische<br />
Aussagen betreffen, mit großer Vorsicht zu genießen sind (s. Tversky/Kahneman<br />
1982)
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 56<br />
die Größe der Änderungen sicher selbst wiederum im Lichte bestimmter<br />
Metabewertungen zu beurteilen ist. 15<br />
So werden wir im Normalfall Bewertungen unproblematisch erscheinender<br />
Wahrnehmungsurteile als zuverlässig nicht allzu schnell aufgeben,<br />
nur weil das unsere epistemischen Prinzipien vereinfachen könnte.<br />
Dem steht unsere Metabewertung entgegen, daß gerade Zuverlässigkeitsannahmen<br />
dieses Typs unersetzliche Eckpfeiler unserer Erkenntnis<br />
sind. Bei ihrer Preisgabe würden zu wenige unserer Vorstellungen von<br />
epistemischer Beurteilung aufrechterhalten. Trotzdem kann uns schließlich<br />
die epistemische Theorie auch Argumente an die Hand geben,<br />
grundlegende Bewertungen einer Reflexion zu unterziehen, und sie<br />
eventuell zu revidieren. Für diesen Vorgang, der einer kleinen erkenntnistheoretischen<br />
Revolution gleichkäme, lassen sich bisher wohl kaum<br />
einfache und strikte Spielregeln angeben. Jedenfalls muß das Verfahren<br />
fortgesetzt werden, bis ein Reflexionsgleichgewicht der drei Komponenten<br />
erreicht ist. Das ist natürlich nur eine recht abstrakte Beschreibung<br />
dieses komplexen Verfahrens, das wir in unterschiedlichen Bereichen<br />
der Philosophie zur dialektischen Begründung von Normen antreffen.<br />
Interessant scheint mir noch der Hinweis, daß nicht nur einschlägige<br />
empirische Theorien wie die über unsere Wahrnehmung und unsere Informationsverarbeitung<br />
erkenntnistheoretisch bedeutsam sein können.<br />
Wir finden z. B. in der Philosophiegeschichte immer wieder Entwicklungen,<br />
für die ebenso das zeitgeschichtliche Weltbild naturwissenschaftlicher<br />
und religiöser Art relevant ist. Um einige Beispiele zu erwähnen:<br />
Wenn Kant zu Beginn seiner Kritik der reinen Vernunft fragt „Wie sind<br />
synthetische Urteile a priori möglich?“, so geschieht das aufgrund seiner<br />
Annahme, daß ihre Existenz offensichtlich ist. Dafür spielt seine Auffassung<br />
der Geometrie und der naturwissenschaftliche Hintergrund der<br />
Newtonschen Mechanik als Paradigma für Wissen eine wesentliche Rolle.<br />
Angesichts der Entwicklung der Wissenschaften seit Kant stehen uns<br />
heute eine Reihe neuer Gesichtspunkte zur Verfügung: Die mathematische<br />
Geometrie gilt inzwischen eher als analytisch und die euklidische<br />
Geometrie sowie die Newtonsche Theorie haben ihren ausgezeichneten<br />
Status verloren; außerdem sind ihre grundlegenden Charakteristika wie<br />
ihre deterministische Vorstellung von Kausalität nicht mehr aufrecht zu<br />
erhalten. Auch die Cartesianische Erkenntnistheorie enthält eine Reihe<br />
von Annahmen, die auf der Grundlage seines Weltbildes sicher anders<br />
als heute zu bewerten sind. Da ist zunächst der Ausgangspunkt Descartes<br />
15 Daß die konservative Vorgehensweise auch erkenntnistheoretisch zu begründen<br />
ist, wird in (V.A.3) zu erläutern sein.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 57<br />
in einer Reflexion auf die Inhalte unserer eigenen mentalen Vorstellungen,<br />
für die er annimmt, daß sie uns vollkommen transparent sind. Daß<br />
diese Annahme nicht unproblematisch ist, ist uns heute nicht nur durch<br />
die Freudsche Redeweise vom Unterbewußten geläufig. Ebenso ist Descartes<br />
Idee, vermittels eines Gottesbeweises zu einer Begründung unserer<br />
Erkenntnis zu gelangen, heutzutage kaum noch plausibel. In diesen<br />
Beispielen, deren Liste sich leicht verlängern ließe, enthüllt sich eine eindeutige<br />
Abhängigkeit erkenntnistheoretischer Überlegungen von unserem<br />
Hintergrundwissen in bezug auf physikalische, psychologische oder<br />
religiöse Ansichten. Sie zeigt, warum die Berücksichtigung eines weiten<br />
Reflexionsgleichgewichts in unserer Methodologie wichtig ist, auch<br />
wenn wir damit noch nicht die Mechanismen aufgeklärt haben, wie die<br />
empirischen Theorien letztlich Eingang in die Erkenntnistheorie finden.<br />
Es bleiben eine Reihe von Fragen offen, wie die, ob es immer ein<br />
Gleichgewicht geben wird oder ob nicht vielmehr die Inkohärenz immer<br />
so groß bleiben könnte, daß wir nicht von einem Reflexionsgleichgewicht<br />
reden möchten; oder ob es mehrere Gleichgewichtszustände geben<br />
kann. Es ist ebenso unklar, wieviele Reflexionsstufen durchlaufen<br />
werden müssen, bis sich ein entsprechendes Gleichgewicht einstellt. Des<br />
weiteren kann der Bereich unseres Wissens, der Berücksichtigung finden<br />
soll, ständig erweitert werden oder sich durch neue Erkenntnisse verändern.<br />
Außerdem sind die Spielregeln nicht soweit geklärt, daß schnelle<br />
Einigung über ihre Anwendung zu erwarten ist. Aber auch wenn sich die<br />
Regeln des Gleichgewichtsverfahrens bisher nicht allgemein explizieren<br />
lassen, scheinen seine Anwendungen in Einzelfällen oft ziemlich überzeugend<br />
zu sein.<br />
Schauen wir zum Abschluß noch auf zwei Einwände gegen das Verfahren<br />
des reflektiven Gleichgewichts, die aus einer anderen Richtung<br />
kommen. Da ist zunächst die Kritik von Stich (1988), daß die analytische<br />
Erkenntnistheorie schlicht von Bedeutungsanalysen ausgeht, denen<br />
man damit eine Aufgabe zuweist, die sie nicht erfüllen können. Stich hat<br />
wohl Recht, daß es in der „ordinary language“-Philosophie Tendenzen<br />
gab, handfeste philosophische Probleme, wie die moralische Frage, was<br />
man in einer bestimmten Situation tun solle, durch eine Bedeutungsanalyse<br />
zu entscheiden. Genügt es nicht – so dachte mancher „ordinary language“-Philosoph<br />
–, einfach zu ermitteln, wie das „soll“ in unserer Sprache<br />
korrekt gebraucht wird, um damit auch die moralische Frage zu beantworten?<br />
Ein bekannter Versuch, sehr direkt so zu argumentieren, findet<br />
sich in Searles Herleitung eines scheinbar moralischen Gebots aus<br />
rein deskriptiven Prämissen. Searle demonstriert dort (erstmals 1964) in
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 58<br />
einer Reihe von Einzelschritten, wie daraus, daß jemand im geeigneten<br />
Kontext die Worte äußert: „Ich verspreche, Dir fünf Dollar zu zahlen“,<br />
geradezu analytisch folgt, daß er auch eine Verpflichtung übernommen<br />
hat, die fünf Dollar zu bezahlen. Doch Mackies Analyse (1981, 82ff)<br />
macht eine implizite Voraussetzung in dieser Argumentation namhaft,<br />
die offenbart, daß wir damit keineswegs eine moralische Norm allein<br />
aufgrund sprachlicher Zusammenhänge begründen konnten. Der Schluß<br />
basiert nämlich unter anderem auf dem Akzeptieren der Institution des<br />
Versprechengebens und ihrer Regeln. Lehnt man diese Institution, die sogar<br />
in sprachliche Zusammenhänge Eingang gefunden hat, dagegen ab,<br />
hat auch das gegebene „Versprechen“ keine verpflichtende Kraft mehr.<br />
Die rein sprachliche Analyse entbindet einen daher nicht von der moralphilosophischen<br />
Aufgabe einer Rechtfertigung der fraglichen Norm, Versprechen<br />
einzuhalten. 16<br />
Spätestens seit Moores Angriff der offenen Frage auf naturalistische<br />
Fehlschlüsse sollte die Sterilität rein sprachphilosophischer Analysen bekannt<br />
sein (s. auch Sosa 1989). Sie können nur mit einiger Akribie ermitteln,<br />
was der normale Muttersprachler in dieser Frage denkt, 17 aber<br />
damit ist noch keineswegs entschieden, ob diese Common Sense Ansichten<br />
auch begründet oder begründbar sind. Es ist z. B. noch nicht einmal<br />
ausgeschlossen, daß diese Ansichten untereinander inkonsistent sind,<br />
was sicherlich in einigen Fällen passiert. Putnam (1990, 279ff) behauptet<br />
sogar, daß es so etwas wie einen Nazi mit rationalen Überzeugungen<br />
überhaupt nicht geben könne, womit der Vorwurf innerer Unstimmigkeit<br />
der Überzeugungen auf größere Gruppen einiger Gesellschaften zuträfe.<br />
In solchen Fällen spricht alles dafür, die Ansichten des Common<br />
Sense zurückzuweisen und gegebenenfalls, sollten sie bereits im Sprachgebrauch<br />
etabliert sein, für eine Änderung des Sprachgebrauchs einzutreten.<br />
Im Bereich empirischen Wissens spielen irreführende Redewendungen<br />
wie „die Sonne geht auf“ keine so verderbliche Rolle wie im moralischen<br />
oder politischen, wo sie häufig genug zur Verschleierung fehlerhafter<br />
normativer Ansichten eingesetzt werden. Statt die „semantische<br />
Umweltverschmutzung“ in diesen Fällen zu bekämpfen, wird sie durch<br />
16 Siehe dazu auch Tugendhat (1984, 59ff), der früher einen entsprechenden<br />
semantischen Zugang zur Moral propagiert hat und seine spätere Kritik daran<br />
(1984, 6).<br />
17 Dazu hat schon Sidgwick (1962, Buch III Kap. XI, Resümee S. 360),<br />
der einige unsere Common Sense Ansichten zur Moral genauer untersucht hat,<br />
darauf hingewiesen, daß die Common Sense Moral meist auch noch viel zu vage<br />
gehalten ist, um die interessanteren Fälle entscheiden zu können.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 59<br />
die bloße Sprachanalyse festgeschrieben, was kaum das Ziel aufklärerischer<br />
Philosophie sein kann. Stich Kritik an diesen Vorgehensweisen ist<br />
daher berechtigt, aber sie trifft die meisten heutigen analytischen Erkenntnistheoretiker<br />
und Moralphilosophen nicht, denn sie versuchen gerade<br />
mit dem Gleichgewichtsverfahren eine substantielle Theoriebildung<br />
vorzunehmen, die den bisherigen Sprachgebrauch und Common Sense<br />
keineswegs zementiert, sondern durch interne Reflexionen zu kritisieren<br />
und an einigen Stellen zu überwinden sucht. Um seinen Vorwurf aufrechtzuerhalten,<br />
hätte Stich nachzuweisen, daß man sich in dem vorgeschlagenen<br />
Reflexionsprozeß nicht hinreichend weit von den ursprünglichen<br />
Positionen entfernen könne, aber das wurde bisher keineswegs belegt.<br />
Gewichtiger erscheint auf den ersten Blick der Einwand von Nisbett<br />
und Stich (1980), daß empirische Untersuchungen demonstrieren, welch<br />
typische Fehlschlüsse, wie z. B. der des Spielers („gamblers fallacy“), sich<br />
in unserer tatsächlichen inferentiellen Praxis finden lassen. Kann es sinnvoll<br />
sein, diese zu Beginn des Verfahrens als Ausgangspunkt zu verwenden?<br />
Eine erste Replik kann in dem Hinweis bestehen, daß im Gleichgewichtsverfahren<br />
eher die geäußerten und reflektierten epistemischen Bewertungen<br />
als Daten herangezogen werden und nicht die bloß im Verhalten<br />
geoffenbarten. Trotzdem lassen sich vermutlich in unseren bereits<br />
reflektierten Absichtserklärungen einige dieser Fehlschlüsse wiederfinden,<br />
die dann in den Reflexionsprozeß mit eingehen werden. Doch gerade<br />
dieser Einwand dokumentiert zugleich, daß sich Fehlschlüsse durch<br />
eine Reflexion der Praxis als solche aufdecken lassen, denn darauf müssen<br />
sich Nisbett und Stich schon stützen, wenn sie von „Fehlschlüssen“<br />
sprechen. In einem reflektiven Gleichgewicht sind diese dann natürlich<br />
zurückzuweisen. In dem erweiterten Reflexionsprozeß können wir auf<br />
alle Informationsquellen zurückgreifen, die uns überhaupt zugänglich<br />
sind und dazu gehören dann auch Expertenmeinungen, die es auch für<br />
Inferenzverfahren gibt (s. dazu Conee und Feldman 1983). Der Fehlschluß<br />
des Spielers ist mit den Regeln der Statistik zu konfrontieren und<br />
zurückzuweisen. Die Beispiele von Nisbett und Stich sind daher gute<br />
Beispiele dafür, wie das Gleichgewichtsverfahren tatsächlich zur theoretischen<br />
Überwindung auch schlechter Schlußregeln durch entsprechende<br />
Reflexion geführt hat. 18<br />
18 Natürlich soll damit nicht die Behauptung verbunden werden, man<br />
könnte durch die bloße Reflexion auch das entsprechende Verhalten ändern.<br />
Diesem Wunschdenken der Aufklärung möchte ich nicht folgen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 60<br />
Anwendungen des Gleichgewichtsverfahrens beschränken sich auch<br />
nicht auf die Erkenntnistheorie, sondern es kann sich um Explikationen<br />
von Begriffen handeln, deren Einschränkung auf bestimmte Bestandteile<br />
des Begriffs eine Bewertung beinhaltet, oder die Begründung einer Moraltheorie<br />
oder die Begründung projektierbarer Schlußregeln der Induktion<br />
usf. Das Verfahren kann in diesen unterschiedlichen Gebieten seine<br />
vereinheitlichende Kraft für die Metaphilosophie unter Beweis stellen,<br />
in Konkurrenz zu anderen Verfahren treten und so weiterentwickelt<br />
werden. 19 Eine weitere Ausgestaltung erfährt es im folgenden in seinem<br />
praktischen Einsatz im Verlauf der Arbeit.<br />
4. Evolutionäre Erkenntnistheorie<br />
Obwohl das eigentlich nicht mein Hauptthema ist, möchte ich doch einige<br />
Bemerkungen dazu machen, welche Stellung der Evolutionstheorie<br />
in dem Unternehmen Erkenntnistheorie zukommt. Die „evolutionäre Erkenntnistheorie“<br />
ist ein aufstrebendes Gebiet in der institutionalisierten<br />
Philosophie und viele Autoren berufen sich nonchalant auf die Evolution,<br />
als ob diese über alle Schwierigkeiten, die in ihren erkenntnistheoretischen<br />
Systemen auftreten, in geradezu naturwissenschaftlicher Weise<br />
hinweghelfen könnte. Da sind sicher Warnungen angebracht, die Evolution<br />
vorsichtiger zum Einsatz zu bringen.<br />
Zunächst dürfte es eigentlich selbstverständlich sein, daß man die<br />
Evolution nicht erfolgreich gegen einen radikalen Skeptiker ins Feld führen<br />
kann, denn die Berufung auf Darwinistische Theorien setzt bereits<br />
einen guten Teil unseres Wissens über unsere Vergangenheit voraus, die<br />
wir zur Begründung evolutionärer Theorien benötigen. Dazu kommen<br />
Erkenntnisse aus der Molekularbiologie und anderen Gebieten wie der<br />
Chemie, auf die sich Darwins Theorie zusätzlich berufen muß, wenn<br />
man der Evolutionstheorie den wissenschaftlichen Status verschaffen<br />
möchte, der ihr heutzutage zukommt. All diese Erkenntnisse stellt ein radikaler<br />
Skeptiker aber bereits in Frage, so daß wir uns ihm gegenüber einer<br />
petitio principii schuldig machten, würden wir sie voraussetzen. Diesen<br />
Punkt möchte ich nicht in seine Details verfolgen, zumal entsprechende<br />
Analysen an anderer Stelle vorgelegt wurden. Sehr klar geschieht<br />
das in Bieri (1987), wo auch der Rettungsversuch Vollmers (1983, 37f),<br />
daß der dabei auftretende Zirkel nicht wirklich vitiös sei, überzeugend<br />
zurückgewiesen wird (s. Bieri 1987, 132ff).<br />
19 Daniels (1979) gibt noch eine Reihe von Punkten an, wo sich dieses<br />
Verfahren von intuitionistischen und subjektivistischen Verfahren unterscheidet.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 61<br />
Kann die Evolution denn innerhalb einer „naturalisierten Erkenntnistheorie“<br />
eine wichtige Rolle übernehmen, wenn man die eben geäußerten<br />
Einschränkungen einer solchen Wendung der Epistemologie einmal<br />
außer Acht läßt? Unsere Vorstellungen von Evolution sind zweifellos<br />
ein wichtiger Bestandteil der internen Erklärung für die Entstehung von<br />
Teilen unserer Erkenntnisfähigkeiten. Während wir uns im Rahmen einer<br />
Naturalisierung zunächst nur nach einer internen Rechtfertigung<br />
umgeschaut haben, wieso wir annehmen, daß bestimmte Meinungen auf<br />
zuverlässigen Wahrnehmungen beruhen, und uns dazu der Sinnesphysiologie<br />
zugewandt hatten, fragen wir nun danach, wie und wieso wir zu<br />
den Sinnesapparaten gelangt sind, die diese Zuverlässigkeit besitzen.<br />
Aber auch an dieser Stelle der Argumentation ist wiederum Vorsicht angebracht.<br />
Das läßt sich an einem typischen Beispiel für die Berufung auf<br />
die Evolution verdeutlichen: Michael Devitt (1991, 78) geht auf Putnams<br />
Bedenken gegenüber apriorischen Ablehnungen bestimmter Theorien<br />
in der Wissenschaft wie z. B. Dämonentheorien ein. Eine derartige<br />
Bevorzugung bestimmter Theorien ist nach Devitts Meinung angeboren,<br />
und er fragt dann: „Is the innateness worrying?“. Daß dem nicht so sei,<br />
wird mit Hilfe der Evolution begründet.<br />
It is not, because it is explicable along Darwinian lines. If a beliefforming<br />
procedure is a good one, then it is not surprising that it<br />
should be innate. Good procedures lead to truths which are conducive<br />
to survival. Thus natural selection will favour organisms with<br />
good procedures. Devitt (1991,78)<br />
Überlegungen dieser Schlichtheit sind leider im Umgang mit der Evolutionstheorie<br />
verschiedentlich anzutreffen; da ist Devitt nicht das eine<br />
schwarze Schaf.<br />
Gegen diese Form, die Evolution ins Spiel zu bringen, lassen sich<br />
eine Reihe von Einwänden geltend machen. Gegenüber klassischen erkenntnistheoretischen<br />
Fragestellungen liegt zunächst eine Änderung des<br />
Themas vor. Der Erkenntnistheoretiker fragt nach der Begründung einzelner<br />
Meinungen und nicht nach den „eingebauten“ Mechanismen der<br />
Überzeugungsbildung. Deren möglicherweise evolutionär erworbene<br />
Zuverlässigkeit kann uns bestenfalls schwache indirekte Hinweise für<br />
eine bestimmte Meinung bieten, daß diese wahr ist. Doch lassen wir uns<br />
auf diesen Punkt einmal ein, dann möchte ich in weiteren Schritten andere<br />
Bedenken gegen die evolutionäre Überlegung vortragen. Zunächst<br />
werde ich dafür eintreten, daß wir mit der natürlichen Auslese im günstigsten<br />
Fall auf solche eingebauten überzeugungsbildenden Mechanis-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 62<br />
men schließen dürfen, die Beobachtungsüberzeugungen betreffen – wobei<br />
mit „Beobachtungsüberzeugungen“ Überzeugungen gemeint sind,<br />
mit denen wir wiederzugeben gedenken, was wir wahrnehmen. Nur für<br />
diese und eng daran angelehnte Überzeugungen können wir für bestimmte<br />
Umgebungen einen Zusammenhang zu dem Überleben der Individuen<br />
einer Art herstellen. Auf der Ebene abstrakter physikalischer<br />
oder gar mathematischer Theorien ist die Redeweise von natürlicher<br />
Auslese höchstens als sehr schwache Analogie zu betrachten. Sie sind<br />
weit von den Umständen entfernt, für die unsere Fähigkeiten durch den<br />
Prozeß der natürlichen Auslese gegangen sind (s. Nagel 1992, 138ff).<br />
Was man mit „Evolution“ auf dieser Ebene meinen kann – welche Art<br />
metatheoretischer Theorie über die Theoriendynamik – bedürfte eigener<br />
Explikationen, und in einem zweiten Schritt müßte belegt werden, daß<br />
solche „Evolutionen“ in der Wissenschaftsgeschichte auch tatsächlich anzutreffen<br />
sind. Bis zu solchen metatheoretischen Resultaten ist aber noch<br />
viel Arbeit zu leisten und einige Hinweise sollen andeuten, warum ich<br />
eher skeptisch bin, was den Erfolg dieses erkenntnistheoretischen Projekts<br />
betrifft.<br />
Ob das persönliche Überleben durch das Vertreten wahrer Theorien<br />
überhaupt gefördert wird, dürfte stark von den jeweiligen Umständen<br />
abhängen. Zu Galileis Zeiten war es kaum förderlich, wahre Ansichten<br />
über die Stellung von Sonne und Erde zu haben und diese auch noch öffentlich<br />
zu verkünden. Daß es in späteren Zeiten einen Vorteil für das<br />
Überleben bedeutet und daß dieser Vorteil auf angeborene Meinungsbildungsverfahren<br />
zurückgeht, bleibt eine genauso gewagte empirische Behauptung.<br />
Wie sehen denn die Mechanismen aus, die verhindern, daß<br />
Menschen, die falsche Theorien vertreten, „weil sie vermutlich falsche<br />
Mechanismen der Meinungsbildung haben“, an der Verbreitung ihrer<br />
Gene durch Fortpflanzung gehindert werden? Eine Ablehnung der<br />
Quantenmechanik führt nach unserem jetzigen Kenntnisstand weder zu<br />
frühzeitigem Ableben noch zu erhöhter Unfruchtbarkeit. Spekulationen<br />
sind eher in der anderen Richtung möglich, daß die Labors der Physiker<br />
und die Strahlenbelastungen im Umkreis der Teilchenbeschleuniger ...<br />
Außerdem verschwenden die Wissenschaftler ihre fruchtbarsten Jahre<br />
mit dem Studium, statt konsequent ihre genetische Ausstattung zu verbreiten.<br />
Die Lächerlichkeit dieser Überlegungen sollte nur deutlich machen,<br />
wie weit wir von solchen Ansichten, auf die Devitt sich beruft, tatsächlich<br />
entfernt sind.<br />
Aber selbst für den Bereich der Beobachtungsüberzeugungen, in dem<br />
es nur um Meinungen über wahrgenommene Teile unserer Umgebung
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 63<br />
geht, ist der Zusammenhang zwischen Mechanismen, die wahrheitsförderlich<br />
sind, und der Überlebensfähigkeit von Individuen nicht so einfach,<br />
wie von Devitt unterstellt. Wir stoßen wiederum auf eine starke<br />
Abhängigkeit von der jeweiligen Umwelt. In einer Umgebung, in der<br />
Nahrung in einem einigermaßen ausreichenden Maße vorhanden ist, jedoch<br />
viele giftige Pflanzen vorkommen, die der Nahrung äußerlich ähnlich<br />
sehen, ist eine Strategie der Vorsicht, die auch viele Pflanzen, die eßbar<br />
wären, eher als giftig einstuft, gegenüber einer die auf Ermittlung<br />
der wahren Qualitäten ausgerichtet ist, vom Standpunkt der Überlebensfähigkeit<br />
vorzuziehen. Die Evolution wird unter derartigen Umständen<br />
ihre Individuen nicht auf Wahrheitsfindung hin auswählen, sondern auf<br />
größere Vorsicht hin. Zusätzlich mag der Zeitfaktor der Einschätzung<br />
von Pflanzen im Hinblick auf ihre Genießbarkeit noch eine Rolle spielen;<br />
so z. B., wenn natürliche Feinde existieren, die ein allzu langes<br />
Nachdenken über die Frage der Eßbarkeit bestimmter Pflanzen zu eigenen<br />
Freßzwecken mißbrauchen könnten. Auch dieser Faktor ist der Frage<br />
der Ermittlung wahrer Ansichten gegenüber eher fremd.<br />
Die Entwicklungen durch natürliche Auslese verlaufen auch nicht<br />
immer in einer bestimmten Richtung, was das bekannte Beispiel der<br />
Nachtfalter in Mittelengland belegt. Um sich der Umwelt während der<br />
industriellen Revolution mit ihrem Ruß anzupassen, nahmen die vorher<br />
weiß-braun gesprenkelten Falter eine gräuliche Farbe an, begannen aber,<br />
nachdem die Luft in den sechziger Jahren wieder besser wurde, zu ihrer<br />
ursprünglichen Farbe zurückzukehren. Das Beispiel demonstriert wiederum<br />
die Kontextabhängigkeit und Wankelmütigkeit von evolutionär<br />
favorisierten Eigenschaften und daß der Schluß, was die Evolution ausgesucht<br />
hätte, müsse nach diesem langen Ausleseprozeß nun in bestimmter<br />
Hinsicht maximal geeignet sein, kaum plausibel ist. All die Überlegungen<br />
der Nützlichkeit bestimmter Mechanismen der Überzeugungsbildung<br />
für ganz bestimmte Tiere in einer ganz bestimmten Umwelt –<br />
wie etwa der Zeitfaktor – sind Überlegungen die den epistemologischen,<br />
die nur auf Wahrheit ausgerichtet sind, eigentlich fremd sind und gehören<br />
deshalb nicht in eine Erkenntnistheorie. Wahrheit und Nützlichkeit<br />
von Überzeugungen für die Individuen einer bestimmten Art müssen daher<br />
keineswegs zusammenfallen. Ihr Zusammenhang sollte für den jeweiligen<br />
Einsatz der Evolution in der Erkenntnistheorie genauer ermittelt<br />
werden. Das gilt natürlich in zunehmendem Maße dort, wo wir uns<br />
Überzeugungen über unsere Umwelt zuwenden, die mit unserem Überleben<br />
in keinem direkt erkennbaren Zusammenhang mehr stehen, etwa<br />
Annahmen über weit zurückliegende und für unser Überleben relativ be-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 64<br />
langlos erscheinende Ereignisse oder Ansichten wie die genannten sehr<br />
theoretischen in der Grundlagenforschung der heutigen Physik oder Mathematik.<br />
Zu dieser Kluft zwischen Nützlichkeit fürs Überleben und Wahrheit<br />
kommen innertheoretischen Hindernisse für eine Verwirklichung der<br />
nützlichsten Mechanismen hinzu. Die Theorie der natürlichen Auslese<br />
ist eine statistische Theorie mit Phänomenen wie „genetic drift“ und „genetic<br />
hitchhiking“, die einer idealen Verwirklichung selbst der Nützlichkeit<br />
im Wege stehen. Das weist darauf hin, daß die Reichweite evolutionärer<br />
Erklärungen auch noch einer innertheoretischen Abschätzung bedarf.<br />
„Genetic Hitchhiking“ bezeichnet den Umstand, daß ganze Gene<br />
vererbt werden. Wenn ein Gen sich in einem Genpool durchsetzt, weil<br />
es bestimmte nützliche Eigenschaften kodifiziert, so werden auch alle<br />
anderen ebenfalls von dem Gen bestimmten Eigenschaften in der Population<br />
auftreten, ob diese nun nützlich sind oder nicht. 20 Das kann verhindern,<br />
daß ideale Lösungen in bestimmten Bereichen verwirklicht<br />
werden, selbst wenn diese in einer Art bereits genetisch vertreten sind.<br />
Das Auftreten bestimmter Eigenschaften, die von der Natur auf ihre<br />
Eignung hin geprüft werden, ist darüber hinaus ein Zufallsprozeß, in<br />
dem ideale Eigenschaften nur dann instantiiert werden können, wenn<br />
zunächst zufällig die geeigneten Mutationen der Gene auch auftreten.<br />
Selbst wenn das der Fall ist, bleibt es noch dem Zufallsprozeß der natürlichen<br />
Auslese überlassen, ob sie sich auch im Genpool durchsetzen können,<br />
was man mit „genetic drift“ bezeichnet. Die Literatur zur Evolutionstheorie<br />
gibt auch eine Reihe von Beispielen an, in denen gerade nicht<br />
die idealen Lösungen realisiert wurden. So nennt Dawkins (1990, 112f)<br />
uns das Beispiel der sonderbaren, asymmetrischen Verdrehung des Kopfes<br />
bei Plattfischen, bis seine beiden Augen nach oben schauen, wenn sie<br />
sich auf den Boden niederlassen. Das wirkt gegenüber der entsprechenden<br />
Entwicklung beim Rochen unangemessen. „Kein vernünftiger Planer<br />
hätte eine solche Monstrosität erdacht, wenn er in eigener Verantwortung<br />
einen Plattfisch hätte schaffen sollen.“ (Dawkins 1990, 112). Diese<br />
und schwerwiegendere „Fehler“ der Evolution – wie der menschliche<br />
Blinddarm und der Daumen des Panda – sind z.T. dadurch zu erklären,<br />
daß die Evolution eben nicht mit einem leeren Zeichenbrett begann,<br />
sondern auf dem aufbauen mußte, was sie schon vorfand, und das sind<br />
bei den Plattfischen Vorfahren, die sich im Unterschied zum Rochen auf<br />
die Seite und nicht den Bauch gelegt haben.<br />
20 Sollten sie zu schädlich für das Überleben sein, wird sich dieses Gen natürlich<br />
nicht durchsetzen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 65<br />
Neben der Verwirklichung minderwertiger Lösungen hat die evolutionäre<br />
Sichtweise kognitiver Prozesse mit Fragen des generellen Leib-<br />
Seele Problems zu kämpfen. Sie hat zunächst zu beschreiben, wie Überzeugungen<br />
oder andere mentale Zustände mit semantischer Information,<br />
für deren Zuschreibung eine Rationalitätsannahme wesentlich erscheint,<br />
in biologischen Systemen instantiiert sein können. Die Evolutionstheorie<br />
beschreibt die Entstehung von Organen mit bestimmten Eigenschaften<br />
und ist ganz der materiellen Beschreibungsebene verhaftet.<br />
Daß die Redeweise evolutionärer Erkenntnistheoretiker von Informationsverarbeitung<br />
diesen problematischen Punkt eher verschleiert als löst,<br />
wird durch eine Reihe von Überlegungen (s. dazu Bieri 1987, 122ff)<br />
deutlich. Der Begriff „Information“ ist ziemlich mehrdeutig. Man unterscheidet<br />
deshalb auch zumindest in syntaktische, semantische und pragmatische<br />
Information. Syntaktische Information findet sich in allen Gegenständen.<br />
Jeder Baum trägt syntaktische Informationen über seine<br />
kausale Vorgeschichte: Sein Aufbau enthält unter anderem die Information,<br />
wie alt er ist. Um diese Information im Sinne eines sehr umfassenden<br />
Informationsbegriffs geht es in der Rechtfertigung von Meinungen<br />
aber nicht. In der klassischen Erkenntnistheorie werden kognitive Zusammenhänge<br />
zwischen Überzeugungen untersucht, die spezifische Informationen<br />
enthalten, nämlich semantische Informationen, also Entitäten,<br />
die wahr oder falsch sein können. Der eher schillernde allgemeine<br />
Informationsbegriff versteckt mit seiner Mehrdeutigkeit oft nur die tiefliegenden<br />
Probleme der Zuschreibung semantischen Gehalts zu den Zuständen<br />
eines biologischen Systems.<br />
Auch zu dieser Problematik sind weitere Vorarbeiten notwendig, um<br />
den Wert der Evolution für eine naturalisierte Erkenntnistheorie einschätzen<br />
zu können. Wir sollten daher ausgesprochen vorsichtig mit Behauptungen<br />
über den evolutionären Wert wahrer Überzeugungen und<br />
entsprechender Veranlagungen zur Überzeugungsbildung sein. Für mein<br />
Projekt, das der klassischen erkenntnistheoretischen Problematik gewidmet<br />
ist, hat die evolutionäre Erkenntnistheorie leider keine erfolgversprechenden<br />
Ansatzpunkte anzubieten.<br />
5. Resümee<br />
Als Resignation auf das Scheitern der Versuche, dem Skeptiker Paroli zu<br />
bieten und die Philosophie auf die sichere Grundlage einer prima philosophia<br />
zu stellen, hat in den letzten Jahrzehnten eine Naturalisierung<br />
unterschiedlicher Bereiche der Philosophie (insbesondere der Erkennt-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 66<br />
nistheorie) an Boden gewonnen. Die alte Unterscheidung zwischen<br />
Rechtfertigungen und Genese von Meinungen zeigt jedoch, daß eine radikale<br />
Naturalisierung darauf hinausläuft, die klassischen Fragen der Erkenntnistheorie<br />
ganz zugunsten rein naturwissenschaftlicher Fragestellungen<br />
aufzugeben. Dafür können die radikalen Naturalisten, allen voran<br />
Quine, aber keine überzeugenden Gründe angeben, denn die klassische<br />
Frage danach, was ich glauben soll, bleibt weiterhin aktuell. Sie erfährt<br />
in der analytischen Erkenntnistheorie neueren Datums mit der Methodologie<br />
des reflektiven Überlegungsgleichgewichts eine Wendung hin<br />
zu substantieller philosophischer Theorienbildung. Statt in den Pessimismus<br />
der radikalen Naturalisten einzustimmen, soll in der vorliegenden<br />
Arbeit ein Methodologischer Naturalismus liberaleren Typs zur Anwendung<br />
kommen, der in kritischer Anknüpfung an bisherige Konzeptionen<br />
von epistemischer Rechtfertigung eine zum Teil normative, philosophische<br />
Theorie der Begründung von Meinungen vorschlägt.<br />
B. Wahrheit und Wahrheitsindikatoren<br />
Meine erste Charakterisierung von epistemischen Rechtfertigungen war<br />
die von Wahrheitsindikatoren, die uns als Hinweis oder Grund dienen<br />
können, anzunehmen, daß eine bestimmte Meinung wahr ist; oder man<br />
könnte auch sagen, die für uns die Wahrscheinlichkeit erhöhen, daß die<br />
gerechtfertigte Meinung wahr ist. Epistemische Rechtfertigungen sind<br />
unser Lackmustest für Wahrheit. Was meint man aber in diesem Zusammenhang<br />
mit „Wahrheit“? Um die grundlegende Intuition von Rechtfertigungen<br />
als Wahrheitsindikatoren einschätzen zu können, werde ich<br />
eine kurze Charakterisierung des dabei vorausgesetzten Verständnisses<br />
von Wahrheit angeben. Diese Explikation von „Wahrheit“, soll uns noch<br />
einmal den metaphysischen Rahmen vor Augen führen, in dem erkenntnistheoretische<br />
Fragestellungen üblicherweise angesiedelt sind.<br />
Anfangen möchte ich mit einer Abgrenzung gegen einige heute verbreitete<br />
Interpretationen des Wahrheitsbegriffs. Es ist in den letzten Jahren<br />
zunehmend in Mode gekommen, sich von realistischen Positionen<br />
abzuwenden und schwächere Konzeptionen von Wahrheit als die einer<br />
Korrespondenztheorie zu vertreten. Diese Auffassungen der Wirklichkeit<br />
und der Wahrheit sind zumeist epistemisch infiziert, d.h. Wahrheit wird<br />
als in irgendeiner Weise abhängig von unseren erkenntnistheoretischen<br />
Zugangsmöglichkeiten aufgefaßt. Diese Wendung soll oft dazu dienen,<br />
die Kluft zu verkleinern, die zwischen unseren Meinungen über die Welt
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 67<br />
und der Welt selbst gesehen wird, um damit die Möglichkeiten des Skeptikers<br />
zu beschneiden, unser Wissen unter Hinweis auf diese Kluft in<br />
Frage zu stellen. Für mein Ziel, eine Theorie von epistemischer Rechtfertigung<br />
als Wahrheitsindikation zu entwerfen, sind epistemisch infizierte<br />
Wahrheitsdefinitionen und auch deflationäre Entwertungen des<br />
Wahrheitsbegriffs aber eher ungeeignet. Das möchte ich im folgenden<br />
kurz erläutern. Die drei Hauptrichtungen in denen eine Explikation des<br />
Wahrheitsbegriffs gesucht wird, werde ich dazu vorstellen und auf ihre<br />
Einsatzmöglichkeiten als Hintergrund für erkenntnistheoretische Fragestellungen<br />
untersuchen.<br />
1. Deflationäre Wahrheitskonzeptionen<br />
In der philosophischen Wahrheitsdebatte stoßen wir spätestens seit Tarskis<br />
berühmter Wahrheitsdefinition in den dreißiger Jahren dieses Jahrhunderts<br />
auf die sogenannten deflationären Auffassungen des Wahrheitsbegriffs<br />
oder Redundanztheorien der Wahrheit, die den Wahrheitsbegriff<br />
vom Sockel im Zentrum der Philosophie stürzen und für die Wirklichkeitserkenntnis<br />
entwerten möchten. Für einen Deflationisten besitzt der<br />
Wahrheitsbegriff keine erklärenden Funktionen mehr und zeichnet nicht<br />
etwa Sätze aus, weil sie in einer besonderen Beziehung zur Welt stehen,<br />
sondern erfüllt nur bestimmte sprachliche Funktionen, die sich anhand<br />
der Äquivalenzthese Tarskis verstehen lassen, nach der für jede Aussage<br />
p gilt:<br />
(ÄT) „p“ ist wahr genau dann, wenn p.<br />
Diese Äquivalenzthese wird von Philosophen der unterschiedlichsten<br />
Richtungen als ein wesentliches Bedeutungsmerkmal des Wahrheitsbegriffs<br />
akzeptiert, aber sie bietet ebenfalls Hinweise darauf, wie wir uns<br />
seiner entledigen können. Den Grundgedanken einer Redundanztheorie<br />
finden wir schon in dem klassischen Aufsatz von Ramsey (1931) 21 , in<br />
dem er sagt: „dann ist evident, daß der Satz »Es ist wahr, daß Cäsar ermordet<br />
wurde« nicht mehr bedeutet als: Cäsar wurde ermordet.“<br />
Der Ausdruck „ist wahr“ ist für einen Deflationisten darüber hinaus<br />
recht hilfreich, wenn wir den Behauptungen von jemand anderem zustimmen<br />
möchten, ohne ihn im einzelnen zu wiederholen; hier genügt<br />
dann etwa: „Alles, was er gesagt hat, ist wahr“. Viel mehr als solche<br />
ganz nützlichen sprachlichen Hilfen bietet der Wahrheitsbegriff jedoch<br />
21 Also bereits bevor Tarski 1935 seine Wahrheitstheorie zum erstenmal<br />
auf einer Konferenz in Paris der Öffentlichkeit präsentierte.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 68<br />
für einen Deflationisten nicht, ob es sich dabei um Disquotationstheorien<br />
wie die von Leeds (1978) oder andere Varianten der Redundanztheorie<br />
handelt. Der Wahrheitsbegriff bezeichnet in diesem Rahmen<br />
keine substantielle Eigenschaft von Sätzen, die bestimmten von ihnen<br />
eine besondere Beziehung zur Welt zuspricht; er verkümmert zu einem<br />
bloß sprachlichen Hilfsmittel.<br />
Die meisten Auseinandersetzungen in der Erkenntnistheorie, z. B.<br />
die mit dem Skeptiker, stützen sich dagegen auf ein anspruchsvolleres<br />
korrespondenztheoretisches Verständnis des Wahrheitsbegriffs, das auch<br />
ich in dieser Arbeit voraussetzen werde, denn es ist gerade Wahrheit,<br />
worauf epistemische Rechtfertigungen abzielen. Für eine deflationäre<br />
Auffassung von Wahrheit, wird es unverständlich, wieso uns dieses Ziel<br />
am Herzen liegen soll. Wahrheit interessiert uns als Grundlage für Entscheidungen<br />
und praktisches Handeln, und in diesen Kontexten gibt uns<br />
eine deflationäre Theorie kein angemessenes Verständnis, wieso Wahrheit<br />
dafür so bedeutsam sein soll. Das kann nur eine substantiellere Konzeption<br />
von Wahrheit, die uns erklärt, wieso die Auskunft, daß eine Aussage<br />
wahr ist, so wichtig für uns ist: Die Annahme, daß ein Satz wahr<br />
ist, gibt uns Informationen über die Welt und nicht nur über sprachliche<br />
Zusammenhänge. Um an diese Informationen zu gelangen, sind wir<br />
mangels einer direkten Einsicht der Wahrheit vieler Meinungen auf den<br />
indirekten Zugang über epistemische Rechtfertigungen angewiesen. Eine<br />
deflationäre Wahrheitsauffassung konnte daher kaum den Rahmen abgeben,<br />
in dem von Aristoteles über Descartes bis in die heutige Zeit Erkenntnistheoretiker<br />
über Wissen und Begründungen nachgedacht haben.<br />
Selbst Kant schreibt in der Kritik der reinen Vernunft (A 58/ B 82): „Was<br />
ist Wahrheit? Die Namenerklärung der Wahrheit, daß sie nämlich die<br />
Übereinstimmung der Erkenntnis mit ihrem Gegenstande sei, wird hier<br />
geschenkt, und vorausgesetzt;“ Im Kontext der Epistemologie möchte<br />
ich es daher als gegeben annehmen, daß wir über eine gehaltvollere korrespondenztheoretische<br />
Wahrheitskonzeption verfügen, denn nur so<br />
können wir an die klassischen Fragestellungen dieser Disziplin anknüpfen.<br />
Allerdings soll damit noch nicht endgültig entschieden sein, inwieweit<br />
die Erkenntnistheorie auf einen substantiellen Wahrheitsbegriff tatsächlich<br />
zwingend angewiesen ist. Michael Williams (1991, 244f) bemüht<br />
sich zu zeigen, daß sogar mit einem deflationären Wahrheitsbegriff<br />
noch kein Verzicht auf ein objektives Verständnis der Welt verbunden<br />
ist. Auch der Skeptiker kann seine unbequemen Fragen nach einer Begründung<br />
unserer Meinungen weiterhin stellen, wenn wir mit dem Aus-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 69<br />
druck „wahr“ nicht eine substantielle Eigenschaft bezeichnen. Nur<br />
möchte ich die erkenntnistheoretische Auseinandersetzung nicht unnötig<br />
mit den Komplikationen eines deflationären Wahrheitsbegriffs belasten,<br />
denn das ist kaum hilfreich für die Frage nach der richtigen Erkenntnistheorie.<br />
Der Hauptkonkurrent korrespondenztheoretischer Auffassungen<br />
von Wahrheit ist auch sicherlich an anderer Stelle zu suchen: Vor allem<br />
in den epistemisch infizierten Wahrheitsbegriffen, die im Unterschied<br />
zu deflationären Konzeptionen die erkenntnistheoretische Auseinandersetzung<br />
maßgeblich beeinflussen können. Ihnen soll daher etwas<br />
mehr Aufmerksamkeit zuteil werden.<br />
2. Epistemische Wahrheitsbegriffe<br />
Im Kampf gegen den Skeptiker ist es verführerisch, die epistemischen<br />
Wahrheitsauffassungen einzusetzen. Sie identifizieren Wahrheit mit<br />
„warranted assertibility“, rationaler Akzeptierbarkeit und ähnlichen epistemisch<br />
geprägten Begriffen – zumindest für den Fall idealer epistemischer<br />
Bedingungen oder im idealen Grenzwert der Forschung. Putnam<br />
(1978, 126) spricht sogar davon, es sei „unverständlich“, daß eine epistemisch<br />
ideale Theorie, die allen möglichen Beobachtungen entspricht und<br />
alle anderen Kriterien an Theorien wie Einfachheit, Schönheit, Plausibilität<br />
etc. genügt, falsch sein kann. 22 Um epistemische Wahrheitskonzepte<br />
untersuchen zu können, ist zunächst zu klären, was mit „möglichen Beobachtungen“<br />
oder einem „Grenzwert der Forschung“ gemeint ist. Diese<br />
Fragen zu beantworten ist ein bekanntermaßen virulentes Problem für<br />
alle Ansätze in diesem Bereich. Aber auch, wenn wir von den sich dabei<br />
auftuenden inneren Schwierigkeiten der Position zunächst einmal absehen,<br />
können die epistemisch infizierten Wahrheitsbegriffe nicht das leisten,<br />
was man sich im Kampf gegen den Skeptiker von ihnen verspricht.<br />
Ein wesentliches Motiv für ihre Einführung innerhalb der Erkenntnistheorie<br />
stammt aus einer Schwierigkeit im Rahmen der Korrespondenzauffassung<br />
von Wahrheit, auf die etwa Davidson (1987, 271) aufmerksam<br />
macht. Begründungen einer Meinung sind in einer Kohärenztheorie<br />
der Erkenntnis nur in anderen bereits von uns akzeptierten<br />
Überzeugungen zu suchen. Einen direkten Vergleich von Meinungen mit<br />
der Welt hält Davidson sogar für eine absurde Vorstellung. Die Wahrheit<br />
22 Das hieße, daß die Position des radikalen Skeptikers eigentlich unverständlich<br />
ist. In dieser Richtung argumentiert Putnam auch in (1990, Kap. 1) in<br />
seinem berühmten Gehirn im Topf Argument. Doch das kann letztlich nicht<br />
überzeugen (s. etwa Nagel 1992, 126ff).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 70<br />
einer Meinung hängt im Rahmen einer Korrespondenzkonzeption aber<br />
ausschließlich von ihrer Beziehung zur Welt ab und nicht davon, welche<br />
Überzeugungen wir über die Welt haben. Wie können wir dann jemals<br />
wissen, daß der Kohärenztest einer Meinung ein Wahrheitstest ist? Die<br />
an dieser Stelle immer verbleibende Lücke nutzt geschickt der Skeptiker<br />
und weist auf die Möglichkeit hin, all unsere Vorstellungen von der Welt<br />
könnten ein komplettes Märchen sein, auch wenn sie eine noch so kohärente<br />
Geschichte bilden. Solange Wahrheit unsere Evidenzen transzendiert<br />
und in einer Beziehung von Sätzen zur Welt zu suchen ist, während<br />
Rechtfertigungen immer nur Beziehungen zwischen Aussagen betreffen,<br />
können wir uns nie der Richtigkeit unserer Meinungen versichern. Es<br />
bleibt sogar das Problem, ob wir auch nur den kleinsten Grund angeben<br />
können, daß epistemische Rechtfertigungen ihren Namen verdienen und<br />
Wahrheitsindikatoren darstellen, wenn Wahrheit und Rechtfertigung auf<br />
so verschiedene Weise definiert werden.<br />
Ein naheliegender Schachzug, um dem Skeptiker den Boden zu entziehen,<br />
ist, ihm eine falsche Auffassung von Wahrheit und einer von unseren<br />
Überzeugungen unabhängigen Welt zu unterstellen. Ist Wahrheit<br />
immer nur relativ zu unseren Evidenzen oder Theorien zu definieren,<br />
wie es z. B. Rorty (1984, im englischen 281) und Putnam (1990, Kap.<br />
III) vorschlagen, verkleinert sich offensichtlich die für den Skeptiker verbleibende<br />
Lücke.<br />
Daß sich auf diesem Weg der Skeptiker jedoch nicht wirklich besiegen<br />
läßt, können die beiden folgenden Gedankengänge offenlegen: Erstens<br />
werden auch die epistemischen Wahrheitskonzeptionen im allgemeinen<br />
Wahrheit nicht mit dem identifizieren, was zur Zeit gerade für<br />
uns gerechtfertigt ist, denn damit würde Wahrheit ein höchst instabiles<br />
Gut, das zeitlich und interpersonell sehr variabel wäre. So weit wollen<br />
sich auch die Vertreter epistemischer Wahrheitskonzeptionen nicht von<br />
unserem traditionellen Wahrheitsverständnis entfernen. Sie verbinden<br />
mit dem Wahrheitsbegriff weiterhin gewisse Objektivitätsstandards. Putnam<br />
(1990, 163ff) wendet sich z. B. vehement gegen einen Relativismus<br />
in bezug auf Wahrheit, der für ihn mit der Aufgabe der Unterscheidung<br />
zwischen recht haben und glauben, recht zu haben, einhergeht und unser<br />
Sprechen damit zu einem bloßen Absondern von Geräuschen verkommen<br />
läßt. Für ihn übersieht der Relativist, „daß es eine Voraussetzung<br />
des Denkens selbst ist, daß es so etwas wie objektive »Richtigkeit« gibt“<br />
(1990, 168). Wahrheit ist nur mit unseren Evidenzen in einem idealen<br />
Grenzwert zu identifizieren und transzendiert demnach immer unsere<br />
tatsächlich verfügbaren Evidenzen. Das ruft wiederum den Skeptiker auf
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 71<br />
den Plan, der an dieser Stelle mit der Bemerkung einhaken kann: Wir<br />
verfügen über keinen Anhaltspunkt, um zu entscheiden, wie weit wir<br />
von diesem idealen Grenzwert mit unseren augenblicklichen Meinungen<br />
entfernt sind. Die Wissenschaft ist voll von Irrwegen und in einem dieser<br />
Irrwege können wir uns gerade befinden. 23 Was macht uns so sicher,<br />
daß wir im Moment nicht einer überdimensionalen Phlogistontheorie<br />
zum Opfer fallen? Allein die Wendung zu epistemischen Auffassungen<br />
von Wahrheit offeriert noch keine Indizien, mit welchen Teilen unseres<br />
Überzeugungssystems wir uns bereits in der Nähe dieses idealen Grenzwerts<br />
aufhalten und mit welchen wir uns auf einem möglicherweise<br />
kompletten Irrweg befinden. Daher bleibt auch für die epistemisch infizierten<br />
Wahrheitsbegriffe das Problem der Skepsis bestehen und ebenfalls<br />
das Problem, den Zusammenhang zwischen Wahrheit und Rechtfertigungen<br />
zu bestimmen – jedenfalls solange sie nicht bereit sind, jeden<br />
Objektivitätsanspruch für Wahrheit aufzugeben.<br />
Ein zweiter Punkt für das Scheitern der epistemischen Wahrheitskonzeptionen<br />
als Heilmittel gegen die Skepsis ist folgender: Auch wenn es<br />
uns mit dieser epistemischen Wendung der Wahrheitskonzeption gelänge,<br />
die Lücke zwischen Wahrheit und unseren Evidenzen zu schließen,<br />
hätten wir den Skeptiker damit nicht besiegt, sondern vielmehr klein<br />
beigegeben. In dem Maße, wie wir die Vorstellung einer objektiven<br />
Wirklichkeit, die unabhängig von uns existiert, verlassen, und uns darauf<br />
zurückziehen, Erkenntnisse über eine von uns konstruierte Welt zu besitzen,<br />
verlassen wir nämlich auch die Ausgangsposition, gegen die der<br />
Skeptiker angetreten war. Wir nähern uns dann idealistischen Auffassungen<br />
der Wirklichkeit, die selbst bereits grundlegend skeptisch infiziert<br />
sind. 24<br />
Epistemische Wahrheitskonzeptionen verfehlen also ihr Ziel, eine<br />
Therapie des Skeptizismus zu formulieren. Sie sind auch nicht verständlicher<br />
als eine Korrespondenzauffassung (s. B.3) und vor allem, sie sind<br />
als Zielvorstellung für eine Erkenntnistheorie unbrauchbar, was ein kleines<br />
Gedankenexperiment belegen kann. Nennen wir die Rechtfertigungen,<br />
die der erst noch zu entwickelnden Theorie epistemischer Rechtfer-<br />
23 Das trifft sich auch mit Putnams (z. B. 1978, 25) Argument der Meta-<br />
Induktion gegen den Realismus.<br />
24 Eine andere Wendung, um die Lücke zwischen Wahrheit und Rechtfertigungen<br />
zu schließen ist die von Fundamentalisten wie Schlick gewählte, wonach<br />
zumindest bestimmte basale Überzeugungen direkt mit der Wirklichkeit<br />
verglichen werden können. Die Schwächen dieses zur epistemischen Wahrheitskonzeption<br />
dualen Vorstoß werden in (III.B.5.a) erörtert werden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 72<br />
tigungen in idealer Weise genügen, „ideale B-Rechtfertigungen“ (für<br />
Bartelborth-Rechtfertigungen). Eine Aussage p hieße dann im Rahmen<br />
einer dazu passenden epistemischen Wahrheitsdefinition genau dann<br />
wahr, wenn sie ideal B-gerechtfertigt wäre. Unsere Suche nach epistemischen<br />
Rechtfertigungen als eine Suche nach Wahrheitstests oder Wahrheitsindikatoren<br />
zu beschreiben, würde damit völlig uninformativ, denn<br />
es hieße nichts anderes, als daß wir nach B-Rechtfertigungen suchen, die<br />
Indikatoren für ideale B-Rechtfertigungen darstellen. Solange wir aber<br />
noch keine Konzeption von B-Rechtfertigungen besitzen, kann uns auch<br />
die Aufforderung zur Suche nach Indikatoren für ideale B-Rechtfertigungen<br />
keine Anhaltspunkte dafür an die Hand geben, was eine gute B-<br />
Rechtfertigung ist. Die Rede von Wahrheitsindikatoren gibt in dieser<br />
Wahrheitsauffassung keinen intuitiven Hinweis mehr, wonach wir suchen<br />
sollen, weil sie keine von unseren Rechtfertigungen unabhängigen<br />
Instanz mehr darstellt.<br />
Schlimmer noch, wir verlieren mit einem epistemischen Wahrheitsbegriff<br />
auch unseren Maßstab, mit dem wir verschiedene Theorien der<br />
Rechtfertigung vergleichen können. Eine andere Rechtfertigungstheorie,<br />
die mit B-Rechtfertigungen unverträgliche Rechtfertigungstypen favorisiert,<br />
nennen wir sie Theorie der A-Rechtfertigung, könnte mit demselben<br />
Recht wie die Theorie der B-Rechtfertigungen für sich in Anspruch<br />
nehmen, Wahrheitsindikatoren anzubieten, wenn Wahrheit in idealer<br />
Rechtfertigung besteht. Für einen Vertreter dieser A-Theorie der Rechtfertigung<br />
bestünde Wahrheit dann nämlich in idealer A-Rechtfertigung,<br />
für die selbstverständlich gerade A-Rechtfertigungen einen guten Indikator<br />
abgeben und nicht B-Rechtfertigungen. Die Wahrheitssuche verliert<br />
so ihre anleitende Funktion für die Epistemologie, und die Auskunft,<br />
epistemische Rechtfertigungen seien Wahrheitsindikatoren wird zu einer<br />
relativistischen Auskunft. Ihre Bedeutung hängt von der jeweils vertretenen<br />
Rechtfertigungskonzeption ab. Ein Leitbild für die Erkenntnistheorie<br />
und einen neutralen Schiedsrichter für verschiedene Rechtfertigungstheorien<br />
kann der Wahrheitsbegriff dagegen nur dann verkörpern, wenn<br />
er von epistemischen Verunreinigungen befreit und damit auch neutral<br />
gegenüber verschiedenen Ansätzen der epistemischen Begründung ist.<br />
Gerade für die Erkenntnistheorie ist es daher notwendig, die Wahrheit<br />
eines Satzes und unsere Indizien dafür strikt auseinanderzuhalten. Es ist<br />
auch nicht schwer, einen derartigen von unseren Rechtfertigungstheorien<br />
unabhängigen Wahrheitsbegriff zu finden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 73<br />
3. Eine Korrespondenztheorie der Wahrheit<br />
Die naheliegendsten Kandidaten dazu sind Korrespondenzkonzeptionen<br />
der Wahrheit, für die die Wahrheit einer Aussage in ihrer Übereinstimmung<br />
mit den Tatsachen besteht. Dieses Verständnis des Wahrheitsbegriffs<br />
entspricht unserem umgangssprachlichen Umgang mit „Wahrheit“<br />
und erscheint uns meist so selbstverständlich, daß die damit verbundene<br />
Charakterisierung von Wahrheit gern als trivial bezeichnet wird. Das<br />
stört mich keineswegs. Ich möchte nur eine besonders schwache und intuitiv<br />
verständliche Form der Korrespondenztheorie der Wahrheit vertreten,<br />
die, gerade wenn sie als trivial betrachtet wird, als Ausgangspunkt<br />
und metaphysischer Hintergrund der Untersuchung akzeptiert<br />
werden kann. In der hier vertretenen Version der Korrespondenzkonzeption<br />
möchte ich mich auch nicht damit beschäftigen, wie sich die<br />
Korrespondenzbeziehung weiter explizieren läßt. Das könnte etwa geschehen<br />
anhand einer Tarskischen Wahrheitstheorie, die zunächst die<br />
Wahrheit von Sätzen auf die Referenzbeziehungen seiner Komponenten<br />
und die Erfüllungsrelation zurückführt. Sie ließe sich ergänzen durch<br />
eine Referenztheorie für die Komponenten, für die ich eine Kombination<br />
aus einer Kennzeichnungstheorie und einer kausalen Referenztheorie<br />
wählen würde. Doch die erkenntnistheoretischen Untersuchungen dieser<br />
Arbeit möchte ich nicht mehr als unbedingt notwendig mit sprachphilosophischen<br />
und metaphysischen Annahmen aus anderen Gebieten belasten<br />
und deshalb soll nicht von semantischen Beziehungen der Teile eines<br />
Satzes zu Teilen der Wirklichkeit die Rede sein. Ebensowenig<br />
möchte ich die Metaphern von Abbildung der Wirklichkeit oder Übereinstimmung<br />
mit der Wirklichkeit überbeanspruchen. Daher werde ich<br />
nicht für eine Form von Ähnlichkeitstheorie zwischen der Wirklichkeit<br />
und bestimmten sie abbildenden Aussagen eintreten.<br />
Tatsächlich anknüpfen möchte ich dagegen an Aristoteles schlichte<br />
Kennzeichnung von Wahrheit: „Von etwas, das ist, zu sagen, daß es nicht<br />
ist, oder von etwas das nicht ist, daß es ist, ist falsch, während von etwas,<br />
das ist, zu sagen, daß es ist, oder von etwas, das nicht ist, daß es<br />
nicht ist, ist wahr.“ In Anlehnung an eine solche semantisch und metaphysisch<br />
bescheidenere Konzeption von Korrespondenz, nenne ich eine<br />
Aussage p dann wahr, wenn die Dinge so sind, wie es in p behauptet<br />
wird. Moser (1991, 26) zeigt, daß diese intuitive Konzeption von Wahrheit<br />
die Tarski-Äquivalenz impliziert, aber nicht mit ihr äquivalent ist,<br />
was man von einer Korrespondenzauffassung auch erwarten sollte. Bereits<br />
BonJour (1985, 167f) hält für erkenntnistheoretische Untersuchungen<br />
eine entsprechende Wahrheitsdefinition für ausreichend. Er ergänzt
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 74<br />
sie für empirisches Wissen allerdings noch um eine Relativierung auf<br />
eine raumzeitliche Einordnung. Mit dieser Formulierung der Korrespondenzauffassung<br />
von Wahrheit, die in erkenntnistheoretischen Debatten<br />
häufiger zugrundegelegt wird, sollen die Probleme anspruchsvollerer<br />
Wahrheitskonzeptionen für das vorliegende Projekt ausgeklammert werden.<br />
Das soll nicht die Frage präjudizieren, ob anspruchsvollere Konzeptionen<br />
von Korrespondenztheorien möglich sind. Entsprechende Explikationen<br />
der Korrespondenzvorstellung sind eben nur nicht mein Thema.<br />
Da es mir hier nur um empirisches Wissen geht, ist eine solch<br />
schwache Korrespondenztheorie der Wahrheit auch gut verständlich,<br />
denn für diesen Bereich sind in geradezu paradigmatischer Weise unsere<br />
Intuitionen geprägt worden, was unter einer wahren Aussage zu verstehen<br />
ist. 25 Insbesondere sollen durch eine Einschränkung auf nichtreflexive<br />
empirische Aussagen auch technische Komplikationen ausgeklammert<br />
werden, die durch die Paradoxien wie die Lügner-Paradoxie für eine<br />
vollständige Wahrheitstheorie zu berücksichtigen wären.<br />
Damit die Wahrheitskonzeption inhaltlich einen gewissen Gehalt behält,<br />
sollte sie allerdings zumindest die Zielvorstellung beinhalten, daß<br />
die Wendung „wenn die Dinge so sind“ realistisch zu verstehen ist – also<br />
als eine Aussage über eine von unseren Ansichten dazu unabhängige<br />
Wirklichkeit. 26 Wenn man sich in der Korrespondenztheorie nicht auf<br />
eine von uns unabhängige Wirklichkeit bezieht, würde die Klausel<br />
„wenn die Dinge so sind“ in der Wahrheitsdefinition in unübersehbarer<br />
Weise abgeschwächt und eventuell auch mit idealistischen Auffassungen<br />
der Wirklichkeit verträglich sein, die zu verteidigen Erkenntnistheoretiker<br />
im allgemeinen nicht so spannend finden.<br />
Diese einfache Korrespondenzauffassung der Wahrheit scheint mir<br />
als Hintergrund für erkenntnistheoretische Analysen relativ unproblematisch<br />
zu sein, wenn wir weiterhin offen dafür sind, auch die realistischen<br />
Annahmen zur Disposition zu stellen. Trotzdem gibt es natürlich eine<br />
ganze Reihe von Einwänden sowohl gegen den Realismus wie auch die<br />
Korrespondenzkonzeption der Wahrheit, die zu einem großen Teil von<br />
Hilary Putnam kommen, der eine Art Galionsfigur des Antirealismus ge-<br />
25 Für mathematische oder moralische Aussagen würde es natürlich schon<br />
schwieriger – wenn nicht unmöglich –, eine entsprechende Korrespondenzkonzeption<br />
zu entwickeln.<br />
26 Über den Zusammenhang zwischen Realismus und Wahrheit und eine<br />
weitergehende Explikation des Realismus siehe Devitt (1991). Wie ein weitergehender<br />
Realismus, der sich etwa auf wissenschaftliche Gegenstände bezieht, zu<br />
explizieren ist, ist in Bartelborth (1993a) nachzulesen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 75<br />
worden ist, vielleicht, weil er sich selbst in der Frage des Realismus vom<br />
Paulus zum Saulus gewandelt hat. Diesen Einwänden nachzugehen bleibt<br />
allerdings anderen Arbeiten überlassen, in denen der Realismus das<br />
Hauptthema darstellt, während es an dieser Stelle genügen mag, den<br />
Rahmen zu benennen, in dem die Diskussion stattfinden soll.<br />
4. Resümee<br />
Was kann und sollte der Erkenntnistheoretiker unter „Wahrheit“ verstehen?<br />
Wenn er eine für epistemologische Projekte informative Antwort<br />
geben möchte, mit der er an klassische erkenntnistheoretische Fragestellungen<br />
anknüpft, kann die Antwort meines Erachtens nur in einer korrespondenztheoretischen<br />
Konzeption von Wahrheit zu suchen sein. Daß<br />
diese trotz zahlreicher antirealistischer Kritiken durchaus hoffähig<br />
bleibt, versuchte ich auf zwei Wegen plausibel zu machen: Erstens weisen<br />
andere Auffassungen von Wahrheit trotz einer Verwässerung des<br />
Wahrheitsbegriffs genügend eigenständige Probleme auf. Zweitens stütze<br />
ich mich nur auf eine schwache und intuitive Wahrheitskonzeption, die<br />
gegen viele Einwände von antirealistischer Seite relativ immun erscheint,<br />
weil diese sich oft auf weitergehende Behauptungen einer stärkeren realistischen<br />
Position beziehen. Gegen diese Korrespondenzauffassung von<br />
Wahrheit läßt sich zumindest nicht mehr einwenden, sie sei völlig unverständlich<br />
oder unmöglich, so daß es keinen Sinn hätte, an klassische Erkenntnisprobleme<br />
anzuknüpfen, ohne zunächst den metatheoretischen<br />
Rahmen völlig zu verändern, in dem sie formuliert wurden. Eine Verteidigung<br />
einer realistischen Korrespondenztheorie der Wahrheit erscheint<br />
vor allem dann aussichtsreich, wenn wir nicht den Strohmann betrachten,<br />
der uns von Antirealisten häufig als Realismus präsentiert wird, sondern<br />
eher an unsere „gewöhnlichen“ Vorstellungen von Realität anknüpfen<br />
und versuchen, diese zu präzisieren.<br />
C. Zur Struktur unserer Erkenntnis<br />
Eine der metatheoretischen Grundlagen meiner Überlegungen zur Erkenntnistheorie,<br />
aber auch zur Wissenschaftstheorie, soll eine Bestandsaufnahme<br />
der Struktur unseres Wissens und gerade unseres empirischen<br />
Wissens bilden. Dieses Vorgehen erwies sich als der einzig gangbare methodologische<br />
Weg (s. II.A) zur Begründung normativer Theorien der<br />
epistemischen Rechtfertigung. Die dafür notwendigen Untersuchungen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 76<br />
unserer Vorstellungen von guter Rechtfertigung und paradigmatischen<br />
Beispielen von epistemischen Rechtfertigungen sind, was ihren empirischen<br />
Gehalt betrifft, auf einem recht allgemeinen Niveau angesiedelt.<br />
Es geht primär um Grundzüge unseres Wissens oder unserer Rechtfertigungspraxis<br />
und nicht etwa um Einzelheiten der Rechtfertigungsstruktur<br />
bestimmter Individuen, die zu erforschen natürlich in das Gebiet der<br />
empirischen Psychologie fällt. Im Vordergrund dieses Abschnitts steht<br />
daher die Einführung und Explikation allgemeiner Unterscheidungen<br />
und das Erarbeiten einiger terminologischer Hilfen dazu. Insbesondere<br />
wird auch das wissenschaftliche Wissen einbezogen. Dazu finden wir in<br />
der Wissenschaftstheorie bereits eine Vielzahl von Untersuchungen und<br />
konkreten Fallstudien vor, auf die ich mich im Verlauf der Arbeit immer<br />
wieder beziehen werde. Ihre systematische Analyse wird allerdings vornehmlich<br />
in den dritten eher wissenschaftsphilosophisch orientierten<br />
Teil fallen. Die zu Beginn entwickelten begrifflichen Klärungen unseres<br />
Wissens und seiner Zusammenhänge sollen an geeigneter Stelle im Verlauf<br />
der Arbeit verfeinert werden. Da das Ziel der Untersuchung eine<br />
Theorie der Rechtfertigung ist, sind besonders die Rechtfertigungszusammenhänge<br />
und unsere intuitive Metatheorie dieser Zusammenhänge die<br />
Schwerpunkte dieses Abschnitts.<br />
1. Epistemische Subjekte<br />
Wenn wir uns fragen, ob eine bestimmte Aussage oder Überzeugung gerechtfertigt<br />
ist oder wie sie zu rechtfertigen sein könnte, beziehen wir<br />
uns dabei immer – wenn auch manchmal nur versteckt – auf ein bestimmtes<br />
Aussagensystem relativ zu dem die Rechtfertigung zu denken<br />
ist. Betrachten wir nur die oben genannten Beispiele, in denen jemand<br />
aufgefordert wird, eine Behauptung zu begründen. Er hat dann andere<br />
seiner Meinungen zu zitieren, wenn er diesem Verlangen nachkommen<br />
möchte. 27 Rechtfertigung von Meinungen ist daher nicht absolut zu denken,<br />
sondern immer relativ zu anderen Meinungen, auf die ich mich zu<br />
Zwecken ihrer Rechtfertigung berufe. 28 Gerechtfertigt sein per se könnte<br />
dann vielleicht als ein Spezialfall verstanden werden und hieße etwa „gerechtfertigt<br />
sein für ein allwissendes Wesen“ oder „gerechtfertigt sein re-<br />
27 Die bekanntesten und meines Erachtens erfolgversprechendsten Gegenvorschläge<br />
zu dieser Ansicht werden in den Kapiteln (III.A) und etwa (III.B.5.b)<br />
behandelt und zurückgewiesen.<br />
28 Als Spezialfall soll hier auch zugelassen werden, daß die Aussage sich<br />
selbst rechtfertigt oder die Rechtfertigungsmenge sogar leer ist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 77<br />
lativ zur Menge aller wahren Aussagen“. Daß dieser „Spezialfall“ nicht<br />
unproblematisch ist, ist offensichtlich.<br />
Als rechtfertigende Aussagensysteme denken wir uns im allgemeinen<br />
nicht beliebige Mengen von Aussagen, sondern solche Systeme, die wir<br />
einem epistemischen Subjekt S zuschreiben können. Wir fragen also normalerweise<br />
nicht, ob eine Überzeugung p per se gerechtfertigt ist, sondern<br />
ob p für S gerechtfertigt ist. Es scheint mir geradezu selbstverständlich<br />
zu sein, daß nur eine solche Frage Sinn hat. Man wird sogar noch<br />
weiter relativieren müssen und sagen: p ist zum Zeitpunkt t für S gerechtfertigt.<br />
Natürlich sind für verschiedene mögliche epistemische Subjekte<br />
wie z. B. bestimmte Menschen oder Götter in verschiedenen Situationen<br />
zu verschiedenen Zeiten andere Aussagen gerechtfertigt. In einer<br />
erkenntnistheoretischen Untersuchung ist man dabei in erster Linie an<br />
begründenden Zusammenhängen interessiert, die nicht mit den Eigenheiten<br />
verschiedener Personen variieren sollten, sondern interpersonelle<br />
Gültigkeit besitzen. Demnach könnte man von den jeweiligen Subjekten<br />
und ihren speziellen Eigenschaften auch abstrahieren und etwa von epistemischen<br />
Zuständen sprechen, wie das in einigen Bereichen der epistemischen<br />
Logik geschieht. Da ich mich aber nicht bei den zahlreichen<br />
zum Teil recht technischen Problemen einer Beschreibung oder gar formalen<br />
Explikation epistemischer Zustände aufhalten möchte (und formale<br />
Präzisierungen epistemischer Zustände an dieser Stelle auch für<br />
verfrüht halte), belasse ich es dabei, in der anschaulicheren Redeweise<br />
von epistemischen Subjekten und ihren Überzeugungen zu sprechen. 29<br />
Insbesondere sollen der Einfachheit halber nur Überzeugungen ohne<br />
weitere Qualifizierung wie etwa probabilistische Abschwächungen<br />
(Glaubensgrade) betrachtet werden, die eine vorerst unnötige Komplikation<br />
ins Spiel brächten.<br />
Im folgenden ist also die genannte Relativierung von Rechtfertigungen<br />
auf ein Aussagensystem immer mit zu denken, auch wenn sie nicht<br />
explizit angegeben wird. Dieser Punkt erscheint selbstverständlich und<br />
seine Erwähnung fast überflüssig, wenn er nicht in bestimmten erkennt-<br />
29 Einige Erkenntnistheoretiker wie Chisholm und Lehrer, sprechen statt<br />
von den Überzeugungen einer Person lieber davon, welche Aussagen sie als wahr<br />
akzeptiert. Was jemand tatsächlich glaubt oder überhaupt zu glauben bereit ist,<br />
ist vielleicht eher eine Frage seiner emotionellen und motivationellen Situation,<br />
während das Akzeptieren von bestimmten Aussagen als wahr, stärker unsere epistemische<br />
Bewertung zum Ausdruck bringt. Der Einfachheit halber möchte ich<br />
auf diese Möglichkeit der Differenzierung verzichten und spreche nur schlicht<br />
von den Überzeugungen und Meinungen einer Person.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 78<br />
nistheoretischen Debatten wieder vergessen würde, was mich später<br />
zwingen wird, auf ihn zurückzugreifen.<br />
Hauptsächlich werde ich unter „epistemischem Subjekt“ an Menschen<br />
und ihre Überzeugungen denken, aber auch andere Möglichkeiten<br />
werden keineswegs ausgeschlossen. So könnten Gruppen von Menschen<br />
– man denke nur an die vielbeschworene „scientific community“ –, Tiere,<br />
Computer oder Gott als epistemische Subjekte auftreten. Das ist<br />
auch nicht unüblich, so spricht etwa Lehrer in (1987) von „social knowledge“,<br />
für das er nahezu dieselben Bedingungen wie für individuelles<br />
Wissen postuliert.<br />
2. Inferentielle Rechtfertigungen<br />
Eine weitere Abgrenzung, die bisher schon implizit vorausgesetzt wurde,<br />
soll noch explizit angegeben werden. Wenn ich von Überzeugungen oder<br />
Wissen oder unserem Wissenskorpus spreche, so beziehe ich mich damit<br />
immer auf Entitäten, die die Struktur von Aussagen (Propositionen) haben,<br />
also wahrheitswertfähig sind. Für die zu rechtfertigenden Aussagen<br />
ist das naheliegend, denn wir suchen nach Wahrheitsindikatoren für sie,<br />
was zumindest voraussetzt, daß sie selbst wahrheitswertfähig sind. Aber<br />
auch die Rechtfertigung besteht wiederum aus Aussagen und ihren inferentiellen<br />
Beziehungen zur rechtfertigenden Aussage. In der Diskussion<br />
fundamentalistischer Ansätze der Epistemologie (III.B) werde ich daneben<br />
zwar auch Vorschläge für andere Rechtfertigungsverfahren untersuchen,<br />
aber auf ein generelles Problem solcher Ansätze, die etwa von einer<br />
direkten Konfrontation bestimmter Aussagen mit unserer Wahrnehmung<br />
sprechen, sei schon an dieser Stelle hingewiesen. Wenn ein bestimmter<br />
Wahrnehmungszustand zur Rechtfertigung herangezogen wird,<br />
so läßt sich immer die Frage stellen, ob er vielleicht neben anderem auch<br />
kognitiven Gehalt besitzt, d.h. ob er bestimmte Aussagen beinhaltet, wie<br />
daß das Haus vor mir rot ist. Ist das der Fall, so können wir die Rechtfertigung<br />
natürlich auf diese Aussagen beziehen, die er beinhaltet. Ist das<br />
aber nicht der Fall und der Wahrnehmungszustand, wird von uns so charakterisiert,<br />
daß er keine begrifflich bestimmten und behauptenden Bestandteile<br />
enthält, so bleibt es ein offenes Problem, wie ein solcher Zustand<br />
überhaupt rechtfertigend für eine Aussage wirken kann.<br />
Der Hinweis auf die propositionale Struktur von Meinungen soll<br />
Meinungen unter anderem von anderen Arten von Informationsbesitz<br />
abgrenzen (vergleiche dazu Bieri 1987, 17ff). Auch Thermostaten haben<br />
in einem gewissen Sinn bestimmte Informationen über die Temperatur
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 79<br />
ihrer Umgebung. Doch ich möchte den Begriff der Überzeugung so anspruchsvoll<br />
benutzen – und das ist meines Erachtens in der Erkenntnistheorie<br />
auch erforderlich (s. dazu III.A.1.d) –, daß man ihnen in diesem<br />
Sinne keine Überzeugungen zusprechen darf. Das scheint schon deshalb<br />
sinnvoll, weil sie ihre Informationen nicht in einer Weise intern repräsentieren,<br />
die zu unseren Zuschreibungen von Überzeugungen paßt.<br />
Ohne daß ich mich zu weit in die Gefilde der Philosophie des Geistes<br />
oder der Sprachphilosophie vorwagen möchte, seien doch einige Intuitionen<br />
genannt, die meine Verwendung des Überzeugungsbegriffs leiten.<br />
Dazu gehört, daß derjenige, der eine Überzeugung hat, über eine Sprache<br />
verfügt und die in Frage stehende Überzeugung auch in dieser Sprache<br />
repräsentiert werden kann. Die Formulierung ist bewußt so vorsichtig<br />
gewählt, weil ich keineswegs behaupten möchte, daß die interne<br />
Speicherung dieser Überzeugungen ebenfalls immer in propositionaler<br />
Form erfolgen muß. Aber auch wenn sie z. B. für die uns gerade nicht<br />
bewußten Überzeugungen, die den überwältigenden Anteil an unseren<br />
Überzeugungen ausmachen, in nicht propositionaler Struktur vorgenommen<br />
würde, so können wir sie doch nur in propositionaler Form als<br />
Grundlage für unser erkenntnistheoretisches Räsonieren verfügbar machen<br />
– jedenfalls, wenn es uns um bewußte Rechtfertigungen von Überzeugungen<br />
handelt, wie sie für Wissen erforderlich sind. Für kognitive<br />
Rechtfertigungen wird man weiterhin verlangen, daß das epistemische<br />
Subjekt die fraglichen Überzeugungen auch verstehen kann und nicht<br />
nur nachplappert wie ein Papagei. Die zuletzt genannte Bedingung ist offensichtlich<br />
sinnvoll, aber ihre Explikation ist wiederum ein eigenständiges<br />
und sicher schwieriges Thema der Philosophie des Geistes. In meinem<br />
Projekt soll es nur um kognitive epistemische Rechtfertigungen gehen,<br />
wie sie der menschlichen Erkenntnis eigentümlich sind, und die<br />
Forderung nach inferentiellen Rechtfertigungen, bei denen die Rechtfertigungen<br />
im wesentlichen aus Aussagen bestehen, ist ihm daher angemessen.<br />
Bezogen auf den Thermostaten dürfte diese Bemerkung verhältnismäßig<br />
leicht nachvollziehbar sein. 30 Er besitzt zwar Informationen, aber<br />
er verfügt nicht in irgendeinem anspruchsvolleren Sinn über Rechtfertigungen<br />
und noch nicht einmal über Überzeugungen. Neben solchen klaren<br />
Fällen stoßen wir auf eine Reihe anderer Beispiele, für die unsere Intuitionen<br />
nicht so einmütig sind. Man kann vermutlich zwischen dem<br />
30 Trotzdem werden wir in (III.A) noch Erkenntnistheorien kennenlernen,<br />
für die gerade der Informationserwerb von Thermostaten das Vorbild menschlicher<br />
Erkenntnis abgibt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 80<br />
Thermostaten und dem Menschen eine Kette von Fällen konstruieren,<br />
für die Informationsbesitz relativ kontinuierlich an Überzeugungsähnlichkeit<br />
gewinnt. Die Informationen werden immer stärker in einer semantisch<br />
zu nennenden Form abgelegt. Von diesen denkbaren Ketten<br />
kann ich nur einige Glieder anführen, die jeweils einige der für Überzeugungen<br />
notwendige Bedingungen erfüllen: Unsere Chromosomen speichern<br />
oder beinhalten hochkomplizierte Informationen in den DNS-<br />
Strängen. Man kann sogar wie Baines (1989) von einer genetischen Sprache<br />
mit Sätzen und einer Grammatik sprechen, die aus vier Grundbausteinen<br />
– Wörtern oder Buchstaben – ihre Informationen zusammensetzt<br />
und sie mit Hilfe von Satzzeichen strukturiert. Das werde ich nur als<br />
analoge Verwendungen des Ausdrucks Sprache bezeichnen und möchte<br />
in derartigen Fällen nicht von Überzeugungen sprechen, die in unseren<br />
Genen niedergelegt sind. Dabei ist für mich die Intuition im Spiel, daß<br />
es so etwas wie eine bewußte Verarbeitung der Informationen in Form<br />
von Propositionen geben muß, damit Überzeugungen vorliegen können.<br />
Etwas schwieriger wird die Entscheidung schon im Falle von Schachcomputern,<br />
bei denen eine Art inferentieller Verarbeitung der Informationen<br />
stattzufinden scheint. Nach Dennett (z. B. 1987) sollten wir ihnen<br />
Überzeugungen zuschreiben. Sein Argument dafür ist, daß wir uns<br />
auf diese Weise ihre Züge am besten erklären und sie am zuverlässigsten<br />
vorhersagen können. Diese Art der Zuweisung bestimmter Eigenschaften<br />
zu Gegenständen der Welt scheint dem auch von mir geliebten<br />
Schluß auf die beste Erklärung zu entsprechen. Daß ich Dennett darin<br />
trotzdem nicht folgen möchte, verlangt eigentlich nach einer umfangreicheren<br />
Diskussion, die aber eher in den Bereich der Philosophie des Geistes<br />
gehört. Hier mögen einige Bemerkungen ausreichen. Wenn wir nach<br />
einer Erklärung suchen, so wünschen wir uns eine wahre Erklärung, die<br />
die tatsächlichen Ursachen für ein Ereignis namhaft macht. Doch es ist<br />
unklar, ob unsere propositionale Beschreibung des Computers das leisten<br />
kann. So paßt zu unserer Vorstellung von den jetzt konstruierbaren<br />
Schachcomputern – darüber was in einer sehr phantasievollen Science<br />
Fiction Geschichte möglich sein könnte, möchte ich nicht weiter spekulieren<br />
– eine Beschreibung, nach der ihre Strategien propositional repräsentiert<br />
werden, nicht kohärent hinein. Das wird schon in einer Betrachtung<br />
des Schachprogrammbeispiels deutlich. Für Schachcomputer wissen<br />
wir, daß sie von ihrem Programmaufbau her anhand recht einfacher<br />
Stellungs- und Variantenberechnungsverfahren arbeiten, die uns eher an<br />
einen komplizierten Thermostaten als an bewußte Informationsverarbeitung<br />
erinnern. Unsere Beschwörung: „Er plant einen heimtückischen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 81<br />
Königsangriff“ werden wir daher als eine typische „als ob“ Beschreibung<br />
verstehen. Wir wählen dieses „als ob“ Vorgehen, nicht als beste Erklärung,<br />
sondern eher wegen seiner Prognosemöglichkeiten. Es erlaubt uns<br />
wenigstens einige oberflächliche Vorhersagen, wie der Computer wohl<br />
weiterspielen wird. Aber wenn uns auch Schachcomputer intuitiv kaum<br />
geeignete Kandidaten für die Zuschreibung von Überzeugungen zu sein<br />
scheinen, werden wir schwankend, wenn wir an höher entwickelte<br />
Computer oder Roboter denken. Spätestens bei Computern, die einen<br />
Turing-Test bestehen, d.h. mit denen man sich unterhalten könnte, ohne<br />
an der Unterhaltung selbst zu bemerken, daß es sich um einen Computer<br />
und nicht einen Menschen handelt, scheiden sich bekanntlich die Geister.<br />
Zugegeben, es handelt sich dabei zumindest zum Teil um eine terminologische<br />
Frage. Unser Überzeugungsbegriff ist zu einem gewissen<br />
Grad anthropomorph und widersetzt sich schon daher einer solchen Zuschreibung.<br />
Das möchte ich aber an dieser Stelle nicht zu stark machen.<br />
Man könnte ja auch für eine sinnvolle Revision dieses Begriffs im Rahmen<br />
einer Theorie des Geistes plädieren, die uns von einem derartigen<br />
Arten-Chauvinismus befreit. Die Frage, ob auch Computer Überzeugungen<br />
haben, wird hier also nicht entschieden.<br />
Ein anderer Schritt, der unsere Ansicht, ob echte Überzeugungen<br />
vorliegen, auf die Probe stellt, ist der zum Tier. Bei manchen höher entwickelten<br />
Arten gibt es sicher Ansätze für eine Sprache. Wie dieser Fall<br />
letztlich einzuschätzen ist, ist hauptsächlich eine Frage an den Fachwissenschaftler<br />
und nicht an den Philosophen. Daher kann ich bestenfalls<br />
eine laienhafte Ansicht anbieten, die sich auf mein geringes Wissen zu<br />
diesem Problem stützt und eher als Klärung meiner Verwendung des<br />
Wortes „Überzeugung“ dienen soll. Demnach scheinen mir Verständigungsmöglichkeiten<br />
bei Tieren im allgemeinen noch nicht hinreichend,<br />
um von einer Sprache mit Aussagen in dem vollen Sinne zu sprechen,<br />
den ich hier verwende, da es auch bei ihnen keine entsprechend reflektierte<br />
Verwendung von Überzeugungen zu geben scheint. Doch daran<br />
hängt für mein Projekt nicht viel. Wenn wir ihnen Überzeugungen zuschreiben<br />
möchten, kommen wir allerdings zunächst in Schwierigkeiten,<br />
weil uns ihr Repräsentationssystem dazu nicht ausreichend vertraut ist.<br />
Schon aus diesem Grund werde ich mich auf Überzeugungen beschränken,<br />
die in einer uns bekannten menschlichen Sprache formuliert sind.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 82<br />
3. Implizites Wissen<br />
Ein weiterer Punkt, der ebenfalls den Fragenkomplex betrifft, inwieweit<br />
man davon sprechen darf, daß reale epistemische Subjekte also z. B.<br />
Menschen in bestimmten Überzeugungen gerechtfertigt sein können,<br />
soll noch gestreift werden. Die Zuschreibung von Überzeugungen und<br />
inferentiellen Rechtfertigungen ist mit vielen aus der Philosophie des<br />
Geistes bekannten Problemen behaftet. Diese stehen meist deshalb nicht<br />
im Vordergrund meiner Aufmerksamkeit, weil ich eher die Frage untersuche,<br />
ob für ein vorgegebenes Überzeugungssystem S eine bestimmte<br />
Überzeugung p gerechtfertigt ist, statt die, wann und wie man jemandem<br />
(gerechtfertigte) Überzeugungen zuschreiben kann. Trotzdem tauchen<br />
im Zusammenhang mit Erkenntnistheorien immer wieder Fragen danach<br />
auf, wie realistisch ihre Rechtfertigungskonzeptionen sind und ob<br />
Menschen in diesem Sinn überhaupt über Begründungen für irgendwelche<br />
ihrer Überzeugungen verfügen. Auch wenn dieser Aspekt nicht zentral<br />
für mein Vorhaben ist, sind dazu einige Bemerkungen angebracht.<br />
Unsere Zuschreibungen von Überzeugungen und Rechtfertigungen<br />
beziehen sich nicht nur auf unsere jeweils bewußten Überzeugungen –<br />
das sind im Normalfall auch nur sehr wenige –, sondern müssen ebenfalls<br />
unsere impliziten Überzeugungen mit umfassen. Schon unser eigener<br />
Name oder unser Geburtsdatum und vieles mehr, das uns ganz vertraut<br />
ist, sind uns in vielen Augenblicken nicht bewußt. Das sollte natürlich<br />
nicht in erkenntnistheoretischen Zusammenhängen dazu führen, daß<br />
wir auf die Behauptung festgelegt sind: Wir wüßten nicht, wie wir heißen.<br />
Es erscheint erkenntnistheoretisch relativ unproblematisch, uns entsprechende<br />
unbewußte Überzeugungen zuzuschreiben. 31 Das gilt in ähnlicher<br />
Weise für viele Überzeugungen unseres Alltagslebens. Etwa daß<br />
Telefone im allgemeinen nicht eßbar sind, Treppen unser Gewicht tragen<br />
– wohlgemerkt hier ist vom Normalfall die Rede –, und unzählige andere<br />
Dinge dieser Art. 32 Diese impliziten oder unbewußten Überzeugungen<br />
sind am ehesten als Dispositionen zu bestimmten bewußten Überzeugungen<br />
oder einem entsprechenden etwa sprachlichem Verhalten zu verstehen.<br />
Wenn wir von einer realistischen Auffassung von Rechtfertigung reden<br />
möchten, sollten tatsächlich zumindest einige unserer gewöhnlichen<br />
31 Diese impliziten oder unbewußten Überzeugungen haben natürlich<br />
nichts gemein mit den unterbewußten Überzeugungen, von denen in der Psychoanalyse<br />
die Rede ist, die uns ja gerade nicht so leicht zugänglich sind.<br />
32 Wie umfangreich dieses Wissen ist, ist wohl erst durch die „frame"-Probleme<br />
in der KI Forschung richtig deutlich geworden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 83<br />
Überzeugungen gerechtfertigt sein. Das kann aber nur der Fall sein,<br />
wenn wir die impliziten Überzeugungen und Rechtfertigungen, die wir<br />
dispositionell besitzen, mit einbeziehen. Das entspricht unserem alltäglichen<br />
Sprachgebrauch und sollte uns daher vertraut erscheinen.<br />
Sicherlich lassen sich Grenzbereiche angeben, wo schwer zu entscheiden<br />
ist, ob jemand eine bestimmte Überzeugung implizit besitzt.<br />
Das Ergebnis von mathematischen Berechnungen, ist uns im allgemeinen<br />
vorher nicht bekannt. Haben wir dann schon vor unserer expliziten Berechnung<br />
die Überzeugung, daß 1235+4234=5469 ist? In diesen Fällen<br />
gibt es eine nachprüfbare Disposition zuzustimmen, aber oft verlangt<br />
man von Überzeugungen mehr, etwa, daß wir sie zumindest irgendwann<br />
schon einmal bewußt gehabt haben. Diese Forderung erscheint mir jedoch<br />
zu stark, wenn wir an andere Fälle denken. Dann gehörten nämlich<br />
auch selbstverständliche Meinungen, die auch in unserem Verhalten<br />
dokumentiert werden, wie die, daß Telefone meistens nicht eßbar sind,<br />
nicht zu unseren impliziten Überzeugungen, auf die wir bei der Suche<br />
nach einer Rechtfertigung bezug nehmen dürfen. Wenn wir uns in einer<br />
Rechtfertigung unserer Ansichten jedoch nur auf derartig selbstverständliche<br />
Meinungen zu stützen haben, wird kaum jemand einwenden, man<br />
wäre in seiner Ansicht deshalb nicht gerechtfertigt gewesen, weil man<br />
nie vorher bewußt gedacht hatte, daß Telefone nicht eßbar seien. Damit<br />
sollen unter „implizite Überzeugungen“ sowohl die momentan unbewußten<br />
Überzeugungen wie auch einfache Ableitungen aus unseren<br />
Überzeugungen, die wir bei kurzer Reflexion ziehen, subsumiert werden.<br />
Gewisse Vagheiten der Zuschreibung impliziter Meinungen können<br />
hier nicht ausgeräumt werden, sind aber tolerierbar, denn im Vordergrund<br />
stehen Fragen nach der Natur des Rechtfertigungszusammenhangs<br />
und nicht in erster Linie Fragen danach, ob man von bestimmten<br />
Personen sagen kann, sie seien in ihren Meinungen gerechtfertigt.<br />
Ebenso wie man viele Überzeugungen nur als implizite Überzeugungen<br />
zuschreiben kann, darf man natürlich auch von vielen Rechtfertigungen<br />
nur impliziten Besitz erwarten. D.h., wir sind nach einer gewissen<br />
Reflektion auf das Ersuchen um eine Rechtfertigung in der Lage,<br />
eine solche zu produzieren (s.a. BonJour 1985, 20). 33<br />
Schon Descartes, der in den Meditationen von einer weitgehenden<br />
Transparenz unseres Geistes gegenüber sich selbst ausging, kannte das<br />
33 Für unsere Überlegungen zur Rechtfertigungsstruktur unseres Wissens<br />
stehen viele langfristige Überzeugungen zur Verfügung. Gerade diese Überzeugungen<br />
können uns nicht immer bewußt sein, sondern sind meist nur implizit gegeben.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 84<br />
Problem impliziten Wissens. Allerdings birgt für Descartes das implizite<br />
Wissen immer eine Irrtumsmöglichkeit, die für bewußte Meinungen<br />
nicht gegeben ist, denn implizites Wissen ist für ihn nicht klar und deutlich.<br />
Klar und deutlich können stets nur unsere momentan bewußten<br />
Vorstellungen sein. Selbst für die mathematischen Wahrheiten gilt: Sobald<br />
wir nicht mehr an sie denken, sind wir uns ihrer nicht mehr sicher,<br />
weil sie uns in dem Moment auch nicht mehr klar und deutlich gegeben<br />
sind. Um so mehr bedroht dieses Problem, daß wir unsere Aufmerksamkeit<br />
immer nur auf einen Teil unserer Meinungen richten können, jeden<br />
anderen Bereich unseres Wissens, so daß wir nach Descartes zur Überwindung<br />
des Zweifels immer auf Gott angewiesen sind:<br />
Da ich von einer solchen Natur bin, daß ich, solange ich etwas ganz<br />
klar und deutlich erfasse, an dessen Wahrheit glauben muß, und da<br />
ich aber auch von einer solchen Natur bin, daß ich nicht mein geistiges<br />
Auge immer auf dieselbe Sache richten kann, um sie klar aufzufassen,<br />
und die Erinnerung an die früher gebildete Meinung oft wiederkehrt,<br />
so können, wenn ich nicht mehr auf die Gründe achte, derentwegen<br />
ich so geurteilt habe, mir andere Gründe entgegentreten,<br />
die mich, falls ich nicht wüßte, daß Gott existiert, leicht von der<br />
Meinung abbringen würden, und so hätte ich niemals von irgendeiner<br />
Sache ein wahres und sicheres Wissen, sondern nur unbestimmte<br />
und veränderliche Meinungen. (Descartes 1986, 173)<br />
Die mathematischen Wahrheiten sind implizit verfügbar und jederzeit<br />
ins Bewußtsein zurückzurufen. Aber Descartes muß Gott bemühen, um<br />
sich solcher impliziten Wahrheiten auch in ihrem impliziten Zustand gewiß<br />
zu sein. Descartes Konzeption von Rechtfertigung ist damit deutlich<br />
anspruchsvoller, als die hier vertretene, da er für Rechtfertigungen Gewißheit<br />
verlangt, die uns momentan bewußt ist, während ich auch implizite<br />
rechtfertigende Überzeugungen und Rechtfertigungen gelten lasse.<br />
Das hängt natürlich mit seiner strengen Forderung nach Sicherheit oder<br />
Unkorrigierbarkeit (s.a. III.B) zusammen, der ich mich nicht anschließen<br />
werde. Sie stellt für implizite Überzeugungen das Problem des Erinnerungsirrtums<br />
in den Vordergrund, auf dessen Bedeutung für die Erkenntnistheorie<br />
ich in (IV.B.4) zu sprechen komme.<br />
4. Epistemische Arbeitsteilung<br />
Ein grundlegendes Phänomen realer epistemischer Begründungen wird<br />
durch eine überwiegend vereinfachende und stark von historischen Posi-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 85<br />
tionen geprägte Erkenntnistheorie außer acht gelassen. Gegen das einfache<br />
Bild der Empiristen – und das entsprechend einfache auf Seiten der<br />
Rationalisten –, daß eine einzelne Person auf sich allein gestellt bestimmte<br />
Beobachtungen macht, dann Theorien dazu entwickelt und sie<br />
durch diese Beobachtungen rechtfertigt, soll eine Konzeption von Wissen<br />
und Rechtfertigungen konstruiert werden, die besser zu unserem offensichtlich<br />
arbeitsteiligen Wissenserwerb paßt. Daß unser Wissenserwerb<br />
im Regelfall kein Unternehmen für Einzelgänger ist, beschreibt Gilbert<br />
Harman in der folgenden Form:<br />
Learning about the world is a cooperative enterprise. One comes to<br />
accept things as a member of one’s family or society of profession or<br />
culture. It is only when people become methodologically self-conscious<br />
that they distinguish their own private opinions from the<br />
things they accept as members of a group. (Harman 1986, 51)<br />
Für naturalistische Vorgehensweisen haben diese evidenten soziologischen<br />
und psychologischen Tatsachen auch erkenntnistheoretische Konsequenzen,<br />
die eine Beschränkung auf eine solipsistische Position – und<br />
insbesondere eine Beschränkung auf einen Solipsismus der Gegenwart,<br />
wie wir ihn z. B. bei Descartes als erkenntnistheoretischen Ausgangspunkt<br />
finden – nicht einfangen kann. In unserem Wissenskorpus stoßen<br />
wir an zahlreichen Stellen auf Überzeugungen, deren wir uns mit guten<br />
Gründen sicher sind, die wir jedoch nicht allein begründen können, ja<br />
für die wir nicht einmal über implizite Rechtfertigungen verfügen. Zu<br />
ihrer Rechtfertigung sind wir wesentlich auf das Zeugnis und die Kenntnisse<br />
anderer Leute angewiesen. Das betrifft bereits die einfachsten Meinungen<br />
über alltägliche Dinge, die in der Nachbarschaft, der Politik, in<br />
anderen Ländern oder schlicht in unserer Abwesenheit passieren, ist<br />
aber viel brisanter für den Bereich wissenschaftlichen Wissens.<br />
Bei Überzeugungen über die Schädlichkeit von Cholesterin, die Wirkungen<br />
von Vitaminen, das Verhalten von Atomen oder Computern etc.<br />
sind wir auf die Urteile von medizinischen und anderen Fachleuten und<br />
ihre Rechtfertigungen für diese Meinungen angewiesen. Unsere Überzeugungen,<br />
daß die Sonne morgen wieder aufgehen wird, daß der Mond<br />
sich um die Erde bewegt usw., sind sicher nicht unbegründet, so daß wir<br />
sogar höhere Wetten darauf abschließen würden. Und wer möchte wohl<br />
dagegen halten? So wettete der Mathematiker G.H. Hardy täglich, daß<br />
die Sonne wieder aufgeht, sein Vermögen gegen einen halben Penny<br />
(nach Dawkins 1990, 137). Was könnten die meisten von uns aber als<br />
Begründung dieser Ansicht anführen? Wohl nicht viel, wenn sie nicht
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 86<br />
auf Fachbücher und Experten verweisen. Direkt zugänglich bleiben für<br />
viele nur Rechtfertigungen wie: Daß es schon immer so war, wobei sie<br />
das aus eigener Anschauung nur für sehr wenige Tage der Erdgeschichte<br />
behaupten können, und vielleicht noch, daß die Erde sich dreht.<br />
Aber selbst ein heutiger Physiker, der sich guten Gewissens auf seine<br />
Kenntnisse der Mechanik bei der Erklärung der Bewegung von Sonne,<br />
Erde und Mond stützen kann, hat damit direkten kognitiven Zugang<br />
nur zu einem recht kleinen Teil der gesellschaftlich verfügbaren Daten.<br />
Er kann unmöglich die vielen Meßdaten über die Umlaufbahnen im Gedächtnis<br />
haben. Ohne die enorme Zahl von Daten sind die mechanischen<br />
Theorien allein aber noch keine gute Begründung unserer Annahmen.<br />
Sollen wir nun sagen, daß wir uns geirrt haben über die Güte der<br />
uns zur Verfügung stehenden Rechtfertigungen? Womöglich gibt es keinen<br />
einzigen Menschen, der auch nur einen kleinen Teil unserer Gründe<br />
für unser Modell des Sonnensystems in der Form parat hat, daß man sie<br />
ihm als eine Form von impliziten Wissen zuschreiben könnte. Sie sind<br />
inzwischen vielmehr in Computern gespeichert. Gibt es daher niemanden,<br />
der in den genannten Annahmen im starken Sinn des Wortes gerechtfertigt<br />
ist? Das scheint keine plausible Beschreibung unserer epistemischen<br />
Situation zu sein. Einige Wissenschaftler etwa der Nasa haben<br />
Zugriff auf diese Daten und können sie im Prinzip zum Test unserer<br />
Vorstellung vom Planetensystem heranziehen und tun das bei vielen Gelegenheiten<br />
auch. Wir dürfen darauf verweisen, daß bestimmte Daten an<br />
bestimmten Stellen im Prinzip verfügbar sind und von Wissenschaftlergruppen<br />
ausgewertet werden, auch wenn wir sie selbst nicht parat haben<br />
und noch nicht einmal wissen, welchen Umfang und welcher Art diese<br />
Daten sind. Sollten wir diese Möglichkeiten zur Rechtfertigung unserer<br />
Ansichten ausschließen, weil sie nicht der klassischen stark solipsistisch<br />
geprägten Vorstellung vom Erkenntniserwerb im Rahmen eines methodologischen<br />
Solipsismus entsprechen, würden wir auf die umfangreichste<br />
Wissensquelle verzichten, die uns zur Verfügung steht. Dann erhalten<br />
die Skeptiker sofort die Oberhand, die uns vorwerfen, daß wir auch<br />
schwächere Anforderungen als absolute Gewißheit niemals erreichen<br />
werden.<br />
Eine Aufgabe der heutigen Erkenntnistheorie ist zu untersuchen, wie<br />
das sozial verfügbare Wissen in die Begründungen unserer Meinungen<br />
eingehen kann. Worüber wir zunächst verfügen, sind Einschätzungen<br />
darüber, wie bedeutsam die von der Gesellschaft gesammelten Daten<br />
sind und darüber hinaus Einschätzungen, aus welchen Quellen wir über<br />
welche Dinge mit welchem Zuverlässigkeitsgrad Auskunft erlangen kön-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 87<br />
nen. Unsere Ansichten über die Bewegungen der Planeten sind durch die<br />
immensen wissenschaftlichen Datensammlungen tatsächlich begründeter,<br />
als es entsprechende Ansichten der Menschen früherer Jahrhunderte<br />
waren, obwohl das neu hinzugekommene Wissen eher ein Expertenwissen<br />
ist, das für keinen Menschen mehr direkt zugänglich ist. Daß die gesellschaftlich<br />
verfügbaren Theorien und Daten eine begründete Sicht der<br />
Planetenbewegung abgeben, ist für uns auch anhand der Erfolge der<br />
Raumfahrt indirekt erkennbar. Erfolgreiche Flüge zum Mond, Erd- und<br />
andere Satelliten sind für uns am ehesten verständlich, wenn wir davon<br />
ausgehen, daß unsere wissenschaftlichen Theorien über ihre Bewegungen<br />
und Anziehungskräfte im wesentlichen richtig sind. Indizien dafür,<br />
daß die wissenschaftlichen Theorien der Mechanik ein richtiges Bild der<br />
Welt zeichnen, finden wir noch in vielen anderen Bereichen.<br />
Wir können uns an unzähligen Stellen – die Beispielliste zeigte nur<br />
einen sehr kleinen Ausschnitt – auf Rechtfertigungen für unsere Überzeugungen<br />
stützen oder berufen, die wir nicht direkt zur Verfügung haben<br />
und die überhaupt keine Einzelperson zur Gänze parat haben kann,<br />
die aber in unserer Gesellschaft verfügbar sind. Das bezeichne ich, in<br />
auch inhaltlich enger Anlehnung an Putnams Überlegungen zur Bedeutungstheorie<br />
(s. Putnam 1979, 37ff), als epistemische Arbeitsteilung. Die<br />
Rechtfertigungen lassen sich stückweise zusammensetzen, wobei die<br />
Stücke verschiedenen Personen verfügbar sind. Trotzdem können sich in<br />
bestimmter Weise auch andere oder sogar alle Mitglieder der Gesellschaft<br />
darauf berufen. Man kann zu Zwecken der Abgrenzung Begründungen<br />
dieser Art als indirekte Rechtfertigungen durch epistemische Arbeitsteilung<br />
bezeichnen. Erst wenn wir sie berücksichtigen, erhalten wir<br />
Menschen, die nicht nur mit lauter unbegründeten Meinungen ausgestattet<br />
sind. Ein Projekt einer heutigen Erkenntnistheorie sollte es somit<br />
sein, den Formen gesellschaftlichen Wissens und unseren indirekten Zugriffsmöglichkeiten<br />
darauf im Hinblick auf Rechtfertigungen weiter<br />
nachzuspüren. Dieses Vorhaben ist natürlich zu einem guten Teil ein empirisches<br />
Forschungsprogramm, für das sich eine Zusammenarbeit etwa<br />
mit der Wissenschaftssoziologie anbietet.<br />
In dem Sinne, daß wir uns nicht direkt auf eigene Überzeugungen in<br />
unseren Rechtfertigungen stützen, habe ich Rechtfertigungen, die sich<br />
wesentlich auf gesellschaftlich verfügbares Wissen stützen, „indirekte Belege“<br />
für die Wahrheit unserer Meinungen genannt. Indirekte Belege behandeln<br />
wir häufig mit einer gewissen Skepsis. Oft mit größerer Skepsis<br />
als die meisten anderen Indizien. Man denke nur an die Einschätzung<br />
von Behauptungen, die man nur vom Hören-Sagen kennt, vor Gericht.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 88<br />
Epistemisch problematisch ist in diesen Fällen meist, daß wir nur wenig<br />
über die epistemische Zuverlässigkeit der Quellen dieser Behauptung<br />
aussagen können. Jede indirekte Rechtfertigung, die sich auf gesellschaftlich<br />
verfügbares Hintergrundwissen bezieht, bedarf aus diesem<br />
Grund einer besonders sorgfältigen Einschätzung der Zuverlässigkeit ihrer<br />
Quelle, die über ihren rechtfertigenden Charakter mitbestimmt. Solche<br />
Einschätzungen müssen sich ihrerseits im allgemeinen wieder auf<br />
nur sozial verfügbare, ebenfalls recht indirekte Belege stützen, ohne das<br />
wir die Begründungsstrukturen, die diesem gesellschaftlichen Wissen zugrunde<br />
liegen selbst überprüfen könnten. Daneben werden wir zur Bewertung<br />
indirekter Belege prüfen, wie kohärent sie sich in unser bisheriges<br />
Hintergrundwissen einpassen lassen. Die Belege, die wir dafür heranziehen<br />
sind vielfältig, und die verlangten Einschätzungen stehen in einem<br />
umfangreichen Netz von anderen Überzeugungen und Metaüberzeugungen,<br />
anhand dessen sie in holistischer Weise vorgenommen werden.<br />
Ähnliches trifft aber auch für unsere eigenen Erinnerungen zu, wenn<br />
wir sie in epistemisch verantwortlicher Weise einschätzen wollen. Wir<br />
müssen uns dazu ganz analog überlegen, unter welchen Bedingungen wir<br />
unseren Erinnerungen trauen können (s. dazu IV.B.4). Sicherlich sind<br />
viele Teile des gesellschaftlich begründeten Wissens epistemisch eindeutig<br />
unproblematischer, als z. B. viele unserer Erinnerungen, von denen<br />
wir oft genug erfahren müssen, daß sie uns trügen. Trotzdem lassen wir<br />
Meinungen, die sich auf Erinnerungen berufen, meist ohne große Bedenken<br />
für Rechtfertigungen zu. Daher sollten wir auch die indirekten<br />
Rechtfertigungen durch epistemische Arbeitsteilung nicht schlechter behandeln<br />
und mit entsprechenden Vorbehalten, was ihre Zuverlässigkeit<br />
betrifft, ebenfalls akzeptieren.<br />
Ein ganz anderer Zugang zur epistemischen Arbeitsteilung findet<br />
sich noch außerhalb erkenntnistheoretischer Überlegungen in sprachphilosophischen<br />
Positionen, die den sozialen Beitrag zur Bedeutung unserer<br />
Äußerungen und Überzeugungen betonen. Wenn wir z. B. als einziges<br />
Heilmittel gegen Probleme um „private Sprachen“ im Sinne Wittgensteins<br />
wesentlich auf die Sprachgemeinschaft angewiesen sind, so wird<br />
die gesellschaftliche Arbeitsteilung bereits für die Festlegung, was wir<br />
meinen, konstitutiv und natürlich um so mehr für alles, was darauf aufbaut.<br />
Doch diesen sprachphilosophischen Zusammenhängen kann ich an<br />
dieser Stelle nicht weiter nachgehen, sondern möchte mich statt dessen<br />
einem engen Anknüpfungspunkt zur Argumentationstheorie zuwenden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 89<br />
Die epistemische Arbeitsteilung trifft sich mit einer Argumentform,<br />
die in der Argumentationstheorie gut bekannt ist, nämlich dem Argument<br />
aus der Autorität. Zwischen epistemischen Rechtfertigungen und<br />
Argumenten gibt es eine enge Beziehung, aber doch Unterschiede in der<br />
Betonung (s. Kap I). Während es für Rechtfertigungen nur auf den tatsächlichen<br />
Zusammenhang zwischen Rechtfertigung und gerechtfertigter<br />
Meinung ankommt, spielt für Argumente stärker ihr pragmatischer Kontext<br />
eine Rolle; an wen sie adressiert sind, welches Hintergrundwissen<br />
der jeweilige Adressat mitbringt und ob sie so formuliert sind, daß sie<br />
Überzeugungskraft besitzen. Trotzdem sollte sich im Prinzip aus jeder<br />
guten Rechtfertigung ein Argument gewinnen lassen, indem man sie didaktisch<br />
so aufbereitet, daß sie den Adressaten überzeugt. Andererseits<br />
gehört zu einem guten Argument meines Erachtens ebenfalls, daß es<br />
nicht nur gut ankommt, sondern auch sachlich richtig ist, also eine gute<br />
Rechtfertigung dahinter steht. Den Rechtfertigungen per epistemischer<br />
Arbeitsteilung entsprechen dabei in etwa die Argumente aus der Autorität,<br />
in denen man sich für eine Behauptung auf Autoritäten beruft. Diese<br />
Argumentform hatte lange Zeit keinen guten Ruf, stand sie doch auf den<br />
ersten Blick dem Fehlschluß eines argumentum ad hominem verdächtig<br />
nahe, aber eine Präzisierung zeigt auch deutlich die erkenntnistheoretisch<br />
bedeutsamen Unterschiede. Für die prinzipielle Zulässigkeit von<br />
Argumenten aus der Autorität tritt Salmon überzeugend ein:<br />
Nur ein notorischer Besserwisser kann annehmen, daß es niemals erlaubt<br />
ist, sich auf Autorität zu berufen, denn bei der Aneignung und<br />
Anwendung von Wissen kann man nicht darauf verzichten, sich in<br />
angemessener Weise einer Autorität zu bedienen. Wenn wir jede Berufung<br />
auf Autorität ablehnen würden, dann müßten wir zum Beispiel<br />
behaupten, daß niemand jemals Grund hat, das Urteil eines erfahrenen<br />
Arztes über eine Krankheit zu akzeptieren. Man müßte<br />
vielmehr versuchen, selbst ein erfahrener Arzt zu werden, würde<br />
aber dabei der unlösbaren Aufgabe gegenüberstehen, sich niemals<br />
auf die Ergebnisse anderer Experten verlassen zu dürfen. Anstatt die<br />
Berufung auf Autorität vollkommen abzulehnen, müssen wir versuchen,<br />
die berechtigten von den unberechtigten Berufungen auf Autorität<br />
zu unterscheiden. (Salmon 1983, 184)<br />
Als eine korrekte Argumentationsform für diesen Argumenttyp nennt<br />
Salmon dann (1983, 185) den Schluß:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 90<br />
Das Argument aus der Autorität<br />
x ist bezüglich p eine verläßliche Autorität.<br />
x behauptet, daß p.<br />
Also: p<br />
Wichtig für die Anwendung einer Berufung auf eine Autorität, ist immer,<br />
daß sie gerade für dieses Gebiet eine Autorität ist, und außerdem ist<br />
natürlich kein umgekehrter Schluß – im Sinne eines argumentums ad hominem<br />
– zulässig, nach der jemand keine Autorität darstellt und wir deshalb<br />
seiner Ansicht für falsch halten sollten. Auch das angegebene Schema<br />
für die Bezugnahme auf Autoritäten weist viele Analogien zu den<br />
Rechtfertigungen auf, die wir in (IV.B) für Beobachtungsüberzeugungen<br />
kennenlernen werden. Weiterhin nennt Salmon schon die wichtigsten<br />
Fehlerquellen für Schlüsse aus der Autorität, die uns Hinweise bieten,<br />
wie das Argument in umfangreicheren Rechtfertigungszusammenhängen<br />
eingeschätzt werden kann. In dieser Richtung können wir auch über indirekte<br />
Rechtfertigungen weiter nachdenken. Das muß aber späteren Arbeiten<br />
überlassen bleiben.<br />
Auf eine Konsequenz der epistemischen Arbeitsteilung möchte ich an<br />
dieser Stelle wenigstens noch aufmerksam machen. Spätestens durch die<br />
epistemische Arbeitsteilung gewinnt das wissenschaftliche Wissen eine<br />
grundlegende Bedeutung für all unser Wissen und unsere Rechtfertigungen.<br />
Man kann sagen – und das ist zunächst einfach als Tatsachenbehauptung<br />
und nicht als Bewertung gemeint –, daß die Wissenschaften<br />
das Rückgrat des gesellschaftlichen Wissens darstellen, sind sie doch<br />
auch von der Gesellschaft mit der systematischen Sammlung von Erkenntnissen<br />
beauftragt. Jeder, der sich in Widerspruch zu diesem Wissen<br />
begibt, hat Schwierigkeiten, seine Überzeugungen in einer offenen Diskussion<br />
gesellschaftlich durchzusetzen. Das zeigt deutlich den geradezu<br />
basalen Charakter dieses Wissens in den modernen Gesellschaften.<br />
Selbst von Sekten und okkulten Bewegungen wird dieser Primat des wissenschaftlichen<br />
Wissens zunehmend – wenn auch häufig nur implizit –<br />
anerkannt. Sie bemühen sich zum einen darum, die meist vorhandenen<br />
Widersprüche zu wissenschaftlichen Auffassungen zu beseitigen oder<br />
herunterzuspielen und zu verschleiern, und andererseits bemühen sie<br />
sich sogar häufig, sich einen wissenschaftlichen Anstrich zu geben, in<br />
dem sie behaupten, sich auf wissenschaftliche Erkenntnisse zu stützen.<br />
In jedem Fall findet das wissenschaftliche Wissen auf dem Wege über<br />
die epistemische Arbeitsteilung Eingang in die impliziten Rechtfertigungen<br />
aller Mitglieder der Gesellschaft. Darauf hingewiesen, daß sie sich<br />
dazu in Widerspruch befinden, werden sie es in aller Regel als Anfech-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 91<br />
tung empfinden, mit der man sich auseinanderzusetzen hat. Was natürlich<br />
keineswegs bedeutet, daß man seine liebgewonnen Überzeugungen<br />
zugunsten dieser Erkenntnisse einfach aufgibt, denn dazu gibt es zu viele<br />
Immunisierungsmöglichkeiten für unsere Meinungen. Auch für politische<br />
Entscheidungen bildet das wissenschaftliche Wissen die bestimmende<br />
Wissensgrundlage, soweit es denn verfügbar ist und nicht aus bestimmten<br />
Gründen unterdrückt wird. Das belegen unter anderem die regelmäßigen<br />
Anhörungen von Experten, Enquete-Kommissionen etc.,<br />
was natürlich ebensowenig wie im individuellen Fall bedeuten muß, daß<br />
es in entsprechenden politischen Entscheidungen auch tatsächlich umgesetzt<br />
wird. Doch zumindest zeigen diese Analysen die große Bedeutung,<br />
die speziell dem wissenschaftlichen Wissen für unser Überzeugungssystem<br />
in unserer intuitiven Einschätzung beigelegt wird.<br />
Das Problem, wie sich gesellschaftliches Wissen definiert, ist mit dem<br />
Hinweis auf die institutionalisierten Wissenschaften natürlich noch<br />
längst nicht gelöst, denn auch wissenschaftliches Wissen ist ja selbst wieder<br />
Gruppenwissen. Dazu, wie wissenschaftliches Wissen zu charakterisieren<br />
ist, gibt es verschiedene Vorschläge, die ich im dritten Teil der Arbeit<br />
ansprechen möchte.<br />
5. Hierarchische Strukturen<br />
Unser Überzeugungssystem ist alles andere als eine amorphe Menge von<br />
isoliert nebeneinanderstehenden Einzelerkenntnissen, sondern besitzt im<br />
Gegenteil vielfältige innere Struktur. Auf einige Unterscheidungen, die in<br />
der Erkenntnistheorie eine gewisse Bedeutung besitzen, komme ich nun<br />
zu sprechen. In unserem Netz von empirischen Überzeugungen über die<br />
Welt – von mathematisch/logischen, ästhetischen, religiösen oder moralischen<br />
Überzeugungen soll hier nicht die Rede sein – finden sich zuerst<br />
einmal verschiedene Grade der Allgemeinheit unserer Meinungen, Überzeugungen<br />
über andere Überzeugungen, darunter insbesondere Ansichten<br />
über den Grad der Rechtfertigung bestimmter Meinungen und anderes<br />
mehr. An diesem Punkt möchte ich anhand einiger klassifizierender Begriffe<br />
den Blick auf die Vielfalt unseres Überzeugungssystems und einige<br />
seiner strukturierenden Dimensionen richten, bin aber weit davon entfernt,<br />
dafür Vollständigkeit zu beanspruchen. Wie wichtig die Beachtung<br />
der Komplexität gewöhnlicher Überzeugungssysteme gerade für eine Bewertung<br />
der Kohärenztheorien ist, soll schon an dieser Stelle ein Beispiel<br />
erläutern.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 92<br />
Kritiker von Kohärenzkonzeptionen der Erkenntnis übersehen oft<br />
diese Vielfalt und schätzen daher die Wirksamkeit von Kohärenztests in<br />
unserem Meinungssystem völlig falsch ein. So lautet ein in verschiedenen<br />
Varianten immer wiederkehrender Einwand gegen Kohärenz als<br />
Maßstab für den Umbau unseres Überzeugungssystems: Wir können die<br />
Kohärenz unserer Meinungen ganz einfach dadurch erreichen, daß wir<br />
Beobachtungen, die nicht kohärent zu unseren Überzeugungen passen,<br />
zurückweisen. Damit bliebe, so der Einwand, unser Meinungssystem kohärent.<br />
Dieser Einwand übersieht gleich zwei wichtige Dinge. Erstens<br />
liegt ihm die Verwechslung von Kohärenz mit Konsistenz zugrunde. Auf<br />
die beschriebene Art mögen wir ein konsistentes Meinungssystem behalten,<br />
aber Kohärenz verlangt auch positive Bestandteile, also etwa inferentielle<br />
Beziehungen der Meinungen untereinander, die durch das Vorliegen<br />
von Konsistenz keineswegs gewährleistet werden können (s.<br />
IV.A.1). Das einfache Abweisen von Beobachtungsüberzeugungen ist daher<br />
kaum geeignet, zur Kohärenz eines Meinungssystems beizutragen.<br />
Kohärenz verlangt vielmehr, daß man sich darum bemüht, weitere Überzeugungen<br />
zu gewinnen, die eine stärkere Vernetzung der Meinungen<br />
zur Folge haben. Kohärenzforderungen wirken in einem komplexen<br />
Überzeugungssystem also sicherlich auf eine völlig andere Art als ein einfacher<br />
Inputfilter.<br />
Der zweite Aspekt, an dem der Vorwurf die innere Vielfalt unserer<br />
Überzeugungssysteme übersieht, ist der unserer epistemischen Überzeugungen.<br />
Die meisten Menschen haben bestimmte Metaüberzeugungen<br />
dergestalt, daß normale Beobachtungen für uns den wichtigsten Input an<br />
Informationen über die Außenwelt bieten. Es paßt dann eben nicht kohärent<br />
in unser Überzeugungssystem hinein, diese schlicht abzulehnen.<br />
Sobald wir überhaupt die Augen aufmachen, nehmen wir unwillkürlich<br />
wahr und erwerben – ob wir es nun wollen oder nicht – bestimmte Beobachtungsüberzeugungen.<br />
Indem wir diese zurückweisen, verletzen wir<br />
auf eklatante Weise unsere Vorstellungen von der Welt und unserer Stellung<br />
in ihr, wenn wir nicht wenigstens eine passende Geschichte darüber<br />
erzählen können, wieso es sich gerade bei diesen Wahrnehmungen um<br />
eine Sinnestäuschung gehandelt hat. Damit paßt dieses Vorgehen nicht<br />
kohärent zu unseren epistemischen Anschauungen darüber, wie grundlegend<br />
und zuverlässig derartige Beobachtungsüberzeugungen über die<br />
Welt Auskunft geben. Der Kritiker eines Kohärenztests hat diese Metaüberzeugungen<br />
nicht beachtet und scheint einer zu einfachen Vorstellungen<br />
unserer Überzeugungssysteme aufgesessen zu sein. Um dem wenigs-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 93<br />
tens etwas entgegenzuwirken, möchte ich einiger Dimensionen der Einteilung<br />
unserer Erkenntnisse auflisten.<br />
a) Grade von Allgemeinheit<br />
Wir haben Überzeugungen über das, was wir gerade wahrnehmen: über<br />
Gegenstände unserer Umgebung und auch über unseren eigenen Zustand<br />
(Schmerz, Müdigkeit, Freude etc.). Diese bezeichne ich häufig als<br />
Beobachtungsüberzeugungen oder manchmal (hoffentlich selten) auch<br />
nachlässiger als Beobachtungen. In Beobachtungsüberzeugungen geht es<br />
im allgemeinen um Einzeldinge, etwa konkrete Gegenstände unserer<br />
Umgebung oder bestimmte Personen, mit denen wir in Kontakt kommen.<br />
Daneben verfügen wir über viele allgemeinere Annahmen oder sogar<br />
kleine Alltagstheorien, auf die wir uns im Alltag verlassen, die mit<br />
unseren Beobachtungen auf viele Arten zusammenhängen. So glauben<br />
wir vielleicht, daß Fritz ein jähzorniger Mensch ist. Das betrifft dann<br />
nicht nur unsere momentanen Beobachtungen, sondern auch Vergangenes<br />
und Zukünftiges. Dabei besitzen wir nicht nur Minitheorien über<br />
Einzeldinge, sondern natürlich auch eine Vielzahl von Ansichten über<br />
Gegenstandstypen. Das sind Theorien, die schon auf einem etwas höheren<br />
Allgemeinheitsniveau liegen. Etwa, daß man Menschen, die zum<br />
Jähzorn neigen, besonders in Streßsituationen nicht reizen sollte (hier<br />
gleich als Handlungsanweisung formuliert, aber die zugrundeliegenden<br />
Überzeugungen kann jeder erraten), daß Zucker sich in Wasser auflöst,<br />
daß Sonnenbaden und Sonnenbrände unser Hautkrebsrisiko erhöhen,<br />
daß Zinssenkungen die Inflation anheizen können u.v.m. Einige der Beispiele<br />
stammen aus dem wissenschaftlich technischen Bereich, wie auch<br />
bei vielen anderen ersichtlich ist, daß bestimmte wissenschaftliche Theorien<br />
hinter ihnen stehen. Da sind sicherlich psychologische Theorien zu<br />
nennen, wie die Freudsche, die zum Teil auch in unsere Alltagsansichten<br />
über andere Menschen Eingang gefunden hat, politische, medizinische<br />
und biologische Theorien oder auch Theorien über die Entwicklung unseres<br />
Sonnensystems und die Entstehung von Leben auf der Erde, sowie<br />
über unsere eigene Entwicklungsgeschichte. Gerade die letzteren hatten<br />
bekanntlich wieder starke Auswirkungen auf bestimmte religiöse Auffassungen,<br />
was zeigt, wie auch inhaltlich zunächst entferntere Bereiche untereinander<br />
vernetzt sein können.<br />
In der nächsten Allgemeinheitsstufen über diesen Theorien finden<br />
wir dann z. B. Theorien der Chemie oder Physik über allgemeine Zusammenhänge<br />
zwischen Stoffen oder über Phänomene aus der Elektrodynamik,<br />
Thermodynamik, Mechanik und dem atomaren Bereich. Diese
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 94<br />
sind für die meisten Menschen wohl nur noch als gesellschaftliches Wissen<br />
verfügbar, übernehmen aber in unserer Wissensvernetzung trotzdem<br />
wesentliche Aufgaben. Dazu kommen allgemeine Annahmen, die auf<br />
verschiedenen Ebenen in verschiedenen Interpretationen anzutreffen<br />
sind. Etwa die, daß bestimmte Ereignisse Ursachen einer bestimmten Art<br />
besitzen, daß gewisse Kontinuitäten in allen natürlichen Prozessen zu<br />
finden sind und sich Dinge nur mit bestimmten Geschwindigkeiten kontinuierlich<br />
ändern. Das mag als kleiner Potpourri genügen, der ein wenig<br />
der Vielfalt unsere Überzeugungssysteme und ihrer Hierarchie von Allgemeinheit<br />
aufzeigt.<br />
Einem weitverbreiteten Irrtum möchte ich in diesem Zusammenhang<br />
gleich vorbeugen. Zumindest handelt es sich um eine Frage, die ich<br />
nicht vorentschieden wissen möchte, weil sie gerade zwischen fundamentalistischen<br />
Ansichten von Rechtfertigung und Kohärenztheorien<br />
strittig ist. Sie wird oft genug als unbemerkte Voraussetzung eingeschmuggelt,<br />
wenn man sich anschickt, dem Skeptiker Paroli zu bieten.<br />
Bei Watkins (1984, 79) finden wir zunächst fünf Ebenen von Aussagen,<br />
die ich etwas verkürzt wiedergebe: 34<br />
level-0: perceptual reports of a first person, here-and-now type.<br />
level-1: singular statements about observable things or events.<br />
level-2: empirical generalisations about regularities displayed by<br />
observable things and events.<br />
level-3: exact experimental laws concerning measurable physical<br />
magnitudes.<br />
level-4: scientific theories that are not only universal and exact but<br />
postulate unobservable entities.<br />
Gegen eine entsprechende Einteilung unserer Überzeugungen habe ich<br />
nichts, nur gegen eine Beschreibung dessen, was ein Erkenntnistheoretiker<br />
zu leisten hat, anhand dieser Beschreibung. Nach Watkins muß er<br />
dem Skeptiker entgegentreten, der uns fragt: Wie kann denn eine Aussage<br />
eines höheren Typs durch Aussagen niedrigerer Typen begründet werden?<br />
Der Skeptiker macht dann meist eine Unterbestimmtheit der höheren<br />
Ebenen durch die niedrigeren Typen geltend und fragt weiter, wie<br />
wir denn die induktiven Verfahren begründen wollen, mit denen wir<br />
aufzusteigen gedenken. Wenn wir uns nun brav ans Werk machen und<br />
etwa entscheidungstheoretische Überlegungen zur Begründung eines Induktionsprinzips<br />
entwickeln, so haben wir schon eine Voraussetzung geschluckt,<br />
die ich mit einer Einteilung dieser Art noch nicht verbinden<br />
34 Für Beispiele zu den Ebenen muß ich auf Watkins (op. cit.) verweisen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 95<br />
möchte: Rechtfertigungen laufen nur von unteren Ebenen zu höheren<br />
und nicht umgekehrt. Dadurch würden die unteren Ebenen in irgendeiner<br />
Form als erkenntnistheoretisch primär gegenüber den unteren Ebenen<br />
ausgezeichnet. Meist denkt man daran, daß sie auch sicherer sind<br />
und der Skeptiker räumt uns – wenn er versöhnlich gestimmt ist – zumindest<br />
für die Ebene 0 oder sogar 1 ein, daß sie unproblematisch sei.<br />
Diese Voraussetzung möchte ich nicht unterschreiben, und ich werde<br />
später (s. III.B) sogar explizit gegen sie argumentieren.<br />
b) Metaüberzeugungen<br />
Zusätzlich zu unseren Überzeugungen über die Welt haben wir auch<br />
viele Überzeugungen über unsere Überzeugungen, also Metaüberzeugungen.<br />
Dazu gehören zunächst schlicht Überzeugungen darüber, welche<br />
Überzeugungen wir haben. Auf diese etwas paradox anmutenden Metaüberzeugungen<br />
und die speziellen Probleme ihrer Begründung gehe ich in<br />
Abschnitt (IV.B.4) ein. Weiterhin haben wir verschiedene Arten von Einteilungen<br />
und Bewertungen unserer eigenen Überzeugungen, die selbst<br />
wieder als Metaüberzeugungen einer bestimmten Art zu beschreiben<br />
sind. Darunter fallen z. B. Bewertungen, welches Wissen für uns wichtig<br />
ist, welches wir geheimhalten sollen, welche unserer Überzeugungen<br />
vielleicht unmoralisch sind, aber auch Einschätzungen – und die sind für<br />
die Erkenntnistheorie besonders interessant – epistemischer Art darüber,<br />
in welchen unserer Meinungen und in welchem Ausmaß wir in diesen<br />
Meinungen gerechtfertigt sind, wie sie entstanden sind, wie Begründungen<br />
für sie überhaupt auszusehen haben etc. Auch Theorien darüber,<br />
was eine gute Rechtfertigung oder Erklärung ist, wird man hier ansiedeln.<br />
D.h. übrigens auch, daß ein großer Teil der Philosophie in den Bereich<br />
dieser Metaüberzeugungen einzuordnen ist. Darunter fallen ebenso<br />
unsere Ansichten über induktive Zusammenhänge wie die Kenntnis<br />
der Paradoxien, die sie bedrohen (Hempel, Goodman); ebenso unsere<br />
Meinungen zu wissenschaftsphilosophischen Themen wie die, daß unsere<br />
Theorien fallibel sind, wie auch unsere Ansichten zur Wissenschaftsgeschichte,<br />
die vielleicht in einem kumulativen Fortschrittsbild oder eher<br />
in Kuhnschen wissenschaftlichen Revolutionen zu sehen sind.<br />
c) Rechtfertigungshierarchien<br />
Das für uns spannendste Thema im Rahmen der Metaüberzeugungen<br />
sind natürlich die epistemischen Überzeugungen und vermutete und tatsächliche<br />
Rechtfertigungsverhältnisse in unserem Wissenskorpus. Gibt es
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 96<br />
so etwas wie basale Überzeugungen, für die wir keine Rechtfertigungen<br />
annehmen und auch keine benötigen, wie das die Fundamentalisten behaupten;<br />
oder finden wir zumindest asymmetrische Verhältnisse, wonach<br />
bestimmtes Wissen zur Rechtfertigung anderer Teile unseres Wissens<br />
benutzt wird und nicht umgekehrt? Am besten zugänglich ist hier<br />
wiederum der große Bereich des gesellschaftlich verfügbaren Wissens innerhalb<br />
der Wissenschaften, da dieses Wissen größtenteils explizit niedergelegt<br />
und damit für eine Analyse relativ gut zugänglich ist. In dem<br />
weiten Gebiet der Wissenschaften von historischen Kenntnissen bis hin<br />
zu Erkenntnissen über unsichtbar kleine Teilchen findet sich zudem eine<br />
Anzahl verschiedener epistemisch interessanter Phänomene, die in spezielleren<br />
wissenschaftsphilosophischen Arbeiten besprochen werden, auf<br />
die ich mich zu gegebener Zeit beziehen werde.<br />
Einige informelle Aspekte möchte ich jedoch noch kurz erwähnen.<br />
Da sind zum einen gewisse typisch asymmetrische Zusammenhänge der<br />
Begründung und der epistemischen Priorität. Etwa eine im allgemeinen<br />
erkenntnistheoretisch grundlegende Stellung der Physik. Man spricht<br />
zwar viel über den grundlegenden Status der Physik in den Naturwissenschaften,<br />
aber es ist oft nicht klar, in welchem Sinn das geschieht. Die<br />
Frage etwa, ob sich andere Disziplinen definitorisch auf die Physik reduzieren<br />
lassen, ist mindestens sehr umstritten. Andererseits scheint es einen<br />
wahren Kern in der Redeweise von einer grundlegenden Stellung<br />
der Physik zu geben, den man genauer bestimmen kann. Am deutlichsten<br />
wird er meines Erachtens in der epistemisch herausgehobenen Stellung<br />
der Physik. Die Physik steckt geradezu den Rahmen ab, innerhalb<br />
dessen die anderen Wissenschaften sich zu bewegen haben. Wenn wir in<br />
der Biologie auf Phänomene stoßen, die gegen ein allgemeines Energieerhaltungsprinzip<br />
zu verstoßen scheinen, so werden wir zunächst davon<br />
ausgehen, daß wir den fraglichen Vorgang noch nicht richtig verstanden<br />
haben und bestimmte Energieformen bisher unseren Messungen<br />
entgangen sind. Hier wird den Gesetzen der Physik eindeutig Priorität<br />
gegenüber denen der Biologie eingeräumt. Solche Vorrangregeln sind sicher<br />
nicht dogmatisch und starr zu befolgen, aber sie haben doch großes<br />
Gewicht für unsere epistemischen Einschätzungen von wissenschaftlichen<br />
Hypothesen.<br />
Ähnlich sieht der Vergleich mit anderen Disziplinen aus. Die Gesetze<br />
der Physik werden in den Geschichtswissenschaften herangezogen – etwa<br />
um das Alter bestimmter Objekte zu bestimmen – um bestimmte historische<br />
Hypothesen zu begründen, aber umgekehrt werden historische
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 97<br />
Theorien kaum zur Untermauerung physikalischer Gesetze eingesetzt. 35<br />
Man erinnere sich nur daran, wie rasch der Streit der Historiker um die<br />
Echtheit der „Hitler-Tagebücher“ des Stern beendet wurde, als eine physikalisch<br />
chemische Analyse zu dem Ergebnis kam, das Papier wäre nicht<br />
alt genug für echte Tagebücher. Den Ergebnissen der physikalischen Untersuchungen<br />
vertraute man hier schneller und hielt sie für zuverlässiger,<br />
als die historischer oder sprachlicher Analysen. Dabei stoßen wir auch<br />
auf epistemische Voraussetzungsverhältnisse, wonach bestimmte Theorien<br />
sich auf die Richtigkeit anderer Theorien stützen müssen. Das gilt<br />
auch innerhalb der Einzeldisziplinen dort, wo man die Frage nach einer<br />
epistemischen Schichtung oder Hierarchie versus holistischen Zusammenhängen<br />
aufwerfen kann. 36 Des weiteren stoßen wir in den Wissenschaften<br />
auf epistemische Einschätzungen und Kategorisierungen, die allerdings<br />
nicht immer explizit vorgenommen werden. Penrose (1989,<br />
152) gibt dazu eine explizite grobe Kategorisierung von Theorien in „superb“,<br />
„useful“ und „tentativ“ an, wobei wir den physikalischen Theorien<br />
der ersteren Kategorien weit mehr vertrauen und etwa auch davon<br />
ausgehen, daß wir sie nicht so bald aufgeben werden, als denen, die wir<br />
nur für vorübergehend nützlich halten, die Penrose unter „tentative“<br />
einordnet. 37<br />
6. Resümee<br />
Im Rahmen eines methodologischen Naturalismus ist ein ausgefülltes<br />
Bild der Struktur unserer Erkenntnis der natürliche Ausgangspunkt zur<br />
Entwicklung einer Theorie der epistemischen Rechtfertigung. Einige<br />
wichtige Elemente dieses Bildes wurden dazu vorgestellt. So sind Recht-<br />
35 Auf einen möglichen Ausnahmefall hat mich Ulrich Gähde aufmerksam<br />
gemacht. Um 1844 benannte der Earl von Rosse ein Gebiet entsprechender<br />
Form im Sternbild Stier „Krabben-Nebel“ oder Krebsnebel, in dem nach historischen<br />
Aufzeichnungen um 1054 ein neuer Stern aufgetaucht war. Aus der Ausdehnungsgeschwindigkeit<br />
dieser Nebelwolke konnte er auf den Zeitpunkt einer<br />
Supernovaexplosion zurückrechnen, der gut mit den historischen Daten übereinstimmte.<br />
In einem solchen Beispiel, wird man die historisch überlieferten Daten<br />
den astronomischen Berechnungen als epistemisch überlegen betrachten, denn<br />
die astronomischen Berechnungen geben uns keine sehr eindeutigen Anhaltspunkte<br />
für das Auftreten zurückliegender Supernovaexplosionen und ihrer genauen<br />
Zeitpunkte.<br />
36 Für die Frage nach einer epistemischen Hierarchie im Rahmen der Relativitätstheorie<br />
s. Bartelborth 1993a.<br />
37 Dazu zählt er übrigens auch seine eigenen Twistortheorien.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 98<br />
fertigungen immer zu relativieren auf ein epistemisches Subjekt oder ein<br />
Überzeugungssystem, das sich im wesentlichen als Aussagenmenge charakterisieren<br />
läßt, und haben die Form von inferentiellen Zusammenhängen.<br />
Um zu einem einigermaßen realistischen Bild auch individueller<br />
epistemischer Rechtfertigungen zu gelangen, sind dabei ebenso implizite<br />
Meinungen und Begründungen zu berücksichtigen, wie auch das Phänomen<br />
gesellschaftlichen Wissenserwerbs, das ich „epistemische Arbeitsteilung“<br />
genannt habe. Außerdem lassen sich verschiedene eventuell sogar<br />
epistemisch bedeutsame Hierarchien in unseren Überzeugungssystemen<br />
identifizieren. Zum einen kommen unsere Überzeugungen in unterschiedlichen<br />
Abstufungen von Allgemeinheit daher, von Beobachtungsüberzeugungen<br />
bis zu allgemeinsten Theorien, aber darüber finden wir<br />
Metaüberzeugungen, und andere epistemische Bewertungen der unterschiedlichen<br />
Bereiche empirischer Erkenntnis, die in jeder umfassenden<br />
kohärentistischen Analyse unserer Überzeugungen eine Rolle für die Bewertung<br />
eingehender Informationen zu übernehmen haben.<br />
III <strong>Begründungsstrategien</strong><br />
Ehe ich mich einem konkreten Verfahren zur Rechtfertigung von Überzeugungen<br />
und seinen Details zuwenden kann, müssen in diesem Kapitel<br />
einige generelle Weichenstellungen vorgenommen werden. Epistemische<br />
Rechtfertigungen können in recht unterschiedlichen Richtungen gesucht<br />
werden, die jeweils allgemeine, aber bindende Vorgaben abgeben, wie<br />
eine Rechtfertigung auszusehen hat. Diese Richtungen möchte ich kurz<br />
als unterschiedliche Rechtfertigungsstrategien bezeichnen. Einige werde<br />
ich in diesem Kapitel vorstellen und auf ihre Brauchbarkeit für die Entwicklung<br />
einer angemessenen Rechtfertigungstheorie prüfen. Dabei sollen<br />
zwei Rechtfertigungsstrategien – und zwar die externalistische und<br />
die fundamentalistische – zurückgewiesen werden. Beide Strategien versuchen<br />
ein vollkommen anderes Bild von der Struktur unserer Begründungen<br />
zu zeichnen, als ich es vertreten werde. Mit ihrer Widerlegung<br />
wird daher der Weg erkennbar, auf dem schließlich die gesuchte Theorie<br />
der epistemischen Rechtfertigung zu entwickeln ist. Das muß eine internalistische<br />
Kohärenztheorie einer bestimmten Form sein, die ich aber erst<br />
im nächsten Kapitel vorstelle. Da die plausibelsten und heutzutage gebräuchlichsten<br />
fundamentalistischen Positionen externalistische Varian-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 99<br />
ten des Fundamentalismus sind, wende ich mich als erstes generell gegen<br />
den Externalismus, was die Diskussion der dann noch verbliebenen fundamentalistischen<br />
Rechtfertigungskonzeptionen erheblich erleichtern<br />
wird.<br />
A. Externalistische Strategien<br />
Eine wesentliche Unterscheidung, nach der Erkenntnistheorien eingeteilt<br />
werden, ist die von externalistischen und internalistischen Elementen in<br />
Rechtfertigungen. Diese Einteilung wird allerdings nicht einheitlich vorgenommen,<br />
weshalb es auch nicht zweckmäßig erscheint, eine ganz präzise<br />
Formulierung für die Unterscheidung anzubieten. Die würde einigen<br />
Ansätzen nicht gerecht werden. Statt dessen möchte ich nur die Ideen<br />
dieser Unterscheidung nennen. 38<br />
Interne Elemente von Rechtfertigungen für ein epistemisches Subjekt<br />
S sind solche Elemente, die für S selbst kognitiv zugänglich<br />
sind.<br />
Dabei ist „kognitiv zugänglich“ in dem Sinn zu verstehen, daß es sich um<br />
semantische Informationen handelt, zu denen das Subjekt bewußten, dispositionellen<br />
oder einfachen inferentiellen Zugang hat. Darunter sind<br />
wiederum die impliziten Überzeugungen, die wir uns im Prinzip ins Bewußtsein<br />
rufen können, mitgemeint. 39<br />
Externe Elemente einer Rechtfertigung für S sind solche, die für S<br />
nicht intern sind.<br />
Externalistische Positionen in der Rechtfertigungsdebatte, d.h. Rechtfertigungstheorien,<br />
für die Rechtfertigungen wesentlich externe Elemente<br />
enthalten, beziehen sich auf Bedingungen, die für das Subjekt der Überzeugung<br />
in dem Sinn extern sind, daß sie nicht zu seiner Beschreibung<br />
38 Speziellere Charakterisierungen dieser Positionen finden sich z. B. bei<br />
Moser (1990, 69ff).<br />
39 Auf eine Position, die sich als eine Ausnahme zu dieser Regel versteht,<br />
den Fundamentalismus Mosers, für den die basalen Überzeugungen durch interne<br />
Zustände gerechtfertigt werden, die keine semantische Information haben,<br />
werde ich in (III.B.5.b) gesondert eingehen. Auch Moser fällt allerdings unter die<br />
allgemein gehaltene Bestimmung von internalistischen Elementen, wenn man<br />
„kognitiv zugänglich" nicht ganz so anspruchsvoll versteht, wie das in der gegebenen<br />
Erläuterung der Fall ist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 100<br />
oder Kenntnis der in Frage stehenden Situation gehören. Die Überzeugungen<br />
müssen nur in einer besonderen Beziehung zu den Tatsachen stehen,<br />
von denen die Überzeugungen handeln. Dabei ist an natürliche objektive<br />
Beziehungen gedacht, wie dem Zusammenhang zwischen einem<br />
beobachtbaren Ereignis und einer ihm entsprechenden Beobachtungsüberzeugung,<br />
die über geeignete Sinneswahrnehmungen miteinander verbunden<br />
sind. Eine solche Beziehung muß nur tatsächlich bestehen, aber<br />
das epistemische Subjekt muß noch nicht einmal die geringste Ahnung<br />
vom Bestehen dieses Zusammenhangs haben, um in seiner Meinung gerechtfertigt<br />
zu sein. Derartige externe Bedingungen oder Tatsachen stellen<br />
meist auf den kausalen oder naturgesetzlichen Zusammenhang zwischen<br />
den in Frage stehenden Tatsachen und der sie ausdrückenden<br />
Überzeugung ab. Spätere Beispiele werden noch weitergehend erläutern,<br />
an welche Zusammenhänge und Tatsachen ein Externalist dabei denken<br />
mag. An der Frage, ob solche externen Elemente erkenntnistheoretisch<br />
bedeutsam sind, scheiden sich die Geister. Einige Erkenntnistheoretiker<br />
fordern, Rechtfertigungen müßten vollständig intern sein (z. B. BonJour,<br />
Moser, Pollock), andere begnügen sich mit überwiegend externen Rechtfertigungen<br />
(z. B. Armstrong, Dretske, Goldman, McGinn, Nozick) und<br />
eine dritte Gruppe vereinigt beide Elemente in ihren Theorien (z. B.<br />
Lehrer, Alston, Swain) in bestimmten Mischformen.<br />
1. Externalistische Wissenskonzeptionen<br />
a) Eine neue Wissensbedingung<br />
Ein zentrales Motiv für die gegenwärtige Popularität externer Bedingungen<br />
in der Erkenntnistheorie ist das bereits vorgestellte Gettier Problem<br />
für die Platonische Wissensdefinition. Eine Abwandlung des in (I.A) erwähnten<br />
Beispiels im Stile Gettiers soll dieses Motiv begreiflich machen.<br />
Besagter Student Fritz fährt wieder einen BMW, und ich habe außerdem<br />
allen Grund anzunehmen, daß Fritz dieser BMW gehört. Dann habe ich<br />
auch Grund zu schließen auf:<br />
(*) Einer meiner Studenten besitzt einen BMW.<br />
In dem derzeitigen Beispiel sei der Vater von Fritz jedoch nicht ganz so<br />
großzügig wie im ersten Fall, und Fritz gehöre der BMW diesmal<br />
nicht. 40 Meine Meinung, daß einer meiner Studenten einen BMW be-<br />
40 Auf juristische Unterscheidungen zwischen Besitz und Eigentum möchte<br />
ich hier verzichten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 101<br />
sitzt, sei aber trotzdem richtig, da der Student Franz, der nur zu bescheiden<br />
ist, um damit zur Uni zu fahren und über den ich nichts weiter<br />
weiß, „heimlich“ einen BMW sein eigen nennt. Damit erfüllt auch die<br />
Meinung (*) die Platonische Wissensbedingung, die wir jedoch abermals<br />
nicht als Wissen einstufen würden, denn daß diese Meinung wahr ist,<br />
verdanke ich nur einem glücklichen Zufall. Harman (1973, 47) schlägt<br />
angesichts derartiger Beispiele als weitere Wissensbedingung vor, die betreffende<br />
Meinung solle nicht wesentlich auf einer falschen Annahme<br />
beruhen:<br />
No False Conclusions<br />
Reasoning that essentially involves false conclusions, intermediate or<br />
final, cannot give one knowledge.<br />
In meinem Beispiel wird deutlich, daß die betreffende Meinung (*) sich<br />
auf die falsche Annahme gründet, daß Fritz einen BMW besitzt. Die<br />
Harmansche Bedingung kann in diesem Beispiel also eine natürliche Erklärung<br />
anbieten, warum es sich bei (*) nicht um Wissen handelt. So<br />
weit so gut. Leider sind nicht alle Gettier Beispiele von dieser Art. Schon<br />
in dem in Kapitel (I.A) angegebenen Fall ist es nicht so klar, auf welche<br />
falsche Annahme meine Überzeugung, daß ein bestimmter Student einen<br />
BMW besitzt, tatsächlich wesentlich angewiesen ist. Hängt sie etwa wesentlich<br />
davon ab, daß der Student selber weiß, daß er einen BMW hat<br />
und daß er mich nicht täuschen will? Die Schilderung des Beispiels erzwingt<br />
diesen Zusammenhang keineswegs.<br />
Noch schwieriger wird es für Harman in anderen Fällen, wo es sehr<br />
künstlich erscheint, überhaupt noch von Räsonment oder Inferenzen zu<br />
reden, in deren Verlauf man sich auf falsche Annahmen stützt. Denken<br />
wir uns den Fall, in dem jemand – nennen wir ihn Hans – auf ein Bild<br />
der Person X hinter einem Fenster schaut, aber denkt, er sieht X durch<br />
das Fenster. Ein Spaßvogel hat ein Bild von X hinter dem Fenster angebracht,<br />
um Hans an der Nase herumzuführen. Hans schaut nun in das<br />
Fenster und glaubt X stünde vor ihm. Tatsächlich steht X zufällig in diesem<br />
Moment wirklich hinter seinem Bild hinter dem Fenster, nur daß<br />
Hans ihn nicht sehen kann. Man kann nun kaum behaupten, Hans<br />
wüßte, daß X vor seinem Fenster steht, denn dieses Zusammentreffen ist<br />
höchst zufällig. Trotzdem erfüllt auch diese Meinung von Hans die Platonischen<br />
Wissensbedingungen, denn das Vorsichsehen einer Person,<br />
muß man wohl als guten Grund für die Meinung, daß diese Person tatsächlich<br />
vor uns steht, betrachten. Da die Meinung sehr unwillkürlich in<br />
Hans durch seine Wahrnehmung hervorgerufen wurde, erscheint es ge-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 102<br />
zwungen, diesen Wahrnehmungsvorgang als eine Form von Ableitung zu<br />
rekonstruieren, in der falsche Annahmen auftreten. Das muß Harman jedoch<br />
tun, will er derartige Beispiele innerhalb seiner Wissensanalyse abweisen.<br />
Weit natürlicher ist da schon die Antwort der sogenannten Reliabilisten<br />
(vom englischen „reliable“), die mit einigem Vorsprung die Hauptgruppe<br />
der Externalisten stellen. Das Problem, das ihrer Ansicht nach<br />
alle genannten Gettier Beispiele kennzeichnet, ist, daß der (kausale) Prozeß,<br />
der zu der betreffenden Überzeugung geführt hat, kein zuverlässiger<br />
Vorgang war, um wahre Meinungen zu produzieren. Hätte Franz nicht<br />
heimlich einen BMW besessen oder hätte X nicht zufällig vor dem Fenster<br />
gestanden, wären trotzdem die betreffenden Überzeugungen entstanden,<br />
dann aber falsch gewesen. Ihre Wahrheit war somit nur ein besonderer<br />
Zufall der ganz speziellen Umstände des Beispiels. Normalerweise<br />
würden wir dagegen in entsprechenden Situationen zu falschen<br />
Meinungen gelangen. Der ganze Vorgang der Überzeugungsbildung hat<br />
also nur glücklicherweise zu einer wahren Meinung geführt und ist damit<br />
keineswegs ein „zuverlässiger Prozeß“ der Überzeugungsbildung.<br />
Das macht ihn ungeeignet, Wissen zu begründen. Die Reliabilisten fordern<br />
als Konsequenz dieser Analyse die neue Wissensbedingung, daß der<br />
Prozeß der Überzeugungsbildung zuverlässig sein muß. Das macht in ihren<br />
Augen oft sogar die Forderung nach einer Begründung der Meinung<br />
im herkömmlichen Sinn in der Wissensdefinition überflüssig. Diese<br />
Überlegungen waren in verschiedenen Varianten der Ursprung externalistischer<br />
Theorien des Wissens. 41<br />
b) Was heißt „zuverlässige Überzeugungsbildung“?<br />
Ehe ich die Positionen der Reliabilisten weiter diskutieren kann, muß ich<br />
mich kurz der durchaus nicht einfachen Frage zuwenden, wie sich die<br />
zentralen Begriffe reliabilistischer Positionen explizieren lassen. Die Antworten<br />
darauf sind denn auch unterschiedlich, weisen aber zumindest in<br />
eine gemeinsame Richtung. Stellvertretend und illustrierend für viele<br />
Philosophen, die externalistische Positionen verteidigen, sollen hier die<br />
typischen Konzeptionen von zwei prominenten Vertretern, D.M. Armstrong<br />
und A.I. Goldman, zur Sprache kommen. Armstrong hat als Analogie<br />
für seine externalistische Konzeption von Rechtfertigung das Thermometer<br />
als Anzeiger bestimmter Informationen gewählt. Damit die An-<br />
41 Z. B. von Goldman (1967), Armstrong (1973), Nozick (1981), McGinn<br />
(1984) und anderen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 103<br />
gaben des Thermometers zuverlässig sind, muß es einen gesetzesartigen<br />
Zusammenhang zwischen Temperatur und der Anzeige des Thermometers<br />
geben. Ähnlich muß man sich nach Armstrong auch den Zusammenhang<br />
im Fall unserer Überzeugungen vorstellen:<br />
Er verlangt einen gesetzesartigen Zusammenhang zwischen der Meinung<br />
von S, daß p, und dem Sachverhalt, daß p, der so beschaffen<br />
ist, daß die Meinung nur auftritt, wenn der Sachverhalt auch tatsächlich<br />
vorliegt (Armstrong 1973, 166).<br />
Dagegen stellt Goldman (1979, 10; 1986, 103ff) relativ direkt auf die<br />
Zuverlässigkeit des kognitiven Prozesses ab, der zu der Überzeugung geführt<br />
hat. Für ihn ist das eine Frage der Wahrheitsquote mit der der Prozeß<br />
zu wahren Meinungen führt. 42 Das scheint mir auch der Kerngedanke<br />
des Reliabilismus zu sein, auf den letztlich alle anderen Spielarten in<br />
irgendeiner Weise zurückgreifen sollten. Weshalb das so ist, kann ich<br />
hier nur andeuten. Denken wir etwa an kausale oder gesetzesartige Varianten<br />
wie die von Armstrong, so haben die alle mit einem Problem zu<br />
kämpfen: Die Redeweise von Naturgesetzen oder Kausalität wird kaum<br />
verständlicher oder leichter explizierbar sein als die von Wahrheitsquoten.<br />
Für die Frage nach der Gesetzesartigkeit zeigen das die Diskussionen<br />
um Goodmans „grue“-Paradox, für die Kausalität werde ich das<br />
selbst in Kapitel (VIII.D.2) ausführen. Beide Varianten stellen bestenfalls<br />
Spezialfälle des Wahrheitsquoten-Ansatzes dar, die sich zudem nur<br />
schwer auf Fälle mathematischen Wissens oder Wissens um allgemeine<br />
Zusammenhänge ausdehnen lassen. Deshalb werde ich mich direkt den<br />
Erfolgsaussichten der Wahrheitsquotenkonzeption zuwenden.<br />
Sie hat zunächst zwei Dinge genauer anzugeben, nämlich wie man<br />
den Prozeß zu beschreiben hat, der zuverlässig sein sollte, und für welche<br />
Situationen wir diese Zuverlässigkeit von ihm erwarten können. Zunächst<br />
zur Beschreibung, unter der ein Prozeß betrachtet wird, bzw. der<br />
Auswahl eines Prozeßtyps. Es geht natürlich nicht nur darum, ob das<br />
konkrete Ereignis der Meinungsbildung ein wahres oder falsches Resultat<br />
ergeben hat, sondern, ob es zu einem Typ von Vorgang gehört, der<br />
im allgemeinen vertrauenswürdig ist. Hier liegt eine Gefahr der Trivialisierung<br />
des ganzen Ansatzes. Hat eine Meinungsbildung zu einer falschen<br />
Meinung geführt, waren dafür ganz bestimmte Faktoren verant-<br />
42 Eine ausführliche und kritische Diskussion der verschiedenen Ausgestaltungen<br />
des Reliabilismus durch Goldman gibt Haack (1993,139ff).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 104<br />
wortlich, 43 von denen wir sagen könnten, daß sie einen unzuverlässigen<br />
Prozeßtyp charakterisieren. Jedenfalls sind wohl alle Meinungsbildungen,<br />
an denen sie in entsprechender Weise beteiligt sind, unzuverlässig.<br />
Als zuverlässig würden dann nur noch Prozesse gelten, in denen keine<br />
derartigen Faktoren mehr zu finden sind. Doch das heißt schlicht, daß<br />
nur noch solche Prozesse als zuverlässig gelten dürfen, die tatsächlich zu<br />
wahren Meinungen führen. Das erscheint überzogen und liefe auch der<br />
Idee des Reliabilismus zuwider. Reliabilisten verlangen nicht nach wahrheitsgarantierenden<br />
Prozessen – welche sollten das auch sein? –, sondern<br />
nur nach im allgemeinen tatsächlich zuverlässigen.<br />
Pollock (1986, 114ff) verdeutlicht das Problem von der Seite realistischer<br />
Bedingungen her: Kein Prozeß von Überzeugungsbildung ist per se<br />
und unter allen Umständen zuverlässig. Prozesse, die wir normalerweise<br />
für zuverlässig halten, wie solche, die auf Sinneswahrnehmungen visueller<br />
Art beruhen, sind es nur unter bestimmten Lichtverhältnissen wenn<br />
wir keine Drogen konsumiert haben und die skeptischen Hypothesen<br />
falsch sind. D.h., wir werden dabei nicht von einem Cartesischen Dämon<br />
hinters Licht geführt und unser visueller Kortex wird nicht von einem<br />
Computer in der Hand eines bösen Wissenschaftlers stimuliert, sondern<br />
auf die „normale“ Weise. Der Reliabilist steht vor der Aufgabe, den<br />
Situationstypus so spezifisch zu beschreiben, daß klar wird, wieso ein<br />
entsprechender Vorgang der Sinneswahrnehmung zuverlässig ist, aber<br />
nicht so spezifisch, daß nur noch die eine in Frage stehende Sinneswahrnehmung<br />
darunter fällt. Außerdem wird jeder realistische Prozeßtyp,<br />
den wir nennen können, immer auch Fälle beinhalten, in denen er zu<br />
falschen Meinungen führen kann. Hier drohen natürlich gleich wieder<br />
Gettier Beispiele.<br />
Als weiteres Erschwernis kommt hinzu, daß auch das Umgekehrte<br />
gilt: Prozesse, die wir normalerweise als lächerlich betrachten, können<br />
in bestimmten Situationen durchaus sinnvoll sein. Wittgensteins Beispiel,<br />
daß man sich nicht zum zweitenmal dieselbe Zeitung kauft, um das zu<br />
überprüfen, was in der ersten steht, erscheint uns normalerweise als<br />
selbstverständlich. Aber es gibt Umstände, unter denen das ein recht zuverlässiges<br />
Prüfverfahren ist. Ein in manchen Krimis beliebter Trick ist<br />
es, in einzelne Ausgaben einer Zeitung getürkte Artikel einzufügen, etwa<br />
um einem Agenten vorübergehend eine glaubwürdige Fassade zu verpassen.<br />
Das würde aber sofort auffallen, wenn man sich am nächsten Zeitungsstand<br />
eine anderes Exemplar derselben Zeitung kaufen würde, um<br />
43 Dem sollten jedenfalls die Reliabilisten zustimmen, die sich den Prozeß<br />
als einen determinierten Kausalvorgang denken.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 105<br />
damit die Meldung zu überprüfen. Selbst für dieses scheinbar absurde<br />
Verfahren gibt es also durchaus geeignete Anwendungsbedingungen. In<br />
diesem Beispiel wird die starke Situationsabhängigkeit dieser Verfahren<br />
deutlich. Wieviel davon soll in die Auszeichnung eines Prozeßtyps eingehen?<br />
Um der trivialen und uninformativen Charakterisierung von zuverlässigen<br />
Prozessen als denen, die immer nur zu wahren Meinungen führen<br />
oder solchen, die alle Eigenschaften eines einzelnen konkreten Prozesses<br />
aufweisen, zu entkommen, sind wir gezwungen, von epistemisch<br />
ähnlichen Prozessen zu sprechen. Wie bestimme ich aber, was als epistemisch<br />
ähnlich zu gelten hat? Ist in unserem Gettier Beispiel das durch<br />
ein Fenster schauen ein unzuverlässiges Verfahren oder das durch ein<br />
Fenster schauen mit einem Bild davor oder das durch das Fenster schauen<br />
mit einem Bild einer bestimmten Person davor...? Es ist schwer, einen<br />
Typ von Überzeugungsbildung in nicht willkürlicher Weise so zu charakterisieren,<br />
daß „unzuverlässiger Prozeß“ nicht einfach bedeuten soll, die<br />
entstandene Überzeugung sei falsch und zuverlässige Prozesse gerade die<br />
wahrheitsgarantierenden sind.<br />
Dazu ist zu bedenken, wie stark die Umstände variieren dürfen, unter<br />
denen unser Prozeß eine hohe Wahrheitsquote haben soll. Dürfen<br />
wir dabei nur an unsere tatsächliche Welt denken? Das scheint eine zu<br />
strenge Anforderung zu sein – jedenfalls wenn wir auch nach einer<br />
Theorie der Rechtfertigung suchen, was für Goldman der Fall ist. So gesteht<br />
er zum Beispiel zu, daß wir auch in den Fällen, in denen wir nur<br />
Gehirne im Topf eines geschickten Neurochirurgen sind, der unsere<br />
Welt durch einen Computer simulieren läßt, in unseren Meinungen intuitiv<br />
gerechtfertigt sind. Und das, obwohl sie in diesem unangenehmen<br />
Fall kaum Zuverlässigkeit im Sinne hoher Wahrheitsquoten beanspruchen<br />
dürfen. Wären wir also in der bedauerlichen Lage der Gehirne im<br />
Topf, würde Goldmans Theorie – zumindest für Rechtfertigungen – zu<br />
antiintuitiven Ergebnissen führen. Goldman (1986, 106f) fordert daher,<br />
daß der Prozeß in „normalen Welten“ zuverlässig sei. D.h. in Welten<br />
(oder in Situationen), in denen unsere allgemeinen Überzeugungen über<br />
die üblichen Gegenstände und Ereignisse in unserer Welt wahr sind. Damit<br />
nähert er sich allerdings bereits wieder internalistischen Positionen,<br />
denn die Wahrheitsquote eines Prozesses wird nicht nach rein objektiven<br />
Merkmalen beurteilt, sondern wesentlich anhand unserer internen und<br />
damit subjektiven Vorstellung davon, was eine normale Welt ist. Andererseits<br />
verlangt Goldmans Ansatz auch zu wenig, doch davon später<br />
mehr.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 106<br />
Es verbleibt damit zunächst ein wichtiges, noch nicht gelöstes Desiderat<br />
reliabilistischer Ansätze, eine brauchbare Explikation für „zuverlässiges<br />
Verfahren“ anzugeben, weil ohne eine solche der ganze Ansatz<br />
unterbestimmt ist. Das könnte eine weitergehende Analyse der verschiedenen<br />
externalistischen Vorschläge noch besser demonstrieren, aber ich<br />
möchte nicht zu lange auf diesem Punkt herumreiten und nehme im folgenden<br />
zugunsten der Externalisten an, wir hätten schon eine brauchbare<br />
Explikation von „zuverlässig“. Um zu erfahren, ob sich der Aufwand,<br />
nach einer Explikation zu suchen, auch lohnen würde, frage ich zunächst:<br />
Was hätte der Externalist damit gewonnen?<br />
c) Eine Antwort auf den Skeptiker?<br />
Die Reliabilisten möchten natürlich eine Antwort auf den radikalen<br />
Skeptiker geben, der uns fragt, wie denn Wissen überhaupt möglich ist.<br />
Skeptische Hypothesen wie die Cartesischen, wonach wir alles nur träumen<br />
könnten oder ein böser Dämon uns in die Irre führt, oder auch modernere<br />
Versionen davon, scheinen die Möglichkeit von Wissen zu bedrohen.<br />
Solange wir keinen Weg finden, dergleichen alternative Erklärungen<br />
für unsere Wahrnehmungen zurückzuweisen, oder sie wenigstens<br />
als in irgendeiner Weise minderwertig gegenüber unseren gewöhnlichen<br />
Ansichten über unsere Wahrnehmungen auszuweisen, bleibt nach Ansicht<br />
des Skeptikers unklar, wie wir überhaupt zu Wissen gelangen können.<br />
Die Reliabilisten haben darauf eine recht einfache Erwiderung anzubieten.<br />
Man betrachte die folgenden zwei Möglichkeiten:<br />
1. Eine der skeptischen Hypothesen trifft auf uns zu. Dann sind unsere<br />
Vorstellungen über die Außenwelt reine Chimären, und wir haben<br />
kein Wissen über sie.<br />
2. Die üblichen realistischen Auffassungen von unserer Stellung in<br />
der Welt sind zumindest zum Teil wahr. Dann sind wenigstens einige<br />
unserer Ansichten über die Außenwelt wahr und auf zuverlässige<br />
Weise entstanden.<br />
Der zweite Fall reicht in der externalistischen Sichtweise bereits dafür<br />
aus, daß jedenfalls einige unserer Meinungen über unsere Umwelt Wissen<br />
darstellen. Allerdings wissen wir nicht, welche der beiden Möglichkeiten<br />
auf uns zutrifft, und können nicht einmal Gründe für den einen<br />
oder anderen Fall nennen. Für einen Externalisten ist das aber für Wissen<br />
auch nicht erforderlich, denn es genügt, daß geeignete Beziehungen<br />
zur Welt bestehen, unabhängig von unseren Kenntnissen darüber. Die
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 107<br />
Möglichkeit von Wissen ist damit für ihn nachgewiesen. Ob wir tatsächlich<br />
Wissen haben oder nicht, ist dann „nur noch“ eine Tatsachenfrage<br />
danach, welche der beiden Möglichkeiten vorliegt.<br />
Wir alle können wohl deutlich das Unbehagen verspüren, das bei<br />
dieser Erwiderung auf den Skeptiker zurückbleibt, so gern wir auch<br />
nach Widerlegungen des Skeptizismus greifen würden. Man gewinnt<br />
nicht den Eindruck, der Skeptizismus sei mit dieser Entgegnung wirklich<br />
aus dem Felde geschlagen. Es ist allerdings nicht ganz einfach, dieses Unbehagen<br />
zu präzisieren. Ein Versuch sieht folgendermaßen aus: Der<br />
Skeptiker könnte sagen, er habe danach, ob unsere Überzeugungen auf<br />
zuverlässige Weise entstanden sein könnten, nicht gefragt, sondern danach,<br />
welche Anzeichen wir dafür besitzen. Seine Frage ist aus der Perspektive<br />
der ersten-Person gestellt, und er erwartet eine entsprechende<br />
Antwort. Die Antwort des Externalisten ist aber aus einer dritten-Person<br />
Perspektive gegeben und beantwortet deswegen nicht die ursprüngliche<br />
Frage, sondern eher die Frage, über welche Indizien ein idealer Beobachter,<br />
der alles über den Vorgang der Überzeugungsbildung weiß – bis auf<br />
den Punkt, ob die gebildete Überzeugung wahr sei –, für die Annahme<br />
verfügen könnte, daß die Überzeugung wahr sei. Der Externalist könnte<br />
natürlich erwidern, die Ausgangsfrage sei eben in gewisser Weise falsch<br />
gestellt gewesen, wenn wir aber schlicht nach der Möglichkeit von Wissen<br />
fragen, hätte er die richtige Antwort gegeben. Doch auch dabei bleiben<br />
eine Reihe von Fragen offen. Erstens ist damit nicht wirklich geklärt,<br />
warum die Frage des klassischen Skeptikers unzulässig sein sollte.<br />
Er könnte sie erneut formulieren als die Frage, welche Anhaltspunkte<br />
wir tatsächlich für unsere Annahme besitzen, in einer Welt mit zuverlässiger<br />
Überzeugungsbildung zu leben. Das scheint weiterhin eine uns<br />
brennend interessierende erkenntnistheoretische Frage zu sein, die<br />
durchaus verständlich und berechtigt ist, selbst wenn wir uns dem Externalisten<br />
anschließen würden, daß ihre Beantwortung für „Wissen“ nicht<br />
erforderlich ist.<br />
Zweitens muß der Externalist mit seiner Wissensanalyse noch eine<br />
andere bittere Pille schlucken. Der Skeptiker kann seine ursprüngliche<br />
Frage nicht nur auf einer höheren Ebene in interessanter Weise wiederholen,<br />
sondern er kann auch auf interne Seltsamkeiten der reliabilistischen<br />
Wissenstheorie hinweisen. Wissen im Sinne des Reliabilisten ist<br />
z. B. nicht abgeschlossen unter bekannter, logischer Implikation.<br />
Prinzip der logischen Abgeschlossenheit<br />
Wenn S weiß, daß p, und weiß, daß q aus p logisch folgt, so weiß<br />
er, daß q.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 108<br />
Dieses Prinzip der logischen Abgeschlossenheit unseres Wissen wirkt<br />
sehr plausibel. Wenn selbst logische Schlüsse nicht von Wissen wieder zu<br />
Wissen führen, wird Wissen ein höchst instabiles Gut (s. dazu Williams<br />
1991, Kap.8). Akzeptiert der Reliabilist allerdings das Prinzip der logischen<br />
Abgeschlossenheit, gerät er sogleich wieder in direkten Konflikt<br />
mit den skeptischen Hypothesen. Aus meiner Überzeugung, an meinem<br />
Schreibtisch zu sitzen und auf meinen neuen „Notebook“ zu schauen,<br />
folgt deduktiv – oder vorsichtiger ausgedrückt – analytisch die Überzeugung,<br />
daß ich kein Gehirn in einem Topf bin. Diese Schlußfolgerung war<br />
auch nicht so versteckt, daß sie mir verborgen geblieben wäre. Wenn also<br />
meine zuerst genannte Beobachtungsüberzeugung auf reliabilistische<br />
Weise Wissen ist – und das nehme ich einmal an –, so dürfte ich auch<br />
schließen, alle radikalen skeptischen Hypothesen seien falsch. Mit dem<br />
Abgeschlossenheitsprinzip könnte ich dann sogar weiter schließen: Ich<br />
weiß, daß die skeptischen Hypothesen falsch sind. Das erscheint nun<br />
aber deshalb nicht überzeugend, weil ich in der beschriebenen Situation<br />
nichts Substantielles gegen die skeptischen Hypothesen vorgebracht habe.<br />
So weit, in der geschilderten Situation tatsächlich behaupten zu dürfen,<br />
zu wissen, daß die skeptischen Hypothesen falsch sind, möchten Reliabilisten<br />
im Allgemeinen auch nicht gehen. Sie versuchen diesen Punkt<br />
mit ihrer Theorie zu umgehen und nicht direkt auf den Skeptiker zu antworten.<br />
Daher lehnen einige von ihnen, wie Nozick und Dretske, das<br />
Abgeschlossenheitsprinzip explizit ab. Wie sich das rechtfertigen läßt,<br />
möchte ich nicht weiter verfolgen, zumal mein Hauptgeschäft schließlich<br />
nicht eine Theorie des Wissens, sondern eine Theorie der Rechtfertigung<br />
ist.<br />
Eine weitere seltsame Konsequenz reliabilistischer Theorien des Wissens<br />
möchte ich aber noch andeuten. Insbesondere für Beobachtungsüberzeugungen<br />
erscheinen uns kausale Zuverlässigkeitstheorien noch<br />
recht einsichtig. Sie stellen geradezu das paradigmatische Anwendungsgebiet<br />
der reliabilistischen Wissenstheorie dar, anhand derer wir diese<br />
Theorie überhaupt anfänglich akzeptieren. Gerade für Beobachtungsüberzeugungen<br />
gilt, daß sie nur dann als Wissen einzustufen sind, wenn<br />
der Beobachtungsvorgang, der sie hervorgebracht hat, zuverlässig ist.<br />
Schwieriger wird es schon, für allgemeinere Teile unseres Wissens. Wie<br />
können die in einer reliabilistischen Theorie erfaßt werden? Inwiefern<br />
kann man sinnvoll davon sprechen, unsere wissenschaftlichen Theorien<br />
seien anhand eines zuverlässigen Prozesses entstanden? Das setzt zumindest<br />
voraus, daß es einen derartigen zuverlässigen Prozeß gibt, der uns<br />
auf relativ sichere Weise zu entsprechenden Theorien hinführt. Das ist
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 109<br />
aber eine keineswegs unproblematische Voraussetzung der reliabilistischen<br />
Theorie, denn die Wissenschaftsphilosophie beteuert, die Entwicklung<br />
von empirischen Theorien sei kein Prozeß, der bestimmten Regeln<br />
wie denen einer induktiven Logik gehorcht, sondern ein Vorgang, der<br />
wesentlich auf die Kreativität und Phantasie des Wissenschaftlers angewiesen<br />
ist. Die Phantasie von Wissenschaftlern wird man aber kaum als<br />
zuverlässigen Vorgang der Überzeugungsbildung für allgemeinere Hypothesen<br />
ansehen. Dazu gibt es zu viele Fehlentwicklungen, die erst nachträglich<br />
durch empirische Tests wieder ausgeschieden werden konnten.<br />
Das angesprochene Problem wird dann noch größer, wenn das Abgeschlossenheitsprinzip<br />
abgelehnt wird. Wenn wir zunächst Beobachtungsüberzeugungen<br />
reliabilistisch als Wissen auszeichnen, stehen uns dann<br />
noch nicht einmal logische Schlüsse zur Gewinnung weiteren Wissens,<br />
etwa von wissenschaftlichen Theorien, zur Verfügung. Induktive oder<br />
andere inferentielle Schlüsse sind aber noch schlechter dran als deduktive.<br />
Wie können wir dann noch hoffen, wissenschaftliche Theorien als<br />
Wissen zu erweisen?<br />
d) Ein nicht-kognitiver Wissensbegriff?<br />
Die vorherigen Überlegungen führen uns unter anderem vor Augen, daß<br />
eine Wissensdefinition, die sich nur auf externalistische Bedingungen<br />
stützt und keine inferentielle Rechtfertigung einer Meinung mehr benötigt,<br />
nicht zu unserer üblichen Konzeption von „kognitivem Wissen“<br />
paßt. Lehrer (1990, 163) zeigt, wie sich die bekanntesten reliabilistischen<br />
Konzeptionen alle nach dem Thermometerbeispiel verstehen lassen.<br />
Wissenserwerb wird dabei in Analogie zur unbewußten Informationsverarbeitung<br />
eines zuverlässigen Meßgeräts gesehen. Hier ist natürlich<br />
wiederum (vgl. II.C.2) zwischen syntaktischer und semantischer Information<br />
in einem anspruchsvolleren Sinn zu unterscheiden. Ein Thermometer<br />
besitzt nur die erstere. Lehrer (1990, 163f) erläutert anhand<br />
eines Gedankenexperiments, daß wir kognitiv unzugängliche, kausale<br />
Prozesse, auch wenn sie beim Menschen ablaufen und zuverlässige Informationen<br />
(im syntaktischen Sinn) liefern, im üblichen Sinn nicht als Wissenserwerb<br />
betrachten.<br />
Nehmen wir an, Herrn Truetemp wird ein Temperatursensor in sein<br />
Gehirn implantiert, der bei ihm korrekte Temperaturüberzeugungen verursacht.<br />
Truetemp denkt z. B.: „Es sind jetzt 23,4 C.“ Er weiß jedoch<br />
nichts über diesen Sensor und macht sich auch keine weiteren Gedanken<br />
über seine Temperaturüberzeugungen und weiß noch nicht einmal, daß<br />
sie immer wahr sind. Seine völlige Ignoranz gegenüber dem Zustande-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 110<br />
kommen seiner Temperaturüberzeugungen hindert uns daran zu sagen,<br />
er wüßte, daß es gerade 23,4 C sind. Diese Überzeugung hat für ihn zunächst<br />
denselben Status wie jede andere zufällige, spontan auftretende<br />
Meinung, wie etwa, daß übermorgen das Ende der Welt sein könnte, deren<br />
Herkunft sich Herr Truetemp nicht erklären kann. Selbst wenn diese<br />
Meinungen wahr sind und durch einen uns unbekannten, aber zuverlässigen<br />
Mechanismus hervorgerufen werden, bezeichnen wir sie nicht als<br />
Wissen, sondern eher als ungewisse Ahnungen. Zu unserem gebräuchlichen<br />
und anspruchsvolleren Wissensbegriff gehört es, eingehende Informationen<br />
auf ihre Zuverlässigkeit hin vor unserem Hintergrundwissen<br />
zu beurteilen, und das sogar in dem Fall (s.a. IV.B), daß es sich um Informationen<br />
unserer Sinne handelt.<br />
Um den Zusammenhang zwischen Wissen und der Bewertung eingehender<br />
Informationen anschaulich zu machen, kann eine Analogie behilflich<br />
sein: Wenn mir jemand etwas erzählt oder ich etwas in einer Zeitung<br />
lese, werde ich – und das erscheint uns für Wissen unvermeidlich<br />
zu sein – mich nur dann darauf verlassen, wenn ich Grund habe anzunehmen,<br />
es handele sich dabei um einen vertrauenswürdigen Informanten<br />
oder eine seriöse Zeitung. Wir glauben vielleicht, daß Fritz, wenn es<br />
um die Qualitäten seiner neuen Freundin, seines Lieblingsfußballers<br />
oder seinem neuen Auto geht, zu Beschönigungen und Übertreibungen<br />
neigt. Dann haben wir guten Grund anzunehmen, wir wüßten nicht<br />
wirklich, daß die drei Dinge so hervorragend sind, wie Fritz es behauptet.<br />
In diesem Fall verhilft es uns auch nicht zu Wissen, wenn Fritz tatsächlich<br />
ein völlig objektiv Urteilender für die besagten Dinge ist (also<br />
ein „zuverlässiges Meßgerät“ für die fraglichen Eigenschaften darstellt)<br />
und alle seine Behauptungen, die wir für Schwärmereien hielten, vollkommen<br />
zutreffend sind. Unsere Hintergrundannahmen über Fritz entwerten<br />
die Behauptungen von Fritz für uns, selbst wenn diese Hintergrundannahmen<br />
falsch sind.<br />
Es gibt keinen guten Grund, mit den Informationen, die wir aus unseren<br />
Sinnen erhalten, anders zu verfahren. Analog zu der Einschätzung<br />
von Behauptungen anderer sollten wir auch unsere eigenen Annahmen<br />
und Beobachtungsüberzeugungen (kritisch) vor dem Tribunal unserer<br />
Hintergrundannahmen einschätzen, wenn es uns um Wissen geht. Zunächst<br />
ist auch hier nicht entscheidend, wie zuverlässig sie unbekannterweise<br />
für uns tatsächlich sind, sondern nur für wie zuverlässig wir sie halten.<br />
Um das zu illustrieren, hat Lehrer (1988, 335) ein phantasievolles<br />
Beispiel anzubieten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 111<br />
Die Künstlerin Dorothy Levine fertigt aus Keramik täuschend echte<br />
Imitationen von Handtaschen an. Ein Herr Trust, der um diese Spezialität<br />
der Künstlerin weiß, sieht nun im Vorzimmer von Frau Levine,<br />
eine Handtasche stehen. Da es der Künstlerin ähnlich sieht,<br />
auch ihre Gäste mit Handtaschenimitaten an der Nase herumführen<br />
zu wollen, kann Herr Trust seinen Sinneswahrnehmungen nicht vertrauen<br />
und nicht wissen, daß es sich um eine echte Handtasche handelt<br />
– auch wenn es sich tatsächlich um eine echte Handtasche handelt.<br />
Die Unwissenheit des Herrn Trust hat auch in dem Fall Bestand, wenn<br />
er seinen Sinnen normalerweise traut, es auch in diesem Fall tut und sich<br />
der Meinung nicht entziehen kann, daß eine Handtasche vor ihm steht.<br />
Er hat für Wissen sein Hintergrundwissen um die Späße der Frau Levine<br />
zu berücksichtigen, die weitere Tests, etwa anfassen und hochheben der<br />
Handtasche, erfordern. Doch gerade diese erkenntnistheoretisch so entscheidende<br />
Bewertung unserer Beobachtungsüberzeugungen durch unser<br />
Hintergrundwissen kann der Reliabilist innerhalb seiner Konzeption<br />
nicht berücksichtigen, denn sie ist auf der Ebene der inferentiellen Beziehungen<br />
unserer Meinungen angesiedelt und nicht auf der der kausalen<br />
Zusammenhänge, von der der Reliabilist spricht.<br />
Externalisten können durch kognitive Zusatzbedingungen oder<br />
Mischformen von externalistischen und internalistischen Elementen versuchen<br />
derartige Beispiele abzufangen. Aber eigentlich verschleiern sie<br />
damit höchstens die grundsätzliche Bedeutung der kognitiven Einschätzung<br />
eingehender Informationen für Wissen und kommen im allgemeinen<br />
dem Internalisten dabei bereits entgegen. Einen solchen Fall, den<br />
„Indikator Reliabilisten“ Marshall Swain, werde ich in Abschnitt<br />
(III.A.2.b) noch vorstellen.<br />
Lehrer hat für diese Form der Einschätzung von eingehenden Informationen<br />
das Schlagwort geprägt: Wissen sei Metawissen. Externalistische<br />
Wissensdefinitionen beschreiben hingegen eher nicht-kognitive Informationsverarbeitung<br />
und knüpfen damit nicht an unseren gewöhnlichen<br />
Wissensbegriff an. Da sie aber im Trend naturalistischer Ansätze<br />
liegen, schließlich wird hier Wissen als eine natürliche Beziehung zwischen<br />
bestimmten Überzeugungen und Tatsachen in der Welt definiert,<br />
wirken sie attraktiv, auch wenn dafür der Wissensbegriff etwas verbogen<br />
werden muß.<br />
Einige Autoren (z. B. McGinn 1984) sprechen deshalb auch davon,<br />
sich nicht so sehr dem herkömmlichen Wissensbegriff zuwenden zu wollen,<br />
sondern vielmehr andere Formen von „Knowledge“ mit zu berück-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 112<br />
sichtigen. Das paßt mit dem deutschen Wissensbegriff nicht besonders<br />
gut zusammen und ist eher verständlich, wenn man bedenkt, daß der<br />
englische Begriff „Knowledge“ umfassender ist als der deutsche Wissensbegriff.<br />
44 Diese nicht-kognitive Tendenz externalistischer Epistemologie<br />
scheint noch problematischer zu sein, wenn wir uns meinem Hauptthema,<br />
den epistemischen Rechtfertigungen, zuwenden und fragen, ob es<br />
für sie ebenfalls reliabilistische Vorschläge gibt.<br />
Für den Wissensbegriff ist es selbstverständlich, daß es sich dabei um<br />
einen Begriff zumindest mit gewissen externalistischen Elementen handelt,<br />
denn für ihn ist die Wahrheitsbedingung konstitutiv, die eine externalistische<br />
Bedingung darstellt. Ob die rein reliabilistischen Wissenstheorien<br />
bei der Suche nach einer zusätzlichen vierten oder neuen dritten<br />
Wissensbedingung erfolgversprechend sind, möchte ich anhand der oben<br />
genannten Probleme dieser Theorien jedoch bezweifeln. Damit ist noch<br />
nicht gesagt, daß nicht andere externalistische Theorien und insbesondere<br />
Mischformen zwischen internalistischen und externalistischen Theorien<br />
hier die überzeugendsten Lösungen anzubieten haben. In Frage<br />
kommen z. B. die Vorschläge von Lehrer oder auch von Moser. Für Lehrer<br />
(1988) muß zur subjektiven Rechtfertigung für Wissen hinzukommen,<br />
daß sie auch objektiv Bestand hat; in seiner Terminologie: daß sie<br />
auch eine Rechtfertigung vor dem Hintergrund des „verific systems“<br />
oder des „ultra systems“ ist. Diese beiden Aussagensysteme entstehen<br />
aus unserem Meinungssystem, indem die falschen Überzeugungen entfernt<br />
und einige wahre dafür eingebracht werden. Für Moser (1991,<br />
242ff) führen solche Rechtfertigungen zu Wissen, die „truth resistant“<br />
sind, d.h. die auch dann noch Bestand haben, wenn man sie mit zusätzlichen<br />
wahren Aussagen konfrontiert.<br />
2. Externalistische Rechtfertigungen<br />
Den Abstecher zu den externalistischen Wissenstheorien möchte ich an<br />
dieser Stelle beenden und zusehen, was sich daraus für die Frage nach<br />
epistemischen Rechtfertigungen gewinnen läßt. Für sie ist es zunächst sicherlich<br />
noch unplausibler als für Wissen, daß es sich um einen externalistischen<br />
Begriff handeln könnte. Dazu möchte ich noch einmal darauf<br />
hinweisen, daß hier von Rechtfertigungen in einem allgemeineren Sinn<br />
die Rede ist und nicht nur von solchen, die zu Wissen führen. Die<br />
Sprachregelung ist in diesem Punkt alles andere als einheitlich. Lehrer<br />
44 Das mag man auch als einen Hinweis ansehen, wie abhängig von<br />
sprachlichen Eigenheiten sprachphilosophische Analysen sein können.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 113<br />
scheint z. B. meist dort von Rechtfertigung zu sprechen, wo sie im Falle,<br />
daß sie wahre Meinungen rechtfertigt, auch bereits Wissen impliziert,<br />
und für Rechtfertigungen per se wählt Lehrer eher den Ausdruck „personally<br />
justified“. 45 Für ihn ist es daher naheliegend, auch für „Rechtfertigungen“<br />
nach externen Zusatzbedingungen zu den von ihm genannten<br />
kohärentistischen internen Bedingungen zu fragen, denn für Wissen erwartet<br />
man, daß die Rechtfertigung nicht nur allgemein ein Indikator<br />
für Wahrheit ist, sondern daß auch die „richtige“ Rechtfertigung vorliegt,<br />
die tatsächlich mit der Wahrheit des Wissens in diesem Einzelfall<br />
zusammenhängt. Für diesen Zusammenhang werden daher eventuell externe<br />
Bedingungen zu formulieren sein, die wir für Rechtfertigungen im<br />
allgemeinen nicht plausibel fordern können, da Rechtfertigungen auch<br />
dann bereits vorliegen, wenn wir gute Gründe für eine Meinung haben.<br />
Selbst wenn diese Meinung schließlich doch falsch ist, bedeutet das noch<br />
nicht, sie sei nicht gerechtfertigt gewesen. Das Haben einer falschen<br />
Meinung macht uns eben noch nicht zu epistemisch fahrlässigen Personen.<br />
Ich kann es daher nicht oft genug betonen: Wir können die Intuition,<br />
daß „Wissen“ wesentlich durch externe Bedingungen bestimmt wird,<br />
nicht einfach in eine Theorie der Rechtfertigung übernehmen.<br />
Trotzdem wird häufig auch von externalistischen Rechtfertigungen<br />
gesprochen, und ich möchte zunächst einige wahrscheinliche Motive dafür<br />
nennen. Ein erstes ist das bereits genannte, daß die meisten Reliabilisten<br />
ihre Fragestellungen ganz aus der Wissensproblematik beziehen,<br />
und es dort naheliegend ist, nach zumindest zum Teil externalistischen<br />
Lösungen zu suchen. Da ich aber nach Rechtfertigungen unabhängig von<br />
einer Wissenstheorie suche, kann das für mich kein guter Grund sein,<br />
externalistische Elemente in eine Rechtfertigungstheorie aufzunehmen.<br />
a) Fragen der klassischen Erkenntnistheorie<br />
Weit interessanter ist schon die Idee, die zahlreichen in Rechtfertigungen<br />
drohenden Regresse durch externalistische Elemente stoppen zu wollen.<br />
In internalistischen inferentiellen Rechtfertigungen möchte man sich immer<br />
nur auf Aussagen stützen, die selbst wieder gerechtfertigt sind. Das<br />
führt bekanntlich in einen unendlichen Regreß oder Zirkel der Rechtfertigung<br />
(s.a. III.B.2). Den versuchen Externalisten zu stoppen, indem sie<br />
z. B. fundamentalistische Positionen vertreten, in denen die basalen<br />
Überzeugungen externalistisch gerechtfertigt sind, etwa durch Berufung<br />
45 Moser z. B. trennt diese verschiedenen Formen von Rechtfertigung<br />
strikter.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 114<br />
auf zuverlässige Wahrnehmungen. Doch dieser Versuch, den Regreß aufzuhalten,<br />
kann nur dann von Erfolg gekrönt sein, wenn wir die basalen<br />
Überzeugungen durch externalistische Zusammenhänge auch tatsächlich<br />
als intuitiv gerechtfertigt akzeptieren können. Genau das werde ich bestreiten,<br />
so daß damit die Grundintuition, die zu dem Regreß geführt<br />
hat, rechtfertigende Aussagen müßten selbst wieder gerechtfertigt sein,<br />
in den externalistischen Ansätzen nicht eingelöst werden kann.<br />
BonJour (1985, 38ff) hat sich dazu eine Reihe von Beispielen ausgedacht,<br />
die uns begreiflich machen sollen, warum reliabilistische oder andere<br />
externalistische Rechtfertigungen eigentlich keine Rechtfertigungen<br />
sind und insbesondere auch nicht für Wissen ausreichen. Um den Unterschied<br />
zwischen internalistisch und externalistisch begründeten Überzeugungen<br />
zugänglich zu machen, mußte BonJour nach Beispielen suchen,<br />
in denen wir auf zuverlässige Weise zu bestimmten Meinungen gelangen,<br />
aber selbst nichts darüber wissen. Nur in solchen Fällen ergibt sich eine<br />
wesentlich verschiedene Bewertung von externalistischer und internalistischer<br />
Seite. Da wir kaum klare Fälle dieser Art finden, sondern die<br />
meisten bestenfalls Mischformen zu sein scheinen, mußte BonJour zu etwas<br />
exotischen Beispielen greifen. Das sollte aber nicht darüber hinwegtäuschen,<br />
daß sie gut verständliche begriffliche Möglichkeiten aufzeigen,<br />
in denen die Unplausibilität der externalistischen Theorie deutlich wird<br />
und man im Prinzip analoge Beispiele aus dem Bereich unserer Wahrnehmung<br />
bilden könnte. BonJours Hauptpersonen nennen wir der Einfachheit<br />
halber Norman.<br />
Norman ist ein sehr zuverlässiger Hellseher (hier wird also eine bestimmte<br />
reliabilistische Bedingung erfüllt), aber Norman weiß nichts<br />
über seine Fähigkeit, er verfügt also nicht über eine entsprechende<br />
Einschätzung seiner auf hellseherischem Wege entstandenen Meinungen<br />
(eine internalistische Bedingung für Wissen ist also nicht erfüllt).<br />
Norman glaubt aufgrund seiner Hellseherei – diese wird als<br />
ein von ihm nicht bemerkter Vorgang betrachtet –, daß der Präsident<br />
gerade in New York ist.<br />
Man kann dieses Beispiel noch auf recht unterschiedliche Weise ausgestalten,<br />
was BonJour auch unternimmt, und sich jeweils fragen, ob man<br />
Norman das Wissen zuschreiben möchte oder eine gerechtfertigte Überzeugung,<br />
daß der Präsident in New York ist. Der für den Externalisten<br />
ungünstigste Fall ist der folgende: Norman könnte zusätzlich über gute<br />
Hinweise verfügen, daß der Präsident sich in Washington aufhält und<br />
mit der festen etwa durch wissenschaftliche Theorien gestützten Ansicht
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 115<br />
leben, daß es Phänomene wie Hellseherei nicht geben kann. Was sollte<br />
uns dann noch veranlassen, ihm das Wissen zu unterstellen, der Präsident<br />
sei in New York, wenn diese Annahme für ihn selbst keine erkennbare<br />
epistemische Stützung besitzt und ihm sogar als eine seltsame und<br />
unerklärliche Ahnung erscheinen muß, die gegen all seine begründeten<br />
Überzeugungen steht. Diese Überzeugung ist dann ein Fremdkörper in<br />
seinem Meinungssystem, dessen zuverlässige Verursachung durch Hellseherei<br />
doch wohl keine Rechtfertigung für Norman bieten kann, an dieser<br />
Meinung festzuhalten. Wenn Norman epistemisch verantwortlich<br />
verfahren wollte, müßte er diese Meinung aufgeben.<br />
Es sind aber auch andere Varianten dieses Beispiels denkbar. So z. B.,<br />
daß Norman keine weiteren Ansichten über den gegenwärtigen Aufenthaltsort<br />
des Präsidenten und keine über Hellseherei hat; oder daß er<br />
glaubt, hellsehen zu können, aber dafür keine Gründe hat usw. In all diesen<br />
Varianten scheint es uns ebenfalls kaum wirklich plausibel, von Norman<br />
zu sagen, er sei in seiner Meinung über den Präsidenten gerechtfertigt<br />
oder sie sei sogar Wissen. Seine weitgehende Ignoranz gegenüber<br />
der Entstehungsgeschichte seiner Überzeugung sowie das Fehlen jeder<br />
Einbindung der Hellseherei in den Korpus seiner Meinungen, machen<br />
ihm eine epistemische Bewertung dieser Meinung unmöglich und verhindern<br />
daher, daß sie zu Wissen im Sinne eines Lehrerschen Metawissens<br />
werden kann oder daß wir sie als begründet ansehen können. Das<br />
wurde schon frühzeitig auch von Erkenntnistheoretikern wie Chisholm<br />
in ähnlicher Weise eingeschätzt:<br />
So könnte jemand einwenden: „Die beste Rechtfertigung, die wir für<br />
eine Proposition haben, besteht doch darin, daß sie aus einer zuverlässigen<br />
Quelle stammt. Was könnte vernünftiger sein, als die Äußerungen<br />
einer solchen Quelle zu akzeptieren – sei die Quelle ein<br />
Computer, ein Sinnesorgan, oder die Wissenschaft selbst?“ Die Antwort<br />
ist natürlich, daß es durchaus vernünftig ist, einer Quelle Glauben<br />
zu schenken, vorausgesetzt man weiß, daß sie zuverlässig ist,<br />
oder man hat gute Gründe oder eine gute Evidenz zu meinen, sie sei<br />
zuverlässig. (Chisholm 1979, 98)<br />
Der Externalist kann seine Konzeption mit einer Reihe von internalistischen<br />
Zusatzbestimmungen gegen solche Fälle Schritt für Schritt abzusichern<br />
suchen. 46 Doch abgesehen von einer gewissen Willkürlichkeit in<br />
der Wahl dieser Zusatzbedingungen, die den ad hoc Charakter dieser<br />
Modifikationen offenbaren, bleibt immer die grundlegende Frage zu-<br />
46 Goldman (1979) geht z. B. so vor.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 116<br />
rück: Was trägt die externe Bedingung zur Rechtfertigung der Überzeugung<br />
überhaupt bei?<br />
Die im Kapitel (II.C.1) als grundlegend angesehene Relativierung<br />
von Rechtfertigungen auf ein bestimmtes Aussagensystem oder einen<br />
entsprechenden epistemischen Zustand paßt mit reliabilistischen Bedingungen<br />
in keiner Weise zusammen, weil diese nicht auf die inferentiellen<br />
Zusammenhänge zum Hintergrundwissen des epistemischen Subjekts abstellen.<br />
Eine reliabilistische Rechtfertigung hat demnach ein anderes<br />
Thema als die internalistische. Sie fragt nicht mehr danach, was ich tatsächlich<br />
für Gründe für eine meiner Meinungen habe und welche anderen<br />
Meinungen ich für sie anführen kann, sondern danach, welche Zusammenhänge<br />
zwischen dieser Meinung und bestimmten Tatsachen in<br />
der Welt objektiv bestehen. Definitionsgemäß bietet sie auch keine Antwort<br />
mehr auf die klassische erkenntnistheoretische Frage: Was soll ich<br />
glauben? Der Externalist tut häufig so, als ob er sich den klassischen erkenntnistheoretischen<br />
Fragen zuwenden würde, aber wenn wir ihn so<br />
interpretieren, macht er sich einer Themaverfehlung schuldig.<br />
b) Eine externalistisch-internalistische Mischform<br />
Um den antiintuitiven Konsequenzen eines reinen Externalismus zu entgehen<br />
und trotzdem die Idee von externalistischen Elementen in Rechtfertigungen<br />
nicht vollständig aufzugeben, wurden die gemischt externalistisch/internalistischen<br />
Rechtfertigungskonzeptionen vorgeschlagen. So<br />
hat Marshall Swain in (1981) ein Rechtfertigungsverfahren konzipiert,<br />
das eine solche Mischform darstellt und wirft BonJour (in Swain 1989)<br />
vor, dessen Beispiele gegen Externalisten träfen jedenfalls nicht seine<br />
Rechtfertigungstheorie. In Swains Theorie, die man als „Reliabilitätsindikatortheorie“<br />
bezeichnen kann, besteht eine Rechtfertigung aus zwei<br />
Aspekten. Zum einen einer tatsächlich zuverlässigen Überzeugungsbildung<br />
und zum anderen einem für das epistemische Subjekt kognitiv zugänglichen<br />
Indikator für diese Zuverlässigkeit, die in unseren Meinungen<br />
über die Entstehung dieser Überzeugung auch in irgendeiner Weise repräsentiert<br />
ist.<br />
A belief is justified provided it is more likely to be true, given the<br />
reasons upon which the belief is based and relevant characteristics of<br />
the believer, than any competitor of the belief. The likelihood in<br />
question is objective, or external, and the characteristics of the believer<br />
which condition it need not be known to the believer. (Swain<br />
1989, 119)
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 117<br />
Auch wenn mit dieser Theorie, weil sie internalistische Elemente beinhaltet,<br />
zunächst BonJours Norman Beispiel ebenfalls als Fall von Nichtwissen<br />
zurückgewiesen werden kann, ist damit noch nicht entschieden,<br />
ob sie einen wesentlichen Fortschritt gegenüber den rein externalistischen<br />
oder internalistischen Konzeptionen verkörpert. BonJour (1989,<br />
279) gelingt es nachzuweisen, daß sich sein Norman Beispiel mit leichten<br />
Modifikationen auch gegen Swains Theorie richten läßt.<br />
Um nun nicht in einem Disput mit immer komplexeren Gegenbeispielen<br />
und subtileren Ausschlußbedingungen zu versinken, möchte ich<br />
lieber darauf eingehen, warum Swain überhaupt annimmt, man müsse<br />
statt einer internalistischen Rechtfertigungstheorie etwa à la BonJour zu<br />
einer Mischform übergehen. Dazu Swain selbst:<br />
Part of the answer is: Consider the alternative! The alternative is to<br />
require for justified belief the accessibility of virtually everything relevant<br />
to one’s justification, the view which BonJour seems to accept<br />
in his book. (Swain 1989, 120)<br />
Swain hält den Internalismus also für unrealistisch, weil er zu viel von<br />
den epistemischen Subjekten verlange und möchte die externalistischen<br />
Komponenten nutzen, um defizitäre interne Rechtfertigungen zu vollwertigen<br />
aufzuwerten. BonJour (1989, 280) stellt dazu als erstes die<br />
knifflige Frage, wie defizitär Rechtfertigungen denn auf der internalistischen<br />
Ebene sein dürfen, um durch externe Elemente noch gerettet werden<br />
zu können? Aber auch wenn es Swain gelänge, diese völlige Vagheit<br />
seiner Grundidee in nicht willkürlicher Weise zu überwinden, kehrt wieder<br />
das Problem zurück, daß gerade die externalistischen Elemente zur<br />
Beantwortung der grundlegende Frage „Was soll ich glauben?“ nichts<br />
beizutragen haben. Sie erscheinen daher als ungeeignetes Mittel, um Defizite<br />
in Rechtfertigungen zu beheben. Wenn meine Rechtfertigung einer<br />
Meinung Defizite aufweist, kann ich nicht erwidern, ob sie wirklich defizitär<br />
ist oder nicht, werden wir vielleicht nie entscheiden können, denn<br />
dazu müßten wir erst alle Tatsachenzusammenhänge zwischen meinen<br />
Überzeugungen und der Welt kennen. Solange ich diese Zusammenhänge<br />
nicht in irgendeiner Form angeben oder auf sie verweisen kann,<br />
bleibt meine Rechtfertigung weiterhin unbefriedigend.<br />
Das muß natürlich nicht heißen, daß es sich nicht wenigstens noch<br />
um eine schwache Rechtfertigung handeln kann, denn Rechtfertigungen<br />
sind gradueller Abstufungen fähig.Mit diesem letzten Punkt möchte ich<br />
auch eine kurze Antwort auf Swains Vorwurf der Überforderung epistemischer<br />
Subjekte durch den Internalismus geben, die in den folgen-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 118<br />
den Abschnitten noch ausgeführt wird. Neben idealen Rechtfertigungen<br />
können uns auch schwache Gründe einen Hinweis dafür bieten, was wir<br />
glauben sollen; auch solche Gründe, die für Wissen bei weitem nicht ausreichen.<br />
Außerdem sind die genannten Phänomene wie implizites Wissen<br />
und vor allem die epistemische Arbeitsteilung zu nennen, die unser<br />
Bild von Rechtfertigungen in realistischer Weise ergänzen und dem Subjekt<br />
einen Teil seiner Rechtfertigungsarbeit abnehmen können. Der externalistische<br />
Schachzug Swains kommt mir dazu verfehlt vor. 47<br />
c) Rechtfertigung und Ursachen<br />
An dieser Stelle ist es hilfreich, noch einmal auf ein früher schon angeschnittenes<br />
Thema zurückzukommen. Für einige Reliabilisten ist es erforderlich,<br />
daß die Belege, die wir für eine Überzeugung haben, zumindest<br />
zum Teil diese Überzeugung mitverursacht haben. Hier ist Vorsicht<br />
angebracht, denn im Hintergrund lauert wieder die Vermengung von<br />
Genese und Rechtfertigung. Selbst wenn es im Normalfall – etwa bei der<br />
Wahrnehmung – oft so sein mag, daß unsere Gründe für unsere Überzeugungen<br />
sich auf deren Entstehung beziehen, so gibt es doch keinen<br />
(das war ein Argumentationsziel des Abschnitts III.A) inhaltlichen oder<br />
begrifflichen Zusammenhang, der das erforderlich macht. Es sind viele<br />
Fälle denkbar, in denen Gründe und Ursachen für eine Überzeugung<br />
auseinanderfallen. Trotzdem läßt uns der Wunsch nach einer einfachen<br />
„natürlichen“ Beziehung als Rechtfertigungsrelation immer wieder Gefahr<br />
laufen, die natürlichen Ursachen einer Meinung für ihre Rechtfertigung<br />
zu halten. Lehrer erläutert deshalb die Unterscheidung noch einmal<br />
durch eine nützliche Analogie zwischen Rechtfertigung und logischer<br />
Gültigkeit:<br />
If a person validly deduces a conclusion from something he knows,<br />
this may cause him to believe the conclusion or influence his belief<br />
in the conclusion. If valid deduction had no influence whatever on<br />
whether a person believed the conclusion, that would not undermine<br />
the validity of the inference. Similarly, if someone justifies some conclusion<br />
on the basis of something he knows, this may cause him to<br />
believe the conclusion or influence his belief in the conclusion. The<br />
justification of his conclusion, however, does not depend on the causal<br />
influence. (Lehrer 1990, 171)<br />
47 Ausführlicher wird dieser Typ von Einwand noch in (III.A.2.e) besprochen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 119<br />
Sich diesen Unterschied zwischen der Gültigkeit von Schlüssen und Begründungen<br />
auf der einen und kausalen Beziehungen auf der anderen<br />
Seite immer wieder klar zu machen, ist auch ein Heilmittel gegen die<br />
Ansicht, Rechtfertigungen seien auf derartige kausale Beziehungen angewiesen.<br />
Unter diesem Aspekt gewinnen auch die Beispiele des Abschnitts<br />
zur Unterscheidung von Genese und Rechtfertigung erneut an Bedeutung.<br />
Mit diesem Rüstzeug möchte ich nun auf eine Redeweise eingehen,<br />
die einen kausalen Zusammenhang zwischen meiner Überzeugung und<br />
ihren Gründen nahezulegen scheint. Schon 1970 wies Harman (1987,<br />
108ff) auf den Unterschied hin zwischen Gründen, die man hat, etwas<br />
zu glauben und solchen derentwegen man etwas glaubt. Die letzteren<br />
entscheiden für ihn darüber, ob man in seinem Glauben gerechtfertigt<br />
ist. Diese Unterscheidung führt nach Harman nicht zu einer Unterscheidung<br />
zwischen verursachenden Gründen und solchen, die das nicht tun,<br />
sondern auf eine Untersuchung der Überlegungen, die zu unseren Meinungen<br />
geführt haben. Nicht zu einer Analyse ihrer kausaler Struktur<br />
und dem Prozeß des Überlegens, sondern zu einer Untersuchung der<br />
„abstrakten Struktur“ aus Prämissen, Zwischenschritten und Schlußfolgerungen<br />
(Harman 1987, 119). Das mündete in seiner „no false conclusions“<br />
Bedingung der Wissensanalyse, die uns allerdings nicht zu überzeugen<br />
vermochte.<br />
In neueren Arbeiten versuchen Autoren erneut eine entsprechende<br />
Unterscheidung im Hinblick auf die Bedeutung von kausalen Zusammenhängen<br />
für unser Gerechtfertigtsein stark zu machen. Nach (Haack<br />
1993, 75ff und Koppelberg 1994, 201ff) hängt epistemische Rechtfertigung<br />
wesentlich davon ab, warum eine Person etwas meint, und das ist<br />
eine Frage der kausalen Abhängigkeit. Um dem nachzugehen, möchte<br />
ich zunächst ein Beispiel von Koppelberg (1994, 210) aufgreifen: Eine<br />
Person S besitzt unter anderem die folgenden drei Meinungen:<br />
(1) p<br />
(2) pq<br />
(3) q<br />
Ist er dann gerechtfertigt in seinem Glauben an q? Nach Koppelberg ist<br />
das jedenfalls dann nicht der Fall, wenn S q aus Gründen glaubt, die<br />
nichts mit den anderen beiden Meinungen zu tun haben und die ihrerseits<br />
eher irrational erscheinen. Dazu möchte ich zwei Fragen trennen,<br />
die meines Erachtens zu verschiedenen Gebieten gehören: 1. Welches<br />
sind die Gründe, derentwegen S an q glaubt? 2. Sind diese Gründe (er-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 120<br />
kenntnistheoretisch) gute Gründe? Mein Interesse gilt überwiegend der<br />
2. Frage. Ich möchte wissen, wann bestimmte Meinungen gute Rechtfertigungen<br />
für eine Meinung abgeben können, zumal eine Antwort auf<br />
diese Frage uns leiten kann bei der Frage, was ich glauben soll. Welche<br />
Meinungen oder Zustände eine Person dazu gebracht haben, an q zu<br />
glauben, gehört dagegen eher in den Bereich der Philosophie des Geistes,<br />
oder wenn man wie ich etwas skeptisch bezüglich deren Leistungsfähigkeit<br />
ist, in den Bereich der empirischen Psychologie oder Neurophysiologie.<br />
Die Frage, wann eine Person S in einer konkreten Meinung<br />
gerechtfertigt ist, zerfällt somit in zwei Fragen. Wir müssen einerseits<br />
klären – das scheint bei einer kausalen Deutung des „derentwegen“ ein<br />
empirisches Projekt zu sein –, aus welchen Motiven oder tatsächlichen<br />
Ursachen S die Meinung q akzeptiert, und müssen andererseits bewerten,<br />
ob diese Ursachen erkenntnistheoretisch akzeptable Gründe darstellen,<br />
an q zu glauben. In dieser Arbeit werde ich mich also der zweiten<br />
rein erkenntnistheoretischen Frage zuwenden und die erste Frage an die<br />
Philosophie des Geistes verweisen.<br />
Doch bevor ich mein eigentliches Projekt wieder aufnehme, möchte<br />
ich mich auch noch ein wenig an den Vermutungen darüber beteiligen,<br />
ob das „derentwegen“ in der ersten Frage – also im Hinblick auf eine<br />
letztlich epistemische Fragestellung – kausal zu deuten ist. Susan Haack<br />
(1993, 76) hält die darin angesprochene Abhängigkeit für eine kausale<br />
Abhängigkeit und meint, daß wir alle kausalen Einflüsse, die S’ Glauben<br />
an q befördert oder gehemmt haben, wie bei einer Kräfteaddition berücksichtigen<br />
sollten. Um das durchzuhalten ist man auf bestimmte Ansichten<br />
in der Philosophie des Geistes festgelegt, die keineswegs unkontrovers<br />
sind. Nämlich daß wir Meinungen auch als Ursachen wie andere<br />
betrachten dürfen. Glaubt man dagegen, daß intentional beschriebene<br />
mentale Zustände ungeeignet sind, um physikalische Ursachen zu charakterisieren,<br />
so ist diese Redeweise – insbesondere zusammen mit der<br />
Redeweise der Verrechnung von Ursachen in einer Art Vektoraddition –<br />
kaum als hilfreiche Erläuterung aufzufassen.<br />
Aber selbst wenn wir die Voraussetzung von Haack übernehmen,<br />
scheint mir Kausalität keinen geeigneten Ansatzpunkt für eine Analyse<br />
der gesuchten Meinungsabhängigkeit darzustellen. Wenn in unserem<br />
Beispiel die Meinungen (1) und (2) den Glauben an q verursacht haben,<br />
so bleibt die bloße Verursachung meines Erachtens epistemisch irrelevant.<br />
Sie könnte zunächst eine Art „Kurzschluß“ im Gehirn sein, den wir<br />
vielleicht genauso zwischen den Meinungen „r“ und „non-r“ wiederfinden.<br />
Ein derartiger kausaler Zusammenhang könnte unsere Ansicht S sei
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 121<br />
gerechtfertigt in seinem Glauben an q nicht begründen. Die Kausalität<br />
zwischen Ereignissen kann jedenfalls dieselbe sein, ob sie Meinungen instantiiert,<br />
die in einem deduktiven Verhältnis oder in einem kontradiktorischen<br />
stehen. Es kommt wiederum vielmehr auf unsere epistemische<br />
Bewertung an. S muß (1) und (2) für seine inferentiellen Gründe für (3)<br />
halten, damit wir sagen können, er sei in seinem Glauben an q gerechtfertigt.<br />
Zu dem Glauben an (1) bis (3) sollte daher eher eine weitere (implizite)<br />
Metaüberzeugung treten, nämlich: „(1) und (2) begründen (3)“.<br />
Das scheint mir eine naheliegendere Explikation von „derentwegen“ in<br />
diesem Kontext zu sein und bietet sich natürlich auch als naheliegende<br />
Ergänzung der Kohärenztheorie der Rechtfertigung an, für die ich im<br />
Weiteren eintreten werde. Ob es erkenntnistheoretisch dann noch interessant<br />
ist, psychologische Spekulationen ins Spiel zu bringen, ob das die<br />
wahren Gründe von S für seinen Glauben an q sind, scheint mir eher<br />
fraglich.<br />
Das soll die Analyse eines Beispiels noch ein wenig beleuchten: Kommissar<br />
X entläßt die Mordverdächtige Y aus der Untersuchungshaft, die<br />
seine Geliebte ist. Sein Vorgesetzter macht ihm daraufhin Vorhaltungen,<br />
daß er Y nur aus persönlichen Neigungen freigelassen und damit seine<br />
Dienstpflichten verletzt hätte. Doch X kann dem zunächst Einiges entgegenhalten:<br />
Y hätte ein gutes Alibi für die Tatzeit, das mutmaßliche Motiv<br />
hätte nicht wirklich bestanden und außerdem sei Y von ihrem Charakter<br />
her eine solch grausame Tat nicht zuzutrauen. Die dienstliche Rechtfertigung<br />
des Kommissars hängt hierbei entscheidend davon ab, ob wir sagen<br />
können, daß er in seiner Ansicht, Y sei nicht mehr dringend tatverdächtig<br />
gewesen, tatsächlich epistemisch gerechtfertigt war oder nicht. Was<br />
kann der Vorgesetzte nun X noch entgegenhalten, um den Kommissar in<br />
die Schranken zu verweisen? Kann er ihm etwa nachweisen, daß X<br />
selbst nicht an das Alibi glaubte oder es nicht für hinreichend wasserdicht<br />
hielt, um seine Bewertung der „Tatverdächtigkeit“ zu begründen,<br />
so hat er noch etwas in der Hand. Muß er aber zugeben, daß die Gründe,<br />
die X für seine Handlungen zu nennen weiß, dessen Bewertung perfekt<br />
rechtfertigen und daß X aufrichtig an diesen Zusammenhang<br />
glaubt, so scheint uns der folgender Einwand des Vorgesetzten ausgesprochen<br />
aus der Luft gegriffen: „Sie hatten zwar sehr gute Gründe, um<br />
Y frei zu lassen, an die Sie auch geglaubt haben, aber das waren trotzdem<br />
nicht ihren wirklichen Beweggründe. Die stammten ganz aus dem<br />
persönlichen Bereich.“ Darauf kann der arme Kommissar natürlich auch<br />
nur zugeben, daß er über die kausale Verschaltung seiner Meinungen<br />
nicht mehr sagen kann, als daß seine bisherigen Auskünfte ehrlich wa-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 122<br />
ren. Wie will er sich jetzt noch rechtfertigen, wenn das Zitieren guter<br />
Gründe, an die er glaubt und von denen er glaubt, daß sie seine Ansicht<br />
begründen, dazu nicht ausreicht? Legen wir solche Maßstäbe an, erhalten<br />
wir einen ausgesprochen praxisfernen Rechtfertigungsbegriff. Nach<br />
den üblichen Standards war der Kommissar dagegen in seiner Ansicht<br />
über den Tatverdacht von Y gerechtfertigt und die weitergehende Spekulation,<br />
es wäre eher wohl eher seine Zuneigung zu Y kausal wirksam gewesen,<br />
diskreditiert X nicht, selbst wenn wir dafür Anhaltspunkte haben.<br />
Für eine normale epistemische Rechtfertigung einer Überzeugung<br />
ist das zuviel verlangt. Doch nun wieder zurück zur Beantwortung der<br />
zweiten Frage durch den Externalisten.<br />
d) Rationalität und Rechtfertigung<br />
Daß der Externalist eine Art von Themaverfehlung begeht, wird außerdem<br />
anhand einer analytischen Verbindung zur Handlungstheorie erkennbar.<br />
Es gibt sicher keinen ganz einfachen Zusammenhang zwischen<br />
den Konzepten von Rationalität und Rechtfertigung, aber daß es eine<br />
begriffliche Verbindung gibt, die ungefähr in der folgenden Weise beschrieben<br />
werden kann, scheint mir relativ unproblematisch zu sein:<br />
Rechtfertigungen und Rationalität (RR)<br />
Wenn ich mich in meinen (Handlungs-)Entscheidungen wesentlich<br />
auf bestimmte Annahmen über die Welt stütze – und das gilt insbesondere<br />
für wichtige Entscheidungen –, dann sollte ich gute Gründe<br />
für diese Annahmen haben, sonst handele ich irrational.<br />
Das Prinzip (RR) ist sicher nur unter bestimmten Bedingungen gültig,<br />
wie, daß ich genügend Zeit für meine Entscheidung zur Verfügung habe,<br />
die wichtigen Informationen für mich zugänglich sind und sich auch der<br />
Aufwand der Informationsbeschaffung für die Entscheidung lohnt, etwa<br />
weil diese für mich entsprechend wichtig ist. Dazu kommen vielleicht<br />
noch weitere ceteris paribus Bedingungen. Aber wenn wir diese berücksichtigen,<br />
drückt (RR) einen quasi-analytischen Zusammenhang aus. Der<br />
geht für externalistische „Rechtfertigungen“ verloren. Das ist wiederum<br />
an Beispielen erkennbar, die sich bei BonJour (1985, 45) finden. Nehmen<br />
wir an, Norman, der uns schon geläufige Hellseher, wird gezwungen,<br />
auf eine von zwei Möglichkeiten zu wetten. Die erste ist, daß der<br />
Präsident in New York ist, und die zweite, daß der Generalstaatsanwalt<br />
in New York ist. Um das Beispiel etwas dramatischer zu gestalten, nehmen<br />
wir weiter an, für Norman stehe eine Menge auf dem Spiel, vielleicht<br />
sogar sein Leben. Die erste Meinung sei nun aufgrund seiner zu-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 123<br />
verlässigen aber ihm kognitiv völlig unzugänglichen Hellseherei entstanden,<br />
so daß der Reliabilist ihm sogar das entsprechende Wissen zuschreiben<br />
würde; für die zweite hat er „nur“ einige gute inferentielle Gründe,<br />
die es wahrscheinlich machen, daß der Generalstaatsanwalt in New York<br />
ist, die aber nicht für Wissen ausreichen. Wenn wir uns Normans epistemische<br />
Situation vor Augen führen, wonach er zwar zunächst die<br />
Überzeugung hat, daß der Präsident in New York ist, jedoch nicht den<br />
geringsten Anhaltspunkt benennen kann, daß es so ist, er hingegen über<br />
gute Gründe für die zweite Meinung verfügt, so ist offensichtlich, daß<br />
wir seine Wahl nur dann vernünftig nennen würden, wenn er sich für die<br />
zweite Meinung entscheidet.<br />
Für den Reliabilisten entsteht damit eine Kluft zwischen begründeten<br />
Überzeugungen (oder sogar Wissen) und vernünftigem Handeln, die<br />
nicht zu unserem üblichen Gebrauch dieser Konzepte paßt. Er trennt das<br />
Begründungsgeschäft von seiner praktischen Konsequenz, handlungsanleitend<br />
zu sein, obwohl die für uns einen wesentlichen Grund darstellt,<br />
warum wir uns um epistemische Rechtfertigungen bemühen. Der Reliabilist<br />
kann natürlich auch in diesem Punkt für eine Änderung unseres<br />
Sprachgebrauchs eintreten, aber wenn er diesen Zusammenhang zur Rationalität<br />
aufgeben möchte, hat er die Frage zu gegenwärtigen, wozu<br />
sein Begriff der Rechtfertigung überhaupt tauglich sein soll. In dem Bereich,<br />
in dem er sich von unserer internalistischen Begründungskonzeption<br />
unterscheidet, kann er uns nicht mehr als Hilfe für Entscheidungen<br />
dienen, sondern ist nur aus der Perspektive eines allwissenden Dritten zu<br />
vergeben.<br />
e) Kritik am Internalismus<br />
Externalisten bedienen sich natürlich nicht nur direkter Argumente für<br />
den Externalismus, sondern auch Argumenten gegen ihre Gegenposition,<br />
den Internalismus, nach dem alle Elemente der Rechtfertigung uns<br />
kognitiv zugänglich sein sollen. Die meisten dieser Kritiken richten sich<br />
gegen spezielle Positionen etwa Positionen aus dem Lager der Kohärenztheorien<br />
der Rechtfertigung, wie auch ich sie später vertreten werde,<br />
und sollen daher auch erst an späterer Stelle zur Sprache kommen. Einen<br />
ziemlich allgemeinen Angriff auf den Internalismus, hatte ich schon<br />
in Abschnitt (III.A.2.b) erwähnt. Es wird behauptet, die internalistischen<br />
Ansätze wie der von BonJour stellten zu hohe Anforderungen an Rechtfertigungen.<br />
Eine Formulierung des Einwands findet sich wieder bei<br />
Swain (1989, 120): „We do not as a matter of empirical fact, have the<br />
grasp of our belief system, implicit or explicit, required by the doxastic
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 124<br />
presumption.“ 48 Demnach sind internalistische Positionen zu anspruchsvoll<br />
und verlangen zuviel von einem epistemischen Subjekt für begründete<br />
Meinungen. Das hätte, so die Kritik, zur Folge, daß wir in den meisten<br />
unserer Common-Sense Überzeugungen nicht gerechtfertigt seien<br />
und man aufgrund internalistischer Rechtfertigungstheorien auch nicht<br />
erwarten dürfte, daß wir solche Rechtfertigungen zur Verfügung haben<br />
könnten. Die ganze Konzeption von internalistischen Rechtfertigungen<br />
wird damit unrealistisch und schlimmer noch, wir müssen sogar befürchten,<br />
unsere paradigmatischen Fälle und Vorbilder für Rechtfertigungen,<br />
die doch unseren Weg zu einer Theorie der Rechtfertigung leiten sollten,<br />
zu verlieren.<br />
In seiner Antwort auf diese Kritik am Internalismus weist BonJour<br />
als erstes darauf hin, daß natürlich auch unsere Common-Sense Ansichten<br />
tatsächlich nicht immer besonders gut begründet sind und keineswegs<br />
sakrosankt sein sollen. Das allein kann andererseits kaum als Erwiderung<br />
genügen, obwohl es eine Erkenntnis ist, die selbst bereits im<br />
Common-Sense Wissen verankert ist.<br />
Ein weiterer Punkt ist, daß, wenngleich das bisher nicht explizit erwähnt<br />
wurde, gerade das Konzept der allgemeinen Rechtfertigung (die<br />
im Falle ihrer Wahrheit nicht schon Wissen implizieren muß) Abstufungen<br />
erlaubt, die von sehr schlechten Begründungen, die man kaum noch<br />
als solche bezeichnen darf, bis zu sehr guten Rechtfertigungen reichen.<br />
Hier zeigt sich wiederum ein Vorteil einer von der Wissensdebatte abgelösten<br />
Untersuchung zur epistemischen Rechtfertigung, denn für Wissen<br />
ist eine solche Abstufung keineswegs ähnlich zwanglos möglich. In der<br />
Analyse von Rechtfertigungen war das Ziel eine Theorie der idealen<br />
Rechtfertigung, die sich nicht in voller Form in unseren tatsächlichen<br />
Rechtfertigungen wiederfinden lassen muß. Wenn einige unserer tatsächlichen<br />
Rechtfertigungen sie auch nur annähernd verwirklichen, ist unsere<br />
Theorie auch für sie aussagekräftig. Darüber hinaus sind zwei weitere<br />
Schritte zur Ehrenrettung tatsächlicher Begründungen bereits eingeführt<br />
worden. Der erste ist, nicht zu verlangen, unsere Rechtfertigungen müßten<br />
immer explizit verfügbar sein, sondern dispositionelle Rechtfertigungen<br />
und einfache Ableitungen zusätzlich als implizite Rechtfertigungen<br />
zuzulassen. Der zweite Schritt, der mindestens genauso bedeutsam ist, ist<br />
die epistemische Arbeitsteilung, die Rechtfertigungen oder Wissen als<br />
auch gesellschaftlich bestimmt ansieht.<br />
48 Auch bleibt nach Swain unklar, was mit „grasping a belief" gemeint ist.<br />
Zumal, wenn man auch implizite Rechtfertigungen zuläßt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 125<br />
Eine naheliegende Frage an diesem Punkt der Diskussion ist aber sicher,<br />
ob die epistemische Arbeitsteilung nicht selbst bereits eine Form<br />
des Externalismus darstellt. Für den Einzelnen ist es allerdings so, daß<br />
eine nur gesellschaftlich verfügbare Rechtfertigung nicht vollkommen<br />
intern ist. Doch in einem liberaleren Sinn sind uns auch die in der Gesellschaft<br />
verfügbaren Rechtfertigungen kognitiv zugänglich, denn wir<br />
können sie etwa nachlesen oder sie uns von einem Experten erklären<br />
lassen, wobei wir vielfach auch schon vorher gute Gründe haben anzunehmen,<br />
daß sich damit Wissenslücken in ganz bestimmter Weise ausfüllen<br />
lassen. Jedenfalls liegen diese Rechtfertigungen schon in propositionaler<br />
Form vor und stellen nicht nur Berufungen auf eine „blinde“ Kausalität<br />
dar, von der vielleicht niemand etwas weiß. Außerdem wurde im<br />
Sinne des Lehrerschen Diktums, nach dem Wissen immer Metawissen<br />
ist, verlangt, daß der Einzelne eine epistemische Bewertung dieser sozial<br />
verfügbaren Rechtfertigungen vornimmt. Auf einige der Probleme solcher<br />
Einschätzungen hatte ich schon hingewiesen. Diese diskreditieren<br />
gesellschaftliche Rechtfertigungen jedoch nicht grundsätzlich, sondern<br />
führen höchstens zu einer Herabstufung in der Frage, wie gut sie im Vergleich<br />
zu idealen Rechtfertigungen liegen. Jedenfalls unterscheiden sich<br />
arbeitsteilige Rechtfertigungen durch ihre prinzipielle Zugänglichkeit<br />
und der damit gegebenen Möglichkeit einer Metabewertung erheblich<br />
von „externen Rechtfertigungen“.<br />
Wieso sie in bestimmten Problemstellungen als Beispiele interner<br />
Rechtfertigungen gelten dürfen, kann auch noch ein ganz anderer Gedankengang<br />
nahelegen. In der Frage, welche Dinge als epistemische Subjekte<br />
in Frage kommen, hatte ich auch Gruppen von Personen, z. B. eine<br />
bestimmte Wissenschaftlergemeinschaft oder andere Gruppen, zugelassen.<br />
Für sozial verfügbares Wissen ist es dann auch vertretbar, davon zu<br />
sprechen, daß eine derartige Gruppe als Ganzes über dieses Wissen verfügt.<br />
Da sie wenigstens im Prinzip in der Lage ist, dieses Wissen in expliziter<br />
Form (als semantische Information) vorzulegen und darüber zu räsonieren,<br />
kann man sagen, die Gruppe besitze das Wissen oder die<br />
Rechtfertigungen in interner Form. Damit können wir ein epistemisches<br />
Subjekt vorweisen, das einige umfangreiche Rechtfertigungen in einer<br />
Form intern aufweist, die in manchen Fällen schon in die Nähe idealer<br />
Rechtfertigungen kommt. Für die Analyse von Erklärungen werde ich<br />
später unter anderem auch so verfahren, daß ich mir anschaue, über<br />
welche Erklärungen die „scientific community“ verfügt. Selbst wenn internalistische<br />
Theorien also keine realistischen Modelle in bezug auf einzelne<br />
Menschen abgäben, könnten sie es noch in bezug auf andere epi-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 126<br />
stemische Subjekte sein, deren weitergehendes Studium ebenfalls erkenntnistheoretisch<br />
fruchtbar erscheint.<br />
3. Eine Diagnose der intuitiven Attraktivität des Externalismus<br />
Nach den vielen Kritiken an der externalistischen Erkenntnistheorie und<br />
dort insbesondere an ihrem Einsatz im Rahmen von Theorien der Rechtfertigung,<br />
bleibt vielleicht trotzdem noch ein Unbehagen zurück, denn es<br />
fehlt bis jetzt eine Diagnose, wieso so vielen Philosophen die Strategie<br />
des Externalismus auf den ersten Blick einleuchtend erschien. Eine Erklärung<br />
dieses Umstandes möchte ich kurz erwägen, die noch einmal die<br />
grundlegende Schwäche des Externalismus aus einer etwas anderen Perspektive<br />
beleuchtet.<br />
Wenn uns der Externalist mit seinen Beispielen – in denen jemand<br />
über zuverlässige Wahrnehmungen zu einer wahren Beobachtungsüberzeugung<br />
gelangt – für sich zu gewinnen versucht, nehmen wir gezwungenermaßen<br />
immer die dritte-Person Sicht auf das epistemische Subjekt S<br />
seiner Beispiele ein. Wir erfahren etwa, aufgrund welcher Kausalketten<br />
die Person S zu der Überzeugung p gelangt ist. Daß p unter diesen Umständen<br />
gerechtfertigt ist, erscheint uns dann plausibel, weil wir als über<br />
den Sachverhalt aufgeklärter Betrachter in diesem Fall über eine interne<br />
Rechtfertigung für p verfügen. Für uns ist S in der Schilderung des Beispiels<br />
nämlich ein zuverlässiger „Anzeiger“ einer bestimmten Tatsache,<br />
die in „p“ ausgedrückt wird. Da wir um seine Zuverlässigkeit wissen,<br />
können wir uns auf ihn verlassen, wie auf die Anzeige eines Thermometers,<br />
über dessen Zuverlässigkeit wir uns vergewissert haben. Das kann<br />
uns zunächst dazu bewegen, dem Externalisten zuzustimmen, p sei gerechtfertigt.<br />
Doch entscheidend ist in der Debatte zwischen Internalisten<br />
und Externalisten nicht, ob wir über eine Rechtfertigung für p verfügen,<br />
sondern ob wir plausibel behaupten können, daß auch S über eine<br />
Rechtfertigung aus seiner ersten Person Sicht verfügt. Und genau das bestreitet<br />
der Internalist mit guten Gründen. Die Schwierigkeit in der Beurteilung<br />
der externalistischen Beispiele rührt zum Teil daher, daß wir<br />
diese Umsetzung vornehmen müssen, von unserer dritten Person Perspektive,<br />
in der wir eindeutig über eine Rechtfertigung für p verfügen,<br />
zu der Frage, wie die epistemische Situation für S selbst ausschaut. Hier<br />
kommt der Aspekt der Relativierung jeder Rechtfertigung auf einen epistemischen<br />
Zustand oder ein epistemisches Subjekt, wie er bereits in<br />
(II.C.1) beschrieben wurde, ins Spiel.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 127<br />
Das Auftreten dieser zwei Perspektiven mag den Umstand, daß externalistische<br />
„Rechtfertigungen“ keine sind, in manchen geschickt gewählten<br />
Beispielen verschleiern, aber wir sollten ihn mittels der Unterscheidung<br />
der beiden Perspektiven im Gedächtnis behalten. In vielen Beispielen<br />
von Sinneswahrnehmungen fällt die Trennung der beiden Perspektiven<br />
nur deshalb nicht ins Gewicht, weil sowohl der Beobachter wie auch<br />
das epistemische Subjekt ähnliche Kenntnisse der Genese ihrer Meinungen<br />
aufweisen. Diese Fälle verleiten wieder dazu, die Trennung nicht zu<br />
berücksichtigen, was dem Externalisten sein Spiel erleichtert. Das Fazit<br />
derartiger Überlegungen drückt Nagel (1992, 122) so aus:<br />
Obgleich neuerdings viel Mühe auf sie verwandt wurde, können uns<br />
Definitionen des Wissens hier nicht weiterhelfen. Das Grundproblem<br />
der Erkenntnistheorie stellt sich als ein Problem der ersten Person:<br />
„Was soll ich glauben, und wie soll ich meine Überzeugungen<br />
rechtfertigen?“ Hierbei handelt es sich nicht um ein impersonales<br />
Problem wie bei der Frage, ob man, wenn man meine Meinungen<br />
und einige Voraussetzungen hinsichtlich ihrer Beziehung zu etwas<br />
betrachtet, das faktisch der Fall ist, von mir sagen kann, ich ‘wisse’.<br />
Die Beantwortung der Frage was Wissen sei, verhilft mir nicht zu einer<br />
Entscheidung darüber, was ich glauben soll.<br />
Der Externalist entfernt sich mit seiner Strategie von diesem Grundproblem<br />
der Erkenntnistheorie in einer Weise, die zumindest für eine Rechtfertigungstheorie<br />
inakzeptabel ist.<br />
Allerdings ist auch unsere Neigung, diesen Übergang von unserer<br />
dritten Person Kenntnis der Dinge zu einer ersten Person Rechtfertigung<br />
von S mitzumachen, nur zu verständlich, entkommen wir damit doch<br />
scheinbar einem ganzen Bündel von schier unlösbaren erkenntnistheoretischen<br />
Problemen. Außerdem entspricht es unserer Naturalisierungstendenz,<br />
metaphysische Probleme und Fragestellungen normativer Art zugunsten<br />
naturwissenschaftlicher Fragestellungen aufzulösen. Mit diesem<br />
Programm sollen Fragen über Intentionalität oder andere geistige Phänomene,<br />
Fragen der Erkenntnistheorie oder auch der Ethik in „einfache“<br />
empirische Fragestellungen übersetzt und so einer „wissenschaftlichen“<br />
Behandlung zugänglich gemacht werden. Ob und inwieweit ein<br />
solches Programm – das oftmals noch mit Ansprüchen nach einer definitorischen<br />
Reduktion der Prädikate dieser Gebiete einhergeht – erfolgversprechend<br />
oder überhaupt nur sinnvoll ist, läßt sich natürlich nicht in einem<br />
Rundumschlag beantworten. Allerdings scheint mir die Bedeutung<br />
eines solchen Übersetzungsprogramms überschätzt zu werden. Es wer-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 128<br />
den aus dem an sich ehrenwerten Motiv, sich nicht in unklaren Fragestellungen<br />
zu verlieren, zu weitgehende Konsequenzen gezogen, die zur<br />
Aufgabe sinnvoller philosophischer Probleme führen.<br />
In der Erkenntnistheorie ist für die Neigung zu naturalistischen Lösungen<br />
sicher die Erfolglosigkeit bei der Bekämpfung des Skeptikers ein<br />
erkennbares Motiv. Es ist trotz zahlreicher Anstrengungen nicht wirklich<br />
gelungen, dem radikalen Erkenntnisskeptiker zu antworten. Die Fixierung<br />
auf die andauernde Bedrohung jeder Erkenntnistheorie durch die<br />
Fragen des Skeptikers hat wesentlich dazu beigetragen, daß Teile der<br />
Erkenntnistheorie praktisch ohne vorzeigbare Resultate geblieben sind.<br />
Daß die Erkenntnistheorie von der Debatte mit dem Skeptiker nicht nur<br />
profitiert, sondern auch darunter gelitten hat, zeigt sich darin, daß die<br />
meisten Erkenntnistheorien nicht zu subtileren Ausgestaltungen ihrer<br />
Grundposition gereift sind. So haben sich zwar schon einige Autoren als<br />
Kohärenztheoretiker verstanden, aber die meisten hatten nur wenig darüber<br />
zu sagen, worin denn die Kohärenz eines Meinungssystems besteht.<br />
Man weiß in der Regel noch Konsistenz zu nennen und daß Konsistenz<br />
nicht alles sein kann, was Kohärenz ausmacht, aber wo dieses Mehr zu<br />
suchen ist, bleibt ungeklärt, weil der Kampf gegen die skeptischen Einwände<br />
alle Kräfte beansprucht. Für andere Ansätze in der Erkenntnistheorie<br />
sieht es da nicht viel besser aus. Nach einer langen Geschichte ist<br />
dieses Ergebnis dürftig und scheint mir wenigstens zum Teil dadurch erklärbar<br />
zu sein, daß man die Beantwortung der skeptischen Einwendungen<br />
als eine Art von Voraussetzung dafür ansah, eine erkenntnistheoretische<br />
Konzeption weiter zu verfolgen. 49 Um so verlockender muß es da<br />
sein, sich auf naturalistische Weise der Fragen des Erkenntnisskeptikers<br />
zu entledigen. Das ist nur leider nicht ehrlich, weil man nicht auf die<br />
klassischen Fragen antwortet, sondern schlicht das Thema wechselt.<br />
Hier offener aufzudecken, was man zu den klassischen Fragen sagen<br />
kann und was nicht, ist redlicher und läßt gleichermaßen Spielraum dafür,<br />
für eine Änderung der Aufgabenstellung oder zumindest der Schwerpunkte<br />
epistemischer Forschung zu plädieren.<br />
Die Überlegungen zu externalistischen Ansätzen in der Erkenntnistheorie<br />
können natürlich keine Vollständigkeit beanspruchen, und es<br />
war auch nicht meine Absicht, einen Überblick über ihre zahlreichen<br />
Spielarten zu geben. Es sollte aber deutlich geworden sein, daß in der<br />
Debatte zwischen Externalisten und Internalisten eigentlich zwei ver-<br />
49 Meine Antwort auf die hier angesprochene Problematik, ob es sich<br />
lohnt, eine Erkenntnistheorie auszuarbeiten, wenn man nicht auch eine direkte<br />
Antwort auf den Skeptiker bereit hält, wird in den nächsten Kapiteln deutlicher.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 129<br />
schiedene Fragestellungen im Spiel sind: eine subjektive und eine objektive.<br />
Erstere fragt, über welche Gründe ein Erkenntnissubjekt S verfügt,<br />
an p zu glauben, letzere, welche Gründe es geben kann, die Meinung p<br />
des S für zuverlässig zu halten. Beide sind natürlich eng miteinander verknüpft.<br />
Jeder der objektiven Gründe für p wird zu einem subjektiven,<br />
wenn S ihn mit guten Gründen zur Kenntnis nimmt. Das klassische erkenntnistheoretische<br />
Problem, woran wir denn glauben sollten, entspricht<br />
aber eindeutig der subjektiven Fragestellung.<br />
Für mein Projekt soll daher die internalistische Rechtfertigung ganz<br />
im Vordergrund stehen. Für sie muß man sich allerdings weiterhin mit<br />
dem klassischen Cartesischen Problem auseinandersetzen: Wieso können<br />
wir von den uns zugänglichen Indikatoren auf die Wahrheit bestimmter<br />
Aussagen schließen, wenn wir doch zur Begründung dieses Schlusses die<br />
Innenperspektive nicht verlassen können? Auf diesen Punkt komme ich<br />
in Kapitel (VI) zurück.<br />
4. Resümee<br />
Im Rahmen naturalistischer Tendenzen in der Philosophie verfolgen einige<br />
Erkenntnistheoretiker eine externalistische Strategie bei der Lösung<br />
epistemologischer Probleme. Sie setzen für Wissen und Rechtfertigungen<br />
auf externe Zusammenhänge zwischen Meinungen und Tatsachen, die<br />
dem epistemischen Subjekt aus seiner Innenperspektive nicht zugänglich<br />
sein müssen. Für das Vorhaben der Wissensexplikation erhoffen sie sich<br />
davon eine Antwort auf das Gettier-Problem und auf den Skeptiker, für<br />
eine Rechtfertigungstheorie versprechen sie sich darüber hinaus eine Lösung<br />
des Regreßproblems. Die größte Gruppe unter den Externalisten<br />
bilden die Reliabilisten, für die der gesuchte externe Zusammenhang in<br />
der Zuverlässigkeit der Überzeugungsbildung zu suchen ist. Neben dem<br />
Problem, „Zuverlässigkeit“ in nichttrivialer Weise zu explizieren, führt<br />
der Reliabilismus zu Wissenskonzeptionen, die von unserem gewöhnlichen<br />
Wissensbegriff deutlich abweichen. Sie sind nicht so sehr an einer<br />
bewußten Verarbeitung semantischer Informationen orientiert, sondern<br />
vielmehr an den „blinden“ kausalen Zusammenhängen, die die syntaktischen<br />
Informationen betreffen. Sie können den Einfluß unseres Hintergrundwissens<br />
auf die Frage, ob bestimmte Überzeugungen begründet<br />
oder sogar Wissen sind, nicht angemessen berücksichtigen. Wenn auch<br />
für „Wissen“ externe Bedingungen sicher wesentlich sind, so ist das für<br />
allgemeine Rechtfertigungen keineswegs so plausibel. Sie sollen im Rahmen<br />
klassischer Fragestellungen der Erkenntnistheorie Auskunft auf die
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 130<br />
Frage geben, was wir glauben sollen. Dabei können aber nur die dem<br />
epistemischen Subjekt zugänglichen Aspekte der Situation hilfreich sein.<br />
Der Externalist wendet sich mit seinem Lösungsvorschlag von der klassischen<br />
Frage zu einer objektiven Beschreibung aus einer dritte Person<br />
Sicht und begeht damit eine Themaverfehlung, wenn er weiterhin behauptet,<br />
die klassische Frage zu beantworten. Im Hintergrund seines<br />
Vorgehens lauert dabei immer wieder der Genese-Rechtfertigungsfehlschluß,<br />
der die Verursachung einer Meinung über ihre Rechtfertigung<br />
entscheiden läßt.<br />
B. Fundamentalistische Erkenntnistheorien<br />
Eine andere Unterscheidung, die gleichermaßen grundlegende Bedeutung<br />
für die Erkenntnistheorie besitzt, ist die zwischen fundamentalistischen<br />
und kohärentistischen Begründungsstrukturen. Unabhängig von<br />
der Unterscheidung zwischen internen und externen epistemischen<br />
Rechtfertigungen gibt es zwei konträre Ansichten über die richtige<br />
Struktur von Rechtfertigungszusammenhängen für unsere Überzeugungssysteme.<br />
Die in der Philosophiegeschichte in der einen oder anderen<br />
Version dominierende Vorstellung ist die des Fundamentalismus. Danach<br />
gibt es eine epistemisch ausgezeichnete Klasse von Überzeugungen, die<br />
selbst keiner Rechtfertigung durch andere Überzeugungen bedürfen.<br />
Von diesen basalen Überzeugungen nimmt der Fundamentalist im allgemeinen<br />
an, daß sie auf eine andere Weise als inferentiell gerechtfertigt<br />
sind, und sie deshalb in der Lage sind, als Basis zur Rechtfertigung anderer<br />
Überzeugungen zu dienen. Die wichtigsten Spielarten des Fundamentalismus<br />
finden sich in rationalistischen und empiristischen Erkenntnistheorien.<br />
Für erstere bedürfen gewisse notwendige erste Prinzipien, die<br />
unser Verstand als evident einsehen kann, keiner weiteren Begründung<br />
und für letzere sind Beobachtungsüberzeugungen, die unsere Wahrnehmungen<br />
als wahr erweisen, keiner Rechtfertigung fähig. Gegen den Fundamentalismus<br />
sollen in diesem Kapitel einige allgemeine Einwände erhoben<br />
werden, mit denen all seine Varianten zu kämpfen haben. Seine<br />
Diskussion und Zurückweisung wird einen weiteren Schritt hin zu einer<br />
kohärentistischen Erkenntnistheorie ausmachen, denn der Fundamentalismus<br />
ist der große Konkurrent einer Kohärenzauffassung von Begründung.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 131<br />
1. Fundamentalistische versus kohärentistische Rechtfertigungsstrukturen<br />
In einem ersten Schritt sollen die beiden gegensätzlichen Ansichten über<br />
Rechtfertigungsstrukturen expliziert werden, wobei ihre Unterschiede<br />
deutlicher zu Tage treten. So konträr die beiden Rechtfertigungsstrategien<br />
in bestimmten Aspekten aber auch wirken, so hat doch Susan<br />
Haack (1982/3) Recht mit ihrer Behauptung, daß sie nur die beiden<br />
Endpunkte eines Kontinuums von Rechtfertigungskonzeptionen sind<br />
und viele Positionen eher dazwischen angesiedelt sind. Haack nennt daher<br />
ihre eigenen Theorie aus diesem Bereich „foundherentism“. Doch<br />
betrachten wir zunächst die „reinen“ Formen.<br />
a) Formaler Fundamentalismus<br />
Mit einer Unterscheidung in formalen und substantiellen Fundamentalismus<br />
schließe ich mich Williams (1991, 114ff) an. Der formale Fundamentalismus<br />
macht zunächst nur Aussagen über die allgemeine Rechtfertigungsstruktur<br />
unserer Meinungen und behauptet die Existenz von basalen<br />
Meinungen, während der substantielle Fundamentalismus außerdem<br />
hinzufügt, welche Meinungen als basal auszuzeichnen sind. Einige<br />
Probleme fundamentalistischer Erkenntnistheorien werden schon in der<br />
strukturellen Beschreibung unserer Rechtfertigungen erkennbar, also auf<br />
der Ebene eines bloß formalen Fundamentalismus, andere hingegen erst<br />
beim Übergang zu einer substantiellen Ausgestaltung. Der Kern des formalen<br />
Fundamentalismus läßt sich in den folgenden zwei Thesen zusammenfassen:<br />
Formaler Fundamentalismus<br />
FU 1<br />
Es gibt basale Überzeugungen, die nicht inferentiell durch andere<br />
Überzeugungen gerechtfertigt werden müssen, sondern anderweitig<br />
gerechtfertigt sind.<br />
FU 2<br />
Alle nicht-basalen Überzeugungen werden inferentiell gerechtfertigt<br />
unter direkter oder indirekter Bezugnahme auf basale Überzeugungen.<br />
Unter FU 2 ist meist mitgemeint, daß Rechtfertigungen gerichtet sind,<br />
d.h., daß die inferentiellen Zusammenhänge zwischen Aussagen nur in
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 132<br />
eine Richtung rechtfertigend wirken. 50 Typisch dafür ist die Auffassung<br />
der Empiristen, nach der Rechtfertigungen angefangen von Beobachtungsüberzeugungen<br />
zu allgemeineren Überzeugungen und Theorien<br />
übergehen. Epistemische Kraft besitzen in diesem Bild ursprünglich nur<br />
Beobachtungsüberzeugungen, die direkt durch Wahrnehmungen zu<br />
rechtfertigen sind. Alle anderen Überzeugungen beziehen ihre epistemische<br />
Stärke nur indirekt durch ihre Beziehungen zur Basis. Zum besseren<br />
Verständnis, was das spezielle an fundamentalistischen Rechtfertigungshierarchien<br />
ist, seien in Abgrenzung dazu zwei allgemeine Bestimmungsstücke<br />
für die formale Charakterisierung einer Kohärenztheorie<br />
angegeben:<br />
Formale Kohärenztheorie<br />
KO 1<br />
Alle Überzeugungen sind inferentiell zu rechtfertigen. Es gibt keine<br />
selbstrechtfertigenden oder anderweitig gerechtfertigten Überzeugungen.<br />
KO 2<br />
Inferentielle Beziehungen zwischen zwei Überzeugungen wirken immer<br />
in beide Richtungen rechtfertigend.<br />
Auch KO1 und KO2 können natürlich keine substantielle Kohärenztheorie<br />
vermitteln, weil sie z. B. offenlassen, wie die inferentiellen Rechtfertigungen,<br />
von denen in ihnen die Rede ist, auszusehen haben, worin also<br />
Kohärenz besteht. Sie geben nur allgemeine Merkmale der Struktur von<br />
Rechtfertigungszusammenhängen an. 51<br />
Die in FU 1 und FU 2 vorgeschlagene Charakterisierung des Fundamentalismus<br />
dürfte auf alle gewöhnlichen Formen fundamentalistischer<br />
Erkenntnistheorien zutreffen, da es sich um zwei minimale Forderungen<br />
handelt, die z. B. noch offenlassen, ob die basalen Meinungen irrtumssicher<br />
sind oder nicht. Außerdem beantworten die Formulierungen zumindest<br />
noch nicht explizit die Frage, ob der Typ von Überzeugungen, der<br />
als basale Überzeugungen in Frage kommt, für alle Rechtfertigungen immer<br />
derselbe sein muß. Diese Annahme sollte ein Fundamentalist allerdings<br />
unterschreiben. Erst sie trennt ihn von Kontextualisten vom Schla-<br />
50 „Inferentiell gerechtfertigt" bedeutet dabei, daß es gerade die inhaltlichen<br />
(etwa logisch-semantischen) Zusammenhänge zu anderen Aussagen sind,<br />
die die Rechtfertigungsleistung tragen.<br />
51 Substantielle Kohärenztheorien werden im Kapitel (IV) behandelt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 133<br />
ge eines Michael Williams, für den zwar auch jede Rechtfertigung auf<br />
bestimmte basale Überzeugungen angewiesen ist, aber welche das sind,<br />
kann für Williams mit dem Kontext der Rechtfertigung variieren. Fügen<br />
wir also diesen Punkt der festgelegten Basistypen noch explizit zur Definition<br />
des Fundamentalismus hinzu, denn gerade gegen ihn möchte ich<br />
die ersten direkten Kritiken am Fundamentalismus richten. Hinzu<br />
kommt noch, daß die Basistypen von Aussagen inhaltlich ausgezeichnet<br />
werden; die Inhalte der Überzeugungen legen fest, ob es sich um basale<br />
oder nicht-basale Überzeugungen handelt. Die basalen Meinungen sind<br />
durch intrinsische Merkmale als solche für das epistemische Subjekt erkennbar.<br />
Der Empirist wird Überzeugungen, die Beobachtungen ausdrücken,<br />
als basal einstufen, der Phänomenalist dagegen nur Überzeugungen,<br />
die ausschließlich die Qualitäten seiner Sinneswahrnehmungen<br />
wiedergeben.<br />
FU 3<br />
Die inhaltlich ausgezeichneten Typen von basalen Überzeugungen<br />
sind für alle Rechtfertigungskontexte (für alle Personen) dieselben.<br />
Erst mit FU 3 erhalten wir ein klares Bild der Rechtfertigungsstruktur im<br />
Fundamentalismus: Idealerweise handelt es sich um eine relativ starre<br />
Schichtenstruktur mit einer Basismenge von Aussagen, aus der jedes epistemische<br />
Subjekt eine Teilmenge als seine basalen Überzeugungen besitzt.<br />
Die Grundmenge ist zumindest dann ein für allemal festgelegt,<br />
wenn wir uns nur auf wahre Aussagen als basale Aussagen beziehen, was<br />
oft intendiert zu sein scheint, zumal viele historische Positionen des Fundamentalismus<br />
noch nicht einmal Irrtumsmöglichkeiten für ihre epistemische<br />
Basis zugestanden haben. Das ist ein geschickter Schachzug,<br />
denn räumt man Irrtumsmöglichkeiten für basale Überzeugungen ein,<br />
wird für jede konkrete basale Aussage p sofort die Frage nach einer Begründung<br />
laut: Warum sollte gerade p zu der Teilklasse der wahren basalen<br />
Überzeugungen gehören? Auch Popper, der Kritiker der logischen<br />
Empiristen, hat in der Logik der Forschung an der fundamentalistischen<br />
Rechtfertigungsstruktur festgehalten. Die Basis wird zwar per Entscheidung<br />
bestimmt und kann damit zu verschiedenen Zeiten eine andere<br />
sein, aber sie ist nicht selbst Gegenstand epistemischer Rechtfertigungen.<br />
Es sind nicht die inferentiellen Beziehungen zu anderen Meinungen, die<br />
sie begründen, sondern nur der Entschluß der Wissenschaftlergemeinschaft.<br />
Ein ideales Bild der Rechtfertigungsstruktur eines Überzeugungssystems<br />
X stellt sich für einen Fundamentalisten dann ungefähr so dar: In
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 134<br />
X gibt es eine Teilmenge B von basalen Aussagen, die selbst kein Ziel für<br />
inferentielle Rechtfertigungen innerhalb von X sind, und über B gibt es<br />
eine Pyramide von Überzeugungen, deren Rechtfertigungen zumindest<br />
indirekt alle auf B zurückzuführen sind. Die Teilmengen B gehören dabei<br />
für alle epistemischen Subjekte zu demselben Typ von Aussagen. Das<br />
Verfahren für den Erkenntnisgewinn, das der empiristische Fundamentalist<br />
empfehlen wird, ist dementsprechend einfach zu beschreiben:<br />
Sammle zunächst so viele basale Meinungen wie möglich und ziehe in einem<br />
zweiten Schritt daraus so viele Schlußfolgerungen auf Theorien wie<br />
möglich.<br />
Es zeigt sich jedoch schon bald, daß dieses Bild unserer Erkenntnis<br />
einige nicht unproblematische Konsequenzen besitzt. So unterstützt es<br />
z. B. eine instrumentalistische Auffassung der Wissenschaften. Sind wir<br />
von einer weitgehenden Unterbestimmtheit der Theorien durch die Basis<br />
überzeugt, so daß durch die tatsächlich ermittelten Basisaussagen immer<br />
verschiedene Theorien in gleich guter Weise begründbar sind, haben<br />
wir auch keine Gründe mehr, an die Wahrheit unserer speziellen<br />
wissenschaftlichen Theorien zu glauben, denn ihre Konkurrenten stehen<br />
erkenntnistheoretisch um keinen Deut schlechter dar. Das Argument der<br />
Unterbestimmtheit durch die Basis kennzeichnet ein sehr populäres Vorgehen<br />
von Skeptikern unterschiedlichster Herkunft; das spezielle Argument<br />
für eine antirealistische Haltung gegenüber wissenschaftlichen<br />
Theorien zieht sich z. B. durch das ganze Werk von van Fraassen (1980).<br />
Es kommt aber noch schlimmer. Akzeptieren wir das Argument einmal<br />
für unsere Theorien, so sind wir ihm auch in bezug auf alle anderen<br />
nicht-basalen Meinungen ausgeliefert. Eine entsprechende Unterbestimmtheit<br />
läßt sich immer aufzeigen und führt somit direkt zu skeptischen<br />
Positionen. Für den Kohärenztheoretiker gibt es diesen fundamentalen<br />
epistemischen Unterschied zwischen Theorien und Daten dagegen<br />
nicht. Theorien haben genauso eine wesentlich rechtfertigende Wirkung<br />
wie Beobachtungsüberzeugungen; man kann in der Erkenntnistheorie<br />
keine bedeutungsvolle Aufteilung in zwei derartige Mengen mehr vornehmen,<br />
womit jeder Argumentation in der oben genannten Weise von<br />
vornherein ein Riegel vorgeschoben wird. Neben dem idealen Bild des<br />
Fundamentalismus gibt es die tatsächlichen Ausgestaltungen zu substantiellen<br />
fundamentalistischen Positionen, die nun immerhin kurz zu Wort<br />
kommen sollen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 135<br />
b) Spielarten des Fundamentalismus<br />
Die inhaltliche Ausgestaltung des Fundamentalismus erlaubt vielfältige<br />
Varianten, auf die im einzelnen ausführlicher einzugehen nicht Ziel dieser<br />
Arbeit sein kann. Aber ein kurzer Überblick über einige Spielarten,<br />
und welche Autoren dort anzusiedeln sind, soll die Diskussion um den<br />
Fundamentalismus anschaulicher gestalten. Zudem gibt er zu erkennen,<br />
wie zahlreich die Fundamentalisten in der Erkenntnistheorie vertreten<br />
sind. Daneben dokumentiert die Aufstellung, daß der substantielle Fundamentalismus<br />
keine einheitliche Position darstellt. D.h. jede Spielart<br />
des Fundamentalismus bedarf ihrerseits spezieller Begründungen über<br />
die der hierarchischen Rechtfertigungsstruktur hinaus, in denen andere<br />
Spielarten zurückgewiesen werden müssen. Der Überblick wird die<br />
Form von zwei Tabellen annehmen, die sich auf den Artikel von Triplett<br />
(1990) stützen und gerade auch neuere Arbeiten zu diesem Gebiet nennen,<br />
deren Autoren vielleicht nicht so allgemein bekannt sind wie die<br />
der klassischen Texte. 52 In der ersten Tabelle wird eine Aufteilung danach<br />
vorgenommen, welche Eigenschaften jeweils für die basalen Meinungen<br />
in Anspruch genommen werden. In der zweiten Tabelle geht es<br />
dagegen um die Frage – über die sich schon deutlich weniger Erkenntnistheoretiker<br />
ausgelassen haben –, wie die basalen Meinungen denn die<br />
nicht-basalen begründen können. Die jeweiligen Einordnungen der Autoren<br />
in die Tabelle und ihre Zuordnungen zu verschiedenen Formen<br />
des Fundamentalismus sind natürlich nicht immer unkontrovers und<br />
manchmal auch durch die Werke der Autoren tatsächlich unterbestimmt.<br />
Für den Fortgang der Argumentationen zum Fundamentalismus sind die<br />
Details der Einordnung allerdings nicht entscheidend. Fragen alternativer<br />
Interpretationen einzelner Philosophen und ihre Klassifizierung stehen<br />
natürlich für die allgemeine Beurteilung des Fundamentalismus<br />
nicht im Vordergrund. Bei Triplett (1990) finden sich einige Hinweise<br />
auf solche Alternativen.<br />
52 Für ausführlichere Literaturangaben muß ich auf den Aufsatz vonTriplett<br />
(1990) verweisen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 136<br />
Variationen der Basis<br />
Merkmale der Basis Typische Vertreter Anderer Ansicht<br />
Basale Überzeugungen<br />
geben mentalen Zustand<br />
wieder<br />
(statt Zustand der Au-<br />
ßenwelt).<br />
Basale Überzeugungen<br />
sind unfehlbar.<br />
Die Basis muß aus<br />
Überzeugungen und<br />
nicht etwa aus Wahrnehmungszuständen<br />
bestehen.<br />
Basale Überzeugungen<br />
sind relativ auf einen<br />
Begründungskontext<br />
(Ablehnung von FU<br />
3).<br />
Descartes, früher Carnap,<br />
Ayer, Chisholm,<br />
Lewis, Mach, Moser,<br />
Russell, Schlick.<br />
Descartes, Lewis,<br />
Schlick, Chisholm.<br />
Lehrer, Pollock, Williams.<br />
Wittgenstein, Sellars,<br />
Hanson, Feyerabend,<br />
Kuhn.<br />
Foley, Kekes, Quinton,<br />
späterer Carnap,<br />
Popper.<br />
Popper, Almeder,<br />
Audi, Cornman, Goldman.<br />
Cornman, Moser.<br />
die meisten Fundamentalisten,<br />
auch<br />
wenn sie es nicht explizit<br />
erwähnen.<br />
Variationen des inferentiellen Zusammenhangs<br />
Art der inferentiellen<br />
Beziehungen<br />
Typische Vertreter<br />
Beziehungen deduktiv Descartes<br />
Induktive Zusammenhänge späterer Carnap<br />
Vermittlung durch epistemische<br />
Prinzipien<br />
Chisholm<br />
Schluß auf die beste Erklärung Cornman, Moser, Goldman<br />
Definitorische Reduktion auf Mach, Russell, früher Carnap,<br />
Sinnesdaten<br />
Ayer, Lewis, Dicker.<br />
In die erste Tabelle habe ich auch noch kontextualistische Varianten des<br />
Fundamentalismus aufgenommen, die FU 3 nicht erfüllen, da sie heute<br />
relativ viele Anhänger finden und zumindest einige wesentliche Bestimmungsstücke<br />
des Fundamentalismus teilen. Trotzdem gehört FU 3 sicherlich<br />
zu der herkömmlichen Auffassung der fundamentalistischen Erkenntnistheorie.<br />
Die beiden Tabellen können natürlich nur eine kleine
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 137<br />
und subjektiv gefärbte Auswahl der zahlreichen fundamentalistischen Variationen<br />
wiedergeben, die sich in verschiedene Richtungen ergänzen ließe.<br />
Sie vervollständigt unser Bild des Fundamentalismus über die im ersten<br />
Abschnitt genannten allgemeinen Annahmen hinaus.<br />
Das wohl wichtigste Argument, das Fundamentalisten für ihre Position<br />
beibringen können, bezieht sich nur auf die formale Struktur des<br />
Fundamentalismus, wird aber immer durch Intuitionen unterstützt, die<br />
sich eher an bestimmten substantiellen Positionen orientieren. Diesem<br />
Argument ist der nächste Abschnitt gewidmet.<br />
2. Das Regreßargument für den Fundamentalismus<br />
Natürliche Kandidaten für basale Meinungen sind Meinungen über unsere<br />
Sinneswahrnehmungen oder Wahrnehmungen innerer Zustände,<br />
denn die halten wir für relativ irrtumssicher. Außerdem können Empiristen<br />
an unsere Intuition appellieren, daß wir alle Informationen über die<br />
Welt durch unsere Sinne gewinnen, diese also als der natürliche Ausgangspunkt<br />
unserer Erkenntnis zu identifizieren sind. Ähnlich sieht es<br />
für unsere allgemeineren Annahmen oder Theorien über unsere Umwelt<br />
aus. Um sie zu entwickeln, sind wir auf Beobachtungen angewiesen.<br />
Man mag dabei an eine induktive Bestätigung von Theorien anhand experimenteller<br />
Daten oder, wie Popper, an eine Bewährung von Theorien<br />
in ernstzunehmenden Falsifikationsversuchen denken. Startpunkt aller<br />
weiteren Überlegungen sind im empiristischen Bild von Erkenntnis jedenfalls<br />
immer Beobachtungen. Doch so sehr sich dieses Bild uns auch<br />
aufdrängt, es spricht in erster Linie über die Genese unserer Meinungen,<br />
und die gibt noch nicht vor, in welchen Rechtfertigungszusammenhängen<br />
unsere Meinungen stehen. Diesen Schwachpunkt ihrer Konzeption<br />
erkennen natürlich auch einige Fundamentalisten und versuchen daher<br />
den eben geschilderten intuitiven Gedanken zu einem echten Argument<br />
für einen formalen Fundamentalismus auszubauen. Dieses Argument,<br />
das oft als erkenntnistheoretisches Regreßargument oder auch Agrippas<br />
Trilemma bezeichnet wird, bezieht sich nun nicht mehr auf die Genese<br />
von Meinungen, sondern ihre Rechtfertigungsstruktur. Wenn ich um<br />
eine Rechtfertigung meiner Behauptung, daß p, gebeten werde, kann ich<br />
auf zwei verschiedene Weisen reagieren:<br />
1. Ich kann andere Behauptungen q äußern, die p inferentiell<br />
stützen sollen.<br />
2. Ich kann mich weigern, eine Rechtfertigung in Form anderer<br />
Meinungen anzugeben.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 138<br />
Der Fundamentalist behauptet nun, daß die erste Reaktion bestenfalls<br />
eine Verschiebung des Rechtfertigungsproblems darstellt, wir aber letztlich<br />
immer auf eine Reaktion des zweiten Typs zurückgreifen müssen.<br />
Und das begründet er so: Eine x-beliebige Behauptung q zu Rechtfertigungszwecken<br />
ins Spiel zu bringen, hilft uns erkenntnistheoretisch nicht<br />
weiter. Damit q tatsächlich eine Rechtfertigung darstellt, muß q selbst<br />
wieder gerechtfertigt sein, sonst könnten wir immer auf triviale Weise<br />
eine Rechtfertigung für p finden, nämlich z. B. p&r mit beliebigem r,<br />
aus der p sogar deduktiv folgt. Also verlangt q nach weiteren begründenden<br />
Aussagen ri, diese wiederum nach anderen si usf. Wir geraten, wenn<br />
wir bei Antworten des 1. Typs bleiben, entweder in einen unendlichen<br />
Regreß von immer neuen Aussagen in einer unendlichen Kette oder einen<br />
Zirkel, wo in der Begründungskette irgendwann eine Aussage auftritt,<br />
die schon vorher in der Kette vorkommt. Beide Ketten, die ins Unendliche<br />
führende und der Zirkel, so argumentiert der Fundamentalist,<br />
bringen uns keinen Fortschritt für das Rechtfertigungsproblem.<br />
Im Falle des Zirkels sind eigentlich alle Aussagen nicht gerechtfertigt<br />
worden, weil keine durch eine bereits unabhängig begründete Aussage<br />
gestützt wird. Eine Metapher kann diesen Punkt illustrieren. So wenig<br />
sich jemand selbst an den Haaren aus dem Sumpf ziehen kann, so wenig<br />
können sich zehn Männer gegenseitig aus dem Sumpf ziehen, wenn keiner<br />
von ihnen festen Boden unter den Füßen hat. Metaphern dieser Art<br />
scheinen uns angemessen, um unser Unbehagen mit der zirkulären<br />
Rechtfertigung auszudrücken und die Vorstellung eines Rechtfertigungszirkels<br />
zurückzuweisen, aber es bleiben eben doch Metaphern. Außerdem<br />
haben sie bereits einen deutlich fundamentalistischen Beigeschmack.<br />
Im Falle des unendlichen Regresses, sind ebenfalls alle Aussagen unbegründet<br />
– so der Fundamentalist – weil wir nie wirklich zu einer bereits<br />
gerechtfertigten Überzeugung gelangen können, die ihre Rechtfertigung<br />
an andere Aussagen weitergeben könnte. Beide Konzeptionen, die<br />
der unendlichen Kette wie die des Zirkels, sind daher eindeutig intuitiv<br />
unbefriedigend. Ich möchte dem Fundamentalisten in diesem Punkt zunächst<br />
Recht geben, ohne allzu lange mit ihm über das Regreßarguments<br />
zu streiten. Im Vordergrund soll statt dessen in den nächsten Abschnitten<br />
eine Bestandsaufnahme stehen, was der Fundamentalist uns seinerseits<br />
auf das Regreßproblem anzubieten weiß.<br />
Auf den ersten Blick ist nämlich die Antwort, eine Rechtfertigung für<br />
bestimmte Meinungen durch Berufung auf andere Meinungen schlicht<br />
zu verweigern, auch nicht besonders überzeugend. Man könnte dem
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 139<br />
Fundamentalisten vorwerfen, das sei wohl der kürzest mögliche Zirkel,<br />
den er damit wählt. Der Fundamentalist verbindet im allgemeinen aber<br />
eine andere Idee mit seinen basalen Meinungen. Für ihn sind sie in irgendeiner<br />
Weise selbstrechtfertigend oder evident. 53 Jedoch auch dieser<br />
Gedanke ist nicht leicht verständlich, wenn man bedenkt, daß die basalen<br />
Meinungen der Fundamentalisten üblicherweise nicht selbstreferentiell<br />
sind, also keine Aussagen über sich selbst machen. Trotzdem sollen<br />
diese Startschwierigkeiten des Fundamentalismus noch nicht zu seiner<br />
Ablehnung führen. Doch die Idee der Selbstrechtfertigung von Aussagen<br />
wird weiterhin als möglicherweise kritischer Aspekt des Fundamentalismus<br />
im Hintergrund bleiben.<br />
Nur zwei Bedenken gegen das Regreßargument sollen noch Erwähnung<br />
finden, bevor ich den Lösungsvorschlag der Fundamentalisten eingehender<br />
untersuche. Erstens wird von begründeten Meinungen nicht<br />
verlangt, daß man eine bestimmte Rechtfertigung explizit und tatsächlich<br />
vollständig durchlaufen hat oder tatsächlich durchlaufen kann.<br />
Wenn diese Rechtfertigungen implizit vorhanden sind, also im Prinzip<br />
verfügbar sind, genügt das bereits, um von jemandem zu sagen, er sei in<br />
seiner Meinung gerechtfertigt. So jedenfalls wollte ich begründete Meinungen<br />
hier verstanden wissen (s. dazu II.C.3). Für implizite Begründungen<br />
könnte also die Existenz einer potentiell unendlichen Kette als<br />
Rechtfertigung durchaus ausreichen, schließlich geht es bei Rechtfertigungsbeziehungen<br />
nicht um einen kausalen Vorgang der Rechtfertigung,<br />
der für unendliche Ketten natürlich nicht durchlaufen werden kann,<br />
sondern um eine inferentielle Beziehung zwischen Aussagen. 54 Wenn es<br />
gelingt, die Kette anschaulich zu beschreiben, könnte das bereits als<br />
schwache Begründung für eine Aussage akzeptiert werden. Ein Beispiel<br />
mag belegen, daß dieser Gedanke nicht so abwegig ist, wie er dem Fundamentalisten<br />
zunächst erscheint.<br />
Auf einer intuitiven Ebene, die natürlich nicht den strengen Anforderungen<br />
an mathematische Beweise entspricht, können wir dafür argumentieren,<br />
daß es zu jeder geraden Zahl eine größere gerade Zahl gibt:<br />
„Zu 2 gibt es 4, zu 4 gibt es 6, zu 6 gibt es 8 usw. und ich sehe nicht,<br />
warum das irgendwo aufhören sollte.“ Eine Überlegung dieser Art ist<br />
53 Man denke hier z. B. an Chisholms (1979, 40ff) Charakterisierung von<br />
selbstrepräsentierenden Sachverhalten oder Propositionen.<br />
54 Bis heute wird der Regreß allerdings immer wieder zeitlich gedeutet. So<br />
spricht Musgrave (1993, z. B. 61) mehrfach von früheren Überzeugungen und<br />
schreibt: „Da keiner von uns immer schon gelebt hat, ist ein unendlicher Regreß<br />
unmöglich."
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 140<br />
durchaus verständlich und wirkt überdies manchmal überzeugender als<br />
ein abstrakter mathematischer Beweis, obwohl sie natürlich nicht dessen<br />
Sicherheit bieten kann. Sie kann durchaus als ein Grund für die aufgestellte<br />
Behauptung dienen. In jedem Fall scheint mir der bloße Hinweis,<br />
daß man schließlich nicht alle Zahlen tatsächlich durchlaufen kann,<br />
nicht auszureichen, um damit zu demonstrieren, daß man die Behauptung<br />
über gerade Zahlen nicht im mindesten auf diese Weise unterstützen<br />
könne. Das Beispiel soll bekunden, daß unendliche Rechtfertigungsketten<br />
keineswegs immer völlig nutzlos sein müssen. Regreßargumenten<br />
gegenüber sollten wir daher mißtrauisch bleiben. Sie sind darüber hinaus<br />
– wie wir in (V.A.2) noch sehen werden – nicht völlig voraussetzungslos<br />
und legen vielleicht sogar falsche Maßstäbe an.<br />
Diese Skepsis gegenüber Regreßvorwürfen wird zum zweiten dadurch<br />
unterstützt, daß wir ähnliche Regreßargumente an vielen Stellen<br />
vortragen können. Auch dort, wo sie dem Fundamentalisten ebensowenig<br />
lieb sind wie dem Kohärenztheoretiker. Der Fundamentalist ist wie<br />
Erkenntnistheoretiker anderer Provenienz auf die Konstatierung bestimmter<br />
inferentieller Zusammenhänge angewiesen, um nicht-basale<br />
Meinungen anhand basaler zu rechtfertigen. Wenn ich q als Rechtfertigung<br />
für p angebe, stelle ich damit die Behauptung auf, daß hier eine<br />
epistemisch relevante Beziehung vorliegt, also q die Wahrscheinlichkeit<br />
für p erhöht. Das kann man so zusammenfassen:<br />
(*) q rechtfertigt p.<br />
Auch für diese Behauptung kann man nach einer Begründung verlangen.<br />
(Das gilt sogar im Falle, daß p aus q logisch folgt, was aber nicht der Regelfall<br />
und nicht der interessanteste Fall sein dürfte, sondern man denke<br />
z. B. an p als Theorie und q sie stützendes Datum.) Eine Begründung der<br />
Behauptung (*) ist, wenn man nicht derartige Begründungen selbst als<br />
basal betrachten möchte, wiederum auf inferentielle Rechtfertigungen<br />
angewiesen, für die man erneut fragen kann, ob sie wirklich rechtfertigend<br />
sind usf. Denn da jede dieser Rechtfertigungen eine Irrtumsmöglichkeit<br />
aufweist – und das gilt bekanntlich sogar für logische Ableitungen<br />
–, können wir jedesmal zu Recht nach einer Begründung dafür verlangen,<br />
daß sie tatsächlich zuverlässige Wahrheitsindikatoren darstellen.<br />
Außerdem lassen sich neben solchen Regreßbeispielen, mit denen<br />
wohl alle realistischen Rechtfertigungstheorien zu kämpfen haben, auch<br />
speziell auf den Fundamentalisten zugeschnittene Regreßargumente entwickeln.<br />
So hält er bestimmte Aussagen für basal und stützt sich in<br />
Rechtfertigungen auf sie. Dazu muß er sich für bestimmte Aussagen dar-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 141<br />
auf berufen, daß gerade sie basal sind. Er hat also etwa die Behauptung<br />
zu vertreten:<br />
(**) p ist basal.<br />
Nun können wir ihn danach fragen, wie er die Behauptung (**) zu begründen<br />
gedenkt. Im Falle von (*) hatte er zumindest noch die theoretische<br />
Möglichkeit, einfach (*) selbst wieder für basal zu erklären, wenn<br />
das auch nicht unbedingt eine realistische und plausible Erkenntnistheorie<br />
ergeben wird. Denn während wir vielleicht bei einfachen Beobachtungsaussagen<br />
eine gewisse Bereitschaft verspüren zu akzeptieren, daß<br />
man sie nicht unter Berufungen auf andere Meinungen weiter rechtfertigen<br />
muß, wird das für höherstufige Fragen danach, wie er sich der rechtfertigenden<br />
Wirkung bestimmter Argumente versichern kann, nicht<br />
mehr so natürlich erscheinen. Im Falle von (**) scheint dieses Vorgehen<br />
dagegen kaum weiter zu helfen, gerät man doch auch auf diesem Weg<br />
direkt in einen neuen Regreß, da es nun darum geht:<br />
(***) „p ist basal“ ist basal.<br />
zu rechtfertigen usw. Diesem Regreß oder Zirkel kann er aber auch auf<br />
andere Weise nicht ausweichen, denn als überzeugter Fundamentalist<br />
muß er sich in der Begründung für (**) letztlich auf basale Meinungen<br />
beziehen, für die wir wieder fragen können, wie er sicher sein kann, daß<br />
es sich dabei um basale Meinungen handelt etc.<br />
Eine solche Inflation von Regressen scheint mir die Bedeutung, die<br />
wir einzelnen Regressen beilegen sollten, zu mindern. Vielleicht genügt<br />
doch die implizit vorhandene Möglichkeit des epistemischen Subjekts,<br />
im Prinzip auf jede neue Frage nach einer Begründung eine Antwort geben<br />
zu können – auch wenn sich die Kette ins Unendliche erstrecken<br />
mag. Jedenfalls könnte ein Anti-Fundamentalist dem Fundamentalisten<br />
erwidern, daß er zwar einen bestimmten Regreß aufweist, mit dem der<br />
Fundamentalist nicht zu kämpfen hat, daß aber dieser dafür mit anderen<br />
zu kämpfen hat, die auch nicht leichter aufzulösen sind. Der Fundamentalist<br />
steht in diesem Punkt jedenfalls nicht besser da als sein Gegenspieler.<br />
Schauen wir nun noch, ob der Fundamentalist mit seiner Einführung<br />
von basalen Meinungen nicht obendrein in neue Schwierigkeiten gerät.<br />
3. Natürliche epistemische Arten und Hintergrundwissen<br />
Die Bedingung FU 3 besagte, daß Aussagen allein nach allgemeinen inhaltlichen<br />
Merkmalen einen intrinsischen epistemischen Status erlangen;
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 142<br />
also etwa danach, ob sie von unseren Sinneswahrnehmungen oder äußeren<br />
Objekten bestimmter Größe handeln. Wenn ich eine Überzeugung<br />
über eine Sinneswahrnehmung habe, so ist sie für einen Empiristen per<br />
se vertrauenswürdig. Williams (1991, 116ff) spricht davon, daß die<br />
Überzeugungen in natürliche epistemische Arten aufgeteilt werden, die<br />
eine Form von epistemischer Hierarchie bilden. Diese Konzeption einer<br />
für alle Kontexte festgelegten hierarchischen Schichtung von Rechtfertigungszusammenhängen<br />
entspricht jedoch nicht unserem üblichen Vorgehen.<br />
Schon Wittgenstein hat in Über Gewißheit 55 darauf aufmerksam gemacht,<br />
daß die Frage, welche Aussagen wir rechtfertigen und auf welche<br />
wir uns dabei stützen, vom jeweiligen Kontext abhängig ist. Der Historiker<br />
diskutiert nicht die Frage, ob das Universum älter als 100 Jahre ist,<br />
sondern setzt diesen Punkt selbstverständlich voraus, und wir würden<br />
ihn auch nicht für einen besonders gründlichen Historiker halten, wenn<br />
er in seinen Werken zu Beginn immer erst dafür plädieren würde. Argumente<br />
in dieser Richtung würden wir eher von einem Geologen oder Erkenntnistheoretiker<br />
erwarten. Wir legen zwar jeder Rechtfertigung bestimmte<br />
Aussagen zugrunde, aber es können Aussagen ganz unterschiedlichen<br />
Typs sein. Es muß sich dabei keineswegs um Beobachtungsüberzeugungen<br />
handeln.<br />
Gibt es denn nicht wenigstens eine Klasse von Aussagen, die man in<br />
allen Begründungen guten Gewissens als grundlegend ansehen darf? Der<br />
Empirist wird behaupten, das müßten doch die Wahrnehmungsaussagen<br />
sein, denn wenn wir an ihnen zweifeln, wie sollen wir dann überhaupt<br />
empirisches Wissen erwerben können? 56 Tatsächlich haben wir eine Neigung,<br />
unseren Beobachtungen zu vertrauen und ziehen sie gerne zu<br />
Rechtfertigungen heran, aber es gibt genauso Kontexte, in denen sie<br />
selbst begründungspflichtig werden. Der Staatsanwalt beruft sich etwa<br />
auf die Beobachtungen eines Augenzeugen, um den Angeklagten zu<br />
überführen. Der Verteidiger zieht dagegen die Aussagen in Zweifel und<br />
verlangt nach einer Begründung, daß diese Wahrnehmungen keinen Irrtum<br />
darstellen. 57 Auch wenn wir Beobachtungen nicht generell in Zweifel<br />
ziehen – was wohl aus praktischen Gründen nahezu unmöglich erscheint<br />
–, tun wir es mit guten Gründen doch in einigen Fällen; vor allem<br />
dann, wenn viel von der Wahrheit einer Beobachtungsaussage ab-<br />
55 Dazu gehören etwa die Paragraphen 163, 167, 234f u.a.<br />
56 Der Empirist muß immer wieder als Paradebeispiel für einen Fundamentalisten<br />
herhalten, weil seine Position zumindest in vorsichtigen Formulierungen<br />
als der plausibelste Kandidat dieser Richtung auftritt.<br />
57 Das wird in Kapitel IV.B erläutert.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 143<br />
hängt. In diesen Fällen bezweifeln wir Beobachtungen z. B. unter Bezugnahme<br />
auf Theorien über die Wahrnehmungsfähigkeiten von Menschen.<br />
Jedenfalls bekunden diese Beispiele keine festgelegte Hierarchie von<br />
Rechtfertigungen, nach der am Anfang einer Rechtfertigungskette immer<br />
Beobachtungen stehen müssen, die selbst keiner Rechtfertigung bedürfen.<br />
Es gehört vielmehr zu unseren Überzeugungen über Wahrnehmung,<br />
daß wir in manchen Fällen relativ zuverlässige Beobachter sind, aber in<br />
anderen Fällen unseren Sinnen nicht unbedingt vertrauen können. Für<br />
jede Beobachtungsaussage gibt es ein Irrtumsrisiko (s. III.B.5), und wir<br />
finden Beobachtungsaussagen auf jeder Ebene von epistemischer Sicherheit<br />
bzw. Unsicherheit. Wie für andere Meinungen auch, können wir für<br />
jede einzelne Beobachtungsaussage fragen, ob sie wahr und außerdem<br />
gut begründet ist oder nicht. Wir haben keinen Grund, Beobachtungsüberzeugungen<br />
gesondert zu behandeln und von jeder Begründungsverpflichtung<br />
zu befreien. Besonders unplausibel ist die Annahme, es seien<br />
intrinsische Merkmale einer derartigen Meinung, die sie als besonders<br />
geeignet – also etwa besonders irrtumssicher – ausweisen würden. Eine<br />
Überzeugung wie „Vor mir steht mein Bruder“ oder „Vor mir steht eine<br />
Handtasche“ kann in vielen normalen Situationen als ganz sicher und<br />
angemessene Grundlage weiterer Schlußfolgerungen dienen, aber sie<br />
wird unter anderen Umständen unsicher und begründungsbedürftig. Das<br />
hängt vor allem von der Situation und unserem Hintergrundwissen ab.<br />
Halluziniere ich des öfteren, oder könnte vielleicht eine lebensgroße<br />
Photographie meines Bruders vor mir stehen, von denen es viele gibt,<br />
oder werden Androiden nach dem Vorbild meines Bruders gebaut oder<br />
fällt mir auch nur ein, daß ich eigentlich keinen Bruder habe, obwohl<br />
ich ihn mir immer so gewünscht habe, steht die zunächst unproblematisch<br />
erscheinende Überzeugung schon in einem ganz anderen Licht dar.<br />
Die zweite Überzeugung wäre zu überdenken, wenn ich mich wieder in<br />
der Wohnung der Künstlerin Dorothy Levine aufhielte. Der Externalist<br />
könnte an dieser Stelle entgegnen, daß wir um diese Bedingungen nicht<br />
Bescheid wissen müssen, um in unseren Wahrnehmungsüberzeugungen<br />
gerechtfertigt zu sein, es genügt dafür, daß sie vorliegen. Doch diesen<br />
Schachzug hat schon das Kapitel (III.A) widerlegt. Wir sind deshalb gezwungen,<br />
unser Hintergrundwissen zur epistemischen Beurteilung von<br />
Wahrnehmungsüberzeugungen zu Rate zu ziehen. Die angeblich basalen<br />
Meinungen sind nicht wirklich selbstrechtfertigend, sondern in ihrem<br />
epistemischen Status von unserem übrigen Wissenshintergrund abhängig.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 144<br />
Sie haben keinen intrinsischen epistemischen Status wie FU 3 nahelegt.<br />
In bestimmten Fällen sind Beobachtungsaussagen sicherer als andere,<br />
aber in anderen Situationen gibt uns unser Hintergrundwissen gute<br />
Gründe, allgemeinere Überzeugungen wie, daß die Sonne jeden Tag wieder<br />
aufgehen wird, als verläßlicher anzunehmen. In einer ähnlichen<br />
Richtung hat BonJour sein allgemeines Argument gegen den Fundamentalismus<br />
entwickelt, in dem er danach fragt, wieso wir eigentlich von bestimmten<br />
basalen Meinungen annehmen, sie seien gute Wahrheitsindikatoren.<br />
4. Der Einwand des Kriteriums<br />
Der letzte Abschnitt erklärte, wieso die üblichen Beispiele für basale<br />
Meinungen nicht durch intrinsische Eigenschaften erkenntnistheoretisch<br />
ausgezeichnet sind. Wenn wir wissen wollen, ob wir einen unsicheren<br />
Kandidaten oder einen nicht irrtumsgefährdeten Fall vor uns haben,<br />
sind wir daher auf zusätzliche Informationen aus unserem Hintergrundwissen<br />
angewiesen. BonJour (1985, 30ff) stellt ein noch grundsätzlicheres<br />
Argument gegen den Fundamentalismus vor, das sogar vor der Frage,<br />
welchen Einfluß zusätzliche Informationen auf den Status basaler Überzeugungen<br />
haben, ansetzt. 58 Sein Ausgangspunkt ist die Überlegung,<br />
über welche Informationen ein Fundamentalist denn zumindest verfügen<br />
muß, damit er behaupten kann, eine vertretbare Antwort auf das Regreßproblem<br />
zu geben. Als Internalisten sind wir als erstes darauf angewiesen,<br />
daß wir die basalen Meinungen als solche auch erkennen. Sie<br />
müssen sich durch ein uns kognitiv zugängliches Merkmal M von nichtbasalen<br />
Meinungen unterscheiden, das sie zu basalen Meinungen macht.<br />
Damit der Fundamentalist über eine einsichtige Form von Rechtfertigung<br />
verfügt, sollte das kein beliebiges Merkmal sein, wie z. B., daß der<br />
erste Buchstabe des zweiten Wortes ein B sei, sondern es muß sich dabei<br />
um ein erkenntnistheoretisch bedeutsames Merkmal handeln. D.h. die<br />
Eigenschaft M zu haben muß die Wahrscheinlichkeit einer Meinung,<br />
wahr zu sein, erhöhen. Weiterhin kann M für einen Internalisten nur<br />
dann epistemisch relevant sein, wenn dieser Charakter von M als Wahrheitsindikator<br />
dem epistemischen Subjekt auch bekannt ist. M könnte<br />
z. B. die Eigenschaft sein, direkt unsere Sinnesdaten wiederzugeben, und<br />
als Phänomenalisten könnten wir M als einen Wahrheitsindikator be-<br />
58 Ein Argument ähnlicher Form steht auch bei Chisholm (1979, 47f), das<br />
dieser dem Skeptiker zuschreibt und auf das er auch keine überzeugende Antwort<br />
weiß.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 145<br />
trachten, weil wir glauben, daß zwar für unsere Überzeugungen über äußere<br />
Gegenstände Irrtumsmöglichkeiten bestehen, aber nicht für unsere<br />
Ansichten über unsere direkt gegebenen Wahrnehmungsinhalte.<br />
Die dann entstandene Situation läßt sich aber nur noch so beschreiben:<br />
Die in Frage stehende Überzeugung ist nicht mehr basal im Sinne<br />
von FU 1. Sie ist nicht selbstrechtfertigend, sondern ihre Rechtfertigung<br />
als „basale“ Meinung hängt von anderen Überzeugungen ab wie der, daß<br />
sie die Eigenschaft M aufweist und daß M ein Wahrheitsindikator ist.<br />
Wir können die Rechtfertigung für eine derartige Meinung p somit in einem<br />
einfachen Schema wiedergeben:<br />
(1) Die Meinung p hat die Eigenschaft M.<br />
(2) Meinungen, die die Eigenschaft M haben, sind<br />
wahrscheinlich wahr.<br />
Also: Die Meinung p ist wahrscheinlich wahr.<br />
Das ist eine inferentielle Begründung für p, ohne die ein Internalist p als<br />
unbegründet ansehen sollte. Für empirische Behauptungen p sind die<br />
Behauptungen (1) und (2) außerdem nicht beide von rein apriorischem<br />
Charakter, was für die meisten Beispiele klar ersichtlich ist und einem<br />
Empiristen allemal begreiflich sein sollte. Für den Common-Sense Empiristen<br />
sollten etwa skeptische Hypothesen ausreichen, um ihm zu verdeutlichen,<br />
daß das Merkmal Aussage über einen Gegenstand mittlerer<br />
Größe zu sein, nur in bestimmten möglichen Welten ein Wahrheitsindikator<br />
ist und daher jedenfalls die Behauptung (2) empirischen Gehalt besitzt.<br />
Die als Kandidat für eine basale Meinung gestartete Überzeugung p<br />
erweist sich somit als nicht-basal.<br />
Dieses Argument, das BonJour (1985, 32) noch in einer ausführlicheren<br />
semiformalen Gestalt präsentiert, zeigt, daß wir nicht zugleich<br />
Fundamentalisten sein und ebenfalls die Gebote des Internalismus für<br />
epistemisch relevante und irrelevante Merkmale einhalten können. In<br />
dem Moment, in dem wir die internalistischen Forderungen und unsere<br />
Explikation von epistemischen Rechtfertigungen als Wahrheitsindikatoren<br />
ernst nehmen, sind wir auf inferentielle Begründungen für all unsere<br />
Meinungen zwingend angewiesen, wenn wir sie überhaupt als begründet<br />
betrachten wollen.<br />
5. Substantieller Fundamentalismus<br />
In diesem Abschnitt sollen nun einige substantielle Ausgestaltungen des<br />
Fundamentalismus ausführlicher zu Wort kommen, die in der empiristi-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 146<br />
schen Tradition angesiedelt sind und auch mir früher in der einen oder<br />
anderen Variante attraktiv erschienen. Es läßt sich in solchen Beispielen<br />
konkreter vorführen, an welchen Stellen die Theorien auf unplausible<br />
Annahmen angewiesen sind. Als erstes stoßen wir auf die Sinnesdatentheorien,<br />
die unter anderem Namen schon von den britischen Empiristen<br />
vertreten wurden. Sie nahmen in neuerer Zeit mit dem „linguistic<br />
turn“ der analytischen Philosophie die Wende zu einer sprachphilosophischen<br />
Theorie: dem Phänomenalismus.<br />
a) Sinnesdaten und der Phänomenalismus<br />
Fundamentalistische Ansätze, die unserer Erkenntnis Beobachtungssätze<br />
wie<br />
(1) Vor mir steht eine Handtasche.<br />
zugrunde legen wollen, haben sofort mit dem Problem zu kämpfen, daß<br />
man sich bei solchen Beobachtungen irren kann. Wir können immer<br />
sinnvoll fragen: Wieso glaubst Du, daß Du Dich gerade in diesem Fall<br />
nicht irrst? Antworten wir darauf in Form einer Rechtfertigung, sind wir<br />
auf zusätzliche Informationen angewiesen, ob es sich jeweils um eine irrtumsträchtige<br />
Wahrnehmungssituation handelt oder nicht. Vor diesem<br />
Hintergrund konnten wir Beobachtungsüberzeugungen vom Typ (1)<br />
nicht mehr als „basal“ einstufen. Um diesem Problem zu entgehen, versuchen<br />
Fundamentalisten Meinungen als basal auszuweisen, die schon<br />
eher als selbstrechtfertigend und irrtumssicher gelten können. Dementsprechend<br />
wählt Chisholm (1979, 41) seine Formel für das Evidente:<br />
„Was mich zu denken berechtigt, daß a F ist, ist einfach die Tatsache, daß<br />
a F ist.“ Dabei hat für Chisholm „unser Mensch seine Rechtfertigung einer<br />
Proposition einfach durch die Reiteration der Proposition gegeben“.<br />
Dieses Verfahren der Rechtfertigung ist natürlich nicht für alle Meinungen<br />
sinnvoll, sondern nur für solche, die selbstrepräsentierend sind. Das<br />
sind Meinungen, die wenn sie wahr sind, notwendigerweise dem epistemischen<br />
Subjekt auch evident sind (Chisholm 1979, 43). Das wohl<br />
prominenteste Beispiel einer solchen Meinung ist „Ich denke“, denn<br />
wenn ich denke, ist mir das nach Descartes und Chisholm notwendigerweise<br />
auch unmittelbar evident. Doch letzteres Beispiel gibt noch keine<br />
sehr gehaltvolle Basis für weitere Annahmen ab – jedenfalls wenn ich davon<br />
ausgehe, daß wir dem Cartesischen Weg, über einen Gottesbeweis<br />
weiterzukommen, nicht mehr folgen wollen. Deshalb haben Empiristen<br />
versucht, eine gehaltvollere Beobachtungsbasis zu finden. Einen Ausweg<br />
aus dem Problem des Satzes (1) scheint der Rückzug auf die subjektiven
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 147<br />
Elemente der Beobachtung zu bieten. Statt die „riskante“ Behauptung<br />
(1) zu wagen, zieht sich der Sinnesdatentheoretiker etwa auf eine Behauptung<br />
vom Typ:<br />
(2) Ich habe eine handtaschenartige Sinneswahrnehmung.<br />
oder besser:<br />
(2’)Ich habe eine Wahrnehmung, als ob eine Handtasche vor mir<br />
steht.<br />
zurück. (2) und (2’) sind nur als Aussagen über unsere subjektiven Sinneseindrücke<br />
gemeint und stellen keine Behauptungen über äußere Gegenstände<br />
mehr auf. Die gewöhnlichen Irrtumsmöglichkeiten entfallen<br />
damit; aber auch der gewöhnliche Gewinn, den wir uns von unseren basalen<br />
Aussagen erhoffen, nämlich daß sie uns Informationen über die<br />
Außenwelt vermitteln. Es tritt nun die Frage stärker in den Vordergrund,<br />
wie man mit Sätzen vom Typ (2) überhaupt Überzeugungen vom Typ (1)<br />
und schließlich die darauf aufbauenden wissenschaftlichen Theorien begründen<br />
kann. Erkenntnistheoretiker verschiedener Couleur haben Vorschläge<br />
unterbreitet, die den Zusammenhang zwischen Sätzen vom Typ<br />
(1) und solchen vom Typ (2) erklären sollen. Dazu haben sie die Terminologie<br />
vom „Sinnesdatum“ eingeführt. Was unter „Sinnesdatum“ verstanden<br />
werden soll, variiert von Autor zu Autor und wird auch nicht<br />
immer deutlich ausgesprochen. Sinnesdaten sind in den meisten Fällen<br />
ungefähr zu beschreiben als der subjektive Wahrnehmungsinhalt, den<br />
wir bei einer Beobachtung haben und werden in etwa durch Sätze vom<br />
Typ (2) oder in anderen Fällen durch Sätze wie<br />
(3) Hier ist jetzt rot.<br />
zum Ausdruck gebracht; manchmal spricht man auch vom unmittelbar<br />
Gegebenen in der Wahrnehmung. Gerade von den letzten Sätzen erhoffte<br />
man sich eine besonders hohe Irrtumsresistenz.<br />
Z. B. Schlicks „Konstatierungen“ lassen sich am ehesten durch Sätze<br />
des Typs (3) beschreiben, die mit ihren indexikalischen Ausdrücken unsere<br />
Wahrnehmungsinhalte am besten wiedergeben (Schlick 1934, 92ff).<br />
Doch Schlick weist darauf hin, daß seine Konstatierungen sich eigentlich<br />
nicht in objektivierte Beschreibungen übersetzen lassen, da der hinweisende<br />
Gehalt von Konstatierungen, der eher durch eine entsprechende<br />
Geste zum Zeitpunkt der Konstatierung zum Ausdruck gebracht würde,<br />
dabei nicht erfaßt werden kann.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 148<br />
Wenn ich die Konstatierung mache: „Hier ist jetzt blau“, so ist sie<br />
nicht dasselbe wie der Protokollsatz: „M.S. nahm am soundsovielten<br />
April 1934 zu der und der Zeit an dem und dem Orte blau wahr“,<br />
sondern der letzte Satz ist eine Hypothese und als solcher stets mit<br />
Unsicherheit behaftet. (Schlick 1934, 97)<br />
Allerdings hat Schlick hier nur die üblichen Protokollsätze der logischen<br />
Empiristen im Auge, die für seine Zwecke tatsächlich ungeeignet sind.<br />
Die Schlickschen Konstatierungen lassen sich wohl eher als indexikalische<br />
Aussagen des Typs (3) interpretiert im Rahmen ihres jeweiligen<br />
pragmatischen Kontextes darstellen. Einen moderneren Vorschlag in dieser<br />
Richtung, der dadurch noch nicht angemessen erfaßt wird, weil er<br />
sich nicht auf Objekte mit wesentlich semantischem Gehalt stützt, stellt<br />
Mosers Fundamentalismus dar, den wir im nächsten Abschnitt kennenlernen<br />
werden.<br />
Den Ausdruck „Sinnesdaten“ haben Moore und Russell im Englischen<br />
(„sense data“) eingeführt, aber mit Locke, Berkeley, Hume und<br />
Mill finden sich bereits frühere Sinnesdatenvertreter, die von „ideas“<br />
oder „impressions“ sprechen. Sinnesdaten haben für repräsentative Realisten<br />
wie John Locke vor allem die Aufgabe, zwischen dem äußeren Objekt<br />
und dem epistemischem Subjekt zu vermitteln. Sie repräsentieren das<br />
Objekt in der Wahrnehmung. Demgegenüber streichen Idealisten wie<br />
Berkeley oder Mill gleich das Objekt und identifizieren es schlicht mit<br />
Komplexen von Sinnesdaten. Dazu hat Mill neben den tatsächlich wahrgenommenen<br />
sogar noch mögliche Sinnesdaten eingeführt, die niemand<br />
mehr tatsächlich empfunden haben muß. 59<br />
Phänomenalisten aus der analytischen Tradition wie z. B. Carnap<br />
und Ayer haben diese Überlegung im Sinn des „linguistic turn“ weitergeführt<br />
und eine einfache Theorie über den Zusammenhang zwischen Sätzen<br />
vom Typ (1) und solchen vom Typ (2) entwickelt. Für sie sind Aussagen<br />
über Gegenstände der Außenwelt in solche über Sinnesdaten übersetzbar.<br />
Wären Sinnesdaten die uns zugänglichen und irrtumssicheren<br />
Bestandteile unserer Sinneswahrnehmungen und alle anderen Sätze<br />
schließlich in Sinnesdatenaussagen übersetzbar, könnte das auf eine ideale<br />
fundamentalistische Position hinauslaufen. Von einer infalliblen Basis<br />
aus ließen sich alle wahren Aussagen mit rein analytischen Schlüssen ableiten,<br />
wobei sowohl die Sinnesdaten wie auch die analytischen Schlüsse<br />
nebenbei noch die Anforderungen des Internalismus erfüllen könnten.<br />
59 Für einen Überblick über die Geschichte der Sinnesdaten in der Wahrnehmungstheorie<br />
s. Schantz (1991).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 149<br />
Das ist natürlich viel zu schön um wahr zu sein. Schwierigkeiten<br />
stellten sich denn auch sogleich ein. Eine Dingaussage wie „Vor mir steht<br />
ein Würfel“ läßt sehr viele, potentiell sogar unendlich viele, verschiedene<br />
Hinsichten zu, aus denen der Würfel betrachtet werden kann, für<br />
die sich entsprechende quader- oder würfelförmige Ansichten eventuell<br />
mit verschiedenen Farben ergeben. Eine konkrete Dingaussage der angegebenen<br />
Art impliziert daher eine entsprechende Vielzahl von Sinnesdatenaussagen<br />
(s. dazu Stegmüller 1958). 60 Tatsächlich kann jeder Mensch<br />
zu einem Zeitpunkt aber immer nur eine solche Hinsicht einnehmen<br />
und damit ihrer sicher sein. Kognitiv zugänglich wird uns deshalb für<br />
Dingaussagen nie ihre gesamte Sinnesdatenbasis sein, sondern immer<br />
nur ein sehr kleiner Ausschnitt daraus. Das Bild eines infalliblen Fundamentalismus<br />
läßt sich dann nicht mehr aufrechterhalten, weil der analytische<br />
Zusammenhang zwischen den wenigen tatsächlich verfügbaren<br />
Daten und unseren Behauptungen vom Typ (1) verlorengeht. Das Problem<br />
wird noch dadurch verschärft, daß Dingaussagen auch Implikationen<br />
für Situationen haben, in denen wir das betreffende Ding für kurze<br />
Zeit überhaupt nicht betrachten und auch über keine anderen Sinnesdaten<br />
von ihm verfügen. 61 Von normalen Gegenständen wissen wir, daß sie<br />
gewisse Kontiniutäten aufweisen und können deshalb von einer Dingaussage<br />
Schlüsse auf nichtbeobachtete Dinge ziehen, während Sinnesdaten<br />
an unsere momentane Wahrnehmung gebunden bleiben.<br />
Trotzdem könnte der Phänomenalist weiter an seiner Übersetzungsthese<br />
festhalten, wenn er die nicht wahrgenommenen aber möglichen<br />
Hinsichten als mögliche Sinnesdaten mit aufnimmt, wie es Mill getan<br />
hat. Aber auch wenn die möglichen Sinnesdaten für die Übersetzungsthese<br />
interessant bleiben, für die erkenntnistheoretischen Überlegungen<br />
eines Internalisten müssen sie außen vor bleiben, weil sie uns nicht tatsächlich<br />
kognitiv verfügbar sind. Sie leisten daher nichts für die Begründung<br />
meiner Meinungen. Der Phänomenalist könnte sich dann nur auf<br />
die Position zurückziehen, daß die Übersetzungsthese den Zusammenhang<br />
zwischen Dingaussagen und Sinnesdaten vermittelt und die wenigen<br />
uns zugänglichen Sinnesdaten eben gerade unsere epistemische Basis<br />
für unseren Schluß auf bestimmte äußere Gegenstände bilden, auch<br />
wenn dieser Schluß kein analytischer mehr sein kann.<br />
60 Nicht nur über visuelle Empfindungen, sondern ebenso über Empfindungen<br />
der anderen Sinne.<br />
61 Ayer war sich in (1984, 118ff) dieser Probleme durchaus bewußt und<br />
glaubte in seinen späteren Jahren nicht mehr an eine vollständige Reduktion von<br />
Ding-Aussagen auf Sinnesdaten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 150<br />
Doch ob die Übersetzungsthese die ihr damit zugewiesene Aufgabe<br />
tatsächlich übernehmen kann, bleibt mehr als ungewiß. Auf welche<br />
Schwierigkeiten der ernsthafte Versuch stößt, das Reduktionsvorhaben<br />
in umfassender Weise tatsächlich auszuführen, zeigt z. B. Carnaps Logischer<br />
Aufbau der Welt. Insbesondere in größerer Entfernung von der Basis<br />
werden die reduzierenden Definitionen immer schwieriger. Einige<br />
der entstehenden Lücken sind von Goodman (1951) angegeben worden<br />
und andere von Carnap selbst. Auch dieses Standbein der phänomenalistischen<br />
Fundamentalisten, die Reduktion aller nicht-basalen Dingaussagen<br />
auf die Sinnesdatenüberzeugungen, die uns tatsächlich epistemisch<br />
zugänglich sind, muß daher als gescheitert angesehen werden. 62<br />
Wenn mir diese Pietätlosigkeit einmal erlaubt sei: Ein Gelingen dieses<br />
inzwischen verstorbenen Projekts scheint mir erkenntnistheoretisch<br />
nicht einmal besonders wünschenswert zu sein. Auch wenn es den Phänomenalisten<br />
vielleicht selbst nicht immer ganz klar war, weil sie ontologische<br />
Fragen meist als rein sprachliche Fragen verstanden wissen wollten,<br />
legt ihr Übersetzungsvorhaben den Grundstein für eine idealistische<br />
Theorie, die auf physische Gegenstände zugunsten der Sinnesdaten ganz<br />
zu verzichten gedenkt. Franz von Kutschera (1982, 223) subsumiert daher<br />
in seiner Erkenntnistheorie die Phänomenalisten unter die neueren<br />
Idealisten. Ein realistisch gesonnener Philosoph wird das phänomenalistische<br />
Reduktionsprogramm deshalb immer mit großer Skepsis verfolgen.<br />
Ein Realist bezüglich der Außenwelt wird auf Sinnesdaten sowieso<br />
nur dann zurückgreifen, wenn seine besten empirischen Theorien unserer<br />
Wahrnehmung Sinnesdaten für einen wesentlichen Bestandteil in unserem<br />
Wahrnehmungsvorgang ansehen. Dann sind sie aber in einem<br />
theoretischen Rahmen innerhalb seiner Vorstellung der Welt und unserer<br />
Stellung in ihr angesiedelt und nicht etwa Fundamente, auf die wir<br />
uns vor jeder empirischen Theorienbildung verlassen können.<br />
Man kann den Phänomenalismus auch als einen Versuch betrachten,<br />
sich dem Skeptiker entgegenzustellen. Wenn der uns den subjektiven Anteil<br />
an der Wahrnehmung als infallibel erkennbar zugesteht, lassen sich<br />
auf dieser Grundlage alle anderen Aussagen als komplizierte Sinnesdatenaussagen<br />
logisch ableiten, so daß keine epistemische Kluft mehr entsteht,<br />
wo der Skeptiker einhaken könnte. Daß die subjektiven Wahrnehmungsinhalte<br />
uns zunächst in unproblematischer Weise zugänglich sind,<br />
und wir uns nur fragen müssen, wie wir von dort zu Erkenntnissen über<br />
die Außenwelt gelangen, ist tatsächlich eine Standardsituation für viele<br />
62 Allerdings ist Carnaps Ziel im Aufbau nicht primär ein erkenntnistheoretisches,<br />
obwohl er meist so gelesen wird (s. Bartelborth 1995).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 151<br />
skeptische Fragestellungen. Das Gehirn in der Nährflüssigkeit eines bösen<br />
Wissenschaftlers ist sich seiner Wahrnehmungen durchaus in zuverlässiger<br />
Weise bewußt, aber alle Schlüsse, die es daraus auf eine entsprechende<br />
Außenwelt zieht, sind leider falsch. Nicht so für den Phänomenalisten.<br />
Der könnte nämlich entgegnen, daß diese Darstellung inkonsistent<br />
ist, weil Aussagen über Gegenstände einer Außenwelt bedeutungsgleich<br />
zu Aussagen über Sinnesdaten sind. Das Gehirn im Topf macht also<br />
immer nur Aussagen über Sinnesdaten, und daß es sich dabei nicht<br />
irrt, war uns vom Skeptiker für diesen Fall zugestanden worden. Doch<br />
diese Wendung des Phänomenalisten, der aus seiner Not, das Verhältnis<br />
von Aussagen des Typs (1) zu denen des Typs (2) zu klären, eine Tugend<br />
macht, indem er sie als identisch einstuft, verzichtet darauf, Erkenntnisse<br />
über eine physische Welt in einem objektiven Sinn anzustreben. Sie<br />
kommt deshalb dem Skeptiker bereits in wesentlichen Punkten entgegen.<br />
Selbst ein Gelingen des phänomenalistischen Programms ist aus<br />
erkenntnistheoretischer Sicht, als Antwort auf den Skeptiker, daher<br />
nicht befriedigend.<br />
Interessanter wirkt da schon der Rückgriff auf die älteren Repräsentationstheorien<br />
der Erkenntnis kombiniert mit dem Schluß auf die beste<br />
Erklärung. Wenn wir in Sinnesdaten eine sichere Basis finden, können<br />
wir auf physische Objekte als die besten Erklärungen für das Auftreten<br />
dieser Sinnesdaten schließen. Ein solcher Verzicht auf eine analytische<br />
Herleitung von nicht-basalen Überzeugungen aus der Basis wäre eher im<br />
Sinne einer realistischen Auffassung des Fundamentalismus. Doch auch<br />
in dieser Version der Sinnesdatentheorie stoßen wir schnell auf neue<br />
Probleme. Die ersten betreffen den Schluß auf die beste Erklärung. Was<br />
eine bessere Erklärung ist, ist immer vor unserem jeweiligen Hintergrundwissen<br />
zu beurteilen (s. dazu VI.B.4). Wieso sollten vor dem alleinigen<br />
Hintergrund von Sinnesdaten, die wir zu Beginn gesammelt haben,<br />
physische Dingtheorien eine bessere Erklärung für die Sinnesdaten<br />
anbieten als etwa skeptische Hypothesen, nach denen die Sinnesdaten<br />
uns von einem bösen Dämon oder Wissenschaftler eingegeben werden?<br />
Bei unserem gewöhnlichen Hintergrundwissen erscheinen sie uns als die<br />
natürlichsten Erklärungen, aber welche Anhaltspunkte finden sich dafür<br />
in einem reinen Sinnesdatenwissenshintergrund? Es dürfte unmöglich<br />
sein, die Abduktion im Rahmen dieser Theorie sinnvoll zum Einsatz zu<br />
bringen. 63<br />
63 Siehe dazu auch die Diskussion um Mosers Fundamentalismus im nächsten<br />
Abschnitt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 152<br />
Ein anderes Problem betrifft die Basis dieses Fundamentalismus. Sie<br />
erschien uns deshalb so sympathisch, weil sie infallibel sein sollte und<br />
auf diese Weise einigen Problemen anderer fundamentalistischer Theorien<br />
entgehen konnte. 64 Dieser Annahme bin ich bisher einfach gefolgt,<br />
ohne damit allerdings ihre Wahrheit präjudizieren zu wollen. Kann man<br />
sich bei Aussagen wie<br />
(4) Ich habe jetzt eine Rotwahrnehmung.<br />
nicht doch irren? Um das zu untersuchen, muß ich zwei Lesarten des<br />
Satzes unterscheiden: In einer ersten, benenne ich mit (4) nur meine augenblickliche<br />
Sinneswahrnehmung mit einem Wort, nämlich „Rotwahrnehmung“<br />
– gleichgültig wie sie qualitativ beschaffen ist. Das scheint<br />
mir eine epistemisch uninteressante Lesart von (4) zu sein, denn (4) besagt<br />
in dieser Interpretation nicht mehr, als daß ich jetzt eine Empfindung<br />
irgendeiner Art habe, der ich einen Namen gebe. Es ist sicher nicht<br />
leicht zu sehen, wie man sich dann in (4) irren kann, aber es ist ebensowenig<br />
verständlich, wie mit (4) in dieser Lesart ein Erkenntnisgewinn<br />
verbunden sein könnte. Dazu müssen wir (4) schon so verstehen, daß<br />
meine Farbwahrnehmung durch (4) in einen Zusammenhang mit anderen<br />
Farbwahrnehmungen gebracht wird, die ich ebenfalls als Rotwahrnehmungen<br />
bezeichne. Dann meine ich mit (4) so etwas wie: Es gibt<br />
eine Klasse von qualitativ ähnlichen Farbwahrnehmungen in einem größeren<br />
Farbenspektrum, die ich mit „rot“ bezeichne, und meine jetzige<br />
Wahrnehmung gehört zu dieser Klasse. Schon bei diesem geringen Gehalt<br />
kann ich mich in (4) aber auch irren, denn ich behaupte eine qualitative<br />
Ähnlichkeit zu anderen Farbwahrnehmungen, die nicht gegeben<br />
sein könnte.<br />
Für den Realisten genügt diese Erklärung, wie es zu einem Irrtum<br />
kommen könnte, um die Irrtumsmöglichkeit zuzugestehen. Aber auch<br />
Anti-Realisten wie Putnam sollten sie zugestehen, denn, daß ich mich<br />
dabei geirrt habe, könnte mir sogar selbst bewußt werden. Der Irrtum ist<br />
nicht etwa prinzipiell unentdeckbar. Wenn ich kurz nach dem Ausspruch<br />
(4) wieder eine andere Rotwahrnehmung habe und sie als solche erkenne,<br />
könnte ich sagen: „Stimmt, das ist Rot, vorher das war dann<br />
doch nur Violett und kein richtiges Rot. Die neue Wahrnehmung erinnert<br />
mich wieder an die Farbe Rot.“ Sobald ich also eine Aussage wenn<br />
64 Das behauptete Ayer z. B. in (1979, II) und sogar noch in der zweiten<br />
Auflage von (1970, 15f), wo er von der Unmöglichkeit sich zu irren, außer einer<br />
rein verbalen spricht. In (Ayer 1984, 44ff) hat er dagegen dieser Behauptung bereits<br />
abgeschworen und argumentiert überzeugend gegen sie.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 153<br />
auch nur mit nur geringem Gehalt akzeptiere und nicht nur eine der Art<br />
„Dies ist jetzt hier“, gerate ich in die Gefahr des Irrtums, während andererseits<br />
mit gehaltsleeren Aussagen kaum ein Erkenntnisfortschritt zu erzielen<br />
ist. Das Fazit dieses Abschnitts läßt sich daher – und wen wundert<br />
das eigentlich? – so zusammenfassen: Bei jeder Überzeugung mit nichtleerem<br />
Gehalt können wir uns irren. 65<br />
Ein beliebter Schachzug in diesem Zusammenhang soll noch erwähnt<br />
werden, obwohl ich ihn kaum plausibel finde. Es wird eingewandt,<br />
daß ein Irrtum bei (4) nur ein Irrtum in der Bedeutung sei. Derjenige<br />
der (4) glaubt und sich irrt, habe sich nur in der Bedeutung des<br />
Wortes „Rotwahrnehmung“ geirrt. Auch wenn man lieber nicht nachfragen<br />
möchte, was hier „nur“ zu bedeuten hat, hat man kaum Grund, sich<br />
dieser Ansicht anzuschließen. Spätestens seit Quines Untersuchungen zur<br />
analytisch/synthetisch Unterscheidung ist deutlich geworden, wie wenig<br />
sich rein begriffliche Bestandteile einer Aussage von inhaltlichen Behauptungen<br />
abtrennen lassen. Aus welchem Grund sollte man also den<br />
oben genannten Gehalt von (4), nach dem eine Ähnlichkeit behauptet<br />
wird, als bloße Angelegenheit des Satzverstehens betrachten? Die angegebene<br />
Ähnlichkeitsbehauptung ist zunächst eine empirische Annahme,<br />
in der man sich irren kann, ohne deshalb gleich seiner Sprache verlustig<br />
zu gehen, was durch die beschriebene Situation, in der ich meinen Irrtum<br />
auch entdecke, noch einmal verdeutlicht wird. Ayer (1984, 66ff)<br />
gibt auch in Beispielen an, wie wir durchaus Indizien dafür haben können,<br />
in solchen Fällen einen tatsächlichen Irrtum zu begehen und nicht<br />
nur einen sprachlichen. Und so ist auch das Beispiel der Rotwahrnehmung<br />
beschrieben worden. Der Schachzug, den Irrtum als einen rein<br />
sprachlichen abzutun, ist für die erkenntnistheoretische Debatte daher<br />
kaum hilfreich.<br />
Gegen Sinnesdatentheorien lassen sich natürlich noch Einwände<br />
ganz anderer Art vorbringen, die darauf beruhen, daß hier von Philosophen<br />
seltsame psychische Entitäten postuliert werden, deren Existenz<br />
eine Frage ist, die eher in den Zuständigkeitsbereich von empirischen<br />
Disziplinen fällt, statt in den einer „armchair psychology“. Aber auch<br />
ohne die Frage der empirischen Plausibilität der Sinnesdatentheorien<br />
weiter zu verfolgen, liegt bereits genügend Material vor, um von dieser<br />
speziellen fundamentalistischen Theorie keine Lösung unserer erkenntnistheoretischen<br />
Probleme zu erwarten. Einer modernen Variante derartiger<br />
Theorien möchte ich mich trotzdem noch ausführlicher widmen,<br />
65 Ayer diskutiert in (1984,44ff) auch die (basale) Meinung „Ich existiere",<br />
für die wir bereits mit ähnlichen Problemen zu kämpfen haben.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 154<br />
nämlich der von Paul K. Moser, die den meines Erachtens erfolgversprechendsten<br />
Weg in diesem Bereich weist.<br />
b) Mosers Fundamentalismus<br />
Die meisten gegenwärtigen Erkenntnistheoretiker argumentieren dafür,<br />
daß nur Überzeugungen rechtfertigende Wirkung für Überzeugungen haben<br />
können und nicht auch Entitäten ohne semantischen Gehalt. Überzeugungen<br />
können aber falsch sein, wenn sie nicht analytisch wahr sind,<br />
und daher ließ sich immer wieder berechtigterweise die Frage nach ihrer<br />
Begründung stellen, die den Fundamentalisten sofort in Verlegenheit<br />
bringt, denn wenigstens für seine basalen Meinungen möchte er gerade<br />
diese Frage eigentlich zurückweisen. Da wir uns außerdem schon von<br />
den externalistischen Lösungen des Rechtfertigungsproblems abgewandt<br />
hatten, scheinen wir um eine inferentielle Begründung auch für die angeblich<br />
basalen Meinungen nicht herumzukommen. Zu diesem Argument<br />
sucht Moser (1989) einen Ausweg. Er entwirft eine fundamentalistische<br />
Theorie, für die es auch Wahrheitsindikatoren nicht-propositionaler<br />
Art gibt.<br />
Mosers Fundamentalismus bleibt dabei trotzdem internalistisch in<br />
dem Sinne, daß uns alle Komponenten der Begründung bewußt zugänglich<br />
sein müssen; nur handelt es sich dabei nicht ausschließlich um Überzeugungen,<br />
sondern auch um nicht-propositionale Wahrnehmungszustände.<br />
Einen seiner zentralen Begriffe in diesem Zusammenhang, den<br />
der „direct attention attraction“, beschreibt er unter anderem wie folgt:<br />
The sort of nonconceptual awareness most appropriate to Moderate<br />
and Radical Internalism is direct attention attraction, where one’s attention<br />
is directly engaged, if only momentarily, by the more or less<br />
determinate features of certain presented contents. Such attention attraction,<br />
being nonconceptual, does not itself essentially involve<br />
one’s predicating something of the presented contents; yet of course<br />
it can be accompanied by such predicating. And such attention attraction<br />
is different from mere sensory stimulation, since it essentially<br />
involves direct awareness, albeit nonconceptual awareness, of<br />
what is presented in experience. (Moser 1989, 81)<br />
Wenn man den Sinnesdatenbegriff weit faßt, verfolgt auch Moser eine<br />
Form von Sinnesdatentheorie, nur mit der Besonderheit, daß diese Sin-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 155<br />
nesdaten keine propositionale Struktur haben, 66 und wir uns auf die beschränken,<br />
die im Zentrum unserer Aufmerksamkeit stehen. Für die<br />
nicht-propositionale Struktur betont Moser die Unterscheidung zwischen<br />
einem Wahrnehmungszustand, der auf ein Objekt gerichtet ist, und<br />
seiner Beschreibung:<br />
Clearly our describing a nonconceptual experience or the object<br />
thereof requires our formulating a judgment about it. But this does<br />
not mean that the having of such an experience is essentially conceptual.<br />
The describing of an experience is one thing, and the having of<br />
it, another. (Moser 1989, 84f)<br />
Für die Rechtfertigung von Meinungen stützt sich Moser nur auf den<br />
subjektiven Teil der nicht-propositionalen Wahrnehmungsinhalte. Diese<br />
sollen durch einen Schluß auf die beste Erklärung bestimmte Überzeugungen<br />
begründen:<br />
My rough preliminary proposal is this: one’s subjective nonconceptual<br />
contents can make a proposition, P, evidentially probable to<br />
some extent for one in virtue of those contents’ being explained for<br />
one by P in the sense that P is an essential part of an explanation for<br />
one of why those contents exists, or equivalently, why those contents<br />
occur as they do. (Moser 1989, 91f)<br />
Mosers Sinnesdaten erinnern ein wenig an Schlicks „Konstatierungen“,<br />
aber Moser weiß mehr als Schlick darüber zu sagen, wie Entitäten ohne<br />
semantischen Gehalt in Rechtfertigungen überhaupt vorkommen können.<br />
Leider kann ich hier nur eine vereinfachte Darstellung der recht<br />
ausgefeilten Wahrnehmungs- und Rechtfertigungstheorie Mosers geben,<br />
die dadurch sicher nicht so überzeugend wirkt, wie seine weitergehenden<br />
Ausführungen; aber die Grundidee der Moserschen Theorie sollte<br />
deutlich geworden sein.<br />
Bestimmte basale Meinungen sind bei ihm dadurch gerechtfertigt,<br />
daß sie die besten Erklärungen für gewisse subjektive Inhalte unserer<br />
Wahrnehmungszustände sind. So könnte meine Annahme, daß ich mit<br />
einer Nadel gestochen werde, als beste Erklärung meiner visuellen<br />
Wahrnehmungen in diesem Moment und meiner inneren Wahrnehmung<br />
einer bestimmten Schmerzqualität gerechtfertigt werden. Die Annahme<br />
ist in dieser Beschreibung nicht weiter von anderen Aussagen inferentiell<br />
abhängig und damit basal. Ihr rechtfertigendes Element („probability-<br />
66 Viele Sinnesdatenvertreter ließen es zumindest zu, daß die Sinnesdaten<br />
durch eine Aussage i.w. ausgedrückt werden können.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 156<br />
maker“) ist selbst kein Wahrheitswertträger und daher auch nicht begründungspflichtig.<br />
Moser (1989, 172) ist wie andere Fundamentalisten<br />
der Meinung, daß nur auf diesem Weg das Regreßproblem zu stoppen<br />
ist und auch der Rechtfertigungsskeptiker Humescher Prägung nur so<br />
überwunden werden kann (Moser 1989, 160ff). Wenn ich Moser in diesen<br />
Behauptungen auch nicht folgen möchte, halte ich seinen Ansatz<br />
doch für einen der aufschlußreichsten im fundamentalistischen Lager,<br />
weiß er doch als einer der wenigen einen interessanten internalistischen<br />
Weg vorzuschlagen, wie unsere Wahrnehmungen, also nicht-semantische<br />
Informationen, bestimmte Beobachtungsüberzeugungen begründen können.<br />
Hier, wie auch bei den anderen Sinnesdatentheorien, möchte ich<br />
nicht in die Diskussion eintreten, wie gut gestützt die empirischen Bestandteile<br />
der Moserschen Theorie sind, obwohl das für alle derartigen<br />
Theorien sicher ein nicht unproblematischer Aspekt ist. Ich möchte<br />
mich lieber gleich der Frage zuwenden, welchen Fortschritt die Erkenntnistheorie<br />
von einer solchen Theorie zu erwarten hätte. Zunächst ist der<br />
Abstand von Mosers Begründung der Beobachtungsüberzeugungen zu einer<br />
entsprechenden kohärentistischen Theorie der Wahrnehmung wie<br />
der von BonJour, die ich im Kapitel (IV.B) vorstellen werde, nicht einmal<br />
so groß, wie man vermuten könnte. Während BonJour die Beobachtungsüberzeugungen<br />
als spontan auftretende Meinungen charakterisiert,<br />
für deren Auftreten die beste Erklärung im Lichte unseres Hintergrundwissens<br />
gerade ihre Wahrheit (also das Vorliegen entsprechender beobachtbarer<br />
Tatsachen ist) rechtfertigt Moser die Annahme von entsprechenden<br />
Beobachtungstatsachen damit, daß sie die besten Erklärungen<br />
für unsere Wahrnehmungszustände bieten. Während also BonJour nach<br />
Erklärungen für das Auftreten bestimmter Beobachtungsüberzeugungen<br />
fragt, geht Moser einen Schritt weiter zurück und fragt nach Erklärungen<br />
von Sinneswahrnehmungen, die in den Beobachtungsüberzeugungen<br />
beschrieben werden.<br />
Was sind nun die Vorzüge des BonJourschen Vorgehens, dem ich<br />
mich in (IV.B.2) anschließen werde? Ich glaube, da finden sich einige.<br />
Zunächst scheint es mir sauberer, die Erkenntnistheorie nicht ohne Notwendigkeit<br />
auf eine recht spezielle empirische Wahrnehmungstheorie<br />
festzulegen und das aus mehreren Gründen. Die Aufnahme einer speziellen<br />
Wahrnehmungstheorie in die Erkenntnistheorie führt zu einer Unflexibilität<br />
in bezug auf neue Wahrnehmungssituationen und neue empirische<br />
Ergebnisse in diesem Bereich. Für BonJour sind Theorien der<br />
Wahrnehmung Bestandteil des Überzeugungssystems des jeweiligen epi-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 157<br />
stemischen Subjekts, das immer seine jeweils besten Theorien der Wahrnehmung<br />
zur Begründung seiner Meinungen heranzieht. Dadurch kann<br />
es immer die neuesten Erkenntnisse innerhalb derselben Erkenntnistheorie<br />
berücksichtigen. Für Moser wird jedesmal eine Abänderung der Erkenntnistheorie<br />
selbst notwendig, sobald sich neue Erkenntnisse in bezug<br />
auf die bewußten Bestandteile unserer Wahrnehmung ergeben. Eine Änderung<br />
zu Wahrnehmungstheorien, die mit den Sinnesdaten im Sinne<br />
Mosers nicht vereinbar sind, überlebt die Mosersche Erkenntnistheorie<br />
schließlich überhaupt nicht. Die kohärentistische Rechtfertigung von Beobachtungen<br />
ist hier zunächst im Vorteil, daß sie nicht auf empirisch so<br />
umstrittene Entitäten wie Sinnesdaten angewiesen ist. Sie bliebe unter<br />
Änderungen oder sogar Revolutionen unserer Theorien der Sinneswahrnehmungen<br />
relativ stabil, denn die würden sich innerhalb der empirischen<br />
Ebene der Überzeugungen des epistemischen Subjekts abspielen,<br />
die nicht direkt die Metaebene unsere epistemischen Überzeugungen beeinflussen<br />
muß. Die Strategie, so wenig spezielle empirische Annahmen<br />
wie möglich in die Erkenntnistheorie aufzunehmen, weil die Erkenntnistheorie<br />
gerade die empirische Begründung von empirischen Theorien<br />
untersuchen soll, scheint zumindest ein sinnvolles regulatives Prinzip zu<br />
sein. Würden theoretische Änderungen an der Peripherie unseres Netzes<br />
auch gleich unsere Bewertungsgrundlage für Theorien ändern, steht<br />
schnell ein Relativismuseinwand à la Kuhn vor der Tür.<br />
Ob Moser tatsächlich dem Skeptiker etwas entgegenzusetzen hat, ist<br />
auch nicht klar, wenn er sich in seiner Metatheorie bereits auf eine empirische<br />
Theorie verlassen muß, die zumindest der radikale Skeptiker in<br />
Frage stellt. Wir könnten sogar das Regreßproblem wiederbeleben, nämlich<br />
auf der Metaebene, denn hier kann man nach einer Rechtfertigung<br />
für Mosers Wahrnehmungstheorie fragen. Aber ich möchte in diesen<br />
Punkten auch nicht allzu kleinlich erscheinen und sie nur als Ansatzpunkte<br />
für weitergehende Kritiken erwähnen.<br />
Um einem vollen Internalismus gerecht zu werden, scheint es mir<br />
auch notwendig, daß das epistemische Subjekt selbst über die entsprechenden<br />
Wahrnehmungstheorien verfügt, in denen die von Moser beschriebenen<br />
Wahrnehmungszustände vorkommen, denn sonst können<br />
wir nicht davon sprechen, daß es wirklich über die von Moser genannte<br />
Rechtfertigung verfügt. Das epistemische Subjekt muß über die Stärken<br />
und Schwächen seiner eigenen Wahrnehmungsfähigkeiten Bescheid wissen,<br />
um eine für einen Internalisten zufriedenstellende Einschätzung derselben<br />
abgeben zu können. BonJour scheint in all diesen Punkten den<br />
einfacheren und überzeugenderen Weg gegangen zu sein.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 158<br />
Am schwierigsten verständlich bleibt für mich aber, wie man davon<br />
sprechen kann, daß eine bestimmte Erklärung eine bessere Erklärung ist,<br />
ohne daß man dabei schon auf ein entsprechendes Hintergrundwissen<br />
rekurriert, vor dem solche Bewertungen vorgenommen werden können.<br />
Das epistemische Subjekt Mosers kann sich für seine Rechtfertigungen<br />
seiner basalen Meinungen jedoch nur auf seine nichtkognitiven Sinnesdaten<br />
stützen. Diese Anwendung der Abduktion widerspricht allem, was<br />
wir in unseren bisherigen Beispielen als wesentliche Elemente dieses Verfahrens<br />
aufzeigen konnten.<br />
Selbst auf der Metaebene, von der der Erkenntnistheoretiker die Situation<br />
beschreibt, kann sich Moser nicht auf irgendein Hintergrundwissen<br />
stützen, wenn er seinen Schluß auf die beste Erklärung auch gegen<br />
den Skeptiker einsetzen möchte. Der springende Punkt dieser Rechtfertigungstheorie<br />
ist also in Mosers fundamentalistischer Vorstellung von Begründung<br />
seine Erklärungstheorie, die ich nun etwas genauer unter die<br />
Lupe nehmen werde. 67<br />
Moser hat für seine Zwecke eigens Ansätze einer Erklärungstheorie<br />
entwickelt. Seine Konzeption von Erklärung stützt sich vor allem auf die<br />
Idee, Erklärungen sollten unser Verstehen befördern:<br />
Here is an appropriate notion: one thing explains another when and<br />
only when the former makes it to some extent, understandable why<br />
the latter thing is as it is. (Moser 1989, 93)<br />
Wesentlich für die Abduktion ist aber auch eine Konzeption von besserer<br />
Erklärung die es gestattet, zwischen verschiedenen Erklärungsmöglichkeiten<br />
eine Wahl zu treffen. Eine Intuition, auf die Moser sich zu diesem<br />
Zweck beruft, führt er anhand eines Beispiels ein. Meine momentane<br />
scheinbare Wahrnehmung eines blauen Buches kann mindestens auf zwei<br />
Weisen erklärt werden. Einmal dadurch, daß ein blaues Buch vor mir<br />
liegt, und zum anderen auch durch die Annahme eines Dämons, der mir<br />
diesen Eindruck vorspiegelt. Moser spricht sich für die erste Möglichkeit<br />
aus, weil in ihr keine überflüssige Entität eingeführt wird:<br />
A Cartesian demon is not represented in my experience by means of<br />
any of its own features, whereas a blue book is: by hypothesis I now<br />
experience only an apparent blue book. (Moser 1989, 98)<br />
67 Dieser Aspekt der Moserschen Theorie trifft sich auch mit den im nächsten<br />
Kapitel zu untersuchenden Kohärenztheorien der Rechtfertigung, für die<br />
der Schluß auf die beste Erklärung ebenfalls eine zentrale Rolle übernehmen soll.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 159<br />
Überflüssige Entitäten erkennt man nach Moser also daran, daß sie in<br />
unseren Wahrnehmungen nicht repräsentiert sind. Diese positivistisch<br />
anmutende Konzeption ist natürlich ausgesprochen problematisch.<br />
Wann wird denn eine Entität in unseren Wahrnehmungen repräsentiert?<br />
Muß ich sie direkt sehen können, oder genügt es auch, daß sie indirekte<br />
Wirkungen hat? Im ersten Fall werden fast alle Erklärungen der Wissenschaften<br />
anhand von Feldern, Elementarteilchen, Genen etc. ausgeschlossen.<br />
Sind wir aber vernünftigerweise liberaler, könnte der Skeptiker<br />
versucht sein zu antworten: Der Dämon wird durch seine Wirkungen,<br />
nämlich die Welt, die er uns erleben läßt, repräsentiert – und insbesondere<br />
durch die Überlegungen über Dämonen, die wir gerade anstellen,<br />
die er uns als besonders raffinierten Hinweis auf sich selbst gibt.<br />
Neben der Forderung, daß Erklärungen besser werden, wenn sie auf<br />
überflüssige Entitäten verzichten, sollten Erklärungen nach Moser noch<br />
möglichst informativ sein. Beide Forderungen gehen in Mosers Explikationsvorschlag<br />
von „entscheidend besserer Erklärung“ ein:<br />
One Proposition, P, is a decisively better explanation of subjective<br />
contents C than is another proposition, Q, if and only if (i) P explains<br />
C, and (ii) either (a) P answers all the explanation-seeking<br />
why-questions about C answered by Q, but posits fewer gratuitous<br />
entities and fewer kinds of gratuitous entities than Q does, or (b)<br />
while positing no more gratuitous entities or kinds of gratuitous entities<br />
than Q posits, P answers all the explanation-seeking why questions<br />
about C answered by Q, and still others, or (c) P and Q answer<br />
the same why questions about C without either positing more gratuitous<br />
entities or kinds of entities than the other, but P is informationally<br />
more specific than Q. (Moser 1989, 99)<br />
Diese Erklärungstheorie ist relativ stark auf Mosers speziellen Einsatz<br />
der Dämonenbekämpfung zugeschnitten, so daß es interessant ist, inwieweit<br />
sie tatsächlich tragfähig ist.<br />
Zunächst sieht auch Moser (1989, 101ff), daß die Güte der Erklärung<br />
eines bestimmten Sinnesdatums von äußeren Umständen abhängen<br />
kann. Ob auf der Straße vor uns, die weiter weg in der Hitze wie eine<br />
Wasserfläche erscheint, eine tatsächliche Wasserfläche die beste Erklärung<br />
für unsere Wahrnehmung ist oder entsprechende Änderungen des<br />
Brechungsindex der Luft über der heißen Straße, ist nicht allein an der<br />
Erklärung des einen Faktums zu erkennen. Sie bedarf der Berücksichtigung<br />
weiterer Beobachtungen, wie z. B. der, wie die Straße dort ausschaut,<br />
wenn wir näher hinkommen. Moser fragt deshalb nach besseren
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 160<br />
„overall“ Erklärungen. Doch hier scheint mir Moser die holistischen<br />
Aspekte des Unternehmens Erkenntnisgewinn erheblich zu unterschätzen.<br />
Informationen können in unseren vollentwickelten Überzeugungssystemen<br />
über allgemeine Annahmen und wissenschaftliche Theorien<br />
transportiert werden; z. B. auch interpersonell oder über Epochen- und<br />
Gebietsgrenzen hinweg. Man denke weiterhin an die epistemische Arbeitsteilung.<br />
Mosers Projekt, nach einer wirklichen „overall“ Erklärung<br />
allein auf der Basis von Sinnesdaten muß schlicht utopisch erscheinen.<br />
Gerade wenn man von einem epistemischen Subjekt sagen möchte, daß<br />
es über eine Begründung verfügt, ist es auf allgemeine Annahmen in der<br />
Bewertung von Erklärungen angewiesen. Es kann sich zwischen den genannten<br />
alternativen Erklärungen für die naß erscheinende Straße in der<br />
Wüste auch dann entscheiden, wenn es nicht zu besagter Stelle hingeht,<br />
weil es allgemeine Annahmen über Wasservorkommnisse in Wüsten und<br />
das Aussehen solcher Wüstenstrassen in der Hitze besitzt. Natürlich<br />
bleibt immer eine Irrtumsmöglichkeit bei diesen Schlüssen zugestanden,<br />
doch das gilt ebenso für Mosers Vorschlag.<br />
Er gibt sich hier einer neuen Variante des empiristischen Traums hin,<br />
daß wir im Prinzip mit reinen Wahrnehmungen und einer theoriefreien<br />
basalen Beschreibung dieser Wahrnehmungen alles Wichtige für unsere<br />
Erkenntnis beisammen haben. Aber wie der Mosersche Sinnesdatentheoretiker<br />
allein die einfache alternative Vermutung widerlegen will, daß<br />
sich die Straße in der Zeit seiner Annäherung von einer Wasserfläche in<br />
eine Teerdecke entwickelt hat, bleibt dabei unklar. Zur Widerlegung solcher<br />
Spekulationen, die doch unseren Sinneswahrnehmungen in Mosers<br />
Beispiel viel eher zu entsprechen scheinen als die richtige Erklärung,<br />
sind wir auf allgemeine Annahmen über die Beständigkeit von Stoffen<br />
wie Wasser und Teer angewiesen. Unsere empirischen Theorien ergeben<br />
sich auch nicht wie bei Moser in einem Schritt von bestimmten Wahrnehmungen<br />
aus, sondern sind, selbst wenn man im hierarchischen Bild<br />
bleiben möchte, eine komplizierte Stufenfolge. 68<br />
Also auch für die Einschätzung, wann wir etwas gut verstehen, benötigen<br />
wir ein reicheres Hintergrundwissen als nur Sinnesdaten. Wir sprechen<br />
dann davon, daß wir etwas gut verstehen, wenn sich zeigen läßt,<br />
wie es sich in dieses Hintergrundwissen einbetten läßt. Das soll im letzten<br />
Teil der Arbeit thematisiert werden. Wie die Güte dieser Einbettung<br />
beurteilt werden kann, wird in der Kohärenztheorie genauer bestimmt.<br />
68 Das gilt in ähnlicher Weise für die Erinnerungen an frühere Wahrnehmungszustände,<br />
auf die Moser angewiesen ist, sucht er „overall"-Erklärungen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 161<br />
Ernstzunehmende Rechtfertigungsversuche für basale Meinungen<br />
wie der von Moser geben allerdings detailliertere und interessantere Einblicke<br />
in die Probleme eines empiristischen Fundamentalismus, als sie<br />
die allgemeine Debatte um die Struktur von Begründungen bieten kann.<br />
Es lohnt sich daher schon aus diesem Grund, sie weiter zu verfolgen.<br />
Außerdem könnte Moser einen weiteren Schritt hin zu einer holistischen<br />
Sicht wagen und von einer wirklichen „overall“-Erklärung sprechen.<br />
Statt einzelne Meinungen könnte er unser gesamtes Meinungssystem als<br />
Erklärung unseres gesamtem Wahrnehmungsinputs betrachten. Damit<br />
ließen sich die eben genannten Probleme der Einschätzung bestimmter<br />
Beobachtungen anhand unseres Hintergrundwissens umgehen, denn dieses<br />
Hintergrundwissen wird hierbei selbst Bestandteil der Erklärung. Alternative<br />
Erklärungen wären nun komplette neue Weltbilder wie z. B.<br />
die der radikalen Skeptiker. Moser selbst dürfte über diese Entwicklung<br />
allerdings nicht wirklich glücklich sein, denn er hätte keine fundamentalistische<br />
Erkenntnistheorie mehr vor sich. Es würden keine einzelnen<br />
Meinungen mehr als basal und den anderen gegenüber epistemisch ausgezeichnet<br />
betrachtet. Es handelt sich eher um eine spezielle Kohärenztheorie,<br />
bei der jede einzelne Meinung dadurch gerechtfertigt wird, daß<br />
sie einen (kohärenten) Teil einer „overall“-Erklärung darstellt. Das gesamte<br />
Meinungssystem wird dagegen dadurch gerechtfertigt, daß es die<br />
Gesamtheit unserer Wahrnehmungszustände am besten erklärt.<br />
Auf diese Strategie komme ich im Zusammenhang mit den Kohärenztheorien<br />
und ihren Antwortmöglichkeiten auf den Skeptiker wieder<br />
zurück, möchte aber schon jetzt eine gewisse Skepsis gegenüber den Erfolgsaussichten<br />
auch dieses Projekts anmelden. Für diese „overall“-Erklärung<br />
können wir wiederum fragen, auf welcher Grundlage sie sich<br />
gegenüber alternativen Erklärungen als die bessere auszeichnen läßt. Es<br />
bleibt nun kein Hintergrundwissen als Schiedsrichter übrig. Auch die<br />
Frage, wann wir überhaupt von einer Erklärung sagen sollen, daß sie die<br />
bessere ist, müßte noch beantwortet werden. Mosers allgemeine Erklärungstheorie<br />
wird dafür kaum geeignet sein, und außerdem müßten wir<br />
diese Erklärungstheorie nun a priori rechtfertigen, was mir ebenfalls unmöglich<br />
erscheint. Ob eine Erklärung wirklich gut ist, wird zu wesentlichen<br />
Teilen erst durch unsere Erklärungspraxis – speziell unsere wissenschaftliche<br />
– erkennbar und ist nicht unabhängig davon vorzugeben.<br />
Der Ansatz einer „overall“-Erklärung all unserer Sinnesdaten beinhaltet<br />
zudem die Vorstellung, man könnte Wahrnehmungszustände vor<br />
ihrer begrifflichen Verarbeitung sicher speichern und sich schließlich<br />
überlegen, wie gut sie von unserem Meinungssystem erklärt werden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 162<br />
Diese Vorstellung ist kaum realistisch und kann bestenfalls als eine sehr<br />
idealisierte Rekonstruktion verstanden werden. Man fragt sich auch,<br />
woher auf der Beschreibungsebene dann die Begriffe kommen sollen.<br />
Der Ansatz geriete hier in ähnliche Schwierigkeiten, wie wir sie für Carnaps<br />
Projekt (Carnap 1928) finden. Die ganze Idee, Wahrnehmungszustände<br />
zunächst komplett von ihrer Weiterverarbeitung (Klassifizierung<br />
und weiterer theoretischer Einbettung) zu trennen, ist meines Erachtens<br />
verfehlt. Es kann daher nicht meine Aufgabe sein, ihn hier weiter auszubauen<br />
und zu verteidigen. So unsauber es auch ausschaut, beides geht<br />
immer Hand in Hand, und wir haben keine andere Möglichkeit als von<br />
diesem Prozeß in seiner Komplexität auszugehen. Genau das wird die<br />
(holistische) Kohärenztheorie der Rechtfertigung, die im nächsten Kapitel<br />
vorgestellt wird, unternehmen.<br />
Deutlich scheint mir auch, daß Mosers recht empiristische Erklärungstheorie<br />
für unsere Paradigmata von Erklärungen, die wissenschaftlichen<br />
Erklärungen, versagen muß. Überflüssige Entitäten als solche zu<br />
brandmarken, ist in jedem Fall ein schwieriges Unterfangen. Wissenschaftliche<br />
Theorien schätzen wir gerade für ihre theoretischen Entitäten,<br />
die wesentlich für Erklärungen und die Systematisierungsleistung<br />
von Theorien sind. 69 Obwohl die meisten dieser Entitäten zumindest<br />
nicht direkt in unserer Wahrnehmung repräsentiert sind, wäre es ein fataler<br />
Fehler, die Theorien und Erklärungen zu bevorzugen, die versuchen<br />
sich auf Beobachtbares zu beschränken. Fast das Gegenteil ist der<br />
Fall. Doch dazu später mehr.<br />
Natürlich gibt es auch schlecht konstruierte Theorien mit überflüssigen<br />
Bestandteilen. Doch wie soll man von einer reinen Sinnesdatenbasis<br />
aus zwischen signifikanten und insignifikanten theoretischen Termen unterscheiden?<br />
Das ist nach Moser notwendig, um schlechtere von besseren<br />
Erklärungen zu unterscheiden. Dazu gibt es bereits eine ausführliche<br />
wissenschaftstheoretische Debatte, die die zahlreichen Untiefen dieser<br />
Fragestellung der signifikanten Terme aufgezeigt hat. Leider ist sie nicht<br />
mit einem so einfachen Vorschlag wie dem Moserschen abzuschließen.<br />
Hinter der Moserschen Idee steckt eine Art von Sparsamkeitsprinzip,<br />
nach der man keine Entitäten postulieren sollte, wenn sie nicht erforderlich<br />
sind; d.h. bei Moser, wenn sie nicht in unserer Wahrnehmung repräsentiert<br />
werden. Doch diese Formulierung ist viel zu unbestimmt und<br />
keine Hilfe, wenn es um die Frage geht, welche Entitäten wir annehmen<br />
sollten. Aber auch die Grundidee ist keine geeignete Maxime für die<br />
69 Warum das so ist, welche Funktion diese theoretischen Größen in<br />
Theorien zu übernehmen haben, wird im 3. Teil ausgeführt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 163<br />
Wissenschaften. Der Physiker Richard Feynman hat uns mehrfach mit alternativen<br />
physikalischen Theorien beglückt, die mit weniger Entitäten<br />
auskommen als unsere gewöhnlichen. Das waren zum einen die elektrodynamischen<br />
Theorien ohne Felder, die statt dessen mit retardierten<br />
Fernwirkungen arbeiten, und zum anderen seine berühmte Theorie des<br />
Positrons (s. Feynman 1949), in der die Positronen zugunsten von Elektronen<br />
eliminiert werden. Beide Theorien stießen trotzdem in der Fachwelt<br />
nur auf wenig Gegenliebe, weil sie zwar Entitäten einsparen konnten,<br />
aber dafür andere wesentliche Prinzipien aufgaben. In seiner Positronentheorie<br />
mußten sich die Elektronen rückwärts in der Zeit bewegen<br />
und seine Theorie der retardierten Fernwirkungen verletzt zumindest<br />
lokal den Energieerhaltungssatz. Wir sind in unseren Theorien nicht<br />
so sparsam, wie Moser annimmt, und insbesondere gibt es viele andere<br />
Prinzipien, deren Erhalt uns mindestens genauso wertvoll erscheint. Erst<br />
eine sorgfältige Abwägung der Kohärenz vermag im konkreten Einzelfall<br />
zu sagen, welche Theorien besser sind: die sparsamen oder die reichhaltigen.<br />
Daher ist es keine gute Idee, einer Erklärungstheorie eine Sparsamkeitsforderung<br />
voranzustellen.<br />
Meine Überlegungen in der Frage der Signifikanz theoretischer Terme<br />
gehen jedenfalls genau den umgekehrten Weg. Statt die Unterscheidung<br />
nach besseren und schlechteren Erklärungen auf die Unterscheidung in<br />
benötigte und überflüssige Terme zu stützen, würde ich die signifikanten<br />
Terme als diejenigen auszeichnen, die in unseren besten Erklärungen benötigt<br />
werden. Diese Konzepte sind danach unverzichtbar, wenn wir<br />
nicht an Erklärungskraft einbüßen möchten. Auch diese Bewertung kann<br />
nur unter Heranziehung unseres Hintergrundwissens ermittelt werden<br />
und setzt vor allem voraus, daß wir die Erklärungsgüte einschätzen können,<br />
ohne schon wissen zu müssen, welche Terme und Gegenstände dieser<br />
Theorien unentbehrlich sind.<br />
6. Resümee<br />
Die zweite Weichenstellung dieses Kapitels betraf die Rechtfertigungsstruktur<br />
unserer Erkenntnis. Sind Rechtfertigungen letztlich lineare Ketten<br />
von Aussagen, die einen Startpunkt aufweisen, der selbst keiner Begründung<br />
durch andere Aussagen bedarf, oder ist ein holistisches Modell<br />
unserer Erkenntnis, in dem man für alle Behauptungen wiederum nach<br />
inferentiellen Rechtfertigungen fragen darf, angemessener? Für den Fundamentalisten<br />
hat die Erkenntnis ein Fundament in basalen Aussagen,<br />
die zwar gerechtfertigt sein sollen, aber nicht unter Bezugnahme auf an-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 164<br />
dere Meinungen, um nicht in einen Regreß zu geraten. Schwierigkeiten<br />
macht allerdings die Frage, wie eine solche nichtinferentielle Rechtfertigung<br />
aussehen kann, wenn sie nicht bloß in einem externen Zusammenhang<br />
der Überzeugungen zu äußeren Tatsachen besteht und für das epistemische<br />
Subjekt erkennbare Hinweise auf die Wahrheit der basalen<br />
Meinungen geben soll. Die Antworten, die wir auf dieses Problem von<br />
Fundamentalisten erhalten, bleiben unbefriedigend, insbesondere wenn<br />
sie versuchen, sich um eine Begründung herumzudrücken, indem sie den<br />
Gehalt der Basisaussagen vermindern und für sie Irrtumsfreiheit behaupten.<br />
Doch für Aussagen mit empirischem Gehalt – und nur solche können<br />
als Basis des empirischen Wissens einen substantiellen Beitrag liefern<br />
– verbleibt immer ein Irrtumsrisiko, das eine Begründung erforderlich<br />
macht. Das BonJoursche Argument des Kriteriums zeigt, daß diese<br />
Begründung nur in weiteren Annahmen bestehen kann, also inferentieller<br />
Natur ist. Die starre Schichtenstruktur des Fundamentalisten kann<br />
uns daher kein geeignetes Modell für eine überzeugenden Begründungsstruktur<br />
bieten. Wir sind nun gezwungen nach einer kohärentistischen<br />
Alternative Ausschau zu halten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 165<br />
IV Kohärenz<br />
Auch innerhalb der philosophischen Strömung des Wiener Kreises gab es<br />
bekanntlich bereits einen Vertreter einer kohärentistischen Erkenntnistheorie,<br />
nämlich Otto Neurath. Er stand damit gegen die eher fundamentalistisch<br />
orientierte Mehrheit der logischen Empiristen und sah sich<br />
unter anderem der Kritik durch den damaligen Leiter des Wiener Kreises,<br />
Moritz Schlick, ausgesetzt. Neurath entwickelte seine erkenntnistheoretischen<br />
Vorstellungen überwiegend in negativer Abgrenzung von<br />
den fundamentalistischen Ansichten Schlicks und des frühen Carnaps in<br />
bezug auf Protokollsätze. Seine eigene Konzeption von Kohärenz ist<br />
dann auch eher als dürftig zu bezeichnen; sie besteht nämlich nur aus<br />
der Forderung nach logischer Konsistenz. Schlick mahnt zu Recht an,<br />
daß damit alleine noch kein Kontakt eines Überzeugungssystems zur<br />
Wirklichkeit gegeben ist und alle Märchen epistemisch gleichwertig erscheinen,<br />
solange sie nur logisch konsistent auftreten. Auch Popper kritisiert<br />
in der „Logik der Forschung“ (Popper 1984, 63), daß nach dieser<br />
Erkenntnistheorie jedes System vertreten werden könne. 70 Diesem Einwand<br />
hatte Neurath nichts Substantielles entgegenzusetzen. Erkenntnistheoretisch<br />
bedeutsam ist also kaum die Neurathsche Epistemologie als<br />
einer Kohärenztheorie der Erkenntnis, 71 sondern eher seine Kritik an<br />
der simplen Vorstellung von Schlick, man könne Sätze direkt mit der<br />
Wirklichkeit vergleichen (s. Koppelberg 1987, 33ff). Für meine Arbeit<br />
ist auch sein bekanntes Bild von uns als Schiffern, die ihr Boot auf hoher<br />
See umbauen müssen, ohne es im Dock aus ganz neuen Bestandteilen<br />
aufbauen zu können, zu einem Leitmotiv für die Erkenntnistheorie geworden.<br />
Vor allem die dynamischen Aspekte dieses Bildes werde ich<br />
schließlich in einer diachronischen Kohärenztheorie ernster nehmen, als<br />
er selbst es tat. Leider war Neurath nicht der letzte Kohärenztheoretiker,<br />
70 Popper selbst hat allerdings nicht viel mehr für seine Basissätze anzubieten.<br />
Sie werden per Beschluß akzeptiert. Das entspricht vermutlich der wissenschaftlichen<br />
Praxis, ist aber noch nicht die ganze Geschichte. Interessant ist doch<br />
eher, die methodischen Prinzipien anzugeben, die dabei berücksichtigt werden.<br />
71 Neurath selbst wehrte sich gegen die Bezeichnung Kohärenztheorie, um<br />
sich von den britischen Idealisten abzugrenzen. (s. Koppelberg 1987, 20, Anm.<br />
8)
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 166<br />
der mehr mit Kämpfen gegen äußere Feinde beschäftigt war, als mit einer<br />
Ausarbeitung der Kohärenzkonzeption selbst.<br />
Dieses Kapitel soll nun dazu dienen, eine systematische Kohärenztheorie<br />
der Rechtfertigung zu entwerfen, die die wesentlichen Schwächen<br />
früherer Ansätze vermeiden hilft. Der entscheidende erste Schritt dazu<br />
besteht in einer Untersuchung, welche Zusammenhänge zwischen Überzeugungen<br />
die Kohärenz eines Meinungssystems konstituieren. Der<br />
nächste Schritt gibt an, wie sich die Gesamtkohärenz des jeweiligen Systems<br />
aus den einzelnen Zusammenhängen zusammensetzt, was schließlich<br />
in einer semiformalen Konzeption von Kohärenz als Erklärungskohärenz<br />
zusammengefaßt wird.<br />
A. Bestandteile von Kohärenz<br />
1. Kohärenz und Konsistenz<br />
Über Kohärenz wird in der Erkenntnistheorie heutzutage sehr oft gesprochen.<br />
Meist ohne gehaltvolle Vorstellungen davon zu haben, was<br />
denn Kohärenz sei; „Kohärenz“ wird manchmal sogar wie ein Grundbegriff<br />
behandelt, über den sich nicht viel sagen läßt. Nur wenige Kohärenztheoretiker<br />
sind aber heute noch damit zufrieden, unter „Kohärenz“<br />
bloß „Konsistenz“ zu verstehen. Abgesehen davon, daß in diesem Fall<br />
auch unklar wäre, wozu man den Kohärenzbegriff neben dem Konsistenzkonzept<br />
noch einführen sollte, möchte man unter einem kohärenten<br />
Überzeugungssystem eines verstehen, dessen Aussagen untereinander<br />
in vielfältiger Weise zusammenhängen, was durch Konsistenz allein noch<br />
nicht erreicht wird. Die besagt bloß, daß unsere Meinungen sich nicht<br />
direkt widersprechen, sich aus ihnen also keine Kontradiktionen (Aussagen<br />
der Form: „p und non-p“) ableiten lassen.<br />
Wie schwach die bloße Forderung nach Konsistenz eines Systems<br />
sein kann, wird erkennbar, wenn wir einmal nicht an unsere gewöhnlichen,<br />
ziemlich reichhaltigen Überzeugungssysteme denken, für die bereits<br />
Konsistenz eine nicht so leicht zu realisierende Anforderung darstellt.<br />
Stellen wir uns zur Illustration statt dessen einen Superempiristen<br />
vor, der es aus vornehmer empiristischer Zurückhaltung vermeidet, auch<br />
nur irgendeine allgemeinere Hypothese oder sogar Theorie über die<br />
Welt zu glauben. Er sammelt einfach nur seine eigenen Wahrnehmungsberichte.<br />
Erlauben wir ihm aber wenigstens, um ihn nicht zu uninteressant<br />
zu gestalten, ein perfektes Gedächtnis, dem er vertrauen kann. Er
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 167<br />
könnte dann, ohne im geringsten beunruhigt zu sein, z. B. Meinungen in<br />
der folgenden Form sammeln:<br />
1) 7.8.95, 18.32 30 : Vor mir steht ein Rolls Royce auf dem<br />
Wenzelsplatz.<br />
2) 7.8.95, 18.32 31 : Vor mir steht ein Mercedes am Fuße des<br />
Empire-State-Building.<br />
3) 7.8.95, 18.32 32 : Vor mir liegt der leere Rote Platz.<br />
etc…<br />
Ein Meinungssystem, das so aufgebaut wäre, wäre aber offensichtlich<br />
kaum kohärent zu nennen. Und das, obwohl es logisch konsistent ist,<br />
denn es ist natürlich nicht logisch unmöglich im Sekundenabstand an so<br />
weit entfernten Plätzen der Welt zu sein, sondern höchstens physikalisch<br />
oder eher verkehrstechnisch unmöglich. Wenn wir davon absehen, daß<br />
uns die Aussagen als in hohem Maße widersprüchlich erscheinen, weil<br />
wir glauben, niemand könne sich so schnell von einem Platz zum anderen<br />
bewegen, bleibt immer noch, daß die Aussagen völlig zusammenhanglos<br />
nebeneinanderstehen. Das entspricht keinesfalls unserer Vorstellung<br />
eines kohärenten Überzeugungssytems. Schon deshalb verlangen<br />
die meisten Erkenntnistheoretiker für Kohärenz mehr als reine Konsistenz.<br />
Es bleibt nur offen, worin dieses Mehr bestehen soll. In den wenigen<br />
ausgearbeiteten Konzeptionen von Kohärenz spielen in der Regel<br />
Erklärungsbeziehungen eine ausgezeichnete Rolle, deren epistemischer<br />
Funktion ich daher in den nächsten Abschnitten im einzelnen nachgehen<br />
möchte. Davor setze ich noch einige Bemerkungen über die Funktion<br />
von Theorien oder allgemeineren Annahmen in unserem Überzeugungssystem,<br />
die wir bei dem Superempiristen vermißt haben.<br />
2. Die Bedeutung von Theorien für Kohärenz<br />
Das Beispiel des Superempiristen mit ausgeprägter theoretischer Abstinenz<br />
führt uns nicht nur eindringlich vor Augen, daß Konsistenz für Kohärenz<br />
zu wenig ist, sondern auch, wie sehr wir auf Theorien oder jedenfalls<br />
allgemeine verbindende Annahmen in unserem Überzeugungssystem<br />
angewiesen sind. Ein System wie das des Superempiristen, in dem<br />
sie völlig fehlen, enthält nur Aussagen, die ohne inneren Zusammenhang<br />
angesammelt wurden. Es gibt normalerweise weder Rechtfertigungszusammenhänge<br />
noch Widersprüchlichkeit darin, so daß die Rede von einem<br />
System von Meinungen eigentlich verfehlt ist. Daß unter den Meinungen<br />
des Superempiristen keine Widersprüche auftreten, ergibt sich
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 168<br />
schon daraus, daß die Beobachtungen nacheinander erfolgen und die<br />
entsprechenden Beobachtungsüberzeugungen daher genaugenommen<br />
mit einem Zeitindex zu versehen sind. Da sie auch nur Auskunft über<br />
den jeweiligen Zeitpunkt und nicht über andere geben, können sie sich<br />
strenggenommen nicht widersprechen. Selbst Aussagen, wie die oben angeführten,<br />
die sich intuitiv widersprechen, sind normalerweise nur als<br />
widersprüchlich mit Hilfe allgemeinerer Annahmen, etwa über eine gewisse<br />
Kontinuität in der Welt, auszuzeichnen. 72 Das ist ein schlichter,<br />
aber dennoch grundlegender Befund, den man einmal festhalten sollte.<br />
Inferentielle Zusammenhänge in unseren Überzeugungssystemen,<br />
auch wenn es nur um solche für Beobachtungsaussagen untereinander<br />
geht, bedürfen der Vermittlung durch allgemeinere Aussagen<br />
oder Theorien.<br />
Wie sehr wir auf Theorien angewiesen sind, bemerken wir meist nicht,<br />
denn die stehen in jedem normalen Meinungssystem selbstverständlich<br />
zur Verfügung. Unsere Meinungssysteme sind tatsächlich ganz anders beschaffen<br />
als die des Superempiristen.<br />
Wir sind sogar auf kleine Theorien angewiesen, damit die Wörter,<br />
mit denen wir unsere Überzeugungen ausdrücken, Bedeutung besitzen.<br />
Wenn ich über Autos oder Bäume spreche, gehören zur Bedeutung dieser<br />
Begriffe immer bestimmte Annahmen über diese Gegenstände. Wenn<br />
es mich nicht beunruhigt, daß Objekte wie Bäume kleiner als ein tausendstel<br />
Millimeter und nur auf anderen Planeten zu finden sein sollen<br />
und ich sie darüber hinaus nicht mit bestimmten Wahrnehmungen in Beziehung<br />
bringen kann, muß man mir vorwerfen, ich hätte diese Begriffe<br />
einfach nicht verstanden. (Die Geschichte läßt sich natürlich leicht in<br />
dieser Richtung weiter führen, wenn einem die bisherigen Ungeheuerlichkeiten<br />
für die Schlußfolgerung noch nicht ausreichen.) Putnam<br />
(1979, 64ff) nennt entsprechende Minitheorien, über die ein kompetenter<br />
Muttersprachler für jeden Begriff seiner Sprache verfügen muß, die<br />
Stereotype, die wir mit einem Begriff verbinden. 73 Das zeigt, daß das<br />
72 Natürlich könnten im Prinzip auch Implikationen über Einzelfälle der<br />
Form ab Widersprüche in das System bringen, aber solche Implikationen finden<br />
sich in unseren Überzeugungssystemen normalerweise nur dann, wenn sie<br />
durch eine allgemeinere Annahme über einen entsprechenden Zusammenhang<br />
von Dingen des Typs a und des Typs b gedeckt wird. Für den Superempiristen ist<br />
jedenfalls nicht erkennbar, wie er zu solchen Implikationen gelangen sollte.<br />
73 Stereotypen sind allerdings nicht ganz so klar umrissene Gebilde wie etwa<br />
wissenschaftliche Theorien.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 169<br />
Beispiel des Superempiristen nicht nur psychologisch unrealistisch ist,<br />
sondern fast unverständlich wirkt, weil selbst ein Superempirist schon<br />
auf Minitheorien angewiesen ist, damit seine Meinungen überhaupt semantischen<br />
Gehalt aufweisen. Wichtig ist noch der Hinweis, daß die Minitheorie,<br />
die zur Bedeutung eines Begriffs gehört, keineswegs wahr sein<br />
muß, weshalb wir nicht versuchen sollten, die Putnamschen Stereotypen<br />
erkenntnistheoretisch zu strapazieren. Es lassen sich genügend Beispiele<br />
angeben, für die sie falsch sind. Darunter fällt auch das von Philosophen<br />
gern als Beispiel für einen analytischen Satz angeführte „Gold ist gelb“.<br />
Das Metall Gold ist in reiner Form eher weiß und nur die Kupferbeimischungen<br />
besonders im Schmuckgold lassen es gelb erscheinen, worauf<br />
Putnam (1979, 69) hinweist.<br />
Aber abgesehen von ihren wichtigen Aufgaben zur Bedeutungskonstitution,<br />
benötigen wir zumindest Minitheorien, damit es irgendwelche<br />
inferentiellen Beziehungen zwischen unseren Überzeugungen geben<br />
kann. Sie sind daher in jedem Fall erforderlich, um Kohärenz in einem<br />
Überzeugungssystem zu erzeugen. Man könnte in Analogie zu Hume,<br />
der die Kausalität als „the cement of the universe“ bezeichnet hat, sagen,<br />
die Theorien sind „the cement of belief“. Sie sind das, was unsere Meinungen<br />
zu einem Netz oder System von Überzeugungen zusammenfügt.<br />
3. Sind unsere Schlüsse deduktiv?<br />
Ein idealisiertes Vorbild für inferentielle Beziehungen sind logische Deduktionen.<br />
In den konkreten Beispielen typischer Rechtfertigungen und<br />
Begründungen, die wir betrachtet haben und noch untersuchen werden,<br />
spielen (logisch) deduktive Schlüsse jedoch keine so offensichtliche Rolle.<br />
Diese Rechtfertigungen bewegen sich alle unterhalb der Schlüssigkeit<br />
einer logischen Herleitung. Das ist der intuitive Hintergrund der Behauptung<br />
Harmans (1973, 163ff), daß das Bild von inferentiellen Rechtfertigungen<br />
als Beweisen im logisch strengen Sinn abzulehnen ist. Harman<br />
(1986, 11ff) versucht sogar zu zeigen, daß selbst die Forderung<br />
nach logischer Konsistenz unseres Meinungssystems und andere grundlegende<br />
Forderungen der Logik nicht als unbedingte Forderungen für unser<br />
Meinungssystem betrachtet werden sollten. So weit möchte ich Harman<br />
nicht folgen. Seine Beispiele dafür sind auch gewiß nicht überzeugend,<br />
sondern der Logik kommt sicherlich die wichtige Aufgabe zu, ei-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 170<br />
nen Rahmen abzustecken, an den sich Rechtfertigungen und Begründungen<br />
zu halten haben. 74<br />
Allerdings hat Harman Recht, daß das Vorbild deduktiver Argumente<br />
in der Philosophie zu oft den Status eines paradigmatischen<br />
Schlußverfahrens eingenommen hat, an dem sich alle Inferenzen zu<br />
orientieren haben; das häufig nur noch durch die Berücksichtigung von<br />
Wahrscheinlichkeiten ergänzt wird. Für epistemische Begründungen<br />
trifft diese Bild kaum zu. Wir sind auf der Suche nach Wahrheitsindikatoren,<br />
also nach Indizien dafür, daß eine bestimmte Überzeugung wahr<br />
ist. Deduktionen können zwar ideale Wahrheitsindikatoren darstellen –<br />
wenn unsere Prämissen wahr sind, garantieren sie schließlich die Wahrheit<br />
der Konklusionen logischer Schlüsse – aber das ist keineswegs der<br />
typische Fall auf den man bei der Suche nach epistemischen Rechtfertigungen<br />
abzielt. Deduktionen führen uns nämlich nicht aus dem heraus,<br />
was wir bereits wissen, sie sind nicht gehaltsvermehrend. Epistemische<br />
Rechtfertigungen sind dagegen typischerweise dazu gedacht, unter Inkaufnahme<br />
eines größeren Irtumsrisikos einen echten Zugewinn an Erkenntnissen<br />
zu erreichen. Wir benötigen induktive Schlußformen z. B.,<br />
um anhand einzelner Beobachtungen allgemeinere Hypothesen oder<br />
Theorien zu rechtfertigen. Auch viele Fälle, die wir umgangssprachlich<br />
als zwingende Schlußfolgerungen oder sogar Deduktionen bezeichnen,<br />
sind tatsächlich Inferenzen eines anderen Typs.<br />
Schauen wir uns dazu ein bekanntes Vorbild für Schlußfolgerungen<br />
aus der Literatur an: Sherlock Holmes behauptet manchmal, den Täter<br />
eines Verbrechens anhand von logischen Schlußfolgerungen zu ermitteln.<br />
Ein einfaches Beispiel aus seiner Fallsammlung soll dazu dienen, die<br />
Art der von ihm vorgenommen Inferenz genauer zu bestimmen. In „A<br />
Case of Identity“ (Doyle 1986, 251ff) kommt eine junge Dame namens<br />
Mary Sutherland zu Sherlock Holmes und bittet diesen, ihren kurz vor<br />
der Hochzeit verschwundenen Bräutigam Hosmer Angel für sie zu suchen.<br />
Sie berichtet Holmes, wie sie ihn vor nicht allzu langer Zeit kennengelernt<br />
hat, sie beide heiraten wollten, er aber kurz vor der Trauung<br />
auf unerklärliche Weise verschwunden ist. Im Verlaufe ihrer Erzählung<br />
nennt sie einige weitere Fakten, die Holmes sofort erkennen lassen, was<br />
sich zugetragen hat. Einige der für seine Schlußfolgerung bedeutsamen<br />
74 Auch Lakatos plädierte in (1974) dafür, daß wir den Rahmen der Konsistenz<br />
manchmal mit Gewinn verlassen sollten. Ich habe in (1988) zu zeigen versucht,<br />
daß auch das von Lakatos dafür angegebene Beispiel der Bohrschen Atomtheorie<br />
kaum ein gutes Argument für diese Ansicht darstellt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 171<br />
Tatsachen, die sie entsprechend schildert, möchte ich in übersichtlicher<br />
Form auflisten:<br />
(1) Mary Sutherland lebt bei ihren Eltern und unterstützt diese, solange<br />
sie noch keinen Mann gefunden hat, mit Hilfe der kleinen aber<br />
ansehnlichen Pension, die sie aus der Erbschaft eines verstorbenen<br />
Onkels erhält.<br />
(2) Ihr neuer Stiefvater Mr. Windibank, der 15 Jahre jünger ist als ihre<br />
Mutter, möchte nicht, daß sie ausgeht.<br />
(3) Als ihr Stiefvater in Frankreich ist, nutzt sie die Gelegenheit auszugehen<br />
und lernt Hosmer Angel kennen und schätzen.<br />
(4) Ihr Stiefvater möchte auch weiterhin nicht, daß sie ihn mit nach<br />
Hause bringt.<br />
(5) Als er wieder nach Frankreich reist, trifft sie sich wieder mit Hosmer<br />
Angel, und sie verabreden zu heiraten, noch bevor ihr Vater<br />
zurückkommt.<br />
(6) Ihre Briefe an Hosmer Angel schickt sie, auf seinen Wunsch hin,<br />
immer postlagernd.<br />
(7) Hosmer Angel ist überhaupt ein scheuer Mann, der sich kaum im<br />
Hellen mit ihr zeigt, und häufig eine Sonnenbrille trägt.<br />
(8) Er schreibt ihr immer auf einer Schreibmaschine.<br />
(9) Sie muß ihm feierlich schwören, immer zu ihm zu stehen, was auch<br />
passieren mag.<br />
(10) Um ihren Stiefvater nicht zu hintergehen, schreibt sie ihrem Stiefvater<br />
nach Frankreich über ihre bevorstehende Heirat, aber der<br />
Brief kommt unverrichteter Dinge zurück.<br />
(11) Ihre Mutter bittet sie, nichts von der geplatzten Hochzeit verlauten<br />
zu lassen, und ihre Eltern wollen auch nicht zur Polizei gehen, um<br />
Hosmer Angel suchen zu lassen.<br />
Diese elf Fakten nennt Miss Sutherland eingebunden in eine ausführlichere<br />
Erzählung Sherlock Holmes und dieser verbindet sie sofort, obwohl<br />
viele zuerst recht zusammenhanglos wirken, durch das Einbringen<br />
einer Hypothese zu einer zusammenhängenden Geschichte. Er schließt,<br />
(H) Hosmer Angel und der Stiefvater Mr. Windibank seien ein und dieselbe<br />
Person, und<br />
(Hi) daß Mr. Windibank Miss Sutherland mit der aufgeführten Komödie<br />
davon abhalten wollte, sich in einen anderen Mann zu verlieben<br />
und dann das Haus ihrer Eltern zu verlassen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 172<br />
Mit dieser Annahme lassen sich die Fakten, die uns zunächst rätselhaft<br />
erschienen sind, entweder erklären, oder sie spielen eine Rolle in bestimmten<br />
Erklärungen, die ihnen einen Sinn verleihen. Gerade die überraschende<br />
Annahme (H) stiftet den Zusammenhang für eine Menge von<br />
anscheinend isolierten Fakten, während (Hi) eine Hilfsannahme ist, die<br />
auf der naheliegenden Vermutung beruht, daß die Eltern von Miss Sutherland<br />
gerne weiterhin in den Genuß ihres Geldes kommen möchten.<br />
(1) erklärt zunächst, wieso der Stiefvater den Wunsch (Hi) haben kann,<br />
daß sie weiter zu Hause wohnt. Dieser Wunsch erklärt, die Tatsache (2).<br />
(3) und (5) erklären zumindest zum Teil, wieso (H) überhaupt vorliegen<br />
kann, und (H) erklärt seinerseits (4). (H) erklärt auch (6), denn Hosmer<br />
Angel hat keine eigene Adresse, die er Miss Sutherland nennen könnte.<br />
Ebenso erklärt (H) (7), (8) und (11) dadurch, daß Hosmer Angel die<br />
Entdeckung seiner wahren Identität fürchtet. Weiterhin erklärt (H) (9)<br />
oder macht es jedenfalls verständlich, warum Angel sich von ihr Treue<br />
schwören läßt, denn nur so kann er sein Ziel, Miss Sutherland im Hause<br />
zu behalten, für längere Zeit verwirklichen. Schließlich wird auch (10)<br />
durch (H) erklärt, denn natürlich kann Mr Windibank alias Hosmer Angel<br />
nicht an zwei Orten zugleich sein. Sherlock Holmes überprüft seine<br />
Annahme (H) durch einen Briefwechsel mit Mr. Windibank, der ergibt,<br />
daß<br />
(12) die Briefe von Windibank und Angel auf derselben Maschine<br />
geschrieben wurden.<br />
Mit diesem zwölften Faktum ist für ihn die Schlußfolgerung (H) zwingend<br />
und auch der Leser hält den Fall gegen Mr. Windibank für wasserdicht.<br />
Aber für den Logiker ist klar – und das bedarf wohl keiner weiteren<br />
Ausführungen –, daß Sherlock Holmes in dieser Geschichte seine<br />
grauen Zellen nicht für einen logischen Schluß in Gang setzt, auch wenn<br />
man umgangssprachlich leichtfertig so redet. Und das ist in Sherlock<br />
Holmes anderen Fällen ganz ähnlich. Sein Schlußverfahren ist natürlich<br />
wiederum ein „Schluß auf die beste Erklärung“ (SBE) oder eine<br />
„Abduktion“, was ich mit einer recht liberalen Auffassung von „Erklärung“<br />
verbinde, die später zu präzisieren sein wird. Dieses Schlußverfahren<br />
bildet mit anderen Erklärungszusammenhängen die meisten und<br />
wichtigsten inferentiellen Beziehungen in unserem Überzeugungssystem.<br />
Ehe ich anhand weiterer Beispiele belegen kann, welch große Bedeutung<br />
der Abduktion in unserer Rechtfertigungspraxis zukommt, möchte ich<br />
das Verfahren in Form eines simplen Schemas vorstellen:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 173<br />
Schluß auf die beste Erklärung (Abduktion)<br />
- E1,…, En, sind Tatsachen, die einer Erklärung bedürfen<br />
- Die Annahme H erklärt E1,…, En besser als alle alternativen<br />
Annahmen<br />
Also: H<br />
Das Schlußschema bedarf noch einiger Erläuterungen: Die Tatsachen Ei<br />
sind die Prämissen des Schemas; ebenso die Voraussetzung, daß sie der<br />
Erklärung bedürfen. Das ist immer vor unserem Hintergrundwissen zu<br />
beurteilen, worauf ich im Rahmen der Ausarbeitung einer Erklärungstheorie<br />
noch eingehen werde. Vor unserem Hintergrundwissen ist auch<br />
die zweite Prämisse zu verstehen. Welche Alternativen es zu H gibt und<br />
wie gut die von ihnen erbrachten Erklärungen sind, ist immer auf unseren<br />
jeweiligen epistemischen Zustand zu relativieren, denn eine Bezugnahme<br />
auf uns nicht zugängliche Alternativerklärungen würde die Forderung<br />
des Internalismus verletzen. 75 Tatsächlich lassen sich immer einige<br />
alternative Erklärungen finden, denn wir können zur Not sogar auf<br />
skeptische Erklärungen zurückgreifen, aber in einigen Fällen können wir<br />
trotzdem aufgrund weniger Daten schließen, weil es keine ernstzunehmenden<br />
Konkurrenten zu einer bestimmten Erklärung gibt. Wie gut die<br />
Abduktion unsere tatsächlich akzeptierten Schlüsse zu beschreiben gestattet,<br />
soll in den folgenden Überlegungen erneut belegt werden. Weitere<br />
Zusammenhänge und Beispiele findet man dazu auch in Lipton<br />
(1991), bei dem die Abduktion ähnlich verstanden wird wie hier, allerdings<br />
um eine andere Erklärungstheorie ergänzt und nicht in eine umfassende<br />
Kohärenztheorie eingebettet wird. 76<br />
Schauen wir noch einmal auf einige Beispiele: Sherlock Holmes Vorgehen<br />
im oberen Fall war zwar eine recht idealisierte Form von Abduktion,<br />
aber sie macht durchaus plausibel, daß kriminalistische Begründungen<br />
für die Täterschaft einer Person, die sich auf Indizien stützen müssen,<br />
typischerweise die Form von Schlüssen auf die beste Erklärung annehmen.<br />
Wir kennen sie aus Kriminalromanen oder vielleicht sogar aus<br />
eigenen Überlegungen. Vorgetragen werden sie etwa vor Gericht, wenn<br />
der Staatsanwalt seine Indizien nennt: Hans hatte ein Motiv Fritz umzu-<br />
75 Harman möchte demgegenüber auch nicht bekannte Alternativerklärungen<br />
mit einbeziehen. Er verletzt damit ohne Not und weitere Erläuterungen die<br />
Forderung des Internalismus und unsere Konzeption von Rechtfertigungen, die<br />
immer auf ein Hintergrundwissen relativiert sind.<br />
76 Daß die Liptonsche Konzeption gerade an diesen Stellen wesentliche<br />
Defizite aufweist, wird in der gründlichen Besprechung von Achinstein (1992)<br />
ersichtlich.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 174<br />
bringen, weil Fritz ihm seine Freundin ausgespannt hat; Fritz ist ermordet<br />
worden; Hans hat für die Tatzeit kein Alibi; neben dem Ermordeten<br />
findet sich ein Taschentuch von Hans; Hans wußte schon, bevor die Polizei<br />
es ihm kundtat, daß Fritz Tod war; auf der Uhr von Fritz sind noch<br />
Fingerabdrücke von Hans; Hans behauptet, Fritz nie besucht zu haben;<br />
usw. Dann schließt der Staatsanwalt: Also hat Hans den Fritz umgebracht,<br />
denn anders sind die genannten Fakten nicht zu erklären.<br />
Das ist eine typische Instanz des Schlusses auf die beste Erklärung,<br />
und der Verteidiger wird sich neben juristischen Winkelzügen und dem<br />
etwaigem Bestreiten einiger Prämissen des Schlusses – hier also den Indizien<br />
– bemühen, den Schluß zu entkräften. Zu diesem Zweck kann er alternative<br />
Erklärungen der Fakten vorschlagen, die genauso gut sind wie<br />
die Erklärung des Staatsanwaltes oder doch zumindest so gut, Zweifel<br />
daran zu wecken, die Erklärung des Staatsanwaltes für die Indizien sei<br />
unzweifelhaft besser als alle Alternativen. Er könnte vielleicht Margot<br />
ins Spiel bringen, die sowohl Fritz wie Hans haßt, auch kein Alibi hat,<br />
noch im Besitz eines Taschentuchs von Hans war und sich von Fritz eine<br />
Uhr geliehen hatte, die sie Hans gezeigt und dabei in die Hand gedrückt<br />
hat. Diese Fakten legen eine alternative Erklärung nahe, die den Status<br />
der Erklärung des Staatsanwaltes als beste Erklärung hinreichend erschüttern<br />
könnte, daß sich das Gericht entsprechend dem Grundsatz „in<br />
dubio pro reo“ zu einem Freispruch entschließen könnte.<br />
Damit wir von den Indizien per Abduktion auf den Täter schließen<br />
können, ist im Sherlock Holmes Fall wie auch im zweiten Fall eine ganze<br />
Menge an implizitem Hintergrundwissen erforderlich. Um den Schluß<br />
des Staatsanwalts ziehen zu können, daß die beste Erklärung für unsere<br />
Indizien die ist, daß Hans den Fritz umgebracht hat, benötigen wir zunächst<br />
einmal Kenntnisse aus der Common Sense Psychologie. Wir müssen<br />
wissen, daß Hans vermutlich mit Eifersucht auf den Wechsel seiner<br />
Freundin zu Fritz reagiert hat und daß das für bestimmte Persönlichkeiten<br />
zu einem Haß führen und sogar zu einem Motiv für einen Mord anwachsen<br />
kann. Außerdem müssen wir uns darauf verlassen, daß Fingerabdrücke<br />
eindeutig eine Person kennzeichnen, daß Hellsehen nicht möglich<br />
ist u.v.m. Das ist der andere Bereich, an dem der Verteidiger ansetzen<br />
kann. Wenn er nachweisen kann, daß die Erklärung des Staatsanwaltes<br />
nicht so gut ist, wie es auf den ersten Blick scheint, weil sie sich auf<br />
unplausible Hintergrundannahmen stützen muß, kann er damit ebenfalls<br />
den Schluß auf die beste Erklärung unterminieren. Wird in der Verhandlung<br />
deutlich, daß Hans der Wechsel seiner Freundin vollkommen<br />
gleichgültig war (vielleicht weil er selbst schon eine andere hatte), stellt
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 175<br />
die Anklageschrift des Staatsanwaltes keine so gute Erklärung der Indizien<br />
mehr dar. Es bleiben plötzlich zu viele unerklärte Fakten übrig.<br />
Warum sollte Hans dann noch Fritz gehaßt haben?<br />
Wir sehen an diesem Beispiel auch, daß die erklärende Hypothese<br />
des Staatsanwaltes keineswegs eine einzelne Annahme darstellt, sondern<br />
eine komplette Geschichte, deren einzelne Teile sowohl erklärenden Gehalt<br />
haben sollen, als auch selbst erklärbar sein müssen, sonst erscheint<br />
sie uns nicht mehr überzeugend. Zu dieser Geschichte gehören letztlich<br />
Annahmen über den Gemütszustand von Hans, über seinen Griff nach<br />
der Uhr von Fritz, über seine potentielle Gewaltbereitschaft usf. Jede<br />
einzelne sollte Erklärungswert für die Indizien besitzen, aber auch selbst<br />
wieder eine Erklärung besitzen. Wir stoßen auf eine enge Vernetzung<br />
von Erklärungsbeziehungen zwischen den Teilen der anklagenden Geschichte,<br />
den bekannten Indizien und unserem übrigen Hintergrundwissen.<br />
Analog sieht es auch in unserem Sherlock Holmes Fall aus. Einige<br />
der Indizien (etwa 3, 4, 5 und 7) sind wesentlich für die Erklärung, wie<br />
es überhaupt möglich war, daß Hosmer Angel und Mr. Windibank ein<br />
und dieselbe Person sind, ohne daß Miß Sutherland das bemerkt hat.<br />
Wenn wir dafür keine Erklärung besäßen, bräche Sherlock Holmes<br />
schöne Lösung schnell in sich zusammen. Umgekehrt erklärt seine Hypothese<br />
H, dann einiges von dem auffälligen (paßt nicht gut in unser<br />
Hintergrundwissen) und daher erklärungsbedürftigen Verhalten von Mr.<br />
Windibank und Hosmer Angel. Das angegebene einfache Schema der<br />
Abduktion abstrahiert also von einigen wichtigen Zusammenhängen, die<br />
erst in einer umfassenderen Kohärenztheorie berücksichtigt werden.<br />
Nur diese Einbettung ermöglicht ein angemessenes Verständnis unserer<br />
Beurteilung von Abduktionen. Diese holistischen Zusammenhänge erschweren<br />
es uns auch, alle Bestimmungsstücke der Beurteilung tatsächlich<br />
auf den Tisch zu legen. Doch davon später mehr.<br />
Obwohl es sich in den Beispielen um stark vereinfachte fiktive Fälle<br />
handelt, wird die Überzeugungskraft des Schlusses auf die beste Erklärung<br />
jeweils deutlich. Wie einschlägig solche Kohärenzüberlegungen für<br />
reale Kriminalfälle sein können, haben Untersuchungen wie die von<br />
Thagard (1989, 450ff) gezeigt, in denen Thagard sein Programm<br />
ECHO, das eine konnektionistische Implementierung seiner Kohärenz-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 176<br />
theorie (s. IV.D.3) darstellt, auf faktische Strafverfahren um Tötungsdelikte<br />
anwandte. 77<br />
Abduktionen finden sich aber natürlich nicht nur in der Kriminalistik<br />
und in formalisierten Situationen, in denen wir um Begründungen<br />
unserer Behauptungen gebeten werden, sondern auch immer wieder in<br />
Alltagsschlüssen. Dazu noch ein Beispiel: Wenn ich auf jemanden warte,<br />
der sich verspätet, stelle ich wahrscheinlich Vermutungen an, wieso er<br />
nicht rechtzeitig kommt. Dazu werde ich aus meinem relevanten Hintergrundwissen<br />
die nötigen Zusatzinformationen heranziehen wie: Er<br />
wollte mit dem Auto kommen; das springt oft nicht an; er glaubt trotzdem<br />
immer wieder, daß er es anbekommt; er bemüht sich eigentlich<br />
pünktlich zu sein,… Sollte ich viele Überzeugungen dieser Art und keine<br />
echten Alternativen, wie, daß er öfter verschläft, haben, werde ich annehmen,<br />
daß er zwar rechtzeitig aufgebrochen ist, aber sein Auto nicht<br />
anbekommen hat. Vor meinem Hintergrundwissen scheint das die beste<br />
Erklärung zu sein.<br />
In ähnlicher Form lassen sich auch unsere Überlegungen beschreiben,<br />
wenn ich jemand eine Überzeugung oder einen Wunsch zuschreibe.<br />
Über Wahrnehmungen zugänglich ist mir nur sein Verhalten. Ich sehe,<br />
für welches Auto oder Essen er sich entscheidet; er sagt mir, daß er keinen<br />
Pudding mag; ich berücksichtige, ob er irgendwelche Gründe haben<br />
sollte, mir seine Vorlieben zu verschweigen und so fort. Wir alle wissen,<br />
daß Beobachtungen der genannten Art, aber auch unsere weiteren Hintergrundannahmen<br />
über diese Person in die Beurteilung, welche Überzeugungen<br />
und Wünsche sie hat, einfließen können. Nicht ganz so einfach<br />
ist es schon zu sagen, welche Theorie von Personen und ihrem Verhalten<br />
wir dabei benutzen. Philosophen neigen dazu, Handlungen anhand<br />
einer Theorie rationalen Verhaltens erklären zu wollen. Man wird<br />
der Person dann solche Überzeugungen und Wünsche zuschreiben, die<br />
ihr Verhalten als möglichst rational erscheinen lassen. Einige Autoren<br />
(z. B. Davidson) halten dieses Vorgehen für geradezu konstitutiv für das<br />
Zuschreiben von intentionalen Zuständen. Nach ihrer Ansicht kann man<br />
das Verhalten anderer Menschen nur dann anhand von Wünschen und<br />
Überzeugungen verstehen, wenn wir sie mit Hilfe des „principles of cha-<br />
77 Außerdem nennt Thagard (1992, 63) zwei Arbeiten von Pennington<br />
und Hastie, die die Entscheidungsfindung von Jurymitgliedern untersucht haben,<br />
und zu dem Schluß gekommen sind, daß sich vieles davon als Suche nach Erklärungskohärenz<br />
verstehen läßt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 177<br />
rity“ interpretieren, wonach man ihnen möglichst konsistente und möglichst<br />
viele wahre Überzeugungen zuschreiben muß. 78<br />
Diese Festlegung auf eine Rationalisierung von Verhalten scheint mir<br />
eher auf einem Mangel an anderen erklärenden Theorien zu beruhen,<br />
aber deshalb noch keineswegs konstitutiv für Verhaltenserklärungen zu<br />
sein. Wenn wir mehr über die betreffende Person wissen, können wir<br />
uns vielleicht auf Verhaltensregularitäten stützen, die zeigen, daß er in<br />
bestimmten Situationen leider immer wieder irrational handelt. Natürlich<br />
können wir ihm dann jeweils Wünsche und Überzeugungen zuschreiben,<br />
die auch dieses scheinbar irrationale Verhalten wieder rationalisieren<br />
würden. Doch das mag nicht kohärent zu anderen Teilen unseres<br />
Hintergrundwissens passen, die normalerweise bestimmte Einschränkungen<br />
für solche Zuschreibungen vorsehen; z. B., daß die Person<br />
auf Befragen hin diese Überzeugungen und Wünsche auch formulieren<br />
kann. Außerdem haben derartige Erklärungen wahrscheinlich nur noch<br />
einen geringen empirischen Gehalt, wenn wir so willfährig mentale Zustände<br />
zuschreiben, wie wir sie gerade benötigen. Darunter leidet sehr<br />
stark ihre erklärende Kraft (s. dazu Kap. IX). 79<br />
Aber welchen Theorien wir auch anhängen, wir werden von der<br />
Struktur her doch ähnlich vorgehen, wenn wir jemandem intentionale<br />
Zustände zuschreiben. Wir wählen die Zustände aus, die sein Verhalten<br />
im Lichte unserer Theorie menschlicher Handlungsweisen und unserer<br />
anderen Hintergrundannahmen über ihn am besten erklären.<br />
In den Wissenschaften und in der Wissenschaftstheorie ist die rechtfertigende<br />
Wirkung von Abduktionen längst ein anerkanntes Phänomen.<br />
Wissenschaftliche Theorien werden immer wieder anhand ihrer Erklärungskraft<br />
eingeschätzt. Daß uns Theorien Erklärungen für bestimmte<br />
Phänomene bieten, wird als ein wesentliches Ziel wissenschaftlicher<br />
Theorienbildung – wenn nicht sogar als das Hauptziel – angesehen. Wir<br />
bevorzugen eine Theorie gegenüber einer anderen, wenn sie uns bessere<br />
Erklärungen anzubieten hat. Diese Suche nach Theorien mit großer Erklärungskraft<br />
findet selbst ihre Erklärung zumindest zum Teil darin, daß<br />
78 Davidsons (1987) versucht daraus sogar ein Argument gegen den Skeptiker<br />
zu machen. Schließlich, wenn wir nicht umhin können, anderen Menschen<br />
möglichst viele wahre Überzeugungen zuzuschreiben, weil das die Spielregeln<br />
der Überzeugungszuschreibung sind, so wird unklar, wie der Skeptiker ernsthaft<br />
erwägen kann, daß wir nur falsche Meinungen haben könnten. Doch Davidsons<br />
Überlegung wird überzeugend von Susan Haack (1993, 60ff) kritisiert.<br />
79 Sie haben sicherlich bemerkt, daß ich auf dem besten Weg bin, eine Erklärungsstrategie<br />
zu kritisieren, die unter anderem von der Psychoanalyse eingeschlagen<br />
wird.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 178<br />
wir Abduktionen als rechtfertigend betrachten und daher die Erklärungskraft<br />
einer Theorie als einen wichtigen Indikator für ihre Wahrheit<br />
nehmen. Auch bescheidenere Schlüsse als die auf ganze Theorien werden<br />
in den Wissenschaften vornehmlich anhand von Abduktionen vorgenommen.<br />
Dazu lassen sich zahlreiche Beispiele finden. Millikan schließt<br />
unter anderem aus der Tatsache, daß sich die gemessenen elektrischen<br />
Ladungen in seinen Experimenten alle als ganzzahlige Vielfache einer<br />
recht kleinen Ladung ergeben, daß es sich dabei um die Elementarladung<br />
handeln muß. 80 Aus den Interferenzerscheinungen des Lichts<br />
schließen wir, daß es sich um ein Wellenphänomen handeln muß, aus<br />
Fossilienfunden auf die Evolutionstheorie usf. Das sind jeweils typische<br />
Beispiele dafür, daß wir nach den Hypothesen suchen, die unsere Beobachtungen<br />
am besten erklären. In der Einleitung hatte ich auch schon<br />
Beispiele aus der Philosophie beigebracht, die belegen, daß Abduktionen<br />
keineswegs auf die Naturwissenschaften beschränkt sind.<br />
4. Abduktion und Induktion<br />
Natürlich lassen sich viele schöne Beispiele für Abduktionen finden,<br />
aber sind die nicht vielleicht auch durch andere Schlußverfahren angemessen<br />
zu beschreiben? Werfen wir einen Blick auf ein typisches Konkurrenzprodukt,<br />
das philosophiehistorisch sicher die bedeutsamste Rolle<br />
gespielt hat, den Induktionsschluß. Von Aristoteles, für den Induktion<br />
überwiegend in enumerativer Induktion bestand, über Francis Bacon, der<br />
mit seiner Ausschließungsmethode subtilere Regeln aufstellte und zufällige<br />
Korrelationen auszuschließen hoffte, über Mills Diskussionen der Induktion<br />
bis hin zu den logischen Empiristen und ihren Nachfolgern, die<br />
sogar eine Logik der Induktion aufgestellt haben, stand der Induktionsschluß<br />
im Zentrum des Interesses an den Beziehungen zwischen Theorie<br />
und Einzeltatsachen. Da auch die Abduktion ein Induktionsschluß im<br />
weiteren Sinn des Wortes ist, halte ich nun natürlich hauptsächlich nach<br />
alternativen Induktionsverfahren etwa im Sinne der konservativen oder<br />
enumerativen Induktion Ausschau. Induktionsschlüsse sind bekanntlich<br />
nicht beschränkt auf die Wissenschaften, sondern typische Inferenzverfahren<br />
unseres Alltags. Behavioristen zeigten den engen Zusammenhang<br />
zu unserem Lernverhalten. Aus der Erkenntnis, daß in Einzelfällen Bier<br />
unseren Durst auf angenehme Weise gelöscht hat, ziehen wir schon bald<br />
80 Die tatsächliche Entwicklung war natürlich erheblich komplexer und<br />
Millikan mußte neben anderem einige Meßwerte als „Ausrutscher“ ganz verwerfen<br />
u.v.m. Siehe zur Geschichte dieses Versuchs Holton 1981, 50ff.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 179<br />
den Schluß, daß das auch in Zukunft der Fall sein wird. Den Besuch bestimmter<br />
Vorlesungen stufen wir schnell als langweilig ein etc. Vermutlich<br />
neigen wir geradezu zu vorschnellen Induktionsschlüssen, was auch<br />
dazu führt, daß wir manchmal sogar bereit sind, anhand nur weniger<br />
Daten und Einzelfälle alle Ausländer als unangenehm zu klassifizieren<br />
oder andere Vorurteile zu entwickeln. Das Wort „Vorurteil“ zeigt hier<br />
schon, daß wir diesen Prozeß bei Reflektion als epistemisch minderwertig<br />
erkennen. Die Beispiellisten kann jeder schnell verlängern.<br />
In seiner klassischen Fassung gehen Induktivisten davon aus, daß wir<br />
aus den Beobachtungen durch eine Extrapolation der Form „more of the<br />
same“ zu allgemeinen Tatsachen gelangen können, während Vertreter<br />
der Abduktion phantasievoll erdachte Hypothesen schon bei der Datenerhebung<br />
für wesentlich halten. Stelle ich fest, daß mein Kühlschrank<br />
nicht mehr läuft, vermute ich zunächst einen Stromausfall, als möglicherweise<br />
beste Erklärung, aber wenn ich dann sehe, daß mein elektrischer<br />
Wecker, der an demselben Stromkreis hängt, trotzdem funktioniert,<br />
muß ich nach anderen Erklärungen suchen (Beispiel von Lipton<br />
1991, 67f). Dieses Vorgehen entspricht überhaupt nicht mehr der konservativen<br />
Induktion, von der ich nun zeigen möchte, daß sich auch ihre<br />
intendierten Anwendungen am ehesten als Schlüsse auf die beste Erklärung<br />
verstehen lassen. 81 Das Prinzip der aufzählenden Induktion, das für<br />
diese Fälle vorgeschlagen wurde, kann man schematisch folgendermaßen<br />
darstellen:<br />
Prinzip der aufzählenden Induktion<br />
1) Fa1 Ga1<br />
2) Fa2 Ga2<br />
…<br />
Also:<br />
3) x (Fx Gx)<br />
Hierbei werden mit F und G bestimmte Eigenschaften bezeichnet und<br />
die ai bezeichnen die untersuchten Gegenstände. Das obige Beispiel des<br />
Biertrinkers läßt sich damit so beschreiben: F steht für die Eigenschaft,<br />
Bier zu sein, und G für die, gut zu schmecken. Die ai bezeichnen die einzelnen<br />
getrunkenen Biere, und wir schließen dann: Bier schmeckt gut.<br />
Doch auch das ist eigentlich nichts anderes als eine Form von Abduktion.<br />
Die beste Erklärung für all unsere Einzelbeobachtungen von gut<br />
81 Diese Behauptung findet sich auch bei Harman (1973, 130), allerdings<br />
ohne eine besondere Begründung und mehr auf die Auseinandersetzung mit der<br />
kausalen Wissenstheorie Goldmans bezogen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 180<br />
schmeckenden Bieren, ist eben die, daß Bier ein gutschmeckendes Getränk<br />
ist. Beide Beschreibungen, die des Schlusses auf die beste Erklärung<br />
und die des aufzählenden Induktionsschlusses, scheinen für diesen<br />
trivialen Fall unseren Schluß angemessen darzustellen. Viele erhoffte Anwendungen<br />
eines Induktionsverfahrens sind jedoch nicht von dieser ausgesprochen<br />
einfachen Gestalt.<br />
Das zeigte sich bereits in der Geschichte der Ausarbeitung induktiver<br />
Methoden durch Bacon und Mill. Für Bacon ist der „Fall der Entscheidung“<br />
einer der wichtigsten seiner 27 Prärogativ Fälle (s. dazu Losee<br />
1977, 68). Er gibt uns dazu das folgende Beispiel an: Für das Auftreten<br />
von Ebbe und Flut werden zwei Hypothesen vorgeschlagen. Die Waschschüsselhypothese,<br />
nach der das Wasser wie in einer hin- und her bewegten<br />
Waschschüssel hin- und herschwappt, und die Hypothese, daß der<br />
gesamte Wasserspiegel steigt und fällt. Welche der Hypothesen nun richtig<br />
sei, läßt sich seiner Meinung nach entscheiden, indem man beobachtet,<br />
ob die Flut an gegenüberliegenden Küsten gleichzeitig eintritt oder<br />
nicht. Man kommt in dieser Frage hingegen nicht weiter, indem man<br />
einfach willkürlich weitere Fälle von Ebbe und Flut betrachtet, sondern<br />
man muß speziell die Daten sammeln, für die ein Unterschied zwischen<br />
den beiden alternativen Hypothesen und ihren Erklärungen gegeben ist.<br />
Wir sind wiederum nicht so sehr an „more of the same“ interessiert,<br />
sondern hauptsächlich an den Daten, die relevant für unsere Auswahl<br />
der besten Erklärung sind. Hier haben wir alle typischen Elemente des<br />
Schlusses auf die beste Erklärung, die wir schon bei Sherlock Holmes<br />
fanden, und die Struktur der einfachen Induktion ist kaum noch erkennbar.<br />
Die Entscheidung fällt in diesem Beispiel eindeutig zwischen konkurrierenden<br />
Erklärungshypothesen. Lipton (1991, 68) spricht von einer<br />
„explanatory detour“, einem Umweg über Theorien, um die erkenntnistheoretisch<br />
notwendigen induktiven Zusammenhänge herzustellen.<br />
Auch Mill (s. Losee 1977, 146) verlangte für die volle Verifikation einer<br />
Hypothese, daß sowohl ihre deduktiven Folgerungen mit den Beobachtungen<br />
übereinstimmen, wie auch, daß die zu erklärenden Tatsachen aus<br />
keiner anderen Hypothese folgen.<br />
Die Ausarbeitung von Theorien der Induktion folgte also schon bald<br />
Wegen (und auch bei Aristoteles lassen sich schon Ansätze dafür finden),<br />
die viel besser in das Schema der Abduktion passen als in das ursprüngliche<br />
induktive Schema. Whewell (1967, 62) war wohl einer der ersten,<br />
die das am deutlichsten aussprachen. Er hatte bereits eine interessante<br />
Theorie über diese Form von Induktionsschlüssen entwickelt hat, die<br />
vor allem „consilience“ von den erklärenden Hypothesen verlangte. Wir
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 181<br />
sind jedenfalls auf bestimmte Elemente unseres Hintergrundwissens bei<br />
unseren induktiven Schlüssen unwillkürlich angewiesen. Deshalb kommt<br />
uns ein Optimist, der vom 40. Stock eines Hochhauses springt und nach<br />
jedem Stock sagt: „Es geht doch ganz prima“, trotz der tragischen Umstände<br />
eher lächerlich vor. So schlicht – im Sinne von „more of the same“<br />
– darf man das Induktionsverfahren eben nicht anwenden. Unser<br />
Wissen um solche Fälle sagt uns, daß trotz 20 Stockwerken erfolgreichen<br />
Flugs der Sprung kein gutes Ende nehmen kann. Der Proponent<br />
der Abduktion kann diesen Fall denn auch leicht aufklären: In unserem<br />
Hintergrundwissen gibt es eine alternative Erklärung, die wir für besser<br />
halten, nämlich die, daß jeder derartige Sturz zwar eine bestimmte Zahl<br />
von Stockwerken „gut geht“, aber immer ein ungutes Ende haben<br />
muß. 82<br />
Welch große Probleme eine induktive Theorie der Bestätigung zu bewältigen<br />
hat, wurde nicht nur durch Humes skeptische Frage, wie sich<br />
ein Induktionsschluß denn rechtfertigen läßt, deutlich. Hempels Rabenparadox<br />
wirft zusätzlich die Frage auf, welche Beobachtungen für eine<br />
induktive Bestätigung mitzuzählen sind (s. dazu Lenzen 1974, 127ff)<br />
und das Goodmansche Paradox stellte die noch grundsätzlichere Frage,<br />
welche allgemeine Hypothese durch unsere Beobachtungen überhaupt<br />
gestützt wird. Goodman (1988) zeigt unter dem Stichwort „das neue<br />
Rätsel der Induktion“, daß sich zu vorgegebenen Daten, zu jeder Hypothese,<br />
die zu den Daten paßt, eine Alternativhypothese angeben läßt, die<br />
ebenfalls zu den Daten paßt. Um zwischen diesen Hypothesen eine Entscheidung<br />
herbeizuführen, sind wir auf unser Hintergrundwissen angewiesen,<br />
nach Goodman auf die Projizierbarkeit der in den Hypothesen<br />
verwendeten Prädikate. Diese Entscheidung ist keine Entscheidung der<br />
orthodoxen Konzeption von Induktion mehr, sondern eine Abduktion,<br />
die eine Hypothese deshalb als bessere Erklärung der Daten auszeichnet,<br />
weil sie von ihren Prädikaten her besser in unser Meinungssystem einzubetten<br />
ist. Sie führt daher zu einem kohärenteren System als ihre Goodmansche<br />
Konkurrentin.<br />
Ein weiteres Phänomen, auf das schon Hume (1985, 131) hingewiesen<br />
hat, zeigt darüber hinaus noch, daß die aufzählende Induktion kein<br />
gutes Modell der Theorienbestätigung anzubieten hat. In vielen Fällen<br />
begnügen wir uns schon mit einer einzelnen Einsetzungsinstanz einer<br />
82 In Teil 3 wird deutlich werden, daß diese Erklärung schon aus dem<br />
Grunde besser ist, weil sie eher zur Vereinheitlichung und Systematisiserung unserer<br />
Beobachtungen beiträgt, als das für die Hoffnung auf eine günstige Fortsetzung<br />
des bisherigen Fluges der Fall ist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 182<br />
Hypothese, um sie zu akzeptieren. Wir verlangen dann nicht nach weiteren<br />
Tests, was für einen aufzählenden Induktivisten doch selbstverständlich<br />
sein sollte. Habe ich ein Auto einmal angelassen, glaube ich, daß der<br />
Motor funktionstüchtig ist. (Das kann natürlich keine Langzeitprognosen<br />
stützen). Daß oft so wenige Instanzen genügen, um eine Hypothese<br />
vorläufig zu akzeptieren, liegt daran, daß in unserem Hintergrundwissen<br />
zu diesem Zeitpunkt keine ernstzunehmenden Konkurrenzhypothesen<br />
verfügbar sind, die den Einzelfall ähnlich gut erklären könnten. Die epistemische<br />
Beurteilung derartiger Fälle orientiert sich nicht primär an der<br />
Anzahl der Einsetzungsfälle, sondern an dem Fehlen oder Vorhandensein<br />
plausibler alternativer Erklärungen in unserem Hintergrundwissen.<br />
Überhaupt scheint in den Beispielen nicht die Anzahl der Tests wesentlich<br />
zu sein, sondern eher schon die Variabilität der Testinstanzen, worauf<br />
ebenfalls bereits Whewell (1967, 65) hingewiesen hat. Wir würden<br />
das Auto nicht immer wieder unter denselben Bedingungen starten, sondern<br />
eher schon bei trockenem versus feuchten Wetter bei Frost oder<br />
wenn der Motor schon warmgefahren wurde usf. Nur davon können<br />
wir uns weitere aufschlußreiche Informationen versprechen.<br />
Natürlich sind in manchen Fällen auch bestimmte Stückzahlen gefragt,<br />
um eine repräsentative Stichprobe zu erhalten. Für Meinungsumfragen<br />
genügt es nicht, nur eine Person zu befragen; um die Jahresproduktion<br />
einer Autofirma auf ihre Qualität zu überprüfen, benötigt man<br />
mehr als ein Fahrzeug aus der Produktion. In solchen Fällen ist auch geradezu<br />
ein Kontinuum von konkurrierenden Hypothesen denkbar, die in<br />
einer epistemischen Einschätzung berücksichtigt werden wollen. Das ist<br />
typisch für quantitative Aussagen und ein Indiz für ihren hohen Gehalt.<br />
In den zuletzt genannten Beispielen ist die beurteilende Statistik gefragt,<br />
die ebenfalls typischerweise abduktiv vorgeht. Sie schätzt statistische<br />
Hypothesen etwa danach ein, wie wahrscheinlich sie die beobachteten<br />
Daten machen, also wie gut sie die Daten in einem intuitiven Sinn<br />
des Wortes erklären. Man schließt dann auf die Hypothese, aus einer<br />
Menge von konkurrierenden Hypothesen, die die beste Erklärung der<br />
Daten anzubieten hat, d.h. im statistischen Fall, für die die beobachteten<br />
Daten am wahrscheinlichsten sind. Mit statistischen Theorien und Verfahren<br />
der beurteilenden Statistik möchte ich mich in dieser Arbeit aber<br />
nicht weiter beschäftigen, da sie eine ganze Reihe von eigenständigen<br />
Problemen aufwerfen, die meine Untersuchung in unnötiger Weise komplizieren<br />
würden.<br />
Die angesprochenen Beispiele für Induktionsschlüsse sollten zunächst<br />
nur belegen, daß der einfache Fall der aufzählenden Induktion
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 183<br />
sich durch die Abduktion genauso gut beschreiben läßt wie durch ein Induktionsprinzip.<br />
Tatsächliche Beispiele von Hypothesenbestätigung sehen<br />
im allgemeinen aber viel komplizierter aus und zeigen insbesondere<br />
eine starke Abhängigkeit von unserem Hintergrundwissen und von dem<br />
Vorliegen alternativer Erklärungshypothesen. Die ist in einem Induktionsprinzip<br />
nicht so natürlich unterzubringen wie im Verfahren der Abduktion.<br />
In diesen Fällen zeigt der Schluß auf die beste Erklärung seine Überlegenheit<br />
gegenüber dem einfachen Induktionsschema. Eine Reihe von<br />
intendierten Anwendungsfällen des Induktionsprinzips werden besser<br />
verständlich, wenn wir sie als Schluß auf die beste Erklärung interpretieren.<br />
Die anfängliche Einfachheit des Induktionsprinzips geht in den betrachteten<br />
Beispielen und den genannten Paradoxien ebenfalls zusehends<br />
verloren. Das sind gute Gründe, das Induktionsprinzip nur als einen –<br />
wenn auch vielleicht wichtigen – Spezialfall der Abduktion zu betrachten.<br />
Dabei ist auch noch zu beachten, daß die klassische Induktion typischerweise<br />
in den Rahmen fundamentalistischer Konzeptionen von Begründung<br />
gehört, geht sie doch davon aus, daß wir zunächst die „Daten“<br />
vorgegeben haben und erst dann nach geeigneten Theorien suchen,<br />
die Verallgemeinerungen unserer Daten verkörpern. Daß man hingegen<br />
schon bei der „Datenerhebung“ und Begründung von Beobachtungsaussagen<br />
auf Theorien angewiesen ist, ist eine Einsicht, die besser in die Kohärenztheorie<br />
paßt.<br />
5. Epistemische Stützung durch Erklärungen<br />
Inferentielle Beziehungen bestehen denn auch nicht nur in der einen<br />
Richtung, vom Erklärten zum Erklärenden, sondern auch in der anderen<br />
Richtung vom Erklärenden zum Erklärten. Für eine Kohärenztheorie<br />
der Erkenntnis sollte das selbstverständlich so sein, denn Rechtfertigungsbeziehungen<br />
werden in Kohärenzkonzeptionen der Rechtfertigung<br />
üblicherweise als reziproke Beziehungen verstanden. Die rechtfertigende<br />
Wirkung von Erklärungen wird aber nicht nur von der Kohärenztheorie<br />
verlangt, sondern ist auch bereits unabhängig davon intuitiv plausibel.<br />
Relativ leicht ist das für die deduktiv-nomologische Erklärung erkennbar,<br />
weil Erklärungen die dem DN-Schema genügen – und davon gibt es<br />
eine ganze Reihe, wie Hempel und Gefolgsleute nachweisen konnten –<br />
insbesondere Deduktionen sind und daher als logische Schlüsse „ideale“<br />
Rechtfertigungen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 184<br />
Allerdings haben nicht alle Erklärungen, die man normalerweise so<br />
bezeichnet, bereits deduktiven Charakter, 83 und Hempel spricht in solchen<br />
Fällen von unvollständigen Erklärungen. Aber auch Beispiele von<br />
unvollständigen Erklärungen wirken intuitiv rechtfertigend. Am deutlichsten<br />
wird das in den Beispielen, in denen wir berechtigte Zweifel an<br />
einer bestimmten Behauptung haben. Jemand erzählt uns z. B. von Vorgängen<br />
wie dem Gabelverbiegen des Uri Geller, die er gesehen hätte und<br />
die uns als Wunder erscheinen, oder einem Ufo, das er beobachtet zu haben<br />
glaubt. Daß er tatsächlich ein Gabelverbiegen beobachten konnte<br />
und daß es solche Vorgänge gibt, wird für uns genau in dem Moment<br />
glaubwürdiger, wo wir eine Erklärung erhalten, wie Uri Geller, nämlich<br />
etwa mit Hilfe bestimmter Chemikalien, seine „Wunder“ bewerkstelligen<br />
konnte. Solange diese Geschichten sich dagegen noch nicht in unsere<br />
Vorstellung der Welt einfügen, sondern als Wunder auftreten, sind sie<br />
für uns sehr unwahrscheinlich und damit unglaubwürdig. Wenn man sie<br />
mit Hilfe einer Erklärung in unser akzeptiertes Modell der Welt integrieren<br />
kann, verlieren sie ihre anfängliche Unglaubwürdigkeit und unser<br />
Vertrauen in die Glaubwürdigkeit des Berichterstatters gewinnt im Normalfall<br />
die Oberhand. Erst dann werden wir seine Berichte akzeptieren,<br />
wenn auch vielleicht nicht seine Interpretationen und Schlußfolgerungen<br />
dazu. Gelingt es uns jedoch nicht, eine brauchbare Erklärung für ein<br />
Phänomen zu finden, kann das für uns einen guten Grund darstellen,<br />
den entsprechenden Beobachtungsbericht als einen Beobachtungs- oder<br />
Erinnerungsfehler abzulehnen. Wissenschaftler werden von Esoterikern<br />
gern als engstirnig abgestempelt, wenn sie sich nur sehr schwer von<br />
übersinnlichen Phänomenen oder der Astrologie überzeugen lassen.<br />
Doch die Wissenschaftler verfahren damit nur nach völlig korrekten epistemischen<br />
Prinzipien, die auch die Esoteriker selbst in anderen Kontexten<br />
anwenden.<br />
Das ist auch der Kern von Humes (1979, 141ff) Argument gegen die<br />
Annahme von Wundern. Ein Wunder kann nur etwas sein, von dem wir<br />
sicher sind, daß es keine natürliche Erklärung besitzt. Geschehnisse von<br />
denen wir sicher sind, daß sie keine Erklärung besitzen, müssen aus dem<br />
Rahmen unserer Gesetze herausfallen und mit ihnen in irgendeiner Weise<br />
unverträglich sein. Damit wir etwas als Gesetz akzeptieren, hat es<br />
aber durch die Erfahrung bereits sehr gut bestätigt zu sein, und Berichte<br />
über Geschehnisse, die da nicht hineinpassen, sind ihrerseits immer viel<br />
schlechter bestätigt als die Gesetze. Sogar die Wunder, die wir selbst<br />
wahrzunehmen glauben, lassen daher in der Regel eine bessere Erklä-<br />
83 Beispiele dafür werden im 3. Teil diskutiert.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 185<br />
rung zu, als die, daß sich tatsächlich ein Wunder ereignet hat. Nämlich<br />
zumindest die, daß der Berichterstatter – im speziellen Fall auch wir<br />
selbst – uns geirrt haben. Humes Argument stützt sich an dieser Stelle<br />
auf den Schluß auf die beste Erklärung. Es wird die Glaubwürdigkeit alternativer<br />
Erklärungen für Wunderberichte oder eigene Wahrnehmungen<br />
vor unserem Hintergrundwissen eingeschätzt. Der Schluß, daß es<br />
sich um Berichte handelt, die tatsächlich auf ein Wunder zurückgehen,<br />
ist dabei nach Hume der Alternativerklärung, daß es sich um einen Irrtum<br />
der Wahrnehmung oder Überlieferung handelt, immer unterlegen,<br />
weil Wunder dem widersprechen müssen, was für uns einen ausgezeichneten<br />
epistemischen Status hat, nämlich Gesetzen. Seiner Meinung nach<br />
bevorzugt der Schluß auf die beste Erklärung daher immer die Annahme<br />
von Irrtümern gegenüber der von Wundern.<br />
Leider macht Hume es sich mit dieser apriorischen Argumentation<br />
gegen Wunder zu leicht. Wir werden in Abschnitt (IV. B) genauer erfahren,<br />
wie Wahrnehmungen in einer Kohärenztheorie behandelt werden,<br />
aber auf einen Punkt möchte ich schon jetzt hinweisen. Zu unseren<br />
Theorien über unsere Wahrnehmung gehört auch, daß wir uns nur unter<br />
bestimmten Bedingungen irren und dieser Irrtum ebenfalls einer konkreten<br />
Erklärung bedarf. In bestimmten Wahrnehmungssituationen sind wir<br />
uns ziemlich sicher, daß kein Irrtum vorliegt und keine Erklärung für einen<br />
Irrtum gegeben werden kann. Hier müßte der Irrtum selbst bereits<br />
als eine Art von Wunder erscheinen, das wir ebenfalls nicht zu akzeptieren<br />
bereit sind. Welches dann das größere Wunder ist, läßt sich nicht a<br />
priori entscheiden, und es ist jedenfalls nicht auszuschließen, daß wir<br />
uns in bestimmten Situationen dazu entschließen sollten, eher das beobachtete<br />
Ereignis als ein echtes Wunder zu akzeptieren, als es schlicht als<br />
Irrtum abzutun.<br />
Humes Argument weist freilich auf ein erkenntnistheoretisches Problem<br />
hin, mit dem angebliche Wunder immer zu kämpfen haben. Zum<br />
einen müssen ihre Befürworter zeigen, daß so etwas eigentlich nicht passieren<br />
kann, sonst wäre es kein Wunder; zum anderen müssen sie auch<br />
nachweisen, daß es doch passiert ist. So entsteht mit dem Akzeptieren eines<br />
Wunders jedesmal eine Inkohärenz in unseren Überzeugungen.<br />
Hume kann uns nur nicht überzeugen, daß es in allen derartigen Fällen<br />
die beste Auflösung dieser Inkohärenz ist, die Wunderberichte als Irrtümer<br />
abzutun, da wir uns auch damit eine Inkohärenz zu unseren Vorstellungen<br />
von unseren eigenen Wahrnehmungsfähigkeiten einhandeln. Nur<br />
wenn man diese Theorien über die eigenen Wahrnehmungsfähigkeiten<br />
ganz aus dem Spiel läßt – und an derartige Theorien über die Entste-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 186<br />
hung unserer Meinungen, also Theorien einer Metaebene, scheint Hume<br />
nicht gedacht zu haben –, wird sein Argument zwingend. Berücksichtigen<br />
wir sie, hängt die Frage, welche Inkohärenz letztlich größer ist, von<br />
den Einzelheiten des Falles und des Hintergrundwissens ab. Also erspart<br />
uns, so bedauerlich das sein mag, auch das Humesche Argument nicht<br />
die Untersuchung jedes Einzelfalls aufs Neue, bei dem wir mit „Wundern“<br />
in Berührung kommen. Das zeigt auch, was der Esoteriker leisten<br />
muß, will er uns von dem Vorhandensein bestimmter Phänomene überzeugen.<br />
Er muß Situationen herbeiführen, in denen die Annahme, wir<br />
wären getäuscht worden oder hätten einen Beobachtungs- oder Interpretationsirrtum<br />
begangen, weniger gut in unser Hintergrundwissen paßt,<br />
als die Annahme dieser Phänomene. Ein bekanntes probates Mittel dazu<br />
ist die Angabe von Anweisungen, nach denen jeder diese Phänomene reproduzieren<br />
kann. Gelingt das nicht, verhalten sich die Wissenschaftler<br />
nicht nur gegenüber Kaffeesatzlesern, sondern auch gegenüber ihren<br />
Kollegen skeptisch. Das belegt z. B. der Fall der kalten Fusion.<br />
Für Beispiele von epistemischer Stützung durch Erklärung müssen<br />
wir natürlich nicht gleich Wunder bemühen. Die rechtfertigende Funktion<br />
von Erklärungen kennen wir auch aus Alltagssituationen. Sie wird<br />
dort z. B. in den Fällen deutlich, in denen wir keine Erklärung produzieren<br />
können und etwas noch nicht in unser Überzeugungssystem eingebettet<br />
wurde. Dorothea berichtet uns, daß Hans 4000 DM in der Spielbank<br />
verloren hat. Da wir Hans als einen eher sparsamen und nicht besonders<br />
risikofreudigen Menschen kennen, haben wir dafür keine Erklärung,<br />
was uns zunächst an Dorotheas Erzählung zweifeln läßt. Wir fragen<br />
sie daher, wie es denn dazu kommen konnte und erwarten eine Erklärung<br />
von Hans Verhalten. Kann Dorothea nun eine glaubwürdige Erklärung<br />
produzieren, wird damit auch ihre Geschichte über Hans glaubwürdiger<br />
und zwar in dem Maße, in dem sie uns Hans Verhalten erklären<br />
kann. Sie könnte uns vielleicht erzählen, daß Hans dringend 20 000<br />
DM für ein Auto oder ein Geschäft benötigte und keine andere legale<br />
Möglichkeit sah, an diese Summe zu kommen, als sein Glück im Spiel zu<br />
versuchen. Dieses uns allen vertraute Phänomen, daß eine bestimmte Behauptung<br />
dadurch plausibler wird, daß man weitere Fakten nennt, obwohl<br />
diese weiteren Fakten selbst keineswegs bekannt oder sicher sein<br />
müssen, demonstriert noch einmal die große epistemische Bedeutung,<br />
die wir Erklärungen beilegen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 187<br />
Ein Bayesianist, 84 der Behauptungen anhand von Wahrscheinlichkeitsüberlegungen<br />
beurteilt, müßte sich über Beispiele dieser Art sehr erstaunt<br />
zeigen und eher in einer entgegengesetzten Richtung argumentieren.<br />
85 Dorotheas erste Behauptung war schon unwahrscheinlich, aber<br />
die Wahrscheinlichkeit für sie kann doch nicht anwachsen, wenn Dorothea<br />
ihre Geschichte durch weitere nicht sichere Behauptungen erweitert.<br />
Im Gegenteil hat die Gesamtgeschichte eine geringere Wahrscheinlichkeit,<br />
weil sie noch mehr Möglichkeiten besitzt, falsch zu sein, als Dorotheas<br />
ursprüngliche Behauptung. Der Bayesianist würde mit dieser<br />
Entgegnung aber meines Erachtens nur deutlich machen, daß wir Rechtfertigungen<br />
häufig nicht anhand einfacher Wahrscheinlichkeitseinschätzungen<br />
beurteilen.<br />
Thagard (1992, 90) nennt drei weitere Beispiele für eine bekannt<br />
rechtfertigende Wirkung von Erklärungen aus Bereichen, die er mit seinem<br />
Kohärenzprogramm namens ECHO genauer studiert hat. In einem<br />
Mordprozeß sucht man als Beweismaterial gegen den Angeklagten im<br />
allgemeinen nicht nur Indizien dafür, daß er die Tat begangen hat, sondern<br />
auch eine Erklärung, warum er die Tat begangen hat. Wenn wir<br />
nicht die geringsten Anzeichen eines Motivs erkennen können und den<br />
Angeklagten nicht für verrückt halten, läßt uns das an seiner Schuld<br />
zweifeln. Ähnlich sieht es mit der Diagnose eines Arztes aus. Sie wird<br />
glaubhafter, wenn er uns nicht nur sagen, kann, daß wir allem Anschein<br />
nach eine Leberzirrhose aufweisen, sondern er uns auch erklären kann,<br />
wie es dazu kam, und er etwa auf unseren übermäßigen Alkoholgenuß in<br />
Verbindung mit einer unbehandelten Gelbsucht verweisen kann. Das<br />
dritte Beispiel stammt aus der Wissenschaft. Die Erklärung, wie es zu einer<br />
bestimmten Entwicklung im Tierreich kommen konnte, etwa der<br />
Entwicklung der Lungen aus den Kiemen, erhöht für uns die Wahrscheinlichkeit,<br />
daß die Hypothese einer solchen Evolution wahr ist.<br />
All diese Beispiele beleuchten, wie wir mit den Berichten anderer<br />
Personen in epistemisch verantwortlicher Weise zu verfahren haben. In<br />
ähnlicher Form sollten wir dann auch die Informationen behandeln, die<br />
uns unsere Sinne vermitteln. Das heißt insbesondere, daß wir den Beob-<br />
84 Bayesianisten (wie z. B. Horwich 1982) arbeiten mit Glaubensgraden,<br />
die sich gemäß den Axiomen der Wahrscheinlichkeitstheorie verhalten sollen.<br />
Für (quantitative) Änderungen unserer Überzeugungen aufgrund neuer Daten<br />
verlassen sie sich auf das Gesetz von Bayes (daher der Name) (s. dazu den Anhang<br />
zu diesem Kapitel).<br />
85 Die tun das auch und sprechen etwa vom Simulationsirrtum. Das<br />
schnell Beiseiteschieben solcher Phänomene ist typisch für apriorische Begründungen<br />
von Methodologien.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 188<br />
achtungsüberzeugungen mißtrauen sollten, die wie Wunder eine Art von<br />
Fremdkörper in unserem Überzeugungssystem darstellen. Wenn ich<br />
mich längere Zeit in einer leeren Wüste glaubte und plötzlich eine Oase<br />
vor mir dort auftaucht, obwohl die Wüste gerade vorher noch leer war,<br />
so habe ich allen Grund, dieser Beobachtung zu mißtrauen. Nebenbei<br />
bemerkt zeigt sich auch hier wieder eine Anwendung des Schlusses auf<br />
die beste Erklärung, denn für solche Fälle scheint die beste Erklärung zu<br />
sein, daß ich gerade halluziniere oder eine Fata Morgana sehe. Diese Annahme<br />
erklärt das Auftreten meiner Wahrnehmungen mit einer von mir<br />
akzeptierten Theorie, nach der unter bestimmten Bedingungen Halluzinationen<br />
auftreten können, während meine Beobachtung sonst in Konflikt<br />
kommt mit der Annahme, daß Oasen und andere Objekte entsprechender<br />
Größe nicht von einer Minute zur anderen auftreten können,<br />
wenn sie vorher noch nicht da waren.<br />
Es ist hoffentlich durch die Beispiele deutlich geworden, daß die Verankerung<br />
einer Aussage durch eine Erklärung, die sie in unser Meinungssystem<br />
einbettet, diese Aussage in einem gewissen Grad epistemisch<br />
rechtfertigt. 86 In den Beispielen geht es dabei meist darum, bestimmten<br />
Aussagen ihre anfängliche Unplausibilität zu nehmen, die dadurch<br />
entstand, daß sie sich zunächst nicht kohärent in unser Modell<br />
unserer Welt einzufügen schienen. Der epistemische Gehalt von erklärenden<br />
inferentiellen Beziehungen erschöpfte sich aber nicht im Abbau<br />
negativer Gründe gegen eine Meinung, sondern trug in entsprechender<br />
Weise auch zur positiven Stützung bei. Eine Aussage, die im Zentrum<br />
unserer Theorien über die Welt steht, erfährt von all diesen Theorien<br />
eine gewisse Unterstützung. Wir erhalten ein System oder Netzwerk von<br />
Aussagen: Auf der einen Seite stehen die Beobachtungsüberzeugungen,<br />
die für sich allein noch völlig beziehungslos nebeneinander stehen. Auf<br />
der anderen Seite haben wir Theorien, die von den Beobachtungen mit<br />
Hilfe des Schlusses auf die beste Erklärung gestützt werden. Die Theorien<br />
können ihrerseits wieder andere Aussagen – unter anderem Beobachtungsaussagen<br />
– rechtfertigen, indem sie sie erklären. Sie stiften damit<br />
indirekte inferentielle Verbindungen unter den Beobachtungsüberzeugungen.<br />
Man könnte sagen, sie erzeugen die verbindenden Kanten in<br />
unserem Netz. Diese Metapher ist natürlich nicht auf die Auszeichnung<br />
einer festen theoriefreien Beobachtungssprache angewiesen. Es genügt,<br />
86 Nebenbei können die Beispiele auch erläutern, was wir in alltäglichen<br />
Situationen unter Erklärungen verstehen, und es wird sich im dritten Teil zeigen,<br />
daß wissenschaftlichen Erklärungen eine ähnliche Rolle auf einer anderen Ebene<br />
zukommt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 189<br />
wenn man die Vorstellung von recht speziellen Aussagen hat, die untereinander<br />
unverbunden sind, und die von allgemeineren, die solche Verbindungen<br />
herstellen können. Zu welcher Sorte ein Satz gehört, muß<br />
weder über einen bestimmten Kontext hinaus festgelegt sein, noch ist<br />
mit den Beobachtungsüberzeugungen ein Anspruch auf epistemische<br />
Priorität verbunden. Im Gegenteil wird dieser Anspruch sogar in (IV.B)<br />
explizit bestritten werden.<br />
Theorien sollen auch nicht nur „Daten“ vernetzen, sondern weisen<br />
gerade untereinander vielfältige inferentielle Beziehungen auf. Es werden<br />
singuläre Tatsachen durch Theorien erklärt, aber allgemeinere<br />
Theorien können genauso gut weniger allgemeine Theorien erklären<br />
und vernetzen. 87 Z. B. das Prinzip der Energieerhaltung ist auf einer sehr<br />
allgemeinen Stufe angesiedelt und fügt Theorien aus der Mechanik und<br />
der Elektrodynamik selbst über wissenschaftliche Revolutionen hinweg<br />
zusammen und erklärt bestimmte allgemeine Phänomene und Gesetze<br />
aus diesen Bereichen.<br />
6. Analogiebeziehungen<br />
Eine weitere verbindungsstiftende Beziehung in unserem System von<br />
Meinungen, die immer wieder in wissenschaftlichen wie außerwissenschaftlichen<br />
Kontexten genannt wird, ist die der Analogie. Auch durch<br />
Analogien findet eine Vernetzung unserer Überzeugungen statt. Salmon<br />
(1983, 197ff) spricht sogar vom Analogieschluß als einem sehr häufig<br />
angewandten Schlußverfahren. Er weiß dazu eine Reihe von Beispielen<br />
aus unterschiedlichen Bereichen anzugeben. Im Falle unerwünschter Nebenwirkungen<br />
eines Medikaments bei Ratten schließen wir auf zu erwartende<br />
unerwünschte Nebenwirkungen beim Menschen. Aus der Tatsache,<br />
daß große Verschuldung für private Haushalte keine guten Prognosen<br />
für deren Zukunft zuläßt, schließen wir, daß sie auch für den Staatshaushalt<br />
schädlich ist. Philosophen und Theologen haben argumentiert,<br />
daß man aus dem planvollen Aufbau des Menschen auf einen göttlichen<br />
Schöpfer schließen kann, wie man aus dem Fund einer Uhr auf einen<br />
Uhrmacher schließen darf, der die Uhr geplant und gebaut hat.<br />
Im Bereich der Wissenschaften hat Mary Hesse (1963) eine Reihe<br />
von Beispielen für Analogien untersucht. Etliche berühmte Fälle sind<br />
uns allen bekannt, aber an einige möchte ich trotzdem noch einmal erin-<br />
87 Im dritten Teil wird eine Konzeption dafür, was Theorien sind, vorgestellt,<br />
die auch präzisieren kann, wie Theorien verschiedene Anwendungen „in<br />
einen Zusammenhang bringen“.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 190<br />
nern, um anzudeuten, wie stark Analogien im Netz unserer wissenschaftlichen<br />
Überzeugungen präsent sind. Maxwell entwickelte seine Theorie<br />
der Elektrodynamik anhand einer fortschreitenden Reihe von mechanischen<br />
Analogiemodellen, die von einem einfachen Modell einer inkompressiblen<br />
Flüssigkeit bis hin zu seinem komplizierten Wirbelmodell<br />
reichten. Entsprechende mechanische Analogien, z. B. von Elektrizität<br />
als einer Art Flüssigkeit, prägen sicher auch heute noch unsere Vorstellungen<br />
von Elektrizität. Für das Bohrsche Atommodell haben in seinen<br />
verschiedenen Phasen unterschiedlich ausdifferenzierte Formulierungen<br />
des Planetensystems Pate gestanden. Die Modelle von Licht als Welle<br />
oder als Teilchen ziehen sich durch die Diskussion um die Natur des<br />
Lichts wie ein roter Faden. Auch die Materie wird mit Ansammlungen<br />
kleiner Punktpartikel oder einer Flüssigkeit verglichen. Insbesondere<br />
ideale Gase werden als elastische kleine Billiardkugeln betrachtet. Solche<br />
Analogien sind natürlich keineswegs auf die Physik beschränkt. Für Darwins<br />
Konzeption der Entstehung der Arten spielte die Analogie zwischen<br />
künstlicher und natürlicher Zuchtwahl eine entscheidende Rolle. Zur<br />
Erklärung von Intelligenz oder sinnesphysiologischen Leistungen werden<br />
immer wieder Analogien der verschiedensten Art zu Computermodellen<br />
eingesetzt. Einige Analogien sind sogar schon in unserem Vokabular<br />
verankert. So sprechen wir von „wissenschaftlichen Revolutionen“<br />
oder dem „Treibhauseffekt“ und stützen uns dabei auf Analogiemodelle<br />
in den entsprechenden Bereichen. Die Entwicklung und das Durchsetzen<br />
wissenschaftlicher Annahmen wird auch mit evolutionären Prozessen<br />
verglichen. Die Liste derartiger Beispiele ließe sich ohne weiteres verlängern.<br />
Daß in allen Zweigen unseres Wissens Analogien und Analogiemodelle<br />
eine wichtige Rolle spielen, dürfte also kaum zu bestreiten sein.<br />
Die strittige Frage ist eher, ob sie auch eine epistemische Funktion übernehmen<br />
können. Gibt die Bohrsche Analogie des Atoms mit einem Planetensystem<br />
uns einen Grund, eher an seine Theorie zu glauben, als wir<br />
es ohne diesen Vergleich getan hätten? Oder ist sie nur ein heuristisches<br />
Mittel gewesen, daß es Bohr erleichtert hat, seine Atomtheorie zu entwickeln<br />
und sie anderen Physikern zu vermitteln? Meines Erachtens haben<br />
Analogien neben heuristischen und didaktischen Funktionen, die<br />
eher in den Entdeckungskontext und die Vermittlung einer Theorie gehören,<br />
auch eine epistemische Funktion. Diese ist in den verschiedenen<br />
Beispielen allerdings recht unterschiedlich, je nachdem, wie weit die<br />
Analogie reicht, also wieviele positive Analogiebeziehungen und Disanalogien<br />
bestehen, je nachdem, ob es sich um eine eher formale oder stär-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 191<br />
ker materiale Analogie handelt. Analogien zwischen Licht- und Wasserwellen<br />
sind nicht so eng wie die zwischen zwei genau gleich konstruierten<br />
Motoren. Geht der eine kaputt, wenn man ihn mit einem bestimmten<br />
Öl laufen läßt, haben wir natürlich allen Grund anzunehmen, daß<br />
dasselbe bei dem anderen Motor passieren würde. Viele Analogiebeziehungen<br />
erbringen offensichtlich erkenntnistheoretische Leistungen. In<br />
den angegebenen Illustrationsbeispielen sorgten die Analogiebeziehungen<br />
jedenfalls in einem bestimmten Ausmaß für eine stärkere Vernetzung<br />
unseres Überzeugungssystems, die kohärenzstiftend wirkt. Zu diesem<br />
Punkt kann ich erst in der Untersuchung von Erklärungen und der Rolle,<br />
die Modelle in der Wissenschaft spielen, gehaltvollere Analysen anbieten.<br />
Analogien sollen dann als eine recht abstraktere Form von Erklärungen<br />
ausgewiesen werden.<br />
B. Eine Kohärenztheorie der Wahrnehmung<br />
Traditionell waren fundamentalistische Theorien wie die empiristischen<br />
dort zu Hause, wo es darum geht, dem Input für unser Überzeugungssystem<br />
in Form von Sinneswahrnehmungen einen angemessenen Platz einzuräumen.<br />
Dagegen wird kohärentistischen Theorien immer wieder vorgeworfen,<br />
sie könnten derartigen Input nicht in gebührender Weise berücksichtigen.<br />
Das sollte mit der BonJourschen Analyse von Wahrnehmungen<br />
anders geworden sein (BonJour 1987 und bes. 1985, II.6). Für<br />
die empiristischen Erkenntnistheorien beginnt alle Erkenntnis mit unseren<br />
Beobachtungen. Rechtfertigungen unserer Meinungen stützen sich<br />
immer mehr oder weniger direkt auf Beobachtungen. Dieses Bild von<br />
Erkenntnis kann zunächst trotz seiner Schlichtheit eine gewisse Plausibilität<br />
für sich in Anspruch nehmen. Sind nicht gerade Beobachtungsüberzeugungen<br />
als von außen kommend und nicht aus unseren anderen<br />
Überzeugungen abzuleiten anzusehen und damit paradigmatische Beispiele<br />
nichtinferentieller Meinungen? Hat nicht auch van Fraassen (in<br />
Churchland/ Hooker 1985, 286) Recht mit seiner Behauptung, daß unsere<br />
einzig legitime Informationsquelle über die Welt unsere Sinneswahrnehmungen<br />
sind und wir deshalb nicht umhin können, Empiristen zu<br />
sein? Sehen wir von den bekannten inhärenten Problemen, wie etwa der<br />
Theorienbeladenheit der Beobachtungssprache, ab, die in diesem Modell<br />
vom Wissenserwerb auftreten können, so erscheint uns diese Ansicht<br />
überzeugend. Dieses Modell beschreibt jedoch eigentlich nur die Genese<br />
unseres Wissens und hat somit keine direkten Implikationen für die
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 192<br />
Struktur unserer Erkenntnis. Diese Trennung, die wiederum die Unterscheidung<br />
von Genese und Rechtfertigung stark macht, findet bei Empiristen<br />
nicht immer genügend Beachtung.<br />
Außerdem gibt es für das einfache empiristische Bild unseres Erkenntniserwerbs<br />
eine ständige Quelle der Beunruhigung, nämlich Sinnestäuschungen<br />
und unsere Kenntnis von möglichen Irrtumsquellen. Beobachtungen<br />
sind bekanntlich nicht unter allen Umständen zuverlässig,<br />
sondern können uns in bestimmten Situationen in die Irre führen. Das<br />
gilt nicht nur für den im Wasser geknickt erscheinenden Stab oder extreme<br />
Beispiele wie Halluzinationen, sondern findet sich bereits in gewöhnlichen<br />
Alltagssituationen. Wir erkennen einen Bekannten nicht, obwohl<br />
wir ihn ansehen oder halten irrtümlich einen Unbekannten für einen<br />
Bekannten, z. B. wenn wir ihn nur von hinten sehen, unaufmerksam<br />
sind usw. Die vielen Beispiele solcher Irrtümer bei unseren Beobachtungsüberzeugungen<br />
haben empiristische Philosophen auf so fragwürdige<br />
Theorien wie die phänomenalistischen geführt. Sie versuchen auf der<br />
Ebene von sogenannten Sinnesdaten wieder eine sichere Basis für unsere<br />
Erkenntnis zu finden. Doch entscheidend ist: Irrtümer unterlaufen uns<br />
nicht nur in statistischer Weise, sagen wir zu 5%, sondern wir haben relativ<br />
konkrete Ansichten oder sogar Theorien darüber, unter welchen<br />
besonderen Umständen wir unseren Sinnen vertrauen dürfen und unter<br />
welchen Umständen wir es lieber lassen sollten.<br />
1. Vier Typen von Irrtumsquellen<br />
Um ein realistischeres Bild der Rechtfertigung von Wahrnehmungsüberzeugungen<br />
zu gewinnen, orientiere ich mich zunächst daran, wie andere<br />
meine Beobachtungen bewerten; man denke etwa an Situationen vor<br />
Gericht. Nehmen wir also an, ich sage in einem Mordprozeß aus, und<br />
man vermutet nicht, daß ich mit dem Angeklagten oder dem Staatsanwalt<br />
unter einer Decke stecke. Trotzdem wird das Gericht meine Angaben<br />
über meine Beobachtungen nicht einfach für bare Münze nehmen,<br />
sondern einer Bewertung im Hinblick auf ihre Zuverlässigkeit unterziehen,<br />
wozu zuerst eine Reihe von typischen Irrtumsquellen auszuschalten<br />
sind. Wenn ich von meinen Beobachtungen berichte, könnte mein Gedächtnis<br />
als eine Irrtumsquelle ins Spiel gebracht werden. Sehen wir davon<br />
vorläufig einmal ab und halten es für absolut vertrauenswürdig.<br />
Dann bleiben trotzdem eine Reihe anderer Faktoren übrig, die zu berücksichtigen<br />
sind.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 193<br />
Da sind als erstes die äußeren Beobachtungsbedingungen zu nennen,<br />
nach denen man fragen könnte: War es zum Zeitpunkt der Beobachtung<br />
noch hell genug? Hatten Sie Gegenlicht? Verfälschte das rote Abendlicht<br />
nicht die Farben? War der beobachtete Mann nicht viel zu weit weg?<br />
Konnte man durch die trübe Scheibe wirklich jemand erkennen? usw. Je<br />
nach der Situation, um die es in der Aussage geht, können durch die angesprochenen<br />
Bedingungen Fehlerquellen ins Spiel kommen, die meine<br />
Wahrnehmung unzuverlässig werden lassen. Wir haben auch zumindest<br />
Common-Sense-Theorien darüber, welche der äußeren Beobachtungsbedingungen<br />
in bestimmten Situationen eine relevante Beeinträchtigung<br />
darstellen können. Neben den äußeren Beobachtungsbedingungen wird<br />
man mich vielleicht nach inneren Beobachtungsbedingungen befragen,<br />
die mehr auf meiner Seite angesiedelt sind und die Zuverlässigkeit meiner<br />
Sinnesorgane betreffen: Sind Sie kurzsichtig/schwerhörig? Hatten<br />
Sie Alkohol oder andere Drogen genommen? Waren Sie zu erkältet, um<br />
das ausströmende Gas riechen zu können? Haben Sie vielleicht geträumt?<br />
usw. Jeder kann sich leicht Situationen vorstellen, in denen<br />
diese und ähnliche Fragen für eine epistemische Beurteilung meiner Beobachtungen<br />
bedeutsam sind.<br />
Für viele Beobachtungen reicht es aber nicht aus, die physikalischen<br />
oder physiologischen Bedingungen zu untersuchen, unter denen die<br />
Wahrnehmungen gemacht wurden, sondern zusätzlich zu den Beobachtungsbedingungen<br />
spielen auch das Hintergrundwissen des Beobachters<br />
oder seine kognitiven Einstellungen eine Rolle für die Zuverlässigkeit<br />
der Wahrnehmung. 88 Wenn ich berichte, einen roten Wagen gesehen zu<br />
haben, wird man vermutlich nicht allzuviel an Wissen auf meiner Seite<br />
verlangen, aber wenn ich berichte, einen roten Mazda 626 beobachtet<br />
zu haben, verlangt das schon bestimmte Kenntnisse, die etwa daran zu<br />
messen sind, wie viel ich über die Unterschiede dieses Fahrzeugs zu ähnlichen<br />
Typen weiß. Kenntnisse ganz anderer Art sind notwendig, wenn<br />
ich berichte, eine Gewinnstellung für Weiß auf einem Schachbrett gesehen<br />
zu haben. Wieder andere für die Beobachtung, daß mir ein Cockerspaniel<br />
über den Weg lief.<br />
Außer diesem rein kognitiven Hintergrundwissen, können ebenso<br />
bestimmte stärker emotional gefärbte Voreinstellungen meine Wahrnehmungen<br />
beeinträchtigen. Die Sozialpsychologie lehrt uns, daß bestimmte<br />
Annahmen, die wir über bestimmte Personengruppen haben, die man<br />
landläufig auch oft als Vorurteile bezeichnet, sogar unsere Wahrnehmun-<br />
88 An dieser Stelle sollte auch deutlich sein, daß ich unter Beobachtungsüberzeugungen<br />
nicht an so etwas wie theoriefreie Überzeugungen denke.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 194<br />
gen deutlich beeinträchtigen können – oft in erheblich größerem Umfang<br />
als das von uns selbst vermutet wird. So berichtete, nach Vorlage<br />
von Bildern mit einem Weißen mit einem Rasiermesser in der Hand und<br />
einem Farbigen ohne, die Hälfte der Versuchspersonen, der Farbige<br />
hätte das Messer gehalten (z.Z. Schäfer/Six 1978, 83). Das Gericht<br />
könnte mich fragen, ob ich Vorurteile gegen Farbige, Ausländer oder<br />
Frauen in bestimmten Berufen habe. Auch positive Voreinstellungen<br />
oder Wünsche können natürlich unsere Zuverlässigkeit in Form von<br />
Wunschdenken trüben. Wir erhalten damit eine erste und grobe Typisierung<br />
bekannter Irrtumsquellen.<br />
Typen von Irrtumsquellen:<br />
- äußere Beobachtungsbedingungen<br />
- innere Beobachtungsbedingungen<br />
- kognitives Hintergrundwissen<br />
- emotionale Voreinstellungen<br />
Dieser kurze Abstecher in mögliche empirische Untersuchungen der Zuverlässigkeit<br />
unserer Wahrnehmungen, sollte demonstrieren, wie weitgehend<br />
unsere Theorien über den Wahrnehmungsprozeß die Bewertung<br />
dieses Inputs ermöglichen und sogar in wichtigen Situationen, etwa vor<br />
Gericht, steuern können. Dabei wurde deutlich, daß Faktoren aus den<br />
vier genannten Bereichen die Zuverlässigkeit unserer Wahrnehmungen<br />
auf jeweils unterschiedliche Art beeinträchtigen können und daß wir<br />
über Theorien verfügen, um die Beeinträchtigungen abzuschätzen. Es<br />
geht mir natürlich hier nicht um die Details dieser Theorien und ihre<br />
Richtigkeit, sondern um das grundsätzliche Vorgehen bei der Beurteilung<br />
von Wahrnehmungen. Dabei suchen wir nach speziellen Irrtumsquellen<br />
und nehmen nicht etwa an, unsere Beobachtungen seien zu x%<br />
zuverlässig. Ausgangspunkt einer kohärentistischen Analyse einer bestimmten<br />
Sinneswahrnehmung ist also eine entsprechende Fehleranalyse.<br />
Zu ergänzen ist sie sicherlich um Kenntnisse über Besonderheiten des<br />
epistemischen Subjekts. Vielleicht wissen wir von ihm, daß er sich bei<br />
Automarken vorbeifahrender Fahrzeuge immer vertut, obwohl er eigentlich<br />
ein Fachmann auf diesem Gebiet ist und Augen wie ein Falke besitzt.<br />
Doch auch wenn all diese Bedingungen für die Zuverlässigkeit der<br />
Entstehung einer Beobachtungsüberzeugung sprechen, und wir damit<br />
über gute Gründe verfügen, sie zu akzeptieren, kann sie trotzdem falsch<br />
sein. Epistemische Rechtfertigung kann immer nur internalistisch sein<br />
und daher nur die Irrtumsmöglichkeiten ausschalten, die uns schon bekannt<br />
sind.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 195<br />
Neben einer Bewertung des Informationswegs, können wir eine Zeugenaussage<br />
auch anhand dessen überprüfen, wie gut sie zu unseren anderen<br />
Informationen über den Fall paßt. Manchmal wissen wir, daß eine<br />
Wahrnehmungsüberzeugung falsch sein muß, ohne eine Irrtumsquelle<br />
dafür namhaft machen zu können. Das ist etwa bei sich widersprechenden<br />
Zeugenaussagen der Fall, von denen nur eine wahr sein kann. Ähnliches<br />
kann auch passieren, wenn sich eine Zeugenaussage vor unserem<br />
Hintergrundwissen wie ein Wunderbericht ausnimmt. Der dann entstandene<br />
Zustand bleibt natürlich solange epistemisch unbefriedigend, wie<br />
wir nicht die Falschaussage plus einer Erklärung für sie namhaft machen<br />
können.<br />
Wenn wir epistemisch verantwortlich urteilen wollen, könne wir<br />
diese Bewertung von Beobachtungen nicht auf andere beschränken und<br />
uns selbst schlicht als unfehlbar einstufen, indem wir uns ganz auf unsere<br />
subjektive Sicherheit verlassen. Daß diese keine Wahrheitsgarantie<br />
und auch nicht immer einen guten Wahrheitsindikator bietet, wissen<br />
wir. Meine eigenen Beobachtungen muß ich daher ebenso anhand meiner<br />
Theorien über zuverlässige Wahrnehmungen und mögliche Irrtumsquellen<br />
von Wahrnehmungen bewerten, wie ich das bei anderen tue.<br />
Das geschieht in einigen Fällen auch. Wir sagen dann etwa, ich glaube,<br />
Michael gesehen zu haben, bin mir aber nicht sicher, weil er so weit weg<br />
war, oder der Stock sieht im Wasser für mich gebogen aus, aber ich glaube<br />
trotzdem, daß er gerade ist. Es paßt weit kohärenter in unser Meinungssystem<br />
hinein, den Stock als gerade einzuschätzen. Wir sahen vielleicht,<br />
daß er gerade war, bevor er ins Wasser gehalten wurde, haben<br />
(implizite) allgemeine Annahmen, daß Stöcke aus Holz beim Eintauchen<br />
ins Wasser nicht verbiegen, wissen, daß Wasseroberflächen durch Lichtbrechung<br />
scheinbare Krümmungseffekte hervorrufen können usw. All<br />
unsere Wahrnehmungen werden vor dem Hintergrund unseres Wissens<br />
um diese Phänomene daher am besten durch die Annahme erklärt, daß<br />
der Stock gerade und nicht gebogen ist. Besonders in den Fällen, in denen<br />
viel von unserer Beobachtungsüberzeugung abhängt, können wir<br />
nicht mehr völlig auf unsere Wahrnehmungen vertrauen, sobald einige<br />
der aufgezählten Irrtumsquellen für uns erkennbar sind. So verlockend,<br />
wenn nicht geradezu psychisch notwendig, ein allgemeines Vertrauen in<br />
unsere eigenen Wahrnehmungen auch erscheint, für begründete Meinungen<br />
sind wir auf weitere Annahmen über unsere Zuverlässigkeit in entsprechenden<br />
Situationen angewiesen.<br />
Das wird uns vor allem dann bewußt, wenn nicht mehr die einfachen<br />
Standardbedingungen gegeben sind, in denen wir uns für zuverlässi-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 196<br />
ge Beobachter halten. Da diese Standardbedingungen allerdings in unseren<br />
Alltagssituationen meistens vorliegen, scheinen uns Wahrnehmungen<br />
im allgemeinen zuverlässige Grundlagen für unsere Erkenntnis abzugeben.<br />
Wenn es uns um begründete Meinungen geht, sind wir trotzdem<br />
stets auf eine Rechtfertigung solcher Wahrnehmungen anhand unserer<br />
Einschätzungen unserer Zuverlässigkeit als Beobachter in ganz bestimmten<br />
Situationstypen angewiesen. Welche das sind, läßt sich wiederum<br />
nicht ein für allemal a priori entscheiden, sondern ist selbst wieder Bestandteil<br />
allgemeinerer empirischer Theorien über die Welt und unseren<br />
Wahrnehmungsapparat.<br />
Zusammengenommen: Wir sollten unsere Beobachtungsüberzeugungen<br />
einer zweifachen Bewertung vor unserem Hintergrundwissen unterwerfen:<br />
1. Wie zuverlässig war der Informationsweg? und 2. Wie kohärent<br />
fügen sie sich in unser Hintergrundwissen ein? Auch ein im allgemeinen<br />
zuverlässiger Informationsweg kann im Einzelfall zu falschen<br />
Annahmen führen. Um diese herausfiltern zu können, haben wir nur die<br />
Fehleranalyse zur Verfügung. Diese doppelte Überprüfung möchte ich<br />
noch am Beispiel eines Wahrnehmungstyps illustrieren, dem wir nicht so<br />
blind vertrauen wie unseren fünf Sinnen. Nehmen wir an, ich habe bei<br />
mir hellseherische Fähigkeiten entdeckt, und die sagen mir, daß in einigen<br />
Stunden Deutschland von einem riesigen Meteoriten getroffen und<br />
vernichtet wird. Bevor ich anfange, mir richtig Sorgen zu machen, überlege<br />
ich, wie zuverlässig ich als Hellseher bin. Nehmen wir an, meine<br />
bisherige Trefferquote liegt bei 90%. Das erscheint dann schon beunruhigend.<br />
Weiterhin überlege ich, ob meine Zuverlässigkeit von irgendwelchen<br />
speziellen Faktoren abhängt: meiner Konzentrationsfähigkeit, der<br />
Tageszeit, den Mondphasen, dem zuletzt gesehen Film, speziellen Inhalten<br />
der Vorahnung oder was sonst noch in Frage kommen mag. Dann<br />
muß ich überprüfen, ob diese Störfaktoren vorlagen und abschätzen,<br />
welche Beeinträchtigung sie zusammengenommen darstellen. Schließlich<br />
komme ich zu dem Ergebnis, daß die Zuverlässigkeit meiner hellseherischen<br />
Kräfte genug Anlaß zur Sorge bietet. Daher befrage ich nun einen<br />
befreundeten Astronomen dazu. Der kann mir zeigen, daß in der entsprechenden<br />
Richtung gar kein Meteorit im Anflug ist, der doch, sollte<br />
meine Vermutung wahr sein, sich längst zeigen müßte. Außerdem weiß<br />
er mir zu erklären, warum wir in nächster Zeit nicht mit einem derartigen<br />
Meteoriten zu rechnen haben. Obwohl das spezielle Verfahren zum<br />
Erkenntnisgewinn also zuverlässig ist, ist es durchaus sinnvoll, die Informationen<br />
aus dieser Quelle weiteren Kohärenztests gegen unser übriges<br />
Wissen zu unterwerfen. Eine sorgfältiges und erfolgloses Absuchen des
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 197<br />
Himmels sollte mich eigentlich wieder beruhigen. Ebenso gründlich sollten<br />
wir unsere anderen Wahrnehmungen beurteilen, auch wenn es uns<br />
sicher schwer fällt, ihnen gegenüber eine derart distanzierte Einstellung<br />
einzunehmen. Deshalb wird sich der Staatsanwalt auch nicht allein auf<br />
den guten Willen der Zeugen verlassen, sondern die genannten Punkte<br />
selber sorgfältig prüfen.<br />
2. Eine kohärentistische Rechtfertigung von Wahrnehmungen<br />
Eine kohärenztheoretische Behandlung der Wahrnehmung startet bei<br />
den Beobachtungsüberzeugungen, die sich für uns spontan einstellen,<br />
wenn wir bestimmte Wahrnehmungen machen. Schaue ich auf meinen<br />
Schreibtisch, kann ich mich nicht dafür entscheiden zu glauben, daß ein<br />
Notebook vor mir steht oder nicht. Diese Meinung stellt sich spontan<br />
und unabweisbar ein. Nach BonJour sind Wahrnehmungsüberzeugungen<br />
bestimmte spontane Meinungen, die etwa durch ihre Inhalte und ihren<br />
Zusammenhang zu anderen Meinungen ausgezeichnet sind. Anhand unserer<br />
Theorien über unsere Wahrnehmung und mögliche Irrtumsquellen<br />
werden diese dann bewertet und jene unter ihnen, die diesen Test bestehen,<br />
sind für uns begründete Beobachtungsüberzeugungen. Das Lehrersche<br />
Diktum vom Wissen als Metawissen mündet damit für eine<br />
Wahrnehmungsüberzeugung p in so etwas wie das folgende Rechtfertigungsschema<br />
(vergleiche dazu BonJour 1985, 118ff):<br />
Rechtfertigungsschema für Wahrnehmungen (RW)<br />
1) p ist spontan in mir aufgetreten.<br />
2) p ist als Wahrnehmungsüberzeugung einer bestimmten Art (z. B. visueller<br />
Art) zu klassifizieren.<br />
3) p entstand in mir unter der Bedingung B.<br />
4) Wahrnehmungsüberzeugungen, die in mir unter B entstehen, sind<br />
nach meinem Hintergrundwissen wahrscheinlich wahr. (Es liegt<br />
u.a. keine der vier Irrtumsquellen vor.)<br />
Also: p ist wahrscheinlich wahr.<br />
Die Bedingung (1) besagt, daß p nicht Ergebnis einer Überlegung oder<br />
sogar Ableitung ist und auch nicht einer bewußten Erinnerung an ein bestimmtes<br />
Erlebnis. Damit ist aber noch nicht sichergestellt, daß es sich<br />
um eine Beobachtungsüberzeugung handelt. Das ist in einem zweiten<br />
Schritt eigens zu vermuten, denn es können auch Meinungen spontan in<br />
uns auftauchen, wie die, daß 19 eine Primzahl ist, die wir üblicherweise
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 198<br />
nicht als Beobachtungen klassifizieren. P sollte darüber hinaus als Beobachtung<br />
einer bestimmten Art eingestuft werden, denn danach richtet es<br />
sich, welche Bedingungen B in (3) relevant sind. Im vierten Schritt bringe<br />
ich meine Kenntnisse der Wahrnehmungstheorie und der besonderen<br />
Bedingungen meines Wahrnehmungsapparats, die mir bekannt sind, in<br />
Anschlag, so daß ich dann eine erste Begründung für p angegeben habe.<br />
Ein einfaches Beispiel mag das Schema illustrieren. Ich schaue mich<br />
um und sehe eine Stehlampe. Die Überzeugung, daß eine Stehlampe hinter<br />
mir steht, kann man nun wie folgt rechtfertigen (wobei ich das Problem<br />
des Gedächtnisses weiterhin ausklammere): In mir entstand spontan<br />
die Überzeugung, daß hinter mir eine Stehlampe steht. Dabei handelt<br />
es sich um eine visuelle Wahrnehmung. Die Stehlampe ist ein Objekt<br />
mittlerer Größe mit einem geringen Abstand von mir, und meines<br />
Wissens liegt keine mir bekannte Fehlerquelle der Wahrnehmung vor.<br />
Unter diesen Umständen kann ich meinen Augen trauen. Sehr wahrscheinlich<br />
steht also eine Stehlampe hinter mir.<br />
Damit ist eine kohärentistische Analyse natürlich noch keineswegs<br />
abgeschlossen. BonJour hat damit nur den Informationsweg im Blick.<br />
Das vorgeschlagene Rechtfertigungsschema ist eingleisig und kann die<br />
vielfältigen Zusammenhänge einer Beobachtung zu unseren anderen<br />
Meinungen noch nicht erfassen. Die Auszeichnung von p als einer Beobachtung<br />
hängt z. B. ebenfalls davon ab, welche anderen Beobachtungen<br />
wir kurz vor und nach p machen. Wir erwarten für die meisten Situationen<br />
eine gewisse Kontinuität und wären ausgesprochen skeptisch, wenn<br />
wir auf Beobachtungen wie die im Beispiel des Superempiristen (s. A.1)<br />
stießen. Außerdem können auch Theorien darüber, welche Ereignisse<br />
überhaupt auftreten können und welche nicht, zur Zurückweisung von<br />
Beobachtungen führen, falls diese im Lichte der Theorie als ein Wunder<br />
erscheinen (s. IV.A.5). Zusätzlich zu den Bedingungen (1) (4) von RW<br />
sollten wir daher wenigstens noch eine Bedingung (5) aufnehmen:<br />
5) Die Annahme, daß p, fügt sich kohärent in unser Meinungssystem<br />
ein und erscheint uns insbesondere nicht als Wunder. 89<br />
Diese Bedingung mag als Hinweis genügen, daß neben der geradlinigen<br />
Rechtfertigung (1) (4) noch andere Elemente aus dem Netz unseres<br />
Überzeugungssystems für die epistemische Bewertung einer Wahrneh-<br />
89 Holistischen Aspekten schenkt BonJour an dieser Stelle nicht genügend<br />
Aufmerksamkeit. Sie können hier nur angedeutet werden, wobei von „Kohärenz“<br />
natürlich nur in einem intuitiven Sinn gesprochen werden kann, der erst in<br />
(IV.F) präzisiert wird.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 199<br />
mung bedeutsam werden können – was man von einer Kohärenztheorie<br />
wohl auch erwarten sollte. Trotz der Idealisierungen, die man vornehmen<br />
muß, um ein einfaches Schema RW zu bekommen, können die<br />
Überlegungen das eine zeigen, das wir festhalten sollten:<br />
Differenzierte Bewertung von Wahrnehmungen<br />
Wir können zwischen mehr oder weniger gut gerechtfertigten Beobachtungsüberzeugungen<br />
unterscheiden, die sich im allgemeinen anhand<br />
zahlreicher anderer Überzeugungen, die wir haben, rechtfertigen<br />
lassen, obwohl die Beobachtungsüberzeugungen spontan und<br />
nicht-inferentiell entstanden sind.<br />
Das bringt noch einmal den Unterschied zu empiristischen Konzeptionen<br />
von Erkenntnis zum Ausdruck, denn für sie sind die Beobachtungsüberzeugungen<br />
basal und lassen damit nach FU 1 keine derartigen inferentiellen<br />
Rechtfertigungen zu.<br />
BonJour (1985, 121ff) skizziert auch den Weg, auf dem sich negative<br />
Wahrnehmungsüberzeugungen begründen lassen. Etwa meine Überzeugung,<br />
daß keine Schreibmaschine vor mir steht. Auch diese Überzeugung<br />
sollte anhand meiner Beobachtungen gerechtfertigt werden. Das ist relativ<br />
analog zu dem Rechtfertigungsschema (RW) möglich und soll hier<br />
nur für das konkrete Beispiel angegeben werden:<br />
1) Ich habe keine Wahrnehmungsüberzeugung, daß eine Schreibmaschine<br />
vor mir steht.<br />
2) Es liegen bestimmte Bedingungen B für Beobachtungen visueller<br />
Art vor. (bestimmte Lichtverhältnisse, Augen auf, Brille auf, keine<br />
Drogen …)<br />
3) Unter den Bedingungen B würde wahrscheinlich eine spontane<br />
Wahrnehmungsüberzeugung, daß vor mir eine Schreibmaschine<br />
steht, auftreten, wenn vor mir eine Schreibmaschine stünde.<br />
Also: Vor mir steht wahrscheinlich keine Schreibmaschine. 90<br />
In beiden Fällen von Rechtfertigung positiver wie negativer Wahrnehmungen<br />
bin ich darauf angewiesen, meine Zuverlässigkeit als Beobachter<br />
angepaßt an die speziellen Umstände der Wahrnehmungssituation<br />
auf der Grundlage meiner Kenntnisse über meine Umgebung und mein<br />
Wahrnehmungsvermögen einzuschätzen. Das werden wir in der Praxis<br />
nur in außergewöhnlichen Situationen tatsächlich tun, aber wenn wir<br />
90 Auch dieses Schema sollte um eine Bedingung des Typs (5) ergänzt werden,<br />
also etwa durch: Die Annahme, daß keine Schreibmaschine vor mir steht,<br />
paßt auch kohärent zu meinen anderen Überzeugungen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 200<br />
aufgefordert werden, eine unserer Beobachtungen zu rechtfertigen, geben<br />
Rechtfertigungen des Typs (RW) die besten Antworten.<br />
BonJour schneidet noch eine andere Frage an, die kurz aufzugreifen<br />
sich an dieser Stelle lohnt. Wenn Beobachtungsüberzeugungen spontan<br />
und unabweisbar in uns auftreten und wir uns nicht wirklich entscheiden<br />
können, eine bestimmte Wahrnehmungsüberzeugung zu haben oder<br />
nicht zu haben, welche praktische Relevanz hat dann die Rechtfertigung<br />
von Beobachtungsüberzeugungen? Diese Frage BonJours ließe sich auch<br />
auf andere Überzeugungen erweitern, denn in den meisten Fällen können<br />
wir uns nicht einfach entscheiden, etwas zu glauben oder abzulehnen,<br />
sondern da sind kausale Vorgänge am Werk, die nicht unserem direkten<br />
Einfluß unterliegen (s. dazu auch Williams 1978). Ich möchte<br />
hier nur auf zwei Punkte verweisen: 1. Auch wenn eine bestimmte Beobachtungsüberzeugung<br />
unwillkürlich in mir auftritt, kann ich sehr wohl<br />
noch in einem gewissen Maß entscheiden, welche Rolle sie in meinem<br />
Räsonieren und in meinen Entscheidungen spielen soll. Dazu ein Beispiel:<br />
Wenn ich gestern abend meine Frau in den Armen eines anderen<br />
Mannes zu sehen glaubte und mich schrecklich darüber aufgeregt habe,<br />
kann ich gleichwohl heute noch einmal nüchtern darüber nachdenken,<br />
für wie gewichtig ich meine Beobachtung halte. Bevor ich die Scheidung<br />
einreiche, überlege ich mir vielleicht, daß ich sie nur in einer „verräucherten<br />
Kneipe“ auf größere Entfernung und von hinten sah und auch<br />
schon einige Gläser Wein getrunken hatte. Dann bin ich mir unsicher<br />
über die Zuverlässigkeit meiner Beobachtung und werde keine so gravierende<br />
Entscheidung wie ein Scheidungsverlangen allein auf diese eine<br />
Beobachtung stützen. 2. Ich könnte die Beobachtung im Nachhinein<br />
vielleicht sogar ganz aufgeben und zur gegenteiligen Ansicht gelangen.<br />
Mir könnte etwa einfallen, daß die Frau, die ich den Armen des Mannes<br />
sah, ein rotes Kleid trug, meine Frau aber rote Kleider haßt. Außerdem<br />
geht sie am Freitag doch immer zum Bowling, das sie niemals ausfallen<br />
lassen würde. Weitere Indizien können mir einfallen, die mich schließlich<br />
dazu veranlassen, meinen Verdacht gegen meine Frau vollkommen<br />
aufzugeben – ich bin schließlich auch nicht übertrieben eifersüchtig –<br />
und damit meine Überzeugung, daß ich meine Frau sah, nachträglich als<br />
Irrtum einzustufen. Erkenntnistheoretische Überlegungen, die meine Zuverlässigkeit<br />
als Beobachter betreffen und Kohärenztests, können also<br />
zumindest im Nachhinein eine wichtige Rolle für die Gestaltung meines<br />
Überzeugungssystems und die zu ziehenden Konsequenzen spielen,<br />
selbst wenn die Beobachtungsüberzeugungen zunächst unabweisbar sind.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 201<br />
3. Empiristische und rationalistische Wahrnehmungsauffassungen<br />
Kehren wir mit der kohärentistischen Analyse von Wahrnehmungen ausgerüstet<br />
noch einmal zu den empiristischen und rationalistischen Erkenntnistheorien<br />
zurück. Empiristen wie Rationalisten waren in ihrer<br />
Mehrzahl Fundamentalisten. Inwieweit unterscheiden sie sich von der<br />
kohärentistischen Sichtweise der Rechtfertigung von Wahrnehmungen?<br />
Für Empiristen gibt es Beobachtungsüberzeugungen, die keiner inferentiellen<br />
Rechtfertigung bedürfen, weil sie direkt beobachtbare Tatsachen<br />
wiedergeben. Diese Theorie scheint uns jedoch nur deshalb einigermaßen<br />
plausibel, weil wir in den meisten Fällen von Wahrnehmungen zuverlässig<br />
Wahrnehmende sind. Man könnte sagen, ihre Theorie wird<br />
durch unsere allgemeinen Annahmen über unsere Wahrnehmungen für<br />
die meisten normalen Anwendungsfälle gerechtfertigt. Der Kohärenztheoretiker<br />
hat gegen diese Art der Rechtfertigung vor allem drei Einwände<br />
zu erheben: 1. Die Empiristen sind damit auf bestimmte inhaltliche<br />
Annahmen (oder Theorien) über unsere Wahrnehmung festgelegt —<br />
besonders deutlich wird das etwa bei Humes Konzeption, daß alle<br />
„ideas“ letztlich auf „impressions“ zurückzuführen sind —, die, selbst<br />
wenn wir sie heute noch akzeptieren würden, sich doch schon morgen<br />
als falsch herausstellen könnten. Es gibt dabei keinen Spielraum für<br />
künftige Entwicklungen, wie ihn der Kohärenztheoretiker aufzeigt. Für<br />
den gibt es immer die Möglichkeit, neue Erkenntnisse über unsere<br />
Wahrnehmung etwa in Form immer differenzierterer Theorien und Bedingungen<br />
für Irrtumsquellen zu berücksichtigen, denn das Schema<br />
(RW) ist anhand unserer jeweils besten Theorien über unsere Wahrnehmung<br />
auszufüllen. 2. Doch selbst wenn die Empiristen für ihre basalen<br />
Meinungen keine Sicherheit, sondern z. B. nur eine gewisse Wahrscheinlichkeit<br />
postulierten, bliebe ihr Ansatz damit unbefriedigend. Sie könnten<br />
vielleicht behaupten, Wahrnehmungsannahmen seien zu 80% wahr,<br />
doch damit würden sie all die Differenzierungsmöglichkeiten verschenken,<br />
genauer zu sagen, in welchen Fällen unsere Wahrnehmungen fehlgehen<br />
können und woran es jeweils liegt. Warum sollten wir nur unsere<br />
recht allgemeinen Einschätzungen über die Zuverlässigkeit bestimmter<br />
Typen von Aussagen berücksichtigen und nicht gleichermaßen alle anderen<br />
Erkenntnisse, die wir über den Einzelfall besitzen? 3. Aber schlimmer<br />
ist fast noch, daß der Empirist all diese Annahmen über unsere<br />
Wahrnehmungen nicht als Bestandteil einer Rechtfertigung des epistemischen<br />
Subjekts S selbst ansieht, sondern als dem Subjekt möglicherweise<br />
externe Theorien, denn S benötigt keine kognitiv verfügbaren Rechtfer-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 202<br />
tigungen für seine Beobachtungsaussagen. Damit wird der Empirist zum<br />
Externalisten.<br />
Auf Seiten der Rationalisten sieht es nicht besser aus. Z. B. für Descartes<br />
sind alle Wahrnehmungen zuverlässig, die wir klar und deutlich<br />
haben. Irrtum kommt nur ins Spiel, wenn wir uns auf Urteile verlassen,<br />
die wir nicht klar und deutlich erfaßt haben. Sehen wir zugunsten Descartes<br />
zunächst davon ab, daß nicht so klar ist, in welchen Fällen wir<br />
klare und deutliche Wahrnehmungen haben und die Frage zu stellen<br />
bleibt, ob wir uns in dieser Einschätzung nicht auch wieder irren können.<br />
Dann ist es vor allem Descartes Rechtfertigung seines Kriteriums,<br />
die uns heutzutage nicht mehr attraktiv erscheint. Nach Descartes irren<br />
wir uns bei klaren und deutlichen Wahrnehmungen nicht, weil Gott kein<br />
Betrüger ist und uns in solchen Fällen nicht hintergehen würde. Zu viele<br />
Menschen sind heute jedoch Agnostiker oder schlimmeres, als daß eine<br />
Berufung auf Gottes Eigenschaften in einer Erkenntnistheorie noch auf<br />
breite Zustimmung hoffen könnte. Auch Descartes ist in seiner Erkenntnistheorie<br />
also auf bestimmte (empirische) Theorien über die Beschaffenheit<br />
der Welt festgelegt, damit sein Rechtfertigungsverfahren begründet<br />
ist, die uns zweifelhaft erscheinen.<br />
Wie im Fall der Empiristen kommt dann noch mindestens der zweite<br />
Einwand hinzu, daß Descartes Erkenntnistheorie nicht offen bleibt für<br />
empirische Einsichten über unsere Wahrnehmungsfähigkeiten und ihre<br />
Schwachstellen. Was wir klar und deutlich erkennen, ist für Descartes<br />
kaum eine Frage empirischer Forschungen, sondern a priori introspektiv<br />
zu ermitteln. Damit gibt er die Chancen für interessante Einsichten anhand<br />
differenzierter Wahrnehmungstheorien aus der Hand, und alle<br />
oben zur Wahrnehmung angestellten Überlegungen demonstrierten, wie<br />
diese Einsichten ins Spiel kommen, wenn wir ermitteln, ob eine Beobachtung<br />
zuverlässig ist oder nicht.<br />
Der dritte Einwand gegen die Empiristen kann gegen Descartes nicht<br />
ohne weiteres erhoben werden, denn man muß die Cartesische Theorie<br />
nicht unbedingt als externe Theorie der Rechtfertigung interpretieren.<br />
Man kann annehmen, der Cartesische Meditierende verfügt mit dem<br />
apriorisch geführten Gottesbeweis über eine interne Metarechtfertigung<br />
für sein Wahrheitskriterium der klaren und deutlichen Erkenntnis, und<br />
auch die Anwendung dieses Kriteriums auf seine speziellen Wahrnehmungen,<br />
erfolgt dann unabhängig von unbekannten äußeren Zusammenhängen.<br />
Wir können Descartes also durchaus als Internalisten verstehen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 203<br />
4. Erinnerung und Introspektion<br />
Zu den Wahrnehmungen zählt man üblicherweise auch noch die inneren<br />
Wahrnehmungen oder Introspektionen. Außerdem habe ich bisher immer<br />
die Erinnerungen und ihre Rechtfertigung ausgespart, obwohl diese<br />
in der Begründung, über die eine Person verfügt, eine wesentliche Rolle<br />
spielen werden. Zu diesen Themen möchte ich nun wenigstens einige<br />
Bemerkungen anfügen. Wenn ich mich bemühe, eine Begründung für<br />
eine Meinung p zu geben, bin ich an verschiedenen Stellen zumindest<br />
auf eine minimale Gedächtnisleistung angewiesen. Z. B. muß ich mich<br />
immer daran erinnern, welche Meinung ich rechtfertigen möchte. 91 Dazu<br />
muß ich mich auf gewisse Formen von Introspektion verlassen. Wenn<br />
ich mich frage, ob ich über eine Begründung für p verfüge, muß ich zumindest<br />
schon wissen, daß ich p glaube und welche Überzeugungen ich<br />
überhaupt habe, auf die ich mich in der Begründung von p stützen darf.<br />
In beiden Fällen sollte ich also zuverlässige Metameinungen darüber besitzen,<br />
welche Meinungen ich bisher (implizit) habe. Diese Metameinungen<br />
stellen jedoch selbst wiederum empirische Annahmen dar und man<br />
könnte auch für sie nach Begründungen fragen. In diesen Begründungen<br />
— sollen sie denn inferentiell sein — muß ich mich aber wiederum darauf<br />
stützen können, welche anderen Meinungen ich habe. Droht damit<br />
nicht ein fataler Regreß? Dieser Ansicht ist z. B. Moser (1991, 174ff).<br />
Zunächst einmal trifft das nur auf den Fall privater Begründungen<br />
im stillen Kämmerlein zu. Wissenschaftliches Wissen oder anderes explizit<br />
notiertes Wissen ist davon nur sehr indirekt betroffen, denn das relevante<br />
Hintergrundwissen ist, weil es schriftlich fixiert ist, auch ohne die<br />
Erinnerung oder Introspektion einer bestimmten Person jederzeit zugänglich.<br />
Wichtige Begründungen können auf diese Weise den Problemen<br />
von Erinnerung und Introspektion ausweichen.<br />
Im Falle der Frage, in welchen Meinungen wir sozusagen privat gerechtfertigt<br />
sind, sind wir allerdings letztlich auf Erinnerungen und Introspektionen<br />
angewiesen. Um die Zuverlässigkeit unseres Gedächtnisses<br />
in unseren Rechtfertigungen berücksichtigen zu können, stehen uns<br />
aus der Innenperspektive im Normalfall zwei Vorgehensweisen offen.<br />
Zum einen können wir, wie bei Beobachtungen, unsere eigene Zuverlässigkeit<br />
anhand von Daten aus der Vergangenheit und Aussagen anderer<br />
Personen einschätzen. Wir wissen dann über uns selbst vielleicht, daß<br />
91 Jeder Redner wird wahrscheinlich den Fall kennen, wo er beim Sprechen<br />
das Argumentationsziel aus den Augen verloren hat und sich erst erneut daran erinnern<br />
muß.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 204<br />
wir zwar zuverlässig Termine oder Zahlen behalten, aber nur selten einen<br />
Namen oder Gesichter. Dementsprechend zurückhaltend sollten wir<br />
sein, wenn wir jemanden als Herrn Müller zu erkennen glauben. Zum<br />
anderen können wir jede spezielle Erinnerung gegen andere Erinnerungen<br />
oder Daten, über die wir sonst noch verfügen, „checken“. Wenn ich<br />
mich erinnere, am letzten Montag abend im Theater gewesen zu sein,<br />
kann ich mich weiter fragen, was denn gegeben wurde und das mit dem<br />
Spielplan vergleichen; ich kann überlegen, daß ich nachmittags beim<br />
Zahnarzt war und über welche Zwischenstationen ich von dort letztlich<br />
bis ins Theater gelangt bin. Außerdem frage ich mich z. B., ob ich im<br />
Theater noch Zahnschmerzen von der Behandlung gehabt habe oder ob<br />
im Theater doch erst Sonntag war und ich mir statt dessen gerade Sorgen<br />
über den bevorstehenden Zahnarztbesuch gemacht habe. Schließlich<br />
kann ich in meinen Terminkalender schauen oder Freunde befragen, ob<br />
sie am Montag abend mit mir zusammen waren usf. 92 War ich tatsächlich<br />
im Theater und mein Gedächtnis ist gut, sollten alle Antworten auf<br />
diese Fragen ein zusammenhängendes Bild meines Tagesablaufs am Montag<br />
bieten, das zu allen anderen Informationen wie Spielplan, Terminkalender,<br />
Aussagen anderer usw. paßt. Gibt es dagegen Unstimmigkeiten,<br />
werde ich nach Erklärungen dafür suchen, die schließlich auch in der<br />
Annahme münden können, daß ich mich geirrt habe und am Montag<br />
doch zu Hause geblieben bin.<br />
Beide Verfahren sind typische Kohärenztests und in analoger Form<br />
vor Gericht einsetzbar, um die Genauigkeit von Erinnerungen zu überprüfen.<br />
Man wird z. B. den Erinnerungen von mehreren Zeugen besonders<br />
vertrauen, wenn sie im wesentlichen übereinstimmen. Die beste Erklärung<br />
für ihre Übereinstimmung wird unter gewissen Umständen sein,<br />
daß sie zuverlässig über dasselbe Ereignis Auskunft geben. Sollten ihre<br />
Aussagen allerdings zu exakt übereinstimmen, kann das bereits Evidenz<br />
für die Unzuverlässigkeit der Zeugen sein. Die beste Erklärung kann in<br />
diesem Fall darin bestehen, daß sie sich abgesprochen haben. Schließlich<br />
wissen wir auch, daß Menschen sich normalerweise nicht so gut erinnern<br />
und ihre Beobachtungen auf unterschiedliche Weise beschreiben.<br />
Hier finden wir wieder eine typische Instanz des Schlusses auf die beste<br />
Erklärung, die sich mit konservativ induktivem oder bayesianistischem<br />
Vorgehen nicht ohne Epizyklen erklären läßt.<br />
92 Dieses Verfahren gibt uns natürlich keine Antwort auf die Fragen des radikalen<br />
Skeptikers, der alle unsere Meinungen und Metameinungen zugleich in<br />
Frage stellt (s.dazu VI).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 205<br />
Noch schwieriger wird es für eine internalistische Rechtfertigungstheorie<br />
im Falle von Introspektionen, die für den Kohärenztest selbst bereits<br />
unentbehrlich sind. Sie hat mit dem obigen Zirkelvorwurf am<br />
schwersten zu kämpfen. BonJour (1985, 127f) beruft sich an dieser Stelle<br />
auf seine „Doxastic Presumption“ (1985, 101ff), wonach die Annahme,<br />
daß wir ein einigermaßen zutreffendes Bild unserer eigenen Überzeugungen<br />
besitzen, eine Voraussetzung des ganzen Rechtfertigungsspieles<br />
ist. Nur wenn wir wissen, daß wir p glauben und daß wir weiterhin<br />
ein bestimmtes Überzeugungssystem X haben, läßt sich überhaupt die<br />
Frage aufwerfen, ob p vor dem Hintergrundwissen X gerechtfertigt ist.<br />
Dann, so argumentiert BonJour, darf ich mich in der Beantwortung der<br />
Frage, aber ebenfalls auf die Voraussetzung berufen, die in der Frage gemacht<br />
wurde. Dafür spricht auch, daß selbst so radikale Skeptiker wie<br />
der Cartesische nicht so weit gehen, unsere Annahmen darüber, was wir<br />
glauben, in Frage zu stellen.<br />
Das wird kaum das letzte Wort in dieser Angelegenheit sein, denn es<br />
ist z. B. nicht selbstverständlich, daß die Frage nach einer Begründung<br />
für p bereits die Kenntnis von X voraussetzt, aber ich möchte noch zwei<br />
weitere Anmerkungen hinzufügen, die ebenfalls einen gewissen Anteil<br />
an der Entschärfung dieser Schwierigkeit für eine Kohärenztheorie der<br />
Rechtfertigung haben können. Erstens ist von diesem Problem nicht nur<br />
die kohärentistische Position betroffen, sondern z. B. ebenso die üblichen<br />
Spielarten des empiristischen Fundamentalismus. Für sie sind zwar<br />
Beobachtungsüberzeugungen basal und bedürfen daher keiner inferentiellen<br />
Rechtfertigung, aber Metaüberzeugungen über unser Überzeugungssystem<br />
werden im allgemeinen nicht unter diese basalen Überzeugungen<br />
gerechnet; insbesondere auch nicht Metaüberzeugungen darüber,<br />
welche basalen Überzeugungen jemand besitzt. Wenn der Empirist<br />
nun nichtbasale Meinungen anhand basaler Meinungen inferentiell<br />
rechtfertigen möchte, ist er genauso auf eine Kenntnis seines Überzeugungssystems<br />
und speziell seiner basalen Meinungen angewiesen, wie<br />
ein Kohärenztheoretiker. Es ist BonJours Verdienst, diese Schwierigkeit<br />
überhaupt deutlich gesehen und einen ersten Lösungsvorschlag präsentiert<br />
zu haben. Zweitens habe ich auch von begründeten Meinungen nur<br />
verlangt, daß sie implizite Begründungen besitzen. Diese müssen im<br />
Prinzip zu entwickeln sein, aber nicht in Form expliziter Metaüberzeugungen<br />
bereits vorliegen. Erst wenn ich eine Rechtfertigung meiner Meinungen<br />
explizit vornehmen möchte, ist man also auf etwas wie die Bon-<br />
Joursche „Doxastic Presumption“ angewiesen, aber da ergeht es den<br />
meisten Konkurrenten nicht besser.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 206<br />
Natürlich könnte der Externalist auch an dieser Stelle wieder einen<br />
einfachen Ausweg anbieten. Für ihn kann man sich darauf beschränken,<br />
daß unsere Metaüberzeugungen darüber, welche Überzeugungen wir haben,<br />
tatsächlich zutreffen. Man würde einfach die Frage, welche Indizien<br />
wir für dieses Zutreffen haben, nicht mehr stellen. So leicht dieser<br />
Ausweg ist, so bleibt doch wiederum das eigentliche Problem unberührt.<br />
Die Frage nach solchen Indizien bleibt weiterhin eine sinnvolle erkenntnistheoretische<br />
Frage, die wir aufwerfen sollten, und der Externalist<br />
kann diesen Ausweg nur aufgrund eines Themawechsels anbieten, den<br />
ich nicht mitmachen möchte (s. III.A.2).<br />
C. Lokale und Globale Aspekte von Rechtfertigung<br />
Auf den ersten Blick ist die Rechtfertigung einer Überzeugung eine Angelegenheit,<br />
die nur wenige Überzeugungen unseres Wissenssystems betrifft,<br />
nämlich die Prämissen der betreffenden Rechtfertigung. Das<br />
scheint insbesondere für unser Vorbild für Inferenzen, den logischen<br />
Schluß, zuzutreffen. Wenn eine Proposition p deduktiv aus einer Menge<br />
von M von Aussagen folgt, bedeutet das immer (selbst für unendliche<br />
Mengen M), daß es eine endliche Teilmenge von M gibt, aus der p folgt.<br />
Zur Überprüfung ob p folgt, genügt es außerdem, neben den Regeln der<br />
Logik ausschließlich p und M heranzuziehen. Die Inferenz bleibt in dem<br />
Sinne lokal. Sie ist nicht auf bestimmte Eigenschaften des ganzen Überzeugungssystems<br />
X angewiesen. Inferenzen, zu deren Beurteilung man<br />
sich auf Eigenschaften des ganzen Überzeugungssystems oder sehr große<br />
Teile davon stützen muß, nenne ich dagegen global.<br />
Epistemische Rechtfertigungen anhand von Kohärenz beinhalten sowohl<br />
lokale wie auch globale oder zumindest globalere Aspekte. Die Untersuchung<br />
einiger typischer Fälle kann das demonstrieren. Nehmen wir<br />
zunächst eine Beobachtungsüberzeugung, die durch eine Theorie erklärt<br />
wird. Die Erklärung selbst ist — wir werden das im letzten Teil der Arbeit<br />
präzisieren — eine bestimmte Beziehung zwischen Theorie und Beobachtung.<br />
Allein an der Theorie und der Beobachtungsüberzeugung<br />
läßt sich aber nicht ablesen, wie gut die Erklärung und damit die Rechtfertigung<br />
durch die Theorie ist. Eine astrologische Theorie oder eine<br />
Dämonentheorie kann in derselben strukturellen Beziehung zu einem<br />
Faktum stehen, wie die Newtonsche Mechanik zum Phänomen des freien<br />
Falls. Es kann in allen drei Fällen etwa eine Deduktion vorliegen. Einer<br />
Deduktion kann man nicht unmittelbar ansehen, ob es sich um eine
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 207<br />
gute Erklärung oder nur eine scheinbare und etwa empirisch leere Erklärung<br />
handelt. Wie gut die Erklärung ist, hängt unter anderem davon ab,<br />
wie gut die erklärende Theorie ist. Die epistemische Bewertung einer<br />
Theorie ist aber eine Sache, die nicht allein von der Beziehung zwischen<br />
Theorie und dem einen Datum abhängt, sondern vielmehr von der Beziehung<br />
zwischen der Theorie und vielen Fakten, die sie ebenfalls erklärt,<br />
und außerdem auch von vielen intertheoretischen Beziehungen zu<br />
anderen Theorien.<br />
Um an ein berühmtes Beispiel für eine Bewertung aufgrund intertheoretischer<br />
Zusammenhänge zu erinnern: Die Beurteilung der Newtonschen<br />
Mechanik, die über lange Zeit im wesentlichen unangefochten<br />
als die paradigmatische wissenschaftliche Theorie betrachtet wurde, änderte<br />
sich zusehends mit der Anerkennung der Maxwellschen Elektrodynamik.<br />
Unter anderem ihr unterschiedliches Invarianzverhalten war für<br />
Einstein das entscheidende Motiv, nach einer neuen Mechanik zu suchen.<br />
Einstein behauptete von sich selbst sogar, daß er den einzigen experimentellen<br />
Befund, der in den ersten Jahren für die spezielle Relativitätstheorie<br />
sprach, nämlich das Michelson-Morley Experiment, um<br />
1905 nicht gekannt hat. Auch wenn seine Erinnerung ihn darin vermutlich<br />
in die Irre führt (s. Pais 1982, 114ff), hat er recht, daß dieser Befund<br />
nicht den entscheidenden Anstoß zur Entwicklung der neuen Mechanik<br />
geben konnte (s. z. B. Holton 1981, 277ff). Das ist nur ein Beispiel<br />
für eine intertheoretische Abhängigkeit erkenntnistheoretischer Bewertungen,<br />
in dem zwei Theorien in einen erkenntnistheoretischen Zusammenhang<br />
gestellt werden, obwohl sie sogar über weitgehend getrennte<br />
Anwendungsbereiche verfügen. Das ist zugleich ein Hinweis, wie<br />
auf versteckte Weise intertheoretische Beziehungen epistemisch wirksam<br />
werden können. In der Debatte um holistische Strukturen in der Wissenschaft<br />
finden sich weitere Beispiele, auf die zum Teil schon Duhem hingewiesen<br />
hat.<br />
Ebenso gilt das für den Fall einer Theorie, die mittels Abduktion gestützt<br />
wird. Sie wird nicht nur von einer Anzahl von Daten gestützt, sondern<br />
die Bewertung, wie gut die sie stützenden Daten sind, bedarf wiederum<br />
einer Einschätzung der Zuverlässigkeit der Daten. Das geschieht<br />
mittels (anderer) Theorien wie Theorien der Wahrnehmung oder Theorien<br />
über die Kontinuität bestimmter Vorgänge etc. (vgl. IV.B.2). Dabei<br />
können auch Metaeinschätzungen etwa anhand epistemischer Überzeugungen<br />
über die Zuverlässigkeit bestimmter Wahrnehmungen in bestimmten<br />
Situationen eine Rolle spielen, z. B. über die Genauigkeit<br />
astronomischer Daten bei Fernrohrbeobachtungen zu einem bestimmten
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 208<br />
Stand der Fernrohrtechnik. Diese epistemischen Überzeugungen können<br />
ihrerseits erkenntnistheoretische Zusammenhänge zwischen vollkommen<br />
unterschiedlichen Theorien herstellen. Alle von mir diskutierten<br />
Beispiele für Begründungen mußten sich darauf beschränken, kleine<br />
Teile einer solchen Rechtfertigung herauszugreifen, weil die Analysen<br />
sonst zu umfangreich geworden wären, aber es gab in der Regel zusätzlich<br />
Hinweise, inwiefern weitere Zusammenhänge des Meinungssystems<br />
für diese idealisierten Rechtfertigungen erkenntnistheoretisch bedeutsam<br />
sind.<br />
Denken wir noch einmal an das Beispiel einer in der Hitze flüssig erscheinenden<br />
Straße aus Abschnitt (III.B.5.b) zurück, die sich beim Näherkommen<br />
als normale Asphaltstraße entpuppt. Um unsere Überzeugung<br />
zu begründen, daß sie das die ganze Zeit war und sich nicht erst<br />
beim Näherkommen von einer Flüssigkeit in Asphalt verwandelt hat,<br />
können wir uns auf zunehmend größere Teile unseres Hintergrundwissens<br />
beziehen; zunächst auf Wahrnehmungstheorien, die uns das Phänomen<br />
angefangen von der Lichtbrechung in der heißen Luft bis zu unserem<br />
Eindruck von Flüssigkeit erklären. Diese physikalischen und sinnesphysiologischen<br />
Theorien sollten ihrerseits nicht beliebige Theorien<br />
sein, sondern gut begründete Theorien, wenn sie eine gute Erklärung<br />
bieten sollen. Welche epistemische Kraft sie übertragen können, hängt<br />
von ihrer weiteren Verankerung in unserem Netz von Überzeugungen<br />
ab. Die Theorien des Lichts werden z. B. gestützt durch viele Phänomene<br />
der geometrischen Optik, der Interferenz, der Brechung etc., die<br />
sie erklären und durch ihre theoretische Einbettung in die Elektrodynamik<br />
als Theorie der elektromagnetischen Wellen und schließlich der<br />
Quantenoptik. Für all diese Theorien können wir wiederum fragen, wie<br />
sie epistemisch dastehen. Die Theorien der Sinnesphysiologie oder sogar<br />
neurologische Theorien unserer Wahrnehmungsverarbeitung stützen<br />
sich auf andere Daten und sind in andere theoretische Kontexte eingebettet;<br />
etwa in biologische Theorien über den Nervenaufbau und ihre<br />
Zusammenschaltung, die sich ihrerseits auf chemische und physikalische<br />
Gesetze stützen können usf. Außerdem dürfen wir unser Wissen über<br />
eine gewisse Kontinuität von Materie und speziell Asphalt unter gewissen<br />
Bedingungen in Anschlag bringen, die wir sowohl in unserem Alltagswissen<br />
wie in unserem wissenschaftlichen Wissen verankern können.<br />
Dahinter stehen noch allgemeinere Konzeptionen von Energieerhaltung,<br />
die ihrerseits in vielen spezielleren Theorien eine Bestätigung erfahren.<br />
Daneben können wir auch mögliche Fehlerquellen unserer Wahrnehmung<br />
ausschalten und uns darauf beziehen, wie zuverlässig wir ähnliche
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 209<br />
Wahrnehmungen in anderen Fällen vornehmen konnten. Dem Umfang<br />
einer solchen Analyse sind kaum Grenzen gesetzt, und ich kann an diesem<br />
Punkt natürlich nur einige Fingerzeige geben, auf welchen Wegen<br />
sie weitergehen kann. In einer Kontroverse mit jemandem, der eine meiner<br />
Meinungen in Frage stellt, kann ich nur hoffen, nicht so weit gehen<br />
zu müssen, indem ich gemeinsame Meinungen oder Theorien suche, die<br />
ich dann als Startpunkte meiner Begründung wählen kann.<br />
Im Prinzip kann sich die Zuverlässigkeitsanalyse einer Beobachtung<br />
also auf recht allgemeinem Niveau auf relativ globale Zusammenhänge<br />
unseres Meinungssystems beziehen aber ebenso auf spezielle Verästelungen,<br />
die wiederum allgemeine Ansichten wie die der Energieerhaltung<br />
stützen, und somit schließlich globalen, holistischen Charakter annehmen.<br />
Dem können wir in der Praxis nicht tatsächlich in allen Einzelheiten<br />
nachgehen, sondern wir können gegebenenfalls darauf verweisen,<br />
daß unser Meinungssystem so kohärent ist, daß es solchen Nachprüfungen<br />
standhalten würde, führte man sie weiter. Hier sind wir gezwungen,<br />
uns direkt auf die globale Kohärenz und Geschlossenheit unseres Wissens<br />
zu berufen. 93 Auch für deduktive Beziehungen gilt daher, daß sich zwar<br />
lokal feststellen läßt, ob sie bestehen, aber welche epistemische Kraft sie<br />
übertragen, kann letztlich nur im Rahmen einer Bestimmung der globalen<br />
Kohärenz des ganzen Überzeugungssystems bestimmt werden. Denn<br />
auch für sie müssen wir ermitteln. welchen epistemischen Stellenwert ihre<br />
Prämissen aufweisen.<br />
Williams (1991, 276ff) unterscheidet dazu zwischen zwei Formen<br />
von Kohärenz: relationaler und systematischer. Relationale Kohärenz einer<br />
Aussage mit einem Überzeugungssystem betrifft die Frage, wie kohärent<br />
sich die Aussage (lokal) in dieses System einfügt, während es in der<br />
systematischen Kohärenz eines Überzeugungssystems darum geht, wie<br />
kohärent dieses System als Ganzes ist. Eine Kohärenztheorie der Rechtfertigung<br />
wird sich im allgemeinen auf diese beiden Formen von Kohärenz<br />
stützen müssen, um den globalen Aspekten von Begründungen<br />
ebenso gerecht werden zu können wie den lokalen. Ein Überzeugungssystem<br />
hat dabei um so größere rechtfertigende Kraft, je größer die Kohärenz<br />
der Überzeugungen dieses Systems untereinander ist, während die<br />
spezielle Rechtfertigung einer bestimmten Aussage davon abhängt, wie<br />
sehr gerade sie von diesem System begründet wird, wie (relational) ko-<br />
93 Wir müssen uns etwa darauf berufen, daß wir uns nicht in einem Subsystem<br />
(s. (3b) von KTR in Abschnitt (IV.F) unseres Überzeugungssystems bewegen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 210<br />
härent sie also in das System hineinpaßt und zur (systematischen) Gesamtkohärenz<br />
beiträgt.<br />
Die beiden Formen von Kohärenz hängen natürlich in systematischer<br />
Weise zusammen, was in meiner Explikation von Kohärenz auch zum<br />
Ausdruck kommen wird. Bevor ich einen eigenen Vorschlag dafür vortrage,<br />
möchte ich aber noch einen Blick auf drei andere prominente Kohärenzkonzeptionen<br />
werfen und zusehen, wie es ihnen gelingt, die unterschiedlichen<br />
Aspekte von Kohärenz zusammenzufügen.<br />
Zur Vorsicht sei noch angemerkt, daß es natürlich falsch ist, den holistischen<br />
Aspekt von Rechtfertigungen und inferentiellen Zusammenhängen<br />
zu übertreiben und womöglich in einer Formel wie: „Alles hängt<br />
mit allem zusammen“ oder „Alles hängt von allem anderen ab“ zu formulieren.<br />
Auch hier finden sich Grade des Zusammenhängens und in<br />
vielen Fällen ist der Abstand von Aussagen so groß, daß man für viele<br />
Zwecke nicht mehr sinnvoll von einem Zusammenhang reden wird. Wie<br />
global bestimmte Zusammenhänge sind, kann auch nur für konkrete<br />
Fälle festgestellt werden. In der Wissenschaftstheorie finden sich einige<br />
Modelle und Untersuchungen zu diesem Thema, die anhand konkreter<br />
Fallstudien substantiellere Aussagen treffen können (s. z. B. Gähde 1983<br />
und 1989 oder Bartelborth 1993). Diesen Punkt werde ich für den wissenschaftlichen<br />
Bereich im späteren Teil der Arbeit erneut aufwerfen.<br />
D. Drei Kohärenzkonzeptionen<br />
In (IV.A) sind die wesentlichen Komponenten einer Kohärenztheorie der<br />
Rechtfertigung intuitiv besprochen worden, in (IV.B) habe ich dargestellt,<br />
wie sich eine wichtiger Bereich unserer Erkenntnis, nämlich die<br />
Beobachtungsüberzeugungen, in ihrem Rahmen unterbringen lassen und<br />
im vorigen Abschnitt wurde belegt, daß eine kohärentistische Rechtfertigung<br />
immer wesentlich holistische Aspekte zu berücksichtigen hat. Es ist<br />
nun an der Zeit, konkrete Vorschläge für Explikationen von „Kohärenz“<br />
daraufhin anzusehen, inwieweit sie diesen Anforderungen an Kohärenz<br />
gerecht werden. Zu diesem Zweck werde ich zuerst drei Konzeptionen<br />
von Kohärenz genauer untersuchen, um danach einen eigenen Explikationsvorschlag<br />
vorzustellen.<br />
Neben idealistischen Kohärenzvertretern wie Bradley oder Blanshard,<br />
für die sich Wahrheit durch Kohärenz definieren ließ (s. dazu Rescher<br />
1982, 31ff) und analytischen Philosophen wie Sellars und Rescher,<br />
die erste Vorschläge für Kohärenzkonzeptionen vorlegten (die hier aller-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 211<br />
dings nicht eigens betrachtet werden sollen), war es hauptsächlich Keith<br />
Lehrer, der die Kohärenztheorie in diesem Jahrhundert hoffähig gemacht<br />
hat.<br />
1. Lehrers Kohärenztheorie<br />
Lehrer hat seine Vorstellungen von Wissen und epistemischer Rechtfertigung<br />
im Rahmen einer Kohärenztheorie in zahlreichen Artikeln und einigen<br />
Büchern entwickelt. Im Vordergrund steht für ihn das Projekt einer<br />
Wissensexplikation, aber in diesem Zusammenhang entwirft er<br />
ebenfalls eine Theorie der Rechtfertigung. Diese enthält eine Reihe von<br />
externalistischen Elementen, die für mein Projekt nicht weiter beachtet<br />
werden sollen. Hier steht daher seine Explikation von „personally justified“,<br />
das sich ungefähr in mein „gerechtfertigt“ übersetzen läßt, im<br />
Zentrum. Damit eine Überzeugung für ein Subjekt S gerechtfertigt ist,<br />
muß sie nach Lehrer mit dem Überzeugungssystem X von S kohärent<br />
sein. Lehrer spricht in diesem Zusammenhang von einem „acceptance<br />
system“ statt von einem Überzeugungssystem (s. a. II.C.1), aber für unsere<br />
Zwecke können wir diese Unterscheidung vernachlässigen. Kohärenz<br />
ist für Lehrer überwiegend negativ bestimmt als Reduktion von Konflikten<br />
(s. z. B. Lehrer 1990a, 231). So hat eine Proposition p sich für Lehrer<br />
vor dem Hintergrundsystem X gegenüber allen Konkurrenten durchzusetzen<br />
und diese aus dem Felde zu schlagen, um aufgrund von X akzeptiert<br />
zu werden. In Lehrers Terminologie: p hat alle Konkurrenten<br />
auf der Grundlage von X aus dem Felde zu schlagen oder zumindest zu<br />
neutralisieren, um akzeptiert zu werden. Dabei wird ermittelt, welche<br />
von zwei konkurrierenden Annahmen relativ zu unserem Hintergrundwissen<br />
plausibler ist, und diese dann akzeptiert, während die aufgetretenen<br />
Konkurrenten, die Konflikte in unser Überzeugungssystem brächten,<br />
abgewiesen werden.<br />
Was damit in Lehrers Konzeption nicht auftritt, sind Anforderungen<br />
an die Kohärenz des Hintergrundwissens, die über Konsistenz oder Konfliktfreiheit<br />
für lokale Konkurrenten hinausgehen und positive Beziehungen<br />
zwischen den Meinungen verlangen. Gerade (IV.A.1) sollte zeigen,<br />
daß die Abwesenheit von Inkonsistenzen allein für Kohärenz bei weitem<br />
nicht ausreicht, und ebensowenig können in Lehrers lokaler Konzeption<br />
der Reduktion von Konflikten die holistischen Zusammenhänge, wie sie<br />
in (IV.C) angesprochen wurden, angemessen erfaßt werden. Lehrer verlangt<br />
nämlich nicht, daß jede Aussage p des Überzeugungssystems durch
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 212<br />
zahlreiche positive Verbindungen in X verankert wird, die die Grundlage<br />
für eine holistische Rechtfertigung von p bilden.<br />
Sehen wir uns dazu kurz die Einzelheiten der Lehrerschen Konzeption<br />
unter diesen Gesichtspunkten an. Eine semiformale Explikation von<br />
Lehrers Begriffen findet sich an unterschiedlichen Stellen seines Werks<br />
(z. B. 1988, 341ff; 1990a, 232; 1990b, 148). Die folgende stammt aus<br />
Lehrer (1990b, 148):<br />
D1. A system X is an acceptance system of S if and only if X contains<br />
just statements of the form, S accepts that p, attributing to S just<br />
those things that S accepts with the objective of accepting that p<br />
if and only if p.<br />
D2. S is justified in accepting p at t on the basis of system X of S at t<br />
if and only if p coheres with X of S at t.<br />
D3. p coheres with X of S at t if and only if all competitors of p are<br />
beaten or neutralized for S on X at t. 94<br />
D4. c competes with p for S on X at t if and only if it is more reasonable<br />
for S to accept that p on the assumption that c is false than<br />
on the assumption that c is true, on the basis of X at t.<br />
D5. p beats c for S on X at t if and only if c competes with p for S on<br />
X at t, and it is more reasonable for S to accept p than to accept<br />
c on X at t.<br />
D6. n neutralizes c as a competitor of p for S on X at t if and only if<br />
c competes with p for S on X at t, the conjunction of c and n<br />
does not compete with p for S on X at t, and it is as reasonable<br />
for S to accept the conjunction of c and n as to accept c alone on<br />
X at t.<br />
D7. S is personally justified in accepting that p if and only if S is justified<br />
in accepting that p on the basis of the acceptance system of S<br />
at t.<br />
Die erste Bestimmung beschreibt Lehrers Konzeption von „acceptance<br />
system“ als einem System von Aussagen, die man akzeptiert, weil man<br />
sie für wahr hält. Damit soll genau das für die Erkenntnistheorie relevante<br />
Merkmal von Überzeugungen herausgegriffen werden. In (D2) be-<br />
94 In Lehrer (1990, 148) beginnt dieser Punkt mit einem Schreibfehler, es<br />
wird das Definiendum von D2 wiederholt, den ich im Sinn von Lehrer (1988,<br />
341) korrigiert habe.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 213<br />
kennt sich Lehrer zur Kohärenztheorie in bezug auf epistemische Rechtfertigungen.<br />
(D3) ist die einzige Bedingung, die den Kohärenzbegriff<br />
selbst näher bestimmt, aber es wird nichts über die mögliche Kohärenz<br />
oder Inkohärenz des Hintergrundwissens X gesagt, sondern nur darüber,<br />
ob p seine Konkurrenten besiegen kann. Daß dem Kohärenzkonzept<br />
in dieser Theorie keine eigenständige Rolle zufällt, kann man daran<br />
erkennen, daß es in den restlichen Bestimmungen nicht mehr auftritt<br />
und relativ leicht zu eliminieren wäre. Wir müßten dazu nur die Bedingungen<br />
(D2) und (D3) zu einer neuen Bedingung zusammenziehen:<br />
(D2’) S ist justified in accepting p at t on the basis of system X of S at t<br />
if and only if all competitors of p are beaten or neutralized for S<br />
on X at t. 95<br />
Kohärenz kommt damit eigentlich nicht wesentlich in dieser Definition<br />
vor, sondern nur als im Prinzip überflüssiger Zwischenschritt von „justified“<br />
zu „beaten“ oder „neutralized“. Lehrers Vorstellung von Kohärenz<br />
erschöpft sich denn auch in der von relationaler Kohärenz von Aussagen<br />
zu einem System X. Globale oder systematische Kohärenz ist für Lehrer<br />
dagegen kein Thema.<br />
Eine Aussage ist gerechtfertigt, wenn sie vor unserem Hintergrundwissen<br />
vernünftiger ist als ihre möglichen Konkurrenten. Die eher technischen<br />
Einzelheiten der Neutralisierung oder dem Schlagen von Konkurrenten<br />
sollen hier nicht untersucht werden, aber überraschend bleibt,<br />
daß Lehrer sich grundlegend auf das Konzept „vernünftiger vor unserem<br />
Überzeugungssystem X“ stützt, ohne es weiter zu erläutern, obwohl das<br />
keineswegs aussichtslos erscheint. Derartige Bewertungen weiter aufzuschlüsseln<br />
ist gerade eine wesentliche Aufgabe, der Kohärenztheorie. Außer<br />
dem Hinweis, daß man „vernünftiger“ nicht mit „wahrscheinlicher“<br />
identifizieren dürfe, weiß Lehrer aber nicht viel zu diesem Konzept zu<br />
sagen und führt es als einen Grundbegriff ein. Der für Kohärenz sicher<br />
wichtige Begriff der Konkurrenz von Aussagen leidet dann auch darunter,<br />
anhand eines zu ihm eng benachbarten Grundbegriffs definiert zu<br />
werden.<br />
Lehrers Beschränkung auf relationale Kohärenz, die auch nur als ein<br />
im Prinzip überflüssiger Zwischenschritt auftritt, läßt erkennen, daß es<br />
sich überhaupt nicht um eine genuine Kohärenztheorie handelt. Die Konkurrenz<br />
von Aussagen in unserem Meinungssystem ist sicher ein Phäno-<br />
95 Böse Zungen könnten damit den ursprünglichen Schreibfehler bei Lehrer<br />
in (D3) erklären, denn die dort formulierte Bedingung entspricht gerade<br />
(D2').
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 214<br />
men, das die Kohärenz des Systems bedroht, aber dabei handelt es sich<br />
eben nur um einen Aspekt von Kohärenz. Die Vermeidung von Konflikten<br />
kann niemals auf positive Weise erschöpfend darstellen, worin Kohärenz<br />
besteht. Sehen wir uns als nächstes die Konzeption eines Konkurrenten<br />
von Lehrer an, der sich bemüht, die globalen Aspekte von Kohärenz<br />
zu berücksichtigen.<br />
2. BonJours Theorie der Rechtfertigung<br />
In den letzten Jahren stand zunehmend die Kohärenztheorie von Laurence<br />
BonJour im Interesse der Erkenntnistheoretiker. Neben der Tatsache,<br />
daß BonJour sich als einer von wenigen bemüht, eine originäre Kohärenztheorie<br />
in einem realistischen Rahmen zu entwickeln, scheint mir<br />
insbesondere seine recht überzeugende Behandlung von Wahrnehmungen<br />
(s. IV.B), die häufig eher eine Schwachstelle von Kohärenztheorien<br />
darstellte, der Grund für dieses Interesse zu sein. In BonJours Kohärenztheorie<br />
spielt die systematische Kohärenz (allerdings ohne dort diesen<br />
Namen zu tragen), eine wichtige Rolle. Für ihn (BonJour 1985, 92) 96<br />
hängt im Unterschied zu Lehrer die Rechtfertigung einer Überzeugung<br />
durch ein System von Überzeugungen wesentlich von der globalen Kohärenz<br />
dieses Systems ab. Er hat in (1985, 93ff) sein Konzept von Kohärenz<br />
vorgelegt, das er mit einer intuitiven Charakterisierung von Kohärenz<br />
einleitet, die noch einmal deutlich macht, in welcher Richtung er<br />
sucht.<br />
What then is coherence? Intuitively, coherence is a matter of how<br />
well a body of belief „hangs together“: how well its component beliefs<br />
fit together, agree or dovetail with each other, so as to produce<br />
an organized, tightly structured system of beliefs, rather than either<br />
a helter-skelter collection or a set of conflicting subsystems. It is reasonably<br />
clear that this „hanging together“ depends on the various<br />
sorts of inferential, evidential, and explanatory relations which obtain<br />
among the various members of a system of beliefs, and especially<br />
on the more holistic and systematic of these.<br />
So deutlich und klar BonJour seine Vorstellung von Kohärenz auch formuliert,<br />
so bleibt er doch in der Ausformulierung seiner Theorie an einigen<br />
Stellen enttäuschend. Schon daß er nicht klar zwischen relationalen<br />
und systematischen Aspekten der Kohärenz unterscheidet und viele Ko-<br />
96 Eine kürzere Vorfassung erschien 1976 und ist in 1987 ins Deutsche<br />
übersetzt worden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 215<br />
härenzforderungen ausgesprochen vage bleiben, da es die in ihnen verwendeten<br />
Grundbegriffe sind. BonJour (1985, 94) entschuldigt sich für<br />
diese Defizite seiner Theorie damit, daß sie nicht nur seine Erkenntnistheorie<br />
betreffen, sondern auch alle Konkurrenzprodukte, die seines<br />
Erachtens ebenfalls auf ein Kohärenzkonzept angewiesen sind. Das mag<br />
wohl stimmen, denn auch die fundamentalistischen Theorien kennen<br />
nicht nur basale Meinungen, sondern auch nichtbasale, die einer inferentiellen<br />
Rechtfertigung bedürfen. Aber erstens gibt es die Ausgestaltungen<br />
der Induktionslogik oder neueren epistemischen Logik, die mit<br />
sehr viel präziseren Konzeptionen aufwarten und außerdem bleibt natürlich<br />
gerade für eine Kohärenztheorie die berechtigte Forderung bestehen,<br />
genauer zu erfahren, was denn mit „Kohärenz“ gemeint ist. Bon-<br />
Jour (1985, 95ff) gibt uns dazu fünf Bedingungen für Kohärenz:<br />
1. A system of beliefs is coherent only if it is logically consistent.<br />
2. A system of beliefs is coherent in proportion to its degree of probabilistic<br />
consistency.<br />
3. The coherence of a system of beliefs is increased by the presence<br />
of inferential connections between its component beliefs and increased<br />
in proportion to the number and strength of such connections.<br />
4. The coherence of a system of beliefs is diminished to the extent<br />
to which it is divided into subsystems of beliefs which are relatively<br />
unconnected to each other by inferential connections.<br />
5. The coherence of a system of beliefs is decreased in proportion to<br />
the presence of unexplained anomalies in the believed content of<br />
the system.<br />
Die erste Forderung ist insoweit unproblematisch, wie sie nur die allseits<br />
anerkannte Forderung nach logischer Konsistenz für Kohärenz noch einmal<br />
beschwört. Allerdings ist sie so formuliert, daß Konsistenz für Kohärenz<br />
eine conditio sine qua non wird. Enthält unser Überzeugungssystem<br />
auch nur eine Inkonsistenz, können wir danach nicht mehr von Kohärenz<br />
sprechen. Diese Forderung an das ganze Überzeugungssystem gerichtet<br />
erscheint mir zu stark, denn solche Inkonsistenzen finden sich<br />
durchaus immer wieder in unseren Überzeugungen, und damit muß<br />
nicht das ganze System gleich vollkommen inkohärent sein. Wie sich Inkonsistenzen<br />
logisch auf bestimmte Bereiche begrenzen lassen, z. B. anhand<br />
parakonsistenter Logiken, ist jedoch ein kompliziertes technisches
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 216<br />
Problem, das entsprechenden Rekonstruktionen von Wissenssystemen in<br />
der epistemischen Logik vorbehalten bleibt. 97<br />
Man darf Inkonsistenzen allerdings auch nicht auf die leichte Schulter<br />
nehmen, wie das in der Wissenschaftsphilosophie manchmal befürwortet<br />
wird. Ich bin kein Vertreter der Lakatosschen These, daß auch genuin<br />
inkonsistente Theorien akzeptiert werden können. Lakatos Beispiel<br />
dafür ist das Bohrsche Atommodell, das nur bei einer unangemessenen<br />
Interpretation intrinsisch inkonsistent erscheint (s. dazu Bartelborth<br />
1989). Inkonsistenzen führen also wesentlich zu Inkohärenz, diese Inkonsistenzen<br />
sind trotzdem in vielen Fällen so zu begrenzen, daß sie<br />
nicht automatisch das ganze Meinungssystem infizieren.<br />
In der zweiten Bedingung möchte BonJour den Sonderfall von statistischen<br />
Aussagen behandeln, für den er Grade von Inkohärenz anerkennt.<br />
Er denkt dabei z. B. an Fälle, in denen wir glauben, daß p, und<br />
zugleich glauben, daß p sehr unwahrscheinlich ist. Es ist klar, daß auch<br />
solche Zusammenhänge eine gewisse Form von Inkohärenz in ein Aussagensystem<br />
bringen können. Die Besonderheiten statistischer Aussagen<br />
möchte ich aber hier nicht weiter verfolgen. 98<br />
In seiner 3. Bedingung geht es schließlich um allgemeinere inferentielle<br />
Zusammenhänge in unserem Überzeugungssystem. Es scheint einleuchtend,<br />
daß mit ihrer Vermehrung und Verstärkung die Kohärenz des<br />
Systems zunimmt. Relativ offen bleibt aber, an welche Inferenzen Bon-<br />
Jour hier denkt — jedenfalls wenn man von Erklärungsbeziehungen absieht.<br />
Ebenso offen bleibt, ob sich derartige Zusammenhänge einfach<br />
aufzählen lassen und was unter ihrer Stärke verstanden werden soll.<br />
Wenn man diese Vagheiten in Rechnung stellt, bietet die ganze Bedingung<br />
(3) nicht viel mehr als eine Umformulierung von BonJours intuitiver<br />
Position. BonJour nennt als einzig substantielle Form von Inferenz<br />
neben den logischen Beziehungen die Erklärungsbeziehung, die seiner<br />
Meinung nach aber nur einen Teil der inferentiellen Beziehungen ausmacht.<br />
In diesem Punkt, den ich in Abschnitt (IV.E.4) wieder aufgreife,<br />
schließt er sich Lehrer an.<br />
Auch BonJours Ausführungen zum Erklärungsbegriff fallen letztlich<br />
unbefriedigend aus, denn er weiß dazu nur auf das Hempelsche DN-<br />
Konzept der Erklärung zu verweisen, und Hempels Bemerkung, daß es<br />
sich bei Erklärungen um Deduktionen besonderer Art handelt, nämlich<br />
solche, die zur systematischen Vereinheitlichung beitragen. Hier sieht<br />
97 Schon Rescher (1982, 75ff) verweist auf die Notwendigkeit auch den<br />
Fall inkonsistenter Aussagensysteme zu behandeln.<br />
98 Siehe dazu auch den Anhang zu diesem Kapitel.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 217<br />
BonJour zwar zu Recht eine enge Verbindung zum Kohärenzkonzept,<br />
aber in der gegenwärtigen Formulierung bleibt die dritte Forderung zu<br />
inhaltsleer, solange nicht weiter expliziert ist, was unter den „inferentiellen<br />
Beziehungen“ und speziell der „Erklärung“ zu verstehen ist. Das gilt<br />
um so mehr, wenn man in Rechnung stellt, daß das Hempelsche Erklärungsschema<br />
keine adäquate Explikation von „Erklärung“ liefert. Bon-<br />
Jour hat daher auch keine besonders gehaltvolle Konzeption von Vereinheitlichung<br />
anzubieten.<br />
Zwar leidet die 4. Bedingung ebenfalls unter einer gewissen Vagheit,<br />
aber sie bringt immerhin einen hilfreichen und intuitiv verständlichen<br />
Begriff ins Spiel bringt, nämlich den des Subsystems. Ein Subsystem ist<br />
eine Teilmenge des Überzeugungssystems mit relativ wenigen inferentiellen<br />
Beziehungen zum Rest des System, so daß dadurch das ganze System<br />
nicht mehr zusammenhängend ist, sondern nahezu in Teilsysteme zerfällt.<br />
Damit nennt BonJour einen wesentlichen Punkt für die globale Kohärenz,<br />
denn es kommt dafür nicht nur darauf an, wieviele Erklärungsbeziehungen<br />
in dem System vorliegen, sondern auch, wie sie verteilt<br />
sind. Leider läßt uns BonJour hier im Stich, wie mögliche Beispiele aussehen<br />
könnten. Ohne mich auf die speziellen Beispiele festlegen zu wollen,<br />
könnte man an Theorien wie das Kaffeesatzlesen als Prognoseverfahren<br />
oder vielleicht Theorien über Kobolde denken, die nur wenige<br />
Verbindungen zu unserem übrigen Weltbild aufweisen. Unser Meinungssystem<br />
würde dadurch kohärenter werden, daß wir diese Theorien aufgeben,<br />
weil sie einen Fremdkörper in unseren Meinungssystemen darstellen,<br />
auch wenn sie in sich vielleicht so kohärent sind, daß jede einzelne<br />
Aussage des Subsystems einige inferentielle Rechtfertigungen aufweist.<br />
99<br />
Ein philosophisch interessantes Beispiel für ein Subsystem findet sich<br />
möglicherweise in der Philosophie des Geistes. Falls die eliminativen<br />
Materialisten Recht haben sollten, bilden unsere Überzeugungen über intentionale<br />
Zustände ein zunehmend isoliertes Subsystem, das nach entsprechenden<br />
Fortschritten der Neurophysiologie immer weniger Bezüge<br />
zu unserem wissenschaftlichen Weltbild aufweist. Aus Kohärenzgründen<br />
sollten wir es dann aus unserem Überzeugungssystem eliminieren. Davon<br />
sind wir tatsächlich natürlich noch sehr weit entfernt, aber das Bei-<br />
99 Es lassen sich sicher eine Reihe von interessanteren Beispielen aus verschiedenen<br />
Bereichen finden, aber die würden zugleich in kontroversere inhaltliche<br />
Diskussionen führen, die an dieser Stelle unnötig erscheinen. Für wissenschaftliche<br />
Theorien wird ihre Zerlegbarkeit in Subsysteme unter dem Stichwort<br />
der organischen Einheitlichkeit in (IX.E.8) noch einmal aufgegriffen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 218<br />
spiel offenbart, wie sich bestimmte wissenschaftliche Debatten in die Begrifflichkeit<br />
der Kohärenztheorie übersetzen lassen und damit die in ihnen<br />
enthaltene erkenntnistheoretische Fragestellung deutlicher wird.<br />
Das Konzept des Subsystems scheint mir ein wichtiges begriffliches<br />
Hilfsmittel zur Charakterisierung von Rechtfertigungsstrukturen unserer<br />
Meinungssysteme zu sein, aber auch für seine Explikation ist man darauf<br />
angewiesen, genauer zu bestimmen, welche inferentiellen Verbindungen<br />
für Kohärenz verlangt werden. Meines Erachtens handelt es sich neben<br />
der Forderung nach Konsistenz hauptsächlich um Erklärungsbeziehungen.<br />
Das paßt gut zur fünften BonJourschen Forderung, die Erklärungsanomalien<br />
für eine Abnahme von Kohärenz verantwortlich macht — leider<br />
auch ohne diesen Begriff inhaltlich stärker zu füllen. Natürlich ist nicht<br />
jede Aussage, die von einer Theorie nicht erklärt wird, damit schon eine<br />
Anomalie für diese Theorie. In den Debatten um Kuhn wird dieser Begriff<br />
verwandt und mit einigen Beispielen belegt, aber der inhaltliche<br />
Aspekt, der Anomalien zu Anomalien macht, ist meines Wissens auch<br />
dort nicht festgemacht worden. Das ist eine der vielen Aufgaben, die<br />
eine Erklärungstheorie zu übernehmen hat und wird daher im wissenschaftstheoretischen<br />
Teil der Arbeit behandelt (s. IX.H.1)<br />
Mein Resümee zu BonJours Theorie lautet daher: Die Explikation<br />
der zentralen Begriffe wie „probabilistische Konsistenz“, „Anzahl und<br />
Stärke“ inferentieller Beziehungen, „Erklärung“, „Subsystem“ und „Erklärungsanomalie“<br />
läßt noch zu viele Wünsche offen — ja zeigt nicht<br />
einmal, in welcher Richtung wir nach Präzisierungen suchen sollen —,<br />
um sich mit der BonJourschen Theorie zufriedengeben zu können. Neben<br />
den Bedingungen zur logischen oder probabilistischen Konsistenz<br />
spricht BonJour zwar von inferentiellen Beziehungen, er kann aber nur<br />
einen Typ solcher Zusammenhänge konkret benennen, nämlich die Erklärungsbeziehungen,<br />
die ihrerseits nur unbefriedigend expliziert werden.<br />
Außerdem machen sie nach BonJours Ansicht auch nur einen nicht<br />
näher bestimmten Teil der inferentiellen Zusammenhänge aus. Seine<br />
Konzeption von Kohärenz bleibt damit an relevanten Stellen zu vage,<br />
um abschließend beurteilt werden zu können. Außerdem wirkt die Zusammenstellung<br />
der Bedingungen nicht immer systematisch, und es fehlen<br />
Hinweise auf ihren Zusammenhang.<br />
Neben seiner Kohärenzkonzeption und seiner Vorstellung von nichtlinearer<br />
Rechtfertigung fügt BonJour seiner Rechtfertigungstheorie noch<br />
zwei weitere Bestimmungsstücke hinzu, seine „Doxastic Presumption“<br />
(1985, 101ff) und seine „Observation Requirement“ (1985, 141ff). Die
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 219<br />
„Doxastic Presumption“ habe ich in (IV.B.4) bereits besprochen. Es ist<br />
eine Metaannahme BonJours über internalistische Rechtfertigungen, wonach<br />
Rechtfertigungen immer Rechtfertigungen unter der Voraussetzung<br />
sind, daß wir zumindest eine approximativ korrekte Vorstellung davon<br />
besitzen, welche Meinungen wir haben. BonJours „Observation Requirement“<br />
ist ebenfalls eine Metaforderung an Kohärenztheorien, mit der<br />
sich BonJour gegen den Vorwurf zur Wehr setzen möchte, daß in seiner<br />
Kohärenztheorie der Input, den unser Überzeugungssystem mittels<br />
Wahrnehmungen von außen erhält, nicht ausreichend berücksichtigt<br />
wird. Er formuliert diese Forderung:<br />
(OR) Observation Requirement:<br />
[…] in order for the beliefs of a cognitive system to be even candidates<br />
for empirical justification that system must contain laws attributing<br />
a high degree of reliability to a reasonable variety of cognitively<br />
spontaneous beliefs […]. (BonJour 1985, 141)<br />
BonJour verlangt mit (OR) nicht, jedes kohärente System müsse auf empirischen<br />
Input bedacht sein. Aber er hält es für eine geradezu analytische<br />
Forderung, daß ein System, in dem man von empirischer Rechtfertigung<br />
durch Kohärenz spricht, bestimmte Wahrnehmungen als Input auszeichnen<br />
muß. Er läßt dabei jedoch offen, was von einem solchen System<br />
jeweils als Input betrachtet wird. Darüber haben die entsprechenden<br />
Theorien des betreffenden Systems anhand von Kohärenzüberlegungen<br />
zu befinden. Er sieht es – im Unterschied zu den Empiristen – nicht<br />
als eine Aufgabe einer Theorie der Rechtfertigung an, ein für allemal<br />
festzulegen, was als vertrauenswürdiger Input zu gelten hat und was<br />
nicht. Das paßt auch besser zu unserer differenzierteren Konzeption von<br />
Wahrnehmungen, die in unterschiedlichem Ausmaß zuverlässig sind, und<br />
unserer empirischen Forschung, die ermittelt, wie zuverlässig welche Beobachtungen<br />
sind. Unter entsprechenden Umständen könnten es sogar<br />
religiöse Erleuchtungserlebnisse sein, die uns Input von der Welt vermitteln.<br />
Auch das wird von (OR) nicht a priori ausgeschlossen. (OR)<br />
scheint damit eine plausible Metaforderung für empirische Rechtfertigung<br />
zu sein, die keine zu starken inhaltlichen Forderungen in die Erkenntnistheorie<br />
hineinträgt. Trotzdem werde ich mich einer anderen<br />
Metaforderung zuwenden, die meines Erachtens noch kanonischer in<br />
eine Kohärenztheorie paßt (s. V.A.3).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 220<br />
3. Thagards Theorie der Erklärungskohärenz<br />
Thagards Kohärenzkonzeption der Rechtfertigung (z. B. in 1989 und in<br />
einer Weiterentwicklung 1992, Kap. 4) ist die von unseren Beispielen<br />
am weitesten ausgearbeitete und wurde bereits in zahlreichen Anwendungen<br />
erprobt. Er nimmt den Begriff der Erklärung als Grundbegriff<br />
und bestimmt, wie sich daraus ein zumindest komparativer Begriff von<br />
Erklärungskohärenz ergibt, wenn man die Erklärungsbeziehungen eines<br />
Aussagensystems als bekannt voraussetzt. Diese Voraussetzung ist in der<br />
Praxis nicht unbedingt problematisch, weil wir oft relativ klare Vorstellungen<br />
davon haben – zumindest in den wissenschaftlichen Beispielen,<br />
die Thagard vorwiegend untersucht –, wo Erklärungsbeziehungen vorliegen.<br />
Für eine metatheoretische Explikation von epistemischer Rechtfertigung<br />
bleibt hingegen der Wunsch bestehen, ebenfalls über eine präzise<br />
Theorie zu verfügen, was man unter Erklärung verstehen soll, zumal<br />
Thagard selbst auf die vielen konkurrierenden Ansätze in der Diskussion<br />
um wissenschaftliche Erklärungen hinweist.<br />
Man muß bei Thagard zwischen zwei Formen unterscheiden, in denen<br />
er seine Theorie präsentiert. Die eine ist seine Theorie der Erklärungskohärenz,<br />
die in einer Reihe von semiformalen Prinzipien erläutert,<br />
worin Erklärungskohärenz besteht. Die andere ist sein auf der Grundlage<br />
dieser Theorie entworfenes konnektionistisches Computerprogramm<br />
namens ECHO, das die Prinzipien seiner Theorie in ein Programm umsetzt,<br />
mit dem sich die Kohärenz von Aussagenmengen bestimmen läßt.<br />
Mit Hilfe dieses Programms war es Thagard möglich, seine Kohärenztheorie<br />
auf eine Reihe konkreter Beispiele anzuwenden, für die sich<br />
plausible Ergebnisse einstellten (s. Thagard 1992). Hauptsächlich analysierte<br />
er mit ECHO und einer Theorie begrifflicher Revolutionen historische<br />
Fälle von wissenschaftlichen Revolutionen sowie die Beweisführung<br />
in verschiedenen Mordprozessen (Thagard 1989, 450ff). In beiden Typen<br />
von Anwendungen geht es darum, daß konkurrierende Theorien oder<br />
Hypothesen anhand von entsprechenden Daten gegeneinander abzuwägen<br />
sind. Nach Thagard läßt sich dieser Vorgang als ein Vergleich der internen<br />
Kohärenz des Komplexes aus Daten und Theorien auf der<br />
Grundlage der vorliegenden Erklärungsbeziehungen verstehen. Aus der<br />
Sicht der naturalistischen Methodologie sind die vielen erfolgreichen<br />
Anwendungen von ECHO eine Stützung der Sichtweise, daß Erklärungskohärenz<br />
unser entscheidender Wahrheitsindikator ist. Ich möchte mich<br />
hier aber ganz auf die Diskussion von Thagards Theorie und nicht die<br />
seines Programms konzentrieren. Er schlägt in seiner Theorie sieben<br />
Prinzipien vor, die angeben, wie Kohärenz aus Erklärungsbeziehungen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 221<br />
entsteht. Die Prinzipien für Aussagen P, Q und ein Aussagensystem S lauten:<br />
Principle 1. Symmetry.<br />
(a) If P and Q cohere, then Q and P cohere.<br />
(b) If P and Q incohere, then Q and P incohere.<br />
Principle 2. Explanation.<br />
If P1…Pn explain Q, then:<br />
(a) For each Pi in P1…Pn, Pi and Q cohere.<br />
(b) For each Pi and Pj in P1…Pn, Pi and Pj cohere.<br />
(c) In (a) and (b) the degree of coherence is inversely proportional<br />
to the number of propositions P1…Pn.<br />
Principle 3. Analogy.<br />
If P1 explains Q1, P2 explains Q2, P1 is analogous to P2, and Q1 is<br />
analogous to Q2, then P1 and P2 cohere, and Q1 and Q2 cohere.<br />
Principle 4. Data Priority.<br />
Propositions that describe the results of observation have a degree of<br />
acceptability of their own.<br />
Principle 5. Contradiction.<br />
If P contradicts Q, then P and Q incohere.<br />
Principle 6. Competition.<br />
If P and Q both explain a proposition Pi, and if P and Q are not explanatory<br />
connected, then P and Q incohere. Here P and Q are explanatory<br />
connected if any of the following conditions holds:<br />
(a) P is part of the explanation of Q.<br />
(b) Q is part of the explanation of P.<br />
(c) P and Q are together part of the explanation of some<br />
propositions Pj.<br />
Principle 7. Acceptability.<br />
(a) The acceptability of a proposition P in a system S depends on its<br />
coherence with the propositions in S.<br />
(b) If many results of relevant experimental observations are unexplained,<br />
then the acceptability of a proposition P that explains only a<br />
few of them is reduced.<br />
(Thagard 1992, 66; Vorgängerversion 1989).<br />
Zunächst fällt auf, daß Kohärenz für Thagard eine Relation zwischen<br />
einzelnen Aussagen darstellt und nicht eine Eigenschaft des ganzen Sy-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 222<br />
stems von Aussagen. Die quantitative Umsetzung seiner Theorie im Programm<br />
ECHO zeigt aber, wie dabei durchaus holistische Phänomene<br />
auftreten und berücksichtigt werden können. Billigen wir ihm diese Beschränkung<br />
auf einzelne Propositionen also zunächst einmal zu. Das erste<br />
Prinzip der Symmetrie ist wohl als Bedeutungspostulat für den Kohärenzbegriff<br />
zu verstehen und in dieser Form kaum kontrovers. Sein Einsatz<br />
in einer Theorie der Rechtfertigung bringt im Rahmen der Gesamttheorie<br />
die bereits erwähnte Reziprozität von Rechtfertigungsbeziehungen<br />
zum Ausdruck. Auffallend ist nur, daß auch die Inkohärenz eigens<br />
erwähnt wird. Würde er Inkohärenz mit der Abwesenheit von Kohärenz<br />
identifizieren, genügte eigentlich schon Bedingung (1a), da (1b) keine<br />
besonders interessanten zusätzlichen Informationen böte. Inkohärenz ist<br />
also für Thagard vermutlich ein eigenständiges Konzept, auch wenn er<br />
das nicht sehr explizit ausdrückt. Dieser Aufteilung in Kohärenz und Inkohärenz<br />
schließe ich mich später an. Umgekehrt läßt sich das auch so<br />
ausdrücken: Kohärenz ist nicht gleich Abwesenheit von Inkohärenz.<br />
Hier schien gerade Lehrers Fehler zu liegen, denn es geht ihm nur um<br />
die Beseitigung der Inkohärenzen eines Systems.<br />
In (2a) bringt Thagard die schon in (IV.A) untersuchte Überzeugung<br />
zum Ausdruck, daß eine Erklärungsbeziehung eine Beziehung zwischen<br />
Explanandum und Explanans darstellt, die rechtfertigend wirkt. (2b) ist<br />
dagegen neu. Danach kohärieren zwei Propositionen, wenn sie gemeinsam<br />
zu einem Explanans gehören. Thagard nennt sie „Kohypothesen“.<br />
Das läßt sich z. B. als eine eingeschränkte Form einer Transitivitätsforderung<br />
für Kohärenz verstehen, denn Pi kohäriert mit Q und Q mit Pj und<br />
es wird verlangt, daß im Falle, wo die Kohärenz aus einer entsprechenden<br />
Erklärungsbeziehung resultiert, auch Pi mit Pj kohäriert.<br />
Zunächst ist zu bemerken, daß diese Bedingung nur sinnvoll sein<br />
kann, wenn es gelingt, überflüssige Elemente aus Erklärungen zu eliminieren,<br />
weil sonst folgender Fall auftreten könnte. Nehmen wir an, H<br />
erklärt E. Gilt dann automatisch auch, daß H&F mit beliebigem F E erklärt,<br />
wie das z. B. für das DN-Schema der Erklärung der Fall ist, so<br />
wird damit Kohärenz für nahezu beliebige Aussagen behauptet. Unter<br />
anderem an diesem Punkt zeigt sich eine Abhängigkeit der Thagardschen<br />
Kohärenztheorie von einer speziellen Erklärungskonzeption. In<br />
der Erklärungsdebatte hat es sich bekanntlich als ein ernstzunehmendes<br />
Problem erwiesen, irrelevante Bestandteile in Erklärungen als solche zu<br />
brandmarken.<br />
Thagard (1992, 67) beruft sich auf die tatsächlich gegebenen Erklärungen,<br />
in denen solche überflüssigen Bestandteile nicht vorkommen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 223<br />
sollen. Das ist aber ein Schachzug, der für uns nicht in gehaltvoller Weise<br />
erhellt, warum bestimmte Aussagen in Erklärungen überflüssig sind<br />
und somit nicht mit anderen Aussagen des Explanans kohärieren. Eine<br />
allgemeine Transitivitätsbedingung mit einer gewissen Abschwächung<br />
der Kohärenz scheint auf den ersten Blick nicht unplausibel, aber die Beziehung<br />
von Kohypothesen und ihre Auszeichnung vor anderen transitiven<br />
Kohärenzbeziehungen verlangt nach einer weitergehenden Begründung.<br />
Hierzu wäre die Angabe von Beispielen hilfreich, zumal diese<br />
nicht immer die Thagardsche Behauptung zu bestätigen scheinen. Die<br />
Newtonsche Mechanik erklärt zusammen mit gewissen Anfangswerten<br />
warum die Sonne heute dort steht, wo sie steht. Wird dadurch aber eine<br />
Kohärenzbeziehung zwischen Newtonscher Mechanik und den Anfangswerten<br />
sichtbar? Das ist nicht unmittelbar einleuchtend, besonders da es<br />
sich um Aussagen ganz verschiedener Bereiche handelt, und Thagards<br />
Hinweis (1992, 67) auf die Duhem/Quine These hilft an dieser Stelle<br />
auch nicht weiter. Man könnte eher vermuten, daß Kohypothesen wohl<br />
nicht inkohärent sind, aber sollte nicht mehr erwarten.<br />
Die Bedingung (2c) gibt ein Kriterium zur Beurteilung der Güte einer<br />
Erklärung von Q an. Die Idee dahinter ist, daß eine Erklärung, die<br />
viele Hilfshypothesen eventuell mit ad hoc Charakter benötigt, schlechter<br />
ist, als eine Erklärung, die mit weniger Zusatzannahmen auskommt.<br />
Das ist intuitiv nachvollziehbar, setzt jedoch voraus, daß es möglich ist,<br />
Hilfshypothesen in geeigneter Weise zu zählen, was sich bei Explikationsversuchen<br />
(s. IX.A) als problematisch erwies. Ich möchte eine weitergehende<br />
Diskussion dieser Forderung auf den Teil der Arbeit vertagen,<br />
der mit der Ausarbeitung einer Erklärungstheorie befaßt ist. Der dritte<br />
Punkt betrifft schließlich die analogen Erklärungen, die ebenfalls in der<br />
Ausarbeitung der Erklärungstheorie auf dem Programm stehen und bereits<br />
in Abschnitt (IV.A.6) angesprochen wurden. Im Rahmen einer Erklärungstheorie<br />
und einer formalen Analyse von Analogiebeziehungen<br />
werde ich mich später der Thagardschen Ansicht, daß auch sie kohärenzstiftend<br />
sind, anschließen.<br />
Prinzip (4) ist eine Umsetzung von BonJours Metaforderung (OR) (s.<br />
voriger Abschnitt) auf der Objektebene. Diese Forderung ist besonders<br />
in der Thagardschen Formulierung nicht unproblematisch, wie die Überlegungen<br />
zu BonJours „Observation Requirement“ schon nahelegen.<br />
BonJour hat sich in seiner Erkenntnistheorie mit gutem Grund nicht auf<br />
Aussagen einer bestimmten Art als Input, der epistemisch auszuzeichnen<br />
ist, festgelegt. Thagard tut das aber in (4), denn unter „observation“<br />
muß man hier das verstehen, was wir üblicherweise mit „Beobachtung“
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 224<br />
meinen, weil (4) in unserer Sprache – der Metasprache, in der wir über<br />
das in Rede stehende Meinungssystem sprechen – formuliert ist. Damit<br />
bleibt nicht mehr der Spielraum für eine Auszeichnung von Beobachtungen<br />
oder Input unterschiedlicher Art innerhalb des Überzeugungssystems<br />
wie das bei BonJour der Fall ist. Welche Theorie der Wahrnehmung am<br />
besten ist, ist aber eine Frage der jeweiligen Objekttheorien und nicht einer<br />
Metatheorie wie der Erkenntnistheorie. Wollte Thagard diesen inneren<br />
Spielraum des Objektsystems mit seiner Formulierung auch zugestehen,<br />
müßte „Beobachtung“ in (4) zumindest wie in dem jeweiligen Überzeugungssystem<br />
verstanden werden. Das wäre allerdings eine unschöne<br />
Vermengung der Objektebene des Systems mit der Metaebene von der<br />
aus das betreffende Überzeugungssystem beschrieben wird und sollte anders<br />
formuliert werden. Statt die Forderung (4) unter die Regeln des Systems<br />
aufzunehmen, sollte Thagard daher besser den Weg von BonJour<br />
beschreiten, eine entsprechende Metaregel anzufügen. Allerdings besagt<br />
Thagards 4. Prinzip nicht, daß nicht auch Beobachtungen als irrtümlich<br />
zurückgewiesen werden können. Seine Anwendungen seiner Theorie anhand<br />
von ECHO zeigen das ganz deutlich.<br />
Wie schon beim 2. Prinzip fällt also für sein 4. Prinzip wieder eine<br />
gewisse Inhomogenität – um nicht zu sagen Inkohärenz – des Regelsystems<br />
von Thagard auf. Im Hinblick auf sein Ziel, die Regeln in einem<br />
Programm zu implementieren, ist das verständlich, denn dafür benötigt<br />
er Regeln erster Stufe, die sich möglichst direkt in entsprechende Programmanweisungen<br />
umsetzen lassen. Aber für eine Explikation von Kohärenz<br />
und einer Kohärenztheorie der Rechtfertigung wäre eine systematischere<br />
Anordnung der Prinzipien, die ihren Status und Zusammenhang<br />
erkennbarer macht, wünschenswert gewesen.<br />
Im 5. Prinzip gibt Thagard Inkonsistenz, worunter auch analytische<br />
Inkonsistenz zu verstehen ist, als Grund für die Inkohärenz zwischen<br />
zwei Aussagen an. Diese Bedingung dürfen wir wieder als einen versteckten<br />
Hinweis betrachten, die Bedingungen für Kohärenz von denen<br />
für Inkohärenz abzutrennen. Inkohärenz wird nicht einfach als Abwesenheit<br />
oder Negation von Kohärenz betrachtet wird, sondern als Phänomen<br />
mit eigenen Aspekten (s. dazu IV.F). Außerdem wird spätestens<br />
an dieser Stelle sichtbar, daß Thagards Konzeption, Kohärenz und Inkohärenz<br />
nur in bezug auf zwei Aussagen statt auf ganze Systeme zu beziehen,<br />
unzureichend ist. Z. B. die drei Aussagen a, ab und ba sind<br />
paarweise logisch konsistent, aber als System inkonsistent, da sich offensichtlich<br />
die Kontradiktion aa daraus ableiten läßt. Dieser einfache
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 225<br />
Fall eines inkonsistenten Systems von Aussagen findet in der Regel (5)<br />
noch keine Berücksichtigung.<br />
In (6) behauptet Thagard, daß Aussagen aus konkurrierenden Erklärungen<br />
inkohärent sind, falls nicht besondere Bedingungen vorliegen.<br />
Sein Beispiel dafür sind zwei konkurrierende Erklärungen für das Aussterben<br />
der Dinosaurier. Die eine führt es auf eine Kollision der Erde<br />
mit einem Meteoriten zurück, während die andere ein Absinken des<br />
Meeresspiegels dafür verantwortlich macht. Aber selbst in Thagards Beispiel<br />
wird nicht deutlich, weshalb diese beiden Annahmen inkohärent<br />
sein sollen. Zunächst einmal gibt es die Möglichkeit, daß beide Effekte<br />
zusammen wirksam waren, die durch die Erklärungen jeweils nicht ausgeschlossen<br />
wird. Aber auch wenn nur eine Erklärung richtig ist, können<br />
doch beide erklärenden Hypothesen friedlich nebeneinander bestehen<br />
bleiben. Nur die Erklärungen selbst können in diesem Fall nicht gleichzeitig<br />
akzeptiert werden. Die Inkohärenz besteht dann zwischen den<br />
Aussagen:<br />
(1) „Die Kollision mit einem Meteoriten erklärt das Aussterben der<br />
Dinosaurier“ und<br />
(2) „Das Absinken des Meeresspiegels erklärt das Aussterben der<br />
Dinosaurier“.<br />
Doch damit ist noch nicht begründet, daß auch die Aussagen<br />
(a) „Die Erde ist mit einem Meteoriten zusammengestoßen.“ und<br />
(b) „Der Meeresspiegel ist abgesunken.“<br />
nicht zusammenpassen. Nehmen wir an, (1) sei richtig und (2) falsch<br />
und wir hätten auch gute Gründe für diese Ansicht. Dann ist damit lediglich<br />
ein Hinweis auf die Wahrheit von (b) weggefallen, der in einem<br />
Schluß auf die beste Erklärung des Dinosauriersterbens bestanden hätte.<br />
D.h. noch nicht, daß wir nun über positive Gründe gegen (b) verfügten.<br />
Für (b) könnten Gründe anderer Art sprechen, die von unserer Entscheidung<br />
für Erklärung (1) nicht berührt werden. Der Wegfall einer Bestätigung<br />
von (b) auf dem Wege über (2) ist aber bereits mit Thagards Prinzip<br />
2 erfaßt worden. 100 Thagards Prinzip (6) ist also in seiner gegenwärtigen<br />
Form nicht plausibel zu vertreten, zumal in dem untersuchten Ge-<br />
100 Ein anderer Punkt mit dem Thagard sich an dieser Stelle auseinanderzusetzen<br />
hätte, der nicht in offensichtlicher Weise durch seine Bedingungen (6a)<br />
oder (6b) abgedeckt ist, ist der der äquivalenten Beschreibungen oder Erklärungen,<br />
die in bestimmten Fällen sogar ein und dieselbe Theorie nur auf verschiedenen<br />
Ebenen liefern. Für Beispiele s. Bartelborth (1993a).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 226<br />
genbeispiel keine Anhaltspunkte dafür vorliegen, daß eine seiner Ausnahmebedingungen<br />
(6a)-(6c) erfüllt ist. Nebenbei beruht die Bedingung<br />
(6c) auf Bedingung (2b), die ich bereits kritisiert hatte.<br />
An diesem Punkt zeigt sich wiederum, daß es sinnvoll sein kann, Bedingungen<br />
für Kohärenz und solche für Inkohärenz getrennt zu betrachten.<br />
Die Aussagen (1) und (2) erscheinen inkohärent, aber für die Aussagen<br />
(a) und (b) gilt das nicht, denn alles was passiert ist, daß (b) Schwächung<br />
seiner kohärenten Einbindung in S erfährt. Das allein kann man<br />
wohl kaum als Inkohärenz bezeichnen. Auf die Trennung von Bedingungen<br />
für Kohärenz und Inkohärenz werde ich deshalb in (IV.F) erneut eingehen.<br />
Thagard hat natürlich Recht mit folgender Behauptung: Es dürfte<br />
kaum zu bestreiten sein, daß wirklich konkurrierende Erklärungen eine<br />
Inkohärenz für ein Überzeugungssystem mit sich bringen, doch es ist<br />
auch nicht einfach, solche echten Konkurrenzen von friedlich koexistierenden<br />
Erklärungen zu unterscheiden, und es ist nicht ersichtlich, daß<br />
die Bedingungen (6a) - (6c) diese Abgrenzung leisten können. Es kann<br />
verschiedene Erklärungen für ein Ereignis aus verschiedenen Perspektiven<br />
geben, die nicht gegeneinander ums Wahrsein antreten. Lehrer versucht<br />
gerade diesen epistemisch entscheidenden Punkt, wann eine Konkurrenz<br />
ums Wahrsein vorliegt, ins Zentrum seiner Explikation von „c<br />
competes with q“ für Aussagen c und q zu stellen, doch Thagard scheint<br />
dazu noch keinen Verbesserungsvorschlag anbieten zu können.<br />
Ein Autounfall kann etwa vom Verkehrspolizisten anhand einer Geschwindigkeitsübertretung,<br />
vom Psychologen anhand von Ermüdung des<br />
Fahrers, vom Automechaniker aufgrund der abgenutzten Bremsbeläge<br />
usw. erklärt werden, ohne daß eine dieser Erklärungen einer anderen ihr<br />
Wahrsein streitig machen müßte. Viele Faktoren sind vielleicht zusammengekommen<br />
und jede kausale Erklärung greift nur bestimmte Ursachen<br />
heraus. Oder wir werden mit genetischen und synchronischen Erklärungen<br />
konfrontiert, die auch beide zusammen wahr sein können.<br />
Wenn wir einen Pazifisten fragen, warum er sich weigert, in der Armee<br />
zu dienen, kann er auf der einen Seite erzählen, wie seine Eltern ihn dazu<br />
erzogen haben, bis er ein entsprechendes Verhalten internalisiert<br />
hatte, was dann ganz natürlich in seine Verweigerung mündete. Oder er<br />
kann seine Überzeugungen anführen, daß es unter allen Umständen unmoralisch<br />
ist, einen anderen Menschen zu töten und man als Soldat<br />
prinzipiell zum Töten bereit sein sollte, was ihn zur Verweigerung veranlaßt<br />
hat. Beide Erklärungen können zusammen richtig sein. Thagards<br />
Bedingung (6) schafft es nicht, auf informative Weise epistemische Kon-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 227<br />
kurrenz zu charakterisieren. Eine Erklärungstheorie hat genauer zu bestimmen,<br />
wann tatsächlich konkurrierende Erklärungen in einem engeren<br />
Sinn vorliegen, der auch epistemische Konkurrenz der verschiedener<br />
Erklärungen beinhaltet. Für eine realistische Auffassung der Welt gehört<br />
auf jeden Fall dazu, daß die unterschiedlichen Erklärungsmodelle zusammenpassen,<br />
d.h. sich in ein übergeordnetes Modell einbetten lassen (s.<br />
dazu Bartelborth 1994a).<br />
Überhaupt kann man Thagards Zusammenstellung von Prinzipien<br />
nicht als homogen bezeichnen. So mischt er z. B. in (2) Forderungen, die<br />
angeben, wie sich Kohärenz aus Erklärungsbeziehungen ergibt, mit solchen,<br />
die eigentlich die Güte der Erklärungen betreffen, unter demselben<br />
Prinzip. Außerdem wird durch das Fehlen von Kohärenz als einer<br />
genuinen Eigenschaft eines ganzen Systems von Aussagen Thagards Kohärenzkonzeption<br />
unvollständig.<br />
Thagards Prinzip (7) ist nicht eine weitere Charakterisierung von<br />
Kohärenz, sondern drückt den intendierten Zusammenhang zwischen<br />
Kohärenz und Rechtfertigung oder in seinen Worten die Akzeptabilität<br />
einer Aussage P relativ zu einem System von Aussagen S aus. In (7b)<br />
wird dabei noch einmal – und wie mir scheint etwas unmotiviert – die<br />
Bedeutung von Beobachtungsdaten hervorgehoben. Das ist eigentlich<br />
überflüssig, weil Beobachtungen schon im 4. Prinzip eine besondere Bedeutung<br />
für die Kohärenz verliehen wurde. Auch (7b) vermittelt daher<br />
eher den Eindruck eines gewissen Mangels an Geschlossenheit und Einheitlichkeit<br />
der angeführten Prinzipien. Trotzdem bleibt Thagards Vorschlag<br />
als die bisher am weitesten ausgearbeitete Explikation von Kohärenz<br />
ein wesentlicher Maßstab für folgende Kohärenztheorien, insbesondere<br />
für die hier vorgelegte, zumal auch in Thagards Vorschlag neben<br />
rein logischen Beziehungen gerade Erklärungsbeziehungen als konstitutiv<br />
für Kohärenz betrachtet werden. Ehe ich einen eigenen Explikationsvorschlag<br />
vorstellen werde, der auch in dieser Richtung geht, möchte<br />
ich vorweg noch einige Einwände gegen diese Konzeption von Kohärenz,<br />
die Erklärungen ganz ins Zentrum stellt, entkräften.<br />
E. Einwände gegen Kohärenz als Erklärungskohärenz<br />
Die Besprechung verschiedener Kohärenzkonzeptionen hat ergeben, daß<br />
BonJour im Unterschied zu Lehrer eine genuine Kohärenztheorie verfolgt,<br />
in der wesentlich ist, wie unsere Meinungen im Ganzen zusammenhängen.<br />
Als einzige inhaltlich bestimmte Beziehung neben der Kon-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 228<br />
sistenz, die eher den Rahmen absteckt, in dem wir nach Kohärenz suchen<br />
können, weiß er aber nur Bedingungen zu nennen (4 und 5), die<br />
sich auf Erklärungsbeziehungen in dem System beziehen. Trotzdem<br />
stimmt er Lehrer zu, daß Erklärungsbeziehungen nur einen Teil der kohärenzstiftenden<br />
inferentiellen Beziehungen ausmachen. Wie groß und<br />
bedeutsam dieser Anteil ist, wird leider nicht weiter untersucht. Harman<br />
(1986, 75) kommt dagegen zu dem Resümee, für Kohärenz sei Erklärungskohärenz<br />
eine wichtige Form von Kohärenz, vielleicht sogar die<br />
einzige, aber auch dort wird dieser Punkt nicht gründlicher diskutiert.<br />
Das soll an dieser Stelle nachgeholt werden. Zunächst möchte ich einigen<br />
„Argumenten“ nachgehen, die besagen, daß Kohärenz nicht im wesentlichen<br />
in Erklärungskohärenz besteht. Lehrer hat dazu drei Hauptargumente<br />
vorgetragen.<br />
1. „Erklärung“ ist kein epistemischer Begriff<br />
Lehrer übt in (1990b, 97ff) und (1974, 165ff) Kritik an der Hempelschen<br />
Erklärungstheorie, nach der wissenschaftliche Erklärungen deduktive<br />
Ableitungen des Explanandums (des zu Erklärenden) aus einem Gesetz<br />
und geeigneten Randbedingungen sind. Diese Kritik ist, wie wir im<br />
Erklärungsteil der Arbeit noch sehen werden, berechtigt. Seine Schlußfolgerung,<br />
die sich hauptsächlich auf ältere fragetheoretische Analysen<br />
zur Erklärung von Sylvain Bromberger (1965) stützt, daß wir zur Explikation<br />
von „Erklärung“ wesentlich auf epistemische Konzepte angewiesen<br />
sind, ist es aber nicht, was der letzte Teil der Arbeit ebenfalls demonstrieren<br />
wird. Hätte er mit seiner Vermutung recht, könnten allerdings<br />
Probleme entstehen, wenn man – wie ich es hier vorschlage – den Begriff<br />
der Rechtfertigung als grundlegenden Begriff der Erkenntnistheorie<br />
betrachtet und ihn anhand von Kohärenz expliziert, aber den Kohärenzbegriff<br />
seinerseits anhand von „Erklärung“ genauer zu bestimmen sucht.<br />
Es wäre nicht besonders hilfreich, den Erklärungsbegriff selbst wieder<br />
mittels epistemischer Begriffe wie „Rechtfertigung“ klären zu wollen, da<br />
sonst ein Zirkel der Explikationen entstünde. Man könnte in diesem Fall<br />
sogar daran denken, ihn als nicht weiter erklärbaren Grundbegriff einzuführen,<br />
wie es Lehrer (1990b, 98) oder Thagard vorschlagen.<br />
Träfe Lehrers Schlußfolgerung für Erklärungen zu, erschiene dieser<br />
Gedanke plausibel, wäre aber auch keineswegs selbstverständlich. Häufig<br />
genug ist das Ziel philosophischer Bemühungen die Aufklärung<br />
wechselseitiger Beziehungen zwischen verschiedenen Konzepten. Eine<br />
Explikation, die komplexe analytische Verbindungen zwischen den Be-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 229<br />
griffen „Rechtfertigung“, „Kohärenz“ und „Erklärung“ aufzeigt, ist daher<br />
nicht einfach als zirkulär in einem fatalen Sinn einzustufen, sondern<br />
höchstens nicht so informativ, wie man es sich erhofft hat. Auch hier<br />
sucht man eher nach einer naturalistischen Reduktion, die diese Begriffe<br />
auf nicht-normative „unproblematische“ Konzepte zurückführt. Obwohl<br />
der von Lehrer angedeutete Zirkel also nicht so folgenschwer wäre, wie<br />
Lehrer annimmt, werde auch ich versuchen, eine informativere Konzeption<br />
von Erklärung vorzuschlagen, nach der die Güte von Erklärungen<br />
nicht selbst wieder anhand epistemischer Begriffe bestimmt wird. Dazu<br />
gibt es eine Reihe neuerer und ermutigender Vorschläge, so daß der Pessimismus<br />
Lehrers in diesem Punkt wenigstens voreilig ist.<br />
2. Sind Erklärungen interessenrelativ?<br />
Erklärungen spielen nicht nur in Kohärenztheorien der Erkenntnis eine<br />
wichtige Rolle, sondern auch in fundamentalistischen Theorien. Fundamentalisten<br />
sind wie Kohärenztheoretiker auf Schlußverfahren wie den<br />
Schluß auf die beste Erklärung angewiesen, wenn sie beschreiben wollen,<br />
wie sich unsere Theorien über die Welt anhand unserer basalen<br />
Überzeugungen begründen lassen. Im Falle Mosers (s. III.B.5.b) sind sogar<br />
die basalen Überzeugungen durch einen derartigen Schluß auf die<br />
beste Erklärung zu begründen. Daher sind die Fragen, was eine Erklärung<br />
ist und was eine bessere Erklärung vor einer schlechteren auszeichnet,<br />
von generellerer erkenntnistheoretischer Bedeutung als nur zu bestimmen,<br />
was unter Kohärenz zu verstehen ist. 101 Ein allgemeines Argument<br />
von Williams zur epistemischen Rolle, die Erklärungen übernehmen<br />
können, richtet sich dann auch gegen alle nicht kontextualistischen<br />
(objektiven) Vorstellungen von epistemischer Rechtfertigung.<br />
Williams (1991, 279ff) gesteht der Erklärungskohärenz zwar ebenfalls<br />
große Bedeutung für die Rechtfertigung zu, aber er glaubt, sie<br />
könne sie nur in einer kontextualistischen Theorie der Rechtfertigung<br />
übernehmen, weil Erklärungen niemals Erklärungen per se, sondern nur<br />
Erklärungen in einem bestimmten Kontext sind. Das ist eine weitere<br />
wichtige Stelle, an der die Erkenntnistheorie eine grundlegende Abhängigkeit<br />
von unserer Erklärungstheorie aufweist. Ausgangspunkt der Williamschen<br />
Überlegung ist – wie schon für Lehrers Zirkelvorwurf im letzten<br />
Abschnitt – eine Kritik am Hempelschen Erklärungsparadigma. Sie<br />
zum Angriffsobjekt zu ernennen, erscheint gerechtfertigt, berufen sich<br />
101 In der wissenschaftsphilosophischen Erklärungsdebatte wird dieser<br />
Punkt wieder zur Sprache kommen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 230<br />
doch Kohärenztheoretiker wie BonJour ganz unverblümt auf das DN-<br />
Schema. Williams gibt ein Beispiel vom Putnamschen Typ für seine Ansicht<br />
an, daß Erklärungen interessenrelativ sind:<br />
I am in my office at exactly two o’clock one afternoon. This can be<br />
deduced from the fact that I was here a fraction of an instant before<br />
together with the impossibility of my exceeding the speed of light.<br />
But does this deduction explain my presence in my office? We are inclined<br />
to say not, because it is hard to see how the deduction could<br />
respond to any question anyone would normally ask. But strictly<br />
speaking, the question has no answer when put so baldly. Whether a<br />
deduction gives an explanation depends on our interests and background<br />
knowledge: it depends on what we don’t know already and<br />
what, in particular, we want to know about the fact in question. An<br />
explanation is a response to a definite „why question.“ These contextual<br />
considerations are not just pragmatic extras. Take them away<br />
and there is no fact of the matter as to whether one proposition explains<br />
another. (Williams 1991, 281)<br />
Für Williams bestehen Erklärungsbeziehungen immer nur relativ auf ein<br />
Hintergrundwissen und bestimmte Interessen, die mit einer Warum-Frage<br />
verknüpft sind. Die Relativierung auf ein bestimmtes Hintergrundwissen<br />
ist zunächst kein Problem, denn auch Rechtfertigungen haben immer<br />
nur Bestand relativ zu dem Hintergrundwissen des epistemischen<br />
Subjekts. Problematischer wäre schon eine vollständige Relativierung auf<br />
bestimmte Interessen, die mit einer Warum Frage verbunden sind. Hätte<br />
Williams in diesem Punkte Recht, ließe sich die Erklärungskohärenz eines<br />
Überzeugungssystems nicht als ein gegebener Wert betrachten, sondern<br />
wäre stark davon abhängig, welche Interessen man in einer bestimmten<br />
Situation hat. Damit hätte Williams zugleich recht, daß auch<br />
Rechtfertigungen wesentlich von den kontextuellen, pragmatischen Bedingungen<br />
abhingen, in deren Kontext sie gegeben würden. Einen derartigen<br />
Relativismus möchte ich nicht ohne Not akzeptieren und im letzten<br />
Teil der Arbeit werde ich daher eine Theorie der Erklärung ausarbeiten,<br />
nach der Erklärungen nicht in diesem Sinn wesentlich interessenrelativ<br />
sind.<br />
Dazu werden wir später sehen, daß für die Frage, nach welchen Erklärungen<br />
jemand sucht und welche Erklärungen ihn zufriedenstellen,<br />
natürlich die Frage, woran er Interesse hat und welches Hintergrundwissen<br />
er hat, einschlägig sind. Damit ist aber noch keineswegs gezeigt, daß<br />
Erklärungen wesentlich interessenrelativ in einem interessanten Sinn des
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 231<br />
Wortes sind, obwohl diese Annahme inzwischen weit verbreitet ist. Eine<br />
Überlegung sei dazu vorweggenommen. Logische Beziehungen sind sicher<br />
das Paradigma für Zusammenhänge, die nicht in einem wesentlichen<br />
Sinn von pragmatischen Faktoren abhängig sind. Wenn p aus q logisch<br />
folgt, so gilt das unabhängig davon, in welcher Situation ich mich<br />
gerade befinde, oder wen ich gerade auf diesen Zusammenhang aufmerksam<br />
machen möchte. Trotzdem bleibt natürlich die Frage, welche<br />
logischen Schlüsse ich aus meinen Überzeugungen ziehe, von meiner Situation<br />
und meinen jeweiligen Interessen abhängig. So könnte mich der<br />
Beweis des Gödelschen Satzes kalt lassen, weil ich zur Zeit an anderen<br />
Dingen interessiert bin. Das beeinträchtigt jedoch nicht seine Gültigkeit.<br />
Oder jemand beweist mir, daß sich aus meinen Überzeugungen zwingend<br />
ergibt, daß 2+2=4 gilt. Natürlich antworte ich ihm: Das ist für<br />
mich uninteressant, denn das weiß ich schon. Doch wann ein Schluß<br />
eine Deduktion ist, hängt trotz der beschriebenen Phänomene nicht von<br />
den Interessen irgendwelcher Personen ab. Es ist in diesem Sinn nicht<br />
subjektiv.<br />
Ähnlich sieht das für Erklärungen aus. Es gibt einen objektiven harten<br />
Kern der Erklärungsbeziehung, dessen Bestehen unabhängig von unseren<br />
Interessen bleibt. Im Unterschied zu logischen Schlüssen kommt<br />
hier allerdings zunächst noch hinzu, daß es mehr oder weniger gute Erklärungen<br />
gibt, aber darüber hinaus gibt es, wie für Deduktionen, das<br />
Phänomen, das uns manche Erklärungen schlicht nicht interessieren.<br />
Wenn der Pfarrer den Bankräuber fragt, warum er Banken ausraube –<br />
dies ist ein anderes Beispiel Putnams –, und jener antwortet, weil dort<br />
das meiste Geld sei, so könnte der Pfarrer ihm erwidern: „Damit hast<br />
Du nicht meine Frage beantwortet, sondern eher die eines Deiner Kollegen.<br />
Ich wollte dagegen wissen, warum Du nicht ein gottesfürchtiges Leben<br />
geführt hast.“ Der Bankräuber lenkte vom Thema ab. Er hätte genauso<br />
gut – wenn auch mit weniger Witz – erklären können, warum die<br />
Rotverschiebung vorliegt. In beiden Fällen hat er nicht auf die Frage des<br />
Pfarrers geantwortet und die produzierten Erklärungen mögen zwar<br />
gute Erklärungen auf andere Fragen sein, aber sie interessieren den Pfarrer<br />
eben nicht. Dabei ist wieder nicht die Erklärungsgüte oder das Bestehen<br />
einer Erklärungsbeziehung von unseren Interessen abhängig, sondern<br />
nur, nach welchen Erklärungen ich gerade suche, ist interessenabhängig.<br />
Der Bankräuber tut so, als ob er die Frage des Pfarrers nicht verstanden<br />
hätte und antwortet auf eine andere Frage, obwohl sich die Art<br />
der Frage, aus dem Kontext und den offensichtlichen Interessen des<br />
Pfarrers unschwer ermitteln ließ. Natürlich ist eine Antwort auf eine an-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 232<br />
dere Frage als die gestellte unbefriedigend, aber das hat nichts mit einer<br />
angeblichen Interessenrelativität der Erklärungsbeziehung zu tun (Genaueres<br />
s. VIII.C.1).<br />
3. Der Trivialitätsvorwurf<br />
Ein anderes Problem, das Lehrer für die Erklärungskohärenz sieht, ist<br />
das der trivialen Immunisierung (1990b, 98f). Wenn wir erst einmal<br />
über eine Theorie und einige Daten verfügen, die zusammen ein erklärungskohärentes<br />
System bilden, können wir es immer auf einfache Weise<br />
dadurch erklärungskohärent behalten, daß wir neue auftauchende Daten,<br />
also spontane Meinungen, die Beobachtungen wiedergeben, schlicht<br />
als falsch zurückweisen.<br />
Obwohl Lehrer dieses Argument speziell gegen die Konzeption von<br />
Kohärenz als Erklärungskohärenz wendet, möchte ich zunächst erwähnen,<br />
daß es sich in analoger Form selbstverständlich auch gegen andere<br />
Kohärenzkonzeptionen wenden läßt. Auch ihnen ließe sich vorwerfen,<br />
sie seien zu konservativ und in ihnen könnte man auf einfache Weise Kohärenz<br />
beibehalten, indem man widerspenstige Aussagen, welcher Art<br />
auch immer, schlicht aufgibt. Sie könnten sich doch einfach mit einer<br />
schön zurechtgelegten Geschichte begnügen und alle anderen Meinungen<br />
einfach abweisen. Mit diesem Vorwurf hätte sich dann natürlich<br />
auch Lehrer in seiner eigenen Kohärenzkonzeption auseinanderzusetzen.<br />
Das Argument gehört daher genaugenommen nicht an diese Stelle, weil<br />
es sich nicht speziell gegen Kohärenz als Erklärungskohärenz richtet,<br />
sondern generell gegen Kohärenztheorien. Trotzdem möchte ich mich<br />
schon hier damit beschäftigen, weil Lehrer es vor allem als einen Einwand<br />
gegen Erklärungskohärenz formuliert. Dieser Einwand erscheint<br />
mir weiterhin besonders interessant zu sein, weil er ein viel zu eingeschränktes<br />
Verständnis davon offenbart, was Kohärenz eines Überzeugungssystems<br />
bedeutet. Antworten auf diesen Einwand können daher als<br />
sinnvolle zusätzliche Erläuterungen des Kohärenzbegriffs und seiner Anwendung<br />
verstanden werden.<br />
Der Kohärenztheoretiker kann auf zwei Punkte hinweisen. Der erste,<br />
den Lehrer für seine eigene Kohärenztheorie nicht genügend beachtet,<br />
bezieht sich auf die Gesamtkohärenz eines Überzeugungssystems. Es<br />
mag zwar sein, daß sich auf die beschriebene triviale Weise ein kohärentes<br />
System von Meinungen aufrechterhalten läßt, aber das zeigt noch<br />
nicht, daß die Kohärenzkonzeption nicht Änderungen in unserem Überzeugungssystem<br />
gebietet. Es könnte nämlich sein, daß es eine alternative
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 233<br />
Theorie zu unserer Theorie gibt, die dieselben Beobachtungen und auch<br />
noch die neuen widerspenstigen Beobachtungen besser erklärt als die alte.<br />
Diese neue Theorie würde damit zu größerer Gesamtkohärenz führen,<br />
die wesentlich für Rechtfertigungen ist, und daher in einer genuinen Kohärenztheorie<br />
besser gerechtfertigt sein als die alte. Wir müßten in diesem<br />
Fall die alte Theorie zugunsten der neuen verwerfen. Der Trivialitätseinwand<br />
läßt sich daher nicht in seiner bisherigen Form aufrechterhalten.<br />
Allerdings könnte das eben beschriebene Verfahren immer noch zu<br />
konservativ sein. Wenn wir solange Beobachtungen einfach verwerfen<br />
dürften, bis wir eine neue Theorie gefunden hätten, die sie auch zu erklären<br />
gestattet, müßten wir unsere Rechtfertigungspraxis wohl merklich<br />
umstellen. Kohärenz und insbesondere Erklärungskohärenz bezieht<br />
sich aber nicht nur auf die einfachen Verhältnisse zwischen Daten und<br />
Theorien, sondern bezieht sich auf eine Reihe anderer Überzeugungen<br />
und Metaüberzeugungen (s. II.C.5.b) die gegen das triviale Verfahren<br />
sprechen. Da sind vor allem die epistemischen Metaüberzeugungen zu<br />
nennen, die einen recht zentralen Status in unseren Überzeugungssystemen<br />
einnehmen, die die spontan auftauchenden Beobachtungsaussagen<br />
als überwiegend verläßlichen Input in unser Überzeugungssystem einstufen.<br />
Viele epistemische Subjekte werden sogar sagen, daß sie die einzig<br />
gehaltvolle Informationsquelle über die Welt sind. Beobachtungsüberzeugungen<br />
zurückzuweisen steht daher im Widerspruch zu diesen Metaüberzeugungen<br />
und bedarf spezieller Erklärungen, die uns sagen, warum<br />
wir in bestimmten Fällen unseren Wahrnehmungen nicht vertrauen<br />
sollten. Das wird in diesen Ausnahmefällen durch viele Theorien über<br />
unseren Wahrnehmungsapparat und unsere kausale Stellung in der Welt<br />
gedeckt. Erst wenn wir all diese Theorien aufgeben könnten und zu völlig<br />
anderen Ansichten über unsere Stellung in der Welt und die Entstehung<br />
der laufend auftretenden Wahrnehmungsüberzeugungen kämen,<br />
ließe sich das genannte Immunisierungsverfahren anwenden. Dabei<br />
müßten wir aber an ausgesprochen seltsame Personen denken, damit<br />
sich interne Kohärenz einstellte.<br />
Neben dem Superempiristen könnte man sich vielleicht eine vollkommen<br />
autistische Person vorstellen, die sich von ihrer Umwelt völlig<br />
abgewandt hat und möglicherweise auf diese Weise sehr seltsame Auffassungen<br />
von ihrer Stellung in der Welt entwickelt hat. Nur sie könnte ein<br />
solch schlichtes Immunisierungsverfahren einsetzen. Sie könnte gegebenenfalls<br />
den Standpunkt des Solipsismus vertreten und jede Außenwelt<br />
leugnen. Wenn es für sie aber überhaupt noch einen sinnlichen Kontakt
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 234<br />
zur Außenwelt gibt, treten weiterhin spontane Meinungen über Gegenstände<br />
in ihr auf, die die interne Kohärenz ihrer Meinungen gefährden.<br />
Hat sie allerdings einen solchen Kontakt nicht mehr, kann Kohärenz tatsächlich<br />
kein Wegweiser auf dem Weg zur Wahrheit mehr sein. Doch<br />
wer mit solch katastrophalen Startbedingungen anfängt, hat auch mit<br />
anderen Erkenntnistheorien keine Chance zu begründeten empirischen<br />
Erkenntnissen zu gelangen. Auf derartige Fälle komme ich bei der Besprechung<br />
der skeptischen Hypothesen wieder zurück. Komplette Abschottungen<br />
in unserem kausalen Kontakt zur Welt bei einer kohärenten<br />
Innenperspektive können wir mit Hilfe einer Kohärenztheorie der Erkenntnis<br />
also tatsächlich nicht aufdecken, ebensowenig wie uns andere<br />
(internalistische) Erkenntnistheorien dagegen versichern können. Mit<br />
derartig radikalen skeptischen Möglichkeiten kann man sich nicht auf<br />
dieser Ebene auseinandersetzen (s. dazu VI. B).<br />
Es bleibt jedoch noch ein Aspekt des Lehrerschen Einwands zu besprechen.<br />
Die Kohärenztheorie funktioniert am plausibelsten für vollentwickelte,<br />
normale und komplexe Überzeugungssysteme. Was bisher noch<br />
nicht angesprochen wurde, ist, ob sie auch deren Entstehung erklären<br />
kann oder wenigstens damit verträglich ist. Diese Frage geht sicher über<br />
das hinaus, was eine Erkenntnistheorie leisten muß, spielt aber dafür,<br />
wie kohärent sie sich in unsere metatheoretischen Modelle vom Erkenntniserwerb<br />
einpassen läßt, eine Rolle. Einige Bemerkungen möchte<br />
ich immerhin dazu machen. Natürlich geht es nicht in erster Linie darum,<br />
eine empirische Theorie vorzuschlagen, wie der Ausbau eines Überzeugungssystems<br />
beim Menschen tatsächlich vonstatten geht, sondern<br />
eher darum, ein Modell anzugeben, wie ein solcher Aufbau mit Hilfe<br />
von Kohärenz überhaupt denkbar ist.<br />
Das könnte ganz grob so aussehen: Wenn wir eine rudimentäre Sprache<br />
erlernt haben, haben wir auch Beobachtungsüberzeugungen, die<br />
spontan in uns entstehen. Dazu entwickeln wir, zu Beginn sicher sehr<br />
implizit, – vielleicht als eine Form von eingebautem Induktionsschluß –<br />
einige allgemeinere Hypothesen, die damit die Kohärenz erhöhen. Unsere<br />
Theorien über die Welt werden dann langsam komplexer und die Datenmenge<br />
nimmt gleichzeitig zu. Thagard versucht in (1992, Kap. 10) einige<br />
Hinweise zu geben, daß für die begriffliche Entwicklung des Kindes<br />
in einigen Punkten ähnliche Mechanismen der Kohärenzkonstitution am<br />
Werke sind wie für die von Wissenschaftlern, die er genauer studiert hat.<br />
Dazu bespricht er eine ganze Reihe neuerer Arbeiten aus der Entwicklungspsychologie,<br />
die ermutigende Ansätze in dieser Richtung zu bieten<br />
haben. Diese Ansätze in der Entwicklungspsychologie sollen nur ver-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 235<br />
deutlichen, daß es für Kohärenzkonzeptionen keineswegs unverständlich<br />
erscheinen muß, wie solche reichhaltigen Meinungssysteme überhaupt<br />
entstehen konnten. Wie die Entwicklungsgeschichten tatsächlich am besten<br />
zu charakterisieren sind, fällt allerdings in den Zuständigkeitsbereich<br />
der empirischen Psychologie.<br />
4. Rechtfertigungen ohne Erklärung<br />
Meine Vorstellung von Kohärenz schließt an die von Sellars und Harman<br />
an, die vermuten, daß Kohärenz ausschließlich in Erklärungsbeziehungen<br />
zu sehen ist. Dazu kommen für mich allerdings noch Forderungen<br />
nach logischer oder probabilistischer Konsistenz und entsprechenden<br />
inferentiellen Zusammenhängen hinzu. Gegen diese Konzeption<br />
sind die Einwände am schwerwiegendsten, die auf Fälle verweisen, in<br />
denen andere inferentielle Beziehungen Kohärenz stiften. Lehrer<br />
(1990b, 105f) diskutiert zwei Beispiele solcher Fälle.<br />
Beispiel 1: Eine Eule sitzt auf einem Flaggenmast und eine Maus vor<br />
mir am Boden. Wenn ich bestimmte Randbedingungen kenne, wie<br />
die Höhe des Mastes und seine Entfernung von der Maus, kann ich<br />
mit Hilfe des Satzes von Pythagoras und den Randbedingungen die<br />
Entfernung der Maus von der Eule als drei Meter betragend ableiten.<br />
Die Überzeugung, daß die Maus drei Meter von der Eule entfernt<br />
ist, ist damit zwar perfekt gerechtfertigt, aber es handelt sich<br />
dabei trotzdem nicht um eine Erklärungsbeziehung.<br />
Beispiel 2: Im zweiten Beispiel sieht David Hume eine männliche<br />
Leiche. Er kann dann schließen, daß dieser Mann geschlechtlich gezeugt<br />
wurde. Zu Humes Zeiten, wo es noch keine künstlich Befruchtung<br />
gab, war dieser Schluß sicher begründet. Auch hierbei handelt<br />
es sich nicht um eine Erklärungsbeziehung, denn die geschlechtliche<br />
Zeugung erklärt nicht, wieso der Mann tot auf der Straße liegt.<br />
Auch BonJour (1985, 100) schließt sich Lehrers Ansicht an, daß es weitere<br />
inferentielle Beziehungen neben Erklärungsbeziehungen geben<br />
müsse, die Kohärenz stiften und nennt zur Unterstützung dieser Ansicht<br />
Lehrers erstes Beispiel.<br />
Doch wie überzeugend sind diese Beispiele? Mit dem ersten Beispiel<br />
habe ich zunächst schon deshalb keine Probleme, weil es sich um einen<br />
logischen Schluß anhand von mathematischen Gesetzen handelt. Neben<br />
erklärenden Beziehungen hatte ich deduktive Zusammenhänge als einen<br />
grundlegenden Aspekt von Kohärenz akzeptiert und nur dafür plädiert,
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 236<br />
daß Kohärenz nicht ausschließlich in Konsistenz oder logischer Ableitbarkeit<br />
zu suchen ist. Für Kohärenz sind wir darüber hinaus auf Theorien<br />
angewiesen, die ihrerseits mit Hilfe von Abduktionen und Beobachtungen<br />
begründet werden müssen. Es handelt sich in diesem Beispiel um<br />
einen eher mathematisch zu nennenden Schluß, auch wenn Lehrer<br />
(1990b, 97) den Satz des Pythagoras kurzerhand zu einem empirischen<br />
Gesetz deklariert, und es ist eine grundsätzlichere Frage, ob man sagen<br />
sollte, daß auch mathematische Theorien erklären können. Diese Frage<br />
möchte ich später bejahen, aber an dieser Stelle noch verschieben, zumal<br />
das Beispiel kein Gegenbeispiel gegen meine Kohärenzkonzeption darstellt.<br />
Damit Lehrers Beispiel zur vorliegenden Frage also überhaupt etwas<br />
beisteuern kann, muß man den bei ihm eingesetzten Satz des Pythagoras<br />
im Rahmen einer Theorie der physikalischen Geometrie betrachten. In<br />
diesem Rahmen kann man ihn aber auch als Teil einer Erklärung dafür<br />
betrachten, warum der Abstand zwischen Maus und Eule gerade 3 Meter<br />
beträgt. Je nachdem in welchen größeren Zusammenhang die physikalische<br />
Geometrie gestellt wird, könnte die etwa folgendermaßen aussehen:<br />
In dem untersuchten System liegen keine sehr großen Massen<br />
vor, so daß wir von möglichen Abweichungen von einer euklidischen<br />
Geometrie absehen können. Damit gilt auch das Theorem des Pythagoras<br />
approximativ, so daß sich aus den anderen Abständen gerade der Abstand<br />
3 Meter für Katze und Eule ergibt. Wenn wir die Raumkrümmung<br />
oder die Behauptung, daß sie nicht vorliegt, als ein kausales Phänomen<br />
betrachten und nicht mehr nur als rein mathematischen Zusammenhang,<br />
erhalten wir also eine einfache Form von kausaler Erklärung, die die<br />
Randbedingungen mit dem gesuchten Abstand verknüpft. Für die empirische<br />
Theorie ist die Berufung auf den Satz des Pythagoras dann nur<br />
eine Abkürzung für die Aussage, daß keine (oder vernachlässigbar<br />
kleine) Raumkrümmung in diesem Raum-Zeit Gebiet vorliegt.<br />
Etwas spannender sind da schon Beispiele des zweiten Typs. Allerdings<br />
handelt es sich in einer normalen Ausgestaltung der Geschichte<br />
auch hierbei zunächst um eine einfache Konsistenzfrage. Hume hatte zu<br />
seiner Zeit sicher die allgemeine Überzeugung, daß alle Menschen irgendwann<br />
geschlechtlich gezeugt worden sind. Aus Konsistenzgründen<br />
muß er das dann auch von dem toten Menschen in der Straße annehmen.<br />
Daß diese Annahme sich auf eine empirische Hypothese gründet,<br />
was Lehrer (1990b, 105) überraschenderweise sehr betont, tut dem deduktiven<br />
Zusammenhang zwischen der allgemeineren Hypothese und<br />
ihrer Anwendung auf das spezielle Beispiel natürlich keinen Abbruch.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 237<br />
Komplikationen kommen erst ins Spiel, wenn wir die Situation in<br />
die heutige Zeit versetzen. Da wir heutzutage angesichts der Möglichkeit<br />
künstlicher Befruchtung nur noch behaupten würden, daß die allermeisten<br />
Menschen geschlechtlich gezeugt wurden, könnte man zwar immer<br />
noch mit guten Gründen darauf schließen, daß eine Leiche vermutlich<br />
irgendwann einmal geschlechtlich gezeugt wurde, aber das ist dann<br />
kein logischer Schluß mehr. Allerdings geht es hier immer noch um probabilistische<br />
Konsistenz, die ich ebenfalls als eine Erweiterung der Konsistenz<br />
auf den Fall statistischer Aussagen mit zulasse, und nur deshalb<br />
nicht genauer untersuche, weil ich mich hier nicht mit dem speziellen<br />
Problembereich der Wahrscheinlichkeitsaussagen beschäftigen möchte.<br />
Neben dieser Auskunft, daß die vermeintlichen Gegenbeispiele keine<br />
wirklichen Gegenbeispiele gegen eine Kohärenztheorie sind, für die Kohärenz<br />
durch logische Beziehungen und Erklärungsbeziehungen erzeugt<br />
wird, drängt sich die Frage auf, welchen Stellenwert in einem größeren<br />
Erklärungsrahmen die angesprochenen Schlüsse besitzen. Im Humeschen<br />
Fall ist die geschlechtliche Zeugung ein Ereignis einer langen Kausalkette<br />
von Ereignissen, die letztlich zu der Leiche auf der Straße geführt haben.<br />
Wir werden es normalerweise nicht als eine Ursache oder sogar Erklärung<br />
für die Leiche betrachten, weil in derartigen Fällen eine erklärungsheischende<br />
Warum-Frage meist eine Frage nach den Todesursachen<br />
sein dürfte. Unter geeigneten Rahmenbedingungen offenbart aber auch<br />
der Hinweis auf die geschlechtliche Zeugung einen gewissen Erklärungswert.<br />
Z. B. wenn künstlich gezeugte Menschen unsterblich wären, könnte<br />
der Schluß darauf, daß die Leiche geschlechtlich gezeugt wurde, ein<br />
Schluß auf einen Teil der besten Erklärung sein. Natürlich bliebe die geschlechtliche<br />
Zeugung immer nur eine partielle Erklärung für die Leiche,<br />
weil nur ein Teil der Ursache damit genannt würde. Trotzdem mag<br />
der Hinweis genügen, daß auch diese Beziehung einen gewissen Erklärungswert<br />
hat, wenn man entsprechende Fragestellungen vor sich hat.<br />
Das wird nur dadurch verborgen, daß wir die Annahme der geschlechtlichen<br />
Zeugung in unserem Hintergrundwissen als selbstverständlich voraussetzen.<br />
Das macht diese Schlüsse aber zugleich auch weniger spannend,<br />
denn sie ergeben sich deduktiv aus anderen Überzeugungen.<br />
Lehrer (1990b, 105f) deutet aber schon selbst einen weiteren Kommentar<br />
an, den ein Verteidiger einer Erklärungskohärenztheorie zu diesen<br />
Beispielen außerdem abgeben sollte. Auch wenn in diesen Beispielen<br />
keine direkten Erklärungszusammenhänge auftreten, sondern nur Konsistenzforderungen<br />
zum Tragen kommen, stehen bestimmte Erklärungsbeziehungen<br />
im Hintergrund, die die genannten Überzeugungen in einen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 238<br />
größeren Rahmen einbetten. Die allgemeinere Aussage, daß alle Menschen<br />
geschlechtlich gezeugt wurden, ist ein Bestandteil eines allgemeineren<br />
Erklärungszusammenhangs in den Überzeugungen, die wir bei<br />
Hume vermuten. Auf dieses Hintergrundwissen stützt sich Hume bei seiner<br />
Behauptung, daß die Leiche vor ihm früher einmal geschlechtlich gezeugt<br />
wurde. Da Hume Mary Shelleys Frankenstein noch nicht kennen<br />
konnte, konnte er sich vermutlich die Person, die tot vor ihm lag, nur als<br />
auf geschlechtlichem Wege gezeugt denken. Die geschlechtliche Zeugung<br />
ist daher ein wesentlicher Teil seiner einzigen Erklärung für die<br />
Existenz der Person, die wiederum Teil einer Erklärung dafür sein kann,<br />
daß die Leiche vor ihm liegt. Auch in diesem Beispiel liegen vielfältige<br />
Erklärungsbeziehungen zwischen dem Vorliegen der Leiche und der<br />
Zeugung der Person vor, die diese beide in eine längere Erklärungskette<br />
stellen. Die Annahme, daß der Mensch geschlechtlich gezeugt wurden,<br />
mag Hume dabei so selbstverständlich erschienen sein, daß er normalerweise<br />
über keine Begründung dafür nachgedacht haben dürfte. Aber stellen<br />
wir ihn fiktiv vor die Frage, wie er sie denn rechtfertigen könnte,<br />
sollte er meines Erachtens in der genannten Richtung antworten.<br />
Gegen die letzte Überlegung führt Lehrer (1990b, 106) seine „Anti-<br />
Erklärer“ ins Feld, die ein wenig meinen Superempiristen ähneln. Diese<br />
seltsame Gruppe von Menschen fragt aus religiösen Gründen nie danach,<br />
warum oder wie bestimmte Dinge sich ereignen. Lehrer beschreibt<br />
ihr Wirken wie folgt:<br />
Anti-explanationists ask not why or how things happen but are content<br />
to observe the way things happen and rely on such observations<br />
without seeking explanations. They pride themselves in their intellectual<br />
humility. Such people might arrive at the pythagorean theorem<br />
from observation. They may not inquire as to why it is true and<br />
they may not have deduced it from more general axioms. Nonetheless,<br />
they might be completely justified in accepting what they derive<br />
from it, for example, that the mouse is five feet from the owl,<br />
whether or not the theorem or the conclusion derived from it contributes<br />
to the explanatory coherence of some overall system of beliefs.<br />
(Lehrer 1990b, 106; kursiv von mir)<br />
Gerade Lehrers Behauptung, daß die Anti-Erklärer vollständig in ihrer<br />
Annahme, daß die Maus fünf Fuß von der Eule entfernt ist, gerechtfertigt<br />
sind, steht hier zur Diskussion. Daß Lehrer das voraussetzt, ist eine<br />
Form von „question begging“. Das Beispiel leidet in seiner Klarheit wiederum<br />
darunter, daß der Satz des Pythagoras für sich genommen nur ein
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 239<br />
mathematischer Satz ist, der natürlich nicht ohne weiteres auf Beziehungen<br />
in der physischen Welt angewandt werden darf. Verstehen wir ihn<br />
aber wieder als Bestandteil einer empirischen Theorie, erkennen wir<br />
bald, daß Lehrers Anti-Erklärer eben gerade über keine Begründung für<br />
ihre Annahme des Abstandes von Maus und Eule verfügen. Die Anti-Erklärer<br />
bemerkten nur, daß in einer Reihe von konkreten Einzelfällen bestimmte<br />
geometrische Zusammenhänge vorlagen. Wie sollen sie aber aus<br />
diesen Wahrnehmungen in der Vergangenheit für den jetzt vorliegenden<br />
Fall von Maus und Eule einen Gewinn ziehen, wenn sie nicht irgendeine<br />
allgemeine Annahme der Art machen, daß für alle Fälle eines bestimmten<br />
Typs entsprechende geometrische Verhältnisse vorliegen? Diese Annahme<br />
ist in ihrer Allgemeinheit aber wie jede andere empirische Theorie<br />
zu behandeln und zu rechtfertigen; etwa durch einen Induktionsschluß,<br />
der besagt, daß diese Annahme (auch in der empirischen Welt<br />
gelte überall die euklidische Geometrie) unsere beste Erklärung für die<br />
festgestellten Zusammenhänge darstellt. Wie Lehrer ohne solch allgemeinere<br />
Annahmen im Eule-Beispiel von vollständiger Rechtfertigung<br />
oder bei solchen allgemeinen Annahmen ohne einen Induktionsschluß<br />
von vollständig gerechtfertigt sprechen kann, bleibt unverständlich. Ich<br />
kann ihm darin nicht folgen. Die bloße Beobachtung und Nachmessung<br />
von Abständen in bestimmten Einzelfällen sagt ohne verallgemeinernde<br />
Annahmen nichts über andere Fälle aus, die noch nicht untersucht wurden.<br />
Für eine Begründung der speziellen Eule-Maus Entfernung sind die<br />
Anti-Erklärer also auch auf allgemeinere Theorien und deren Rechtfertigung<br />
angewiesen.<br />
Lehrers Beispiele sind daher keine überzeugenden Gegenbeispiele<br />
gegen die hier entwickelte Kohärenzkonzeption, die Konsistenz als einen<br />
logischen Rahmen beinhaltet und wesentlich Erklärungsbeziehungen für<br />
Kohärenz verantwortlich macht. Gerade die spannenderen Induktionsschlüsse<br />
stützen sich meist auf Erklärungsbeziehungen. Nur das wird die<br />
Botschaft sein. Trotzdem können all diese Überlegungen natürlich nicht<br />
völlig ausschließen, daß wir auf inferentielle Zusammenhänge in unserem<br />
Wissen stoßen, die weder deduktiver Art noch erklärend sind. Auch<br />
sie würden allerdings im Normalfall die vorliegende Kohärenzkonzeption<br />
nicht gefährden, sondern könnten als sinnvolle Ergänzungen der vorliegenden<br />
Konzeption betrachtet werden; denn die Annahme, daß weiterhin<br />
Erklärungsbeziehungen für Kohärenz in unserem Meinungssystem<br />
wesentlich bleiben, ist durch die vorangehenden Überlegungen schon<br />
hinreichend demonstriert worden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 240<br />
F. Eine diachronische Theorie der Erklärungskohärenz<br />
In der Tradition von Sellars (1963, Kap. 11 Abschn. 85) und Harman<br />
(1986) scheint mir die Kohärenz eines Überzeugungssystems im wesentlichen<br />
in seinen Erklärungsbeziehungen zu bestehen, was in den vorangegangenen<br />
Abschnitten begründet wurde. Mein eigener Vorschlag für<br />
eine Kohärenztheorie der Rechtfertigung knüpft an die Diskussion positiver<br />
wie negativer Art der Vorschläge von Lehrer, BonJour und Thagard<br />
an, und soll ein Verbesserungsvorschlag sein. Insbesondere möchte ich<br />
die verschiedenen Aspekte von Kohärenz in systematischer Weise auseinanderhalten.<br />
Zu diesem Zweck unterscheide ich zwischen relationaler<br />
und systematischer Kohärenz und denke auch, daß es sich lohnt, einen<br />
eigenständigen Begriff von Inkohärenz zu präzisieren. Die leitende Idee<br />
der Explikation von Kohärenz ist die von BonJour genannte, daß ein System<br />
von Meinungen um so kohärenter ist, um so größer seine Vernetzung<br />
ist. Zunehmende Vernetzung wird durch mehr, aber auch durch<br />
bessere Verbindungen zwischen den Meinungen eines Netzes bewirkt.<br />
Sie ist zum einen durch logische Beziehungen gegeben und zum anderen<br />
durch Erklärungsbeziehungen. 102 Erklärungsbeziehungen können dabei,<br />
müssen aber nicht, ebenfalls logische Beziehungen einer bestimmten Art<br />
sein. Hier sind also Überschneidungen zugelassen, aber weder ist jede logische<br />
Ableitung eine Erklärung, noch ist jede Erklärung deduktiv. Tatsächlich<br />
bedeutsamer und interessanter scheinen mir die Erklärungsbeziehungen<br />
für die Vernetzung zu sein, da nur sie uns zu gehaltsvermehrenden<br />
Schritten befähigen, mit denen wir den bisherigen Kreis unserer<br />
Erkenntnis erweitern können. Für sie ist neben der Anzahl ihre Stärke<br />
wesentlich, denn die Bewertung wie gut Erklärungen sind, erlaubt graduelle<br />
Abstufungen. Wir können nun angeben, wie eine Aussage oder<br />
Meinung p für ein epistemisches Subjekt S zu einem bestimmten Zeitpunkt,<br />
wo S das Überzeugungssystem X hat, gerechtfertigt ist. Dabei bekommen<br />
alle Bedingugen noch einen Namen, um sie später besser in Erinnerung<br />
rufen zu können.<br />
102 Die Konzeption von Kohärenz als Vernetzung findet sich auch schon bei<br />
den idealistischen Kohärenztheoretikern, etwa bei Blanshard (1939, 264) oder<br />
bei Ewing (1934, 229f), die beide für eine kohärente Vernetzung fordern, daß<br />
sich jede Aussage des Systems aus dem Restsystem ableiten läßt. Rescher (1982,<br />
43f) hat die traditionellen Anforderungen an eine Kohärenztheorie in sechs Bedingungen<br />
zusammengestellt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 241<br />
Eine Kohärenztheorie der Rechtfertigung (KTR)<br />
(1) Rechtfertigung<br />
p ist für S in dem Maße gerechtfertigt,<br />
(a) wie sein Überzeugungssystem X kohärent ist<br />
[systematische Kohärenz]<br />
(b) wie p kohärent in X hineinpaßt [relationale Kohärenz]<br />
(c) wie p zur Kohärenz von X beiträgt [Kohärenzerhöhung]<br />
(d) wie p Inkohärenzen von X vermeiden hilft<br />
[Inkohärenzvermeidung]<br />
(2) Systematische Kohärenz<br />
X ist um so kohärenter,<br />
(a) je mehr inferentielle Beziehungen (logische und<br />
Erklärungsbeziehungen) die Propositionen in X vernetzen<br />
[Vernetzungsgrad]<br />
(b) je besser die Erklärungen sind, die X vernetzen<br />
[Erklärungsstärke]<br />
(c) je weniger Inkohärenzen in X vorliegen [Inkohärenzgrad]<br />
(d) je bewährter X ist [Stabilitätsbedingung]<br />
(3) Inkohärenz<br />
X ist um so inkohärenter,<br />
(a) je mehr Inkonsistenzen in X auftreten (auch probabilistische)<br />
[Inkonsistenzbedingung]<br />
(b) in je mehr Subsysteme X zerfällt, die untereinander relativ wenig<br />
vernetzt sind, [Subsystembedingung]<br />
(c) je mehr Erklärungsanomalien in X auftreten<br />
[Anomalienbedingung]<br />
(d) je mehr konkurrierende Erklärungen in X vorliegen<br />
[Konkurrenzbedingung]<br />
(4) Relationale Kohärenz<br />
p paßt um so kohärenter in das System X,<br />
(a) [Abduktionsbedingung]<br />
(i) je mehr Propositionen aus X p erklärt oder abzuleiten<br />
gestattet und<br />
(ii) um so besser es sie erklärt,<br />
(b) [Einbettungsbedingung]<br />
(i) je öfter p aus X abzuleiten ist und<br />
(ii) je öfter und besser p von den Propositionen aus X<br />
erklärt wird,
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 242<br />
Diese Explikation bedarf einiger Erläuterungen. Für den Normalfall gehe<br />
ich davon aus, daß p selbst ein Element von X ist, aber das ist nicht<br />
zwingend erforderlich. In (1) soll zum Ausdruck kommen, wie Rechtfertigungen<br />
durch Kohärenz bestimmt sind. Dabei werden die verschiedenen<br />
Aspekte von Kohärenz gesondert berücksichtigt. Als rechtfertigend<br />
für p soll das ganze Überzeugungssystem X angesehen werden. (Wem<br />
das Schwierigkeiten macht, weil p selbst ein Element von X ist, der kann<br />
sich an dieser Stelle auch Y = X\{p} denken). Da X zur Rechtfertigung<br />
von p herangezogen werden soll, wird in der Forderung (1a) nach systematischer<br />
Kohärenz verlangt, daß X selbst möglichst kohärent ist. Das<br />
entspricht dem globalen Aspekt von Kohärenz (s. IV.C) im Hinblick auf<br />
die Vorstellung, daß X selbst kohärent sein sollte, um p rechtfertigen zu<br />
können, weil X nur dann eine Verankerung der Rechtfertigung zu bieten<br />
hat, die weiteren Nachforschungen über den epistemischen Status der<br />
Prämissen standhält. Man könnte sagen, daß hier festgestellt wird, wie<br />
groß die gesamte rechtfertigende Kraft von X ist.<br />
Dagegen gibt (1b) an, inwieweit gerade p durch X gerechtfertigt ist.<br />
Das bemißt sich an der relationalen Kohärenz von p und X. Unter (1b)<br />
sind daher eher die lokalen Aspekte einer kohärenten Einbettung gemeint.<br />
(Auch hier mag es einfacher sein, sich die relationale Kohärenz<br />
als eine Beziehung zwischen p und Y vorzustellen.)<br />
Schließlich soll in (1c) thematisiert werden, welchen Beitrag p in X<br />
zur systematischen Kohärenz von X leistet, inwieweit es die systematischen<br />
Kohärenz von X wirklich vergrößert. Ein simples schematisches<br />
Beispiel kann verdeutlichen, daß dieser Punkt noch nicht durch die relationale<br />
Kohärenz von X und p abgedeckt ist. Es sei X gegeben durch die<br />
Aussagen p, q, r und s. Betrachten wir zwei Möglichkeiten von inferentiellen<br />
Zusammenhängen in X:<br />
a) Alle Aussagen in X sind mit allen anderen inferentiell verbunden.<br />
b) q, r und s sind untereinander isoliert, aber alle mit p inferentiell<br />
verbunden.<br />
Die relationale Kohärenz von p und X ist in beiden Fällen dieselbe,<br />
denn in beiden Fällen bestehen zwischen p und den anderen drei Aussagen<br />
dieselben inferentiellen Zusammenhänge. Aber der Beitrag, den p<br />
zur Gesamtkohärenz leistet, ist in (a) und (b) recht unterschiedlich. Im<br />
ersten Fall geht er über die relationale Kohärenz eigentlich nicht hinaus,<br />
denn die Aussagen von X sind bereits alle direkt untereinander verbunden.<br />
In (b) hingegen, stehen q, r und s ohne die Anwesenheit von p völlig<br />
isoliert da, während durch p immerhin zumindest indirekte Verbin-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 243<br />
dungen zwischen q, r und s geschaffen werden. X erhält in diesem Fall<br />
nur durch p einen Zusammenhalt in einer Netzstruktur.<br />
Im Beispiel (b) könnten q, r und s z. B. die Beobachtungsüberzeugungen<br />
eines Superempiristen sein, die isoliert nebeneinander stehen<br />
und durch eine Theorie p gemeinsam erklärt und damit auch in einen<br />
indirekten Zusammenhang gebracht werden. Oder q, r und s sind die<br />
Tatsachen aus der Erzählung von Conan Doyles „A Case of Identity“,<br />
die zunächst recht unzusammenhängend wirkten, während p gerade<br />
Sherlock Holmes erklärende Hypothese der Identität von Stiefvater und<br />
Bräutigam darstellt, die nun Verbindungen zwischen diesen Tatsachen<br />
schafft, wo vorher noch keine erkennbar waren. Wenn lebensechte Fälle<br />
auch häufig nicht so durchschaubare Beispiele bieten, dürfte doch klar<br />
geworden sein, daß die Einschätzung der Bedeutung von p für die systematische<br />
Kohärenz von X nicht allein von der relationalen Kohärenz abhängt,<br />
sondern ebenfalls von der speziellen Beschaffenheit von X. Im<br />
Falle (a) liegt bereits mit X\{p} ein hochkohärentes System Y vor, zu<br />
dem die indirekten Verbindungen, die p stiftet, nicht viel beizutragen haben,<br />
während in (b) X ohne p wenig kohärent ist und erst durch die indirekten<br />
Verbindungen, die p hineinträgt, ein gewisses Maß an systematischer<br />
Kohärenz in X entsteht.<br />
Ein anderes interessantes Beispiel, in dem die Beiträge zur relationalen<br />
und systematischen Kohärenz auseinanderklaffen, stellen ad hoc Hypothesen<br />
dar. Sie selbst besitzen, und das macht gerade ihren ad hoc<br />
Charakter aus, nur wenig relationale Kohärenz zu X. Aber sie können<br />
trotzdem die systematische Kohärenz von X entscheidend verbessern, indem<br />
sie als Brückenthesen zum Abbau von Inkohärenzen beitragen.<br />
Dazu ein konkreter Fall aus der Geschichte der Astronomie: Bei dem<br />
Vergleich der Bahn des Merkur mit den Berechnungen anhand der Newtonschen<br />
Gravitationstheorie bemerkte Leverrier 1845, daß der Perihel<br />
(dem sonnennächsten Punkt auf seiner elliptischen Bahn) des Merkur<br />
sich schneller bewegte, als es die gravitativen Einflüsse der anderen bekannten<br />
Planeten erwarten ließen. Damit entstand eine Inkohärenz zwischen<br />
Beobachtungen und der Newtonschen Theorie. Um Theorie und<br />
Beobachtung zu versöhnen, nahm Leverrier an, daß es einen kleineren<br />
Planeten, noch näher an der Sonne gab, der für diese Abweichung verantwortlich<br />
wäre, und taufte ihn Vulcanus, nach dem römischen Gott<br />
des Feuers. Die Annahme des Vulcanus konnte die entstandene Inkohärenz<br />
zunächst beseitigen und trug somit entscheidend zur systematischen<br />
Kohärenz des wissenschaftlichen Wissens der damaligen Zeit bei.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 244<br />
Allerdings war es um die relationale Kohärenz dieser Annahme nicht<br />
so gut bestellt. Der Planet war noch nicht beobachtet worden und neben<br />
der Bahnanomalie des Merkur gab es nur eine metatheoretische Analogie,<br />
die für ihn sprach, nämlich das entsprechende Vorgehen im Fall der<br />
Bahnabweichung des Uranus, wo die Astronomen – ebenfalls unter wesentlicher<br />
Mitarbeit von Leverrier – den später entdeckten Planeten<br />
Neptun vermuteten. Die Annahme des Vulcanus ist somit ein Beispiel,<br />
wie eine Aussage über ihre relationale Kohärenz hinaus, die in diesem<br />
Fall nicht sehr groß war, zur systematischen Kohärenz beitragen kann.<br />
Die epistemische Funktion von ad hoc Annahmen, wie sie in diesem Beispiel<br />
sichtbar wird, entspricht auch den Lakatosschen Überlegungen, die<br />
man als ein Plädoyer betrachten kann, ad hoc Annahmen in den Wissenschaften<br />
erkenntnistheoretisch ernster zu nehmen, als daß früher der<br />
Fall war. Das genannte Beispiel belegt, wie fruchtbar sie sein können.<br />
Wenn sich auch die Vulcanus Hypothese als falsch herausstellte, hat sich<br />
die entsprechende Neptun-Vermutung doch schon bald bewahrheitet.<br />
Die KTR gibt uns das geeignete Rüstzeug an die Hand, die epistemischen<br />
Vorzüge und Nachteile von ad hoc Hypothesen detaillierter zu beschreiben<br />
und in einen Zusammenhang zu anderen Begründungen von<br />
Aussagen zu stellen.<br />
Wie sich das Konzept der systematischen Kohärenz, auf das sich (1a)<br />
und (1c) beziehen, seinerseits explizieren läßt, wird in (2) vorgeführt.<br />
Die systematische Kohärenz hängt entscheidend vom Grad der Vernetzung<br />
im System X ab. Die Vernetzung wird durch inferentielle Beziehungen<br />
hergestellt, die in erster Linie in logischen und Erklärungsbeziehungen<br />
bestehen. Während die logischen Beziehungen keine Abstufungen<br />
zulassen, sind Erklärungsbeziehungen noch nach besseren und weniger<br />
starken Erklärungszusammenhängen zu unterscheiden. Zu der Forderung<br />
nach möglichst vielen inferentiellen Verbindungen in (2a) kommt<br />
daher die Forderung der Erklärungsstärke nach möglichst guten Erklärungen<br />
in (2b). Was dabei unter „besserer Erklärung“ zu verstehen ist,<br />
wird in der Erklärungsdebatte genauer bestimmt.<br />
In (2c) wird als eigenständiges Konzept, das der Inkohärenz genannt,<br />
auf das schon (1d) bezug nimmt. Das ist dadurch gerechtfertigt, daß es<br />
in (3) in sinnvoller Weise durch eigenständige Bedingungen definiert<br />
wird, nach denen ein nicht-kohärentes System X noch keineswegs inkohärent<br />
sein muß. Es könnte sich z. B. bei X um ein System von lauter<br />
isolierten Überzeugungen wie denen des Superempiristen handeln, dann<br />
wäre X zwar hochgradig nicht-kohärent, aber nicht unbedingt im selben
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 245<br />
Ausmaß inkohärent. Eine Eigenständigkeit von „Inkohärenz“ wird auch<br />
in ihrer Explikation unter (3) deutlich werden.<br />
Bisher kam die Stabilitätsbedingung (2d) noch nicht zur Sprache, die<br />
eher den dynamischen Aspekt von Rechtfertigungen und Wissen betrifft,<br />
statt die statischen, auf die ich mich in den anderen Bestimmungen bezogen<br />
habe. In (2d) wird von X verlangt, daß es über längere Zeit hinweg<br />
stabil kohärent geblieben ist, d.h., daß es in dieser Zeit trotz möglichst<br />
zahlreichen Inputs keine revolutionären Änderungen erfahren hat. Die<br />
Stabilität ist für uns ein wichtiges Indiz dafür, daß unsere Weltsicht zutreffend<br />
ist. Sie zeigt, daß unsere bisherigen Theorien sich auch bei auftretenden<br />
neuen Beobachtungen bewährt haben. Die Theorien sind<br />
keine ad-hoc-Justierungen, sondern fruchtbare Forschungsprogramme.<br />
Wann man dabei von konservativen Entwicklungen und wann von revolutionären<br />
Änderungen sprechen kann, läßt sich hier nicht en passant<br />
aufklären. Aber es gibt jedenfalls Lösungsvorschläge, die bereits auf zahlreiche<br />
Beispiele erfolgreich angewandt wurden und zudem in den Rahmen<br />
der Kohärenztheorie passen, wie der von Thagard (1992), der wissenschaftliche<br />
Revolutionen anhand ihrer begrifflichen Revolutionen zu<br />
identifizieren sucht. Vor allem Änderungen in den begrifflichen Hierarchien<br />
und Teil-Ganzes Beziehungen von Theorien sind für Thagard entscheidende<br />
Hinweise auf das Vorliegen begrifflicher Revolutionen.<br />
Zum zweiten Punkt der neuen Evidenzen möchte ich kurz ein Beispiel<br />
von Lipton (1991) aufgreifen und erweitern. Wenn wir über eine<br />
Karte für ein uns weitgehend unbekanntes Gelände verfügen und nicht<br />
wissen, ob sie dieses Gelände zutreffend darstellt oder nicht, so ist es sicherlich<br />
ein gutes Indiz für die Zuverlässigkeit der Karte, wenn wir sie an<br />
etlichen Stellen überprüft haben und sie dort jeweils stimmte. Das gilt<br />
um so mehr, wenn die Karte nicht speziell entworfen wurde, um gerade<br />
an diesen Stellen zu passen, sondern wenn sie auch für alle zufällig und<br />
eventuell unvorhersehbar herausgegriffenen Bereiche gilt. Ähnliches läßt<br />
sich für Theorien sagen. Sie werden besonders dadurch bestätigt, daß sie<br />
auch für solche Ereignisse eine gute Erklärung anbieten können, die bei<br />
ihrer Entwicklung noch nicht bekannt waren. Der Schluß auf die beste<br />
Erklärung – hier auf einer Metaebene eingesetzt – begründet, wieso<br />
neue Evidenzen erkenntnistheoretisch so besonders kostbar erscheinen.<br />
Kann eine Theorie nur die bereits bekannten Daten erklären, bleibt immer<br />
die Hypothese, daß sie gerade dafür notdürftig zurechtgeschneidert<br />
wurde, eine brauchbare metatheoretische Erklärung für dieses Faktum.<br />
Erklärt sie zunehmend aber auch neue bei ihrer Entstehung unbekannte<br />
Daten, verliert diese metatheoretische Hypothese an Gewicht, denn da-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 246<br />
für hat sie keine Erklärung mehr. Die bietet uns dann eher die metatheoretische<br />
Annahme die Theorie sei zumindest approximativ wahr. Das<br />
weist speziell die neuen Daten als triftige Tests für die Wahrheit einer<br />
Theorie aus.<br />
Die Stabilitätsbedingung wird im Zusammenhang des methodologischen<br />
Konservatismus (s. V.A.3) noch ausführlicher besprochen. Auch<br />
BonJour (1985, 169ff) stützt sich auf eine entsprechende Annahme in<br />
seiner Argumentation gegen den Skeptiker.<br />
Analogiebeziehungen, die Thagard außerdem noch für Kohärenz<br />
nennt, müssen nicht eigens aufgeführt werden, weil sie im Rahmen meiner<br />
Erklärungstheorie als Spezialfälle von Erklärungen betrachtet werden<br />
können.<br />
Das Konzept der Inkohärenz, die der systematischen Kohärenz entgegenarbeitet,<br />
beinhaltet in (3a) zunächst die logischen Inkonsistenzen,<br />
von denen hier angenommen wird, daß sie sich in unseren Überzeugungssystemen<br />
lokal begrenzen lassen. Daneben rechne ich wie BonJour<br />
auch Aussagen, wie „p“ und „p ist unwahrscheinlich“ zu den Inkohärenzen,<br />
die zwar nicht wiedersprüchlich im streng logischen Sinn sind, aber<br />
doch offensichtlich eine Störung für den harmonischen Zusammenhang<br />
unseres Meinungssystems bedeuten.<br />
Falls sich echte Subsysteme in X identifizieren lassen, so ist auch das<br />
eine Verletzung eines einheitlichen Wissens, wie es für ideal kohärente<br />
Meinungssysteme wünschenswert ist. Subsysteme sind die Elemente einer<br />
Aufspaltung von X in Teilmengen mit der Eigenschaft, daß innerhalb<br />
jeder Teilmenge deutlich mehr Verbindungen unter den Elementen bestehen<br />
als zu den Elementen anderer Teilmengen. Dieses Phänomen ist<br />
ein Teil einer Abwesenheit von Kohärenz, weil hier weniger Verbindungen<br />
als möglich vorliegen, aber es ist eine ganz spezielle Form der Abwesenheit<br />
von Kohärenz, nämlich eine die die Verteilung von inferentiellen<br />
Zusammenhängen betrifft. Falls X mehrere Subsysteme aufweist, kann<br />
X zwar noch eine relative hohe durchschnittliche Vernetzung besitzen,<br />
die ihm zunächst ein gewisses epistemisches Gewicht sichert, aber X ist<br />
eigentlich aus verschiedenen Teilen zusammengefügt, die ihrerseits nicht<br />
gut zusammenpassen. In gewisser Weise zerfällt X in unzusammenhängende<br />
oder wenig zusammenhängende Komponenten, die sich gegenseitig<br />
epistemisch kaum stützen. Das Ausmaß, in dem das der Fall ist, ist<br />
natürlich Abstufungen fähig, so daß auch das Identifizieren und Einteilen<br />
von Subsystemen eine Sache des Grades ist. Die scheint mir allerdings<br />
sehr hilfreich für die Beschreibung globaler Eigenschaften von<br />
Überzeugungssystemen zu sein, weil sich die Diskussion um bestimmte
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 247<br />
Beispiele in unserem Wissen anhand dieses Konzepts leiten läßt. Daher<br />
wird Subsystembedingung (3b) als eigene Forderung in (3) aufgenommen.<br />
Man könnte die Subsysteme (in einer schwachen Analogie) mit getrennten<br />
Teillandkarten vergleichen, die nur wenige Berührungspunkte<br />
untereinander aufweisen. Wenn sich eine dieser Landkarten als zuverlässig<br />
für ihr Gebiet erwiesen hat, gibt uns das nur wenige Hinweise auf die<br />
Zuverlässigkeit der anderen. Bei einer umfassenden zusammenhängenden<br />
Landkarte haben wir hingegen mehr Anlaß, von einem Passen<br />
der Landkarte in einem Gebiet auf ihre allgemeine Brauchbarkeit<br />
und damit auf andere Gebiete zu schließen.<br />
Der in (3c) genannte Fall der Erklärungsanomalie läßt sich auch als<br />
ein Spezialfall eines kleinen isolierten Subsystems deuten, besitzt aber<br />
auch ausgeprägte eigenständige Charakteristika. Eine Aussage wird – im<br />
Unterschied zu Subsystemen – nicht allein dadurch schon zur Erklärungsanomalie<br />
von X, daß sie innerhalb von X nicht erklärt wird. Erklärungsanomalien<br />
sind spezifisch für bestimmte Theorien. Die Perihelanomalie<br />
des Merkur ist keine Anomalie für den psychologischen Behaviorismus<br />
– der hat seine eigenen – und auch nicht für die Maxwellsche<br />
Elektrodynamik, obwohl sie auch dort nicht erklärt wird, sondern für<br />
die Newtonsche Gravitationstheorie. Erklärungsanomalien sind Tatsachen,<br />
die zwar zum intendierten Anwendungsbereich einer Theorie T<br />
gehören, aber sich trotzdem dagegen widersetzen, von T erklärt zu werden.<br />
Dieser Punkt kann in der Erklärungsdebatte in (IX.H.1) angemessener<br />
behandelt werden. Daß Erklärungsanomalien in der Wissenschaftsdynamik<br />
eine große Bedeutung zukommt, ist spätestens durch die Kuhnschen<br />
wissenschaftshistorischen Untersuchungen bekannt.<br />
In (3d) ist die Rede von Konkurrenzerklärungen. Das sind Erklärungen,<br />
von denen wir annehmen müssen, daß sie nicht beide wahr sein<br />
können. In konkreten Fällen dürfte es meist intuitiv nicht schwer bestimmbar<br />
sein, ob tatsächlich konkurrierende Erklärungen oder koexistierende<br />
vorliegen. Schwieriger ist es schon, dafür ein einfaches Kriterium<br />
zu formulieren, aber es mag zunächst genügen, sich auf unser intuitives<br />
Verständnis von konkurrierenden Erklärungen zu stützen, da es mir<br />
in dieser Arbeit kaum möglich ist, schon alle Teile des hier vorgelegten<br />
Forschungsprogramms vollständig zu explizieren (s. Bartelborth 1994a).<br />
Im 4. Teil von KTR wird dann schließlich, die relationale Kohärenz<br />
diskutiert, auf die sich die Bedingung (1b) bezieht. Sie besteht in den inferentiellen<br />
Beziehungen, die zwischen p und dem Rest von X vorliegen.<br />
Dabei ist analog den Bedingungen (2a) und (2b) wieder in logische und<br />
Erklärungsbeziehungen zu unterscheiden und für die zweiteren eine
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 248<br />
möglichst hohe Erklärungskraft zu verlangen. Außerdem können diese<br />
inferentiellen Zusammenhänge in der einen wie der anderen Richtung<br />
vorliegen. Dabei lassen sie sich einmal als Abduktionsschlüsse und in der<br />
anderen Richtung als Einbettungen deuten. Daß die relationale Kohärenz<br />
nicht einfach mit der systematischen Kohärenz zu identifizieren ist,<br />
wurde bereits durch die Beispiele in der Diskussion von Bedingung (1c)<br />
belegt. Man könnte nun auch noch die relationale Inkohärenz eigens berücksichtigen.<br />
Aus Gründen der Übersichtlichkeit verzichte ich darauf,<br />
zumal sie auch schon in den Beitrag, den p zur Kohärenz von X leistet<br />
mit eingeht, denn als einen Aspekt der systematischen Gesamtkohärenz<br />
finden wir die Inkohärenz.<br />
Die in KTR vorgestellte Kohärenztheorie der Rechtfertigung erlaubt<br />
Vergleiche zwischen bestimmten Aussagen oder Theorien daraufhin, wie<br />
gut sie sich in unser Meinungssystem einfügen lassen. Sie ist in erster Linie<br />
als eine partiell komparative Theorie der Rechtfertigung zu verstehen.<br />
Komparativ ist sie, weil sie in manchen Fällen direkte Vergleiche gestattet,<br />
welche von zwei Aussagen vor unserem Hintergrundwissen besser<br />
begründet ist. Partiell bleibt sie, weil sie diesen Vergleich nicht für beliebige<br />
Aussagen gestattet. Für zwei Theorien T1 und T2 kann man anhand<br />
von KTR erwägen, wie sie zur Kohärenz unseres Überzeugungssystems<br />
X beitragen würden und wie gut sie daher vor X gerechtfertigt wären.<br />
Ist T1 in allen Punkten der KTR besser oder zumindest genauso gut wie<br />
T2, so ist T1 besser gerechtfertigt vor dem Hintergrund X. Liegen allerdings<br />
die Stärken von T1 und die von T2 in jeweils verschiedenen Punkten<br />
von KTR, gibt KTR allein noch keine Auskunft darüber, welche<br />
Theorie epistemisch zu bevorzugen sei. Eine solche Abwägung z. B. von<br />
Erklärungsleistungen auf der einen Seite gegen die Vermeidung von Inkohärenzen<br />
auf der anderen Seite läßt sich zumindest bisher nicht allgemein<br />
treffen, sondern nur in konkreten Einzelfällen. Allerdings stellt<br />
KTR auch in diesen Fällen die Begrifflichkeit und die Beurteilungsdimensionen<br />
zur Verfügung, an denen eine entsprechende Abwägung auszurichten<br />
ist.<br />
Um diesen letzten Aspekt einer Bewertung anhand von (KTR) zu illustrieren,<br />
soll ein Beispiel skizziert werden. Eine solche Abwägung<br />
mußte für das Bohrsche Atommodell vorgenommen werden, das auf der<br />
einen Seite die Spektrallinien von Atomen erklären konnte, aber auf der<br />
anderen Seite in Konflikt mit der klassischen Elektrodynamik stand. Es<br />
hatte eine Reihe unbekannterer Konkurrenten wie das Plumpuddingmodell<br />
von J.J. Thomson (s. Pais 1986; 166, 185), die alle gewisse Erklärungsleistungen<br />
erbrachten, aber in dieser Hinsicht dem Bohrschen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 249<br />
Atommodell eindeutig unterlegen waren. Insbesondere steht ihm natürlich<br />
auch der Konkurrent der theoretischen Enthaltsamkeit gegenüber,<br />
der sagt, wir haben einfach noch keine gute Atomtheorie, und die Linienspektren<br />
der Atome (insbesondere des Wasserstoffatoms) sind als<br />
bisher unerklärte Tatsachen zu akzeptieren. Lakatos hat in (1974) einige<br />
Faktoren genannt, die für diese Abwägung berücksichtigt werden können,<br />
die in Bartelborth (1989) weiter diskutiert werden. Dabei geht es<br />
um eine Abwägung der systematischen Kohärenz, die durch die Bohrsche<br />
Theorie gefördert wird, in dem sie die Linienspektren stärker in unser<br />
wissenschaftliches Wissen integriert, gegen eine Inkaufnahme einer Inkohärenz,<br />
die durch die Bohrsche Theorie entsteht, weil sie sich in Widerspruch<br />
zur klassischen Elektrodynamik setzt.<br />
An vielen Stellen stützt sich die Explikation der KTR auf den Erklärungsbegriff<br />
und artverwandte Begriffe wie den der Erklärungsanomalie<br />
oder den von konkurrierenden Erklärungen. Bisher konnte ich mich an<br />
diesen Stellen allerdings nur auf ein intuitives, und wie die philosophische<br />
Erklärungsdebatte zeigen konnte, keineswegs einheitliches Verständnis<br />
des Erklärungskonzepts stützen. Ein wesentlicher Schritt, um<br />
für KTR einen Substanzgewinn zu erzielen, bleibt daher die Ausgestaltung<br />
einer Erklärungstheorie, die im letzten Teil der Arbeit angesiedelt<br />
ist.<br />
G. Die Vereinheitlichung unseres Wissens<br />
Es ergibt sich schließlich eine Art von Gesamtbild der Rechtfertigung<br />
durch Kohärenz, zu dessen Darstellung ich mich zunächst noch einmal<br />
dem Superempiristen zuwenden möchte, der kognitiv so bescheiden<br />
bleibt, sich ganz auf das Sammeln von Beobachtungsaussagen zu beschränken.<br />
Er gleicht einem eifrigen Käfersammler, der es dabei bewenden<br />
läßt, die Käfer in der zeitlichen Reihenfolge ihres Auftretens zu sammeln,<br />
ohne je den Versuch zu unternehmen, sie nach irgendwelchen<br />
Ähnlichkeitsmaßstäben zu klassifizieren oder sogar Theorien über ihr<br />
Verhalten aufzustellen. Er stellt auch keine Vermutungen an, auf welche<br />
Käfer er noch stoßen wird und wie diese aussehen könnten. Auch die<br />
Funde noch so seltsamer Käfer können ihn nicht überraschen, da er<br />
keine Erwartungen über Käfer entwickelt. Obwohl er sich so intensiv<br />
mit Käfern beschäftigt, können wir ihn eigentlich nicht als Käferexperten<br />
bezeichnen. Er kann uns nicht viel Informatives über Käfer erzählen<br />
– nur, welche er gesammelt hat. Er kann uns auch nicht helfen zu verste-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 250<br />
hen, was für Käferarten es gibt oder warum sich Käfer in einer bestimmten<br />
Weise verhalten.<br />
Für den Superempiristen ist es sogar noch schlimmer, denn er sammelt<br />
nicht nur Gegenstände einer bestimmten Art, sondern unterschiedslos<br />
alles, was ihm begegnet, ohne vorher irgendwelche Annahmen darüber<br />
zu haben. In Abschnitt (IV.A.2) hatte ich schon darauf hingewiesen,<br />
daß dieses Bild bereits in sich nicht stimmig ist. Damit die Wahrnehmungen<br />
des Superempiristen überhaupt in Form von Überzeugungen mit<br />
propositionaler Struktur repräsentiert sein können, muß er Begriffe verwenden,<br />
wie z. B. in „Vor mir liegt ein schwarzer Ball“. Klassifizierungen<br />
dieser Art beinhalten längst gewisse Behauptungen über Ähnlichkeiten<br />
und wie Putnam erläutert, zumindest implizite Annahmen bestimmter<br />
Minitheorien, die Putnam Stereotype nennt, wenn man überhaupt davon<br />
sprechen will, daß der Superempirist Meinungen hat, die er auch versteht.<br />
Sobald wir Überzeugungen über die Welt entwickeln, entwickeln<br />
wir auch bereits kleine Theorien über sie. Der Superempirist ist also<br />
nicht wirklich vorstellbar. Denken wir ihn uns aber so weit wie möglich<br />
verwirklicht. Er enthält sich jeder Ansicht über die Welt über die notwendigen<br />
Stereotypen hinaus. Für ihn gilt wieder, was wir auch für den<br />
Käfersammler feststellten, er ist kein Experte für die Welt und kann uns<br />
nur wenig Interessantes über sie mitteilen. Er kann die Ereignisse seiner<br />
Umwelt nicht erklären, er ist notgedrungen ein Anti-Erklärer, kann auch<br />
keine begründeten Retrognosen über die Vergangenheit seiner Gesellschaft<br />
oder über Geschehnisse abgeben, an denen er nicht selbst teilgenommen<br />
hat, weil auch dazu Theorien notwendig sind. Nur die gestatten<br />
es uns, anhand bestimmter Indizien auf Vergangenes zu schließen.<br />
Ich will nicht behaupten, er sei nicht lebensfähig, wie es manchmal radikalen<br />
Skeptikern vorgeworfen wird, sondern nur, daß sein kognitives<br />
Leben ausgesprochen ärmlich ist. Er versteht seine Umwelt eigentlich<br />
nicht und kann bestenfalls durch unbewußt erworbene Tropismen auf<br />
sie reagieren.<br />
Diese Vorstellung vom geistig verarmten Superempiristen soll noch<br />
einmal erläutern, wieso ontologische Sparappelle etwa von Empiristen,<br />
die immer wieder auf theoretische Enthaltsamkeit drängen, in die falsche<br />
Richtung weisen. Der Kohärenztheoretiker entwickelt seine Konzeption<br />
fast in der entgegengesetzten Richtung. Für ihn ist die Entwicklung<br />
von Theorien über die Welt auf vielen Ebenen das wichtigste<br />
erkenntnistheoretische Erfordernis. Nur durch allgemeine Hypothesen<br />
und Theorien entstehen Verbindungen zwischen unseren Beobachtungen,<br />
nur durch sie kann es zu einem wirklichen System von Meinungen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 251<br />
kommen. Eine derartige Vernetzung unseres Wissens ist für begründete<br />
Meinungen unerläßlich. Die kohärenztheoretische Behandlung von Beobachtungen<br />
zeigt ebenso, daß den Beobachtungen noch nicht einmal<br />
epistemische Priorität eingeräumt werden sollte, denn zu ihrer Rechtfertigung<br />
stützen wir uns bereits auf Theorien unterschiedlicher Herkunft.<br />
Trotzdem wird der Kohärenztheoretiker nicht zum theoretischen Phantasten,<br />
denn nur die Theorien sind für ihn hilfreich, die tatsächlich erklärende<br />
und damit vereinheitlichende Kraft in bezug auf unsere Beobachtungsüberzeugungen<br />
besitzen. Je einheitlicher unser Modell der Welt<br />
beschaffen ist, desto besser sind für den Kohärenztheoretiker die Begründungen<br />
unserer Meinungen. Jede Uneinheitlichkeit in unserem Modell,<br />
etwa durch eine Aufspaltung in Subsysteme oder durch konkurrierende<br />
Ansichten, gebietet geradezu die Suche nach einer einheitlicheren<br />
Theorie. Die KTR hat damit eine gute metatheoretische Erklärung anzubieten,<br />
wieso wir in den Wissenschaften de facto an vielen Stellen auf<br />
diese Suche nach einheitlicheren Theorien stoßen 103 und wieso viele Philosophen<br />
die Vereinheitlichung unseres Wissens für unsere Erkenntnis für<br />
wichtig halten.<br />
Für ein Verständnis der Welt in einem möglichst zutreffenden und<br />
umfassenden Modell sind wir auf kohärente Beschreibungen angewiesen.<br />
Auf der Suche nach wahren Meinungen über die Welt benötigen wir<br />
Indikatoren für Wahrheit. Diese können uns nur kohärente Überzeugungssysteme<br />
geben, denn jede Begründung einer unserer Meinungen ist<br />
wiederum indirekt von der Kohärenz des ganzen Systems abhängig. Der<br />
Kohärenztheoretiker sieht die Suche nach Wissen als eine Art von großem<br />
Puzzle, in dem wir erst dann annehmen können, ein richtiges Bild<br />
der Welt entwickelt zu haben, wenn alle Steine gut zusammenpassen und<br />
ein Gesamtbild entstanden ist. Ein Gesamtbild kann aber erst entstehen,<br />
wenn zusätzlich zu den Steinchen des Superempiristen, die keine Paßstellen<br />
untereinander aufweisen, größere Steine eingefügt werden, die einen<br />
Zusammenhang herstellen können. Dabei ist allerdings die Vorstellung<br />
des Empiristen, nach der wir immer mit lauter kleinen Puzzlesteinchen<br />
beginnen und dann erst nach den größeren Verbindungsstücken suchen,<br />
irreführend, denn auch die großen Steine entscheiden wiederum<br />
mit darüber, welche kleineren Steine in unser Gesamtbild passen und<br />
welche nicht. Unsere Suche richtet sich immer zugleich auf kleinere und<br />
größere Puzzlesteine.<br />
103 In der wissenschaftsphilosophischen Erklärungsdebatte wird dieser<br />
Punkt wieder zur Sprache kommen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 252<br />
Der Kohärenztheoretiker muß damit natürlich noch nicht behaupten,<br />
daß es immer eine einheitliche Beschreibung der Welt gibt, sondern<br />
nur, daß wir ein großes erkenntnistheoretisches Interesse daran haben<br />
müssen, so kohärente Beschreibungen wie irgend möglich aufzusuchen.<br />
Gelingt uns das nicht einmal in geringem Umfang, sehen wir uns – nur<br />
dann ohne es zu wollen – in die epistemische Situation des Superempiristen<br />
gestellt. Im extremsten Fall läßt sich dann keine unserer Meinungen<br />
mehr begründen. Wir verfügen über keine Erklärungen des Geschehens<br />
unserer Umwelt mehr und können unsere Welt nicht mehr im kognitiven<br />
Sinn verstehen. Wir verbleiben mit lauter unzusammenhängenden<br />
Puzzlesteinchen, die wir nicht zusammensetzen können und sehen kein<br />
Bild der Welt mehr, das handlungsleitend sein könnte (s. a. IX.H.5).<br />
Hier trifft der Kohärenztheoretiker mit dem Sprachphilosophen zusammen,<br />
der uns sagt, daß wir zumindest auf Minitheorien bereits dann angewiesen<br />
sind, wenn unsere Äußerungen semantischen Gehalt besitzen<br />
sollen. Die Maxime des Kohärenztheoretikers könnte man in dem<br />
Schlagwort zusammenfassen: Ohne ein einigermaßen kohärentes, wenigstens<br />
in Teilen vereinheitlichtes Weltbild können wir kein Wissen und<br />
kein Verständnis der Welt erwerben.<br />
Auch die theoretische Unterbestimmtheit und sogar relativistische<br />
Konzeptionen der Wissenschaft werden durch das entworfene Bild vom<br />
Erkenntniserwerb nicht a priori ausgeschlossen. Ob es alternative Puzzlesteine<br />
gibt, die die Beobachtungen in einem Gesamtbild zusammenfügen<br />
oder nur ein einziges, hängt natürlich nicht zuletzt von den Wahrnehmungen<br />
ab, die wir tatsächlich machen. Ob sich die wissenschaftliche<br />
Entwicklung letztlich besser als eine langsame nicht immer geradlinige<br />
Annäherung an die Wahrheit oder eher als ein bloß auf bestimmte<br />
Gesellschaften zugeschnittenes Unternehmen verstehen läßt, bleibt internen<br />
Analysen der Wissenschaftsdynamik überlassen. Die müssen untersuchen,<br />
wie stabil oder revolutionär sich unser Wissen tatsächlich entwickelt.<br />
H. Einige Konsequenzen der KTR<br />
In der Einleitung hatte ich schon auf den engen Zusammenhang zwischen<br />
epistemischen Rechtfertigungen und Argumenten hingewiesen, die<br />
letzteren aber zunächst aus dem Spiel gelassen. Wenigstens in Form einer<br />
Bemerkung möchte ich an dieser Stelle über mögliche Auswirkungen der<br />
vorgelegten Rechtfertigungstheorie auf unsere Konzeption von Argu-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 253<br />
mentationen zu sprechen kommen. Ein gutes Argument sollte meines Erachtens<br />
den Diskussionspartner nicht nur kurzfristig überreden können,<br />
etwas zu glauben, sondern auch längerfristig stabile Begründungen beinhalten.<br />
Für derartige Begründungen offenbart die Kohärenztheorie der<br />
Rechtfertigung (KTR) einen langwierigen Weg, zeigt sie doch, daß epistemische<br />
Rechtfertigungen wesentlich holistischen Charakter haben<br />
und vom Zusammenhalt und der engen Verknüpfung aller unserer Meinungen<br />
abhängen. Wie gut eine bestimmte Überzeugung gerechtfertigt<br />
ist, bestimmt sich natürlich in erster Linie anhand ihrer relationalen Kohärenz,<br />
d.h. ihrer Einbettung in unser Meinungssystem durch möglichst<br />
viele gegenseitige inferentielle Verbindungen mit dem übrigen System.<br />
Das erklärt, wieso eine gute Begründung einer Meinung im allgemeinen<br />
nicht in einer einzelnen Herleitung oder „Deduktion“ besteht, sondern<br />
einen weitaus beschwerlicheren Weg über die Analyse zahlreicher Erklärungszusammenhänge<br />
zu gehen hat.<br />
Viele philosophische Arbeiten – insbesondere die größeren, die sich<br />
nicht auf einen einzelnen Punkt einer Diskussion konzentrieren, sondern<br />
umfassend für eine ausgewachsene These argumentieren möchten – sind<br />
beredte Zeugnisse dieser Konsequenz aus KTR. Ebenso wird damit die<br />
Fruchtlosigkeit vieler mündlicher Argumentationen selbst bei gutwilligsten<br />
Diskussionspartnern verständlich, offenbart KTR doch, welche<br />
Herkulesarbeit zu leisten ist, soll auch nur eine der vertretenen Positionen<br />
gründlich begründet werden. Jede Seite wird zunächst einigen Rückhalt<br />
für ihre Ansicht in unseren Überzeugungssystemen für sich geltend<br />
machen können, so daß erst die Zusammenschau aller einzelnen Punkte<br />
sowie einer Analyse, wie gut sie jeweils in unserem Hintergrundwissen<br />
verankert sind, eine Entscheidung ermöglicht. Die Überprüfung der Verankerung<br />
erfordert ihrerseits eine Untersuchung, in welchen Erklärungsbeziehungen<br />
sie zu finden sind, welche Theorien daran beteiligt sind<br />
und wie gut diese Theorien und Erklärungen sind, was wiederum nach<br />
eine Analyse ihrer vereinheitlichenden Kraft verlangt.<br />
Das alles macht Begründungen natürlich nicht unmöglich, sondern<br />
zeigt nur, wie komplex und aufwendig sie letztlich sein können. Wir<br />
werden uns in den meisten Fällen wohl mit elliptischen Argumentationen<br />
zunächst zufrieden geben müssen und nur in besonders wichtigen<br />
Fällen in einer längeren Debatte die fehlenden Überlegungen nachliefern<br />
können.<br />
Zu den möglichen Anwendungsfällen kohärentistischer Begründungen<br />
gehören neben den hier diskutierten empirischen Aussagen auch<br />
normative Fragen etwa aus der Ethik. Für dieses Gebiet gilt Ähnliches
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 254<br />
wie für Diskussionen im empirischen Bereich. Diese Behauptung kann<br />
ich an dieser Stelle natürlich nicht ausführlich begründen, aber ich<br />
möchte anhand einer kurze Beispielskizze wenigstens eine Plausibilitätsbetrachtung<br />
dazu angeben, die erste Hinweise auf die Einbettung dieser<br />
These in unsere Hintergrundannahmen zu moralischen Fragen bieten<br />
kann.<br />
Nehmen wir eine moralische Frage wie die nach der Zulässigkeit von<br />
Abtreibungen. Wenn die öffentliche Debatte sich nicht um vorrangig juristische<br />
Probleme – etwa der Vereinbarkeit mit dem Grundgesetz – geht,<br />
gerät sie oft relativ schnell in eine Sackgasse. Die Vertreter liberaler Lösungen<br />
verweisen etwa auf die schlechten psycho-sozialen und oft auch<br />
medizinischen Folgen der Strafbarkeit und behaupten, daß es sich bei einem<br />
Fötus nicht um menschliches Leben handelt, so daß unsere üblichen<br />
Normen, solches nicht zu töten, hier nicht anwendbar sind. Die<br />
Gegner einer Liberalisierung setzen dem entgegen, daß es sich sehr wohl<br />
um menschliches Leben – zumindest der Möglichkeit nach – handelt<br />
und daß es daher auch entsprechenden Schutz und Vorrang gegenüber<br />
anderen Werten verdient. Viel weiter als zu einem Aufeinanderprallen<br />
dieser gegensätzlichen Standpunkte kommt es dabei vielfach nicht mehr.<br />
Das ist auch verständlich, wenn man die Debatte nicht erweitert und<br />
„holistischer“ führt. An dieser einen Stelle können wir nur unsere Meinungsdifferenzen<br />
konstatieren, ohne zu einem nennenswerten Fortschritt<br />
zu gelangen. Einen Weg auf dem ein Fortschritt zu erreichen sein<br />
könnte, möchte ich nun skizzieren. Wir müssen allgemeinere Prinzipien<br />
in Anschlag bringen und ihrerseits diskutieren, die unsere Entscheidung<br />
unterstützen. Z. B.: „Daß man keinen Menschen töten darf, außer aus<br />
Notwehr oder Nothilfe und daß jeder, der zu unserer tierischen Art gehört<br />
ein Mensch ist, ganz gleich in welchem Entwicklungsstadium.“ Dieses<br />
Prinzip läßt sich auf vielfache Weise kritisieren und muß sicherlich<br />
eine Reihe von Modifikationen durchlaufen, ehe es von beiden Seiten<br />
als glaubwürdiges Prinzip, nach dem man sich in anderen Fällen auch<br />
tatsächlich richten sollte, gelten darf. In jedem Fall benötigen wir solche<br />
„ethischen Theorien“, um die Diskussion von dem einen Fall auch auf<br />
andere Beispiele, die uns ähnlich gelagert erscheinen, ausdehnen zu können.<br />
Die Annehmbarkeit dieser Theorie läßt sich dann daran testen, wie<br />
gut sie unsere gemeinsamen moralischen Überzeugungen und Urteile in<br />
vielen anderen Fällen erklären kann. Akzeptieren wir diese Theorie in<br />
vielen anderen Fällen als die beste Erklärung dafür, daß wir das Verhalten<br />
x für falsch halten, so gibt uns das einige prima facie Gründe, sie
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 255<br />
auch im Falle des Paragraphen 218 anzuwenden. Zumindest trägt die jeweilige<br />
Gegenseite die Beweislast zu erläutern, warum wir uns hier anders<br />
verhalten sollten. Auch hier werden Verbindungen zwischen Einzelfällen<br />
anhand von Theorien und Konsistenzüberlegungen notwendig,<br />
um wenigstens eine Chance für eine begründete Entscheidung zu erhalten.<br />
Das ist natürlich eine stark idealisierte Darstellung derartiger Diskussionen.<br />
Im allgemeinen werden nicht nur eine allgemeinere Annahme<br />
zu überprüfen haben, sondern eine Vielzahl. Einen guten Einblick in die<br />
Vielschichtigkeit dieser speziellen moralphilosphischen Debatte bietet<br />
Hoerster (1991).<br />
Ein Hilfsmittel um bestimmte Annahmen auf ihre Kohärenz in unserem<br />
Hintergrundwissen zu überprüfen, das auch in der Ethik vielfach<br />
Anwendung findet, möchte ich nun noch kurz vorstellen, nämlich Gedankenexperimente.<br />
Die KTR erklärt uns, wieso Gedankenexperimente<br />
nicht nur in der Philosophie, sondern auch in den empirischen Wissenschaften<br />
eine so große Bedeutung besitzen. 104 Das wohl berühmteste von<br />
ihnen, das Gegenstand einer Reihe von Konferenzen und schließlich<br />
auch von tatsächlichen Experimenten war, ist das sogenannte Paradox<br />
von Einstein, Podolsky und Rosen (EPR-Paradox), aber es gibt daneben<br />
noch eine Vielzahl von Gedankenexperimenten in den empirischen Wissenschaften.<br />
Einige berühmte haben einen Namen bekommen, wie Carnots<br />
Kreisprozeß, das Zwillingsparadoxon oder Maxwells Dämon, aber<br />
sehr viele andere finden sich in den Textbüchern, bei denen es dazu<br />
nicht gereicht hat. Man erinnere sich nur an die vielen Gedankenexperimente,<br />
auf die wir allein im Zusammenhang mit der Relativitätstheorie<br />
bereits stoßen. Doch warum schenkt man in den Naturwissenschaften<br />
Gedankenexperimenten eine so große Aufmerksamkeit? Der Empirist<br />
sagt uns immer, daß dort nur der Vergleich von Theorien mit den Beobachtungsdaten<br />
zählt. Sind die Gedankenexperimente demnach eher ein<br />
Hobby der Naturwissenschaftler ohne erkenntnistheoretischen Wert?<br />
Dem ist natürlich nicht so, und KTR gibt uns die Möglichkeit, dieses<br />
Phänomen der Gedankenexperimente in den Naturwissenschaften zu<br />
verstehen. Es handelt sich dabei um eine Form von Kohärenztests.<br />
Ein recht einfaches historisches Beispiel, das Popper (1984, 397ff) in<br />
einem Zusatz (*XI) zur Logik der Forschung schildert, soll erläutern, wie<br />
Gedankenexperimente als Kohärenztests dienen können. Galilei macht<br />
damit auf eine Inkohärenz in der Aristotelischen Theorie aufmerksam,<br />
nach der die natürliche Geschwindigkeit eines schweren Körpers größer<br />
104 Zum folgenden siehe auch die Besprechung von Gedankenexperimenten<br />
in Bartelborth (1991).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 256<br />
als die eines leichten ist. Wenn wir zwei ungleich schwere Körper nehmen,<br />
so argumentiert Galilei, wird der schwerere sich gemäß dieser<br />
Theorie schneller bewegen als der leichtere. Wenn wir die beiden Körper<br />
nun zusammenbinden, wird der schnellere den langsameren beschleunigen<br />
und der langsamere den schnelleren verlangsamen. Somit<br />
sollte der zusammengesetzte Körper in seiner Geschwindigkeit zwischen<br />
dem langsameren und dem schnelleren liegen. Da er aber schwerer ist<br />
als jeder einzelne der Körper, sollte er nach Aristoteles Theorie eigentlich<br />
schneller als sie sein. In diesem Gedankenexperiment hat Galilei<br />
Schlußfolgerungen aus der Aristotelischen Theorie unter Zuhilfenahme<br />
bestimmter Hintergrundannahmen gezogen, wobei sich ein Widerspruch<br />
in den zentralen Aussagen der Theorie aufdecken ließ. Neben der Theorie<br />
selbst mußte er sich auf die Annahmen stützen, daß man das Gewicht<br />
der Verbindung zwischen den Körpern vernachlässigen kann und daß<br />
sich das Verhalten des Gesamtkörpers aus dem Verhalten der beiden einzelnen<br />
Körper zumindest qualitativ bestimmt. Zur Begründung dieser<br />
Annahmen wurde – z. B. von Mach – das intuitiv plausible Prinzip der<br />
kontinuierlichen Variation zitiert.<br />
Galileis Gedankenexperiment demonstriert, daß etwas nicht stimmen<br />
kann in der Aristotelischen Theorie der Bewegung. Wenn wir sie<br />
vor einigen einfachen Annahmen unseres Hintergrundwissens beurteilen,<br />
stoßen wir auf eine schwerwiegende Inkohärenz in der Theorie, die<br />
wir in dieser Form nicht akzeptieren können. Obwohl sich diese Inkohärenz<br />
immer schon in der Aristotelischen Theorie „versteckt“ hielt, hat<br />
doch erst das Gedankenexperiment sie deutlich herausgestellt. In ähnlicher<br />
Form können wir auch die epistemische Funktion anderer Gedankenexperimente<br />
in den Naturwissenschaften als Kohärenztests interner<br />
Art gegen unser übriges Hintergrundwissen verstehen.<br />
Diese Funktion können sie natürlich nicht nur für empirische Theorien<br />
übernehmen, sondern ebenso für philosophische Theorien, die in einem<br />
noch stärkeren Maße auf interne „Kohärenzchecks“ angewiesen<br />
sind, als das für empirische Theorien der Fall ist. In dieser Arbeit stützte<br />
sich unter anderem ein Argument gegen den Externalisten auf ein Gedankenexperiment,<br />
nämlich das von Norman dem Hellseher, der zwar<br />
auf zuverlässigem Wege zu wahren Meinungen gelangt, die wir aber<br />
trotzdem nicht als Wissen bezeichnen möchten, weil Norman selbst der<br />
Ansicht war, daß Hellseherei Unsinn ist. Das Beispiel sollte aufdecken,<br />
daß die externalistische Konzeption von Wissen nicht zu unseren üblichen<br />
Annahmen über Wissen paßt, daß sie also nicht wirklich kohärent<br />
in unser Meinungssystem zu integrieren ist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 257<br />
Die KTR erlaubt uns aber nicht nur eine Erklärung der Bedeutung<br />
von Gedankenexperimenten, sondern gibt uns zusätzlich auch Hinweise,<br />
wie diese „Experimente“ zu bewerten sind. So sollten sie sich als Kohärenztests<br />
vor unserem Hintergrundwissen nach Möglichkeit nur auf solche<br />
Annahmen unseres Hintergrundwissens stützen, die selbst nicht kritisch<br />
beurteilt werden. Je besser die im Gedankenexperiment vorgestellte<br />
Situation mit unserem Hintergrundwissen verträglich ist, um so<br />
ernster müssen wir das Gedankenexperiment nehmen; je utopischer und<br />
unwahrscheinlicher die Situation aber ist, um so weniger bedeutsam ist<br />
es, denn natürlich beziehen sich unsere Meinungen überwiegend auf den<br />
Bereich möglicher Welten, den wir für wahrscheinlich halten. Daran hat<br />
sich auch unsere Metabeurteilung entsprechender Inkohärenzen zu<br />
orientieren, schließlich wollen wir in erster Linie gut begründete Meinungen<br />
über unsere tatsächliche Welt erhalten.<br />
Diese zunächst abstrakten Betrachtungen kann ein Beispiel unterstützen,<br />
an dem ich exemplarisch vorführen möchte, wie man mit Hilfe von<br />
metatheoretischen Überlegungen gegen Gedankenexperimente vorgehen<br />
kann. Derek Parfit (1984) argumentiert in Reasons and Persons für eine<br />
reduktionistische Sichtweise personaler Identität, nach der unsere Identität<br />
in der Zeit im wesentlichen auf physikalischen und psychologischen<br />
Kontinuitäten und Zusammenhängen zwischen den verschiedenen Stadien<br />
unseren Existenz beruht. Diese Konzeption testet er (1984, 199ff)<br />
unter anderem an unterschiedlichen Varianten eines Gedankenexperiments,<br />
das er „Teletransportation“ nennt. Dabei wird im einfachen Fall<br />
der Körper eines Menschen im Teletransporter auf der Erde zerstört,<br />
aber gleichzeitig auf dem Mars in exakter Kopie neu zusammengefügt.<br />
Für Parfit als Reduktionisten ist das genauso gut, wie gewöhnliches<br />
Überleben. Probleme macht ihm aber der „branch line case“, in dem der<br />
Teletransporter das Original nicht zerstört und es daher eine Person<br />
zweimal (?) gibt.<br />
Wie der Reduktionist darauf reagieren kann, akzeptiert er erst einmal<br />
dieses Gedankenexperiment, möchte ich hier natürlich nicht besprechen,<br />
sondern auf ein externes Argument gegen das Parfitsche Gedankenexperiment<br />
eingehen. Die Teletransportation erscheint zunächst utopisch,<br />
aber andererseits ist es sicherlich eine logische Möglichkeit, die<br />
durchaus in unser Hintergrundwissen zu passen scheint. Doch dieser<br />
Schein trügt. Um wirklich als Fortsetzung meiner Person gelten zu können,<br />
muß die Kopie mir nicht nur oberflächlich ähnlich sein, sondern<br />
eine exakte Kopie bis in die atomare Struktur darstellen, und so beschreibt<br />
Parfit (1984, 199) den Fall auch. Insbesondere muß natürlich
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 258<br />
meine Gehirnstruktur ganz akkurat dupliziert werden. Doch bei dieser<br />
Anforderung paßt zumindest der Verzweigungsfall – aber vermutlich<br />
auch die „normale“ Teletransportation – nicht tatsächlich in unser Hintergrundwissen.<br />
So erläutert Penrose (1989, 269f), daß es nach der besten<br />
wissenschaftlichen Theorie, die wir jemals hatten, der Quantenmechanik<br />
nämlich, unmöglich ist, eine solche Kopie bis in die Mikrostruktur<br />
vorzunehmen. Penrose weist explizit darauf hin, daß derartige Teletransportationen<br />
physikalisch unmöglich sind. 105 Diese physikalische Unmöglichkeit<br />
„erledigt“ einen Verzeigungseinwand natürlich nicht endgültig,<br />
aber sie kann ihn doch zumindest erheblich abschwächen, zeigt sie<br />
doch, wie inkohärent sich die Teletransportation mit Verzweigung sich<br />
in unserem Hintergrundwissen ausnimmt. Auf diese Weise kann KTR<br />
hilfreiche Hinweise für die Beurteilung von Argumentationen bieten.<br />
I. Resümee<br />
Ziel dieses Kapitels war die Entwicklung einer Kohärenzkonzeption von<br />
epistemischer Rechtfertigung. Zu diesem Zweck wurden zunächst die<br />
wichtigsten möglichen Bestandteile von Kohärenz auf einer intuitiven<br />
Ebene erörtert, wobei sich neben logischen Zusammenhängen vor allem<br />
Erklärungsbeziehungen als kohärenzstiftend erwiesen haben. Andere<br />
Schlußformen wie der konservative Induktionsschluß können dagegen<br />
als Spezialfälle der Abduktion betrachtet werden. Eines der vielleicht<br />
größten intuitiven Hindernisse für Kohärenztheorien der Rechtfertigung<br />
stellen Beobachtungsüberzeugungen dar, die aufgrund ihrer Entstehung<br />
für inferentielle Begründungen zunächst ungeeignet erscheinen. Doch<br />
die Genese einer Meinung kann nicht ihre Rechtfertigung festlegen, und<br />
eine kohärentistische Analyse von Wahrnehmungen und ihren Irrtumsmöglichkeiten<br />
ergab letztlich eine realistischere Bewertung von Beobachtungsüberzeugungen,<br />
als es für Empiristen möglich ist. Mit dem Fallen<br />
dieser letzten Hürde ist der Weg zu einer Kohärenztheorie frei, der<br />
in einer semiformalen Explikation des Kohärenzbegriffs gipfelte. Dieser<br />
setzt sich zusammen aus relationaler und systematischer Kohärenz, sowie<br />
einem relativ eigenständigen Konzept von Inkohärenz, die alle zusammen<br />
bestimmen, wann sich eine Aussage kohärent in ein Meinungs-<br />
105 Wenn sich Mikrozustände duplizieren ließen, könnten wir das so oft<br />
wiederholen, bis makroskopische Ausmaße erreichten würden. Dann ließen sich<br />
plötzlich Größen messen, die nach der Quantenmechanik nicht meßbar seien<br />
können, weil sie keine bestimmten Werte aufweisen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 259<br />
system einfügt. Für die Qualität dieser Einbettung sind holistische Zusammenhänge,<br />
die nach einer möglichst großen Vernetzung und Vereinheitlichung<br />
unserer Überzeugungen fragen, die ausschlaggebenden Faktoren.<br />
Anhang: Bayesianistische Schlüsse<br />
Es ist hier nicht der Ort, sich ausführlicher mit dem Bayesianismus zu<br />
beschäftigen, zumal man dabei auch in die formalen Untiefen dieses Ansatzes<br />
einsteigen müßte. Trotzdem möchte ich kurz erläutern, inwiefern<br />
auch dieser Ansatz abduktive Charakteristika aufweist. Bayesianisten beschreiben<br />
unser Meinungssystem mit Hilfe von Glaubensgraden. Jede<br />
Überzeugung wird mit einer reellen Zahl zwischen 0 und 1 versehen, die<br />
den Grad angibt, mit dem wir sie akzeptieren. Dieser Grad wird im allgemeinen<br />
mit der Bereitschaft einer Person assoziiert, bestimmte Wettquoten<br />
auf die Überzeugung zu akzeptieren,. Will die Person rational<br />
bleiben, sollten ihre Glaubensgrade den Wahrscheinlichkeitsaxiomen gehorchen.<br />
Anderenfalls läßt sich zeigen, daß sie sich auf Systeme von<br />
Wetten einlassen würde, bei denen sie bestenfalls verlieren kann. Statt<br />
von Glaubensgraden spreche ich daher ab jetzt einfach von Wahrscheinlichkeiten<br />
p(A), die die Person ihrer Meinung A beimißt. Sie benötigt<br />
aber nicht nur einfache Wahrscheinlichkeiten für ihre Meinungen, sondern<br />
zusätzlich noch bedingte Wahrscheinlichkeiten p(A,B), die angeben,<br />
wie hoch die Person die Wahrscheinlichkeit von A einschätzt, wenn sie<br />
voraussetzt (bzw. erfährt), daß B der Fall ist. Bayesianisten sprechen<br />
dann darüber, wie jemand seine einfachen Wahrscheinlichkeitsschätzungen<br />
revidieren sollte, wenn er neue Beobachtungen E macht. Nur für die<br />
Überzeugungsänderungen hoffen sie substantielle Aussagen treffen zu<br />
können. Dazu stützen sie sich auf die folgende Konditionalisierungsregel:<br />
(K)<br />
D.h., wir sollten A in dem Grade glauben, wie wir, bevor wir E erfahren<br />
haben, an A unter der Annahme, daß E vorliegt, tatsächlich geglaubt haben.<br />
Ob das vernünftig ist, hängt natürlich ganz davon ab, ob dieser bedingte<br />
Glaube an A vernünftig war. Der sollte das Theorem von Bayes<br />
erfüllen:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 260<br />
(B)<br />
Das verankert ihn zumindest ein wenig innerhalb der anderen Überzeugungen.<br />
Er hängt nun auf einfach kalkulierbare Weise mit dem unbedingten<br />
Glauben an A und dem an E, sowie dem bedingten an E unter<br />
der Voraussetzung A zusammen. Der Zusammenhang (B) gibt tatsächlich<br />
einige Aspekte derartiger Abschätzungen auf plausible Weise wieder.<br />
Nehmen wir an, daß A eine Hypothese ist, die wir durch die Beobachtungsüberzeugung<br />
E (evidence) stützen wollen. Dann ist die neue<br />
Wahrscheinlichkeit für A zunächst um so größer, je größer die alte Wahrscheinlichkeit<br />
für A war. Das scheint ziemlich unkontrovers. Sie ist aber<br />
auch um so größer, je eher E zu erwarten war, wenn A wahr ist. Das ist<br />
eine Art von abduktivem Schluß, denn die höhere Wahrscheinlichkeit ist<br />
zumindest ein Indikator, daß A eine Form von statistischer Erklärung für<br />
E bietet. Außerdem wächst nach (B) unser Glaube an A besonders, wenn<br />
E vorher recht unwahrscheinlich war. Das ist intuitiv und läßt sich in<br />
KTR so deuten, daß E zunächst nicht kohärent in unser Meinungssystem<br />
hineinpaßte, jedenfalls wenn wir von A einmal absehen. Nehmen wir<br />
aber A an, wird E gleich besser in unser Meinungssystem eingebettet,<br />
denn A verleiht E ja eine hohe Wahrscheinlichkeit. Damit steigert E in<br />
diesem Fall die relationale Kohärenz von A, indem sich dessen inkohärent<br />
erscheinende Konsequenzen als wahr erwiesen haben.<br />
Der Zusammenhang zu abduktiven Schlüssen wird noch deutlicher,<br />
wenn wir die versteckte Bezugnahme auf unser Hintergrundwissen K<br />
herausstellen und die Bayes-Formel (B) für den Fall mehrerer konkurrierender<br />
Hypothesen betrachten. Zunächst berücksichtigen wir K:<br />
(BK)<br />
Damit sind alle Wahrscheinlichkeiten bedingte Wahrscheinlichkeiten geworden.<br />
Die früheren einfachen oder a priori Wahrscheinlichkeiten erweisen<br />
sich als abhängig von unserem Hintergrundwissen, wie wir das<br />
für Schlüsse auf die beste Erklärung auch kennen. Wenn wir nun noch<br />
davon ausgehen, daß wir nicht nur eine Meinung A, sondern eine Menge<br />
von konkurrierenden Hypothesen {H1,…,Hn} untersuchen, die eine<br />
disjunkte und erschöpfende Zerlegung der möglichen Erklärungen darstellen,<br />
erhalten wir mit einer kleinen wahrscheinlichkeitstheoretischen<br />
Umrechnung:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 261<br />
(BZ)<br />
Mit (BZ) könnten wir nun auf die Hypothese Hi schließen, die E am besten<br />
erklärt und damit die höchste Wahrscheinlichkeit aller Hypothesen<br />
erhält.<br />
Man könnte deshalb versucht sein, (BZ) als ein quantitatives Buchhaltungsverfahren<br />
für Abduktionen einzusetzen. Doch darauf möchte<br />
ich mich so schnell nicht einlassen. Schon die Quantifizierung von Glaubensgraden<br />
ist nicht unproblematisch. Für viele unserer Überzeugungen<br />
können wir bestenfalls sehr vage Schätzungen abgeben. Fragen Sie sich<br />
doch bitte einmal ernsthaft, für wie wahrscheinlich Sie die Quantenmechanik<br />
halten. Das wirft gleich eine Vielzahl von Fragen auf. Auch sind<br />
die wahrscheinlichkeitstheoretischen Berechnungsverfahren für Glaubensgrade<br />
keineswegs immer so plausibel, wie uns die Bayesianisten<br />
weismachen wollen. Das belegt schon das Beispiel meiner kleinen Geschichte<br />
in Abschnitt (A.5) (s. a. Cohen 1989, 17ff). Noch unrealistischer<br />
wird es, wenn man von uns nicht nur einfache Wahrscheinlichkeiten,<br />
sondern auch noch bedingte verlangt. Und das für alle nur denkbaren<br />
Beobachtungen, die wir irgendwann einmal machen könnten.<br />
Dieser extrem hohe „Rechenaufwand“ erbringt trotzdem nur relativ<br />
geringe Erfolge, wenn man die erkenntnistheoretische Frage im Auge<br />
hat, was wir glauben sollen. Alle Forderungen des Bayesianismus an unsere<br />
Glaubensgrade sind bloß Konsistenzforderungen. Zunächst wird verlangt,<br />
daß sich die Glaubensgrade im Sinne der Wahrscheinlichkeitsaxiome<br />
nicht widersprechen. Wir dürfen also nicht gleichzeitig<br />
p(A)=0,9 und p(¬A)=0,9 akzeptieren. Im nächsten Schritt erwartet der<br />
Bayesianismus von uns, daß unsere Glaubensänderungen zu unseren vorherigen<br />
bedingten Wahrscheinlichkeiten und dem Bayesschen Gesetz<br />
passen. Das ist schon alles. Diese Glaubensgrade oder subjektiven Wahrscheinlichkeiten<br />
können ansonsten so verrückt sein, wie man nur will.<br />
Die Berechnung der Glaubensgrade hat daher mehr buchhalterische<br />
Funktion, als daß sie normativ wirkt.<br />
Schlimmer ist allerdings noch, daß der Ansatz erstens fundamentalistisch<br />
ausgerichtet ist und zweitens Änderungen unserer Überzeugungen<br />
anhand neuer Begriffe und Theorien nicht nachzeichnen kann. Typischerweise<br />
unterscheidet der Bayesianist zwischen Daten und Hypothesen.<br />
Und in der Formel (K) werden die Daten schlicht als gegeben akzep-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 262<br />
tiert. Diese Unkorrigierbarkeit der Basis können wir zwar durch den<br />
Übergang zur Jeffrey- Konditionalisierung<br />
(J)<br />
(wobei die Ei wiederum eine vollständige Zerlegung unseres Wahrscheinlichkeitsraumes<br />
darstellen sollen) beheben, aber der fundamentalistische<br />
Charakter bleibt erhalten. Wahrscheinlichkeitsänderungen nehmen<br />
ihren Ausgang bei den „Daten“ und verändern unsere Glaubensgrade<br />
für Hypothesen. Die Rechtfertigungsstruktur ist gerichtet und nicht<br />
reziprok.<br />
Das könnte vielleicht wenigstens ein approximatives Modell für die<br />
Wissenschaften darstellen. Doch hier kommt ein anderes gravierendes<br />
Problem ins Spiel. Wir wissen nicht auf welche neuen Theorien mit neuen<br />
Begriffen Wissenschaftler noch verfallen werden. Wie sollen wir daher<br />
für diese Fälle bereits jetzt bedingte Wahrscheinlichkeiten angeben?<br />
D.h., wir verfügen auch nicht über vollständige Hypothesenmengen. Die<br />
größten Fortschritte und Revolutionen in der Wissenschaftsgeschichte<br />
erfolgten durch Einführung neuer Theorien, die die Einführung neuer<br />
Begriffe beinhalten. Für diesen entscheidenden Schritt weiß uns der<br />
Bayesianismus keine Hilfe mehr anzubieten.<br />
Auch das, was Theorien und ihre Erklärungskraft auszeichnet, was<br />
Theorien oft so spannend für uns macht, wie ihr hoher empirischer Gehalt<br />
und ihre Erklärungskraft, tauchen im Bayesianistischen Rahmen<br />
nicht in geeigneter Weise auf. Doch dazu mehr in Kapitel IX.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 263<br />
V Einwände gegen eine Kohärenztheorie<br />
Auch gegen Kohärenztheorien der Rechtfertigung gibt es natürlich eine<br />
Reihe von Einwänden, von denen ich wenigstens die prominentesten<br />
Vertreter in diesem Kapitel besprechen möchte. Wir wissen spätestens<br />
seit den Arbeiten Kuhns zur Wissenschaftsgeschichte, daß jedes noch so<br />
erfolgreiche Forschungsprogramm an einigen Stellen mit Anomalien zu<br />
leben hat, meist in der Hoffnung, diese später durch kleinere Revisionen<br />
beheben zu können. Allerdings liegt die Front, an der sich Theorien zu<br />
bewähren haben, auch nicht allein in der Auseinandersetzung mit den<br />
Daten (das waren in unserem Fall unsere reflektierten Beispiele für epistemische<br />
Begründungen und allgemeineren Vorstellungen darüber, wie<br />
derartige Begründungen auszusehen haben), sondern wesentlich in einem<br />
Sieg über die konkurrierenden Forschungsprogramme. Die KTR<br />
hat sich vor allem gegenüber fundamentalistischen Positionen zu behaupten.<br />
Ein Vergleich zu anderen Kohärenztheorien und anderen Ansätzen<br />
hat zum großen Teil bereits in den vorangegangenen Kapiteln<br />
stattgefunden, doch im Zusammenhang einiger klassischer Einwände gegen<br />
Kohärenztheorien werden weitere Vergleiche mit den Leistungen<br />
anderer Erkenntnistheorien zu ziehen sein.<br />
A. Das Regreßproblem<br />
Fundamentalisten führen als wichtigstes Argument für ihre Position das<br />
Regreßargument an. Das bezieht sich darauf, daß man von rechtfertigenden<br />
Überzeugungen erwarten kann, sie seien selbst bereits gerechtfertigt.<br />
Dem hier lauernden Regreß oder Zirkel kann man ihrer Meinung nach<br />
nur entkommen, indem man an irgendeiner Stelle das Zurückgreifen auf<br />
andere Meinungen abbricht und diese ersten Meinungen für epistemisch<br />
grundlegend erklärt. Basale Meinungen müssen dann selbst gerechtfertigt<br />
sein, ohne dazu auf andere Meinungen angewiesen zu sein. Der fundamentalistische<br />
Lösungsvorschlag hatte sich aber als nichtrealisierbare<br />
Wunschvorstellung erwiesen. Sobald die Fundamentalisten in die Pflicht<br />
genommen wurden, die basalen Überzeugungen und die Art ihrer Recht-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 264<br />
fertigung konkret anzugeben, war es um die Plausibilität ihrer Positionen<br />
geschehen. Die wohl prominentesten und erfolgversprechendsten<br />
Vorschläge fundamentalistischer Erkenntnistheorien sind sicher die empiristischen,<br />
wonach Beobachtungsüberzeugungen grundlegend für unsere<br />
Erkenntnis sind. Daß sie aber auch nicht überzeugen können, wurde<br />
spätestens durch die kohärentistische Analyse der Begründung von Beobachtungsüberzeugungen<br />
ersichtlich, denn die zeigte, wie auch in deren<br />
Rechtfertigung wesentlich unser Hintergrundwissen eingeht. Steht<br />
nun die Kohärenztheorie vis-à-vis dem Regreßproblem besser da? Hat<br />
sie eine Antwort auf dieses Problem anzubieten, die überzeugender ist<br />
als die des Fundamentalismus? In diesem Abschnitt möchte ich untersuchen,<br />
was sie zu unserer Intuition beitragen kann, daß rechtfertigende<br />
Aussagen immer schon gerechtfertigt sein müssen. Aber vorher soll noch<br />
kurz ein anderer Weg, sich gegen den Regreßeinwand zu verteidigen, zu<br />
Zwecken der Abgrenzung Erwähnung finden.<br />
1. Pragmatischer Kontextualismus<br />
Eine Antwort auf das Regreßproblem und überdies auch auf weitergehende<br />
skeptische Einwürfe, die schon Wittgenstein ausprobiert hat, zielt<br />
auf den konkreten Einsatz und Kontext von Begründungen. In allen realistischen<br />
Beispielen von Rechtfertigungen steht die Frage nach einer Begründung<br />
in einem vorgegebenen Kontext. Je nach Kontext werden dabei<br />
jeweils bestimmte Meinungen nicht in Frage gestellt und können als<br />
eine Art von unkontroversem Hintergrundwissen vorausgesetzt werden.<br />
Wenn mich jemand fragt, wieso ich glaube, daß Fritz nicht gut auf mich<br />
zu sprechen ist, und ich antworte ihm, daß er direkt vor mir stehend<br />
„Idiot“ zu mir gesagt hat, wird man natürlich in normalen Kontexten<br />
die Frage, ob man sich denn auch sicher sei, kein Gehirn in einem Topf<br />
zu sein – was ja eine andere Interpretation der Wahrnehmung erforderte<br />
– als bloße Zumutung, aber nicht als ernstzunehmende Frage verstehen.<br />
Auch in wissenschaftlichen Kontexten sind jeweils bestimmte Annahmen<br />
als unproblematisches Hintergrundwissen zu betrachten. Den Historiker,<br />
der eine Vermutung über Hitlers Einstellung zu Frauen äußert, frage<br />
ich nicht, welche Beweise er denn hätte, daß die Welt nicht erst vor drei<br />
Minuten entstanden sei, wobei uns ein böser Dämon mit falschen Erinnerungen<br />
über unsere Vergangenheit an der Nase herumführt, und Hitler<br />
daher nie existiert hat. Die Fragen enden in der Regel nicht erst bei<br />
skeptischen Hypothesen, sondern schon erheblich früher, weil wir unsere<br />
Begründungen auf einen weit größeren Bereich von gemeinsamem
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 265<br />
Hintergrundwissen aufbauen dürfen als die bloße Ablehnung skeptischer<br />
Hypothesen. Ein unendlicher Regreß ist daher ein Phänomen, dem wir<br />
in der Rechtfertigungspraxis nicht tatsächlich begegnen. Können wir<br />
diese Erkenntnis nicht zu einem Einwand gegen den Regreß ausbauen?<br />
Eine Position, die den Regreß auf diesem Weg als unbedeutend zurückweist,<br />
können wir als pragmatischen Kontextualismus bezeichnen. Sie<br />
studiert Begründungen in ihren praktischen Zusammenhängen, in denen<br />
der jeweilige Kontext festlegt, welches die Prämissen einer Rechtfertigung<br />
sind, auf die man sich beziehen darf. 106 Das Regreßproblem tritt<br />
dann nicht mehr auf, weil wir immer ein Hintergrundwissen voraussetzen,<br />
auf das wir für die Rechtfertigung zurückgreifen dürfen.<br />
Diese Zurückweisung des Regreßproblems kann zeigen, daß es sich<br />
auch lohnen würde, eine Theorie der Rechtfertigung auszuarbeiten,<br />
wenn es nicht gelänge, eine Antwort auf das Regreßproblem zu geben.<br />
Aber natürlich zeigt sie nicht, daß es damit obsolet geworden ist und<br />
man für eine Theorie der Rechtfertigung dieses Problem nicht mehr<br />
sinnvoll aufwerfen kann. Als Erkenntnistheoretiker kann ich durchaus<br />
zugestehen, daß in praktischen Begründungen das Regreßproblem nicht<br />
in Erscheinung tritt, weil sich die Gesprächspartner meist auf ein unkontroverses<br />
Hintergrundwissen beziehen können, aber niemand kann mir<br />
verbieten nachzufragen, ob dieses Hintergrundwissen auch gut begründbar<br />
ist. Dafür muß mir der Hinweis, die Diskussionspartner hätten sich<br />
darauf geeinigt, keineswegs ausreichen. Die Einigung sagt noch nichts<br />
darüber, ob dieses Hintergrundwissen wahr ist. Eine Rechtfertigung, die<br />
sich auf lauter unbegründete Meinungen stützt, die genauso gut falsch<br />
wie wahr sein können, ist aber kein Wahrheitsindikator mehr. Sie dient<br />
in diesem Zusammenhang nur dem praktischen Zweck, sich in einer<br />
Diskussion schnell auf eine Ansicht zu einigen.<br />
Der pragmatische Kontextualismus soll trotzdem an dieser Stelle als<br />
mögliche Antwort erwähnt werden, weil er eine immer wieder vorgebrachte<br />
Argumentationsform gegen skeptische Einwände aller Art darstellt.<br />
Es handelt sich außerdem weder um eine fundamentalistische Position,<br />
so wie wir sie gekennzeichnet hatten, noch um eine kohärentistische.<br />
Ein Kontextualist zeichnet keine Klasse von basalen Aussagen nur<br />
durch ihren Inhalt aus, sondern wählt jeweils nur in Abhängigkeit vom<br />
Kontext eines speziellen Rechtfertigungsprojekts bestimmte Überzeugungen<br />
als für diesen Kontext unproblematisch aus und unterschreibt damit<br />
106 Sogar die Standards für Rechtfertigungen können dabei vom Kontext<br />
mit festgelegt werden. Wissenschaftliche Dispute verlangen natürlich andere als<br />
Stammtischreden oder Politikeransprachen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 266<br />
nicht (FU 3) (s. Kap. III.B.1). Er verlangt auch von diesem Hintergrundwissen<br />
nicht, daß es kohärent sein muß, sondern nur, daß es für die beteiligten<br />
Diskussionspartner selbstverständlich erscheint.<br />
Von Williams (1991) wurde der interessante Versuch unternommen,<br />
aus diesen praktischen Überlegungen ein erkenntnistheoretisches Argument<br />
zu entwickeln und somit auch den Skeptiker anhand eines theoretisch<br />
fundierten Kontextualismus zurückzuweisen. Williams behauptet,<br />
daß die Fragestellungen des radikalen Skeptikers auf einen Fundamentalismus<br />
als theoretische Voraussetzung angewiesen sind und somit auf einer<br />
falschen erkenntnistheoretischen Annahme beruhen. Dadurch tritt<br />
der Kontextualismus aus dem von Erkenntnistheoretikern oft nicht so<br />
recht ernstgenommenen rein pragmatischen Kontext heraus und gewinnt<br />
auch theoretische Bedeutung. Um diesen Schritt durchführen zu<br />
können, ist Williams jedoch auf eine subtile Analyse der skeptischen Positionen<br />
angewiesen, die er bekämpfen möchte, die sehr viele angreifbare<br />
Einzelschritte enthält und sicher nicht als unkontrovers betrachtet<br />
werden kann. Der Kohärenztheoretiker ist zum Glück nicht auf eine<br />
derartig komplizierte Diagnose des Regreßproblem-Skeptizismus angewiesen,<br />
in der dem Skeptiker falsche theoretische Voraussetzungen vorgeworfen<br />
werden, sondern bemüht sich, eine direkte Antwort auf die<br />
Frage nach den Rechtfertigungen der Prämissen unserer Rechtfertigungen<br />
zu geben. Er beruft sich nicht auf kontextuelle Aspekte von Rechtfertigungen,<br />
sondern zeigt auf, wo die gesuchten Rechtfertigungen zu suchen<br />
sind.<br />
2. Lineare Rechtfertigungsstrukturen?<br />
Der Kohärenztheoretiker hat auf das Regreßproblem die schlichte Antwort<br />
parat: Denken wir uns ein annähernd ideal kohärentes oder wenigstens<br />
hochkohärentes System X von Aussagen. Dann sind alle Aussagen<br />
dieses Systems auch optimal begründet. Für jede Aussage in dem System<br />
X gibt es sogar gleich mehrere inferentielle Begründungen, wenn X<br />
wirklich hochkohärent ist. Sobald ich mich also bei der Rechtfertigung<br />
einer Aussage p aus X auf andere Aussagen von X stütze, sind diese<br />
selbst gleichfalls gerechtfertigt. An diesem Punkt wird wieder ein holistischer<br />
Zug von Rechtfertigungen offenkundig. Bei Vorliegen systematischer,<br />
globaler Kohärenz hält unser Überzeugungssystem allen weiteren<br />
Nachfragen stand, und gestattet es, zu jeder Meinung aus X eine Rechtfertigung<br />
zu produzieren. Damit ist die Kohärenzkonzeption an keiner
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 267<br />
Stelle auf die Zurückweisung „In diesem Zusammenhang darf man nicht<br />
nach rechtfertigenden Meinungen fragen.“ angewiesen.<br />
Ein naheliegender Einwand von fundamentalistischer Seite scheint<br />
demgegenüber zu sein: Aber ist das denn möglich, müssen denn nicht<br />
bestimmte Überzeugungen vor anderen begründet werden? Es ist wichtig,<br />
zunächst noch einmal einem Mißverständnis in bezug auf Rechtfertigungszusammenhänge<br />
vorzubeugen, das sich hinter diesem Einwand<br />
häufig verbirgt. Begründungszusammenhänge sind nicht zeitlich zu verstehen<br />
oder als ein tatsächlicher Prozeß von Rechtfertigungen, auch<br />
wenn eine ganze Reihe von Formulierungen das nahelegen. 107 Rechtfertigungsbeziehungen<br />
sind zeitlose inferentielle Zusammenhänge in der Art<br />
von logischen Zusammenhängen, während dagegen jeder Vorgang der<br />
Rechtfertigung, den ich vornehme, ein zeitlich ablaufender Prozeß ist;<br />
wie auch die Durchführung einer logischen Deduktion einen zeitlichen<br />
Prozeß darstellt. Man darf das Regreßargument daher nicht als ein Argument<br />
beschreiben, daß nach dem Vorgang des Begründens von Meinungen<br />
fragt, denn damit begibt man sich aus der Debatte um Rechtfertigungszusammenhänge<br />
in die der Genese von Meinungen. Explizite<br />
Rechtfertigungsketten kann man selbstverständlich nur endlich viele<br />
Schritte weit tatsächlich durchlaufen. Das sagt aber noch nicht, daß man<br />
nicht im Prinzip und implizit über weitere Rechtfertigungen potentiell<br />
sogar ohne Ende verfügt. Eine Analogie von Lehrer (1990b, 88f) kann<br />
diesen Punkt etwas erhellen. Die Addition von drei zu einer gegebenen<br />
Zahl kann ich aufgrund biologischer Beschränkungen, die wir alle bedauern,<br />
nur endlich oft vornehmen. Das heißt aber nicht, daß es eine<br />
größte Zahl geben muß, zu der ich drei nicht addieren könnte. Die<br />
Rechtfertigungsketten des Regreßarguments sind also nicht als Ketten<br />
von tatsächlich anzugebenden Rechtfertigungen, die wir nicht tatsächlich<br />
durchlaufen können, zu deuten, sondern nur als Problem der logischen<br />
Struktur von Rechtfertigungsbeziehungen. Die Begründungsstruktur<br />
kennt diese zeitlichen Relationen nicht, sondern ist zeitlos (vgl.<br />
III.B.2).<br />
Hat man die Vorstellung zeitlicher Beziehungen zwischen Argumenten<br />
für p und p selbst erst einmal aufgegeben, wird auch verständlicher,<br />
wie die Antwort der Kohärenztheoretiker auf das Regreßproblem zu ver-<br />
107 Diese Formulierungen finden sich meist dort, wo man Genese und<br />
Rechtfertigungen nicht sauber trennt (etwa Musgrave 1993, 61). Beim Erwerb<br />
von Überzeugungen oder ihrer expliziten Rechtfertigung müssen wir natürlich irgendwo<br />
anfangen. Diese genetische Beschreibung wird häufig zu schnell als eine<br />
Beschreibung der epistemischen Struktur ins Spiel gebracht.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 268<br />
stehen ist. Ich gehe nicht von p zu anderen Aussagen q, die ich zuerst<br />
rechtfertigen muß, um p rechtfertigen zu können, und von dort zu Aussagen<br />
r, die wiederum vorher zu rechtfertigen sind usw., sondern p ist gerechtfertigt<br />
aufgrund von q und q aufgrund von r usf. Der zunächst erweckte<br />
Eindruck, hier müßte eine unendliche Kette tatsächlich durchlaufen<br />
werden, war irreführend. Da in einem kohärenten Überzeugungssystem<br />
aber alle einzelnen Überzeugungen inferentiell gerechtfertigt sind,<br />
hat der Kohärenztheoretiker die im Regreßproblem gestellte Aufgabe beantwortet.<br />
Der weitergehende Einwand, das ganze Überzeugungssytem<br />
sei dann wohl nicht begründet, mündet bereits in eine radikalere Version<br />
des Skeptizismus, auf die ich erst im Kapitel (VI) eingehen möchte. Der<br />
Kritiker der Kohärenztheorie ist daher an dieser Stelle aufgerufen, sein<br />
Regreßargument so zu formulieren, daß es befreit ist von allen Vorstellungen<br />
zeitlichen Vorhergehens, aber auch nicht die Falschheit der kohärentistischen<br />
Position zur Voraussetzung erhebt.<br />
Überdies erhält man im kohärentistischen Bild unseres Überzeugungssystems<br />
keine einfache Kette von Überzeugungen der im Regreßargument<br />
angegebenen Art, sondern ein kompliziertes Netzwerk von Meinungen.<br />
BonJour formuliert diese Einsicht der Kohärenztheorie so, daß<br />
hier eine falsche Voraussetzung des Regreßarguments aufgedeckt wird,<br />
nämlich, daß Rechtfertigungen linear verlaufen. Damit ist zunächst darauf<br />
hingewiesen, daß ich nicht für eine Aussage immer nur eine andere<br />
zur Begründung heranziehe und dann wieder eine weitere usf. Die Begründungen<br />
fächern sich auf und in diesem großen Fächer, darf auch p<br />
selbst wieder eine kleine rechtfertigende Rolle übernehmen, was schon<br />
daran liegt, daß Rechtfertigungsbeziehungen reziprok sind. Ein idealisiertes<br />
Beispiel soll den Punkt illustrieren: Eine Beobachtungsaussage p<br />
eines kohärenten Systems X sei durch die Erklärung mit Hilfe einer<br />
Theorie T in X zum Teil gerechtfertigt. Die Theorie stützt sich epistemisch<br />
unter anderem auf ihre große Erklärungsleistung, nach der sie<br />
viele Beobachtungen auf zufriedenstellende Weise erklärt. Eine unter<br />
den vielen Beobachtungen, die die Theorie mittels Abduktion stützen, ist<br />
dabei wiederum p, das damit einen kleinen Beitrag leistet, die Erklärungsbreite<br />
und Leistungsfähigkeit der Theorie T aufzuzeigen. Natürlich<br />
sollte T nicht nur durch p zu rechtfertigen sein, denn dann hätten wir es<br />
mit einer ausgesprochenen ad hoc Theorie zur Erklärung von p zu tun,<br />
die eine Form von Inkohärenz, etwa gemäß dem Punkt des isolierten<br />
Subsystems, in X darstellte (s. KTR 3.b). Weiterhin gibt es eine Einbettung<br />
von T in ein umfangreicheres Netzwerk von anderen Theorien und<br />
Annahmen höherer Stufe, die T epistemische Unterstützung leisten. Für
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 269<br />
manche Theorien gab oder gibt es praktisch nur solche theoretischen<br />
Gründe und keine Beobachtungen, auf die sie sich berufen können. Das<br />
war etwa für die allgemeine Relativitätstheorie zu Beginn ihrer Karriere<br />
der Fall und ist heute für einige sehr moderne Theorien wie Twistortheorien<br />
oder ähnlich abstrakte Theorien wohl nicht viel anders. Schon<br />
Einsteins Gründe für seine Entwicklung der speziellen Relativitätstheorie<br />
waren zunächst rein theoretischer Art und bezogen sich auf das unterschiedliche<br />
Invarianzverhalten von Elektrodynamik und klassischer<br />
Mechanik und nicht die Beobachtung relativistischer Phänomene. Diese<br />
Zusammenhänge offenbaren, daß die Vorstellung von linearen Rechtfertigungen,<br />
die sich in unendliche Ketten oder Zirkel zurückverfolgen lassen,<br />
tatsächlich irreführend ist.<br />
Auch die Beobachtungsüberzeugung p selbst wird nicht nur durch T<br />
und die von T geleistete Einbettung von p in unser Hintergrundwissen<br />
gestützt, sondern ist ihrerseits in viele empirische Zusammenhänge eingebettet.<br />
Einen hatten wir schon im Beispiel des Superempiristen erwähnt,<br />
nämlich die Kontinuität in unseren beobachtbaren Bereichen.<br />
Wird die wesentlich verletzt, spricht das gegen die Brauchbarkeit unserer<br />
Wahrnehmungen als Information über die Außenwelt, während ihr<br />
Vorliegen ein Grund ist, ihr zu vertrauen. Ähnlich sieht es für unsere Erwartungen<br />
aus. Mitten in einer menschenleeren Wüste erwarten wir keinen<br />
Eisstand oder eine Tankstelle, wenn noch nicht einmal eine Straße<br />
vorhanden ist, sondern befürchten beim Auftauchen eines Eisstands vielmehr,<br />
einer Halluzination zu unterliegen. Stimmen unsere Beobachtungen<br />
mit unseren Erwartungen überein, geben die Erwartungen, die ja ihrerseits<br />
auch begründbar sind, uns ebenfalls Grund, unseren Sinnen zu<br />
vertrauen. Darüber hinaus ist p vielleicht in einer Situation, für die wir<br />
uns selbst als zuverlässige Beobachter einstufen, spontan in uns entstanden,<br />
so daß auch unsere epistemischen Überzeugungen einen Grund bieten,<br />
an p zu glauben. Diese werden ebenfalls durch p bestätigt, wenn<br />
sich p bewährt und nicht später als falsch herausstellt, denn für sie ist p<br />
eine Instanz, die sie gut erklären können. Die genannten Zusammenhänge<br />
geben einen kleinen Ausschnitt aus dem vielfältigen Geflecht von<br />
Meinungen, in das p eingeordnet wird und die p epistemisch stützen, für<br />
die aber auch p wiederum einen Wahrheitsindikator darstellt.<br />
Hier drängt es sich auf einzuwenden, diese Beschreibung könne<br />
gleichwohl so nicht stimmen, denn eins müsse doch zuerst gerechtfertigt<br />
sein, p oder die anderen Aussagen, die p stützen sollen. Aber so vorgetragen<br />
versteckt sich dahinter wiederum nur die falsche Auffassung einer<br />
zeitlichen Beziehung, die bei Fundamentalisten in eine Asymmetrie der
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 270<br />
Rechtfertigungsbeziehung umgedeutet wird. Für Fundamentalisten sind<br />
Rechtfertigungen neben ihrer Eingleisigkeit auch noch gerichtet. Es kann<br />
immer nur p eine epistemische Unterstützung für q darstellen oder umgekehrt,<br />
aber es kann nicht sein, daß beide eine epistemische Stützung<br />
für den jeweils anderen abgeben. Doch welche Gründe, neben der zugegeben<br />
intuitiv wirksamen Vorstellung von Rechtfertigung als einem zeitlichen<br />
Vorgang, sprechen für diese einseitige Gerichtetheit? Hier ist der<br />
Fundamentalist aufgerufen, solche Gründe zu nennen, wenn er sich gegen<br />
Kohärenzkonzeptionen wenden möchte, denn der Kohärenztheoretiker<br />
hat zunächst ein plausibles Bild der Rechtfertigungszusammenhänge<br />
anzubieten – das des Netzes von Überzeugungen –, die sich in komplizierten<br />
Erklärungsbeziehungen gegenseitig stützen. In einem kohärenten<br />
Netz lassen sich für alle Elemente intuitiv überzeugende Rechtfertigungen<br />
anbieten. Damit sind natürlich auch alle Aussagen des Netzes, die<br />
zur Rechtfertigung herangezogen werden, selbst wieder gerechtfertigt.<br />
Unserer Intuition, daß nur begründete Meinungen rechtfertigende Wirkung<br />
haben können, ist damit entsprochen.<br />
Es gibt selbstverständlich auch Versuche von raffinierten Fundamentalisten,<br />
das Regreßargument ohne Anklang an zeitliche Beziehungen zu<br />
formulieren. Moser (1991, 56ff) stellt etwa einen solchen Fall dar, der<br />
alle Antworttypen auf das Regreßargument daraufhin genauer untersucht.<br />
Für Rechtfertigungen anhand von kohärenten Netzen macht er<br />
z. B. geltend:<br />
At most such coherence makes the members possibly true. But if coherence<br />
by itself is not probability-providing, a coherent system is<br />
not automatically probability providing. Thus Probability Coherentism<br />
does not provide an adequate evidence basis for evidential probability.<br />
(Moser 1991, 62)<br />
Und für seine Behauptung, daß Kohärenz noch nicht von sich aus „probability<br />
providing“ ist, beruft er sich wesentlich auf den „mehrere Systeme“-Einwand:<br />
There are comprehensive coherent systems of obviously false, evidentially<br />
gratuitous propositions, such as propositions in science fiction.<br />
And for virtually any coherent system of propositions, we can<br />
imagine an alternative system mainly of the denials of the propositions<br />
in the first system. (Moser 1991, 62)<br />
Davon einmal abgesehen, daß kaum zu erwarten ist, die Negationen unserer<br />
Meinungen könnten ebenfalls ein kohärentes System bilden, sind
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 271<br />
die von Kohärenztheorien wie KTR erlaubten Überzeugungssysteme keineswegs<br />
so beliebig, daß jede kohärente Geschichte zulässig ist. Mosers<br />
Überlegungen zum Regreßproblem münden an dieser Stelle aber schon<br />
in einen anderen klassischen Einwand gegen Kohärenztheorien, so daß<br />
schließlich das Regreßproblem hier keine eigenständige Bedeutung mehr<br />
besitzt, sondern im Rahmen des mehrere-Systeme Einwands (s. V.C) zu<br />
behandeln ist.<br />
Die kohärentistische Vorstellung von der Struktur der Begründung einer<br />
Aussage p ist also nicht die einer Kette von Rechtfertigungen, die<br />
man für p namhaft machen kann, sondern eher die, daß das ganze kohärente<br />
System X p auf vielen Wegen rechtfertigt. Dabei bezieht X seine<br />
eigene Rechtfertigung daraus, daß es sich um ein kohärentes System<br />
handelt, daß trotz ständigen Auftretens neuer spontaner Meinungen, die<br />
als Beobachtungsinput zu deuten sind, stabil bleibt. Die KTR beschreibt<br />
ein dynamisches Modell der Welt, das einen ständigen Strom von Informationen<br />
auf der Grundlage des jeweiligen Systems X kognitiv verarbeitet<br />
und seine langsame Anpassung zu einem immer geschlosseneren und<br />
informativeren Bild der Welt vorantreibt. Genau dieses Verfahren gibt<br />
uns einen Grund, daran zu glauben, daß es eine zunehmend korrektere<br />
Beschreibung der Welt oder bestimmter Teil der Welt darstellt. Darüber,<br />
wie gut X allgemein mit dem Beobachtungsinput fertig wird, gibt seine<br />
systematische Kohärenz Auskunft, während die relationale Kohärenz<br />
von p in X eher die spezielle Bestätigung von p durch X bestimmt.<br />
Natürlich kann man auch an dieser Stelle weiter fragen: Aber wie ist<br />
diese Vorgehensweise als Ganzes zu rechtfertigen? Da das Netz all unsere<br />
Überzeugungen erster wie auch höherer Stufen umfaßt, ist das bereits<br />
eine radikal skeptische Frage, die all unsere Meinungen gleichzeitig in<br />
Frage stellt. Hier meldet sich nicht mehr der Erkenntnistheoretiker, der<br />
eine andere Rechtfertigungstheorie gegen KTR stark machen möchte,<br />
sondern der externe Skeptiker (wie ich ihn in Kapitel (VI) nennen werde)<br />
zu Wort, mit dem ich mich erst dort beschäftigen werde. In diesem Kapitel<br />
wird immer noch eine Art von internem Standpunkt eingenommen.<br />
Es bleibt damit gegen den Regreßeinwand die Frage offen, wie er neben<br />
den klassischen Einwänden oder radikalen skeptischen Positionen einen<br />
neuen Aspekt ins Spiel bringen kann, der zwischen fundamentalistischen<br />
und kohärentistischen <strong>Begründungsstrategien</strong> diskriminieren kann, ohne<br />
den Kohärenzvertreter auf falsche Annahmen über zeitliche Beziehungen<br />
oder lineare Rechtfertigungsstrukturen festzulegen. Dazu muß man natürlich<br />
ebenfalls im Auge behalten, wie überzeugend die Auskunft der<br />
Fundamentalisten zur Frage des Begründungsregresses ist. KTR hat zum
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 272<br />
Regreßproblem deutlich mehr zu sagen als der Fundamentalist, der sich<br />
für basale Meinungen z. B. auf ihre Selbstevidenz beruft, was einem ausgesprochen<br />
kleinen Zirkel gleichkommt. Eine weitergehende und zugleich<br />
ergänzende Antwort möchte ich nun diskutieren, weil sie eine<br />
sinnvolle Ergänzung von KTR um eine Metaregel darstellt.<br />
3. Epistemologischer Konservatismus<br />
Den Kohärenztheorien wird verschiedentlich vorgeworfen (s. Kap.<br />
IV.E.3), zu konservativ auf neue Informationen zu reagieren. Dieser Vorwurf<br />
scheint auf einem zu engen Verständnis dessen, was alles in Kohärenzüberlegungen<br />
mit einbezogen werden muß, zu beruhen. In diesem<br />
Abschnitt möchte ich nicht die Kohärenztheorie gegen den Vorwurf des<br />
Konservatismus, sondern den Konservatismus selbst verteidigen und sogar<br />
für einen entsprechenden Zusatz zu KTR plädieren. Der Konservatismus<br />
soll als eine wünschenswerte metatheoretische Ergänzung von<br />
KTR betrachtet werden, die ein realistischeres Bild von Erkenntnis<br />
zeichnet, das auch die Entstehung von Meinungssystemen in Ansätzen<br />
modellieren hilft und darüber hinaus wünschenswerte epistemische Eigenschaften<br />
aufweist.<br />
Zunächst muß für die Diskussion geklärt werden, was unter einem<br />
Konservatismus in der Erkenntnistheorie im weiteren Verlauf verstanden<br />
werden soll. Es sind dazu recht unterschiedlich starke konservative Positionen<br />
etwa von Sklar (1975) formuliert worden. Im folgenden meine<br />
ich damit immer nur das relativ schwache Prinzip (MK):<br />
(MK) (Methodologischer) Epistemologischer Konservatismus<br />
Das Haben einer bestimmten Überzeugung in einem kohärenten und<br />
stabilen Überzeugungssystem stellt für sich bereits einen wenn auch<br />
schwachen Grund dar, an dieser Überzeugung festzuhalten. In den<br />
Fällen, in denen alle anderen Gründe zwischen zwei Hypothesen<br />
gleich sind, kann es einen Grund bieten, die zuerst gehabte Überzeugung<br />
beizubehalten.<br />
Das ist meines Erachtens die einzig vertretbare Form des erkenntnistheoretischen<br />
Konservatismus, in der z. B. nicht angenommen wird, daß die<br />
konservative Verankerung von Überzeugungen gegen andere epistemische<br />
Stützungen aufgerechnet werden kann. Ergeben sich gute (kohärentistische)<br />
Gründe gegen eine Meinung, sollten wir sie aufgeben, auch<br />
wenn wir sie bisher schon lange akzeptiert haben. Die Tradition soll der<br />
Vernunft nicht im Wege stehen, sondern ihr nur dort helfen, wo unsere
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 273<br />
anderen Gründe nicht ausreichend erscheinen. Etwa wenn wir zwischen<br />
zwei Hypothesen keine epistemischen Gründe angeben können, um die<br />
eine vorzuziehen, aber die eine bisher akzeptiert haben und die andere<br />
nicht, soll das als Grund anzusehen sein, sie der neu aufgetauchten Alternative<br />
erkenntnistheoretisch vorzuziehen.<br />
Es dürfte dabei auf der Hand liegen, daß das bloße Haben einer<br />
Überzeugung nur als ausgesprochen schwacher erster Grund für diese<br />
Überzeugung anzusehen ist. Das gilt vor allem dann, wenn das Überzeugungssystem<br />
hinreichend verrückt ist. Ein Überzeugungssystem wie das<br />
eines Superempiristen (vgl. IV.A.1) gibt uns kaum Anhaltspunkte, um an<br />
die einzelnen Meinungen des Superempiristen zu glauben. Die Forderung,<br />
nach Kohärenz und damit einem im Sinne von KTR einigermaßen<br />
„vernünftigen“ System von Meinungen ist daher ein wichtiger Bestandteil<br />
von (MK), den Proponenten des Konservatismus allerdings meist<br />
nicht erwähnen. Außerdem sollte deutlich sein, auch wenn ich auf diesen<br />
Punkt aus Gründen der Vereinfachung nicht immer explizit hinweise,<br />
daß Überzeugungen eine Sache des Grades sind und (MK) bietet<br />
nur Gründe für einen Glauben einer geringen Stärke. Ohne hier ein formales<br />
Modell von verschiedenen Glaubensgraden favorisieren zu wollen,<br />
möchte ich noch einmal darauf verweisen, daß unser Überzeugungssystem<br />
verschiedene Metaebenen hat, auf denen sich zumindest implizit<br />
auch Überzeugungen über die Sicherheit unserer Überzeugungen finden<br />
lassen. In der Frage, ob morgen die Sonne wieder aufgehen wird, sind<br />
wir uns – von Bewölkungen einmal abgesehen – wohl meist sehr sicher,<br />
während das z. B. nicht gilt im Hinblick auf das Alter, daß wir erreichen<br />
werden. Das Haben und Einschätzen auch schwacher Gründe ist ein Bestandteil<br />
unserer epistemischen Theorie und auch diese Metaüberzeugungen<br />
sind selbst wieder Gegenstand von Bewertungen.<br />
Doch was spricht für Überzeugungen, die wir bereits aufweisen, im<br />
Unterschied zu denen, die man statt dessen akzeptieren könnte, für die<br />
wir über keine schlechteren Gründe verfügen? Zunächst einmal sind es<br />
implizite Tests, die diese gehabten Meinungen durchlaufen haben, die<br />
die Alternativen nicht aufweisen. Diese Meinungen haben sich – und<br />
hier kommen wesentlich dynamische Aspekte ins Spiel – in ihrem bisherigen<br />
Einsatz bewährt. Jonathan Adler (1990) spricht in diesem Zusammenhang<br />
von „tacit confirmation“. Wir können vermutlich nicht genau<br />
sagen, an welchen Stellen das der Fall war, aber sie haben als Bestandteile<br />
eines kohärenten Systems nicht zu auffälligen Widersprüchlichkeiten<br />
geführt. Bei jeder Aufnahme von Informationen und internen Kohärenztests<br />
einer Theorie steht natürlich nicht nur die eine Theorie zur
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 274<br />
Diskussion, sondern auch unser Hintergrundwissen, das wir zur Beurteilung<br />
heranziehen. Das ist schon eine Folge der Reziprozität von Rechtfertigungen.<br />
Dabei können in schwacher Form auch Teile betroffen sein,<br />
die wir nicht explizit testen, die sich aber stillschweigend bewährt haben,<br />
wenn die Kohärenz unseres Überzeugungssystems erhalten bleibt. Der<br />
Duhem-Quinesche Holismus besagt, daß wir in extremen Situationen sogar<br />
die Regeln unserer Logik aufgeben könnten, um mit bestimmten Beobachtungen<br />
fertig zu werden. Solange wir diese Notwendigkeit nicht<br />
verspüren, scheinen unsere Wahrnehmungen auch diese Regeln weiter<br />
zu bestätigen. Die Logik bewährt sich als wichtiges Metaprinzip für die<br />
Kohärenz unseres Meinungssystems, ohne direkten Tests unterworfen zu<br />
sein. Unsere bisherigen Überzeugungen haben also gegenüber neuen<br />
Vorschlägen den epistemischen Vorteil, sich bereits stillschweigend bewährt<br />
zu haben, wenn sie Teil eines stabil kohärenten Überzeugungssystems<br />
sind.<br />
Es scheint auch kaum durchführbar, ihnen keinen Vertrauensvorschuß<br />
einzuräumen. Würden wir ständig offen dafür sein, zu ihren Alternativen<br />
zu wechseln und willkürlich wieder zurück, hätten wir an dieser<br />
Stelle eigentlich keine Meinungen mehr. Ohne (MK) wären diese Wechsel<br />
erkenntnistheoretisch aber rational. Wir wären indifferent gegenüber<br />
einer ganzen Familie von Aussagen. Da sich an jeder Stelle Alternativen<br />
finden lassen, beträfe das letztlich all unsere Meinungen. Im Nu stünden<br />
wir ohne Meinungen da und hätten dadurch nicht mehr die Möglichkeit,<br />
eingehende Informationen anhand unseres Hintergrundwissens zu<br />
bewerten. Realistischerweise kommt daher keine internalistische Erkenntnistheorie<br />
ohne einen entsprechenden Vertrauensvorschuß aus. Er<br />
ist geradezu eine Art Grundbedingung für das erkenntnistheoretische<br />
Räsonieren eines epistemischen Subjekts. Um uns fragen zu können, welche<br />
unserer Meinungen durch andere gestützt werden, müssen wir erst<br />
einmal (stabile) Meinungen aufweisen. Das ist auch nicht weiter problematisch,<br />
solange wir mit (MK) nur verbinden, daß es uns einen Start unserer<br />
Überlegungen gestattet und nicht gegen kohärentistische Gründe<br />
ausgespielt wird. Wir sind durchaus bereit, jede „konservative“ Meinung<br />
aufzugeben, sobald sich Gründe gegen sie finden. Das unterscheidet<br />
(MK) in der zuletzt gegebenen transzendental anmutenden Verteidigung<br />
gegenüber den synthetischen Urteilen a priori des deutschen Idealismus.<br />
Dort glaubte man mit transzendentalen Argumenten eine starke Waffe in<br />
der Hand zu haben, um ganz bestimmte Meinungen zu begründen.<br />
(MK) tritt dagegen viel bescheidener auf. Es ist eher ein methodologisches<br />
Prinzip, ohne das wir nicht auskommen, das aber bloß einen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 275<br />
schwachen Anfangsgrund etabliert. Dabei ist es auch nicht auf bestimmte<br />
Meinungen bezogen – es soll etwa kein Kausalprinzip rechtfertigen<br />
–, sondern bloß einen allgemeinen Startpunkt für weitere Überlegungen<br />
bereitstellen.<br />
Wie wichtig (MK) für unsere Fähigkeit ist, überhaupt Meinungen zu<br />
besitzen, können wir schließlich am Beispiel von jemand erläutern, der<br />
sich nach einer Art Anti-(MK) verhält und immer zu einer alternativen<br />
Meinung (etwa im Stile von Goodmans „grue“-Beispiel) übergeht. Epistemisch<br />
würden diese Überzeugungsänderungen von Anti-(MK) geboten.<br />
Verlaufen sie hinreichend rasch, erscheint es unmöglich, ihm eine<br />
Meinung zuzuschreiben. Antworte ich etwa im Stundenrhythmus (oder<br />
sogar noch viel kürzeren Abständen) unterschiedlich auf die Frage, ob<br />
ich die Person X mag, ohne daß sich meine Kenntnisse dieser Person jeweils<br />
geändert hätten, kann man eigentlich kaum noch davon sprechen,<br />
ich hätte eine Meinung in dieser Frage. 108 Zum Haben einer Meinung<br />
gehören neben der Disposition, mich in einer bestimmten Weise zu äußern,<br />
auch andere Verhaltensdispositionen, die sich erst im Laufe der<br />
Zeit zeigen und längerfristigen Charakter haben, der mit vollkommen<br />
revolutionären Meinungssystemen unvereinbar erscheint. Damit derartige<br />
Probleme nicht auftreten, sind wir auf eine gewisse Stabilität in unserem<br />
Überzeugungssystem zwingend angewiesen, die über reine Kohärenzüberlegungen<br />
hinausgeht. Diese Stabilität wird auch notwendig in<br />
der Diskussion mit dem Skeptiker in der Antwort auf seine Frage, warum<br />
wir an die Wahrheit unserer Meinungen glauben sollten. Nur ein relativ<br />
stabiles Weltmodell kann für ihn eine echte Herausforderung darstellen<br />
(s. VI.B.4), denn nur dort, wo unsere Meinungen eine innere<br />
Konvergenz aufweisen, haben wir einen Grund anzunehmen, daß sie gegen<br />
die Wahrheit konvergieren. Innere Konvergenz ist dabei ähnlich wie<br />
der Begriff der Cauchy-Folgen in der Mathematik zu verstehen. Es bedeutet,<br />
daß die Änderungen unserer Meinungen zumindest in bestimmten<br />
Bereichen immer kleiner werden, geradezu gegen Null konvergieren.<br />
Wenn die aufgrund neuer Daten notwendigen Änderungen einer Theorie<br />
mit der Zeit immer kleiner werden, obwohl weiterhin neue Beobachtungen<br />
vorgenommen werden und die Theorie dabei möglichst harten<br />
Tests unterworfen wird, ist das ein erklärungsbedürftiges Faktum, für<br />
das die Annahme, es handele sich um approximativ wahre Theorien, am<br />
natürlichsten erscheint.<br />
108 Wir erhalten übrigens schon deshalb keinen stabilen Zustand, weil<br />
durch einen Wechsel von Meinung A zu Meinung B nun wiederum A zu der<br />
neuen Meinung würde. Wir müßten also sofort wieder zu A zurückwechseln usf.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 276<br />
Für diesen „Limes“ unserer Meinungen haben wir dann Grund anzunehmen,<br />
daß es sich um wahre Theorien handelt. Nicht indem wir wie<br />
Putnam diesen Limes einfach als die Wahrheit definieren, sondern das<br />
Limesverhalten unserer Überzeugungen bietet einen Indikator, daß es<br />
sich dabei um die Wahrheit handeln könnte. Würde unsere Beschreibung<br />
der Welt an wesentlichen Stellen falsch sein, dürften wir erwarten<br />
(zumindest wenn die ganz radikalen skeptischen Hypothesen nicht zutreffen,<br />
die uns das Bild eines vollständigen systematischen Irrtums<br />
zeichnen), daß das falsche Bild an bestimmten Stellen zu Erklärungsanomalien<br />
führt, die uns Hinweise auf eine Unstimmigkeit geben würden.<br />
Das ist ein Verhalten, wie wir es für die Theorien, die wir bisher als<br />
falsch erkennen konnten, erlebt haben. Ohne innere Konvergenz erscheinen<br />
unsere Weltbilder dagegen wie wechselnde Moden ohne Ziel.<br />
Eine gewisse innere Stabilität ist also zumindest eine notwendige Bedingung<br />
für die Hoffnung auf Wahrheitsannäherung, aber auch ein wichtiges<br />
Indiz dafür, denn der Realist kann mit seiner realistischen Hypothese,<br />
daß die Welt in etwa so beschaffen ist, wie sie in unserem<br />
Überzeugungssystem beschrieben wird, eine gute Erklärung für die Bewährung<br />
des Überzeugungssystems trotz ständig neu eingehender Informationen<br />
anbieten.<br />
Damit ist natürlich noch nicht die Frage beantwortet, ob unsere<br />
Überzeugungen denn wenigstens für gewisse Bereiche tatsächlich ein<br />
entsprechendes Konvergenzverhalten aufweisen. Um das zu ermitteln,<br />
sind letztlich detaillierte Fallstudien notwendig, und ich möchte meine<br />
Ansichten dazu nur erwähnen. Ein Bereich, den man hier nennen könnte,<br />
ist der der Alltagsüberzeugungen, für den wir eine ziemliche Konstanz<br />
in ihren wesentlichen Anwendungen, etwa Alltagsgegenstände<br />
mittlerer Größe feststellen können. Natürlich sind viele Gegenstände<br />
und Erkenntnisse neu hinzugekommen, aber einfache Ansichten, wie<br />
daß bestimmte Gegenstände, die eben noch schwer waren, es auch jetzt<br />
sind, daß sie ihre Form und Farbe unter gewissen Bedingungen beibehalten,<br />
wie sie sich anfühlen werden usw., haben sich kaum verändert. Meines<br />
Erachtens ist auch für bestimmte Branchen der Wissenschaften ein<br />
Konvergenzverhalten zu bemerken. Dazu könnte man zählen: weite Bereiche<br />
der Chemie und Physik, aber auch die grundlegenden Annahmen<br />
der Evolutionstheorie oder gewisser technischer Bereiche und einiges<br />
mehr. An diesem Punkt der epistemischen Bewertung unseres eigenen<br />
Wissens sind Fragen wie die Kuhnschen nach der Inkommensurabilität<br />
aufeinanderfolgender wissenschaftlichen Theorien angesiedelt, die die<br />
Entwicklung unseres wissenschaftlichen Wissens als von Revolutionen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 277<br />
durchbrochen bewerten. Ob Kuhn mit seiner Inkommensurabilitätsvermutung<br />
Recht hat, läßt sich nur durch historische Fallstudien endgültig<br />
entscheiden, was zu untersuchen eine Aufgabe anderer Arbeiten ist.<br />
Außerdem stellt (MK) die epistemisch rationalere Strategie im Vergleich<br />
zu ihren Alternativen im Umgang mit der theoretischen Unterbestimmtheit<br />
dar. Betrachten wir dazu den Fall von zwei anscheinend<br />
gleich gut bestätigten Hypothesen H1 und H2, von denen wir bisher an<br />
H1 glauben. Wie können wir verfahren? Wir könnten H1 einfach aufgeben,<br />
ohne an H2 zu glauben, aber das wäre nicht sehr plausibel, denn<br />
wir würden ohne Gegenevidenzen und ohne Ersatz eine Meinung aufgeben,<br />
für die wir gute Gründe haben (s. dazu VI.B.5). Wir könnten auch<br />
die neue Hypothese H2 wählen, da wir nach Voraussetzung für sie ebenfalls<br />
über gute Gründe verfügen. Was würde es aber gerade in wissenschaftlichen<br />
Kontexten bedeuten, immer oder meistens die neue Hypothese<br />
zu wählen? Zunächst einmal scheint es im Rahmen einer Kohärenztheorie<br />
mit globalen Kohärenzforderungen kaum plausibel anzunehmen,<br />
daß sich rein lokale Alternativhypothesen finden lassen, die nur<br />
nach der Änderung einzelner Meinungen verlangen. Gerade die Fälle,<br />
die wir kennen, wie z. B. die Goodmanschen Hypothesen, erfordern bei<br />
genauer Betrachtung globalere Umbauten, damit das neue Überzeugungssystem<br />
dieselbe Kohärenz aufweist wie das alte. Da wir dabei nur<br />
eine Hypothese erhalten, die epistemisch nicht besser ist, als unsere bisherige,<br />
steht dem Aufwand, den wir beim Umbau unseres Überzeugungssystems<br />
übernehmen, keine epistemischer Gewinn gegenüber. Außerdem<br />
geraten wir mit diesem Vorgehen in die bereits geschilderten Probleme<br />
eines anti-konservativen Induktionsverfahrens. Als rationale Strategie<br />
für die Dynamik unseres Meinungssystems ist daher (MK) eindeutig vorzuziehen.<br />
Daß wir irgendeiner Art von Input gegenüber ein gewisses Vertrauen<br />
mitbringen müssen, hatte schon BonJour als eine analytische Bedingung<br />
für empirische Erkenntnis angegeben; aber wenn BonJour in seiner „observation<br />
requirement“ (s. IV.D.2 (OR)) davon spricht, daß wir unter<br />
den spontanen Meinungen einige als Beobachtungsüberzeugungen auszeichnen<br />
und sie bis zu einem gewissen Grad als zuverlässig akzeptieren<br />
sollten, setzt diese Konzeption bereits ein Hintergrundwissen voraus,<br />
das anhand eines Modells unserer Stellung in der Welt bestimmte Meinungen<br />
als Beobachtungen auszusondern gestattet. Einige Meinungen<br />
über Zahlen, die etwa im Verlaufe einer Berechnung auftauchen, werden<br />
nicht als Beobachtungen interpretiert, obwohl sie vielleicht genauso<br />
spontan auftreten wie Beobachtungen. Andererseits erwarten wir auch
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 278<br />
bestimmte Beobachtungen, so daß Beobachtungen uns nicht unbedingt<br />
spontan erscheinen müssen. Die Einordnung der Inhalte von Überzeugungen<br />
als beobachtbar oder nicht, setzt daher gleichfalls einen Hintergrund<br />
voraus, der sie als von außen kommend beschreibt. Damit wir die<br />
BonJoursche Bedingung (OR) überhaupt sinngemäß anwenden können,<br />
müssen wir schon anderen Teilen unseres Hintergrundwissens prima facie<br />
vertrauen; etwa Annahmen über den kausalen Ursprung bestimmter<br />
Meinungen. Damit die entsprechende Wirkung erzielt wird, benötigen<br />
wir daher eine Bedingung der Form (MK). Die impliziert unter anderem<br />
(OR) in einer schwachen Form und schafft für (OR) erst sinnvolle Startund<br />
Anwendungsbedingungen. Wenn wir nämlich gemäß (MK) all unseren<br />
Meinungen ein gewisses Vertrauen entgegenbringen, trifft das speziell<br />
für die Beobachtungsüberzeugungen zu, die sich spontan einstellen.<br />
Dabei kann die Art, wie (MK) mit dem Regreßproblem umzugehen gestattet,<br />
zeigen, wie gut (MK) an unsere Vorstellung von lokalen Rechtfertigungen<br />
angepaßt ist, die BonJour in seiner Bedingung (OR) noch<br />
außer Acht läßt. Daneben wird mit (MK) ganz im Sinne der Kohärenztheorie<br />
das Dogma der epistemischen Priorität von Beobachtungen auch<br />
auf der Metaebene aufgegeben. Wir gewähren nicht nur unseren Wahrnehmungsüberzeugungen<br />
einen kleinen Vertrauensvorschuß, sondern allen<br />
unseren Überzeugungen.<br />
(MK) wird somit zu einer Voraussetzung für empirische Erkenntnis,<br />
aber auch allgemeiner für begründete Meinungen. Man könnte geradezu<br />
sagen, daß (MK) eine transzendentale Voraussetzung für das Rechtfertigungsgeschäft<br />
darstellt, denn jede konkrete Begründung unserer Meinungen,<br />
die wir vornehmen, muß mit bestimmten Vorgaben irgendwelcher<br />
Art über die rechtfertigenden Meinungen starten; etwa Annahmen<br />
über die Bedeutung bestimmter Wörter, Metaannahmen darüber, welche<br />
und woher wir diese Überzeugungen haben oder wieso sie gerechtfertigt<br />
sind; Überzeugungen verschiedener Herkunft, auf die wir uns in unseren<br />
Begründungen stützen können. Selbst Descartes war in seiner „prima<br />
philosophia“ für sein „Cogito“ darauf angewiesen. Er mußte wissen, was<br />
„ich“, „existieren“ und „denken“ bedeuten. In seiner Antwort auf die 6.<br />
Einwände beruft er sich darauf, daß diese Begriffe angeboren sind (Descartes<br />
365f). Aber wie können wir wissen, wie sie korrekt zu gebrauchen<br />
sind, wenn wir nicht bestimmte Annahmen mit ihnen verknüpfen? Diese<br />
sind nicht rein apriorischer Art, da es keine so strikte Trennung zwischen<br />
analytischen und synthetischen Annahmen gibt. Der Hintergrund<br />
aller Vorgehensweisen und ihrer Rechtfertigung muß immer in einer Berufung<br />
auf bestimmte Teile unseres bisherigen Hintergrundwissens be-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 279<br />
stehen. Ziehen wir diesen Wissenshintergrund immer schon in Zweifel,<br />
läßt sich unser Vorgehen und der Entstehungsprozeß für unsere Meinungssystem<br />
nicht mehr verstehen. Jede Begründung von Meinungen<br />
beinhaltet daher eine Form von epistemologischen Konservatismus. Die<br />
von BonJour vorgeschlagene Beschränkung des Konservatismus auf Beobachtungsüberzeugungen<br />
bedarf selbst einer Begründung, die er uns<br />
schuldig bleibt. Das meines Erachtens einzig plausible und nicht willkürliche<br />
Verfahren dafür, wird durch (MK) angemessen ausgedrückt. Dieses<br />
Vorgehen entspricht noch weitergehend dem Neurathschen Bild von<br />
Schiffern, die ihr Schiff auf hoher See umbauen müssen, als das für Bon-<br />
Jours Konzeption der Fall ist. Der Umbau kann nur anhand einer konservativen<br />
Strategie immer auf dem aufbauen, was wir schon vorfinden,<br />
und wird nie freischwebend im leeren Raum durchgeführt. Meine internalistische<br />
Position, nach der jede Rechtfertigung selbst wieder Meinungen<br />
zu zitieren hat, harmoniert vorzüglich mit der konservativen Forderung,<br />
unseren bisherigen Meinungen zunächst zu vertrauen.<br />
Insgesamt beschreibt (MK) den rationalen Teil der stark konservativen<br />
Tendenzen unserer tatsächliche Rechtfertigungspraxis und findet<br />
sich in weit stärkerer Form ebenfalls in heute vielfach akzeptierten wissenschaftlichen<br />
Methodologien wieder. Die KTR setzt allerdings dem<br />
Prinzip (MK) enge Grenzen für seine Anwendbarkeit, so daß Wissenschaftler,<br />
die mit den Scheuklappen eines Paradigmas auf neue Daten<br />
und Theorien reagieren, sich nicht auf (MK) berufen können.<br />
Die Bedingungen von KTR sind zunächst überwiegend synchronisch<br />
formuliert, aber nicht nur synchronisch zu verstehen. Mit (2d) findet<br />
sich bereits ein wichtiger Hinweis auf eine diachronische Bedingung, die<br />
im Effekt besagt, daß ein kohärentes System um so bessere Rechtfertigungen<br />
liefert, um so längere Zeit es stabil kohärent geblieben ist. Es hat<br />
sich bei ständig neu eingehenden Informationen bewährt. Das waren erste<br />
Hinweise auf die Bedeutung eines Konservatismus für KTR. Da die<br />
konservative Vorgehensweise tatsächlich einen unverzichtbaren Bestandteil<br />
für jedes Rechtfertigungsverfahren darstellt, ergänze ich die Kohärenztheorie<br />
der Rechtfertigung nun noch explizit um das metatheoretische<br />
Prinzip (MK) des epistemologischen Konservatismus, das neben<br />
den synchronischen Bedingungen für Rechtfertigungen wieder stärker<br />
den dynamischen Aspekt von Überzeugungssystemen betont.<br />
(MK) wird jedenfalls durch erfolgreiche Anwendungen in der Wissenschaftsphilosophie<br />
gestützt. Ein methodologischer Naturalist sollte<br />
diese Leistungen von (MK) ernst nehmen. Er wird zumindest die Frage<br />
aufwerfen: Welche andere Erkenntnistheorie hätte hier bessere Erklä-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 280<br />
rungen anzubieten? Doch schauen wir noch etwas genauer zu, an welchen<br />
Stellen zeitgenössische Wissenschaftsphilosophen konservativen<br />
Strategien das Wort reden.<br />
a) Anwendungen des epistemischen Konservatismus<br />
In der erkenntnistheoretischen Debatte sind eine ganze Reihe konservativer<br />
methodologischer Prinzipien vorgeschlagen worden, die oft sogar<br />
deutlich über (MK) hinausgehen und trotzdem als plausibel akzeptiert<br />
wurden. Ihr gemeinsamer methodologischer Hintergrund als konservativer<br />
methodologischer Regeln war den betreffenden Autoren dabei allerdings<br />
nicht immer bewußt. Zunächst ist (MK) nicht so stark, wie bestimmte<br />
konservative methodologische Forderungen, die bei Lakatos<br />
oder Kuhn zu finden sind. Kuhns Struktur wissenschaftlicher Revolutionen<br />
hält das Festhalten an Paradigmata trotz Anomalien, solange keine<br />
neuen Paradigmata gefunden sind, für durchaus rational. Und Lakatos<br />
(1974, 137ff) plädiert in seiner Methodologie wissenschaftlicher Forschungsprogramme<br />
schon in Reaktion auf Kuhn und Feyerabend, dafür,<br />
daß wir selbst bei auftretenden Inkonsistenzen an einer Theorie festhalten<br />
sollten, solange sie sich in Erklärungen bewährt, also – in unserer<br />
Redeweise – im übrigen kohärenzstiftend verhält. 109 Da eine innere Inkonsistenz<br />
eines Forschungsprogramms an zentraler Stelle eine schwere<br />
Schädigung der Kohärenz darstellt, kann sie sicher nicht allein durch ihre<br />
Erklärungserfolge ausgeglichen werden. Auch Lakatos scheint hier<br />
der konservativen Verankerung von Theorien großes Gewicht beizulegen<br />
und sie sogar gegen andere epistemische Gründe aufzurechnen. Daß<br />
er damit allerdings schon zu weit geht und seine Position nicht wirklich<br />
plausibel ist, habe ich an anderer Stelle (Bartelborth 1989) belegt.<br />
Ebenfalls konservative Lösungsvorschläge für epistemische Probleme<br />
hält Nelson Goodman (1988) für sein „grue“-Paradox bereit. Goodman<br />
kann dort bekanntlich demonstrieren, daß wir zu unseren gewöhnlichen<br />
Verallgemeinerungen aus der Erfahrung immer alternative Verallgemeinerungen<br />
konstruieren können, die durch unsere Erfahrungen genauso<br />
gut gedeckt sind, die aber mit „seltsamen Prädikaten“ wie „grue“ formuliert<br />
wurden. Dabei werden diese Prädikate letztlich als seltsam zurück-<br />
109 Feyerabend (1986, 240) stimmt dem emphatisch zu. Er unterscheidet<br />
dabei nicht (1986, 39ff), an welcher Stelle die Inkonsistenzen auftreten. Natürlich<br />
dürfen neue Theorien oder Daten alten Hypothesen widersprechen, aber<br />
der problematische Fall, den Lakatos diskutiert, ist der von Inkonsistenzen innerhalb<br />
der Grundlagen einer Theorie selbst, die ich in (1988) als genuine Inkonsistenzen<br />
bezeichne.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 281<br />
gewiesen, weil sie nicht so gut in unserem bisherigen Überzeugungssystem<br />
verankert sind wie unsere gewöhnlichen Prädikate, was bedeutet,<br />
daß sie bisher in unseren Überzeugungen nicht auftraten. Das Vorkommen<br />
in unseren bisherigen Überzeugungen wird also auch bei Goodman<br />
zu einem epistemischen Wert anhand dessen wir zwischen konkurrierenden<br />
Hypothesen entscheiden können. Goodman stellt dabei noch nicht<br />
einmal Anforderungen an die Vernünftigkeit der bisherigen Überzeugungen,<br />
wie sie in (MK) verlangt werden.<br />
Intuitiv sinnvoll scheint die Anwendung von (MK) auch für Fragen<br />
der theoretischen Unterbestimmtheit von Hypothesen durch die Beobachtungsdaten<br />
zu sein (s. a. Sklar 1975, 379ff). Selbst wenn man nicht<br />
an prinzipiell unterbestimmte Hypothesen durch die Erfahrung glaubt,<br />
scheint doch der Fall, daß zwei Hypothesen H1 und H2 durch die bisher<br />
tatsächlich erhobenen Daten als gleich gut bestätigt zu gelten haben, ein<br />
Fall der wissenschaftlichen Praxis zu sein, für den sich genügend Beispiele<br />
in der Wissenschaftsgeschichte finden lassen. Das Prinzip (MK)<br />
spricht dann für die Hypothese, die wir de facto schon akzeptiert haben<br />
und stellt diese nicht schon deshalb in Frage, weil wir nun weitere Hypothesen<br />
mit der gleichen Erklärungsleistung gefunden haben. Damit ist<br />
natürlich noch nicht der Fall von gleichzeitig auftretenden Alternativen<br />
entschieden. Für den kann (MK) nur dann etwas besagen, wenn die eine<br />
zu bereits vorliegenden Überzeugungen besser paßt als die andere, die<br />
nach einer Revision schon vorliegender Meinungen verlangt. Nur in diesen<br />
Fällen gibt (MK) der Hypothese den epistemischen Vorzug, die zu<br />
größerer Stabilität für unser Meinungssystem führt. Damit gestattet es<br />
(MK), Skeptiker, etwa instrumentalistischen Typs wie van Fraassen, zurückzuweisen,<br />
die die Existenz von empirisch gleich guten Theorien bereits<br />
zum Anlaß nehmen, unsere realistische Deutung von wissenschaftlichen<br />
Theorien als epistemisch unbegründet zurückzuweisen. 110<br />
Weiterhin kann (MK) auch eine Aufgabe gegen übermäßig erscheinende<br />
Ansprüche nach Begründungen übernehmen, wie sie im infiniten<br />
Regreßvorwurf zu Tage treten. Wann immer wir eine bestimmte Meinung<br />
p begründen, müssen wir andere Meinungen zitieren, die selbst<br />
wieder begründet sein sollten. Für eine vollständige Rechtfertigung verlangte<br />
der Vertreter des Regreßarguments von uns, die gesamte Kette<br />
von Begründungen, die hinter p steht, parat zu haben. Das ist zweifellos<br />
psychologisch unrealistisch und führt Rechtfertigungen ins Reich der Fa-<br />
110 Gegen van Fraassen kann man auch direkt anhand von KTR argumentieren,<br />
was ich an anderer Stelle ausführen werde. Aber (MK) betont noch einmal<br />
explizit meine Zurückweisung derartiger Methodologien.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 282<br />
bel, weshalb wir implizite Begründungen akzeptierten. Nun stellt die<br />
konservative Strategie eine weitere Antwortmöglichkeit bereit. Ein erster<br />
rechtfertigender Grund für die rechtfertigenden Meinungen findet<br />
sich schon darin, daß wir in einem kohärenten System an sie glauben.<br />
Wir berufen uns auf Meinungen aus unserem kohärenten Überzeugungssystem<br />
und sehen diese als prima facie begründet an. Damit zitieren wir<br />
nicht einfach willkürlich irgendwelche Meinungen in unserer Rechtfertigung,<br />
sondern nur Meinungen, die längst einen epistemischen Ausleseprozeß<br />
durchlaufen haben und damit ein gewisses epistemisches Gewicht<br />
mitbringen. Darauf können wir mit (MK) bauen, ohne lange<br />
Rechtfertigungsketten tatsächlich durchlaufen zu müssen. Das kann auch<br />
unsere gewöhnliche Praxis des Begründens besser erklären, für Rechtfertigungen<br />
keine derartigen Ketten oder große Teile unseres Netzes auszubreiten,<br />
aber dennoch davon auszugehen, daß die zu Zwecken der<br />
Rechtfertigung genannten Meinungen keineswegs willkürlich und unbegründet<br />
gewählt wurden. Den Regreß stoppen wir also, indem wir uns<br />
schlicht auf andere unserer Meinungen stützen, die nach (MK) bereits<br />
eine erste Rechtfertigung mitbringen.<br />
b) Ist die konservative Strategie irrational?<br />
Die Beispiele der Anwendung von (MK) zeigen schon, daß der epistemologische<br />
Konservatismus ein durchaus intuitives Prinzip der Entwicklung<br />
unseres Meinungssystems und unserer Begründungspraxis verkörpert.<br />
Bereits gegen Ende von Platons Menon (98a) verweist Sokrates auf<br />
einen Zusammenhang zwischen Begründung und Stabilität unserer Erkenntnis,<br />
wenn er sagt, daß es geradezu ein charakteristisches Merkmal<br />
begründeter Erkenntnis sei, stabiler zu sein, als bloße wahre Meinung.<br />
Trotzdem wird (MK) empiristischen Erkenntnistheoretikern, mit ihrer<br />
besonderen Präferenz zugunsten der Beobachtungen, als „schauderhaft“<br />
erscheinen. Sklar (1975, 383ff) nennt einen Einwand von Goldstick<br />
(1971, 186ff), der in typischer Weise ihr Unbehagen zum Ausdruck<br />
bringt. Goldstick, der sich allerdings gegen eine stärkere Version des<br />
Konservatismus als (MK) wendet, führt folgende Analogie an: Wenn in<br />
zwei Gesellschaften andere soziale Regelungen auf gleich gute Weise ihre<br />
Dienste tun, ist es rational für diese Gesellschaften, diese Regeln zu verteidigen<br />
und nur zu einem anderen System zu wechseln, wenn dieses<br />
eindeutig bessere Erfüllung der sozialen Ziele verspricht. Solange das<br />
nicht erkennbar ist, kann jede der beiden Gesellschaften schon zur Aufrechterhaltung<br />
der inneren Stabilität mit Recht für sich in Anspruch nehmen,<br />
das beste System für ihre Gesellschaft zu besitzen. Das klingt fast
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 283<br />
schon wie eine Verteidigung von (MK). Doch Entsprechendes kann man<br />
nach Goldstick nicht für die Rationalität von Meinungen sagen, denn<br />
hier geht es um ihre Wahrheit, und es können nicht inkompatible Meinungen<br />
gleichzeitig wahr sein. Der Konservatismus kann nach Goldstick<br />
jedoch gerade dazu führen, daß zwei Personen A und B bei gleichen empirischen<br />
Evidenzen andere Aussagen für wahr halten, weil sie eine andere<br />
Geschichte durchlaufen haben. Das paßt seiner Meinung nach nicht<br />
zusammen und zeigt eine Inkohärenz im epistemischen Konservatismus.<br />
Natürlich liegt Goldstick richtig, daß nicht beide Personen Recht in<br />
dem Sinn haben können, daß ihre Meinungen wahr sind, aber das bedeutet<br />
noch nicht, daß sie nicht beide über gerechtfertigte Meinungen<br />
verfügen können. Rechtfertigungen sind keine unfehlbaren Wahrheitsindikatoren,<br />
und wir waren uns schon einig, daß man noch keineswegs<br />
epistemisch irrational sein muß, wenn man falsche Meinungen akzeptiert.<br />
Daß inkompatible Meinungen bei verschiedenem epistemischem<br />
Hintergrundwissen gleichzeitig begründet sein können, erscheint daher<br />
unproblematisch. Neu kommt in Goldsticks Beispiel nur hinzu, daß der<br />
momentane epistemische Hintergrund in beiden Fällen genau der Gleiche<br />
sein soll. Doch für Rechtfertigungen auf der Grundlage eines bestimmten<br />
Hintergrundwissens können wir auch keine Forderung erkennen,<br />
daß dieses Hintergundwissen nicht auch unterschiedliche Meinungen<br />
begründen helfen dürfte, denn Wahrheitsindikatoren müssen nicht<br />
unbedingt eindeutige Indikatoren sein. Wie das für KTR faktisch passieren<br />
könnte, hätte allerdings Goldstick zu belegen. Jedenfalls verliert sich<br />
Goldsticks Behauptung der Inkohärenz, wenn wir nicht auf die Wahrheit<br />
der beiden Meinungen schauen, sondern auf ihre Wahrheitsindikatoren,<br />
auf die sich die Unverträglichkeit nicht in derselben Weise überträgt.<br />
Und natürlich müssen wir außerdem im Auge behalten, daß es sich um<br />
zwei Personen handelt, denn für eine Person ist es zugegebenermaßen inkohärent,<br />
zwei miteinander unverträgliche Meinungen zu akzeptieren.<br />
Obendrein macht sich Goldstick einer „petitio“ schuldig, wenn er<br />
schon voraussetzt, daß die epistemischen Belege für beide Meinungen jeweils<br />
gleich sind. Das gerade bestreitet der Proponent einer konservativen<br />
Strategie, die eine diachronische Rechtfertigungstheorie darstellt, in<br />
der die Vorgeschichte des jetzigen Überzeugungssystems zu berücksichtigen<br />
ist. Die empirischen Belege mögen zu einem bestimmten Zeitpunkt<br />
dieselben gewesen sein, aber die Rechtfertigungssgeschichten müssen<br />
verschieden sein. Wenn man annimmt, das könne keinen epistemischen<br />
Unterschied bedeuten, lehnt man damit den Konservatismus bereits ab.<br />
Der epistemisch Konservative hat eine dynamische Vorstellung von einer
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 284<br />
rationalen Entwicklung unseres Überzeugungssystems und fragt, wie es<br />
zu der beschriebenen epistemischen Situation kam. Damit (MK) zu dem<br />
von Goldstick beschriebenen Fall führen kann, müssen die epistemischen<br />
Zustände von A und B früher unterschiedlich gewesen sein, weil<br />
historische Symmetrie jedenfalls keine Entscheidung nach (MK) zuläßt.<br />
A hat z. B. irgendwann p akzeptiert und B das dazu inkompatible q auf<br />
der Grundlage unterschiedlichen Hintergrundwissens. Das hat sich erst<br />
später in irgendeiner Form angeglichen. Beim Akzeptieren von p und q<br />
waren für A und B die Alternativen noch nicht einmal für den Empiristen<br />
epistemisch gleichwertig. Muß man ihnen dann jetzt Irrationalität<br />
vorwerfen, wenn sie beim Auftauchen neuer Alternativen, die intern genauso<br />
gut bestätigt erscheinen, ihre ursprünglichen Meinungen nicht<br />
verwerfen? Auf mich macht eher letzteres Verhalten einen unvernünftigen<br />
Eindruck, und es paßt jedenfalls nicht zu unserer Praxis von Meinungsänderungen.<br />
Der von Goldstick geschilderte Fall von zwei Personen mit exakt<br />
gleicher epistemischer Stützung für verschiedene Aussagen scheint mir in<br />
dieser Beschreibung auf dem Hintergrund von KTR auch eher unwahrscheinlich<br />
zu sein. Wenn A und B zunächst ein wesentlich anderes Hintergrundwissen<br />
aufweisen, so bewerten sie alle eingehenden Informationen<br />
vor diesem unterschiedlichen Hintergrund. Selbst wenn sie also<br />
letztlich dieselben Beobachtungen machen, werden sie diese jeweils anders<br />
in ihre Meinungssysteme einordnen, ihnen einen anderen Platz im<br />
Rahmen ihrer Theorien zuweisen, so daß spätere Beobachtungsüberzeugungen<br />
für sie nicht wirklich epistemisch gleichwertig sind. Das wären<br />
sie nur auf einer tabula rasa, auf der einfach „reine“ Daten gesammelt<br />
werden. Doch bereits die Vorstellung von Bedeutungen als kleinen Minitheorien<br />
zeigte, daß dieses von Empiristen favorisierte Bild der Erkenntnis<br />
nicht haltbar ist. Besonders deutlich wird das auch für tiefgreifende<br />
Umwälzungen unseres Überzeugungssystems, die meist mit Änderungen<br />
in der begrifflichen Struktur verbunden sind, was wir aus der Geschichte<br />
wissenschaftlicher Revolutionen lernen können. Daher sind die epistemischen<br />
Zustände, die sich danach anhand von bestimmten Beobachtungen<br />
ergeben, schwerlich als vollkommen äquivalent anzusehen. Statt<br />
von im übrigen gleichen epistemischen Zuständen sollte man also lieber<br />
von gleichen Wahrnehmungen sprechen, die nur für einen Empiristen einen<br />
Schluß auf eine gleich gute Bestätigung derselben Theorie erlauben.<br />
Es ist in dieser Geschichte nicht der Konservatismus allein, der zu anderen<br />
Überzeugungen geführt hat, sondern ein unterschiedlicher epistemischer<br />
Hintergrund bei der Bewertung von Beobachtungen, der in jeder
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 285<br />
internalistischen Theorie der Wahrnehmung bedeutsam sein sollte. Das<br />
führt auch keineswegs dazu, daß unsere Rechtfertigungen in unplausibler<br />
Weise wesentlich auf historische Zufälligkeiten zu relativieren sind.<br />
Welche Beobachtungen wir machen und zu welcher Zeit wir sie machen,<br />
ist natürlich für die Frage, was wir jeweils begründen können, von Belang.<br />
Was sich jedoch in einem bestimmten Meinungssystem zu einem<br />
bestimmten Zeitpunkt rechtfertigen läßt und was nicht, ist jeweils eine<br />
Frage von Kohärenzüberlegungen. Der jeweilige Zustand unseres Meinungssystems<br />
ist also wegabhängig. Er kann davon abhängen, in welcher<br />
Reihenfolge wir unsere Beobachtungen machen. Das scheint mir nur für<br />
jemanden inakzeptabel zu sein, der Rechtfertigungen für eine rein statische<br />
Angelegenheit ohne dynamische Aspekte hält. Doch eine rein synchrone<br />
Metatheorie würde das Verhalten realer epistemischer Subjekte<br />
nicht angemessen beschreiben können.<br />
Harman (1986, 35ff) verweist in diesem Zusammenhang noch auf<br />
die Arbeit von Ross und Anderson (1982), die Hinweise darauf gibt, wie<br />
ausgesprochen konservativ wir uns in unserem Überzeugungswandel tatsächlich<br />
verhalten. Das zeigte sich unter anderem in psychologischen Experimenten,<br />
bei denen den Versuchspersonen vorgetäuscht wurde, sie<br />
hätten besondere Fähigkeiten im Lösen von Logikaufgaben oder im Unterscheiden<br />
von fiktiven und tatsächlichen Geschichten etc. Als man sie<br />
nachträglich über das Experiment aufgeklärt hat, so daß die guten Gründe<br />
für ihre Annahme, sie verfügten über derartige Fähigkeiten, entfielen,<br />
führte das in vielen Fällen nicht dazu, daß diese Annahme ebenfalls aufgegeben<br />
wurde. Sogar wichtige Entscheidungen wurden weiterhin auf<br />
der Grundlage einer Selbstzuschreibung dieser Fähigkeit getroffen. Dieses<br />
Verhalten ist durch (MK) natürlich bei weitem nicht mehr gedeckt,<br />
denn in den geschilderten Situationen liegen Gründe vor, daß die Annahme<br />
tatsächlich falsch ist. Aufgrund von KTR zusammen mit (MK)<br />
wäre dieses Verhalten also bereits als irrational einzustufen. Kohärenzüberlegungen<br />
sprechen in dem Beispiel nämlich eher dafür, daß die eigenen<br />
Fähigkeiten in den genannten Bereichen nicht über durchschnittliche<br />
Leistungen hinausgehen. (MK) ist damit nur der schwache rationale<br />
Kern eines derartigen Verhaltens und sollte somit aus Sicht des methodologischen<br />
Naturalismus als angemessener Ausgangspunkt weiterer erkenntnistheoretischer<br />
Überlegungen dienen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 286<br />
B. Der Isolationseinwand<br />
Ein alter Vorwurf gegen Kohärenztheorien, der sich früher allerdings gegen<br />
Kohärenztheorien der Wahrheit richtete und nicht immer sehr explizit<br />
formuliert wurde, ist der sogenannte Isolationseinwand. Man findet<br />
ihn unter anderem bei Schlick (1934, 85f), der den Zusammenhang von<br />
Meinungen zur Wirklichkeit anmahnt. Bei diesem Typ von Einwand<br />
handelt es sich eigentlich um ein Bündel von Einwänden mit einer gemeinsamen<br />
Stoßrichtung, die sich ungefähr in folgender Weise formulieren<br />
läßt: Wenn unser Überzeugungssystem allein anhand von internen<br />
Kohärenzüberlegungen bestimmt wird, wie kann es da zu einer Erkenntnis<br />
einer von unseren Überzeugungen unabhängigen Außenwelt kommen?<br />
Wo bleibt in diesem Bild unserer Erkenntnis der Kontakt zur Welt,<br />
der empirische Input von Informationen, der doch für empirische Erkenntnisse<br />
unerläßlich ist und den der Empirist deshalb auch ganz in<br />
den Vordergrund stellt? Kann die Kohärenz unseres Überzeugungssystems<br />
dabei nicht die einer rein fiktiven Geschichte sein? Eine Spezifizierung<br />
dieses Einwandes hatte ich schon untersucht (IV.E.3). Sie besagt,<br />
daß ein Meinungssystem einfach dadurch seine einmal gewonnene Kohärenz<br />
aufrechterhalten kann, daß es nicht hineinpassende Erfahrungen<br />
als falsch zurückweist. Dieser Einwand übersah die zahlreichen epistemischen<br />
Überzeugungen, die gerade innerhalb unseres Überzeugungssystems<br />
bestimmten Beobachtungen den Status wichtiger Informationen<br />
über die Welt zusprechen. Tatsächlich ist unser Meinungssystem im Normalfall<br />
nicht von der Welt isoliert, sondern kausal eng mit ihm verknüpft.<br />
Dieser Zusammenhang, der in unseren Ansichten über unsere<br />
kausalen Stellung in der Welt repräsentiert ist, läßt uns auch andere Varianten<br />
des Isolationseinwands als wirkungslos zurückweisen.<br />
Die Behandlung von Wahrnehmungsüberzeugungen (IV.B) sollte<br />
deutlich machen: Wenn keine der radikalen skeptischen Hypothesen<br />
wahr ist, verfügen wir über einen ständigen Input von Informationen anhand<br />
spontan auftretender Beobachtungsüberzeugungen, die vermittels<br />
der Sinne einen kausalen Kontakt zu unserer Umgebung herstellen.<br />
Diese sind nicht schlicht abzuweisen, was durch das Metaprinzip des<br />
epistemologischen Konservatismus noch einmal unterstrichen wurde,<br />
denn jede auftretende Überzeugung ist zunächst ernst zu nehmen. Den<br />
Beobachtungen wird in normalen Überzeugungssystemen außerdem ein<br />
besonderer Status als zuverlässiger Input eingeräumt, so daß ein solches<br />
System nicht durch einfache Ablehnung auf sie reagieren kann, wenn es
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 287<br />
KTR genügen will. 111 Selbstverständlich können wir Beobachtungen unter<br />
besonderen Umständen auch zurückweisen, wenn wir etwa Gründe<br />
haben anzunehmen, daß sie auf kausal unzuverlässigem Wege entstanden<br />
sind. Aber zunächst bieten sie genau den gesuchten Kontakt zur Welt,<br />
und der Isolationseinwand zielt aus tatsächlichen Gründen ins Leere. Er<br />
ist auf die empirisch falsche Annahme angewiesen, daß wir nicht kausal<br />
mit der Welt verbunden sind. Soll er mit der zusätzlichen Behauptung<br />
verknüpft werden, es gäbe keinen solchen kausalen Kontakt, richtet sich<br />
der Isolationseinwand natürlich nicht mehr speziell gegen eine Kohärenzkonzeption<br />
von Rechtfertigung, sondern gegen alle Erkenntnistheorien.<br />
Dann ginge er aber auch in eine radikal skeptische Position über,<br />
deren Diskussion ich auf das nächste Kapitel verschieben möchte.<br />
C. Der mehrere-Systeme Einwand<br />
Ein anderer klassischer Einwand gegen die Kohärenztheorie, der allerdings<br />
nicht immer streng vom ersten getrennt wird, führt die Möglichkeit<br />
mehrerer gleich kohärenter Systeme ins Feld. Eine gut erdachte Geschichte<br />
kann genauso kohärent sein wie unser ausformuliertes Weltbild.<br />
Wieso sollte dann dieses eher wahr sein, als irgendeine der anderen kohärenten<br />
Geschichten? Schlick geht so weit zu behaupten, daß damit Kohärenz<br />
als Wahrheitskriterium logisch unmöglich wird:<br />
Damit zeigt sich die logische Unmöglichkeit der Kohärenzlehre; sie<br />
gibt überhaupt kein eindeutiges Kriterium der Wahrheit, denn ich<br />
kann mit ihr zu beliebig vielen in sich widerspruchsfreien Satzsystemen<br />
gelangen, die aber unter sich unverträglich sind. (Schlick 1934,<br />
87) 112<br />
Doch dieser Einwand trifft nur Kohärenztheorien der Wahrheitsdefinition<br />
und nicht Kohärenztheorien der Rechtfertigung oder Wahrheitsindikation.<br />
Für Definitionen der Wahrheit sollten wir allerdings verlangen, daß sie<br />
111 Was in hinreichend verückten Meinungssystemen passieren kann, für<br />
die das epistemische Subjekt etwa fest an Überzeugungen wie die der Skeptiker<br />
glaubt oder ein rein magisches Weltbild hat, vermag ich nicht zu sagen. Wenn<br />
man keine Wahrnehmungen als Input deutet und ihnen auch nicht im geringsten<br />
vertraut, kann man auch nicht mehr erwarten, sich auf internem Wege der<br />
Wahrheit zu nähern. Allerdings dürfte ein solches System auch nicht durch<br />
strikte Anwendung von KTR entstanden sein.<br />
112 Für weitere Vertreter dieses Arguments s. a. Rescher (1982, 48ff).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 288<br />
nicht zueinander inkompatible Aussagen gleichzeitig als wahr zulassen,<br />
aber von Indikatoren für Wahrheit können wir – wie schon mehrfach<br />
ausgeführt wurde – nicht verlangen, daß sie uns eine eindeutige Kennzeichnung<br />
der Wahrheit liefern. Gegenüber reinen Phantasiegeschichten<br />
ist unser Überzeugungssystem schon durch den im letzten Kapitel beschriebenen<br />
kausalen Kontakt zur Welt ausgezeichnet. Welchen Stellenwert<br />
besitzt darüber hinaus der Einwand, daß mehrere Überzeugungssysteme<br />
in gleicher Weise durch KTR zugelassen sein können?<br />
Das entspricht dem bekannten erkenntnistheoretischen Phänomen<br />
der Unterbestimmtheit, nach dem unsere Informationen manchmal nicht<br />
ausreichen, um alle alternativen Hypothesen über die Welt bis auf eine<br />
auszuschließen. Die Unterbestimmtheit ist ein Phänomen, mit dem alle<br />
Erkenntnistheorien zu kämpfen haben, das sich also nicht speziell gegen<br />
die Kohärenztheorie richtet. Im Gegenteil bietet gerade die Kohärenztheorie<br />
eine Reihe von Anhaltspunkten bei der Auswahl von (theoretischen)<br />
Hypothesen, die einem eingefleischten Empiristen nicht zur Verfügung<br />
stehen. Für den Kohärenztheoretiker ist die Gesamtkohärenz<br />
oder der Systemcharakter von Überzeugungssystemen ein zulässiger Hinweis<br />
auf ihre Wahrheit, während für den Empiristen ausschließlich die<br />
Berufung auf Beobachtungen zählen darf. Van Fraassen (1980, 87f) ist<br />
deshalb nur konsequent, wenn er Merkmale von empirischen Theorien<br />
wie Einfachheit, Vereinheitlichung und auch Erklärungskraft als rein<br />
pragmatische Tugenden von Theorien einstuft, die zwar für unseren Einsatz<br />
dieser Theorien sehr hilfreich sein können, die aber keinen Hinweis<br />
auf ihre Wahrheit abgeben: „They provide reasons to prefer the theory<br />
independently of the question of truth.“ Welchen Wert diese Tugenden<br />
von Theorien für uns haben, erklärt van Fraassen dann auch anhand<br />
pragmatischer Überlegungen. Für einen Empiristen muß es unbegründbare<br />
Metaphysik sein, wenn wir eine einfachere Theorie einer komplizierteren<br />
mit derselben Bestätigung durch Beobachtungen als begründeter<br />
vorziehen, denn warum sollten unter den einfachen Theorien eher<br />
wahre zu finden sein als unter den komplizierteren? Dieses Phänomen<br />
finden wir auch für die Erklärungstheorie, für die van Fraassen (z. B.<br />
1980, Kap.5) eine rein pragmatische Explikation vorschlägt, die wir später<br />
(VIII.C.1) noch kennenlernen werden. Nicht einmal die höhere Erklärungskraft<br />
einer Theorie kann der lupenreine Empirist also als Wahrheitsindikator<br />
zulassen. Daß diese Erkenntnistheorie an verschiedenen<br />
Stellen unplausibel erscheinen muß, ist wohl nicht mehr völlig überraschend.<br />
Vor allem läßt sie auch größere Spielräume der Unterbestimmtheit<br />
zu als KTR, was van Fraassen – wiederum konsequent – zu einer in-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 289<br />
strumentalistischen Auffassung wissenschaftlicher Theorien geführt hat.<br />
Damit ist sie viel stärker als die hier vertretene Rechtfertigungstheorie<br />
von Schwierigkeiten der Unterbestimmtheit betroffen, zumal neben KTR<br />
der epistemologische Konservatismus weitere Anhaltspunkte für eine<br />
Verringerung der Unterbestimmtheit liefert.<br />
D. Resümee<br />
Zentraler Streitpunkt zwischen fundamentalistischen und kohärentistischen<br />
Ansätzen in der Rechtfertigungstheorie ist das klassische Regreßproblem<br />
der Begründung. In (III.B) hatte ich nachgewiesen, daß der<br />
Fundamentalist keine gute Antwort auf den von ihm bemühten Regreßeinwand<br />
anzubieten weiß. Der Kohärenztheoretiker kann dagegen darauf<br />
verweisen, daß in einem hochkohärenten Überzeugungssystem jede<br />
Meinung gerechtfertigt ist, wodurch der Regreßvorwurf, wenn er nicht<br />
im Sinne radikaler skeptischer Hypothesen gemeint ist, zurückzuweisen<br />
ist. Unterstützt wird diese Zurückweisung durch die Aufnahme eines<br />
schwachen epistemologischen Konservatismus in Form des metatheoretischen<br />
Prinzips (MK), daß zu einer realistischeren Sicht der Entstehung<br />
und Dynamik von Überzeugungssystemen führt und außerdem notwendig<br />
erscheint, um die für Erkenntnis und Wahrheitsannäherung erforderliche<br />
Stabilität zu gewährleisten. KTR ohne eine diachronische Bedingung<br />
(2c) allein ist nämlich auch mit revolutionären epistemischen Strategien<br />
wie Anti-(MK) verträglich, die uns kein Bild einer schrittweisen<br />
Annäherung an die Wahrheit mit immer kleiner werdenden Änderungen<br />
gestatten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 290<br />
VI Metarechtfertigung<br />
Die bisherigen Kapitel der Arbeit waren allesamt auf eine Ausgestaltung<br />
einer Theorie der Rechtfertigung hin ausgerichtet. Dabei wurden die<br />
Einwände des Skeptikers zunächst beiseite geschoben, zumal eine meiner<br />
Thesen zur Entwicklung der Erkenntnistheorie besagte, daß die Fixierung<br />
auf die Debatte mit dem Skeptiker die Entfaltung von erkenntnistheoretischen<br />
Ansätzen nicht nur gefördert, sondern auch behindert hat.<br />
So haben Erkenntnistheoretiker zwar oft über die Bedeutung von Kohärenz<br />
für Rechtfertigungen gesprochen, aber dann vor allem darüber<br />
nachgedacht, wie man in dieser Konzeption auf die Einwände eines<br />
Skeptikers reagieren könnte. Die Klärung, was unter Kohärenz genau zu<br />
verstehen ist, kam dabei meist zu kurz. Das war ein Grund für mich, die<br />
Diskussion mit dem Skeptiker in dieser Arbeit eben nicht in den Vordergrund<br />
zu stellen. Trotzdem möchte ich sie natürlich keineswegs aufgeben.<br />
Wie man dem Skeptiker gegenübertreten kann, soll in diesem letzten<br />
Kapitel des zweiten Teils mein Thema sein. Den Skeptiker können<br />
wir als eine Art imaginären Gegenspieler verstehen, der unsere Erkenntnistheorien<br />
in Frage stellt. Eine Antwort auf den Skeptiker ist zugleich<br />
eine Rechtfertigung der eigenen Position. Weil es sich dabei um eine<br />
Rechtfertigung einer Rechtfertigungstheorie handelt, ist diese auf einer<br />
Metaebene angesiedelt und trägt daher den Namen „Metarechtfertigung“.<br />
Der Skeptizismus ist allerdings keine einheitliche Position und tritt in<br />
vielen Gewändern mit jeweils unterschiedlichen Spielregeln auf. Das ist<br />
einer der Gründe, warum er so schwer zu besiegen ist. Die skeptischen<br />
Positionen lassen sich etwa danach einteilen, auf welche Überzeugungen<br />
wir uns in einer Antwort stützen dürfen und welche Schlußverfahren uns<br />
der jeweilige Skeptikers zugesteht. Der Cartesianische Skeptiker ist besonders<br />
radikal und stellt letztlich sogar die mathematischen Wahrheiten<br />
und die Logik in Frage, aber z. B. nicht unsere Überzeugungen darüber,<br />
welche Überzeugungen wir haben. Der Humesche Skeptiker nimmt dagegen<br />
die Mathematik und deduktiven Schlüsse von seinem Zweifel aus<br />
und gestattet sogar eine Berufung auf Wahrnehmungserlebnisse. Für ihn<br />
sind es „nur“ die sich darauf stützenden Überzeugungen über Gegenstände<br />
der Außenwelt, die problematisch erscheinen (s. Watkins 1984,
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 291<br />
3ff). Es ist daher auch kein Zufall, daß sich die empiristisch gesinnten<br />
Erkenntnistheoretiker 113 immer wieder mit dieser speziellen Form des<br />
Skeptizismus beschäftigen, geht sie doch besonders gnädig mit den Sinnesdaten<br />
oder sinnlichen Erfahrungen um, die der Empirist in der einen<br />
oder anderen Form dem Aufbau der Erkenntnis zugrunde legen möchte.<br />
Aber eigentlich sind die Spielregeln für eine Auseinandersetzung mit<br />
dem Skeptiker nicht geklärt und außer gewissen empiristischen Vorlieben<br />
spricht nichts dafür, nicht auch die Erfahrungen und insbesondere<br />
unsere Erinnerungen an vergangene Erfahrungen (die Hume zuzulassen<br />
scheint) in Ungnade fallen zu lassen. Daß sie irrtumsgefährdet sind,<br />
hatte ich bereits belegt (III.B.5.a). Da ich die empiristische Vorliebe für<br />
Sinneserfahrungen aus erkenntnistheoretischer Sicht nicht teilen kann,<br />
gibt es für mich auch keinen Grund, den Humeschen Skeptizismus besonders<br />
hervorzuheben.<br />
Neben den radikalen und moderateren Formen des umfassenden<br />
Skeptizismus gibt es auch noch bereichsspezifische Formen, die ihre skeptische<br />
Haltung etwa auf unser theoretisches Wissen über unbeobachtbare<br />
Objekte oder Aussagen über die Vergangenheit oder die Zukunft, moralische<br />
Annahmen, mathematische Behauptungen, die Existenz von<br />
„other minds“ und andere Dinge beziehen. Da ich an dieser Stelle jedoch<br />
weder den Raum für eine ausführliche Diskussion aller noch eine<br />
Diskussion vieler skeptischer Positionen habe, möchte ich mich nur zwei<br />
Formen von Skeptizismus gegenüber Rechtfertigungen zuwenden, denen<br />
man auf ganz unterschiedliche Art gegenübertreten muß.<br />
Die zwei Formen des Skeptizismus, aus einem Kontinuum von möglichen<br />
Positionen mit graduellen Übergängen, nenne ich die interne und<br />
die externe Skepsis, oder man könnte auch von einer radikalen und einer<br />
moderaten Skepsis sprechen. Der interne Skeptiker stimmt mit mir wenigstens<br />
in einigen Teilen meines Hintergrundwissens überein, insbesondere<br />
in allgemeinen Ansichten über meine kausale Stellung in der Welt<br />
und in Teilen meiner epistemischen Metaüberzeugungen. Er richtet z. B.<br />
die Frage an mich, wieso ich gerade Kohärenz und nicht eine phänomenalistische<br />
Reduktion für epistemische Rechtfertigungen für wesentlich<br />
halte; oder warum ich unter Kohärenz genau das verstehe, was in KTR<br />
niedergelegt ist, und nicht etwas anderes, wie z. B. Kohärenz im Sinne<br />
des Lehrerschen Vorschlags. In meiner Antwort auf den internen Skeptiker<br />
kann ich mich daher auf relativ viele Intuitionen zur Rechtfertigung<br />
und paradigmatische Beispiele von Begründungen berufen, die er genau-<br />
113 Auch Watkins konzentriert sich in (1984) ganz darauf, dem Humeschen<br />
Skeptiker Paroli zu bieten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 292<br />
so akzeptiert wie ich. Er muß natürlich nicht gleich alle meine erkenntnistheoretischen<br />
Ansichten teilen, sonst käme wohl auch keine fruchtbare<br />
Diskussion mit ihm zustande, aber doch zumindest einige von denen,<br />
die relativ allgemein akzeptiert werden. Der interne Skeptiker ist also<br />
eher ein recht kritischer Diskussionspartner, als ein umfassender Skeptiker<br />
im klassischen Sinn. Er ist deshalb in den meisten Fällen auch der<br />
fruchtbarere Diskussionsgegner, denn seine Einwände führen jeweils zu<br />
kritischen Untersuchungen der Kohärenz meiner Metaüberzeugungen.<br />
Anders sieht es schon für die Diskussion mit dem externen oder radikalen<br />
Skeptiker aus, der meine Theorie von einem externen Standpunkt<br />
angreift und daneben eine Berufung auch auf solche Annahmen nicht<br />
mehr zuläßt, die uns normalerweise als selbstverständlich erscheinen.<br />
Die Auseinandersetzung mit externen skeptischen Einwänden muß notgedrungen<br />
vollkommen anders geführt werden als die gegen Einwände<br />
von einem internen Standpunkt aus. Sie ist erheblich schwieriger und<br />
wohl letztlich auch erfolgloser, was durch die vielen gescheiterten Versuche<br />
der Philosophiegeschichte, dem radikalen Skeptiker Paroli zu bieten,<br />
dokumentiert wird. Viele Erwiderungen auf „den Skeptiker“ treffen bestenfalls<br />
den internen und beziehen daraus ihre intuitive Kraft, sind gegen<br />
den externen aber als eine petitio principii zu betrachten.<br />
Wir kennen die Unterscheidung in die zwei Ausgangspunkte übrigens<br />
ebenso in anderen Bereichen unseres Wissens. Einen Evolutionstheoretiker<br />
können wir aus interner Sicht fragen, wieso er trotz der großen<br />
Ähnlichkeiten annimmt, daß der Beutelwolf (oder tasmanische<br />
Wolf) und die westeuropäischen Hunde schon seit ca. 100 Millionen<br />
Jahren getrennte Wege in der Evolution gehen. Ein externer Kritiker der<br />
Evolutionstheorie würde dagegen vielleicht fragen, wieso man nicht annimmt,<br />
Gott hätte die Tiere so geschaffen, wie sie heute sind. Was als intern<br />
und was als extern zu gelten hat, ist dabei relativ zu dem jeweiligen<br />
Fachgebiet zu bestimmen und außerdem natürlich gradueller Abstufungen<br />
und Vermischungen fähig. Der radikale Skeptiker nimmt die externsten<br />
Standpunkte ein, die überhaupt denkbar sind, und ist damit für alle<br />
Wissensbereiche ein externer Kritiker. Er würde den Evolutionstheoretiker<br />
vielleicht fragen, wieso er überhaupt an die Existenz einer Außenwelt<br />
glaubt oder daran, daß die Welt älter als drei Minuten ist. Auch der<br />
interne Skeptiker, den ich bekämpfen möchte, kann ein externer Skeptiker<br />
in bezug auf jedes beliebige Wissensgebiet sein, er darf nur nicht alle<br />
grundlegenden Annahmen über unsere kausale Stellung in der Welt auf<br />
einmal bezweifeln.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 293<br />
Ein Indiz für eine externe Frage ist, daß ihre Beantwortung dem<br />
Fachwissenschaftler im allgemeinen keine akademischen Lorbeeren in<br />
seinem Fach einbringt. Einen Evolutionstheoretiker, der sich in seiner<br />
Forschung mit dem Problem der Existenz einer Außenwelt beschäftigt,<br />
würden wir nicht schon deshalb für einen besonders gründlichen Evolutionstheoretiker<br />
halten, sondern eher für einen Biologen, der in die Philosophie<br />
übergelaufen ist. Die Fachwissenschaftler haben das Glück,<br />
über den externen Skeptiker milde lächeln zu dürfen, von einem Philosophen<br />
wird dagegen erwartet, daß er auch auf die Einwände der radikalen<br />
Skeptiker eingeht und möglichst eine Antwort weiß. Beginnen<br />
möchte ich jedoch mit einer Erwiderung auf die interne Skepsis.<br />
A. Interne Skepsis<br />
Die Entwicklung einer Kohärenztheorie der Rechtfertigung erfolgte bereits<br />
immer in Diskussion mit verschiedenen internen Skeptikern, die<br />
mal die eine mal eine andere meiner Überlegungen in Frage stellten. Daher<br />
bleibt an dieser Stelle eigentlich nichts Neues zu sagen. Ich möchte<br />
trotzdem die wichtigsten Stationen der Argumentation für KTR nun<br />
noch einmal Revue passieren lassen, um ihren Argumentationszusammenhang<br />
noch deutlicher zu machen.<br />
Ausgangspunkt der Untersuchung war eine intuitive Bestimmung des<br />
Ziels der Arbeit, das in einer Theorie der epistemischen Rechtfertigung<br />
von empirischen Überzeugungen besteht. Ein erster Schritt legte eine Explikation<br />
von epistemischer Rechtfertigung und einer Abgrenzung von<br />
anderen Rechtfertigungen wie z. B. moralischen vor. Epistemische<br />
Rechtfertigungen wurden als Wahrheitsindikatoren für unsere Meinungen<br />
charakterisiert, die uns Hinweise darauf geben, daß eine Meinung<br />
wahr ist.<br />
Dieses Unternehmen ist sowohl deskriptiv wie auch normativ zu verstehen,<br />
was erklärt, wieso es sich dabei nicht um eine Aufgabe für eine<br />
Naturwissenschaft handeln kann, die sich eher auf deskriptive Behauptungen<br />
versteht und für die Begründung von Bewertungen nicht zuständig<br />
ist. Diese Aufgabenteilung wurde betont, um gegen eine weitgehende<br />
Naturalisierung der Erkenntnistheorie zu argumentieren. Gegen radikale<br />
Naturalisten wie Quine, die die Erkenntnistheorie ganz den Naturwissenschaften<br />
überlassen möchten, habe ich noch einmal die Unterscheidung<br />
zwischen Genese und Rechtfertigung von Meinungen hervorgehoben,<br />
und eine eigene Vorgehensweise unter dem Namen methodolo-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 294<br />
gischer Naturalismus skizziert. Sie strebt ein Überlegungsgleichgewichts<br />
zwischen vorgefundenen epistemischen Überzeugungen über Rechtfertigung<br />
und kritischer Theorienbildung (auf einer Metaebene) an.<br />
Nach dieser Einordnung des Vorhabens, wurde es im Hinblick auf<br />
seine relevanten Voraussetzungen ausgeführt. Der metaphysische Hintergrund,<br />
vor dem die Untersuchung stattfinden soll, ist eine Korrespondenztheorie<br />
der Wahrheit mit einer realistischen Vorstellung von der<br />
Welt. Das ist wohl für die meisten klassischen Erkenntnistheoretiker der<br />
Rahmen gewesen, in dem die Auseinandersetzung mit dem Skeptiker<br />
stattfand. Erst wenn wir diesen Rahmen akzeptieren, stellen wir uns der<br />
Herausforderung des Skeptikers in vollem Umfang, denn er betont immer<br />
wieder die Kluft zwischen dem Vorliegen subjektiver Indizien für<br />
bestimmte Tatsachen und ihrem objektiven, von unseren Ansichten unabhängigem<br />
Vorliegen. Um zu zeigen, daß dieser metaphysische Hintergrund<br />
nicht bereits in sich inkonsistent ist und damit das ganze Unternehmen<br />
von vornherein zum Scheitern verurteilt, wurde er gegen einige<br />
relativistische Einwände und Vorwürfe der Unverständlichkeit verteidigt.<br />
Der Abschnitt (II.C) wandte sich dann erstmals direkt den epistemischen<br />
Rechtfertigungen zu und versuchte einige grundsätzliche Bestimmungsstücke<br />
ihrer Struktur darzulegen. Der erste ist, daß das Gerechtfertigtsein<br />
einer Meinung oder Aussage keine intrinsische Eigenschaft<br />
einzelner Aussagen ist, sondern immer eine zweistellige Relation zwischen<br />
einer Meinung und dem entsprechenden Hintergrundwissen eines<br />
epistemischen Subjekts, um dessen epistemischen Zustand es geht. Von<br />
welchen unserer Meinungen wir sagen können, sie seien begründet,<br />
hängt also entscheidend davon ab, was wir sonst noch wissen. Jede Begründung<br />
einer Meinung muß sich wieder auf andere Meinungen stützen.<br />
Hier finden wir schon den Grund für unsere Schwierigkeiten, dem<br />
radikalen Skeptiker zu antworten, denn er stellt alle unsere Überzeugungen<br />
zugleich in Frage und läßt uns damit keinen epistemischen Hintergrund,<br />
auf den wir unsere Überlegungen stützen können. Trotz dieser<br />
Problematik ist die Zweistelligkeit der Rechtfertigungsbeziehung ein essentieller<br />
Faktor gewöhnlicher Rechtfertigungen, der im Verlauf der Arbeit<br />
immer wieder gegen unterschiedliche Angriffe verteidigt wird.<br />
Von den zu rechtfertigenden Entitäten wurde verlangt, daß sie die<br />
Struktur von Aussagen, also wahrheitswertfähigen Gebilden, aufweisen,<br />
denn nur für sie können wir sinnvoll nach epistemischen Rechtfertigungen<br />
fragen – man denke daran, daß ich epistemische Rechtfertigungen<br />
als Wahrheitsindikatoren definiert hatte. Aber es wurden dabei durchaus
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 295<br />
Meinungen zugelassen, die wir nur implizit vertreten und die uns nicht<br />
immer bewußt sein müssen. Ähnlich liberal möchte ich mit den Begründungen<br />
selbst verfahren. Nicht nur derjenige soll als gerechtfertigt in seinen<br />
Meinungen gelten, der die im Prinzip zur Verfügung stehenden Begründungen<br />
schon explizit durchlaufen hat, sondern auch der, der dazu<br />
in der Lage ist, sie innerhalb kurzer Zeit selbst zu entwickeln. Eine weitere<br />
Liberalisierung in Form der epistemischen Arbeitsteilung besteht<br />
darin, für Begründungen auch Wissen zuzulassen, das uns nur indirekt<br />
über entsprechende Experten oder andere Mitglieder unserer Gesellschaft<br />
zugänglich ist. Diese Liberalität kann manche intuitiven Probleme,<br />
die sich daraus ergeben, daß bestimmte übliche Anforderungen an<br />
Rechtfertigungen sonst kaum noch von realistischen epistemischen Subjekten<br />
erfüllt werden, vermeiden oder zumindest abmildern helfen.<br />
Erst nach diesen notwendigen Vorarbeiten und Begriffsklärungen begann<br />
der Hauptteil der Argumentation für eine bestimmte Theorie der<br />
Rechtfertigung. Dazu wurden zuerst unterschiedliche <strong>Begründungsstrategien</strong><br />
auf ihre erkenntnistheoretische Überzeugungskraft hin untersucht.<br />
Eine heutzutage vielfach anzutreffende Herausforderung der Konzeption<br />
von Rechtfertigung als einer zweistelligen Relation zwischen<br />
Aussagenmengen findet sich in den externalistischen Erkenntnistheorien.<br />
Sie versuchen den Begriff der Rechtfertigung aus dem Bereich der kognitiv<br />
zugänglichen Meinungen herauszunehmen und auf externe Zusammenhänge<br />
– etwa kausale zwischen einer Meinung und einer sie verursachende<br />
Tatsache – zu reduzieren. Rechtfertigung würde damit eine Relation<br />
zwischen einer Meinung und externen Faktoren wie dem kausalen<br />
Prozeß der Entstehung der Meinung oder der Zuverlässigkeit dieses Prozesses.<br />
Wenn diese externen Faktoren eine zuverlässige Meinungsbildung<br />
garantieren, soll das ausreichen, um die Meinung als begründet anzusehen,<br />
auch wenn das epistemische Subjekt selbst nichts von der Existenz<br />
dieser externen Faktoren weiß. Der erste Teil von Kapitel (III) war<br />
der Argumentation gewidmet, daß dieser Weg, so wünschenswert er<br />
auch sein mag, um etwa den skeptischen Fragen auszuweichen, keine<br />
Antwort auf das ursprüngliche epistemische Problem oder den Skeptiker<br />
darstellt, sondern einen Themenwechsel. Der Erkenntnistheoretiker<br />
fragte genaugenommen nicht, welche Gründe es überhaupt gibt, anzunehmen,<br />
eine bestimmte Meinung sei wahr, sondern, welche Gründe es<br />
für das epistemische Subjekt S gibt, anzunehmen, die Meinung sei wahr.<br />
Die genannten externen Faktoren können aber nur als Gründe für S betrachtet<br />
werden, wenn S sie auch kennt. Nur in dieser Interpretation
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 296<br />
versucht der Erkenntnistheoretiker auch auf die klassische Frage zu antworten:<br />
Was soll ich glauben?<br />
Und gerade diese Frage liegt uns in bezug auf die Praxis von Rechtfertigungen<br />
als erstes auf der Zunge. Wenn ich eine Begründung einer<br />
Meinung als ein Hilfsmittel einsetzen möchte, um zu erkennen, ob die<br />
Meinung wahr ist, sind mir natürlich nur die Rechtfertigungen dabei tatsächlich<br />
behilflich, über die ich auch kognitiv verfüge. Entsprechendes<br />
gilt, wenn ich eine Rechtfertigung als Grundlage für eine Argumentation<br />
hernehmen möchte. Ohne Kenntnis der Rechtfertigung bin ich dann<br />
noch keinen Schritt weitergekommen.<br />
Der nächste Argumentationsschritt widmete sich der Frage, wie<br />
denn die allgemeine Struktur von Rechtfertigungen auszusehen hat. Sind<br />
wir gezwungen, für bestimmte Aussagen auf eine weitere inferentielle<br />
Rechtfertigung, also das Zitieren anderer Aussagen zur Begründung,<br />
ganz zu verzichten? Das ist zumindest die Ansicht der Fundamentalisten,<br />
für die es basale Meinungen gibt, die einer inferentiellen Rechtfertigung<br />
nicht bedürfen. Diese basalen Überzeugungen sind selbstrechtfertigend<br />
oder sie werden durch eine nicht-inferentielle Bezugnahme auf nicht-begriffliche<br />
Wahrnehmungszustände gerechtfertigt. In Kapitel (III.B) wurde<br />
gezeigt, daß Aussagen im allgemeinen nicht selbstrechtfertigend sind,<br />
sondern einer anderen Begründung bedürfen. Nur wenn sie in einem gewissen<br />
Sinn inhaltsleer sind, also z. B. analytisch wahre Aussagen, kann<br />
man nicht mehr von einem Irrtumsrisiko sprechen, womit die Frage<br />
nach einer (empirischen) Begründung überflüssig erscheint. Beinhaltet<br />
die Aussage hingegen eine empirische Behauptung, gibt es die realistische<br />
Möglichkeit, daß die Aussage falsch sein kann, und wir sind selbstverständlich<br />
dann auch berechtigt, nach Gründen für sie zu fragen. Bon-<br />
Jour hat dazu den Einwand des Kriteriums entwickelt, der zeigt, warum<br />
es eigentlich keine basalen empirischen Meinungen geben kann. Um<br />
diese theoretische Überlegung zur Struktur von Begründungen zu untermauern,<br />
wurden zusätzlich konkrete empiristische Positionen aus der<br />
Philosophiegeschichte und auch neueren Datums untersucht, für die sich<br />
noch weitere Schwächen aufzeigen ließen.<br />
Nachdem somit einige grundsätzlich andere Zugangsweisen zu epistemischen<br />
Rechtfertigungen als untauglich zurückgewiesen wurden,<br />
ging es im folgenden darum, den einzig verbliebenen Weg auszugestalten:<br />
Rechtfertigungen sind immer inferentieller Natur und haben sich jeweils<br />
auf andere Aussagen zu stützen. Allerdings ist zu diesem Zeitpunkt<br />
noch offen, wie diese inferentiellen Beziehungen beschaffen sein sollen.<br />
Natürlich sind zunächst die deduktiven Schlüsse geeignete Kandidaten,
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 297<br />
um Begründungen zu liefern. Ihre Reichweite ist aber bekanntlich sehr<br />
beschränkt und auch in Fällen, in denen wir umgangssprachlich häufig<br />
so reden, als ob es sich um logische Schlüsse handelt, stoßen wir bei genauerem<br />
Hinsehen auf eine Inferenz eines anderen Typs, nämlich auf<br />
Schlüsse auf die beste Erklärung. Anhand einer ganzen Reihe von Beispielen<br />
aus den unterschiedlichsten Bereichen unseres Wissens konnte<br />
ich demonstrieren, wie weit verbreitet die Abduktion ist und daß auch<br />
andere bekannte Schlußformen wie die konservative Induktion sich am<br />
besten als Unterarten der Abduktion verstehen lassen. Da der Schluß auf<br />
die beste Erklärung intuitiv eine große rechtfertigende Wirkung besitzt<br />
und Erklärungen auch in der anderen Richtung begründend wirken,<br />
übernehmen Erklärungsbeziehungen eine zentrale Rolle in meiner<br />
Rechtfertigungstheorie als Kohärenzstifter. Einige unangenehme Eigenschaften,<br />
die Erklärungen für gewöhnlich unterstellt werden, wie daß sie<br />
auf unsere jeweiligen Interessen zu relativieren seien und damit subjektiv<br />
in einem vitiösen Sinn des Wortes wären oder daß sie selbst wiederum<br />
nur anhand des Begriffs der Rechtfertigung zu definieren seien, konnten<br />
zurückgewiesen werden. Wie die logischen Beziehungen sind damit die<br />
Erklärungsbeziehungen objektive Beziehungen zwischen unseren Meinungen<br />
und fügen diese zu einem komplizierten Netz von Überzeugungen,<br />
einem System, zusammen.<br />
Sowohl für Rechtfertigungen wie auch für Erklärungsbeziehungen<br />
wissen wir, daß sie nicht nur lokal zu beurteilen sind, sondern daneben<br />
globale Bezüge aufweisen, die in einer Kohärenztheorie der Rechtfertigungen<br />
ebenfalls zu berücksichtigen sind. Mein eigenes Modell von Kohärenz<br />
versucht gerade die verschiedenen Aspekte von Kohärenz sauber<br />
auseinanderzuhalten, aber auch die wechselseitigen Abhängigkeiten darzustellen.<br />
Für diese Kohärenztheorie der Rechtfertigung läßt sich dann zeigen,<br />
daß sie eine Reihe grundlegender epistemischer Aufgaben besser erfüllen<br />
kann als ihre Konkurrenten. Zunächst kann sie in die Domäne der empiristischen<br />
Erkenntnistheoretiker einbrechen und sowohl die Rechtfertigung<br />
wie auch die Zurückweisung von Beobachtungsüberzeugungen in<br />
natürlicherer Weise beschreiben als empiristische Fundamentalisten. Die<br />
haben Schwierigkeiten, die zuverlässigen von den unzuverlässigen Wahrnehmungen<br />
zu trennen. Diese beiden Klassen von Wahrnehmungen lassen<br />
sich nämlich nicht in einfacher Weise nach inhaltlichen Aspekten unterscheiden,<br />
sondern, wohin eine Meinung gehört, variiert insbesondere<br />
in Abhängigkeit von äußeren Situationsbedingungen und unserem Hintergrundwissen<br />
darüber. Der Kohärenztheoretiker kann für die Beurtei-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 298<br />
lung einer Beobachtungsüberzeugung all unser Wissen über Wahrnehmungen<br />
und die jeweilige Situation in Anschlag bringen, wodurch er viel<br />
flexibler auf die verschiedenen Fälle und Wissensentwicklungen eingehen<br />
kann, als das einem Empiristen möglich ist.<br />
Auch zum Regreßproblem hat der Kohärenztheoretiker eine zufriedenstellende<br />
Antwort anzubieten, die jedenfalls plausibler ausfällt, als<br />
die des Fundamentalisten. Während es für letzteren eine Gruppe von<br />
Meinungen gibt, die in dem anspruchsvollen Sinn, der hier zur Debatte<br />
steht, letztlich nicht zu rechtfertigen sind, sind in einem hochkohärenten<br />
Überzeugungssystem alle Elemente durch verschiedene inferentielle Verbindungen<br />
der Überzeugungen untereinander gerechtfertigt. Dabei sprechen<br />
wir nicht mehr von linearen Rechtfertigungen, die in unendliche<br />
Ketten von Aussagen münden oder sich zu einfachen Zirkeln zusammenschließen,<br />
sondern von einer holistischen Rechtfertigung in einem Netz<br />
von sich wechselseitig stützenden Meinungen. Das Zusammenpassen unserer<br />
Meinungen zu einem Gesamtbild bietet für uns einen guten Grund,<br />
davon überzeugt zu sein, daß es wesentliche Aspekte der Welt richtig beschreibt.<br />
Unsere Weltsicht ist vergleichbar mit der Vorlage für ein Puzzle.<br />
Ob wir dabei die richtige Vorlage ausgewählt haben, ergibt sich daraus,<br />
ob die Puzzlesteinchen, die wir schon haben und die, die wir noch finden,<br />
in dieser Vorlage unterzubringen sind. Je mehr Steinchen wir tatsächlich<br />
einfügen können, um so mehr spricht das für unsere Vorlage.<br />
Wenn diese Steine noch zu ganz unterschiedlichen Gebieten der Vorlage<br />
gehören, um so besser. Das deutet darauf hin, daß die Vorlage und unsere<br />
Puzzlesteinchen nicht nur in bestimmten Teilbereichen zusammenpassen,<br />
sondern auch im Großen einander entsprechen. Das Passen der<br />
Steinchen zur Vorlage an einer bestimmten Stelle ist dabei schon als indirekter<br />
Hinweis zu werten, daß unsere Vorlage wohl auch an anderer<br />
Stelle stimmen wird. Diese Analogie soll noch einmal den intuitiven<br />
Aspekt von holistischer Rechtfertigung und speziell der Rechtfertigung<br />
einzelner Meinungen anhand des guten Zusammenpassens der vielen<br />
kleineren Bestimmungsstücke anhand umfassender Theorien vorführen.<br />
114 Den internen Skeptiker können wir also auf die hohe Kohärenz<br />
114 Haack (1993, 84ff) erläutert diesen holistischen Zusammenhang anhand<br />
der Lösung eines Kreuzworträtsels, bei der die Richtigkeit jeder Eintragung<br />
aufgrund ihres Zusammenpassens mit den anderen Eintragungen ermittelt wird.<br />
Lipton (1991, 159f) gibt uns das Beispiel einer Landkarte, von der wir zunächst<br />
nicht wissen, ob sie ein bestimmtes Gebiet korrekt wiedergibt. Aber je mehr Teilgebiete<br />
sich als zutreffend herausstellen, desto mehr Grund haben wir anzunehmen,<br />
daß die ganze Landkarte stimmt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 299<br />
und Stabilität des Netzes trotz zahlreichen Beobachtungsinputs über einen<br />
längeren Zeitraum verweisen, der dafür spricht, das ganze Netz als<br />
eine angemessene Repräsentation der Wirklichkeit zu betrachten. Nur<br />
der radikale Skeptiker, der alle unsere gewöhnlichen Überzeugungen zunächst<br />
beiseite schieben möchte, kann dann noch nach einer externen<br />
Rechtfertigung des Netzes als Ganzem fragen.<br />
Sobald uns ein Skeptiker zugesteht, daß die Beobachtungsüberzeugungen<br />
zum überwiegenden Teil wichtige Informationen über unsere<br />
Umwelt verkörpern, haben wir damit eine gewisse Handhabe, um seine<br />
Einwände zurückzuweisen. Wir verfügen über eine gute Erklärung für<br />
ihr Auftreten, die diese in ein komplexes Gesamtbild der Welt einbettet,<br />
zu dem er keine gleichwertige Alternative anzubieten weiß. Das Netz unserer<br />
Meinungen dient dabei als eine Art von globaler Theorie, die unsere<br />
Tatsachen, die alten und die neu hinzukommenden, sehr gut assimiliert,<br />
was intern eine weitere Bewährung der Theorie bedeutet.<br />
Auch den anderen naheliegenden und häufig gegen Kohärenztheorien<br />
ins Feld geführten Einwänden kann man begegnen. Die Befürchtung,<br />
daß das Netz sich kausal isoliert von der Welt entwickeln könnte,<br />
ließ sich mit dem Hinweis zerstreuen, daß die spontanen Meinungen genau<br />
den gesuchten kausalen Input verkörpern, der diese Isolation verhindert.<br />
Dem Einwand, es könne verschiedene gleichkohärente Netze<br />
geben, muß die Kohärenztheorie insoweit zustimmen, daß sie – wie andere<br />
Erkenntnistheorien auch – das Auftreten theoretischer Unterbestimmtheit<br />
nicht völlig ausschließen kann, ihm jedoch weit mehr entgegenzusetzen<br />
hat, als das z. B. für fundamentalistische Rechtfertigungstheorien<br />
der Fall ist. Das gilt besonders dann, wenn sie wie in der vorliegenden<br />
Theorie noch mit einer konservativen Metaregel kombiniert<br />
wird, die die Stabilität eines Überzeugungssystems unterstützt. Damit<br />
kann die KTR insgesamt als eine sinnvolle und begründete Fortentwicklung<br />
der Theorie der epistemischen Rechtfertigung betrachtet werden,<br />
in der ein vorläufiges reflektives Gleichgewicht zwischen theoretischen<br />
Anforderungen, typischen Beispielen von Rechtfertigungen und intuitiven<br />
Vorstellungen von Rechtfertigung erreicht wurde. Die größere Herausforderung<br />
findet sich dann wohl nur noch in den radikaleren Formen<br />
der Skepsis, denen ich den größeren Teil des Kapitels gewidmet habe.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 300<br />
B. Externe Skepsis<br />
Die antike Skepsis etwa eines Sextus Empiricus verfolgte noch durchaus<br />
praktische Absichten und hoffte mit ihren Argumenten eine bestimmte<br />
Geisteshaltung fördern zu können, die aus einem sich Enthalten von allen<br />
Urteilen besteht, von der sie annahm, daß sie zu innerer Ruhe und<br />
damit letztlich zum Glücklichsein führt. Die modernen Skeptiker finden<br />
dagegen ihren geistigen Urvater in Descartes und insbesondere in seiner<br />
ersten Meditation. Ihre Ziele sind eher theoretischer Natur. Sie wollen<br />
eine bestimmte Position in der Erkenntnistheorie beziehen, nach der<br />
z. B. Wissen unmöglich ist. Der Gesprächspartner in diesem Kapitel ist<br />
naheliegender Weise ein Skeptiker des zweiten Typs, da nur er als Kontrahent<br />
zur hier vertretenen Theorie der Rechtfertigung anzusehen ist.<br />
Trotzdem möchte ich vorab noch kurz auf eine vermeintlich praktische<br />
Konsequenz des Skeptizismus eingehen, die schon Russell für den<br />
Skeptiker einnahm und in neuerer Zeit von Popperianern wie Musgrave<br />
(1993, 25ff) wiederum aufgegriffen wird. Danach sind Skeptiker die<br />
besseren Menschen, denn sie verschreiben sich nicht mit Leib und Seele<br />
Institutionen wie z. B. der Inquisition. Das ist nur von einem Dogmatiker<br />
– so nennt Musgrave etwas irreführend den Gegner des Skeptikers –<br />
zu erwarten. Musgrave zitiert dazu Montaigne, der gegenüber den Praktiken<br />
der Inquisition anmerkt: „Es heißt unsere Vermutungen sehr hoch<br />
einzuschätzen, wenn man auf ihrer Grundlage Leute röstet.“ Doch sowenig<br />
sich ein wirklicher Skeptiker von Überlegungen der Kirche zum<br />
Seelenheil der Befragten beeindrucken und in seinem Handeln leiten ließe,<br />
sowenig würden ihn auch moralische Appelle vom Foltern seiner<br />
Mitmenschen abhalten können, wenn er dazu gerade einmal Lust hätte.<br />
Er würde auf Vorhaltungen entgegnen, wir hätten keinen Grund anzunehmen,<br />
unsere moralischen Überzeugungen wären richtiger als beliebige<br />
andere Verhaltensregeln. Außerdem wären sie schon dadurch unbegründet,<br />
daß unsere Annahme, es gäbe eine Person, die dabei Schmerzen<br />
empfindet, von ihm nicht mitgetragen würde.<br />
Musgrave (1993, 23ff) selbst weist auf Anekdoten aus der Antike<br />
hin, die praktische Konsequenzen aus einer skeptischen Haltung in dieser<br />
Richtung erkennen lassen. So erzählt Pyrrho, daß er an seinem alten<br />
Philosophielehrer vorbeigegangen sei, als der in einer äußerst mißlichen<br />
Lage im Graben feststeckte, ohne ihm zu helfen. Für ihn läge nämlich<br />
kein ausreichender Grund vor zu glauben, er täte etwas Gutes, wenn er<br />
ihm geholfen hätte. Natürlich lobte ihn sein Lehrer ob seiner konsequenten<br />
Haltung.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 301<br />
Tatsächlich geht es in Fällen wie der Inquisition auf der einen Seite<br />
um eine gewisse Toleranz gegenüber Andersdenkenden, die vermutlich<br />
durch einen Fallibilismus gefördert wird. Er macht uns klar, daß unsere<br />
eigenen Meinungen fehlbar sind und wir daher nach Möglichkeit keine<br />
Konsequenzen aus ihnen ziehen sollten, die schreckliche Folgen für andere<br />
Menschen haben können. Auf der anderen Seite ist der umfassende<br />
Skeptizismus wiederum zu tolerant, wenn es um die Beurteilung sozial<br />
schädlichen menschlichen Verhaltens geht. Für ihn lassen sich nämlich<br />
keine Gründe auch gegen die schlimmsten Auswüchse menschlichen Verhaltens<br />
geltend machen. Ein konsequenter Skeptizismus würde also<br />
höchstens dazu führen, daß sich Menschen vollkommen nach ihren momentanen<br />
Neigungen verhalten und keine motivierenden Vernunftgründe<br />
für eine Änderung ihres Verhaltens akzeptieren. Er würde die Welt<br />
nur dann zu einem „glücklicheren Platz machen“ (Musgrave 1993, 28),<br />
wenn sie bereits von besonders sanftmütigen Menschen bewohnt würde.<br />
Doch daran zu zweifeln haben wir gewiß gute Gründe.<br />
Doch nun zurück zu den theoretischen Konsequenzen des Skeptizismus.<br />
Im Unterschied zum internen Skeptiker geht der externe Skeptiker<br />
einen Schritt weiter und greift nicht nur bestimmte Teile oder Bereiche<br />
unserer Annahmen an, sondern stellt alle auf einmal in Frage. Er verlangt<br />
nach einer unvoreingenommenen Sicht von einem zu unseren Meinungen<br />
externen Standpunkt auf unser gesamtes Überzeugungssystem.<br />
Der externe Skeptizismus scheint damit auf den ersten Blick nur eine<br />
konsequente und etwas weitergehende Fortführung der internen Skepsis<br />
darzustellen – aber dieser Schritt erweist sich letztlich doch als schwerwiegender.<br />
Ein erster Schritt in der Auseinandersetzung mit dem externen<br />
Skeptiker wird in der Klärung bestehen, wie folgenschwer dieser<br />
Schritt tatsächlich ist. Erst diese Präzisierung ermöglicht eine Untersuchung<br />
verschiedener Erwiderungen. So ist der radikale Skeptizismus zunächst<br />
von der Position des Fallibilismus zu unterscheiden, gegen die ich<br />
mich keineswegs wenden möchte, die aber in ungenauen Formulierungen<br />
dem Skeptizismus sehr ähnlich scheint. Verfällt man jedoch einer<br />
Konfusion von Fallibilismus und radikalem Skeptizismus gewinnt der<br />
letztere erheblich an Attraktivität, gehört doch eine fallibilistische Haltung<br />
geradezu zum modernen wissenschaftlichen Weltbild dazu.<br />
1. Fallibilismus und Skeptizismus<br />
Das wohl klarste Plädoyer gegen jede Form von Dogmatismus und speziell<br />
gegen eine dogmatische Auffassung wissenschaftlicher Erkenntnisse
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 302<br />
stellt Poppers Logik der Forschung dar. Aber als Vorläufer Poppers sind<br />
aus Gründen der Gerechtigkeit zumindest Whewell und Peirce zu nennen.<br />
Sie haben demonstriert, daß wir für jede unserer Überzeugungen<br />
für Kritik offen bleiben müssen und sie immer nur als vorläufige Hypothese<br />
gelten darf, die im Prinzip falsch sein kann. Es gibt gemäß dieser<br />
fallibilistischen Ansicht von unserer Erkenntnis keinen Königsweg von<br />
sicheren Beobachtungssätzen – etwa mit Hilfe einer induktiven Logik –<br />
zu sicheren wissenschaftlichen Theorien. Nach Popper sollten wir unsere<br />
Theorien solange akzeptieren, wie sich keine widersprüchlichen Beobachtungen<br />
gefunden haben, die zu einer Falsifikation führen, dabei jedoch<br />
immer die metatheoretische Einschätzung unseres Wissens als hypothetisch<br />
im Hinterkopf behalten. Von der realen Möglichkeit falsch<br />
zu sein, sind dabei nicht nur unsere Theorien betroffen, sondern sie ist<br />
durchgängig und betrifft genauso unsere Wahrnehmungsüberzeugungen<br />
verschiedenster Herkunft. Dieser Fallibilismus auf der Metaebene kann<br />
mit einem festen Glauben an bestimmte Theorien auf der Objektebene<br />
einhergehen, der allerdings mit der Bereitschaft zu einer Revision für<br />
den Fall verknüpft sein muß, daß Falsifikationsinstanzen auftreten. Auch<br />
wenn Poppers Konzeption der Wissensdynamik inzwischen zu Recht<br />
kontrovers betrachtet wird (s. II.A.3.b), bleibt doch der Fallibilismus als<br />
wesentliche Einsicht Poppers erhalten.<br />
An dieser Stelle kann der Skeptiker einbringen, ein Fallibilist sei<br />
doch im Grunde seines Herzens auch ein radikaler Skeptiker, erwägt er<br />
doch für all unser Wissen die Möglichkeit, daß es falsch sein könnte.<br />
Das vorläufige Festhalten des Fallibilisten an unseren bisherigen Theorien<br />
läßt sich dabei als eine bloß pragmatische Einstellung interpretieren,<br />
um für praktische Entscheidungen gerüstet zu bleiben. Seine epistemische<br />
Überzeugung, daß im Prinzip alle unsere Meinungen unzutreffend<br />
sein könnten, deckt sich dagegen mit den erkenntnistheoretischen Ansichten<br />
des Skeptikers.<br />
Um Fallibilist bleiben zu können, ohne sich damit dem radikalen<br />
Skeptizismus verschreiben zu müssen, ist eine deutlichere Abgrenzung<br />
dieser Positionen notwendig geworden. Die ist nicht unproblematisch<br />
und wird in der Regel nicht explizit thematisiert. In hauptsächlich zwei<br />
Aspekten möchte ich diese Unterscheidung vornehmen. 115 Da ist zunächst<br />
der epistemologische Konservatismus, den ich als Bestandteil meiner<br />
fallibilistischen Metatheorie verstehe. Die vorläufige Beibehaltung<br />
meiner bisherigen Überzeugungen wird damit nicht als bloß pragmati-<br />
115 Die folgenden Bedingungen sollen mein Verständnis des Fallibilismus<br />
erläutern und nicht etwa Poppers Erkenntnistheorie darstellen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 303<br />
scher Natur eingestuft, sondern hat durchaus epistemischen Wert. Das<br />
bisherige Haben einer Überzeugung wird als ein, wenn auch schwacher,<br />
aber doch epistemischer Grund für diese Überzeugungen betrachtet. Das<br />
paßt zur wissenschaftlichen Praxis, in der Theorien nicht zunächst aus<br />
einer bloßen Laune heraus akzeptiert und dann erst Falsifikationsversuchen<br />
ausgesetzt werden, die als erste epistemische Tests gelten können.<br />
Sie entstehen bereits in einem bestimmten Umfeld, das diese Theorien<br />
mit (eventuell theoretischen) Gründen nahelegt, selbst wenn noch keine<br />
konkreten empirischen Tests angegeben werden können. Dafür sprechen<br />
unter anderem die vielen gleichzeitigen Entdeckungen der Wissenschaftsgeschichte<br />
und die Entwicklung von Theorien wie z. B. den Relativitätstheorien,<br />
für die es zu Beginn praktisch keine direkten Belege<br />
gab, die aber deshalb nicht von ihren Vertretern aus rein pragmatischen<br />
Erwägungen vorgeschlagen wurden. Die frisch akzeptierten Theorien<br />
sind trotz ihres Hypothesencharakters bereits durch einige im Anfang<br />
meist noch schwache Kohärenzüberlegungen zu begründen. Im Unterschied<br />
zur Position des radikalen Skeptikers sind also nicht alle denkbaren<br />
Theorien epistemisch gleichwertig, sondern einige sind besser begründet<br />
als andere. Der Fallibilist muß ihnen gegenüber keine radikal<br />
skeptische Haltung einnehmen.<br />
Ein anderer Aspekt für eine Unterscheidung ist der des Umfangs von<br />
Meinungen, die gleichzeitig falsch sein können. Auch wenn das im Fallibilismus<br />
nicht explizit angesprochen wird, denkt man doch eher an den<br />
Fall, in dem jeweils nur kleinere Teile unseres Wissens gleichzeitig betroffen<br />
sind – selbst wenn keine bestimmten Teile von der Möglichkeit,<br />
falsch zu sein, auszunehmen sind. Sonst wäre auch nicht verständlich,<br />
wie Popper erwarten könnte, daß sich bestimmte Theorien widerlegen<br />
lassen oder anhand ernsthafter Falsifikationsversuche bewähren können,<br />
denn in diesen Falsifikationsversuchen sind wir darauf angewiesen, uns<br />
anderer Überzeugungen und Theorien zu bedienen. Der Fallibilist<br />
gleicht hier eher dem internen Skeptiker als dem externen.<br />
Gegen diesen zweiten Aspekt kann der radikale Skeptiker allerdings<br />
geltend machen, daß in der ursprünglichen Einsicht des Fallibilisten,<br />
nach der wir uns in keiner Überzeugung völlig sicher sein können, eigentlich<br />
kein Platz für eine Beschränkung des Umfangs vorgesehen ist.<br />
Wenn wir zustimmen, daß im Prinzip alle unsere Meinungen auf der Objekt-<br />
und auch auf der Metaebene betroffen sein können, warum sollte<br />
der Irrtum dann etwa bei einem Anteil von 30% oder irgendeinem anderen<br />
Prozentsatz stehenbleiben? Der Fallibilismus allein gibt für eine Be-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 304<br />
schränkung noch keine Handhabe, aber er soll im folgenden hier immer<br />
so verstanden werden.<br />
Die Unterscheidung des radikalen Skeptikers von einem Fallibilisten<br />
sollte klären, wogegen ich nicht argumentieren möchte, nämlich die<br />
Idee des Fallibilismus, wonach wir keine irrtumssichere Erkenntnis haben.<br />
Daraus muß natürlich noch keineswegs folgen, daß es kein Wissen<br />
oder keine Rechtfertigungen geben kann. Diese weitergehenden skeptischen<br />
Behauptungen sind erst noch zu untersuchen. Zur Debatte stehen<br />
dabei nur die Annahmen des Skeptikers, die über den Fallibilismus, dem<br />
ich zustimme, hinausgehen.<br />
2. Wissensskeptizismus und Rechtfertigungsskeptizismus<br />
Um die Behauptung des radikalen Skeptikers in bezug auf mein Projekt<br />
einer Theorie der Rechtfertigung zu bestimmen, ist wiederum die Unterscheidung<br />
in verschiedene erkenntnistheoretische Unternehmungen<br />
sinnvoll. Vis-à-vis dem Wissensbegriff stehen ihm andere Schachzüge zur<br />
Verfügung als gegenüber epistemischen Rechtfertigungen. Der Wissensbegriff<br />
enthält z. B. einige spezielle inhaltliche Aspekte, die als Ansatzpunkte<br />
für den Skeptiker geeignet erscheinen.<br />
Da findet sich zunächst für den Wissensbegriff – wenigstens in einigen<br />
Kontexten – die Forderung nach Gewißheit. Wenn ich eines von einer<br />
Million Lose gekauft habe, von denen nur eines gewinnt, steht<br />
meine Chance zu gewinnen, außerordentlich schlecht. Trotzdem kann<br />
ich kaum mit Recht behaupten, ich wüßte schon, daß mein Los verliert.<br />
Es gibt immer noch eine klar erkennbare Möglichkeit, doch zu gewinnen.<br />
Würde ich diese Möglichkeit nicht zur Kenntnis nehmen, hätte ich<br />
mir auch kaum ein Los gekauft. Dieser Aspekt der für Wissen erforderlichen<br />
Gewißheit gibt dem radikalen Skeptiker die Möglichkeit seine<br />
Skepsis ins Spiel zu bringen, denn im allgemeinen verfügen wir nicht<br />
über diese Gewißheit, oder sie ist jedenfalls unbegründet. 116 Das besagt<br />
gerade die metatheoretische Ansicht des Fallibilismus. Können wir dann<br />
also niemals Wissen erlangen?<br />
116 Diese Komponente stellt auch ein tieferliegendes Problem für eine Explikation<br />
von „Wissen“ dar, denn in anderen umgangssprachlichen Verwendungen<br />
des Begriffs sprechen wir auch von Wissen, ohne daß eine entsprechende<br />
Gewißheit vorliegt. Der Wissenstheoretiker möchte sich deshalb und aus theoretischen<br />
Gründen gern von der Gewißheitsforderung befreien. Es ist aber schwer<br />
zu sehen, wie er dann auf der anderen Seite mit den skizzierten Intuitionen, daß<br />
Wissen Gewißheit impliziert, umgehen soll.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 305<br />
Für den Rechtfertigungsbegriff ist dieser Schachzug des Skeptikers<br />
glücklicherweise nicht in derselben Weise möglich. In unserem Beispiel<br />
kann ich durchaus behaupten, sehr gute Gründe für meine Annahme zu<br />
haben, daß ich nicht gewinnen werde. Dem steht auch die kleine Chance,<br />
daß mein Los doch gezogen wird, nicht im Wege. Diese Gründe sind<br />
auch nicht durch den Zusammenhang von epistemischen Rechtfertigungen<br />
und Rationalität gefährdet. Es kann rational sein, sich ein Los zu<br />
kaufen, obwohl wir gute Gründe haben anzunehmen, daß wir nicht gewinnen.<br />
Zwar ist es prima facie nicht rational, auf eine sehr kleine<br />
Chance, Erfolg zu haben, ein Los zu kaufen, aber ich muß neben den<br />
Wahrscheinlichkeiten für das Eintreten von Gewinn und Verlust für eine<br />
Kalkulation der rationalen Handlungsweise ebenso ihre jeweilige Höhe<br />
mit einberechnen. Hier steht bei Lotterien einem relativ kleinen Einsatz<br />
ein großer Gewinn gegenüber, der Defizite bei den Wahrscheinlichkeiten<br />
ausgleichen kann.<br />
Außerdem hat das Lottospielen Spielcharakter, wobei man den Gewinn<br />
nicht nur aus dem materiellen Gewinn, sondern auch aus dem Vergnügen<br />
am Spiel bezieht. Würde man davon absehen, wäre es vielleicht<br />
nüchtern betrachtet nicht rational, Lotto zu spielen. Daß wir gute Gründe<br />
haben, von einem Verlust auszugehen, zeigt sich dann eher für unser<br />
Verhalten nach dem Loskauf. Wir würden denjenigen, der sich auf ein<br />
Los hin mit entsprechend teuren Gegenständen eindeckt, als irrational<br />
bezeichnen. Bis zum tatsächlichen Gewinn besteht eine rationale Strategie<br />
nur darin, von einem Verlust auszugehen und keine Investitionen auf<br />
einen zu erwartenden Lottogewinn zu tätigen. Der Ankauf des Loses<br />
selbst kann aber deswegen noch nicht als irrational bezeichnet werden.<br />
Das erklärt, wie wir darin gerechtfertigt sein können, einen Verlust zu<br />
erwarten, obwohl es vernünftig sein kann, sich ein Los zu kaufen. Wir<br />
können uns unseres Verlustes eben noch nicht sicher sein. Rechtfertigung<br />
ist eine Sache des Grades, und erst bei „vollkommener“ Rechtfertigung<br />
oder Wissen bleibt dieser Spielraum für rationales Verhalten nicht<br />
mehr übrig.<br />
Ein weiterer Punkt für eine Unterscheidung ist die Notwendigkeit,<br />
radikale skeptische Hypothesen definitiv zurückzuweisen. Unter anderem<br />
Stroud (1984, 29) weist darauf hin, daß wir für Wissen auch alle die<br />
Hypothesen widerlegen können müssen, die dem Wissen im Wege stehen,<br />
ja sogar wissen müssen, daß sie falsch sind. Wir können das als<br />
Prinzip (Z) für Zurückweisung formulieren:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 306<br />
Zurückweisung skeptischer Hypothesen (Z)<br />
Wenn S weiß, daß p, so weiß S, daß nicht-H, für alle skeptischen Hypothesen<br />
H, die mit dem Wissen, daß p für S inkompatibel sind.<br />
Das Prinzip (Z) scheint für Wissen recht plausibel, weil für Wissen das<br />
bereits (in III.A.1.c) genannte Prinzip der logischen Abgeschlossenheit<br />
naheliegt. Zusammen mit unserem Wissen um die skeptischen Hypothesen<br />
führt es nach Stroud (1984, 30) unausweichlich in den Wissensskeptizismus.<br />
Eine entsprechende Forderung ist jedoch für Rechtfertigungen<br />
kaum vertretbar. Um über eine Rechtfertigung für meine Annahme zu<br />
verfügen, daß die Erde um die Sonne kreist, muß ich noch keine Rechtfertigungen<br />
besitzen, daß ich kein Gehirn im Topf bin. Unser Rechtfertigungsbegriff<br />
ist in diesem Punkt schwächer und läßt es sogar zu, gute<br />
Gründe für inkompatible Meinungen haben. Um nicht inkonsistent zu<br />
sein, werden wir nicht zwei inkompatible Meinungen gleichzeitig akzeptieren,<br />
aber wir können Gründe für beide Meinungen besitzen, denn<br />
Gründe sind nur Wahrheitsindikatoren und implizieren nicht bereits<br />
Wahrheit, wie das für Wissen der Fall ist. Damit wir dann eine der beiden<br />
Meinungen begründet akzeptieren können, müssen unsere Gründe<br />
allerdings für eine Seite deutlich überwiegen. Der Skeptiker muß gegen<br />
Rechtfertigungen seine skeptischen Einwände also anders formulieren<br />
als gegen Wissensbehauptungen. 117<br />
Ein zusätzlicher Punkt, wo der Skeptiker gegen Wissensansprüche<br />
Ansatzpunkte für plausible Einwendungen finden kann, den er für<br />
Rechtfertigungen so nicht vorfindet, ist die Mischung von externen und<br />
internen Aspekten im Wissensbegriffs. Auf der externen Seite wird von<br />
Wissen unter anderem verlangt, daß es sich um wahre Überzeugungen<br />
handelt und auf der internen Seite, daß man über entsprechende Begründungen<br />
für die Überzeugungen verfügt. Damit diese Begründungen<br />
aber nicht nur Beiwerk bleiben, müssen sie an die externen Forderungen<br />
heranreichen und Begründungen sein, die tatsächlich die „richtigen“<br />
Gründe für die Annahme der jeweiligen Überzeugung darstellen und<br />
nicht bloß Gründe, die mit der Wahrheit der Überzeugung nur zufällig<br />
zusammentreffen. Das können wir aus der Diskussion der Gettier-Beispiele<br />
lernen. Damit ist die interne Komponente des Wissensbegriffs<br />
aber überfordert, so daß man häufig versucht, auch sie durch externe<br />
Komponenten abzustützen, die Rechtfertigungen eigentlich fremd sind.<br />
117 Audi (1993, 356ff) belegt anhand von Beispielen, daß ein entsprechendes<br />
Prinzip der deduktiven Abgeschlossenheit für Rechtfertigungen nicht gilt.<br />
Eine derartiges Prinzip müßte sich übrigens auch wieder auf die schon abgelehnte<br />
lineare Vorstellung von Rechtfertigungen stützen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 307<br />
Z. B. Moser (1991, 242ff) verlangte von den Rechtfertigungen, die zu<br />
Wissen führen, sie müßten wahrheitsresistent („truth resistant“) sein;<br />
d.h. daß die Rechtfertigungen mit allen wahren Aussagen – auch solchen,<br />
von denen das epistemische Subjekt nichts weiß – verträglich sind.<br />
Dem Skeptiker gibt das Gelegenheit einzuwenden, Wissen sei nicht möglich,<br />
weil wir nie wirklich über Begründungen verfügen, die solch hohen<br />
Anforderungen genügen können, wie sie von der Wahrheitsresistenzforderung<br />
ins Spiel gebracht werden.<br />
Das Konzept der allgemeinen epistemischen Rechtfertigung ist dagegen<br />
rein intern. Was eine Rechtfertigung ist, läßt sich allein aus der Innenperspektive<br />
beurteilen. Da die selbst von Skeptikern wie dem Cartesischen<br />
meist als unproblematisch zugestanden wird, hat der Skeptiker<br />
dann keine Möglichkeit sich einzuschalten mit einer Bemerkung wie: Du<br />
glaubst nur, über eine Rechtfertigung zu verfügen, aber es ist in Wirklichkeit<br />
keine. Wir könnten ihm entgegenhalten: Wenn alle internen<br />
Merkmale einer Rechtfertigung vorliegen, können wir zu Recht behaupten<br />
– anders als beim Wissensbegriff, bei dem eine entsprechende Rechtfertigung<br />
externe Anforderungen zu erfüllen hat –, es sich auch um<br />
wirklich eine Rechtfertigung handelt.<br />
Den Skeptiker, der diese Erwiderung nicht zu akzeptieren gedenkt,<br />
möchte ich auf ein Beispiel verweisen, das in ähnlicher Form Stroud<br />
(1984, 41) diskutiert. Jemand stellt die ungewöhnliche Behauptung auf,<br />
es gäbe keine Ärzte in Berlin, die unserem Wissen massiv zu widersprechen<br />
scheint. Er begründet sie dann damit, daß er unter „Arzt“ nur jemand<br />
mit einem „Dr. med.“ und der Fähigkeit, jede Krankheit in zwei<br />
Minuten zu heilen, versteht. Diese Definition von „Arzt“ erlaubt es ihm<br />
nun tatsächlich, seine ursprüngliche Behauptung aufrecht zu erhalten,<br />
aber sie steht auch nicht mehr im Widerspruch zu unserer Überzeugung,<br />
daß es sehr viele Ärzte – im gewöhnlichen Sinn des Wortes – in Berlin<br />
gibt. Wenn der radikale Skeptiker in bezug auf Rechtfertigungen nur<br />
eine Art von „Ärzte-Skeptiker“ wie in unserem Beispiel sein möchte,<br />
kann er sich weigern, das, was wir üblicherweise als Rechtfertigungen<br />
anerkennen, ebenfalls anzuerkennen. Aber er äußert dann keine Behauptung,<br />
die unserer widerspricht, und wir können auf seinen Einwand mit<br />
einem Achselzucken reagieren.<br />
So leicht wird sich der Skeptiker natürlich nicht geschlagen geben.<br />
Er kann uns mit einem entsprechenden Problem auf einer anderen Ebene<br />
erneut konfrontieren. Epistemische Rechtfertigungen werden von uns<br />
intern als solche eingestuft – soweit so gut. Auf der Metaebene der epistemischen<br />
Überzeugungen erwarten wir jedoch auch von gewöhnlichen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 308<br />
epistemischen Rechtfertigungen, daß sie eine externe Eigenschaft aufweisen.<br />
Rechtfertigungen müssen zwar keine Wahrheitsgaranten sein,<br />
denn das ist keineswegs schon im Rechtfertigungsbegriff angelegt, aber<br />
um ihre Funktion als epistemische Rechtfertigungen erfüllen zu können,<br />
müssen sie immerhin Wahrheitsindikatoren sein. Neben den internen Bedingungen<br />
für Rechtfertigungen, die etwa in entsprechenden Kohärenzforderungen<br />
bestehen können, bleibt also noch die Metaforderung, daß<br />
sie wahrheitsdienlich sein sollen. Das zeigt einen Ansatzpunkt auf, den<br />
der Skeptiker für einen Einwand von einem externen Standpunkt aus<br />
nutzen kann. Er fragt nun: Wie kannst du begründen, daß deine internen<br />
Rechtfertigungen auch tatsächlich wahrheitsdienlich sind? Darauf<br />
können wir ihm wieder nur interne Gründe entgegenhalten, wobei wir<br />
uns auf unsere gewöhnlichen epistemischen Überzeugungen zu berufen<br />
haben. Diese Antwort wird den radikalen Skeptiker natürlich nicht zufriedenstellen,<br />
denn für all diese internen Gründe stellt er ja gerade in<br />
Frage, daß sie wahrheitsdienlich sind. Damit stürzt der Skeptiker einen<br />
Internalisten in ein Dilemma, hat der Internalist doch darauf bestanden,<br />
für Begründungen nur das zu zählen, was uns kognitiv zugänglich ist.<br />
Das jedoch stellt der Skeptiker komplett in Frage. Er verlangt gerade<br />
nicht nach internen Gründen, sondern nach einem davon unabhängigen<br />
externen Standpunkt von dem aus sich die internen Rechtfertigungen als<br />
wahrheitsdienlich erweisen lassen. Stützen wir uns in unserer Argumentation<br />
gegen den Skeptiker z. B. auf den Schluß auf die beste Erklärung<br />
– indem wir etwa argumentieren, eine realistische Position in bezug auf<br />
die Außenwelt sei die beste Erklärung unserer Wahrnehmungen –, so<br />
kann der Skeptiker erwidern: Gerade für dieses Verfahren haben wir<br />
noch keinen unabhängigen Grund erhalten, warum wir es als Wegweiser<br />
zur Wahrheit einsetzen sollten.<br />
Über eine schnelle Antwort auf den Skeptiker der Metaebene verfügt<br />
natürlich wieder der Externalist, der auch an dieser Stelle erwidern<br />
könnte, die Frage nach der Wahrheitsdienlichkeit interner Begründungen<br />
sei nur eine Tatsachenfrage. Die könne man zwar nicht schlüssig entscheiden,<br />
aber wenn es eben der Fall ist, daß wir zuverlässige Informationsverarbeiter<br />
sind, deren Weltmodell einigermaßen zutreffend ist, so<br />
sind auch unsere gewöhnlichen Rechtfertigungsverfahren (insbesondere<br />
die Abduktion) wahrheitsdienlich und damit epistemische Rechtfertigungen<br />
– Schluß. Es ist dann nicht noch zusätzlich erforderlich, auch dafür<br />
wieder über Argumente zu verfügen. Der Skeptiker weist demnach nur<br />
noch auf eine Möglichkeit hin, die wir nicht ausschließen können, deren
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 309<br />
Möglichkeit allein aber Wissen und vor allem Rechtfertigungen noch<br />
nicht bedroht.<br />
Als Internalisten können wir uns nicht so einfach aus der Schlinge<br />
ziehen. Uns wird der Skeptiker in die Pflicht nehmen, doch bitte auch<br />
auf der Metaebene Internalist zu bleiben und mit Argumenten aufzuwarten,<br />
die gegen die skeptischen Hypothesen sprechen. Solange das nicht<br />
geschehen ist, hätten wir auch keine Rechtfertigungen von denen wir<br />
mit guten Gründen sagen könnten, daß es sich um Wahrheitsindikatoren<br />
handelt. Der skeptische Einwand gegen Rechtfertigungen kann kurz so<br />
zusammengefaßt werden:<br />
Rechtfertigungsskeptizismus<br />
Wir verfügen über keine (überzeugenden) Gründe für die erkenntnistheoretische<br />
Annahme, daß unsere (internen) Rechtfertigungen tatsächlich<br />
auf Wahrheit abzielen, solange wir keine Gründe dafür anführen<br />
können, daß die skeptischen Hypothesen falsch und unsere<br />
realistische Sicht der Welt richtig ist.<br />
Der radikale Skeptiker kann also zugestehen, intern seien unsere Rechtfertigungen<br />
als Rechtfertigungen anzuerkennen, wird aber unsere epistemische<br />
Überzeugung, daß solche Rechtfertigungen auch die Wahrscheinlichkeit<br />
des Gerechtfertigten erhöhen, bestreiten. Als radikaler<br />
Skeptiker wird er sogar für alle unsere Rechtfertigungen bezweifeln, daß<br />
sie der Wahrheitsfindung dienen. Um das zu erläutern und plausibel erscheinen<br />
zu lassen, kann er seine skeptischen Hypothesen ins Spiel bringen.<br />
Wenn wir nur Gehirne im Topf sind, ist aller Input, den wir erhalten,<br />
als Hinweis auf die Beschaffenheit der Außenwelt ungeeignet. Wir<br />
mögen auch als Gehirn in einer Nährlösung noch in bestimmten Annahmen<br />
im gewöhnlichen Sinn des Wortes gerechtfertigt sein, weil Rechtfertigung<br />
eine Angelegenheit interner Kohärenz ist, aber unsere Metaüberzeugung,<br />
diese Rechtfertigungen könnten uns helfen, die Wahrheit über<br />
die Außenwelt zu entdecken, ist in diesen Fällen falsch. Welchen Grund<br />
haben wir dann noch, so fragt der Skeptiker, die realistische Sicht der<br />
Welt gegenüber der des Skeptikers zu bevorzugen?<br />
Von der Frage des Skeptikers, welche Argumente wir gegen seine<br />
kausalen skeptischen Modelle von unserer Stellung in der Welt anführen<br />
können, sind auch unsere anderen epistemischen Überzeugungen betroffen.<br />
Auch sie stützen sich im Rahmen einer naturalistisch begründeten<br />
Kohärenztheorie auf unsere Konzeption von spontanen Beobachtungsüberzeugungen<br />
als wenigstens in gewissen Grenzen zuverlässigem Input<br />
von der Außenwelt, mit dessen Hilfe wir die Wahrheitsdienlichkeit unse-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 310<br />
rer Schlußverfahren überprüfen können. Daher dürfen wir uns gegen<br />
den Skeptiker seiner Ansicht nach auch nicht auf sie berufen, ohne eine<br />
petitio principii zu begehen. 118 Das läßt uns nur wenig Spielraum für<br />
eine Antwort, denn die hätte sich ganz im Sinne von KTR wiederum auf<br />
andere Annahmen zu stützen. Insbesondere können wir uns daher gegen<br />
den Skeptiker nicht auf den epistemologischen Konservatismus berufen,<br />
da sich unsere Begründungen für diese Metaregel auf wesentliche Teile<br />
unseres Weltbildes stützen und nicht völlig apriorischen Charakter haben.<br />
119<br />
Was läßt sich dann noch seinen Argumenten entgegenhalten? Jedes<br />
Argument gegen den Skeptiker muß sich auf andere Überzeugungen berufen<br />
und dabei etwa auf epistemische Überzeugungen oder Überzeugungen<br />
über unsere kausale Einbettung in die Außenwelt zurückgreifen.<br />
Die sind selbst zumindest zum Teil auch empirische Behauptungen oder<br />
auf solche angewiesen, auf die zu berufen uns der radikale Skeptiker untersagt<br />
hat, solange wir sie nicht vorher anderweitig gerechtfertigt haben.<br />
Der Skeptiker läßt somit unsere normalen Argumentationsverfahren<br />
nicht zu und gibt uns keine Chancen zur Verteidigung. Betrachten<br />
wir dazu kurz einige Vorschläge, auf ihn zu reagieren, um diese pessimistische<br />
Ansicht zu untermauern. Die Antwortmöglichkeiten lassen sich<br />
grob in einteilen in Zurückweisungen der skeptischen Frage, denen ich<br />
im nächsten Abschnitt exemplarisch nachgehe, und Versuchen, eine Antwort<br />
auf sie zu geben, die im übernächsten Abschnitt zu Wort kommen<br />
werden.<br />
118 Auch diesen Punkt kann man eventuell gegen den Skeptiker wenden.<br />
Williams „Unnatural Doubts“ kann als ein längeres Argument gelesen werden,<br />
daß der Skeptiker an dieser Stelle einen Fundamentalismus voraussetzt und somit<br />
schon in seiner Frage eine falsche theoretische Annahme macht, die es uns<br />
gestattet, die Frage schließlich zurückzuweisen. Der Skeptiker kann sich aber unter<br />
anderem mit der Ansicht wehren, daß man ihn nicht zu Recht auf eine antifundamentalistische<br />
Erkenntnistheorie festlegen könne.<br />
119 Lipton (1991, 158ff) gibt zu, daß wir uns mit Hilfe der Abduktion nicht<br />
gegen den Skeptiker wenden dürfen, da wir dann einen Zirkelschluß begehen,<br />
aber er versucht zu zeigen, daß sie aus interner Sicht trotzdem eine wichtige Bestätigung<br />
unserer realistischen Auffassung der Außenwelt darstellt. Das ist intuitiv<br />
für ihn ähnlich überzeugend, wie der Hinweis, daß sich ein Vorgehen nach<br />
konservativen Induktionsprinzipien bisher sehr bewährt hat. Den Induktionsskeptiker<br />
läßt das natürlich kalt, aber uns „gewöhnlichen Menschen“ erscheint<br />
das dennoch als plausible Stützung unserer Ansicht. Es ist ein weiterer interner<br />
„Kohärenzcheck“.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 311<br />
3. Unnatürliche Zweifel?<br />
Ein erstaunliches Merkmal der skeptischen Positionen, das Hume schon<br />
thematisierte, ist ihre starke Kontextabhängigkeit. So natürlich die skeptischen<br />
Hypothesen, daß wir uns in unserem Weltbild komplett irren<br />
können, auch aus unserer fallibilistischen Ansicht erwachsen, wenn wir<br />
theoretisch darüber nachdenken, so wenig kann uns diese Erkenntnis in<br />
praktischen Zusammenhängen tatsächlich beunruhigen. Ohne über eine<br />
erkenntnistheoretische Antwort auf den Skeptiker zu verfügen, konnte<br />
sich Hume mit dieser Einsicht beruhigen und dafür plädieren, den Skeptizismus<br />
auf sich beruhen zu lassen, weil er sowieso praktisch unwirksam<br />
sei. Eine Reihe späterer Autoren hat versucht, mehr theoretisches Kapital<br />
aus dieser Einsicht zu schlagen, zeigt sie doch, daß die skeptischen<br />
Einwände und Fragen nach weiteren Rechtfertigungen in irgendeiner<br />
Weise unnatürlich sind.<br />
Relativ leichtes Spiel haben wir mit dem Skeptiker, der seine Position<br />
unachtsam formuliert, also z. B. behauptet: „Ich weiß, daß ich nichts<br />
weiß.“ Das sieht schon auf den ersten Blick widersprüchlich aus. Ein radikaler<br />
Rechtfertigungsskeptiker sollte seine Auffassung auch nicht mit<br />
einer direkten Begründung versehen, denn sonst müßte er seine eigene<br />
Begründung von dieser Skepsis ausnehmen, was keinen überzeugenden<br />
Eindruck hinterläßt. Am ehesten kann er seine Überlegungen in Form einer<br />
„reductio ad absurdum“ vortragen. Er zeigt, daß seine skeptischen<br />
Hypothesen – wie die, ein Gehirn im Topf zu sein – kohärent in unser<br />
normales Hintergrundwissen einzupassen sind; jedenfalls wenn wir einmal<br />
von unserer üblichen (Meta-) Annahme absehen, daß Beobachtungsüberzeugungen<br />
uns zuverlässige Informationen über die Welt vermitteln.<br />
Wenn der Skeptiker darin Recht hat, daß wir gemäß unseren gewöhnlichen<br />
Standards ebensogut Skeptiker wie Realisten sein könnten, weil als<br />
(Meta-) Annahme eine skeptische Hypothese ein ebenso kohärentes Bild<br />
ergibt wie die realistische, dann hat er uns darauf hingewiesen, daß sich<br />
in unserem Hintergrundwissen keine guten Gründe für die realistische<br />
Metaannahme finden lassen. Wie sollen wir ihm dann noch begegnen?<br />
An dieser Stelle kann keine ausführliche Erörterung einsetzen, wie<br />
die verschiedenen anti-skeptischen Strategien, die Unnatürlichkeit der<br />
Zweifel gegen den Skeptiker ins Feld zu führen, im Detail zu beschreiben<br />
sind und welche Antworten dem Skeptiker offenstehen; das ist auch<br />
schon an anderen Stellen geschehen (z. B. Stroud 1984 oder Williams<br />
1991). Aber ich möchte noch einmal auf einige Punkte hinweisen, die<br />
mich pessimistisch stimmen. Meistens ist der radikale Skeptiker zunächst<br />
noch relativ großzügig zu uns. Er gesteht uns z. B. zu, wir wüßten, wel-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 312<br />
che Überzeugungen und welche subjektiven Empfindungen wir haben,<br />
wobei er uns oft noch nicht einmal nur auf die momentan bewußten einschränkt,<br />
was de facto wohl eine Beschränkung auf eine einzige bedeuten<br />
würde. Weiterhin akzeptiert er, daß wir auf der Metaebene bestimmte<br />
plausible Begründungsformen benutzen, deren Anwendung wiederum<br />
Erinnerung und korrekte Ausführung und nicht zuletzt ihre<br />
Wahrheitsdienlichkeit voraussetzt. Diese Großzügigkeit kann er uns natürlich<br />
jederzeit wieder entziehen und etwa als Rechtfertigungsskeptiker<br />
einwenden: Warum sollte ich den Induktionsschluß auf der Metaebene<br />
als guten Wahrheitsindikator akzeptieren, wenn ich ihn auf der Objektebene<br />
in seiner Anwendung in wissenschaftlichen Kontexten gerade in<br />
Frage stelle? Er kann sogar logische Schlußregeln in Frage stellen. Die<br />
Spielregeln für die Auseinandersetzung mit dem Skeptiker sind also – zu<br />
seinen Gunsten – nicht so weit geklärt, daß wir ihm irgendwann epistemische<br />
Unfairness vorwerfen könnten. Das können sie auch nicht<br />
sein, denn warum sollte der radikale Skeptiker überhaupt auf irgendwelche<br />
bestimmten Metaüberzeugungen oder Schlußformen festgelegt sein?<br />
Das entspricht nicht seinem wahren Naturell. Kutschera (1982, 61) hat<br />
daher Recht mit seiner Ansicht zum Skeptizismus, daß man nicht gegen<br />
eine Position argumentieren kann, die keine Argumente zuläßt. Aber dieser<br />
Vorwurf an die Adresse des Skeptikers hat eher moralischen als erkenntnistheoretischen<br />
Charakter. Er entscheidet nicht die Frage von<br />
Wahrheit und Falschheit der skeptischen Hypothesen, sondern ist eher<br />
ein neuer Ausdruck der Humeschen Resignation gegenüber dem Skeptizismus.<br />
Wir können uns über seine Gnadenlosigkeit beklagen, doch unbeantwortet<br />
zurückweisen dürfen seine Fragen deshalb noch nicht.<br />
Neben dem Vorwurf der Unfairness läßt sich noch weitergehend gegen<br />
den Skeptiker einwenden, daß seine Worte irgendwann jeden Sinn<br />
verlieren, wenn er zu viele Überzeugungen in Frage stellt. In Kapitel<br />
(IV.A.2) hatte ich schon darauf hingewiesen, daß für das Verfügen über<br />
Begriffe bestimmte Stereotype oder Minitheorien notwendig sind, wonach<br />
der radikale Skeptiker, sollte er keine Meinungen mehr akzeptieren,<br />
auch keine Begriffe mehr verwenden kann. Damit, so könnte man<br />
denken, fällt es ihm schwer, sein Anliegen sinnvoll vorzutragen. Das ist<br />
vielleicht die weitgehendste Form, den Einwand der Unnatürlichkeit gegen<br />
die skeptischen Zweifel stark zu machen.<br />
Doch auch dagegen kann sich der Skeptiker wehren, indem er seinen<br />
Ausführungen die Form einer „reductio“ gibt, die von unseren gewöhnlichen<br />
Meinungen ausgehend diese letztlich als unbegründet erweist. Außerdem<br />
ist gerade der oben beschriebene Rechtfertigungsskeptiker mit
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 313<br />
diesem Einwand nur schwer zu erwischen. Er kann in den meisten Überzeugungen<br />
erster Stufe und unseren Rechtfertigungen für sie sogar mit<br />
uns übereinstimmen. Anders als wir, ist er aber der epistemischen<br />
(Meta-)Überzeugung, daß wir für all die überzeugenden Rechtfertigungen,<br />
über die wir heute verfügen, keinen guten Grund anführen können,<br />
daß sie tatsächlich epistemische Rechtfertigungen also Wahrheitsindikatoren<br />
in einem anspruchsvollen Sinn des Wortes sind. Angesichts der vielen<br />
Überzeugungen erster Stufe über die Außenwelt, die wir in diesem<br />
Fall mit ihm teilen, können wir dann kaum noch behaupten, seine Worte<br />
wären sinnlos, weil er etwa über die notwendigen Putnamschen Stereotypen<br />
nicht verfüge.<br />
Es fällt mir ebenso schwer, einen ähnlichen Standpunkt zu vertreten,<br />
wonach ich den Skeptiker nicht verstehen könne, denn sein Skeptizismus<br />
verlange, daß ich einen zu meiner Perspektive externen Standpunkt einnehmen<br />
muß, eine Art von Gottesperspektive, die mir fremd ist, weil ich<br />
meine eigene Perspektive nicht wirklich verlassen könne. Doch reicht<br />
der Hinweis auf die Ungewöhnlichkeit der externen Sichtweise kaum,<br />
um bereits ein Verständnis auszuschließen; zumal ich mir die vom Skeptiker<br />
genannten skeptischen Hypothesen, nach denen ich etwa ein Gehirn<br />
im Topf sein könnte, wiederum zumindest in Analogie denken<br />
kann. Z. B. indem ich mir zunächst vorstelle, entsprechende Experimente<br />
vielleicht eines (nicht allzu fernen) Tages mit Ratten durchzuführen,<br />
deren Gehirne ich an einen Computer anschließe. Warum sollte ich<br />
dann nicht auch umgekehrt in eine entsprechende Situation als Versuchsperson<br />
geraten können? Diese einfache Analogie, die nur einen Wechsel<br />
der Perspektive in meinem Rattenexperiment verlangt, ist mir leider nur<br />
allzu gut vorstellbar. Das skeptische Gedankenexperiment scheint mir<br />
auch verständlich, ohne großen theoretischen Aufwand betreiben zu<br />
müssen. Es ist noch nicht einmal so utopisch oder sogar physikalisch unmöglich,<br />
daß wir es deshalb in unserem realistischen Rahmen nicht<br />
mehr zur Kenntnis zu nehmen hätten.<br />
Trotzdem ist dieser Weg, dem Skeptiker Unverständlichkeit vorzuwerfen,<br />
von Anti-skeptikern gern mit einigen Variationen beschritten<br />
worden. In dieser Richtung war schon Carnaps (1956) Kritik angesiedelt,<br />
daß bestimmte Fragen des Skeptikers nach der Existenz von Dingen<br />
der Außenwelt sinnlos seien, weil ontologische Fragen nach der Existenz<br />
von Gegenständen immer nur relativ zu einem bestimmten sprachlichen<br />
Rahmen bedeutungsvoll wären. Für Carnap sind nur die „internen Fragen“,<br />
die in einem solchen Rahmen aufgeworfen werden, sinnvoll, weil<br />
wir nur für sie Verifikationsbedingungen kennen. „Externe Fragen“, wie
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 314<br />
die, in welcher Sprache wir reden wollen, ob z. B. in einer Dingsprache<br />
oder einer phänomenalistischen, sind dagegen keine theoretischen Fragen<br />
nach Wahrheit oder Falschheit mehr, sondern eine Angelegenheit<br />
der Konvention ohne kognitiven Gehalt. Für Carnap wird damit wie für<br />
Putnam Wahrheit ein interner Begriff, der an unsere Verifikationsbedingungen<br />
gekoppelt ist. Hier ist kaum der Ort, die Verifikationstheorie der<br />
Bedeutung zu diskutieren, aber sie ist sicher eine Schwachstelle in Carnaps<br />
Reaktion auf den Skeptiker. Die Kopplung des Wahrheitsbegriffs an<br />
den der Verifizierbarkeit ist außerdem eine Schachzug, der dem Skeptiker<br />
bereits viel zu weit entgegenkommt, gibt er doch unser ursprüngliches<br />
Projekt der Erkenntnis einer von uns unabhängigen Außenwelt<br />
preis. Wenn wir dazu gewillt sind, lassen sich allerdings Antworten auf<br />
den Skeptiker finden. Der Skeptiker weist gerade an solchen Stellen auf<br />
Lücken in unserer Erkenntnis hin, an denen externe Gesichtspunkte ins<br />
Spiel kommen, die durch das intern Zugängliche nicht voll erfaßt werden;<br />
also für Rechtfertigungen dort, wo wir verlangen, daß sie wahrheitsdienlich<br />
in einem anspruchsvollen korrespondenztheoretischen Sinn<br />
des Wortes sind. Gibt man daher die Unterscheidung von externen und<br />
internen Ebenen auf, verliert er seinen wichtigsten Angriffspunkt. Auch<br />
transzendental idealistische Ansätze kommen dem Skeptiker in ähnlicher<br />
Form entgegen, wenn sie Wahrheit auf der Ebene der Erscheinungen ansiedeln,<br />
die zumindest nicht völlig unabhängig von uns ist, sondern zu<br />
einem Teil von uns konstruiert wird. In der vorliegenden Arbeit habe ich<br />
mich für einen anspruchsvolleren Wahrheitsbegriff mit einer realistischen<br />
Konzeption der Außenwelt entschieden, der eher unserer Vorstellung<br />
von objektiver Erkenntnis entspricht, und kann daher keine Zurückweisung<br />
der skeptischen Einwände auf diesem Wege mittragen.<br />
Es gibt eine Reihe anderer Versuche, die skeptischen Einwände zurückzuweisen,<br />
weil sie zu unnatürlich sind. Man könnte hier Wittgenstein,<br />
Ayer, Stanley Cavell oder Crispin Wright nennen, aber für mich<br />
bleibt das Fazit all dieser Versuche: Die skeptischen Einwände mögen<br />
zwar praktisch irrelevant erscheinen, unnatürlich wirken und nur in<br />
theoretischen philosophischen Kontexten auftreten oder sogar unfair abgefaßt<br />
sein, denn sie verletzen die üblichen Regeln für die Frage nach<br />
Begründungen, aber damit ist noch nicht erwiesen, daß sie erkenntnistheoretisch<br />
unzulässig oder sogar falsch sind.<br />
Deshalb gibt es auch eine Reihe von Autoren, die die Herausforderung<br />
des Skeptikers annehmen und versuchen, ihm eine direkte Erwiderung<br />
entgegenzubringen. Das reicht von Descartes, der Schlüsse aus ersten<br />
unbezweifelbaren Gewißheiten zieht, die keine Lücke zwischen un-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 315<br />
serer Erkenntnis der Welt und der Welt zulassen sollen, bis hin zu Moore,<br />
der in seinem bekannten „Beweis der Außenwelt“ unsere Gewißheiten<br />
erster Ordnung gegen die eher theoretischen Einwände des Skeptikers<br />
auszuspielen versucht. Einen solchen Widerlegungsversuch möchte<br />
ich nun noch genauer unter die Lupe nehmen, weil gerade er die konsequente<br />
Anwendung der wichtigsten internen Schlußform auf die metatheoretischen<br />
externen Fragen verkörpert.<br />
4. Realismus als beste Erklärung?<br />
Immer wieder versuchen Philosophen mit dem Schluß auf die beste Erklärung<br />
– nun eingesetzt auf der Metaebene – den Skeptiker zu bekämpfen.<br />
Ansätze hierfür sind schon bei Hume zu finden, der die Kohärenz<br />
bestimmter Wahrnehmungen als Indiz für die Existenz einer entsprechenden<br />
Außenwelt erwägt. Ihm reichte dieser Schluß nicht aus, aber einigen<br />
heutigen Autoren, u.a. Devitt (1991, 73ff), Moser (1989, 158ff)<br />
und BonJour (1985, Kap. 8), scheint er stärker zu sein, als Hume noch<br />
annahm. Sie argumentieren, die beste Erklärung für unsere Beobachtungsüberzeugungen<br />
und ihre Konstanz sei in der Annahme zu finden,<br />
daß die Außenwelt in vielen Eigenschaften so ist, wie sie uns erscheint.<br />
Dieser Weg wirkt besonders auf dem Hintergrund von KTR zunächst<br />
plausibel, weil ich auf der Objektebene von KTR den Schluß auf die beste<br />
Erklärung als das zentrale Schlußverfahren für gehaltvermehrende<br />
Schlüsse bezeichnet habe; außerdem erwies er sich als ein wichtiges Instrument<br />
gegen den internen Skeptiker. Betrachten wir anhand der Argumentation<br />
von BonJour, die ebenfalls auf der Grundlage einer Kohärenztheorie<br />
abgegeben wird, ob er sich auch gegen den radikalen Skeptiker<br />
wirksam anwenden läßt.<br />
BonJour (1985, 169ff) versucht den Schluß auf die beste Erklärung<br />
sowohl gegen einen internen wie gegen einen externen Skeptiker einzusetzen.<br />
Er vertritt dazu zwei Thesen (1985, 171), die ich in abgekürzter<br />
Form wiedergebe:<br />
(B1) Wenn ein Überzeugungssystem über einen längeren Zeitraum kohärent<br />
und stabil bleibt, obwohl es gleichzeitig BonJours „observation<br />
requirement“ erfüllt, so gibt es wahrscheinlich eine Erklärung<br />
dafür.<br />
(B2) Die beste Erklärung dafür ist, daß (a) die Beobachtungsüberzeugungen<br />
auf approximativ zuverlässige Weise von entsprechenden<br />
Situationen verursacht sind und (b) das ganze Überzeugungssy-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 316<br />
stem eine unabhängige Realität approximativ zutreffend beschreibt.<br />
Die erste Forderung ist vorerst nicht besonders kontrovers, da beide Seiten,<br />
sowohl der Skeptiker wie auch sein Gegner, der erkenntnistheoretische<br />
Realist, Erklärungen für die stabile Kohärenz anbieten. Sie scheinen<br />
damit implizit zu akzeptieren, daß es sich um ein erklärungsbedürftiges<br />
Faktum handelt, für das wir nach Erklärungsmodellen suchen sollten.<br />
(Diese Zustimmung kann der Skeptiker natürlich, wie oben schon erwähnt,<br />
jederzeit auch wieder zurückziehen, wenn ihm die Suche nach<br />
Erklärungen zu brenzlig wird.) Wirklich spannend wird es demnach erst<br />
für die zweite These (B2), in der die realistische Erklärung als die beste<br />
ausgewiesen werden soll. Hier muß man unterscheiden, ob man sich gegen<br />
den internen oder den externen Skeptiker wenden möchte.<br />
Fangen wir wiederum mit dem internen an, um den Unterschied zwischen<br />
den beiden Formen von Skeptizismus noch einmal zu beleuchten.<br />
Auch für ihn lassen sich weitere Unterscheidungen treffen. Als interner<br />
Skeptiker wird er der Konzeption von Schlüssen auf die beste Erklärung<br />
als Wahrheitsindikatoren prinzipiell zustimmen, weil diese Intuition ein<br />
zentraler Aspekt unserer epistemischen Überzeugungen ist, aber er könnte<br />
Einwände bezüglich ihres Anwendungsbereich erheben. Als einen internen<br />
Skeptizismus dieser Art kann man z. B. van Fraassens konstruktiven<br />
Empirismus (s. z. B. van Fraassen 1980) beschreiben. Van Fraassen<br />
versucht eine Kluft zwischen beobachtbaren und unbeobachtbaren Dingen<br />
in der Erkenntnistheorie stark zu machen. Während seiner Meinung<br />
nach Schlüsse auf Beobachtbares, auch wenn es nicht beobachtet wird,<br />
epistemisch zulässig sind, sind entsprechende Schlüsse auf Unbeobachtbares<br />
für ihn erkenntnistheoretisch nicht statthaft. BonJour versucht die<br />
Argumente solcher wissenschaftlichen Antirealisten durch eine Reihe<br />
kleinerer Einwände gegen ihre Position zu entschärfen, aber er wird damit<br />
der umfangreicheren Debatte um den wissenschaftlichen Realismus<br />
kaum gerecht. Insbesondere müßte er sich noch einer anderen Diskussion<br />
stellen, die durch Wissenschaftshistoriker wie Kuhn und Feyerabend<br />
ausgelöst wurde. Die bestreiten, daß sich eine stabile Kohärenz, wie sie<br />
in (B1) von BonJour behauptet wird, in den Wissenschaften tatsächlich<br />
feststellen läßt. Wenn die Vertreter einer Inkommensurabilitätsthese<br />
Recht behalten und aufeinanderfolgende Theorien in der Wissenschaft<br />
miteinander inkommensurabel sind, und sich weiterhin daraus ergibt,<br />
daß sie auch nicht in bezug auf einen epistemischen Fortschritt im Sinne<br />
einer Vermehrung von Wissen verglichen werden können, entfällt be-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 317<br />
reits ein Teil von BonJours Prämisse (B1) eines entsprechenden erklärungsbedürftigen<br />
Faktums.<br />
Die diachronische Kohärenztheorie der Rechtfertigung erklärt an<br />
dieser Stelle sehr schön, wieso der Inkommensurabilitätsdebatte eine so<br />
große erkenntnistheoretische Bedeutung zukommt. Ihr Ausgang hat<br />
nämlich auch wichtige Auswirkungen auf die Beurteilung unserer nichtwissenschaftlichen<br />
Erkenntnis, denn diese ist – nicht zuletzt durch die<br />
epistemische Arbeitsteilung – für Rechtfertigungsfragen eng mit unserem<br />
wissenschaftlichen Wissen verknüpft. Außerdem stellen die Wissenschaften<br />
einen wesentlichen Teil unseres Wissens dar, dessen Stabilität und<br />
Kohärenz einen paradigmatischer Testfall für die Stabilitätsbehauptung<br />
ausmacht. Für eine rein synchronisch verfahrende Rechtfertigungskonzeption<br />
erschiene dagegen die Vorgeschichte unseres Meinungssystems<br />
bedeutungslos. Zur Inkommensurabilitätsfrage und auch zur Diskussion<br />
um den wissenschaftlichen Realismus werde ich in einem wissenschaftstheoretischen<br />
Kontext Stellung beziehen. Dabei werde ich für eine realistische<br />
Deutung der Wissenschaften und gegen relativistische Deutungen<br />
der Wissenschaftsgeschichte plädieren. Das begründet dann (B1) und liefert<br />
die Voraussetzungen, sich mit (B2) zumindest gegen den internen<br />
Skeptiker zu wehren. Vor dem Hintergrund, daß gehaltreichere Theorien<br />
die besseren Erklärungen anbieten können, 120 scheint die realistische<br />
Behauptung (B2) dann gegenüber den skeptischen Erklärungen zu<br />
favorisieren sein. Doch dieser Punkt bedarf umfangreicherer Analysen<br />
von Beispielen aus den Wissenschaften, die in dem jetzigen Kontext<br />
nicht zu leisten sind.<br />
Gegen den internen Skeptiker können wir also vermutlich mit Hilfe<br />
des Schlusses auf die beste Erklärung etwas erreichen, wenn wir uns auf<br />
die entsprechenden wissenschaftsphilosophischen Debatten einlassen.<br />
BonJour macht es sich dabei allerdings viel zu leicht. Dieser Erfolg ist<br />
für meine Theorie der Rechtfertigung auch nicht unbedingt erstaunlich,<br />
weil der Schluß auf die beste Erklärung von ihnen bereits als wahrheitsdienlich<br />
auf der Objektebene akzeptiert wird. Warum sollten sie ihn<br />
dann auf der Metaebene nicht als Wahrheitsindikator akzeptieren? Zusätzlich<br />
tragen die internen Skeptiker die Beweislast für Einschränkungen<br />
des Abduktionsschlusses auf bestimmte Bereiche.<br />
Weit schwieriger ist wiederum der Umgang mit dem radikalen Skeptiker.<br />
Noch einmal: Der könnte zunächst auf der Metaebene den Schluß<br />
auf die beste Erklärung als nicht wahrheitsdienlich zurückweisen. Dann<br />
bleibt uns auf der Metaebene nichts anderes übrig, als an die Plausibili-<br />
120 Diese Behauptung wird im 3. Teil erläutert und begründet.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 318<br />
tät der Abduktion appellieren, haben aber keine wirkliche Handhabe gegen<br />
den Skeptiker, weil unsere zahlreichen intuitiven Beispiele für erfolgreiche<br />
Schlüsse auf die beste Erklärung allesamt seinem radikalen<br />
Skeptizismus zum Opfer fallen. Der Skeptiker erscheint damit wieder als<br />
unfairer Diskussionspartner, weil er uns auf der Metaebene keine reelle<br />
Chance für eine Erwiderung gibt, denn irgendeiner Argumentform müssen<br />
wir uns zur Begründung unserer anti-skeptischen Haltung ja schließlich<br />
bedienen. Doch leider läßt uns dieser moralische Einwand noch<br />
keine erkenntnistheoretischen Pluspunkte sammeln.<br />
Überraschenderweise wird der Skeptiker meist nicht ganz so skrupellos<br />
dargestellt, sondern er versucht selbst alternative Erklärungen für unsere<br />
Wahrnehmungen zu entwerfen, wie daß sie von einem Dämon<br />
stammen oder uns von einem Supercomputer eingeflüstert werden.<br />
Wenn er sich erst auf das Erklärungsgeschäft eingelassen hat, wird er allerdings<br />
prinzipiell anfällig für die BonJoursche Argumentation, und wir<br />
wollen nun untersuchen wie groß diese Anfälligkeit tatsächlich ist. Wir<br />
können fragen, wer die bessere Erklärung anzubieten hat. BonJour<br />
(1985, 179ff) hält die realistische Hypothese für den klaren Sieger, aber<br />
auch der Skeptiker hat für die stabile Kohärenz eine Erklärung vorzuschlagen,<br />
nämlich, daß uns der Dämon hinters Licht führen will, und<br />
das geschieht natürlich am besten anhand einer derartig stabilen illusionären<br />
Umgebung. Auf welcher Grundlage können wir dann noch skeptische<br />
oder idealistische Hypothesen als minderwertige Erklärungen gegenüber<br />
der realistischen zurückweisen? Akzeptiert der Skeptiker auch<br />
nur einige unserer gewöhnlichen Annahmen über die Welt dürfte seine<br />
Hypothese schnell unterliegen, aber gerade das dürfen wir vom radikalen<br />
Skeptiker unglücklicherweise nicht erwarten, weil er diese Annahmen<br />
allesamt ablehnt. In dieser skeptischen Situation verbleiben wir<br />
meines Erachtens ohne den erforderlichen epistemischen Hintergrund,<br />
vor dem wir die eine oder andere Erklärung als die bessere bevorzugen<br />
könnten. Gegen den Skeptiker sind wir womöglich in einer noch<br />
schlechteren Situation als es Moser war (s. III.B.5.b), der mit dem<br />
Schluß auf die beste Erklärung auf einer Art von Sinnesdatenbasis basale<br />
Überzeugungen begründen wollte. Er scheiterte daran, daß die Beurteilung<br />
von Erklärungen nur auf der Grundlage eines umfangreicheren<br />
Hintergrundwissens möglich ist. Die Sinnesdaten ohne semantischen Gehalt<br />
reichten als Basis für eine Entscheidung nicht aus. Gegen den radikalen<br />
Skeptiker haben wir noch weniger in der Hand, auf das wir uns<br />
stützen könnten. Wie sollen wir uns dann per Abduktion gegen den<br />
Skeptiker wenden? Die Erklärungstheorie, die ich in Kapitel 9 präsentie-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 319<br />
ren werde, gibt zwar auch einige Anhaltspunkte, die realistische Erklärung<br />
wegen ihres weit größeren Gehalts zu bevorzugen, doch wiederum<br />
ist unklar, wie ich einen radikalen Skeptiker zu dieser speziellen Erklärungstheorie<br />
bekehren soll. Sie wird wesentlich durch eine Analyse von<br />
Beispielen mitbegründet und stützt sich auf andere epistemische Intuitionen,<br />
die der radikale Skeptiker als illusionär einstufen wird.<br />
BonJour (1985, 181ff) bringt deshalb an dieser Stelle a priori Wahrscheinlichkeiten<br />
ins Spiel und meint grob gesagt, eine Ausarbeitung der<br />
Dämonenhypothese würde ihre apriorische Unwahrscheinlichkeit ans<br />
Licht bringen, denn warum sollte der Dämon gerade die vom Skeptiker<br />
genannten Ziele haben und nicht eines von den vielen anderen, die ihm<br />
als allmächtigen Dämon doch offenstehen?<br />
Diese Überlegung wirkt recht gewagt und scheint mir wenigstens aus<br />
zwei Gründen fehlerhaft zu sein. Erstens knüpfen diese Überlegungen<br />
stark an das an, was wir bereits über die normalen Interessen und Vielgestaltigkeit<br />
von intelligenten Lebewesen wissen und sind daher nicht<br />
auf der Grundlage einer tabula rasa zu haben. Hier gerät der Einwand in<br />
den Verdacht einer petitio principii. Außerdem ist der Einwand auch für<br />
sich nicht überzeugend, wissen wir doch, daß es manchen „Lebewesen“<br />
– und ganz besonders Dämonen – Spaß macht, Experimente mit anderen<br />
Lebewesen auszuführen. Das muß für ihn nicht zu einseitig werden,<br />
denn in der Regel wird dieses Experiment nicht sein ganzer Lebensinhalt<br />
sein, sondern nur ein kleiner Teil seiner Vergnügungen, von denen der<br />
Dämon noch viele andere hat. Zweitens, und hier wird es ernsthafter,<br />
zieht BonJour hier einen bekannten und populär erfolgreichen, aber<br />
nichtsdestoweniger fehlerhaften statistischen Schluß.<br />
Betrachten wir diesen Schluß an einem anderen bekannten Beispiel,<br />
in dem er für die Lösung einer anderen Fragestellung mißbraucht wird.<br />
Es wird manchmal mit der Unwahrscheinlichkeit, der „zufälligen“ Entstehung<br />
von Leben für die Existenz eines Schöpfers argumentiert. Der<br />
Biologe Monod (1971) unterstützt solche Ansichten unfreiwillig, indem<br />
er die Entstehung des Lebens als ein Ereignis mit astronomischer Unwahrscheinlichkeit<br />
bezeichnet. Solche Unwahrscheinlichkeiten ergeben<br />
sich aber eigentlich immer, wenn wir im nachhinein Wahrscheinlichkeiten<br />
für das Vorliegen des gegenwärtigen Zustands berechnen. Wenn wir<br />
mit einem Würfel 10 000 mal würfeln, wird irgendeine Ziffernfolge herauskommen.<br />
Dafür ist die Wahrscheinlichkeit 1. Wie groß war aber die<br />
Wahrscheinlichkeit für gerade diese Folge? Nun genau: (1/6) 10 000 . Das<br />
ist eine extrem kleine Zahl. Wir waren also im Sinn des betrachteten<br />
Schlußverfahrens wieder Zeuge eines astronomisch unwahrscheinlichen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 320<br />
Ereignisses, ohne daß es uns so bedeutsam vorkommt (s. dazu Stegmüller<br />
1987 III, 206). Doch tatsächlich wäre es das nur gewesen, wenn wir<br />
gerade dieses Ereignis vorhergesagt hätten. Derartige nachträgliche Kalkulationen<br />
von Wahrscheinlichkeiten bleiben wertlos, solange man sich<br />
nicht auf bestimmte vorher festgelegte Referenzklassen bezieht. Daß irgendeine<br />
Folge von Würfelziffern dabei herauskommen würde, war von<br />
Anfang an alles andere als erstaunlich. Ähnlich wenig hilfreich sind die<br />
nachträglichen Unwahrscheinlichkeitsvermutungen von BonJour für die<br />
Interessen des Dämons. Gerade für unsere Kenntnis der Situation, die<br />
uns der Skeptiker läßt, sind wir nicht in der Lage, Referenzklassen zu bestimmen,<br />
die uns relevante Wahrscheinlichkeitseinschätzungen ermöglichen<br />
würden. Eine apriorische Beurteilung von Wahrscheinlichkeiten<br />
könnte in dieser Situation eigentlich nur alle aufgezählten Möglichkeiten<br />
aus Mangel an weiteren Informationen als gleichwahrscheinlich einschätzen,<br />
woraus kein Argument gegen den Skeptiker erwächst. Er kann<br />
sich mit zahlreichen skeptischen Möglichkeiten zufrieden zeigen, während<br />
wir auf der einen realistischen Deutung bestehen möchten. Der<br />
Schluß auf die beste Erklärung ist daher kaum als Waffe gegen den radikalen<br />
Skeptiker einzusetzen, weil er nur bei vorliegendem Hintergrundwissen<br />
anhand dessen sich eine Beurteilung von Erklärungen vornehmen<br />
läßt, eine vergleichende Bewertung erlaubt. Doch die läßt der radikale<br />
Skeptiker gerade nicht zu.<br />
Unsere Chancen, den Skeptiker tatsächlich zu widerlegen, beurteile<br />
ich deshalb trotz der zahlreichen interessanten Überlegungen, die bisher<br />
von Philosophen vorgetragen wurden, ähnlich pessimistisch wie Hume<br />
(1978, 218):<br />
This skeptical doubt, both with respect to reason and the senses, is a<br />
malady, which can never be radically cur’d, but must return upon us<br />
every moment, however we chace it away, and sometimes seem entirely<br />
free from it. ‘Tis impossible upon any system to defend either<br />
our understanding or senses;<br />
Allerdings ist es nicht in erster Linie mein Ziel, die Gegner des Skeptizismus<br />
zu kritisieren, sondern die Skeptiker selbst. Es war nur meine Absicht,<br />
die Ausgangslage für meine Haltung gegenüber dem Skeptiker zu<br />
erläutern und einzugestehen, daß der von mir so geschätzte Schluß auf<br />
die beste Erklärung hier versagen muß. Findet sich entgegen dieser Erwartung<br />
doch eine geeignete Widerlegung der skeptischen Bedrohung,<br />
bin ich natürlich nur zu gerne bereit, mich ihr anzuschließen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 321<br />
5. Erkenntnistheoretische Ziele<br />
Ehe ich genauer bestimmen möchte, was sich nach dieser pessimistischen<br />
Beurteilung noch Sinnvolles vis-à-vis dem Skeptiker sagen läßt,<br />
möchte ich einen Schritt zurücktreten und die Ziele etwas genauer klären,<br />
die wir mit der Erkenntnistheorie verfolgen. Wir fahnden, so könnte<br />
man dieses Gebiet charakterisieren, nach einem Verfahren zur Wahrheitssuche.<br />
Dieses Verfahren besteht aus einem Abwägen von Begründungen<br />
für eine Meinung. Da wir keinen direkten Zugang zur Wahrheit<br />
unserer Meinungen besitzen, sind wir auf derartige Wahrheitsindikatoren<br />
angewiesen. Der erhoffte Erkenntnisgewinn beinhaltet dabei zwei<br />
Ziele: Zum ersten unser Meinungssystem so zu gestalten, daß es möglichst<br />
viele wahre und begründete Meinungen enthält, und zum zweiten<br />
falsche Meinungen möglichst zurückzuweisen. Wir versuchen, möglichst<br />
viele Erkenntnisse über die Welt zu erwerben und dabei Irrtümer, so gut<br />
es eben geht, zu vermeiden.<br />
Ideal wäre es natürlich, überhaupt keine falschen Meinungen zu akzeptieren,<br />
aber dieses Ideal ist offensichtlich kaum erreichbar, und wir<br />
können uns nicht sicher vor Irrtum schützen. Wir müssen uns daher auf<br />
die bescheidenere fallibilistische Position zurückziehen, daß es Irrtümer<br />
unter unseren Überzeugungen geben kann, und wir versuchen sollten,<br />
ihren Umfang so gering wie möglich zu halten. Als Fallibilisten müssen<br />
wir aber anerkennen, daß im Prinzip jede einzelne unserer Überzeugungen<br />
falsch sein könnte und schwören damit der Cartesischen Forderung<br />
nach Sicherheit für unsere Meinungen ab. Die beiden Ziele, die wir<br />
beim Erkenntnisgewinn verfolgen, die schon William James (1956, Kap.<br />
VII) explizit als zwei getrennte Ziele beschrieben hat, lassen sich daher<br />
darstellen als Suche nach möglichst vielen Informationen über die Welt<br />
und gleichzeitig nach möglichst großer Irrtumsfreiheit.<br />
Epistemische Ziele<br />
Information<br />
Möglichst viele, möglichst empirisch gehaltvolle und epistemisch<br />
wertvolle Meinungen über die Welt zu besitzen.<br />
Irrtumsfreiheit<br />
Möglichst wenige falsche Meinungen über die Welt zu akzeptieren.<br />
Das erste Ziel ist selbstverständlich nicht nur so zu lesen, daß man einfach<br />
möglichst viele wahre Meinungen zu sammeln braucht, denn wir<br />
wollen in der Regel nicht beliebige Erkenntnisse über die Welt, sondern
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 322<br />
solche, die uns wichtig und gehaltvoll erscheinen. Meinungssammlungen<br />
wie:<br />
- Zwei Liter Wasser sind mehr als ein Liter Wasser.<br />
- Drei Liter Wasser sind mehr als zwei Liter Wasser.<br />
- ...<br />
können zwar zu potentiell unendlich vielen wahren Überzeugungen führen,<br />
aber sie sind kaum besonders informativ. Wie sich der Informationsgehalt<br />
von Meinungen bestimmen läßt, ist sicher keine einfache Frage,<br />
aber es gibt etwa in der Informationstheorie und auch der Wissenschaftstheorie<br />
einige interessante Vorschläge dazu. Die Falsifikationisten<br />
z. B. haben das Ziel möglichst riskanter Theorien (möglichst viele potentielle<br />
Falsifikationsinstanzen) auf ihre Fahnen geschrieben, was eng damit<br />
zusammenhängt, daß diese Theorien informationsreich sind. An dieser<br />
Stelle genügt ein intuitives Verständnis von „Informationsgehalt“,<br />
um einzusehen, daß die bloße Anzahl an Überzeugungen kein geeignetes<br />
Maß für unser erstes epistemisches Ziel ist. Für wissenschaftliche Theorien<br />
läßt sich der empirische Gehalt in präziser Weise bestimmen, womit<br />
ich mich im letzten Teil der Arbeit beschäftigen werde (s. VII.C.9). Mit<br />
„epistemisch wertvoll“ sind natürlich insbesondere die Meinungen angesprochen,<br />
die wesentlich zur Kohärenz unseres Überzeugungssystems im<br />
Sinne von KTR beitragen. Diese Forderung überschneidet sich ein wenig<br />
mit der nach hohem Informationsgehalt, ist aber spezifischer für ein bestimmtes<br />
Überzeugungssystem als diese.<br />
Auf der anderen Seite streben wir nicht einfach nach vielen informativen<br />
Annahmen über die Welt, sondern möchten dabei möglichst nur<br />
wahre oder jedenfalls so wenig falsche Annahmen wie möglich unter unseren<br />
Meinungen wissen. Auch für dieses zweite Ziel ist eigentlich wiederum<br />
eine Gewichtung erforderlich. Einige Irrtümer sind für uns<br />
schwerwiegender als andere. Das ist nicht nur auf Personen relativiert zu<br />
verstehen, wonach für jeden bestimmte Überzeugungen wichtig sind,<br />
sondern hat auch eine stärker theoretische Komponente, wonach bestimmte<br />
Meinungen, etwa aufgrund ihres Allgemeinheitsgrads, eine zentralere<br />
Position in unserem Überzeugungssystem einnehmen und stärkere<br />
Auswirkungen auf andere Überzeugungen haben. So führt die Annahme<br />
eines radikalen Skeptikers, wir wären Gehirne in einer Nährflüssigkeit<br />
und würden unseren Input von einem Computer erhalten, zu einer<br />
Umdeutung nahezu aller unserer Ansichten über die Welt. Die praktischen<br />
Folgen sind vermutlich nur deshalb nicht so bedeutend, weil wir<br />
die skeptischen Annahmen nicht wirklich glauben, während ein Irrtum
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 323<br />
bezüglich der Vornamen von Cicero im allgemeinen nicht derartig weitreichende<br />
Schlußfolgerungen auf andere Teile unseres Meinungssystems<br />
zuläßt.<br />
Erst diese Qualifizierungen der epistemischen Ziele machen letztlich<br />
deutlich, worum es uns beim Erkenntniserwerb geht. Wie auch immer<br />
sie ausgestaltet werden, dürfte erkennbar sein, daß die beiden Ziele in<br />
einem Spannungsverhältnis zueinander stehen. Da es uns nicht gelingt,<br />
sicheres Wissen über die Welt zu erlangen, sind wir mit jeder Meinung,<br />
die wir zusätzlich akzeptieren, gezwungen, ein höheres Irrtumsrisiko<br />
einzugehen, das um so höher liegt, je informativer die jeweilige Meinung<br />
ist. Je konkretere Aussagen der Wetterbericht über das Wetter von<br />
morgen macht, desto größer ist ceteris paribus auch die Wahrscheinlichkeit,<br />
daß sie nicht zutreffen. Sobald man eines der beiden Ziele völlig<br />
vernachlässigt, wird die Erfüllung des anderen trivial. Um möglichst<br />
viele Überzeugungen zu akzeptieren, könnte ich, wenn ich vom Problem<br />
der falschen Meinungen absehe, einfach alle möglichen Aussagen akzeptieren.<br />
Das zweite Ziel läßt sich hingegen optimal erreichen, indem ich<br />
mich jeder Meinung enthalte.<br />
Genau für diesen zweiten Vorschlag macht sich der Skeptiker stark.<br />
Seiner Meinung nach verfügen wir für keine unserer Meinungen tatsächlich<br />
über epistemische Gründe und sollten uns daher aller Annahmen<br />
über die Realität enthalten. Der Skeptiker gewichtet dabei das zweite<br />
Ziel so hoch, daß er für die Erfüllung des ersten keinen Raum mehr<br />
läßt. Das muß jedenfalls unsere Konklusion sein, wenn wir die bekannten<br />
Erwiderungen auf den Skeptiker und Diagnosen des Skeptizismus<br />
nicht für erfolgreich halten.<br />
6. Eine Entscheidung gegen den Skeptiker<br />
Wenn wir über keine epistemischen Gründe für eine Zurückweisung des<br />
Skeptikers – allerdings auch nicht des Realisten – verfügen, müssen wir<br />
uns mittels anderer Überlegungen zwischen Skeptizismus und Anti-skeptizismus<br />
entscheiden. Das beinhaltet eine Gewichtung zwischen den beiden<br />
genannten epistemischen Zielen. Eine solche Entscheidung soll<br />
keine bloß pragmatische Entscheidung sein, da sie nicht primär an praktischen<br />
Zielen oder Bedürfnissen orientiert ist, sondern auf einer theoretischen<br />
Ebene stattfinden, denn die beiden genannten Ziele sind die<br />
theoretischen Ziele der Erkenntnistheorie selbst; trotzdem handelt es<br />
sich nichtsdestoweniger um eine Wertentscheidung.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 324<br />
Gegen den Skeptiker möchte ich die Bedeutung des ersten Ziels stärker<br />
betonen. Die Suche nach informativen Erkenntnissen über die Welt<br />
ist für die Erkenntnistheorie zu wichtig, als daß wir sie dem zweiten Ziel<br />
ganz opfern dürften. Nur eine Ablehnung der radikalen skeptischen Haltung<br />
kann zu einem fruchtbaren Forschungsprogramm führen, in dem<br />
wir ein gehaltvolles Bild unserer Welt erhalten, das nicht vollkommen<br />
willkürlich ist. Der Skeptiker kann seine Hypothesen dagegen nur auf<br />
willkürliche Weise ausbauen, weil er die einzigen Indizien, die wir für<br />
die Beschaffenheit der Welt zu besitzen scheinen, unsere sich spontan<br />
einstellenden Beobachtungsüberzeugungen, nicht ernst nimmt. Für jede<br />
Vermutung, wie sich seine skeptische Hypothese entfalten läßt, welche<br />
Eigenschaften wir etwa dem Dämon und seiner Umwelt zuschreiben, hat<br />
er in der skeptischen Situation keine überprüfbaren Anhaltspunkte mehr<br />
anzubieten, sondern nur noch seine Phantasie.<br />
Der hier beschriebene Kohärenztheoretiker läßt sich demgegenüber<br />
von gewissen spontanen Meinungen, die sich als Beobachtungsinput<br />
deuten lassen, inhaltlich leiten und versucht sein Bild der Welt aus seiner<br />
Innenperspektive zu entwickeln. Dabei knüpft er im Sinne des epistemologischen<br />
Konservatismus immer an das an, was er bisher schon<br />
glaubte. Doch er vertraut seinen Meinungen keineswegs blind. Es ist<br />
ihm klar, daß er nicht über sicheres Wissen und auch nicht über eine sichere<br />
Basis für Wissen verfügt. Jede eingehende Information wird anhand<br />
von Kohärenztests auf ihre Glaubwürdigkeit geprüft, und auch das<br />
dafür eingesetzte Hintergrundwissen wird ständigen Prüfungen unterworfen.<br />
Der Skeptiker wird ebenso mit spontan auftauchenden Meinungen<br />
konfrontiert werden. Er steht aber auf der Ebene seiner epistemischen<br />
Überzeugungen nicht dazu, sondern verwirft sie als Vorspiegelungen eines<br />
Dämons. Nur der Anti-Skeptiker steht auch auf der Ebene der Metaüberzeugungen<br />
hinter seinen Überzeugungen erster Stufe und fällt sich<br />
dort nicht selbst immer wieder in den Rücken mit der epistemischen<br />
Vermutung, alle seine Meinungen erster Stufe seien falsch. Der radikale<br />
Skeptiker muß seine spontan auftauchenden Beobachtungsüberzeugungen<br />
tatsächlich jedesmal bekämpfen, ohne besondere Anhaltspunkte dafür<br />
zu haben. Schon das scheint mir eine recht paradoxe Situation für<br />
die Entwicklung unseres Meinungssystems zu sein.<br />
Das zweite epistemische Ziel der möglichst wenigen Irrtümer soll im<br />
Rahmen der Kohärenztheorie dadurch berücksichtigt werden, daß man<br />
immer den internen Skeptiker zu Wort kommen läßt, der anhand interner<br />
Kohärenzüberlegungen jede unserer Meinungen in Frage stellen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 325<br />
kann. Die interne Skepsis bietet daher eine wertvolle Hilfe für eine Abwägung<br />
zwischen den beiden erkenntnistheoretischen Zielen, die der externe<br />
Skeptiker nicht vornehmen kann. Er rät uns schlicht, alle unsere<br />
Meinungen aufzugeben, und das ohne uns irgendeinen Ersatz für die<br />
Aufgabe all unserer Meinungen im Hinblick auf das erste epistemische<br />
Ziel anzubieten. Wir sollten uns daher gegen radikale skeptische Hypothesen<br />
entscheiden zugunsten einer stärkeren Betonung des 1. Ziels der<br />
Erkenntnistheorie und damit das einzige interessante Forschungsprogramm<br />
ergreifen, das sich uns bietet.<br />
Da die skeptischen Hypothesen in der Regel kausale Hypothesen<br />
über den Ursprung unserer Meinungen sind, können wir die Entscheidung<br />
gegen den radikalen Skeptizismus auch in positiver Form vornehmen,<br />
als eine Entscheidung für die Überzeugung zweiter Stufe, daß unsere<br />
spontanen Meinungen im allgemeinen zuverlässige Informationen<br />
über unsere Umgebung liefern, oder anders ausgedrückt, daß wir in einem<br />
geeigneten kausalen Kontakt zur Welt stehen. Das läßt sich in erster<br />
Näherung so beschreiben:<br />
Kausaler Kontakt (KK)<br />
Mein kausaler Kontakt zur Außenwelt ist so beschaffen, daß meine<br />
spontanen Beobachtungsüberzeugungen in vielen Fällen in relativ zuverlässiger<br />
Weise über die Welt um mich herum Auskunft geben.<br />
Sollte die Annahme (KK) wesentlich falsch sein, wird es uns wohl mit<br />
keiner noch so phantasievoll ersonnenen Erkenntnistheorie gelingen, zuverlässige<br />
Erkenntnisse über die Welt zu gewinnen. Diese Behauptung ist<br />
meines Erachtens der wahre Kern der empiristischen Erkenntnistheorie,<br />
den wir beibehalten sollten. Nicht in Form apriorischen Wissens, sondern<br />
als metatheoretische Hypothese, die notwendig ist, um uns zu den<br />
Einwänden des radikalen Skeptikers zu verhalten. Dabei kommt dem<br />
Wort „kausal“ eigentlich keine wichtige Rolle außer einer didaktischen<br />
zu, aber das wird erst in dem Kapitel über eine deflationäre Theorie der<br />
Kausalität deutlicher werden (s. VIII.C.2.e).<br />
Die Annahme (KK) kann natürlich intern auch begründet werden<br />
und ist eine empirische Annahme, gegen die intern tatsächlich empirische<br />
Gründe sprechen können, die letztlich sogar zu ihrer Aufgabe führen<br />
könnten. Im Fall von Träumen entscheiden wir uns dafür – wenn<br />
auch meist nicht zur gleichen Zeit wie wir träumen – unsere „Wahrnehmungen“<br />
nicht als geeignete Informationen über unsere Umwelt zu akzeptieren.<br />
Ulises Moulines (1993) beschreibt zu diesem Zweck nach der<br />
Geschichte von Pedro Calderón de la Barca „Das Leben ein Traum“ den
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 326<br />
Fall des Königssohns Sigismund, der in Ketten in einem Turm aufwachsen<br />
muß, weil sein Vater ihn aufgrund einer astrologischen Prophezeiung<br />
fürchtet. Zu Probezwecken wird er aber gelegentlich in tiefem Schlaf in<br />
den Palast gebracht, in dem er als Prinz aufwacht. Weil sich die Prophezeiungen<br />
jedoch zu erfüllen scheinen, muß er dann doch immer wieder –<br />
jeweils im Schlaf – in seinen Turm zurückgebracht werden. Daher glaubt<br />
er auch später, nachdem er durch eine Revolution befreit wurde, immer<br />
noch zu träumen. Für ihn muß mindestens eine der beiden für ihn unverbundenen<br />
Welten als bloße Illusion erscheinen. Diese Fällen lassen<br />
sich natürlich beliebig ausbauen – dafür sind aber Science Fiction Autoren<br />
wohl findiger –, so daß es uns schließlich nicht mehr gelingt, ein kohärentes<br />
Bild unserer Außenwelt zu erstellen. Dann würde wir uns letztlich<br />
dazu genötigt sehen, die Annahme einer Außenwelt als Verursacher<br />
unserer Meinungen aufzugeben. Die Existenz der Außenwelt ist daher<br />
eine empirische Hypothese, die durch die Erfahrung zu Fall gebracht<br />
werden kann – und das sogar in Fällen wie dem von Sigismund, wo sie<br />
eigentlich zutreffend ist.<br />
Wir können entsprechende Überlegungen wie die, die meine Entscheidung<br />
gegen den Skeptiker tragen, auch als ein entscheidungstheoretisches<br />
Problem formulieren. Gehen wir der Einfachheit halber von zwei<br />
Möglichkeiten aus, obwohl sich natürlich auch Zwischenstufen formulieren<br />
ließen:<br />
(H1) Eine der radikalen skeptischen Hypothesen ist wahr.<br />
(H2) Alle radikalen skeptischen Hypothesen sind falsch und bedeutende<br />
Teile unseres Überzeugungssystems wahr.<br />
Um den „erkenntnistheoretischen Erwartungswert“ dieser konkurrierenden<br />
epistemischen Forschungsprogramme zu bestimmen, überlegen wir<br />
uns, welcher Gewinn oder Verlust (orientiert an den beiden Zielen der<br />
Erkenntnistheorie) in beiden Fällen zu verzeichnen ist. Beginnen wir mit<br />
(H1). Im Fall von (H1) haben sowohl der Skeptiker wie auch Vertreter<br />
von KTR kaum wahre Meinungen über die Welt aufzuweisen. Der Skeptiker<br />
kann die eine metatheoretische Überzeugung für sich verbuchen,<br />
daß er so etwas befürchtet hatte. Er wird aber kaum unter den vielen<br />
denkbaren skeptischen Hypothesen die zutreffende ermitteln können<br />
und sie schon gar nicht informativ ausgestalten können, indem er uns etwa<br />
Interessantes über den Dämon und dessen Leben zu berichten wüßte.<br />
Er hat also ebensowenig wie der Realist von dieser Möglichkeit größere<br />
erkenntnistheoretische Gewinne zu erwarten. Der Vertreter von KTR<br />
hat darüber hinaus allerdings noch einige Verluste zu verzeichnen, näm-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 327<br />
lich eine Reihe von falschen Überzeugungen, eben alle unsere gewöhnlichen<br />
Meinungen über die Welt. Das ist für den Skeptiker nicht so klar.<br />
Wenn er ehrlich ist, muß er eigentlich zugeben, daß er die meisten unserer<br />
Überzeugungen erster Stufe auch geteilt hat und er nur auf der Metaebene<br />
den bereits genannten Pluspunkt verbuchen kann. Anderenfalls,<br />
wenn er sich in völliger Enthaltsamkeit bezüglich aller Meinungen übt,<br />
kann, wie oben bereits vermerkt, eingewandt werden, daß er dadurch<br />
unverständlich wird; denn damit seine Meinungen überhaupt eine Bedeutung<br />
besitzen können, müssen seine Begriffe anhand einiger Meinungen,<br />
wenigstens den entsprechenden Stereotypen dieser Begriffe, gedeckt<br />
sein. Für (H1) sieht die Bilanz dann wie folgt aus: Der Skeptiker<br />
hat praktisch keine Gewinne und fast genauso wie der Vertreter von<br />
KTR etliche Verluste aufzuweisen.<br />
Anders ist es im Fall (H2). Der Skeptiker hat wieder weder große<br />
Verluste noch irgendwelche Gewinne aufzuweisen, während jetzt der<br />
KTR Proponent immense Gewinne bei nur kleinen Verlusten verbuchen<br />
kann. Der Anti-Skeptiker setzt also auf eine risikoreichere Strategie, bei<br />
der man viel gewinnen und auch einiges verlieren kann, während der<br />
Skeptiker fast jedem Risiko aus dem Wege geht, aber auch nichts zu gewinnen<br />
hat. Mir scheint es dabei fraglich, ob man den möglicherweise<br />
größeren „Verlusten“ des Realisten im Falle von (H1) große Bedeutung<br />
beilegen sollte. Wenn eine der radikalen skeptischen Hypothesen wahr<br />
ist, sind praktisch alle unsere Meinungen falsch, ob wir nun Skeptiker<br />
sind oder nicht, und keine Erkenntnistheorie kann für diesen Fall hilfreiche<br />
Anmerkungen abgeben. Wichtiger scheint mir der zweite Fall zu<br />
sein, und auf den müssen wir uns mit unserer Erkenntnistheorie vorbereiten,<br />
um uns die dort möglichen Gewinne nicht entgehen zu lassen.<br />
Da wir über keine Wahrscheinlichkeitsschätzungen für (H1) und<br />
(H2) verfügen, können wir keine Entscheidung anhand eines Erwartungswerts<br />
treffen, sondern nur eine unter Unsicherheit. Dafür gibt es<br />
bekanntlich nicht nur eine rationale Strategie, sondern ein Kontinuum<br />
von möglichen Strategien. Es ist auch nicht klar, welches Ergebnis etwa<br />
die Regel Maximin, nach der man sich für die Option entscheiden sollte,<br />
bei der der kleinste mögliche Nutzen maximal ist, zeitigen würde. Das<br />
hängt davon ab, wie man die entgangenen Möglichkeiten für wahre<br />
Meinungen im Fall (H2) und die Möglichkeit von falschen Meinungen<br />
in (H1) epistemisch gegeneinander abwägt. Die Entscheidung für oder<br />
gegen den radikalen Skeptiker kann aus erkenntnistheoretischer Perspektive<br />
also nicht anhand einfacher Regeln als rational oder irrational<br />
bezeichnet werden. Ich plädiere für die risikofreudigere Variante des An-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 328<br />
ti-Skeptikers (mit den Vorbehalten des Fallibilisten), da nur so Erkenntnisse<br />
über die Welt zu erhalten sind und die Verluste des Anti-Skeptikers<br />
für (H1) mir relativ unbedeutend scheinen. Die Entscheidung für Erkenntnisse<br />
mit Risiko und gegen den Skeptiker ist aber auch in dieser<br />
Darstellung eine Wertentscheidung zugunsten einer optimistischeren<br />
Strategie gegenüber der pessimistischen. Daß man vor eine derartige<br />
Wahl gestellt wird, ist nicht untypisch für Entscheidungen unter Unsicherheit.<br />
Vor dieser Wahl stehen z. B. auch die Rawlsschen Entscheidungsträger<br />
im Urzustand ohne Lüftung ihres Schleiers des Nichtwissens.<br />
Sie würden sich nach Rawls mit Maximin für die vorsichtigere<br />
Strategie entscheiden, aber auch das ist nicht unkontrovers und natürlich<br />
nicht auf unseren Fall übertragbar, weil die im Urzustand auftretenden<br />
Risiken eine ganz andere Bedeutung für unser Leben besitzen, als<br />
die epistemischen Risiken unserer Entscheidung für eine erkenntnistheoretische<br />
Vorgehensweise.<br />
Wenn sich also auch aus rein epistemischer Perspektive keine zwingenden<br />
Gründe für oder gegen den radikalen Skeptiker angeben lassen,<br />
sondern eine Entscheidung unter Unsicherheit notwendig wird, so sind<br />
doch die Gründe pragmatischer Art gegen den Skeptiker sofort offensichtlich,<br />
und ich möchte sie noch einmal erwähnen. Für den Fall (H1)<br />
kann es uns ziemlich gleichgültig sein, ob wir uns aller Meinungen enthalten<br />
oder lauter falsche haben, denn in diesem Fall ist für unser Leben<br />
auch durch falsche Überzeugungen nicht viel zu verlieren; wir werden<br />
als uns Anti-Skeptiker vermutlich sogar besser fühlen. Im Fall (H2) hingegen,<br />
führt die Strategie des Skeptikers zu einem kognitiv armseligen<br />
wenn nicht sogar recht kurzen Leben, weil er nicht auf der Grundlage<br />
von Meinungen über die Welt entscheiden und handeln kann. In diesem<br />
für uns bedeutsamen Fall ermöglicht allein eine anti-skeptische Strategie<br />
ein interessanteres und besseres Leben, in dem wir uns bewußt und mit<br />
Gründen in unserer Umwelt entscheiden und danach handeln können.<br />
In modernerer Terminologie könnte man auch sagen: Der Skeptiker<br />
möchte uns auf ein Forschungsprogramm festlegen, von dem wir schon<br />
wissen, daß es zu keinen Erkenntnissen führen wird, während der Anti-<br />
Skeptiker ein Forschungsprogramm favorisiert, das uns ein reichhaltiges<br />
Bild der Welt verspricht, aber nicht ausschließen kann, daß wir dabei einer<br />
Chimäre nachjagen.<br />
Die Strategie des Skeptikers läßt sich mit einer Wettervorhersage vergleichen,<br />
die um keinen Preis falsche Vorhersagen machen möchte, und<br />
weil bei jeder nicht gehaltsleeren Aussage bekanntlich eine Irrtumsmöglichkeit<br />
besteht, sich einfach entschließt, gar keine Vorhersagen mehr zu
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 329<br />
geben, außer solchen wie: Morgen regnet es oder es regnet nicht. Das<br />
Ziel der Irrtumsvermeidung wird dabei überbewertet und das der Wettervorhersage<br />
kommt zu kurz.<br />
Unser Motto sollte also nicht das des Skeptikers sein, lieber keine<br />
Aussage zu glauben, als auch nur eine falsche, sondern im Vordergrund<br />
sollte das Ziel stehen, auch unter Risiken, Erkenntnisse über die Welt zu<br />
sammeln. Damit das nicht unmäßig oder willkürlich wird, bietet KTR<br />
dafür Beschränkungen an. Es tauchen spontane Meinungen auf, die in<br />
unser Überzeugungssystem in vielfältiger Weise kohärent integriert werden<br />
müssen. Das betrifft sowohl ihre Entstehung wie auch ihren Inhalt.<br />
Dazu kommen interne Kohärenzchecks, die etwa durch interne Kritiken,<br />
aber auch unsere Wissenschafts- und Erkenntnistheorie motiviert werden<br />
können. Die Kohärenzforderungen in KTR verhindern den allzu<br />
leichtfertigen Einbau neuer Annahmen in unser Überzeugungssystem.<br />
Z. B. Überzeugungen über Ufos und Dämonen haben einen schweren<br />
Stand, wenn sie in unsere Meinungssysteme gemäß KTR aufgenommen<br />
werden möchten, weil sie meist ein isoliertes Subsystem bilden, das<br />
die Gesamtkohärenz des Systems herabsetzt. Auf der anderen Seite bringen<br />
allein die Berichte über Ufos schon eine Inkohärenz in unser System,<br />
die nach einer Kohärenzerhöhung durch Erklärungen, wie es dazu kommen<br />
konnte, verlangt. Gelingt es nicht, diese Inkohärenz auf andere<br />
Weise zu beseitigen, so kann das letztlich auch zur Anerkennung der Existenz<br />
von Ufos führen. Das Überzeugungssystem schottet sich unter KTR<br />
also nicht dogmatisch ab, sondern weist höchstens eine gewisse generelle<br />
Trägheit auf, was die Aufnahme von Fremdkörpern betrifft, die nicht gut<br />
hineinpassen. Sollte z. B. geklärt werden, daß die bekannten magischen<br />
Kreise in Kornfeldern von Witzbolden angelegt wurden, um uns an der<br />
Nase herumzuführen, ist damit die Kohärenz wiederhergestellt, ohne<br />
daß es großer Revisionen des bisherigen Systems bedurft hätte. Daher ist<br />
diese Option sicher eine zunächst naheliegende Vermutung, die ohne<br />
weitere Informationen von unserem Überzeugungssystem am ehesten gedeckt<br />
ist. Gelingt es dagegen nicht, entsprechende Erklärungen kohärent<br />
in unsere Meinungen einzupassen, oder können sie sogar ausgeschlossen<br />
werden, kommen in KTR letztlich auch unbekannte Kräfte und schließlich<br />
sogar die Annahme der Existenz Außerirdischer in Frage.<br />
Zum Schluß möchte ich noch kurz auf einige bekannte Einwände gegen<br />
verwandte Vorgehensweisen eingehen. Schon William James tritt in<br />
The Will to Believe (1956) für Entscheidungen in epistemischen Fragen<br />
ein, für die wir keine hinreichenden erkenntnistheoretischen Entscheidungsgründe<br />
besitzen. Sein Vorgehen unterscheidet sich aber dennoch in
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 330<br />
wesentlichen Aspekten von meinem. James wendet die Möglichkeit, sich<br />
für bestimmte Meinungen zu entscheiden, viel freizügiger und vor allem<br />
in moralischen und religiösen Fragen an. Ihm geht es nicht nur um eine<br />
erste grundsätzliche Entscheidung zwischen totalem Skeptizismus und<br />
einer anti-skeptischen Haltung in einer Frage, in der wir der Natur der<br />
Sache nach für keine Seite über epistemische Entscheidungsgründe verfügen,<br />
sondern auch um Entscheidungen in vielen weiteren Fällen wie<br />
etwa religiösen Fragen. Russell (1978, 823f) versucht an einigen Beispielen<br />
zu erläutern, zu welch willkürlichen Annahmen und relativistischen<br />
Ansichten dieser freizügige Umgang mit Entscheidungen in der Erkenntnistheorie<br />
führen kann. Mit der Entscheidung für die Annahme (KK) ist<br />
ein solcher Relativismus natürlich nicht impliziert, denn für alle weitergehenden<br />
Annahmen sind in KTR keine Entscheidungen für Überzeugungen<br />
ohne epistemische Gründe mehr vorgesehen, sondern nur noch<br />
solche, auf der Grundlage von Kohärenz. Dabei wird selbstverständlich<br />
nicht ausgeschlossen, daß wir in manchen Fällen für Aussagen p keine<br />
epistemische Entscheidung zwischen p und non-p treffen können, und<br />
uns der Übernahme beider Möglichkeiten enthalten, weil gerade das angesichts<br />
der epistemisch gleichwertigen Alternative am ehesten zu Kohärenz<br />
in unserem Meinungssystem führt.<br />
Auch Russells (1980, 67f) Vorwurf gegen James, eine entsprechende<br />
Entscheidung könnte die Wissenschaft behindern, weil man nicht bereit<br />
sei, sie wie eine Arbeitshypothese in der Wissenschaft zu revidieren, paßt<br />
auf die hier getroffene Entscheidung nicht. Erstens ermöglicht sie erst<br />
die Wissenschaft und zweitens wird sie als Arbeitshypothese aufgefaßt,<br />
die dann aufgegeben wird, wenn unsere spontanen Meinungen kein kohärentes<br />
Weltbild mehr erlauben.<br />
Entsprechendes gilt für Vergleiche mit der berühmten Pascalschen<br />
Wette, wie sie Watkins (1984, 36ff) für eine verwandte pragmatische<br />
Vorgehensweise zieht. Im Fall der Pascalschen Wette, ist man darauf angewiesen,<br />
den jeweiligen praktischen Nutzen der unterschiedlichen Optionen<br />
(an Gott glauben oder nicht) zu ermitteln. Dazu benötigt man natürlich<br />
eine Menge an Hintergrundwissen etwa über Gottes Vorlieben,<br />
über die wir angesichts der Unbegreiflichkeit Gottes dort nicht verfügen.<br />
So könnte Gott z. B. die aufrechte Art des Atheisten der kleinkrämerischen<br />
und berechnenden Entscheidung Pascals vorziehen. Auf derartige<br />
inhaltliche Annahmen bin ich an dieser Stelle natürlich nicht angewiesen,<br />
weil ich keine praktischen Konsequenzen zu berechnen habe. Die<br />
Alternativen liegen bereits in Form der ausgearbeiteten Meinungssy-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 331<br />
steme auf dem Tisch, und der Maßstab der Beurteilung sind die genannten<br />
epistemischen Ziele.<br />
C. Resümee<br />
Der radikale Skeptiker, der unsere Meinungen als Ganzes in Frage stellt<br />
und ihre Rechtfertigung von einem externen Standpunkt aus verlangt,<br />
stellt damit Anforderungen an uns, denen wir nicht genügen können. In<br />
jedweder Begründung müssen wir uns immer wieder auf einige andere<br />
unserer Meinungen stützen. Von einem solch externen Standpunkt aus,<br />
verfügen wir daher über keine epistemischen Entscheidungsgründe<br />
mehr, die uns den Weg weisen können, sondern sind auf eine Wertentscheidung<br />
und Gewichtung zwischen den zwei epistemischen Zielen des<br />
möglichst umfassenden Informationsgewinns und der weitgehenden Vermeidung<br />
von Irrtümern angewiesen. Der Skeptiker betont ganz das letztere<br />
und nimmt dafür in Kauf, daß wir uns für den Fall, daß unsere realistische<br />
Sicht der Welt und unserer kausalen Kontakte zu ihr im wesentlichen<br />
richtig sind, aller Informationsmöglichkeiten begeben. Gerade für<br />
diesen Fall sind aber Erkenntnistheorien für uns interessant. Sind wir<br />
nur die Spielbälle eines bösen Dämons, können wir von keiner Vorgehensweise<br />
zur Pflege unseres Meinungssystems Erkenntnisse erwarten.<br />
Wir sollten uns daher gegen den Skeptizismus entscheiden, weil wir nur<br />
so hoffen können, ein gehaltvolles Bild der Welt zu gewinnen.<br />
Diese Form der Entscheidung gegen den Skeptiker, für die ich hier<br />
eintrete, ist auch der ehrlichere Weg gegenüber etwa dem der Externalisten,<br />
dem unangenehmen Skeptiker durch einen Themawechsel entkommen<br />
zu wollen. Der stellt natürlich auch eine Entscheidung dar, nämlich<br />
gegen die klassischen Fragestellungen. Ebenso unredlich erscheint es<br />
mir, sich den skeptischen Fragen als unsinnigen Fragen schlicht zu verschließen.<br />
Statt dessen werden die skeptischen Einwände als durchaus<br />
verständlich akzeptiert und erkannt, daß es in der radikalen skeptischen<br />
Situation eigentlich keine überzeugende Widerlegung des Skeptikers geben<br />
kann. Man ist gezwungen, sich für ein erkenntnistheoretisches Programm<br />
anhand der zwei obersten Ziele der Erkenntnistheorie zu entscheiden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 332<br />
VII Wissenschaftliche Theorien<br />
Menschliche Erkenntnisse sind in dem bisher skizzierten epistemischen<br />
Bild zunächst in bezug auf ihre Allgemeinheit hierarchisch geordnet. Dazu<br />
kommt eine Einordnung in Metaebenen und darüber hinaus sind sie<br />
in einem komplexen Netz erkenntnistheoretischer Beziehungen vielfältig<br />
miteinander verknüpft. Für den Empiristen, der den Aufbau nach Allgemeinheitsgraden<br />
im wesentlichen mit einer erkenntnistheoretischen Einstufung<br />
identifiziert, bilden die Beobachtungsaussagen als Grundlage aller<br />
Erkenntnisse den natürlichen Ausgangspunkt für eine erkenntnistheoretische<br />
Analyse. Für die höheren Stufen stellt sich dann in bezug<br />
auf ihre Begründung „nur“ noch die Frage, inwieweit sie durch die Beobachtungsaussagen<br />
gedeckt sind. Für den Kohärenztheoretiker gibt es<br />
dagegen nicht mehr einen Typ epistemisch primärer Aussagen, dem eine<br />
ähnliche Stellung zukäme und vor allem auch keine Entsprechung von<br />
Begründungsebenen und Allgemeinheitsgraden. Eine ausgezeichnete epistemische<br />
Stellung nehmen für ihn sogar eher die allgemeineren Aussagen<br />
oder Theorien ein, denn ihnen verdanken wir schließlich die Verknüpfung<br />
unserer Überzeugungen zu einem Netz von rechtfertigenden<br />
Zusammenhängen. Es ist deshalb nur naheliegend, daß ein Kohärenztheoretiker<br />
anders als ein Empirist eine Analyse von Theorien ins Zentrum<br />
seiner Erkenntnistheorie stellt. Die dafür erforderlichen Hilfsmittel<br />
möchte ich in diesem Kapitel bereitstellen, wobei ich mich auf ausgearbeitete<br />
wissenschaftliche Theorien konzentrieren werde, da sie im Unterschied<br />
zu Alltagstheorien explizit vorgegeben sind.<br />
Die vielleicht wichtigste Frage für den Kohärenztheoretiker ist dabei:<br />
Wie können unsere Theorien die ihnen auferlegte Systematisierungsleistung<br />
überhaupt erbringen? Sind sie einfach Klassen von Allsätzen, aus<br />
denen sich die spezielleren Aussagen deduzieren lassen, wie z. B. Popper<br />
und andere Wissenschaftstheoretiker es annehmen? Beginnen möchte<br />
ich die Untersuchung mit einer einfachen Beobachtung, die mir leider<br />
typisch für die philosophische Beschäftigung mit den Naturwissenschaften<br />
zu sein scheint. Schaut man in ein Physiklehrbuch (ein echtes, nicht<br />
ein populärwissenschaftliches) oder noch besser entsprechende Fachzeitschriften,<br />
wird man von einer großen Fülle von Fakten geradezu „erschlagen“.<br />
Da sind zahllose Meßwerte, Gleichungen und Zusammenhän-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 333<br />
ge zwischen Gleichungen, Ableitungen und viele andere Überlegungen<br />
in einem bunten Gemisch zu finden. Wie soll man zu zuverlässigen metatheoretischen<br />
Aussagen über eine solch scheinbar amorphe und unübersichtliche<br />
Menge von Aussagen kommen? Es verwundert angesichts<br />
dieses Problems nicht, daß Wissenschaftstheoretiker und auch Wissenschaftshistoriker<br />
Theorien häufig stark vereinfacht darstellen. Oft begnügen<br />
sie sich mit nur wenigen Verweisen auf bestimmte Grundgleichungen,<br />
oder kaprizieren sich in ihrer Darstellung auf ein bestimmtes<br />
Phänomen, das die Theorie beschreibt und das sie für charakteristisch<br />
halten, wie z. B.: „Die Lichtgeschwindigkeit im Vakuum begrenzt in der<br />
Relativitätstheorie alle Geschwindigkeiten für Massen“. Doch dabei gehen<br />
wichtige Aspekte dieser Theorien verloren. Um die Theorien nun in<br />
einer für wissenschaftstheoretische Analysen geeigneten Form überschaubar<br />
zu präsentieren, ist sicherlich eine Rekonstruktion notwendig,<br />
die eine logische Ordnung in die Formulierung der Theorien bringt. Andererseits<br />
benötigen wir jedoch auch eine Darstellung, die alle wesentlichen<br />
Aspekte der Theorie berücksichtigt, um ein einigermaßen realistisches<br />
Bild wissenschaftlicher Theorien zu zeichnen.<br />
Um nur eine Gefahr für wissenschaftstheoretische Untersuchungen<br />
beispielhaft zu nennen: In zu stark vereinfachenden Betrachtungen geht<br />
ein für Kohärenztheorien bedeutsames Merkmal der naturwissenschaftlichen<br />
Erkenntnis verloren, nämlich ihr hoher Vernetzungsgrad. Die vielen<br />
Fakten bilden ein sehr komplexes Netz von sich gegenseitig stützenden<br />
Aussagen, wobei sich Aussagen von unterschiedlichem Status, mit unterschiedlichen<br />
Funktionen und Gewicht identifizieren lassen. Wenn diese<br />
Zusammenhänge außer acht bleiben, erliegen wir z. B. leichter relativistischen<br />
Einwänden. Ohne die Komplexität des Netzes mit den vielen<br />
gegenseitigen Absicherungen sind schnell alternative Theorien zu finden,<br />
die uns epistemisch gleichwertig erscheinen. Für das tatsächliche hochkomplexe<br />
Netzwerk von wissenschaftlichen Hypothesen und Begründungen<br />
erscheint es dagegen weit utopischer, daß sich solche Alternativen<br />
konstruieren lassen. 121 Eine Metatheorie der Wissenschaften steht<br />
daher im Spannungsfeld zwischen den beiden entgegengerichteten Anforderungen,<br />
Ordnung in der amorph erscheinenden Vielfalt wissenschaftlicher<br />
Äußerungen sichtbar werden zu lassen und zugleich die innere<br />
Komplexität nicht durch willkürliche Beschränkung auf wenige<br />
Aspekte einfach über Bord zu werfen.<br />
121 Das gilt zumindest, wenn wir an „lokale“ Alternativen denken und<br />
nicht an vollständig andere Überzeugungssysteme wie etwa die skeptischen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 334<br />
A. Die Entscheidung für den Strukturalismus<br />
Aus den verschiedenen Ansätzen, um unser wissenschaftliches Wissen<br />
metatheoretisch zu repräsentieren, habe ich mich aus unterschiedlichen<br />
Gründen, von denen ich nur einige in diesem Abschnitt erläutern<br />
möchte, für die sogenannte strukturalistische Auffassung wissenschaftlicher<br />
Theorien entschieden. Sie geht auf den modelltheoretischen Ansatz<br />
von Suppes und Sneed zurück und wurde in den letzten Jahren von Stegmüller<br />
und anderen weiterentwickelt. Die Gründe für meine Entscheidung<br />
zerfallen in zwei Klassen: die pragmatischen und die inhaltlichen;<br />
zunächst zu einigen pragmatischen Gründen.<br />
Im Unterschied zu Auffassungen der logischen Empiristen beschränkt<br />
sich der Strukturalismus nicht auf die logisch unproblematische<br />
Sprache der Prädikatenlogik erster Stufe zur Darstellung von Theorien,<br />
sondern wählt die informelle Mengenlehre als Instrumentarium, wie sie<br />
auch in der Mathematik eingesetzt wird. Die ist zwar „unsauberer“, aber<br />
weit flexibler und ermöglicht eine Rekonstruktion von Theorien nahe<br />
an den Formulierungen der Naturwissenschaftler selbst; jedenfalls weit<br />
näher als Formulierungen im strengen Rahmen der Prädikatenlogik, die<br />
ausgesprochen unhandlich und kompliziert wirken, so daß auch bis<br />
heute noch keine komplexeren physikalischen Theorien in dieser Strenge<br />
umfassend axiomatisiert wurden. Das Motto des Strukturalismus ist<br />
in dieser Frage: Keine überzogenen Forderungen – etwa im Sinne der<br />
Metamathematik – an den formalen Apparat zur Darstellung von Theorien<br />
zu stellen, dessen eigene Komplexität von den eigentlichen wissenschaftsphilosophischen<br />
Fragestellungen ablenken würde. Vielmehr soll<br />
nur der formale Aufwand betrieben werden, der unbedingt erforderlich<br />
ist, wenn man die heutigen Theorien noch angemessen darstellen<br />
möchte. Da viele modernen Theorien im Rahmen einer aufwendigen<br />
Mathematik formuliert sind, kommt man allerdings um den Einsatz zumindest<br />
der Mengenlehre nicht umhin, wenn man diese Theorien noch<br />
adäquat rekonstruieren möchte. Doch ihr Einsatz sollte eigentlich kein<br />
ernsthaftes Hindernis für eine Kommunikation mit Philosophen und<br />
auch mit Fachwissenschaftlern darstellen, zumal sie nur in informeller<br />
Form eingesetzt wird.<br />
Ein weiterer praktischer Vorteil des Strukturalismus gegenüber anderen<br />
metatheoretischen Auffassungen ist, daß er schon für eine Reihe von<br />
logischen Rekonstruktionen für Theorien aus unterschiedlichen Bereichen<br />
eingesetzt wurde und seine Begrifflichkeit anhand dieser Beispielanalysen<br />
systematisch weiterentwickelt wird. Dabei bemüht man sich
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 335<br />
vor allem, die innere Struktur von Theorien besser zu verstehen. Daher<br />
muß ich nicht nahezu bei Null anfangen, wenn ich für bestimmte Komponenten<br />
in naturwissenschaftlichen Theorien eintrete, sondern kann<br />
mich auf wertvolle Vorarbeiten aus den unterschiedlichsten Bereichen<br />
der Wissenschaft stützen.<br />
Nun komme ich auch schon zu einigen stärker inhaltlichen Gründen,<br />
die für meine Wahl sprechen. An dieser Stelle werde ich nur einige<br />
allgemeine nennen, während die konkreteren Punkte sinnvollerweise im<br />
Rahmen der Entfaltung der Konzeption angesprochen werden. Der erste<br />
ist – und das ist für mich ein wesentlicher Aspekt des Wortes „Strukturalismus“<br />
–, daß Theorien nicht als amorphe Satzklassen betrachtet werden,<br />
sondern als Gegenstände mit einer reichhaltigen inneren Struktur,<br />
deren Zusammenspiel zu untersuchen für viele wissenschaftsphilosophische<br />
Fragestellungen lohnend ist. Für die logischen Empiristen sind<br />
Theorien Satzklassen, die gerade noch eine Unterscheidung in Beobachtungsaussagen,<br />
theoretische Aussagen und Brückenprinzipien erlauben,<br />
wobei selbst diese Unterscheidungen eher kritisch zu beurteilen sind;<br />
weitere innere Komponenten treten in Theorien dann jedoch nicht mehr<br />
auf. Das wird der hohen Komplexität moderner Theorien jedoch nicht<br />
gerecht.<br />
Wichtig ist in diesem Zusammenhang außerdem eine erste grundsätzliche<br />
Unterscheidung zwischen den sogenannten syntaktischen und<br />
den semantischen Auffassungen von Theorien. Die letzteren gerieten erst<br />
in den letzten zwei Jahrzehnten in den Blick der Wissenschaftsphilosophen<br />
und erfreuen sich seither einer zunehmenden Zahl von Proponenten.<br />
In der syntaktischen Sichtweise sind Theorien durch Mengen von<br />
Sätzen (ev. deduktiv abgeschlossen und effektiv entscheidbar) repräsentiert,<br />
während sie in der semantischen Auffassung – zu der auch der<br />
Strukturalismus zählt – als Mengen von Modellen verstanden werden.<br />
Es gibt natürlich viele Entsprechungen zwischen diesen beiden Vorgehensweisen,<br />
aber an einigen Stellen erweist die semantische Sichtweise<br />
sich doch als die geeignetere.<br />
Der Modellbegriff wird dabei wie folgt verstanden: Modelle sind<br />
Relationsstrukturen , die aus bestimmten Grundmengen D =<br />
und Relationen R = auf den Grundmengen<br />
bestehen. Intuitiv ist das so gemeint, daß die Grundmengen die Objekte<br />
enthalten, über die eine Theorie spricht – wobei es verschiedene Typen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 336<br />
von Objekten geben kann – und die Relationen geben die Beziehungen<br />
wieder, die die Theorie zwischen diesen Objekten behauptet. 122<br />
Eine wesentliche Absicht der Hervorhebung von Modellen gegenüber<br />
Aussagen war, die Abhängigkeit von der jeweiligen sprachlichen<br />
Darstellung einer Theorie zu verringern. Dadurch bleiben Umformulierungen<br />
einer Theorie als dieselbe Theorie erkennbar, solange sie noch<br />
immer dieselben Modelle auszeichnen. Van Fraassen (1991, 5) vergleicht<br />
den Übergang von syntaktischen zu semantischen Darstellungen von<br />
Theorien mit dem von Koordinatendarstellungen zu entsprechenden koordinatenfreien<br />
Formulierungen innerhalb der Physik selbst. Wörter sind<br />
dabei die Koordinaten, mit deren Hilfe wir die Theorien wiedergeben,<br />
aber sie stellen eine überflüssige Relativierung auf ein bestimmtes Bezugssystem<br />
dar, das eigentlich keinen bevorzugten Status für die Theorie<br />
besitzt. Ein anderer Aspekt, der der semantischen Auffassung eigentümlich<br />
ist und in dieser Arbeit noch an mehreren Stellen zum Tragen kommen<br />
wird, ist die Einbettung von Modellen. Ihr kommt eine wichtige intuitive<br />
Bedeutung zu (s. dazu van Fraassen 1980, 41ff), aber sie läßt sich<br />
auf der syntaktischen Ebene der Sätze nicht angemessen darstellen.<br />
Spätestens um Approximationen und Unschärfen in Theorien in unsere<br />
Untersuchungen einzubeziehen sind wir gezwungen, auf die semantische<br />
Ebene zu wechseln. Für approximative Zusammenhänge – man<br />
denke z. B. an approximative Reduktionen, die den Großteil von Reduktionen<br />
ausmachen – stehen die einander entsprechenden Komponenten<br />
der Modelle und nicht die Formulierungen, mit denen wir die Theorien<br />
beschreiben, ganz im Vordergrund. Bei einem Vergleich zwischen vorrelativistischen<br />
Theorien und speziell relativistischen Theorien, der die enge<br />
Beziehung zwischen beiden Theorien aufzeigen soll, ist es nur wenig<br />
hilfreich, sich auf die Gestalt der Gesetze zu beziehen und etwa darauf<br />
zu verweisen, daß sie ineinander übergehen, wenn wir c gegen unendlich<br />
gehen lassen. Günther Ludwig (1974 II, 369) spricht in diesem Zusammenhang<br />
von unerlaubten „Limes-Tricks“, die die Situation eher verschleiern<br />
als aufhellen können. Sie sind unerlaubt, weil es gerade eine<br />
zentrale Aussage der Relativitätstheorie ist, daß die Lichtgeschwindigkeit<br />
c eine endliche Konstante ist, und solange sie das bleibt, sind die Gesetze<br />
der beiden Theorien verschieden. Es ist daher fraglich, welchen erkenntnistheoretischen<br />
Wert eine derartige Limesbetrachtung für das Verhältnis<br />
von relativistischen und vorrelativistischen Theorien überhaupt haben<br />
soll. Allerdings sind die Lösungen der Differentialgleichungen beider<br />
122 Beispiele werden im folgenden deutlicher machen, wie solche Modelle<br />
auszusehen haben.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 337<br />
Theorien für weite Bereiche eng benachbart, und das gibt uns auf der semantischen<br />
Ebene eine Möglichkeit, den engen Zusammenhang der<br />
Theorien angemessen zu analysieren. 123 Zumindest an dieser Stelle der<br />
metatheoretischen Darstellung von Theorien scheint mir die Überlegenheit<br />
eines semantischen gegenüber einem syntaktischen Ansatz offensichtlich.<br />
B. Mehrdeutigkeiten des Theoriekonzepts<br />
Im Zentrum unseres Wissens steht, wie schon bemerkt, das wissenschaftliche<br />
Wissen und dieses Wissen ist konzentriert in Theorien, wobei hier<br />
der Begriff „Theorie“ zunächst in einem relativ weiten Sinn verstanden<br />
werden soll, so daß auch „kleine Theorien“, für die man manchmal eher<br />
von Hypothesen oder Modellvorstellungen spricht, darunter mitgemeint<br />
sind. Doch was sind „Theorien“? Der Sprachgebrauch ist an dieser Stelle<br />
alles andere als einheitlich. Was als eine Theorie anzusehen ist, wechselt<br />
häufig mit dem Kontext. So spricht man z. B. von „der Newtonschen<br />
Mechanik“ oder auch von der „Newtonschen Gravitationstheorie“. Ist<br />
nun die zweite Theorie als eine Teiltheorie der ersten zu verstehen?<br />
Oder wie ist das Verhältnis von Elektrodynamik zu Elektrostatik oder<br />
zur Ohmschen Theorie etc.? Man spricht sogar von „der Relativitätstheorie“<br />
oder „der Quantenmechanik“, obwohl wir unter diesem Begriff<br />
auf relativistisch formulierte Mechaniken, die Elektrodynamik und eine<br />
relativistische Thermodynamik stoßen, die man in vielen anderen Kontexten<br />
als mindestens drei Theorien betrachten würde. Der Theoriebegriff<br />
wird also auf recht unterschiedlich große Einheiten gleichermaßen<br />
angewandt.<br />
Ein erster Schritt, um für größere terminologische Klarheit zu sorgen,<br />
ist die begriffliche Unterscheidung dieser Einheiten. Der Strukturalismus<br />
unterscheidet Theorien zunächst in Theorien-Holons, Theorien-<br />
Netze und Theorie-Elemente, den kleinsten selbständigen Einheiten von<br />
Theorien. Die größten wissenschaftlichen Einheiten mit einheitlicher Begrifflichkeit<br />
wie die „Newtonsche Partikelmechanik“ oder die „Maxwellsche<br />
Elektrodynamik“ werden „Theorien-Netze“ genannt. Diese Netze<br />
setzen sich in Form von Baumstrukturen aus den sogenannten Theorie-<br />
Elementen zusammen, die durch „Spezialisierungsbeziehungen“ verknüpft<br />
sind. Holons sind darüber hinaus Gruppierungen größerer Teile<br />
123 Für das genannte Beispiel siehe etwa Bartelborth (1988, 143ff).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 338<br />
einer wissenschaftlichen Disziplin, die in einem bestimmten Sinn zusammengehören<br />
und durch eine Reihe intertheoretischer Beziehungen verknüpft<br />
sind, aber mit unterschiedlichen Begriffen operieren können. 124<br />
All diese Konzepte möchte ich anhand eines etwas ausführlicher betrachteten<br />
Fallbeispiels erläutern, nämlich der Klassischen Partikelmechanik<br />
(KPM) oder manchmal sage ich auch der „Newtonschen Partikelmechanik“.<br />
Daneben skizziere ich immer wieder Beispiele aus anderen<br />
Bereichen, erstens um die Konzepte weiter zu erläutern und zweitens<br />
um der Vermutung entgegenzutreten, der metatheoretische Apparat des<br />
Strukturalismus sei speziell auf die Mechanik zugeschnitten, was allerdings<br />
auch durch die zahlreichen strukturalistischen Rekonstruktionen<br />
aus anderen Bereichen widerlegt wird. Die klassische Partikelmechanik<br />
bietet sich für Illustrationszwecke an, weil sie auf der einen Seite bereits<br />
eine hinreichend komplexe Theorie ist, um alle Komponenten, die<br />
Strukturalisten bisher in Theorien identifizieren konnten, zu beinhalten<br />
und weil sie auf der anderen Seite eine relativ einfache und noch gut zugängliche<br />
Theorie darstellt.<br />
C. Das Netz einer Theorie am Beispiel der klassischen<br />
Partikelmechanik<br />
Beginnen möchte ich meine Skizze der klassischen Partikelmechanik, mit<br />
einem kurzen Überblick über das grobe Gerüst dieser Theorie. 125 Neben<br />
den grundlegenden Newtonschen Axiomen, die im Zentrum der Theorie<br />
stehen, finden sich eine Reihe von spezielleren Gesetzen, die für bestimmte<br />
Anwendungen zugeschnitten sind, wie das Gravitationsgesetz,<br />
das Hookesche Gesetz, Reibungsgesetze, etc. Jedes dieser „Spezialgesetze“<br />
beschreibt eine sogenannte Spezialisierung der Theorie, die eine Spezialisierung<br />
der Basisaxiome darstellt. Jede Spezialisierung wird im<br />
124 Für weitere Erläuterungen zu diesen Aspekten der strukturalistischen<br />
Auffassung möchte ich hauptsächlich auf Balzer/Moulines/Sneed (1987) im folgenden<br />
kurz (BMS) verweisen und auf die Beispiele, die noch folgen werden.<br />
125 Dabei stütze ich mich auf strukturalistische Rekonstruktionen sowohl<br />
der historischen Entwicklung der Theorie (Moulines 1979; BMS 1987, 223ff)<br />
wie auch auf synchronische Axiomatisierungen (Balzer/Moulines 1981; BMS<br />
1987, 180ff), weiche aber u.a. aus Gründen der verständlicheren Darstellung gelegentlich<br />
von ihnen ab. Die Komponenten der Theorien, die ich im folgenden<br />
vorstelle, sind ebenfalls in BMS (1987) zu finden und dort ausführlicher erläutert.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 339<br />
baumartigen Netz der Theorie durch ein eigenes Theorie-Element repräsentiert,<br />
wobei die Newtonschen Axiome gerade das Basis-Theorie-Element<br />
definieren. Die Theorie-Elemente weisen ihrerseits eine innere<br />
Struktur mit einer Reihe von Komponenten auf.<br />
1. Die begriffliche Struktur und die Gesetze von Theorie-Elementen<br />
Jede Theorie T beschreibt die Systeme, über die sie Aussagen machen<br />
möchte, in einer bestimmten ihr eigentümlichen Begrifflichkeit. Die<br />
klassische Partikelmechanik spricht etwa von Massenpunkten und Kräften<br />
zwischen diesen. Die Elektrodynamik spricht von elektrischen Ladungen<br />
und elektromagnetischen Feldern, die Evolutionstheorie von Arten,<br />
Selektionsdruck, Migration, genetischer Drift etc. und die Psychoanalyse<br />
z. B. von Neurosen, Über-Ich, Ich und Es. Diese Begrifflichkeiten<br />
der jeweiligen Theorien geben den konzeptuellen Rahmen ab, innerhalb<br />
dessen die Gesetze der Theorie formuliert werden, wobei dieser<br />
Rahmen für alle Theorie-Elemente eines Netzes derselbe bleibt. Um ihn<br />
zu beschreiben, werden zunächst alle Relationsstrukturen unter<br />
dem Stichwort „potentielle Modelle“ von T [Mp(T)] versammelt, die die<br />
gewünschte begriffliche Struktur aufweisen. Das geschieht durch die Angabe<br />
eines mengentheoretischen Prädikats, das die Menge der potentiellen<br />
Modelle definiert.<br />
In unserem konkreten Beispiel der klassischen Partikelmechanik<br />
(KPM) benötigen wir als Grundmenge: Eine Menge von Partikeln P, einen<br />
Zeitraum T, über den hinweg die Bahnen der Partikel beschrieben<br />
werden, und einen Ortsraum S, in dem die Partikel sich bewegen. Um<br />
die Rekonstruktion einfach zu halten, sehe ich von der Einführung unterschiedlicher<br />
Koordinatisierungen ab und identifiziere T mit einem reellen<br />
Intervall und S mit dem R 3 , wobei ich mir bewußt bin, daß die<br />
KPM damit nicht vollständig erfaßt werden kann. 126 Außerdem sind wir<br />
in der KPM zur Bestimmung der Kraftfunktion immer wieder gezwungen,<br />
auf bestimmte Materialkonstanten zurückzugreifen, wie Federkonstanten,<br />
Reibungswerte und andere mechanische Parameter, die in einer<br />
Menge Z zusammengefaßt werden.<br />
Neben den Grundmengen finden wir drei Grundgrößen der Theorie:<br />
Da ist als erstes die Weg-Zeit-Funktion s(p,t), die jedem Partikel p zu je-<br />
126 In Bartelborth (1988) und (1993) wird im Rahmen der speziellen und<br />
der allgemeinen Relativitätstheorie ausgeführt, wie man Koordinatisierungen<br />
einzubringen hat und wie man der Lokalitätsbedingung an strukturalistische Modelle<br />
(s.u.) genügen kann.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 340<br />
der Zeit t T einen Ort s S zuordnet. Außerdem die Massenfunktion<br />
m(p), die für jeden Partikel seine Masse angibt, und schließlich die<br />
Kraftfunktion f, der eine zentrale Rolle innerhalb von KPM zufällt, die<br />
daher aber auch mit f(p, i, t, z) die komplizierteste Struktur aufweist. Sie<br />
bestimmt Kräfte für die Partikel p, gibt aber möglicherweise nicht nur<br />
eine Kraftkomponente an, sondern gleich mehrere, die durch den zweiten<br />
Parameter i ℕ durchgezählt werden sollen. Das wird der Tatsache<br />
Rechnung tragen, daß mehrere Kräfte wie Gravitationskräfte von verschiedenen<br />
Planeten, dazu Reibungskräfte bei einer Bewegung durch die<br />
Atmosphäre usw. gleichzeitig auf einen Partikel wirken können. Die<br />
Kräfte können darüber hinaus im Laufe der Zeit t variieren und möglicherweise<br />
von bestimmten mechanischen Parametern z Z abhängen. 127<br />
Mit diesen Bestimmungen ergibt sich folgendes Prädikat zur Definition<br />
der Menge der potentiellen Modelle:<br />
x ist ein potentielles Modell der KPM [x Mp(KPM)] gdw:<br />
1) x = <br />
2) P ist eine nichtleere Partikelmenge.<br />
3) T ist ein zusammenhängendes, offenes Intervall in ℝ und S eine<br />
offene, einfach zusammenhängende Teilmenge des ℝ 3 .<br />
4) Z ist eine Zusammenstellung mechanischer Parameter.<br />
5) s: PT S ist eine differenzierbare Funktion. 128<br />
6) m: P ℝ + .<br />
7) f: Pℕ n TZ ℝ 3 .<br />
Unter den so definierten potentiellen Modellen bilden die aktualen Modelle<br />
jedes Theorie-Elements jeweils eine Teilmenge, nämlich die Menge<br />
der zugelassenen Relationsstrukturen, die die jeweiligen Gesetze und<br />
Spezialgesetze des Theorie-Elements erfüllen. Betrachten wir als Beispiel<br />
das Basis-Theorie-Element der KPM, das das erste und zweite Newtonschen<br />
Gesetz beinhalten soll. Diesen Gesetzen gibt man üblicherweise die<br />
bekannte Form „f=ma“, was unter Berücksichtigung der Kraftkomponenten<br />
allerdings noch etwas komplizierter zu formulieren ist, da über<br />
diese aufsummiert wird:<br />
x ist ein Modell der KPM [x M(KPM)] gdw:<br />
1) x = <br />
127 z wird dabei als ein Vektor von solchen Parametern angesehen, auf dessen<br />
innere Struktur ich aber nicht weiter eingehen möchte.<br />
128 Unter „differenzierbar“ verstehe ich hier aus Gründen der Vereinfachung<br />
immer „unendlich oft differenzierbar“.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 341<br />
2) x Mp(KPM)<br />
3) Für alle p P und t T gilt:<br />
In (3) werden nun die Teilkräfte zu einer Gesamtkraft vereinigt, die anhand<br />
des zweiten Newtonschen Axioms über die Beschleunigung von<br />
Partikeln Auskunft gibt. Vergißt man die Aufspaltung der Gesamtkraft in<br />
Teilkräfte, hat das mindestens zwei negative Folgen: Erstens erhält das<br />
zweite Newtonsche Axiom die Gestalt einer Definition für die Kraftfunktion,<br />
was zu etlichen wissenschaftsphilosophischen Diskussionen<br />
Anlaß gab. Zweitens ist die dabei entstehende Theorie nur noch auf die<br />
Spezialfälle anwendbar, in denen auf einen Partikel nicht mehrere Kräfte<br />
gleichzeitig wirken.<br />
Mit den aktualen Modellen haben wir die Modellmenge bestimmt,<br />
die die Gesetze und später in den Spezialisierungen auch die Spezialgesetze<br />
einer Theorie repräsentieren soll. Doch mit dem konzeptuellen<br />
Rahmen und den Gesetzen ist natürlich noch nicht die gesamte innere<br />
theoretische Struktur eines Theorie-Elements erfaßt.<br />
2. Innertheoretische Querverbindungen: Constraints<br />
Ein Punkt, der bisher noch nicht explizit zur Sprache kam, sondern nur<br />
stillschweigend angenommen wurde, ist die lokale Konzeption von Modellen,<br />
die vom Strukturalismus vertreten wird; im Unterschied etwa zur<br />
semantischen Konzeption von van Fraassen (z. B. in 1980), die globale<br />
Modelle zum Gegenstand hat. Im Strukturalismus beabsichtigt man, jedes<br />
physikalische System – etwa ein bestimmtes Experiment –, das man<br />
mit einer Theorie behandeln möchte, durch ein eigenes Modell darzustellen.<br />
Die Beschreibung der Welt durch eine Theorie gibt damit nicht<br />
nur ein globales Modell für das ganze Universum an, sondern beinhaltet<br />
eine Vielzahl lokaler Modelle für viele lokale Anwendungen der Theorie.<br />
129 Das entspricht zunächst der Vorgehensweise von Physikern, die<br />
auch in jedem Experiment immer nur ein bestimmtes System behandeln<br />
und die Größen der Theorie für dieses System bestimmen.<br />
Ein anderer Vorteil der lokalen Konzeption von Modellen einer<br />
Theorie besteht darin, daß sie eine differenziertere Behandlung intertheoretischer<br />
Approximationsbeziehungen ermöglichen, als das für glo-<br />
129 Natürlich kann eine lokale Anwendung entsprechender Theorien auch<br />
eine kosmologische sein.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 342<br />
bale Modelle gelingt. Wenn etwa vorrelativistische und relativistische<br />
Theorien miteinander verglichen werden sollen, nimmt man – im allgemeinen<br />
ohne das explizit zu machen – auf lokale Modelle bezug, denn<br />
nur für diese wird der enge Zusammenhang der Theorien sichtbar (vgl.<br />
dazu Bartelborth 1988, 143ff und Bartelborth 1993). Globale relativistische<br />
und vorrelativistische Modelle passen nicht zusammen, weil erstens<br />
für unbeschränkte Raum-Zeiten keine approximative Beziehung zwischen<br />
den Theorien besteht und zweitens Tensoren in der klassischen<br />
Theorie auch Werte für beliebig große Überlichtgeschwindigkeiten beinhalten,<br />
die in der relativistischen Theorie keine Entsprechung mehr besitzen.<br />
Dagegen weisen zumindest entsprechende Teilklassen lokaler<br />
Modelle beider Theorien enge approximative Beziehungen auf. So<br />
kommt gerade lokalen Modellen auch für die intertheoretischen Relationen<br />
eines Theorien-Holons große Bedeutung zu. In Bartelborth (1993)<br />
wird gezeigt, wie die lokale Auffassung von Modellen in der allgemeinen<br />
Relativitätstheorie eine Einschränkung eines sonst unmäßig erscheinenden<br />
Holismus gestattet.<br />
Die lokale Konzeption von Modellen macht allerdings die Angabe<br />
von Querverbindungen, sogenannten „Constraints“, zwischen den lokalen<br />
Modellen erforderlich. Lokale Modelle können z. B. „überlappen“<br />
indem ein Partikel in verschiedenen Systemen auftritt. So kann ein Modell<br />
das System Erde-Mond und ein anderes Sonne-Erde darstellen, wobei<br />
die Erde in beiden Systemen vertreten ist. Dann muß unter anderem<br />
gewährleistet werden, daß ihr keine unterschiedlichen Massenwerte in<br />
den beiden Modellen zugeordnet werden. Oder eine Feder wird in mehreren<br />
Anwendungen eingesetzt, dann erwarten wir, daß sie dieselbe Federkonstante<br />
in allen Anwendungen aufweist. 130 Solche innertheoretischen<br />
Forderungen nach konsistenter Zuweisung von Werten zu unseren<br />
physikalischen Größen werden als „Constraints“ umgesetzt. Constraints<br />
oder innertheoretische Querverbindungen, manchmal auch „Brückenstrukturen“<br />
genannt, werden dargestellt durch Mengensysteme von potentiellen<br />
Modellen, deren Mengen (die Elemente des Constraints) uns<br />
alle Kombinationen zusammenpassender potentieller Modelle angeben.<br />
Allgemein hat ein Constraint C(T) für eine Theorie T die folgenden formalen<br />
Anforderungen zu erfüllen:<br />
130 Für weitere Beispiele siehe BMS (1987, 41ff) und für einen Constraint,<br />
der raumzeitliche Invarianzen beschreibt, Bartelborth (1993).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 343<br />
C(T) ist ein Constraint für T gdw.:<br />
1) C Pot(Mp(T)) 131<br />
2) x Mp(T): {x} C(T)<br />
3) C(T)<br />
Derartige Brückenstrukturen werden in Lehrbuchdarstellungen von<br />
Theorien entweder nur implizit mitgedacht, oder sie werden auf derselben<br />
Ebene wie ihre Gesetze behandelt. Sie haben aber eine etwas andere<br />
Funktion als diese, nämlich einen Informationstransfer zwischen verschiedenen<br />
Anwendungen zu bewirken.<br />
Es gibt inzwischen einige rekonstruierte Fälle aus der Wissenschaftsgeschichte,<br />
in denen sie ihre Eigenständigkeit offenbaren und in denen<br />
ihre Bedeutung gerade für theoriendynamische Zusammenhänge deutlich<br />
wird. Ein besonders schönes Beispiel aus der astronomischen Theorie<br />
der Cepheiden untersuchte Ulrich Gähde (1989, 166ff). Darin konnten<br />
Anomalien der Cepheidentheorie durch eine Veränderung von Brükkenstrukturen<br />
beseitigt werden. Die Cepheiden sind Sterne, die Helligkeitsveränderungen<br />
mit regelmäßiger Frequenz unterliegen, wobei die<br />
Veränderungen in systematischer Weise mit ihrer absoluten Helligkeit<br />
zusammenhängen. Das führte zu der Annahme einer Konstante für den<br />
Zusammenhang zwischen Perioden und Helligkeit, die man für alle<br />
Sterne des Cepheiden Typs annahm. Aus bestimmten Fällen, in denen<br />
man die Entfernung kannte, ließ sich die gesuchte Konstante bestimmen<br />
und dann diese Information für andere Cepheiden nutzbar machen, so<br />
daß für sie ihre Entfernung anhand der Konstante und ihrer Veränderungsfrequenz<br />
bestimmt werden konnte. Dieses Verfahren ließ sich auch<br />
auf weit entfernte Galaxien ausdehnen und war daher von großer Bedeutung<br />
für die Vermessung des Weltalls. Unter anderem konnte man<br />
dadurch erstmals die Kantische Vermutung beweisen, daß es andere Galaxien<br />
gibt. Eine Reihe von Anomalien führten fast 40 Jahre nach der<br />
Entdeckung eines konstanten Perioden-Leuchtkraft Zusammenhangs<br />
schließlich zur Aufgabe des skizzierten Constraints – der dieselbe Konstante<br />
für alle Cepheiden verlangt – durch den amerikanischen Astronomen<br />
Baade. Tatsächlich müssen wir zwischen zwei Populationen von Cepheiden<br />
unterscheiden, für die zwar beide ein entsprechender Zusammenhang<br />
gilt, aber mit jeweils einer anderen Konstante. 132 Diese Einsicht<br />
führte zu revolutionären Änderungen unserer Ansichten über extragalaktische<br />
Entfernungen.<br />
131 Mit Pot(A) bezeichne ich die Potenzmenge von A.<br />
132 Die Darstellung ist sehr vereinfacht und für die detaillierte Geschichte<br />
s. Gähde (1989, 166ff) oder auch Gähde (1989b) in etwas kürzerer Form.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 344<br />
Das Gähdesche Beispiel illustriert recht eindrucksvoll, wie groß die<br />
Bedeutung von Constraints sein kann, die zunächst nicht einmal explizit<br />
formuliert wurden, sondern als nahezu selbstverständliche implizite Prämisse<br />
auftraten. Außerdem demonstriert es, wie Constraints den Informationstransfer<br />
zwischen einzelnen Anwendungen einer Theorie bewerkstelligen,<br />
so daß damit Größen bestimmt werden können – hier die<br />
Entfernung von Galaxien –, die wir bei isolierten Betrachtungen einzelner<br />
Systeme nicht bestimmen konnten. Dabei stellt es auch ein weiteres<br />
Beispiel gegen Poppers rigide Auffassung von wissenschaftlicher Rationalität<br />
dar. Ihm hätte es als eine ad hoc Hilfsannahme zur Rettung der<br />
Theorie erscheinen müssen, daß wir zwei Cepheiden Populationen einführen,<br />
um den Zusammenhang zwischen Helligkeitsperioden und absoluter<br />
Helligkeit zu retten. Das wirkt besonders dann ad hoc, wenn uns<br />
nicht klar ist, daß wir an dieser Stelle vorher eine recht starke Behauptung<br />
aufgestellt hatten, die wir nun abschwächen.<br />
Weiterhin ist das alte Problem, wie die Beschreibungen eines physikalischen<br />
Systems aus unterschiedlichen Bezugssystemen heraus untereinander<br />
zusammenhängen, eine Frage nach Querverbindungen zwischen<br />
lokalen Modellen. Jede derartige Beschreibung bietet – entsprechend<br />
der lokalen Auffassung von Modellen – ein anderes potentielles<br />
Modell und Konsistenzbetrachtungen gestatten natürlich nicht, beliebige<br />
solcher Modelle gleichzeitig zu akzeptieren. Welche Kombinationen in<br />
diesen Fällen zulässig sind, hängt wesentlich von den Invarianz- bzw. Kovarianzforderungen<br />
einer Theorie ab. Für galilei-invariante und lorentzinvariante<br />
Theorieformulierungen finden sich die entsprechenden Invarianzconstraints<br />
in Bartelborth (1988, 46ff und 103ff) und für den Bereich<br />
der allgemeinen Relativitätstheorie sind die entsprechenden Kovarianzconstraints<br />
in Bartelborth (1993) formuliert worden.<br />
Für die KPM in der hier angegeben Form benötigen wir keine Invarianzconstraints,<br />
da ich sie der Einfachheit halber auf ein feststehendes<br />
Koordinatensystem bezogen habe. Es bleibt aber noch, den Identitätsund<br />
Extensivitätsconstraints für die Massenfunktion zu formulieren. 133<br />
Der Identitätsconstraint verlangt, daß Partikel, die in verschiedenen potentiellen<br />
Modellen auftreten, dort dieselben Massenwerte annehmen,<br />
während der Extensivitätsconstraint die Fälle abdecken soll, in denen<br />
zwei Partikel, die wir aus anderen Systemen „kennen“, nun zu einem<br />
neuen Partikel eines dritten potentiellen Modells zusammengefügt wer-<br />
133 Auf den in BMS (1987, 106) zusätzlich formulierten Identitätsconstraint<br />
für die Kraft verzichte ich an dieser Stelle, da es einen etwas höheren formalen<br />
Aufwand erfordert, einzelne Kraftkomponenten zu identifizieren.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 345<br />
den. Seine Masse muß dann (jedenfalls im Rahmen von KPM) natürlich<br />
genau der Summe der Einzelmassen entsprechen. Das Zusammenfügen<br />
wird dabei durch eine Konkatenationsfunktion ausgedrückt, die eine<br />
Funktion von PP nach P sein soll.<br />
Identitätsconstraint für KPM<br />
Cid(KPM) := {X Mp(KPM); X & x, y X, p Px Py:<br />
mx(p) = my(p)} 134<br />
Extensivitätsconstraint für KPM<br />
Cext(KPM) := {X Mp(KPM); X & x X, p, p’ Px:<br />
mx(p p’) = mx(p) + mx(p’)} 135<br />
Um die Anforderungen, die durch die einzelnen Constraints einer Theorie<br />
eingebracht werden, zu vereinen, bilden wir den allgemeinen Constraint<br />
C(T) einer Theorie als Durchschnitt aller Einzelconstraints:<br />
C(KPM) := Cid(KPM) Cext(KPM)<br />
In C(KPM) werden nur noch die Kombinationen von Modellen erlaubt,<br />
die sowohl den Identitäts- wie auch den Extensitivitätsconstraint erfüllen,<br />
d.h. C(KPM) drückt nun alle innertheoretischen Konsistenzforderungen<br />
aus.<br />
3. Intertheoretische Querverbindungen: Links<br />
Konsistenzforderungen gibt es natürlich nicht nur innerhalb von Theorien,<br />
sondern auch in vielfältiger Weise zwischen Theorien. Solche intertheoretischen<br />
Brückenstrukturen haben im strukturalistischen Theorienkonzept<br />
den Namen „Links“ bekommen. Sie können in verschiedenen<br />
Funktionen auftreten, aber als eine Gemeinsamkeit verbindet sie die<br />
Aufgabe, Informationen aus einer Theorie an eine andere zu übergeben.<br />
Am deutlichsten wird das für die sogenannten „presupposition links“. Ihre<br />
Aufgabe ist es, für eine Theorie bestimmte Terme aus einer „Vortheorie“<br />
bereitzustellen. Für die KPM sind das etwa räumliche und zeitliche<br />
Entfernungskonzepte, die aus einer physikalischen Geometrie und entsprechenden<br />
chronometrischen Theorien stammen. Die KPM stellt ihrerseits<br />
z. B. der Elektrodynamik den Kraftbegriff zur Verfügung. Sie<br />
gibt jedenfalls seine grundlegenden theoretischen Zusammenhänge und<br />
134 Wobei mit Px und mx jeweils die Partikelmenge bzw. die Massenfunktion<br />
des potentiellen Modells x gemeint ist.<br />
135 Siehe dazu BMS 105f.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 346<br />
auch grundlegende Meßverfahren für ihn an. „Stellt zur Verfügung“ ist<br />
hierbei allerdings nicht im Sinne einer expliziten Definition zu verstehen,<br />
sondern bestenfalls gibt die Vortheorie ein Bestimmungsverfahren<br />
für eine Größe an und auch das meist nur für bestimmte Anwendungen<br />
der Theorie und nicht gleich für alle Situationen.<br />
Das soeben skizzierte Bild von Vortheorien, auf die sich eine Theorie<br />
anhand von „presupposition links“ stützt, ist natürlich im günstigsten<br />
Fall eine Idealisierung und soll nicht dazu verführen, von einer einfachen<br />
Hierarchie unter Theorien auszugehen. Allerspätestens in der allgemeinen<br />
Relativitätstheorie stößt die hierarchische Konzeption an offensichtliche<br />
Grenzen (vgl. Bartelborth 1995).<br />
Die der hierarchischen Konzeption zugrundeliegende Vorstellung,<br />
nach der etwa Raum-Zeit Theorien in der Schichtung relativ weit unten<br />
angesiedelt sind und in den oberen Schichten als eine Art vorgegebener<br />
Behälter dienen können, in dem sich das Geschehen, das etwa von den<br />
Maxwellschen Gleichungen beschrieben wird, abspielt, ist spätestens für<br />
die Allgemeine Relativitätstheorie nicht mehr aufrechtzuerhalten. Die<br />
Struktur der allgemein-relativistischen Raum-Zeit ist nämlich abhängig<br />
vom Energie-Impuls-Tensor, der seinerseits von allen Größen aus Mechanik,<br />
Thermodynamik und Elektrodynamik abhängt, also von Größen,<br />
die laut der Schichtenkonzeption eigentlich weiter oben angesiedelt<br />
sein sollten. 136 Als einfacher Ausweg, der allerdings methodologisch unbefriedigend<br />
erscheint, bleibt die Flucht in einen Holismus, der Raum-<br />
Zeit-Theorie, Mechanik, Thermodynamik und Elektrodynamik als eine<br />
große Einheit betrachtet, die in sich keiner hierarchischen Struktur fähig<br />
ist. Gelingt es dagegen, eine wenn auch schwache Schichtenstruktur dieses<br />
Theorie-Holons aufzuzeigen, die näher an der Praxis von Physikern<br />
liegt, ergibt sich ungefähr das nebenstehende Bild der allgemeinen Relativitätstheorie<br />
(s. Bartelborth 1993). Die dicken Pfeile stehen für approximative<br />
„presupposition links“, während die dünnen die Spezialisierungszusammenhänge<br />
in den jeweiligen Netzen darstellen sollen, die nur<br />
angedeutet sind. 137<br />
136 In Bartelborth (1993) findet sich eine Rekonstruktion dieses Theorienkomplexes,<br />
die zeigt wie sich hierarchische versus holistische Ansichten in diesem<br />
Fall verhalten. Ein Vorschlag, wenigstens eine approximative Hierarchie<br />
aufrechtzuerhalten, stützt sich schließlich wesentlich auf die Konzeption lokaler<br />
Modelle.<br />
137 Die Spezialisierungsbeziehung wird später noch präzisiert.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 347<br />
Theorien-Holon: Allgemeine Relativitätstheorie<br />
Neben den intertheoretischen Beziehungen zwischen Vortheorien und<br />
Theorien, in denen die Vortheorien gewisse Begriffe bereitzustellen haben,<br />
gibt es natürlich zahlreiche andere intertheoretische Beziehungen,<br />
die durch Links auszudrücken sind. Auch intertheoretische Beziehungen<br />
werden nicht immer explizit in den Textbüchern der Fachwissenschaften<br />
erwähnt, obwohl sie von grundlegender Bedeutung sein können. Dazu<br />
ein prominentes Beispiel: Es ist üblich, die Theorien Mechanik, Thermodynamik<br />
und Elektrodynamik auseinanderzuhalten und ihre jeweiligen<br />
Beiträge zur Bewegungsgleichung, etwa einer Flüssigkeit in einem<br />
elektromagnetischen Feld, getrennt zu bestimmen. Das ist sicher auch<br />
sinnvoll, aber es sollte nicht darüber hinwegtäuschen, daß die Bewegungsgleichung<br />
einer Flüssigkeit letztlich nur anhand der Energie- und<br />
Impulsbilanzen aus allen drei Theorien zusammengenommen ermittelt<br />
werden kann. Nur für diese Gesamtsumme gilt eine Erhaltungsgleichung,<br />
die damit wesentlich intertheoretischen Charakter hat. 138 In Bartelborth<br />
(1988) wird dieser Zusammenhang für vorrelativistische Theorien<br />
und speziell relativistische Theorien untersucht, in Bartelborth (1993) auch<br />
noch für den allgemeinrelativistischen Fall. In den genannten Beispielen läßt<br />
sich die Bewegungsgleichung so ausdrücken:<br />
(*) div(Tmech+Ttherm+Telektro) = 0,<br />
wobei die drei Terme, von deren Summe dann die Divergenz zu bilden<br />
ist, jeweils die Energie-Impuls-Tensoren der drei Theorien darstellen sollen.<br />
Der intertheoretische Charakter dieser Gleichung wird augenfällig,<br />
138 Eine innerphysikalische Diskussion, die diesen intertheoretischen Charakter<br />
der Bewegungsgleichung des öfteren aus den Augen verloren hat und dadurch<br />
einige unnötige Wellen schlug, war die um die korrekte Gestalt des elektromagnetischen<br />
Energie-Impuls-Tensors, die u.a. in Bartelborth (1988, Kap. II)<br />
analysiert wird.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 348<br />
wenn man sie ausführlich formuliert, und ebenso, daß es sich um eine<br />
intertheoretische Beziehung zwischen drei Theorien handelt, was eine<br />
kanonische Erweiterung des bisherigen Linkkonzepts des Strukturalismus<br />
erforderlich macht, das nur Links zwischen zwei Theorien kannte.<br />
Entsprechendes gilt um so mehr für die Einsteinsche Gravitationsgleichung,<br />
die einen Zusammenhang zwischen dem gesamten Energie-Impuls-Tensor<br />
und der Raum-Zeit darstellt. Hier werden sogar vier Theorien<br />
durch einen Link zusammengebunden. Im Fall der Gleichung (*) besagt<br />
der Link, daß nur solche Modelle der drei Theorien zusammenpassen,<br />
deren Energie-Impuls-Tensoren aufaddiert eine verschwindende Divergenz<br />
besitzen. Abstrakt läßt sich ein Link ℒ als eine Relation zwischen<br />
den potentiellen Modellen von n-Theorien T1,,Tn verstehen:<br />
ℒ(T1,,Tn) Mp(T1) Mp(Tn),<br />
aber für konkrete Beispiele lassen sich die Links auch als Beziehungen<br />
bestimmter Terme der jeweiligen Theorien betrachten. 139 Dem möchte<br />
ich nicht weiter nachgehen, sondern nur noch den Effekt eines Links<br />
ℒ(T1,,Tn) auf die einzelne Theorie, nehmen wir T1, bestimmen.<br />
ℒ(T1,,Tn) sondert in T1 eine Teilmenge von potentiellen Modellen<br />
aus, nämlich gerade die, die mit entsprechenden potentiellen Modellen<br />
aus T2,,Tn so „gelinkt“ werden können, daß die Bestimmungen des<br />
Links – z. B. die Bewegungsgleichung (*) – erfüllt werden. Mengentheoretisch<br />
läßt sich der Link L(T1) für T1 damit, wie auch die Modellmenge<br />
von T1, als eine Teilmenge von Mp(T1) formulieren:<br />
L(T1) := {x Mp(T1); x2 Mp(T2) xn Mp(Tn) mit:<br />
ℒ(T1,,Tn)}<br />
Mit den Links sind die Theoriekomponenten, die sich auf den potentiellen<br />
Modellen einer Theorie formulieren lassen, bis auf die Einbeziehung<br />
von Approximationen abgeschlossen. Nun wird die begriffliche Struktur<br />
der Theorie noch um eine Komponente erweitert, nämlich die Auszeichnung<br />
von Submodellen einer bestimmten Art.<br />
4. Die „empirische“ Ebene einer Theorie<br />
In der syntaktischen Sichtweise von Theorien wurden die Terme einer<br />
Theorie in zwei Klassen eingeteilt: die Beobachtungsterme und die theoretischen<br />
Terme. Damit vermengte man zwei unterschiedliche Kategori-<br />
139 Zur formalen Präzisierung von abstrakten und konkreten Links s. BMS<br />
(1987, 61).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 349<br />
sierungen, nämlich die in theoretisch/nichttheoretische Terme und die in<br />
Ausdrücke für beobachtbare und nichtbeobachtbare Größen einer Theorie<br />
(s. dazu van Fraassen 1980, 14ff), von denen keineswegs klar ist, daß<br />
es sich um deckungsgleiche Taxonomien handeln muß. Van Fraassen<br />
(1980, 45ff) wendet sich der zweiten zu und führt in seinem semantischen<br />
Theorienkonzept eine Unterscheidung zwischen den empirischen<br />
Substrukturen, die nur Beobachtbares repräsentieren sollen und den<br />
übrigen Anteilen des vollständigen Modells ein, die unbeobachtbar<br />
sind. 140 Mit Hilfe dieser „empirischen Substrukturen“ gedenkt van Fraassen<br />
(1980, 45), den empirischen Gehalt von Theorien wiederzugeben,<br />
wonach eine Theorie genau dann empirisch adäquat ist, wenn es ein<br />
Modell der Theorie gibt, so daß sich alle Phänomene, die die Theorie zu<br />
erklären beabsichtigt, isomorph in die empirische Substruktur dieses<br />
Modells einbetten lassen.<br />
Auch der Strukturalismus kennt derartige Substrukturen von potentiellen<br />
Modellen, die er in anschaulicher Weise „partielle Modelle“<br />
nennt. Doch dabei stützt er sich anders als van Fraassen auf die theoretisch/nichttheoretisch<br />
Unterscheidung. Statt von einer grundlegenden<br />
Beobachtungsebene auszugehen – was sich als recht problematisch erwiesen<br />
hat – und alle anderen Teile als „theoretisch“ zu klassifizieren,<br />
werden bestimmte Theoriekomponenten einer Theorie T als theoretisch<br />
bezüglich T oder T-theoretisch eingestuft. Für diese Einstufung ist wesentlich<br />
ihre Stellung in der Theorie T selbst verantwortlich, unabhängig<br />
von Fragen ihrer Beobachtbarkeit.<br />
Dahinter steht die Vorstellung, daß Theorien oft bestimmte neue<br />
Terme einführen, aber daneben auch auf Terme aus anderen Theorien<br />
zurückgreifen. Die ersteren Terme sollen dann die T-theoretischen sein,<br />
während die zweite Sorte als T-nichttheoretisch bezeichnet wird. Diese<br />
Unterscheidung hat verschiedene Präzisierungen erfahren, von denen ich<br />
nur zwei nennen möchte. Die meßtheoretische, die auf Balzer/Moulines<br />
(1980) zurückgeht, nennt einen Term t T-theoretisch, wenn alle Meßverfahren<br />
für t sich letztlich als Anwendungen der Theorie T erweisen oder<br />
anders gesagt, wenn es für t keine Meßverfahren gibt, die unabhängig<br />
von T die Werte von t bestimmen können. Meßverfahren sind aber (s.<br />
Forge 1984a) vielfach hochgradig intertheoretische Gebilde, die nur<br />
schwer zu beschreiben sind, und in der Praxis erweist es sich meist als<br />
problematisch, sich einen Überblick über die tatsächlichen Meßverfahren<br />
und ihren theoretischen Hintergrund zu verschaffen.<br />
140 Auch Friedman spricht in (1983) von Submodellen, wobei er manchmal<br />
ähnliche Unterscheidungen im Auge hat.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 350<br />
Deshalb hat Ulrich Gähde (1980) einen rein innertheoretischen Abgrenzungsvorschlag<br />
entwickelt, der als Ausgangspunkt die möglichen<br />
Zerlegungen der Terme einer Theorie in zwei Klassen nimmt. Die theoretischen<br />
Terme gehören dabei zu einer Klasse von Termen, die in dem<br />
Basis-Theorie-Element einer Theorie noch nicht eindeutig durch die andere<br />
Klasse festgelegt wird, also insbesondere nicht im strengen Sinn definierbar<br />
ist, die aber trotzdem in einigen Anwendungen der Theorie anhand<br />
von Spezialgesetzen und den nichttheoretischen Termen eindeutig<br />
bestimmbar ist. Auch dieser Ansatz weist einige Probleme in der Anwendbarkeit<br />
auf. Zum einen sind die mathematischen Zusammenhänge<br />
für komplexere Theorien noch nicht weit genug aufgeklärt, um das Kriterium<br />
immer anwenden zu können (s. dazu Bartelborth 1988, 95ff),<br />
und zum anderen kann es mehrere Zerlegungen mit den genannten Eigenschaften<br />
geben, so daß das Kriterium allein keine eindeutige Einteilung<br />
zuläßt. Es scheint dann zwar als notwendige, aber nicht als hinreichende<br />
Bedingung geeignet zu sein (s. dazu Schurz 1990 und Gähde<br />
1990).<br />
An dieser Stelle mag es genügen, den intuitiven Gehalt der T-theoretisch/T-nichttheoretisch<br />
Unterscheidung im Auge zu behalten. Bestimmte<br />
Terme werden von Vortheorien über „presupposition links“ zur Verfügung<br />
gestellt, während andere „vor“ der Theorie nicht vorkommen. Abstandsbegriffe<br />
und den Kraftbegriff bezieht die Elektrodynamik aus anderen<br />
Theorien, während sie selbst das Konzept der elektromagnetischen<br />
Felder einführt. Um sie zu messen, sind wir auf Gleichungen<br />
aus der Elektrodynamik, wie dem Lorentzschen Kraftgesetz, angewiesen.<br />
Für viele Theorien und Terme lassen sich derartige Unterscheidungen<br />
in hinreichend präziser Form vornehmen, um damit die Menge<br />
der partiellen Modelle zu definieren. Für die klassische Partikelmechanik<br />
ergibt sich etwa, daß Masse und Kraft KPM-theoretisch sind (s. Gähde<br />
1983 oder BMS 47ff). Damit erhalten wir in unserem Beispiel als<br />
Menge der partiellen Modelle:<br />
x ist ein partielles Modell der KPM [x Mp(KPM)] gdw:<br />
1) x = <br />
2) P ist eine nichtleere Partikelmenge.<br />
3) T ist ein zusammenhängendes, offenes Intervall in ℝ.<br />
4) Z ist eine Zusammenstellung mechanischer Parameter.<br />
5) s: PT S ist eine differenzierbare Funktion. 141<br />
141 Unter „differenzierbar“ verstehe ich immer unendlich oft differenzierbar.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 351<br />
Um auf die Zusammenhänge zwischen Modellen und ihren partiellen<br />
Modellen leichter Bezug nehmen zu können, definieren wir die „Abschneidefunktion“<br />
r:Mp Mpp durch r() =<br />
, die uns zu jedem potentiellen Modell das entsprechende<br />
„gekürzte“ partielle Modell liefert.<br />
Von früheren Konzeptionen theoretischer Terme in anderen metatheoretischen<br />
Ansätzen unterscheidet sich die strukturalistische Auffassung<br />
nicht nur durch die theorienbezogene oder sogar theorienimmanente<br />
Auszeichnung der theoretischen Ebene, sondern ebenfalls durch<br />
die Schichtung von immer neuen Ebenen von theoretischen Begriffen,<br />
die über das alte Zweistufenmodell der Wissenschaftssprache, aber auch<br />
über die semantische Zweistufenkonzeption van Fraassens hinausgeht<br />
und im Prinzip beliebig viele Theoretisierungsstufen zuläßt. Außerdem<br />
gibt es keine Verpflichtung auf eine klare Hierarchie solcher Stufen<br />
mehr, sondern man ist offen für eine vorurteilslose Untersuchung holistischer<br />
Phänomene.<br />
5. Der Anwendungsbereich einer Theorie<br />
Eigentlich ist es eine Selbstverständlichkeit, aber trotzdem wird sie oft<br />
genug nicht zur Kenntnis genommen, daß jede Theorie nur auf ganz bestimmte<br />
natürliche Systeme, beschrieben in einer bestimmten Weise, angewendet<br />
wird und nicht etwa auf alle Phänomene in der Welt. Mit der<br />
Evolutionstheorie oder anderen biologischen Theorien erklären wir<br />
nicht das Verhalten mechanischer Systeme, etwa des Planetensystems,<br />
und mit mechanischen Theorien, wie der Newtonschen Partikelmechanik,<br />
versuchen wir nicht evolutionäre Vorgänge zu beschreiben. Die<br />
Menge von Systemen, die mit einer Theorie beschrieben werden sollen,<br />
soll Menge der „intendierten Anwendungen“ (formal: I(T)) der Theorie<br />
heißen. Sie wird für empirische Theorien im Unterschied zu mathematischen<br />
nicht bereits durch die Gesetze einer Theorie bestimmt, sondern<br />
muß zusätzlich explizit angegeben werden, um die Theorie vollständig<br />
darzustellen. Mathematische Theorien wie z. B. Theorien aus dem Bereich<br />
der Zahlentheorie gelten für alle Systeme, die sich als Systeme natürlicher<br />
Zahlen auffassen lassen, also etwa alle Peanosysteme. Es ist allein<br />
die allgemeine Struktur eines Objekts, die darüber bestimmt, ob es<br />
zum Anwendungsbereich einer mathematischen Theorie gehört. Für empirische<br />
Theorien ist das ganz anders. Nicht jedes natürliche System, das<br />
sich mit den Ausdrücken der Partikelmechanik beschreiben läßt, wird
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 352<br />
dadurch schon zu ihrem Gegenstand. 142 Ihre intendierten Anwendungen<br />
sind eigens als solche zu kennzeichnen, und das kann auf unterschiedliche<br />
Weise geschehen; z. B. durch die Angabe einzelner konkreter Systeme<br />
wie {Sonne, Erde, Mond} aber häufig werden die Anwendungen<br />
durch typische Exemplare, also auf paradigmatischem Wege, beschrieben.<br />
Für die Newtonsche Partikelmechanik läßt sich die Menge der intendierten<br />
Anwendungen in erster Näherung vielleicht folgendermaßen<br />
charakterisieren:<br />
I(KPM) = {Planetensysteme, schiefe Würfe, zusammenstoßende<br />
Partikel (Billiardbälle), Pendel, }.<br />
Diese Menge steht nicht für alle Zeiten fest, sondern kann sich ändern,<br />
je nachdem, auf welche Bereiche man die Partikelmechanik anzuwenden<br />
gedenkt. Newton hoffte noch, optische und chemische Phänomene mit<br />
seiner Theorie behandeln zu können, doch diese Hoffnung wurde nie<br />
eingelöst, so daß spätere Physiker diese Phänomene wieder aus dem intendierten<br />
Anwendungsbereich herausgenommen haben.<br />
Diese erste Bestimmung der intendierten Anwendungen greift allerdings<br />
noch zu kurz, denn als intendierte Anwendungen der Mechanik<br />
kommen natürlich nicht einfach Partikel sondern Partikel und ihre Bahnen<br />
über einen gewissen Zeitraum hinweg in Frage. Die intendierten<br />
Anwendungen sollen daher als Modelle der KPM mit den entsprechenden<br />
Komponenten verstanden werden, wobei sie zunächst noch als<br />
KPM-nichttheoretisch also als partielle Modelle von KPM beschrieben<br />
werden. 143 Die Menge der partiellen Modelle charakterisiert größere<br />
Klassen derartiger Bahnstücke für die betreffenden Partikel. Weitgehend<br />
unerforscht ist im strukturalistischen Theorienkonzept allerdings der<br />
Aufstieg von einzelnen Meßwerten für Partikel zu ganzen Bahnen, der<br />
schon einen ersten wichtigen Schritt in der theoretischen Beschreibung<br />
des Systems darstellt. Hier sind Lücken der metatheoretischen Aufarbei-<br />
142 Nichts hindert uns daran, nichtmechanische Systeme mit der Begrifflichkeit<br />
der Mechanik zu beschreiben. Von Kräften spricht man z.B. in Kontexten<br />
wie „den Kräften des Marktes“ usw. Die so beschriebenen Systeme werden<br />
aber natürlich damit noch nicht zu intendierten Anwendungen der klassischen<br />
Partikelmechanik.<br />
143 Auch an dieser Stelle gibt es einen wichtigen Unterschied zur Anwendung<br />
mathematischer Theorien. Da es für rein mathematische Größen keine empirischen<br />
Meßverfahren und damit auch keine analoge theoretisch/nichttheoretisch<br />
Unterscheidung gibt, können wir ihre Anwendungen nicht auf einer vortheoretischen<br />
Ebene beschreiben. Derartige Differenzierungen entfallen dort.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 353<br />
tung empirischer Theorien zu konstatieren, die im Rahmen zukünftiger<br />
Fallstudien und entsprechender Erweiterungen der Metatheorie zu<br />
schließen sind.<br />
Aber schauen wir uns die intendierten Anwendungen nun im ganzen<br />
Netz einer Theorie am Beispiel der Newtonschen Partikelmechanik konkret<br />
an.<br />
6. Das Theorien-Netz der Newtonschen Partikelmechanik<br />
Wir haben schon längere Zeit von Theorien-Netzen und ihren Spezialisierungen<br />
gesprochen, uns aber bisher ausschließlich der Ausgestaltung<br />
einzelner Theorie-Elemente T gewidmet. Für die haben wir die folgende<br />
Struktur erhalten:<br />
T = ,<br />
wobei die folgenden mengentheoretischen Beziehungen gelten:<br />
(a) M Mp<br />
(b) Mpp ist eine Menge von Substrukturen zu Mp<br />
(c) C Pot(Mp)<br />
(d) L Mp<br />
(e) I Mpp<br />
Das Netz der KPM besteht nun aus solchen Theorie-Elementen, die als<br />
Spezialisierungen aus dem oben definierten Basis-Theorie-Element hervorgehen,<br />
wie das schon informell beschrieben wurde. Dabei werden für<br />
kleinere Bereiche von intendierten Anwendungen jeweils stärkere Behauptungen<br />
anhand von Spezialgesetzen aufgestellt, die zusätzlich zu<br />
den Basisaxiomen eingebracht werden. Für eine Spezialisierung T’ eines<br />
Theorie-Elements T gilt daher:<br />
T’ ist ein Spezialisierung von T (T’ T) gdw:<br />
i) Mp’ = Mp<br />
ii) Mpp’ = Mpp<br />
iii) M’ M<br />
iv) C’ C<br />
v) L’ L<br />
vi) I’ I,<br />
wobei die beiden ersten Bedingungen zum Ausdruck bringen, daß die<br />
begriffliche Struktur für alle Elemente eines Netzes gleich ist, während<br />
die weiteren Bedingungen die Verstärkung der inhaltlichen Anforderung
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 354<br />
durch die Theorie für ein eingeschränktes Anwendungsgebiet I’ angeben.<br />
Für ein ganzes Theorien-Netz N = (Ti)iJ (J ℕ) mit einem Basis-<br />
Theorie-Element T0, dessen Elemente durch die Spezialisierungsbeziehung<br />
partiell geordnet sind, ergibt sich: 144<br />
N = (Ti)iJ ist ein (baumartiges) Theorien-Netz gdw:<br />
(a) Für alle i J: Ti ist ein Theorie-Element.<br />
(b) Für alle i J: Ti T0.<br />
So erhält man für die Newtonsche Partikelmechanik in ihrer heutigen<br />
Gestalt z. B. ein Netz (s. Balzer/Moulines 1981, BMS 180ff), das ich nur<br />
in Ausschnitten und in informeller Form wiedergeben möchte.<br />
Das Netz der KPM<br />
Die einzelnen Theorie-Elemente des Netzes entstehen alle durch Spezialisierung,<br />
d.h. genauere Bestimmung des Kraftgesetzes, das im Ausgangselement<br />
des Netzes noch relativ unbestimmt gelassen worden war. Das<br />
Basis-Theorie-Element wird einfach mit „KPM“ bezeichnet. Es enthält<br />
noch nicht das Impulserhaltungs- oder „actio-reactio“-Gesetz, weil es<br />
Theorie-Elemente der KPM gibt, die nicht-abgeschlossene Systeme behandeln.<br />
NKPM entsteht gerade durch Hinzunahme des Impulserhaltungssatzes<br />
und soll alle abgeschlossenen mechanischen Systeme beschreiben.<br />
Eine andere Spezialisierung ist die auf konservative Kräfte, also<br />
Kräfte, die sich als Gradienten einer Potentialfunktion beschreiben<br />
lassen. Dazu gibt es wiederum eine Reihe von weitergehenden Speziali-<br />
144 Neben den strikten Spezialisierungen stoßen wir auch manchmal auf approximative<br />
Spezialisierungen, so etwa im Falle der Elektrodynamik (s. Bartelborth<br />
1988).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 355<br />
sierungen, deren berühmteste das Newtonsche Gravitationsgesetz darstellt.<br />
Ein weiteres Beispiel finden wir in Galileos Gesetz vom freien Fall<br />
und ein anderes im Hookeschen Gesetz für harmonische Oszillatoren.<br />
Ein dritter Zweig des Netzes, der noch kurz angedeutet werden soll,<br />
nimmt Spezialisierungen des Kraftgesetzes vor, die hauptsächlich geschwindigkeitsabhängig<br />
sind. Prominente Beispiele dafür sind zunächst<br />
die Reibungsgesetze, aber auch Kräfte wie die Lorentzkraft. 145<br />
Ein wesentlicher Aspekt dieses Netzes soll noch kurz zur Sprache<br />
kommen. Natürlich kann ein und dasselbe mechanische System eine intendierte<br />
Anwendung mehrerer Theorie-Elemente sein, die noch dazu<br />
auf unterschiedlichen Ästen liegen können; etwa wenn wir es als abgeschlossenes<br />
System von gravitierenden Körpern beschreiben, so daß es<br />
sowohl das Impulserhaltungsgesetz erfüllen soll wie auch das Gravitationsgesetz.<br />
Bei der Formulierung der empirischen Behauptung der KPM<br />
wird deshalb eine Konsistenzforderung zu erheben sein, nach der die<br />
Kraftfunktionen und Massenfunktionen, die den Partikeln dieses Systems<br />
in den unterschiedlichen Theorie-Elementen zugeordnet werden,<br />
zusammenpassen. Das kann anhand einzelner explizit formulierter Links<br />
geschehen, die das für spezielle Partikel sichern, aber auch – wie hier –<br />
durch eine allgemeine Verträglichkeitsbedingung in der empirischen Behauptung<br />
für ein ganzes Netz.<br />
Eine Ausgestaltungsmöglichkeit von Theorien-Netzen ist bisher noch<br />
nicht erwähnt worden: Sie lassen sich im Prinzip an den Enden der Äste<br />
immer weiter ausdehnen bis in Bereiche des technischen Wissens hinein.<br />
Für das Hookesche Gesetz ließen sich z. B. weitere Spezialisierungen anführen,<br />
die angeben, welche Federkonstanten für welche Materialien<br />
und welche Federformen bei bestimmten Temperaturen vorliegen. Das<br />
wird man i.a. nicht mehr zum engeren Bereich der klassischen Partikelmechanik<br />
zählen, aber es zeigt, wie die hierarchische Anordnung von<br />
wissenschaftlichen Erkenntnissen in Baumstrukturen auch für außerwissenschaftliche<br />
Bereiche Ordnung schaffen hilft.<br />
7. Theoriendynamik<br />
Das bisher angegebene Instrumentarium des Strukturalismus stammt zunächst<br />
aus der synchronischen Untersuchung von Theorien und ihrer inneren<br />
Struktur, doch das sollte nicht darüber hinwegtäuschen, daß alle<br />
145 In diesem Punkt beziehe ich mich einfach auf die Darstellung der KPM<br />
in (BMS, 189f), um auch die Flexibilität des strukturalistischen Instrumentariums<br />
zu zeigen, ohne sie inhaltlich weiter zu diskutieren.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 356<br />
genannten Komponenten von Theorien gerade auch zur Aufklärung<br />
theoriendynamischer Vorgänge eine wesentliche Rolle spielen. Ein Beispiel<br />
dafür bot bereits die Studie von Ulrich Gähde über die Cepheiden<br />
Anomalien, die ich im Abschnitt (C.2) skizziert hatte. Ein weiteres schönes<br />
Beispiel bietet ebenfalls Gähde (1989, 236ff), wo er beschreibt, wie<br />
die Anomalie des Merkurperihels zu einer Folge von Korrekturversuchen<br />
an der Newtonschen Gravitationstheorie geführt hat, die sich sukzessive<br />
von der Peripherie des Newtonschen Netzes auf sein Basis-Theorie-Element<br />
hinbewegt, bis schließlich auch dieses aufgegeben wird.<br />
Eine solche diachronische Analyse der Wissenschaftsgeschichte war<br />
natürlich erst anhand der Kenntnis der reichhaltigen inneren Struktur<br />
von Theorien möglich, die zahlreiche Ansatzpunkte für Veränderungen<br />
sowie ihre gegenseitige Gewichtung aufzeigt. Mit diesem komplexeren<br />
Bild wissenschaftlicher Theorien lassen sich Metaphern wie die vom<br />
Netz unserer Erkenntnisse und daß wir versuchen, unsere Theorien mit<br />
möglichst geringfügigen Änderungen gegen widerspenstige Experimente<br />
beizubehalten, endlich mit Inhalt füllen. Grob gesagt sind die Theorieteile<br />
peripherer, die weiter unten im Netz und weiter hinten in den Tupeln<br />
der Theorie-Elemente auftreten.<br />
Um in unserer Fallstudie der klassischen Partikelmechanik (KPM) zu<br />
bleiben, möchte ich kurz auf eine grundlegende Arbeit von Moulines<br />
(1979) (s. a. BMS 205ff) eingehen, in der das metatheoretische Instrumentarium<br />
des Strukturalismus nebenbei auch noch um eine ganze Reihe<br />
von pragmatischen und systematischen Begriffen erweitert wurde, die<br />
ebenfalls aufzeigen können, wie der synchronische Apparat für diachronische<br />
Fallstudien eingesetzt werden kann. Im Zentrum dieser Arbeit<br />
steht die Konzeption von sogenannten Theorie-Entwicklungen, die die<br />
Entwicklung einer Theorie als Abfolge von Theorien-Netzen begreift,<br />
die untereinander in engen Zusammenhängen stehen. Sie repräsentieren<br />
jeweils den Zustand der Theorie für einen gewissen Zeitraum. Je nachdem,<br />
wie diese Theorie-Entwicklungen beschaffen sind, können wir<br />
dann von progressiven Entwicklungen im Sinne von Lakatos oder etwa<br />
von Kuhnschen Theorie-Entwicklungen sprechen (s. BMS 221ff).<br />
An dieser Stelle kann ich nicht den Details dieser Erweiterung des<br />
Begriffsapparats folgen, sondern werde mich auf einige Aspekte beschränken.<br />
Als erstes werden pragmatische Konzepte eingeführt, die helfen<br />
sollen, eine Struktur in den historischen Geschehnissen zu identifizieren.<br />
146 Dazu gehört zunächst der Begriff einer historischen Periode h,<br />
innerhalb derer die Theorie einigermaßen unverändert geblieben ist. Au-<br />
146 Für eine ausführlicher Darstellung s. BMS (205ff).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 357<br />
ßerdem ist dann die „scientific community“ (SC) zu erwähnen, die dadurch<br />
gekennzeichnet ist, daß sie in dieser Zeit die Theorie – das jeweilige<br />
Theorien-Netz – akzeptiert hat oder ihr gegenüber eine ähnliche epistemische<br />
Einstellung eingenommen hat. Besondere Aufmerksamkeit ist<br />
in solchen Theorie-Entwicklungen auf die Frage zu richten, welche Spezialisierungen<br />
des Netzes neu hinzugekommen sind (oder auch aufgegeben<br />
wurden) und wie sich dabei die Menge der intendierten Anwendungen<br />
eines Netzes gegenüber dem Vorgängernetz geändert hat. Kontinuitäten<br />
in diesen beiden Bereichen während der Theorie-Entwicklung sind<br />
ein wesentlicher Aspekt der Identität einer Theorie. So sollten die neuen<br />
Spezialisierungen sich als Spezialisierungen der Theorie-Elemente des<br />
Vorgängernetzes zeigen und eine größere Überschneidung mit den intendierten<br />
Anwendungen des Vorgängernetzes gegeben sein, damit wir von<br />
unterschiedlichen Stadien einer Theorie sprechen können. Die größte<br />
Bedeutung für die Identität einer Theorie besitzt dabei sicherlich das Basis-Theorie-Element,<br />
das für eine Theorie unverändert bleiben sollte.<br />
Die Menge der intendierten Anwendungen können wir auch nach<br />
verschiedenen epistemischen Einstellungen der „scientific community“,<br />
die die Theorie akzeptiert, unterscheiden, z. B. in die Menge der als gesichert<br />
angenommenen Anwendungen und die der nur vermuteten Anwendungen<br />
der Theorie. Es dürfte gewiß sein, daß man gesichert geglaubte<br />
Anwendungen der Theorie nicht ohne größere Not aufzugeben bereit<br />
ist. Die nur vermuteten Anwendungen sind jedenfalls peripherer als die<br />
gesicherten. Wissenschaftler sind sehr wohl in der Lage, solche erkenntnistheoretischen<br />
Unterscheidungen für ihre eigenen Theorien zu treffen.<br />
Sie haben nicht unbedingt Kuhnsche Scheuklappen, die sie nicht nach alternativen<br />
Theorien und deren Qualitäten schielen lassen. Man muß allerdings<br />
bedenken, daß sie oft als Anwälte ihrer Theorien auftreten müssen<br />
und dann natürlich nicht gerne bereit sind, bestimmte Anwendungen<br />
als weniger sicher oder sogar noch recht spekulativ einzustufen. Auf der<br />
Grundlage solcher Unterscheidungen lassen sich schließlich auch Bewertungsmaßstäbe<br />
für ganze Theorien vorschlagen. Für progressive Theorie-Entwicklungen<br />
im Sinne von Lakatos erwarten wir etwa, daß sich<br />
der Anteil der als gesichert geltenden Anwendungen erhöht hat. Für<br />
Kuhnsche Theorie-Entwicklungen erwarten wir dagegen vor allem, daß<br />
es ein paradigmatisches Basis-Theorie-Element und eine Menge von paradigmatischen<br />
Anwendungen der Theorie gibt, die sich durch alle<br />
Theorien-Netze der Entwicklung ziehen.<br />
Um ein gewisses Gefühl dafür zu bekommen, wie derartige Theorie-<br />
Entwicklungen konkret aussehen, verweise ich auf die anfängliche Ent-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 358<br />
wicklung der klassischen Partikelmechanik, wie sie von Moulines (1979)<br />
rekonstruiert wurde und auch in BMS (223ff) wiedergegeben ist.<br />
8. Die empirische Behauptung einer Theorie<br />
Nun haben wir alle wesentlichen Komponenten von Theorien beisammen,<br />
die notwendig sind, um die empirische Behauptung, die man mit einer<br />
Theorie T aufstellt, präzisieren zu können. Beginnen wir dazu mit<br />
dem Fall eines einzelnen Theorie-Elements ehe wir zu den Behauptungen<br />
ganzer Theorien-Netze übergehen. Wir haben gesehen, daß die Daten,<br />
auf die wir eine Theorie T stützen möchten oder die wir mit ihr erklären<br />
möchten, in Form eines partiellen Modells als Instanzen eines<br />
Phänomens in der T-nicht-theoretischen Begrifflichkeit beschrieben werden.<br />
Von jedem derartigen System aus der Menge der intendierten Anwendungen<br />
können wir sagen, daß es die Gesetze der Theorie erfüllt,<br />
wenn es sich so um theoretische Komponenten erweitern läßt, daß die<br />
vollständige Beschreibung des Systems ein Modell der Theorie darstellt.<br />
Verschieben wir die möglicherweise noch einzubeziehenden Approximationen<br />
zunächst einmal auf den nächsten Abschnitt, sind trotzdem noch<br />
zwei andere Theoriekomponenten für die mit einer Theorie verknüpfte<br />
Behauptung zu berücksichtigen: Nämlich erstens die intertheoretischen<br />
Anforderungen, die aus Verbindungen zu anderen Theorien herrühren<br />
und durch Links wiedergegeben werden – unser Modell sollte also auch<br />
Element des globalen Links sein, d.h. in L(T) liegen. Zweitens ist die holistische<br />
Komponente, die uns die Constraints angeben, zu berücksichtigen,<br />
denn es geht nie nur darum, ein einzelnes partielles System zu einem<br />
Modell zu erweitern, sondern immer darum, mehrere Systeme<br />
gleichzeitig und in konsistenter Weise als Modelle der Theorie zu erweisen.<br />
Deshalb betrachten wir immer gleich Mengen von Modellen. Die<br />
Modellmenge, die auf der theoretischen Ebene damit anvisiert wird, ist<br />
der theoretische Gehalt TG von T:<br />
TG(T) := Pot(M) C Pot(L)<br />
r gibt uns alle theoretischen Anforderungen die die Theorie T an die<br />
Strukturen stellt, auf die sie angewandt werden soll. Durch die Projektionsfunktion<br />
r, die die theoretischen Größen „abschneidet“, erhalten wir<br />
ein entsprechendes Mengensystem auf der nicht-theoretischen Ebene,<br />
das man auch den empirischen Gehalt EG von T nennt:<br />
EG(T) := r[Pot(M) C Pot(L)] = r[TG(T)]
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 359<br />
Die empirische Behauptung von T = läßt sich dann schreiben:<br />
Empirische Behauptung von T: I EG(T),<br />
d.h. die intendierten Anwendungen lassen sich gemeinsam in den empirischen<br />
Gehalt der Theorie einbetten, der wiederum nur solche Mengen<br />
enthält, die sich als Ganzes zu Modellen erweitern lassen, die im theoretischen<br />
Gehalt der Theorie liegen, also alle Anforderungen der Theorie<br />
(Grundgesetze, Spezialgesetze, innertheoretische Konsistenzforderungen<br />
und intertheoretische Beziehungen) erfüllen.<br />
Auf Theorien-Netze läßt sich diese Formulierung nicht in ähnlich<br />
einfacher Weise übertragen, denn die empirische Behauptung von ganzen<br />
Netzen ist auf verschiedenen Ebenen angesiedelt und läßt sich auch<br />
nicht als bloße Konjunktion der empirischen Behauptungen der Elemente<br />
des Netzes verstehen. Eine solche Konjunktion könnte nämlich nicht<br />
sicherstellen, daß dasselbe partielle Modell aus I0, wenn es in verschiedenen<br />
Spezialisierungen des Netzes auftritt, auch in gleicher oder zumindest<br />
konsistenter Weise zu einem vollständigen Modell erweitert wird (s.<br />
dazu Gähde 1989, 66ff).<br />
Um eine Formulierung zu gewinnen, die es gestattet, Theorien-Netze<br />
in ähnlicher Weise wie Theorie-Elemente zu behandeln und die formale<br />
Darstellung außerdem verständlicher zu gestalten, führe ich Einbettungsfunktionen<br />
ℰ ein, die die Faserbündelstruktur von respektieren:<br />
ℰ(T) := {e:Mpp Mp; mit r ∘ e = idMpp}<br />
Eine Einbettungsfunktion ordnet also jedem partiellen Modell x ein potentielles<br />
y zu, das in dem Sinne „über“ ihm liegt (in der Faser von x<br />
bzgl. r), daß das „Abschneiden“ der theoretischen Funktionen wieder zu<br />
x zurückführt. Sie bettet, anders ausgedrückt, ein partielles Modell x in<br />
eine theoretische Erweiterung y zu x ein. Diese Einbettungsfunktionen<br />
(oder Erweiterungsfunktionen) drücken so anschaulicher aus, worum es<br />
in der empirischen Behauptung von T geht, nämlich die Einbettung eines<br />
Phänomens in ein Modell der Theorie. Damit ergibt sich für die empirische<br />
Behauptung von T:<br />
Empirische Behauptung von T<br />
e ℰ(T) mit: e(I) TG(T)<br />
D.h., es gibt eine gemeinsame Einbettung der intendierten Anwendungen,<br />
die die theoretischen Anforderungen von T erfüllt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 360<br />
Diese Einbettung läßt sich in dem nebenstehenden Diagramm, in<br />
dem die erlaubten Erweiterungen zu jedem Punkt x Mpp (oder anders<br />
ausgedrückt: die Fasern zu x bzgl. r) jeweils senkrecht über x angeordnet<br />
sind, auf einfache Weise geometrisch veranschaulichen. Die Modellmenge<br />
wird hier als ovales Gebiet in der Menge der begrifflichen Strukturen<br />
Mp (dem Totalraum des Bündels) und die Constraints werden durch Linien<br />
repräsentiert. Die Linien sollen die Verträglichkeit potentieller Modelle<br />
untereinander etwa im Rahmen eines Identitätsconstraints repräsentieren.<br />
Sie fügen jeweils die erlaubten Kombinationen von Modellen<br />
zusammen. Die Einbettungsfunktion e hat dann die Aufgabe, „oberhalb“<br />
von I (in den potentiellen Modellen) einen Constraintabschnitt e(I) herauszugreifen,<br />
der dazu noch in der Modellmenge liegt (und natürlich<br />
auch noch L erfüllt, auf dessen Darstellung ich aber hier verzichte). Gibt<br />
es eine derartige Einbettungsfunktion, so liegt natürlich auch I im empirischen<br />
Gehalt von T und umgekehrt. 147<br />
Nun sind wir auch gerüstet, die empirische Behauptung eines Theorien-Netzes<br />
N = (Ti)iJ mit einer endlichen Indexmenge J = {0,…,n},<br />
das durch die Spezialisierungsbeziehung geordnet ist und als Basis-<br />
Theorie-Element T0 enthält, zu bestimmen. Die Lösung zu diesem Problem<br />
stammt von Ulrich Gähde, der in seiner Arbeit (1989) den folgenden<br />
Vorschlag begründet hat. 148 Betrachten wir als erstes ein kleines<br />
Netz mit nur zwei Theorie-Elementen T0 und T1. Unzureichend ist zunächst<br />
die schlichte Konjunktion der empirischen Behauptungen der beiden<br />
Theorie-Elemente, denn dabei kann eine netzinterne Konsistenzforderung<br />
im Stile der Identitätsconstraints verletzt werden. Konkreter ausgedrückt:<br />
Dasselbe partielle Modell kann in T0 anders eingebettet werden<br />
als in T1. Damit wird ein und dieselbe Situation in einer auf zwei<br />
womöglich inkonsistente Weisen beschrieben. Um das zu verhindern, bezieht<br />
sich Gähde (1989, 66ff) explizit auf die jeweiligen gesuchten Erweiterungsmengen<br />
X0 und X1:<br />
Empirische Behauptung des kleinen Netzes<br />
X0 X1 [r(X0) = I0 X0 TG(T0) r(X1) =<br />
I1 X1 TG(T1) X1 X0] 149<br />
147 Denn I = r[e(I)] und da e(I) TG(T) gilt, ist I r[TG(T)].<br />
148 Außerdem hat er (1989, 120ff) gezeigt, daß die Vorschläge von Balzer/Sneed<br />
(1977/78), Zandvoort (1982) und Stegmüller (1986) nicht ausreichend<br />
sind.<br />
149 In der Notation sind schon einige Abkürzungen gegenüber Gähde<br />
(1989, 97) vorgenommen worden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 361<br />
Daß die beiden theoretischen Ergänzungen X0 und X1 nicht unterschiedliche<br />
Zuschreibungen für die theoretischen Größen vornehmen wird<br />
durch die Inklusionsbeziehung am Ende ausgedrückt. Mit Hilfe der Einbettungsbeziehungen<br />
läßt sich das etwas einfacher angeben für ℰ(N) :=<br />
ℰ(T0):<br />
(*) e ℰ(N) [e(I0) TG(T0) e(I1) TG(T1)]<br />
Die Konsistenzforderung wird in (*) dadurch ausgedrückt, daß beide<br />
Mengen intendierter Anwendungen durch dieselbe Einbettungsfunktion<br />
zu Modellmengen erweitert werden, was verhindert, daß es dabei zu unterschiedlichen<br />
theoretischen Erweiterungen für ein partielles Modell<br />
kommen kann.<br />
Die Äquivalenz der beiden Formulierungen läßt sich leicht anhand<br />
der Identifizierung Xi = e(Ii) erkennen. In der einen Richtung erhält<br />
man damit schnell eine der gesuchten Einbettungsfunktionen, die man<br />
in willkürlicher Weise auf den Rest von Mpp ausdehnen kann. Von (*)<br />
zur Gähde Formulierung: Es folgt r(Xi) = Ii, weil e eine Einbettungsfunktion<br />
ist und X1 X0 aus I1 I0, also aus der Spezialisierungsbeziehung.<br />
In (*) wird für die gesuchte Einbettungsfunktion nicht nur gefordert,<br />
daß sie eingeschränkt auf I0 in den theoretischen Gehalt von T0 führen<br />
und dabei auf einem Constraint liegen muß, sondern für den kleineren<br />
Bereich I1 muß sie darüber hinaus den kleineren Bereich des theoretischen<br />
Gehalts von T1 treffen.<br />
Wie Spezialisierungen so zu einer Verstärkung der empirischen Behauptung<br />
führen, läßt sich am leichtesten graphisch verstehen. Das erste<br />
Theorie-Element T definiert die große Ellipse im Bereich der potentiellen<br />
Modelle der Theorie, der das Bild von I unter e enthalten muß (s.<br />
Pfeile), während T’ ein noch kleineres Oval M’ bestimmt, das für die<br />
kleinere Teilmenge I’ von I das Bild unter e zu umfassen hat (s. Pfeile),<br />
wodurch eine neue Anforderung an e hinzukommt. Das zeigt auch bereits,<br />
wie die Konzeption für ein umfangreicheres Netz erweitert werden<br />
kann, nämlich indem die zusätzlichen Bereiche intendierter Anwendungen<br />
und die entsprechenden Modellmengen aufgetragen werden und an<br />
e analoge zusätzliche Einbettungsaufgaben wie für die ersten beiden<br />
Theorie-Elemente formuliert werden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 362<br />
Einbettung von 2 Theorie-Elementen<br />
Komplizierter wird die Gähdesche Formulierung schon für drei-elementige<br />
Netze, weil die Netzstruktur entweder linear (Gähde 1989, 100)<br />
oder eine Verzweigung (Gähde 1989, 102) sein kann, wonach sich die<br />
Inklusionsbeziehungen in der Gähdeschen Formulierung jeweils zu richten<br />
haben. Für allgemeine Netze N = (Ti)iJ wird die Formulierung der<br />
empirischen Behauptung (EB) dann noch komplizierter (s. Gähde 1989,<br />
119). 150 Hier erweisen sich die Einbettungsfunktionen als hilfreich, mit<br />
denen sich (EB) als gradlinige Verallgemeinerung von (*) abfassen läßt:<br />
Empirische Behauptung von N<br />
(EB) e ℰ(N) j J [e(Ij) TG(Tj)]<br />
Im Faserbündeldiagramm für zwei Theorie-Elemente könnten wir nun<br />
im Prinzip die neuerlichen Anforderungen in kanonischer Weise ergänzen,<br />
wodurch die sukzessive Verstärkung der empirischen Behauptung<br />
anschaulich wird.<br />
9. Approximationen und erlaubte Unschärfemengen<br />
Es ist eine offensichtliche Tatsache, daß in quantitativen empirischen<br />
Theorien Approximationen und Unschärfen an den unterschiedlichsten<br />
Stellen eine Rolle spielen. Weniger offensichtlich ist dagegen, warum die<br />
Wissenschaftstheorie diese Tatsache überwiegend kaum zur Kenntnis genommen<br />
hat. Jede quantitative empirische Theorie, die ihre Werte im<br />
Bereich der reellen Werte ansiedelt, wäre längst falsifiziert, würden wir<br />
150 Dabei hat die Forderung nach einer bijektiven Abbildung von I0 nach<br />
X0 für unendliche Mengen auch nicht ganz den erwünschten Effekt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 363<br />
die im Experiment ermittelten Werte und die von der Theorie vorhergesagten<br />
als absolut exakte Werte ernstnehmen. 151 Physiker arbeiten daher<br />
immer mit bestimmten Unschärfemengen (statt einzelnen Meßwerten etwa<br />
mit „Balken“ oder Intervallen von reellen Zahlen) innerhalb derer<br />
sie noch von Übereinstimmung sprechen. 152 Doch wie beschreibt man<br />
metatheoretisch diese Unschärfen? Oft werden sie nicht als ein Problem<br />
des Verhältnisses von Theorie und Erfahrung betrachtet, sondern man<br />
handelt sie mehr oder weniger unter „Beobachtungsfehler“ oder „Meßfehler“<br />
ab, als ob der beobachtende Wissenschaftler beim Ablesen irgendwelcher<br />
Instrumente eines Experiments nicht genau genug hingeschaut<br />
hätte. Doch das trifft das Phänomen kaum, um das es beim Thema<br />
Unschärfen in quantitativen empirischen Theorien geht, denn erstens<br />
gibt es digitale Anzeigeinstrumente und zweitens wissen wir, daß wir<br />
viele Abweichungen zwischen Theorien und Meßwerten nicht dem Experimentator<br />
in die Schuhe schieben können. Damit kommen wir nicht<br />
mehr umhin, an dieser Stelle ein Problem der Beziehung zwischen Theorie<br />
und Empirie zu konstatieren, auf das wir in einer metatheoretischen<br />
Behandlung wissenschaftlicher Theorien zu reagieren haben.<br />
Sind die Meßgeräte dafür verantwortlich? Beschreibt eine exakte<br />
Theorie eine exakte Wirklichkeit, aber die Ungenauigkeit der Meßinstrumente<br />
verhindert, daß diese exakte Übereinstimmung jemals deutlich<br />
wird? Ein derartiger Vorschlag übersieht meines Erachtens zunächst, daß<br />
auch das Verhalten der Meßinstrumente, z. B. in der Physik, gerade<br />
durch die Theorien beschrieben wird, um deren Exaktheit es uns geht.<br />
Zumindest für die Meßgeräte scheinen die Theorien dann keine zutreffende<br />
Beschreibung abzugeben, sondern wir müßten Unschärfen in unsere<br />
Darstellung mit einbeziehen. Daß man die auf Meßverfahren beschränken<br />
sollte, ist natürlich keine plausible Annahme. Daher möchte<br />
ich den Vorschlag machen, Approximationen in der metatheoretischen<br />
Behandlung von Theorien endlich ernst zu nehmen und explizit in unser<br />
Bild quantitativer Theorien einzubauen, um so ein realistischeres Bild<br />
quantitativer Theorien zu zeichnen.<br />
Das scheint mir auch für die diachronische Wissenschaftstheorie speziell<br />
zur Beurteilung eines eventuellen Fortschritts in den Wissenschaften<br />
unerläßlich zu sein. Die Wissenschaftsgeschichte zeigt überdeutlich, daß<br />
151 Für eine Reihe von Beispielen einschließlich einer Klassifikation für approximative<br />
Zusammenhänge siehe BMS 323ff.<br />
152 Eine perfekte Übereinstimmung zwischen Daten und Theorie würden<br />
wir nicht als Indiz für eine besonders gute Theorie, sondern für „gefilterte“ oder<br />
„getürkte“ Daten betrachten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 364<br />
das Fortschreiten der empirischen Wissenschaften nicht als einfache Kumulation<br />
von Erkenntnissen betrachtet werden kann, sondern viele alte<br />
Positionen wie das heliozentrische Weltbild oder die Phlogistontheorie<br />
ganz aufgegeben wurden. In anderen Fällen bauen dagegen Theorien in<br />
einem stärkeren Maße auf den Einsichten ihrer Vorgängertheorien auf,<br />
als das in den eben genannten Beispielen der Fall ist. Trotz gewisser Veränderungen<br />
(oder auch „Revolutionen“) gibt es z. B. in der Mechanik<br />
eine relativ kontinuierliche Entwicklung von Newton bis zur speziellen<br />
Relativitätstheorie, die in einer wissenschaftstheoretischen Darstellung<br />
nicht ignoriert werden sollte und in vielen formalen Untersuchungen<br />
präzisiert wurde. Dabei knüpft die Nachfolgertheorie sowohl begrifflich<br />
wie auch in ihren Gesetzen direkt an ihre Vorgängerin an. In diesem Fall<br />
spricht man davon, daß sich die alte Theorie auf die neue reduzieren<br />
läßt, um die engen Beziehungen der Theorien und die Fortschrittlichkeit<br />
der neueren Theorie wiederzugeben. Doch nahezu alle interessanten<br />
Beispiele derartiger Reduktionen erwiesen sich nicht als strikte Reduktionen<br />
der alten auf die neue Theorie, sondern es waren Approximationen<br />
nötig, um den reduktiven Zusammenhang zu etablieren.<br />
Das ist auch nicht erstaunlich, bringt doch die neue Theorie meist<br />
neue Einsichten mit sich, die aufdecken, in welchen Bereichen die alte<br />
Theorie noch nicht gut genug war. Sie enthält daher die alte Theorie<br />
nicht in unveränderter Form, sondern nur noch ungefähr, d.h. sie enthält<br />
eine zur alten Theorie ähnliche „Teiltheorie“. Diese approximative<br />
Einbettung der alten Theorie in die neue ist daher die zentrale Beziehung<br />
für eine Explikation von wissenschaftlichem Fortschritt, der nicht<br />
nur auf der empirischen Ebene stattfindet, sondern auch mit einer gewissen<br />
theoretischen Kontinuität einhergeht. Für einige Übergänge ist es gerade<br />
die Verkleinerung der Unschärfen, in der sich die Fortschrittlichkeit<br />
der neuen Theorie ausdrückt, die man nicht nachzeichnen könnte, würden<br />
wir uns ganz auf die logisch strikten Zusammenhänge beschränken.<br />
Unsere Auffassung von Theorien und ihren Beziehungen wird durch die<br />
Einbeziehung von Unschärfen grundlegend verändert; man könnte fast<br />
von einer metatheoretischen „Revolution“ sprechen. Gehören „Verschmierungen“<br />
von Theorien nämlich wesentlich zu ihrer Darstellung<br />
der Welt und sind nicht bloß „Meßfehler“, so sind Theorien wie die relativistischen<br />
und die vorrelativistischen nicht nur eng benachbart, sondern<br />
in großen Anwendungsbereichen ununterscheidbar. Sie überlappen<br />
in systematischer Weise, so daß wir damit zumindest für die Extensionen<br />
ihrer Begriffe konstatieren können, daß sie enge Beziehungen aufweisen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 365<br />
Theorien geben uns (mathematische) Modelle der Welt, die in einer<br />
Art von Isomorphiebeziehung bestimmte Aspekte der Wirklichkeit repräsentieren<br />
sollen, doch diese Beziehung wird nicht als vollkommen betrachtet.<br />
Genauso wie es viele Aspekte der Welt gibt, die in diesen Modellen<br />
nicht auftauchen – in der KPM wird die Welt schließlich auf<br />
Punkte mit Weg-Zeit Bahnen, Massen und Kräften reduziert –, gibt es<br />
immer Bestandteile der Modelle, mit denen man nicht gedenkt, Aspekte<br />
der Wirklichkeit abzubilden; man denke nur an die Phasenräume einer<br />
Partikelmechanik (s. dazu auch Friedman 1981, 4 und Bartelborth<br />
1994a). Entsprechendes gilt auch für bestimmte Aspekte der Komponenten.<br />
Die reellen Zahlenräume, die wir in quantitativen Theorien tatsächlich<br />
vorfinden, besitzen Einiges an Struktur, für das wir keine isomorphe<br />
Abbildung mehr postulieren können.<br />
Diese Bemerkung scheint mir auch auf die Kontinuumsannahme dieser<br />
Räume zuzutreffen. Physiker beweisen für diesen Punkt schon seit<br />
langem ein Problembewußtsein, das sich in vielen Äußerungen von Hilbert<br />
bis heute gezeigt hat. So resümiert Günther Ludwig (1978, 52)<br />
seine Überlegungen zu dem Thema: „Die kontinuierliche Struktur von X<br />
in MT [der mathematischen Theorie] ist also kein Bild der Wirklichkeit,<br />
sondern ein Ausweg aus einer Unkenntnis durch Idealisierung“. Auch<br />
Penrose weist (1989, 86) darauf hin, daß wir Entfernungen, die etwa ein<br />
10 20 -tel der Größe eines subatomaren Partikels entsprechen, in physikalischen<br />
Theorien überhaupt keine Bedeutung mehr geben können (ausf.<br />
Bartelborth 1994a). Insbesondere gestattet die Kontinuitätsannahme sogar<br />
Grenzwertprozesse, die noch zu viel kleineren (bis zu unendlich kleinen)<br />
Abständen übergehen.<br />
Über welche Gründe verfügen wir aber für die Kontinuumsannahme<br />
im mathematischen Bild unserer Theorien? Da sind meines Wissens nur<br />
zwei zu nennen. Der erste ist, daß wir keine bestimmte untere Schranke<br />
für räumliche Abstände kennen, der andere ist, daß wir unsere Differential-<br />
und Integralrechnung für kontinuierliche Räume entwickelt haben<br />
– sie läßt sich natürlich auch auf diskrete Räume übertragen –, und es<br />
einfach mathematisch bequemer erscheint, mit kontinuierlichen Räumen<br />
zu arbeiten. Doch das sind beides keine erkenntnistheoretisch stichhaltigen<br />
Gründe dafür, daß die Kontinuitätsannahme ein wichtiges Merkmal<br />
der Beschaffenheit unserer Welt wiedergibt. 153<br />
Um die Konflikte zwischen Theorie und Erfahrung, die durch die genannten<br />
Abweichungen der Werte entstehen, in der metatheoretischen<br />
153 In Bartelborth (1994a) verweise ich auch noch auf Gründe, die gegen<br />
eine solche Interpretation kontinuierlicher Räume sprechen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 366<br />
Behandlung von Theorien angemessen berücksichtigen zu können, wurden<br />
im strukturalistischen Theorienkonzept verschiedene Topologien<br />
auf der Menge der potentiellen Modelle eingeführt, die unsere intuitiven<br />
Vorstellungen der Nachbarschaft von Modellen präzisieren sollen.<br />
Moulines (1976, 1980 und 1981) hat dazu – wie schon Günther Ludwig<br />
(1978, 49ff) – die topologische Konzeption uniformer Strukturen für<br />
sehr allgemeine Fälle von Approximationen eingesetzt. In Bartelborth<br />
(1988, 125ff) bevorzuge ich das einfachere Konzept der Quasimetrik für<br />
eine Rekonstruktion approximativer Zusammenhänge innerhalb der<br />
Elektrodynamik, das mir ebenso für die meisten quantitativen Theorien<br />
einsetzbar zu sein scheint. Eine Quasi- oder Pseudometrik wird definiert<br />
auf einer Menge M durch eine Distanzfunktion d:<br />
d:MM [0,] ist eine Quasimetrik gdw: x,y,z M gilt:<br />
1) d(x,x) = 0<br />
2) d(x,y) = d(y,x)<br />
3) d(x,y) + d(y,z) d(x,z)<br />
Wie sich mit Hilfe einer solchen Quasimetrik intuitive Abstandsbegriffe<br />
präzisieren lassen, möchte ich an einem Beispiel skizzieren. Beschreiben<br />
wir in der Mechanik z. B. zwei Einteilchensysteme x und y mit den Partikeln<br />
px und py über denselben Zeitraum T, können wir zunächst mit<br />
den Supremumsnormen der Weg-Zeit-Funktionen als Abstandsfunktionen<br />
beginnen:<br />
a) d(x,y) = suptT s(px,t) - s(py,t) 154<br />
Das wird allerdings unsere Intuitionen zur Distanz solcher physikalischen<br />
Systeme allein kaum abdecken können, bedeutet es doch, das zwei<br />
Systeme ähnlich sind, für die der eine Partikel in Spiralen um den anderen<br />
herumfliegt, also ganz andere Geschwindigkeiten und Beschleunigungen<br />
aufweist. Diese weiteren Parameter könnte man beide mit einbauen<br />
und erhielte dann z. B.:<br />
b) d(x,y) = suptT s(px,t) - s(py,t) + suptT s'(px,t) - s'(py,t) +<br />
suptT s"(px,t) - s"(py,t),<br />
wobei „s'“ und „s"“ jeweils die erste und zweite Ableitung von s nach der<br />
Zeit bezeichnen soll. Das ergäbe zunächst eine relativ feine Ordnung<br />
von Nachbarschaftsbeziehungen, die man auch je nach Absicht wieder li-<br />
154 Dabei bezeichne ich die Weg-Zeit-Funktionen aus beiden Modellen der<br />
Einfachheit halber mit s, zumal sie sich auf dieselbe Koordinatisierung beziehen<br />
sollen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 367<br />
beralisieren könnte. Um etwa eine galileiinvariante Quasimetrik zu erhalten,<br />
würde es sich anbieten, von der speziellen Koordinatisierung und<br />
auch davon, wo sich der Partikel bewegt, abzusehen und zum Beispiel<br />
nur nach den auftretenden Beschleunigungen zu fragen. Je nachdem,<br />
wie unsere Abstandsintuitionen sich für verschiedene Untersuchungen<br />
gestalten, wird man die angemessene Quasimetrik wählen. Kann man<br />
zwei Modelle nicht miteinander vergleichen, weil sie über ganz unterschiedliche<br />
Systeme – x mit einem Partikel, y mit 20 – sprechen, hat<br />
man die Möglichkeit, den Abstand mit unendlich anzugeben. Sind mehrere<br />
Partikel zu berücksichtigen, können wir etwa das Maximum der<br />
entsprechenden Supremumsnormen wählen etc. Enthält ein Modell<br />
mehrere Funktionen wird auch über deren Supremumsnormen entweder<br />
(gewichtet) aufzusummieren sein oder schlicht ein Maximum davon gewählt,<br />
je nachdem, was unsere Vorstellungen von Abständen im speziellen<br />
Fall besser wiedergibt. 155<br />
Auf eine Besonderheit und einen Vorzug der Abstandsdefinition anhand<br />
einer Quasimetrik gegenüber allgemeineren topologischen Konzepten<br />
möchte ich noch hinweisen. Da man nicht nur auf der theoretischen<br />
Ebene der potentiellen Modelle mit Approximationen arbeiten<br />
möchte, sondern ebenso auf der „empirischen“ der partiellen Modelle,<br />
hat man in BMS (334ff) versucht, aus den Uniformitäten auf Mp Uniformitäten<br />
auf Mpp zu gewinnen. Das gelang jedoch nur dadurch daß man<br />
sich „oben“ auf sogenannte „empirische Uniformitäten“ beschränkt hat,<br />
die jedoch ungeeignet sind, um Abstände im Bereich der theoretischen<br />
Größen wiederzugeben (s. dazu Bartelborth 1988, 119ff). Für Quasimetriken<br />
d auf Mp erhalten wir dagegen auf natürliche Weise Quasimetriken<br />
d’ auf Mpp. Dazu wählen wir auf Mpp die induzierte Quasimetrik, die<br />
sich wie folgt definieren läßt:<br />
d’: MppMpp [0,] und für x, y sei:<br />
d’(x,y) := inf {d(z,w); z Fx w Fy},<br />
wobei mit Fx := {z Mp; r(z) = x} die Faser von x unter r gemeint<br />
ist.<br />
Daß auch d’ eine Quasimetrik ist, läßt sich dann allgemein beweisen:<br />
Daß d’ die ersten beiden Bedingungen für Quasimetriken erfüllt, ist offensichtlich,<br />
so bleibt nur die Dreiecksungleichung nachzuweisen. Dazu ist zu<br />
155 In Bartelborth (1988, 125ff) wird erläutert, wie sich eine Quasimetrik<br />
für Kontinuumstheorien einführen läßt und wie fruchtbar sie für einen Vergleich<br />
zwischen vorrelativistischen und relativistischen Theorien ist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 368<br />
zeigen: Für alle r,s,t Mpp gilt: d’(r,s) + d’(s,t) d’(r,t) oder dementsprechend<br />
(in etwas abgekürzter Schreibweise):<br />
(*) inf {d(x,y)} + inf {d(y’,z’)} inf {d(x’’,z’’)},<br />
wobei die Infima jeweils immer über alle x, x’’ Fr, y, y’ Fs, z’, z’’ Ft<br />
zu nehmen sind. Im folgenden seien alle Größen ebenfalls immer aus den<br />
entsprechenden Fasern gewählt. Dann erhalten wir für alle x’’, z’’ und y:<br />
d(x’’,z’’) d(x’’,y) + d(y,z’’) inf {d(x,y)} + inf {d(y’,z’)}.<br />
Da das für alle x’’ und alle z’’ gilt, folgt daraus (*).<br />
Diese induzierte Quasimetrik ist auch in der Praxis – man denke nur an<br />
unser Beispiel – leicht anzugeben, resultiert sie doch einfach aus der<br />
Kombination der Supremumsnormen für die nichttheoretischen Größen.<br />
Anhand der Abstandsfunktion d können wir dann festlegen, welche<br />
Abweichungen wir in welchen Bereichen noch tolerieren wollen. Das<br />
soll in eine (symmetrische) Relation der Verschmierung „~“ einfließen.<br />
Zwei potentielle Modelle gelten als zulässige „Verschmierungen“ voneinander,<br />
wenn z. B. d(x,y) < 0,01 in bestimmten Einheiten ist, oder<br />
wenn d(x,y) kleiner ist als 1% vom räumlichen Durchmesser des betrachteten<br />
Raumgebiets (bezogen auf entsprechende Einheiten) oder<br />
ähnliche Bedingungen gelten, die natürlich auch bereichsspezifisch erklärt<br />
werden können, so daß für Pendel andere Maßstäbe gelten als für<br />
Planeten usw. Die erlaubten Verschmierungen sind eventuell von technischen<br />
Faktoren einzelner intendierter Anwendungen abhängig, also etwa<br />
von den zur Verfügung stehenden Meßinstrumenten und der Zugänglichkeit<br />
des Systeme. Entscheidend für den Gehalt einer Theorie ist dabei<br />
hauptsächlich die Funktion „~“ für die erlaubten Unschärfen, die<br />
uns angibt, welche Abweichungen zwischen Theorie und Empirie jeweils<br />
noch tolerierbar sind. Damit läßt sich nun auf naheliegende Weise die<br />
empirische Behauptung eines Theorien-Netzes N = (Ti)iJ in approximativer<br />
Form formulieren:<br />
Approximative Empirische Behauptung von N<br />
(AEB) e ℰ(N) j J [e(Ij) ̃ TG(Tj)],<br />
wobei mit „̃“ das approximative Enthaltensein für Mengen auf der<br />
Grundlage der Verschmierungsfunktion ~ gemeint ist. 156 Das heißt, es<br />
156 Für zwei Mengen A und B gilt A ̃ B gdw: Es gibt eine Menge C, so<br />
daß A ~ C und C B gilt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 369<br />
gibt eine Menge Aj, die eine Verschmierung von e(Ij) darstellt und in<br />
TG(Tj) enthalten ist.<br />
Die Verschmierungsbeziehung „~“ ist aber ebenso zur Untersuchung<br />
und Interpretation anderer Beziehungen erforderlich, von denen die<br />
wichtigste wohl die der approximativen Reduktion ist, weil sie für unser<br />
Verständnis von Fortschritt in den Wissenschaften von grundlegender<br />
Bedeutung ist.<br />
10. Zusammenfassung der strukturalistischen Theorienauffassung<br />
Als Kurzübersicht möchte ich alle bisher eingeführten Konzepte der<br />
strukturalistischen Auffassung noch einmal zusammenstellen. Theorien<br />
in einem gebräuchlichen Sinn des Wortes bestehen meist aus zahlreichen<br />
Theorie-Elementen Ti, die zu einem baumartigen Theorien-Netz N =<br />
(Ti)iJ mit einem Basis-Theorie-Element T0 zusammengefügt sind. Weiterhin<br />
können mehrere Netze verbunden in einem Theorien-Holon wie im<br />
Beispiel der allgemeinen Relativitätstheorie eine größere Einheit bilden.<br />
Theorie-Elemente<br />
Jedes Theorie-Element T ist eine Struktur der Form:<br />
T = ,<br />
wobei die folgenden mengentheoretischen Beziehungen gelten:<br />
(a) M Mp<br />
(b) Mpp ist eine Menge von Substrukturen zu Mp<br />
(c) C Pot(Mp)<br />
(d) L Mp<br />
(e) I Mpp<br />
(f) ~ Mp Mp<br />
Die potentiellen Modelle sollen all die Systeme beschreiben, die für die<br />
Theorie von der begrifflichen Struktur her überhaupt als Anwendungsfälle<br />
in Frage kommen, dabei ist jedes potentielle Modell x Mp eine<br />
Relationsstruktur bestehend aus den Grundmengen D =<br />
und den Relationen R = darauf, wobei die<br />
Modelle die Teilmenge von Strukturen darstellen, die die Gesetze des<br />
Theorie-Elements erfüllen. Die partiellen Modelle sind Substrukturen<br />
der potentiellen Modelle, die nur die nicht-T-theoretischen Komponenten<br />
enthalten. Sie bilden die vortheoretische Ebene von T, die man mit<br />
der Abschneidefunktion r:Mp Mpp aus den potentiellen Modellen er-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 370<br />
hält. Die Constraints sollen dagegen die innere Konsistenz von T sicherstellen<br />
und sind daher Mengen von solchen Modellen, die zusammenpassen<br />
und folgende Bedingungen erfüllen:<br />
C(T) ist ein Constraint für T gdw.:<br />
1) C Pot(Mp(T))<br />
2) x Mp(T): {x} C(T)<br />
3) C(T)<br />
Außerdem gibt es auch Konsistenzforderungen zwischen verschiedenen<br />
Theorie-Elementen, die sogenannten Links, die zwischen n-Theorie-Elementen<br />
vermitteln sollen.<br />
ℒ(T1,,Tn) Mp(T1) Mp(Tn),<br />
Dabei wird der Effekt auf die empirische Behauptung eines einzelnen<br />
Theorie-Elements wie z. B. T1 wird durch die folgende Teilmenge der<br />
potentiellen Modelle von T1 ausgedrückt:<br />
L(T1) := {x Mp(T1); x2 Mp(T2) xn Mp(Tn) mit:<br />
(T1,,Tn)}<br />
Die beiden Ebenen und ihre wichtigsten Komponenten und Zusammenhänge<br />
für ein Theorie-Element sind noch einmal im nebenstehenden<br />
Mengendiagramm zusammengestellt. Den Zusammenhang dieser Theoriekomponenten<br />
kann man in einem Bild veranschaulichen, das darüber<br />
hinaus noch den theoretischen Gehalt TG und den entsprechenden empirischen<br />
Gehalt EG kennzeichnet.<br />
Theorien-Netze<br />
Aus den eben beschriebenen Theorie-Elementen setzen sich die Theorien-Netze<br />
zusammen, wobei alle Elemente sich als Spezialisierungen eines<br />
Basis-Theorie-Elements ergeben. Sie geben uns spezielle Gesetze für<br />
einen eingeschränkten Teilbereich der intendierten Anwendungen. Die<br />
Spezialisierungsbeziehung läßt sich daher mengentheoretisch folgendermaßen<br />
beschreiben:<br />
T’ ist ein Spezialisierung von T (T’ T) gdw:<br />
i) Mp’ = Mp<br />
ii) Mpp’ = Mpp<br />
iii) M’ M<br />
iv) C’ C<br />
v) L’ L<br />
vi) I’ I,
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 371<br />
Für ein baumartiges Netz N mit dem Basis-Theorie-Element T0 partiell<br />
geordnet durch die Spezialisierungsbeziehung und J = {0,…,n}ergibt<br />
sich: 157<br />
N = (Ti)iJ ist ein (baumartiges) Theorien-Netz gdw:<br />
(a) Für alle i J: Ti ist ein Theorie-Element.<br />
(b) Für alle i J: Ti T0.<br />
Empirische Behauptung von Theorien<br />
Für die Bestimmung der empirischen Behauptung von Theorie-Elementen<br />
und Theorien-Netzen benötigen wir einige Hilfsbegriffe, wie den<br />
theoretischen Gehalt von T:<br />
TG(T) := Pot(M) C Pot(L)<br />
Durch die Projektionsfunktion r erhalten wir ein entsprechendes Mengensystem<br />
auf der nicht-theoretischen Ebene, das man auch den empirischen<br />
Gehalt von T nennt:<br />
EG(T) := r[Pot(M) C Pot(L)]<br />
Die empirische Behauptung von T = , die besagt, daß alle intendierten<br />
Anwendungen der Theorie (zusammengefaßt in I) sich in gleichzeitig<br />
und in konsistenter Weise um theoretische Komponenten zu aktualen<br />
Modellen erweitern lassen, läßt sich dann schreiben:<br />
I EG(T),<br />
oder auch mit Hilfe der Einbettungsfunktionen ℰ von T:<br />
ℰ(T) := {e:Mpp Mp; mit r ∘ e = idMpp}<br />
wird daraus schließlich:<br />
Empirische Behauptung von T:<br />
e ℰ(T) mit: e(I) TG(T)<br />
Das läßt sich ausdehnen auf Einbettungsfunktionen für ganze Netze N =<br />
(Ti)iJ von Theorie-Elementen, und es ergibt sich dann für die empirische<br />
Behauptung ganzer Netze N:<br />
Empirische Behauptung von N<br />
(EB) e ℰ(N) j J [e(Ij) TG(Tj)]<br />
157 Neben den strikten Spezialisierungen stoßen wir auch manchmal auf approximative<br />
Spezialisierungen, so etwa im Falle der Elektrodynamik (s. Bartelborth<br />
1988).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 372<br />
Wenn man nun noch die Approximationen berücksichtigt, die jede empirische<br />
Behauptung begleiten, erhalten wir anhand der tolerierbaren Verschmierungen<br />
die:<br />
Approximative Empirische Behauptung von N<br />
(AEB) e ℰ(N) j J [e(Ij) ̃ TG(Tj)],<br />
die den Gehalt des gesamten Theorien-Netzes zum Ausdruck bringt und<br />
dabei alle Komponenten von Theorien berücksichtigt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 373<br />
VIII Wissenschaftliche Erklärungen<br />
A. Erkenntnistheoretische Funktionen von Erklärungen<br />
In früheren Kapiteln der Arbeit besonders in (IV) hatte ich argumentiert,<br />
daß wir für begründete Meinungen immer auf ein kohärentes Netz von<br />
Überzeugungen angewiesen sind, in dem Theorien oder zumindest allgemeine<br />
Überzeugungen eine verbindende Rolle zu übernehmen haben.<br />
Mit Hilfe der durch sie verfügbaren Erklärungen konnten Beobachtungen<br />
und andere Bestimmungsstücke unseres Wissens in einen indirekten<br />
Bestätigungszusammenhang gebracht werden, der gerade Kohärenz ausmacht.<br />
Theorien erwiesen sich dabei insbesondere in den Wissenschaften<br />
als Gebilde mit einer komplizierten inneren Struktur, die sich am<br />
leichtesten durch Tupel von Modellmengen darstellen läßt (s. VII). Was<br />
Erklärungen sind, wurde bisher allerdings noch nicht beantwortet. Doch<br />
immerhin verfügen wir über viele klare Beispiele für gute und schlechte<br />
Erklärungen und besitzen überdies allgemeine Vorstellungen von Erklärungen,<br />
die uns nun für eine Präzisierung des Erklärungsbegriffs anleiten<br />
werden. Dabei soll die kohärenzstiftende Funktion von Erklärungen<br />
zum Maßstab erhoben werden, um die geeigneten Explikationen des Erklärungsbegriffs<br />
von weniger angemessenen zu trennen. Die Erkenntnistheorie<br />
steckt somit den Rahmen ab, den Erklärungen mit Inhalt zu füllen<br />
haben.<br />
Natürlich verlangen wir von der gesuchten Explikation paradigmatische<br />
Beispiele von Erklärungen aus dem Alltag und den Wissenschaften<br />
zu erfassen. Zwar kann man sich in bestimmten Fällen dazu entschließen,<br />
einige Zusammenhänge, die wir bisher für erklärend hielten, nun<br />
als solche zurückzuweisen, aber man kann das nicht unbegrenzt tun,<br />
ohne den Anspruch aufzugeben, eine Explikation von „Erklärung“ vorzulegen.<br />
Der Test einer Erklärungstheorie an Beispielen von Erklärungen<br />
wird also eine bedeutsame Rolle spielen. Aber er ist in der bisherigen Erklärungsdebatte<br />
zu stark in den Vordergrund getreten. Die Diskussionen<br />
um eine angemessene Erklärungstheorie haben sich fast ausschließlich an<br />
einzelnen meist noch nicht einmal realistischen Beispielen orientiert. Da-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 374<br />
mit ließ man größere wissenschaftsphilosophische oder erkenntnistheoretische<br />
Zusammenhänge einfach außer Acht.<br />
Ein anderer Aspekt für eine moderne Erklärungstheorie, der in den<br />
letzten Jahren immer stärker in den Blick genommen wurde, ist der Zusammenhang<br />
von Erklärungen und Verstehen. Ein wesentliches Ziel wissenschaftlichen<br />
Erkenntnisstrebens ist es, Einblicke in die Welt und ihr<br />
Funktionieren zu geben, die es gestatten, unsere Umwelt zu verstehen.<br />
Das beinhaltet dann meist auch, daß wir sie beeinflussen oder sogar beherrschen<br />
können, wofür die technische Entwicklung unseres Jahrhunderts<br />
ein beredtes – wenn auch nicht immer wünschenswertes – Zeugnis<br />
ablegt.<br />
Da die Explikation von Erklärung im wissenschaftlichen Bereich ihren<br />
Schwerpunkt haben soll – denn hier finden sich die typischen und<br />
expliziten Exemplare von Erklärungen –, geht es mir in erster Linie um<br />
ein wissenschaftliches Verstehen von Vorgängen oder Tatsachen. Wissenschaftliche<br />
Erklärungen sollten also in der Lage sein, wissenschaftliches<br />
Verstehen zu befördern. Eine typische Frage könnte in diesem Zusammenhang<br />
etwa lauten: Ich verstehe nicht, warum in Lebewesen nur die<br />
sogenannten L-Aminosäuren zu finden sind und nicht die chemisch<br />
gleichwertigen D-Formen. Kannst Du mir das erklären? Oder: Warum<br />
laufen die Planeten auf Ellipsenbahnen um die Sonne? Das verstehe ich<br />
nicht. In all diesen Fällen versprechen wir uns von Erklärungsepisoden,<br />
daß sie das Verstehen eines wissenschaftlichen Sachverhalts zur Folge haben.<br />
Die Erklärungen, um die es dabei geht, sind typischerweise – aber<br />
nicht ausschließlich, wie wir noch sehen werden – Antworten auf Warum-Fragen.<br />
B. Wissenschaftliches Verstehen<br />
Was aber ist mit wissenschaftlichem Verstehen gemeint? Schon Hempel<br />
(1977, 148ff) untersuchte diese Frage und beschäftigte sich mit der oft<br />
dazu geäußerten Ansicht, daß eine Erklärung die Verwirrung des Fragestellers<br />
beseitigen soll, indem sie ein Phänomen, das er nicht versteht,<br />
auf uns Vertrautes zurückführt. 158 Diese Ansicht, die insbesondere von<br />
Bridgeman vertreten wurde, hat eine ganze Reihe von Beispielen auf ihrer<br />
Seite. Etwa die in der Physik häufig anzutreffenden Versuche, mechanische<br />
Modelle für physikalische Vorgänge zu finden. Das reicht von<br />
158 Siehe auch die entsprechende Diskussion bei Friedman (1988, 177ff).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 375<br />
Analogien zwischen Licht und Wasserwellen über Maxwells mechanische<br />
Modelle des Äthers und Bohrs Atommodell als einem kleinen Planetensystem<br />
bis hin in die Thermodynamik, die man durch einen Vergleich<br />
mit sich elastisch stoßenden Billiardbällen zu verstehen hofft. Gerade<br />
für den Bereich der wissenschaftlichen Erklärungen besitzt die Zurückführung<br />
auf Vertrautes aber auch mindestens genauso viele Gegenbeispiele.<br />
Viele Phänomene unseres Alltags vom Sonnenaufgang und hellen<br />
Strahlen der Sonne, über den Regenbogen, dem Wachsen der Pflanzen<br />
und Tiere bis hin zu dem Funktionieren unserer elektrischen Geräte<br />
sind uns sehr vertraut. Wir können aber deshalb noch nicht sagen, wir<br />
hätten sie auf einem wissenschaftlichen Niveau verstanden. Außerdem<br />
werden gerade diese relativ vertrauten Phänomene häufig durch uns viel<br />
unvertrautere Theorien erklärt, wobei insbesondere die Quantenmechanik<br />
an prominenter Stelle zu nennen ist, die in der heutigen Physik einen<br />
ausgezeichneten Platz einnimmt.<br />
Statt Zurückführung auf Vertrautes möchte ich daher eher kohärente<br />
Einbettung in unser Überzeugungssystem als charakteristisch für wissenschaftliches<br />
Verstehen vorschlagen. Die Zurückführung auf Vertrautes<br />
bestand in der Regel in dem Verbinden zweier Vorgänge, die vorher isoliert<br />
nebeneinander standen. Wir zeigen für Wellenvorgänge im Wasser<br />
und bei elektromagnetischen Phänomenen, daß sich viele Phänomene<br />
wie Interferenz oder Beugung in beiden Bereichen strukturell gleich verhalten.<br />
Das Entscheidende daran ist, daß wir sie unter eine gemeinsame<br />
Theorie der Wellenphänomene subsumieren. Hempel (1977, 162) nennt<br />
dazu das Beispiel von Gauß, der eine explizite Theorie der Potentialkräfte<br />
für Gravitations-, elektrische und magnetische Kräfte entwickelt<br />
hat. Diese Verknüpfung erhöht für die verschiedenen beteiligten Bereiche<br />
ihre Kohärenz in unserem Überzeugungssystem. Alle bekannten Eigenschaften<br />
solcher konservativen Kräfte, wie die Wegunabhängigkeit<br />
der Energiebilanz, können nun durch die abstraktere allgemeine Theorie<br />
konservativer Kräfte erklärt werden. Diese Erklärung auf recht abstraktem<br />
Niveau erhöht eindeutig die Anzahl der inferentiellen Zusammenhänge<br />
zwischen Überzeugungen, die zunächst unverbunden nebeneinander<br />
standen. Dabei kann eines der Phänomene vertrauter und damit bereits<br />
in unserem Meinungssystem besser verankert sein, so daß die epistemische<br />
Stützung stärker das andere betrifft, dessen kohärente Einbettung<br />
noch zu wünschen übrig läßt. Die Überlagerung von Wasserwellen<br />
ist uns wahrscheinlich so vertraut, daß wir für das Vorliegen und die Beschreibung<br />
dieses Phänomens durch ihren Zusammenhang zur Überlagerung<br />
elektromagnetischer Wellen keinen erkenntnistheoretischen Ge-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 376<br />
winn erwarten, während das für das Verständnis der elektromagnetischen<br />
Phänomene durchaus der Fall ist.<br />
Natürlich erfolgt eine Verstärkung der Einbindung in unsere Überzeugungssyteme<br />
aber auch in der anderen Richtung von den weniger<br />
vertrauten zu den vertrauteren Vorgängen. Insbesondere ist der Vertrautheitsgrad<br />
kein zuverlässiger Maßstab für die Kohärenz der Einbettung.<br />
Das Strahlen der Sonne ist uns zwar durch alltägliche Wahrnehmungen<br />
sehr vertraut, aber ein wissenschaftliches Verständnis erfordert daneben<br />
auch eine theoretische Einordnung, die in diesem Fall in einer kausalen<br />
Erklärung zu suchen ist. Die liefert uns erst die Quantenmechanik mit<br />
ihrer Beschreibung des „Wasserstoffbrennens“ der Sonne. Die Quantenmechanik<br />
ist uns zwar im Alltag nicht vertraut, aber sie ist nichtsdestoweniger<br />
erkenntnistheoretisch hervorragend in unser wissenschaftliches<br />
Wissen eingebettet und besitzt daher die Kraft, auch die wissenschaftliche<br />
Einbettung der Sonnenvorgänge wesentlich zu befördern. Die Beschreibung<br />
vom Verstehen als kohärenter Einbettung in unser Überzeugungssystem<br />
kann damit beide Klassen von Beispielen abdecken und unterstreicht<br />
noch einmal die Bedeutung des allgegenwärtigen Kohärenzgedankens.<br />
Außerdem paßt die Konzeption von kohärenter Einbettung als Verstehen<br />
auch gut zur Ansicht von Lambert (1988, 304ff), für den wissenschaftliches<br />
Verstehen einer Tatsache E darin besteht, zu zeigen, wie E in<br />
eine Theorie T hineinpaßt. Das Einbetten einer Tatsache in eine Theorie<br />
ist ein wesentlicher Spezialfall wissenschaftlichen Verstehens im Sinne<br />
der kohärenten Einbettung in unser ganzes Überzeugungssystem. In einigen<br />
Fällen, so z. B. beim Verstehen historischer Daten, können wir allerdings<br />
auch von Verstehen sprechen, ohne daß wir eine bestimmte Theorie<br />
zitiert hätten oder auch nur zitieren könnten, in die sich diese Daten<br />
einpassen ließen. Dabei stehen zwar oft allgemeine Modelle menschlichen<br />
Verhaltens im Hintergrund, die lassen sich aber wohl nicht in geradliniger<br />
Weise zu einer bewährten wissenschaftlichen Theorie ausbauen.<br />
Ein Argument von Hempel (1977, 149) gegen die Vorstellung, daß<br />
Erklärungen eine Zurückführung auf Vertrautes anzubieten hätten, soll<br />
noch erwähnt werden, weil es sich vielleicht auch gegen die Konzeption<br />
der kohärenten Einbettung wenden ließe. Hempel weist darauf hin, daß<br />
nach dieser Konzeption Erklärungen auf Personen zu relativieren sind,<br />
während wissenschaftliche Erklärungen sich für ihn als objektive Beziehungen<br />
darstellen. Dieser Einwand trifft meines Erachtens die angegriffene<br />
Position nicht wirklich. Welche Erklärungen uns offenstehen, hängt
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 377<br />
natürlich immer davon ab, über welche Theorien wir bereits verfügen,<br />
und ist daher auch in diesem harmlosen Sinn personenrelativ, weil verschiedene<br />
Personen zu verschiedenen Zeiten unterschiedliche Theorien<br />
akzeptieren. Doch damit werden Erklärungen selbst noch nicht eine personenrelative<br />
und subjektive Angelegenheit. Entsprechendes läßt sich etwa<br />
von den sicher objektiven logischen Schlüssen sagen. Welche ich tatsächlich<br />
ziehen kann, hängt von meiner Prämissenmenge ab und wie einfallsreich<br />
ich im Durchführen logischer Beweise bin. Davon bleibt unberührt,<br />
daß deduktive Zusammenhänge eine objektive Beziehung zwischen<br />
Aussagenmengen sind. Entsprechendes gilt auch für den objektiven<br />
Teil in Erklärungen, wie wir später sehen werden. Nur über welche<br />
wir verfügen, ist von der jeweiligen Person abhängig. Für wissenschaftliche<br />
Erklärungen tritt dieses Phänomen der Personenrelativität schon deshalb<br />
nicht so stark in Erscheinung wie für Alltagserklärungen, weil es einen<br />
großen Bereich wissenschaftlich akzeptierten Standardwissens gibt,<br />
so daß beträchtlich abweichende Meinungen und Erklärungen oft nicht<br />
mehr als wissenschaftlich zu betrachten sind. Durch diese gemeinsame<br />
Basis für Ansichten der Wissenschaftlergemeinschaft (auch auf der Ebene<br />
der wissenschaftlichen Methodologie) herrscht eine relativ große Einigkeit,<br />
was als wissenschaftliche Erklärung zu gelten hat und was nicht.<br />
Dieses Phänomen mag Hempel über den Punkt der Abhängigkeit vom<br />
jeweiligen Wissenstand hinwegtäuschen, aber er liegt natürlich auch hier<br />
vor. Zumindest für meine Einbettungskonzeption von Verstehen haben<br />
wir jedenfalls keinen Grund anzunehmen, daß die Personenrelativität<br />
über dieses harmlose Maß hinausgeht.<br />
C. Die klassische Erklärungskonzeption<br />
Ausgangspunkt nahezu aller heutigen Debatten um Erklärungen ist die<br />
klassische Konzeption wissenschaftlicher Erklärungen von Hempel und<br />
Oppenheim (1948): das deduktiv-nomologischen Modells (kurz: DN-<br />
Schema) von Erklärung. 159 Auch wenn hier die Idee zum erstenmal mit<br />
der gebotenen Klarheit ausgedrückt wurde, findet sie sich schon vorher<br />
bei Carnap oder auch bei Popper. Der Grundgedanke Hempels ist recht<br />
elementar: Eine Erklärung ist demnach ein Argument, das uns angibt,<br />
159 Der klassische Aufsatz von 1948 wurde in den Band „Aspekte wissenschaftlicher<br />
Erklärungen“ (1977) integriert, auf den ich mich im folgenden stützen<br />
werde.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 378<br />
warum ein zu erklärendes Ereignis zu erwarten war. Natürlich ist nicht<br />
jedes beliebige Argument schon eine wissenschaftliche Erklärung, weshalb<br />
dieser Gedanke weiter spezifiziert werden muß. Die erste zusätzliche<br />
Anforderung Hempels ist die nach einem Naturgesetz unter den Prämissen<br />
des Arguments, was geradezu dokumentieren soll, daß es sich um<br />
eine wissenschaftliche Erklärung handelt. Ein weiterer grundlegender<br />
Punkt ist die Forderung, der Schluß im Argument müsse ein deduktiver<br />
Schluß sein. Für alltägliche Argumentationen lassen sich nur schwer entsprechend<br />
präzise Standards für eine Beziehung zwischen Prämissen und<br />
Konklusion finden, aber für wissenschaftliche Erklärungen verlangt das<br />
DN-Schema den strengstmöglichen, nämlich den des logisch gültigen<br />
Schlusses. Wissenschaftliche Erklärungen eines Ereignisses sind folglich<br />
logische Subsumptionen unter Naturgesetze.<br />
Im allgemeinen reichen Naturgesetze allein natürlich nicht aus, um<br />
ein konkretes Ereignis abzuleiten, weil sie nur angeben, welche Weltverläufe<br />
möglich sind und nicht, welche tatsächlich realisiert werden. Hempels<br />
erstes Beispiel (1977, 5ff), das ein uns vertrautes Phänomen zum<br />
Gegenstand hat, soll diesen Aspekt von Erklärungen deutlich machen.<br />
Wenn ich ein Wasserglas aus dem heißen Seifenwasser herausnehme und<br />
umgekehrt auf den Tisch stelle, kommen unterhalb des Glasrandes Seifenblasen<br />
hervor, die zunächst größer werden und sich später wieder zurückziehen.<br />
Schon John Dewey hatte eine Erklärung für dieses Phänomen<br />
anzubieten: Die anfangs noch kalte Luft wird von dem warmen<br />
Glas erwärmt, dehnt sich aus und quillt unter dem Glasrand hervor, wodurch<br />
der zwischen Glas und Tisch befindliche Seifenfilm Blasen bildet.<br />
Später kühlen Glas und Luft darin ab, die Luft zieht sich zusammen und<br />
die Blasen schrumpfen wieder. Implizit bezieht man sich in dieser Erklärung<br />
auf Naturgesetze etwa über die Ausdehnung von Gasen bei Erwärmung<br />
und den Wärmeaustausch von Körpern mit unterschiedlicher<br />
Temperatur. Daneben werden aber genauso Angaben über die Startbedingungen<br />
des Vorgangs benötigt, wie die Ausgangstemperatur des Glases<br />
und der in ihr befindlichen Luft, sowie das Vorhandensein von Seifenwasser.<br />
Diese werden als Antezedenzbedingungen neben den Gesetzen<br />
stehen, um das Explanandumphänomen abzuleiten. Das DN-Schema erhält<br />
damit nach Hempel (1977, 6) die folgende Gestalt:<br />
DN-Schema der wissenschaftlichen Erklärung<br />
A1,…, An<br />
Explanans<br />
G1,…, Gk<br />
E Explanandum-Satz
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 379<br />
Hierbei stehen die Ai für singuläre Antezendenzsätze und die Gi für die<br />
verwendeten Gesetze. Neben den eher formalen Anforderungen an die<br />
Struktur von Erklärungen gibt Hempel noch zwei inhaltliche Adäquatheitsbedingungen<br />
an. Die Sätze des Explanans sollen empirischen Gehalt<br />
besitzen, denn es geht Hempel um naturwissenschaftliche Erklärungen<br />
empirischer Phänomene. Außerdem sollen die Sätze wahr sein. Dann<br />
spricht Hempel (1977, 7) von einer wahren Erklärung und anderenfalls<br />
von einer bloß potentiellen DN-Erklärung.<br />
Mir geht es im Unterschied zu Hempel natürlich in erster Linie um<br />
eine Explikation der potentiellen Erklärung, denn die (potentiellen) Erklärungen<br />
sollen im Rahmen dieser Arbeit erst als Indikatoren dienen,<br />
mit denen wir der Wahrheit auf die Schliche kommen wollen. Darunter<br />
fallen dann auch Wie-möglich-Erklärungen, die neben den Antworten<br />
auf Warum-Fragen einen Großteil der Erklärungen stellen. Auch Salmon<br />
(s. 1989, 137ff) und andere Wissenschaftstheoretiker glauben inzwischen<br />
nicht mehr, daß sich im Prinzip alle Erklärungen als Antworten<br />
auf Warum-Fragen darstellen lassen.<br />
Für eine große Zahl wissenschaftlicher Erklärungen konnten Hempel<br />
und seine Nachfolger zeigen, daß sie recht genau dem DN-Schema<br />
der Erklärung entsprechen. Trotzdem ergaben sich von Beginn an zahlreiche<br />
Schwierigkeiten für das Hempelsche Modell, von denen ich einige,<br />
die von Bedeutung für den Fortgang der Debatte um eine Explikation<br />
von „wissenschaftlicher Erklärung“ sind, nun besprechen möchte. 160<br />
1. Erste Probleme des DN-Schemas<br />
a) Das Problem der Gesetzesartigkeit<br />
Ein erstes und offensichtliches wissenschaftstheoretisches Problem des<br />
DN-Schemas ist es, genauer zu bestimmen, was unter einem Naturgesetz<br />
zu verstehen ist. Bekanntlich ist nicht jede Allaussage wie<br />
(*) Alle Münzen in der Tasche von Fritz sind aus Silber.<br />
schon ein Naturgesetz. Auf das Problem, Bedingungen für Gesetzesartigkeit<br />
zu formulieren, hat sich schon Hempel (1977) eingelassen, aber<br />
seine Hinweise (1977, 10), daß sie eine wesentlich generelle Form haben<br />
160 Eine ausführliche systematische Darstellung der verschiedenen Debatten<br />
zu diesem Thema findet sich in Stegmüller (1969) und eine Darstellung der verschiedenen<br />
historisch-systematischen Phasen der Erklärungsdebatte in Salmon<br />
(1989) mit einigen Ergänzungen durch Fetzer (1990).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 380<br />
sollen, nicht aus logischen Gründen auf eine endliche Menge beschränkt<br />
sein dürfen und ebensowenig auf spezielle Individuen (1977,12) bezug<br />
nehmen dürfen, reichen aus heutiger Kenntnis des Problemfeldes Gesetzesartigkeit<br />
für eine Lösung kaum aus. Da die Forderung nach einem<br />
Gesetz in den Explanansbedingungen jedoch eine der wenigen substantiellen<br />
Klauseln des DN-Schemas darstellt, ist ihre Explikation ein unerläßliches<br />
Erfordernis für die DN-Konzeption.<br />
Die akzidentelle Allausage (*) ist offensichtlich ungeeignet, zu erklären,<br />
warum bestimmte Münzen in der Tasche von Fritz aus Silber sind.<br />
Ein weiterer Hinweis auf ihre Unbrauchbarkeit findet sich in ihrer Unfähigkeit,<br />
Voraussagen oder irreale Konditionalsätze zu stützen, was gesetzesartigen<br />
Aussagen dagegen gelingt. So wird man auf der Grundlage<br />
von (*) kaum schließen dürfen, daß auch in Zukunft die Münzen in der<br />
Tasche von Fritz alle aus Silber sein werden oder sogar, daß eine bestimmte<br />
Münze, wäre sie in Fritz Tasche gewesen, auch aus Silber gewesen<br />
wäre. Entsprechende Schlüsse sind auf der Grundlage von Naturgesetzen<br />
dagegen typischerweise möglich. Das Newtonsche Gravitationsgesetz<br />
gestattet uns zu bestimmen, mit welcher Kraft ein Körper angezogen<br />
würde, würde man ihn im Schwerefeld der Erde deponieren. Leider<br />
erlaubt diese Eigenschaft von Gesetzen, irreale Konditionalaussagen zu<br />
bestätigen, ebenfalls keine einfache Charakterisierung von Gesetzesartigkeit,<br />
da irreale Konditionalsätze sich ihrerseits hartnäckig einer Analyse<br />
zumindest mit logisch unbedenklichen Mitteln widersetzen. Quine äußert<br />
sogar Zweifel, ob sie überhaupt wahrheitswertfähig sind, und weiß<br />
das mit einem simplen Beispiel zu untermauern. Welcher von den folgenden<br />
beiden Sätzen hätte denn eher Anspruch darauf, wahr zu sein?<br />
1) Wenn Bizet und Verdi Landsleute gewesen wären, dann wären sie<br />
Franzosen gewesen.<br />
2) Wenn Bizet und Verdi Landsleute gewesen wären, dann wären<br />
sie Italiener gewesen.<br />
Dabei scheint es sich nicht um eine Tatsachenfrage zu handeln, wodurch<br />
die irrealen Konditionalsätze weiter ins Zwielicht geraten. Auch andere<br />
Vorgehensweisen zur Bestimmung von Gesetzesartigkeit werden kontrovers<br />
diskutiert, zumal beispielsweise die schon erwähnten Goodmanschen<br />
Pseudogesetze alle syntaktischen Merkmale von echten Gesetzen<br />
haben und trotzdem intuitiv nicht als Naturgesetze gelten können. Ungeachtet<br />
aller Fortschritte in diesem Gebiet, denen ich an dieser Stelle<br />
nicht weiter nachgehen möchte, bleibt hier ein Bedenken gegen das DN-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 381<br />
Schema zurück, denn es gibt immer noch keine zufriedenstellende Lösung<br />
für das Problem der Gesetzesartigkeit.<br />
b) Sind Gesetze für Erklärungen notwendig?<br />
Hempel kann auf das Problem der Gesetzesartigkeit zumindest mit dem<br />
Hinweis reagieren, daß, wenn wir auch nicht über ein Kriterium für Gesetzesartigkeit<br />
verfügen, wir doch in konkreten Fällen meist entscheiden<br />
können, ob es sich um ein Gesetz handelt oder nur eine akzidentelle<br />
Verallgemeinerung. Das mag uns zunächst für eine Explikation von wissenschaftlichen<br />
Erklärungen genügen. Doch wie essentiell sind Naturgesetze<br />
wirklich für wissenschaftliche Erklärungen? Tatsächlich stoßen wir<br />
im Alltag und in der Wissenschaft auf eine ganze Reihe von Erklärungen,<br />
die auf den ersten Blick ohne Gesetze auszukommen scheinen.<br />
Hempel (1977,170ff) geht selbst auf derartige Fälle ein. Er untersucht<br />
etwa die Erklärung des Historikers Gottlob, wie es zur Sitte des Ablaßverkaufs<br />
kam. Zusammengefaßt stellt Gottlob diese Institution als eine<br />
Maßnahme der Päpste im Kampf gegen den Islam und knappe Kassen<br />
dar: Während den mohammedanischen Kriegern zugesagt war, daß sie<br />
nach einem Tod in der Schlacht in den Himmel gelangen würden, mußten<br />
die Kreuzritter ewige Verdammnis befürchten, wenn sie nicht regelmäßig<br />
Buße für ihre Sünden taten. Um sie hier zu entlasten, versprach<br />
Johannes VIII im Jahr 877 den Kreuzrittern für den Fall ihres Ablebens<br />
in der Schlacht die Absolution ihrer Sünden. Dieser Kreuzablaß wurde<br />
dann auch auf die ausgedehnt, die zwar nicht an den Kreuzzügen teilnehmen<br />
konnten, aber sie mit Geld unterstützten. Auch nach einem Abflauen<br />
der Kreuzzüge wollte die Kirche diese zusätzliche Möglichkeit<br />
der Geldschöpfung nicht aufgeben und da die Gläubigen ebenfalls sehr<br />
an der Sitte des käuflichen Sündenerlasses interessiert waren – war dieser<br />
Weg für viele doch erfreulicher, als die unangenehmen kirchlichen<br />
Bußstrafen auf sich zu nehmen, ganz zu schweigen vom drohenden Fegefeuer<br />
nach dem Tode –, kam es letztlich zu einer weiteren Verbreitung<br />
des Ablasses.<br />
i. Unvollständige Erklärungen<br />
Hempel (1977, 172) gesteht sehr wohl zu – und das ist auch offensichtlich<br />
–, daß diese Schilderung das Verständnis eines geschichtlichen Phänomens<br />
durchaus erweitern kann und eine Form von Erklärung dafür<br />
bietet, obwohl sie nicht dem DN-Schema genügt. Zunächst sind solche<br />
genetischen Erklärungen Schilderungen, wie in einer Abfolge von Zu-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 382<br />
ständen jeweils einer zum nächsten führt (was man auch für physikalische<br />
Prozesse kennt), aber es werden für die Übergänge keine Gesetze<br />
bemüht, sondern nur dargestellt, daß der Übergang verständlich und<br />
plausibel ist. Hempel gibt eine Reihe von Möglichkeiten an, wie derartige<br />
Beispiele mit seinem DN-Schema zu harmonisieren sein könnten. Die<br />
erste ist die der elliptischen Erklärung (Hempel 1977, 128). Man verzichtet<br />
in einigen Fällen darauf, explizit bestimmte Gesetze anzugeben,<br />
über die wir aber im Prinzip verfügen und die in der elliptischen Formulierung<br />
der Erklärung implizit mitgedacht werden. 161 Dieser Ausweg<br />
scheint uns jedoch in vielen Fällen, wie auch dem Hempelschen Beispiel,<br />
für eine genetische Erklärung nicht offen zu stehen, weil wir nicht über<br />
entsprechende historische Gesetze verfügen, um die wir die Einzelerklärungen<br />
der genetischen Erklärung so ergänzen könnten, daß jeweils deduktiv-nomologische<br />
Erklärungen entstünden.<br />
Die zweite Rückzugsmöglichkeit sucht Hempel (1977, 128ff) in der<br />
partiellen Erklärung. Zur Erläuterung dieses Konzepts gibt uns Hempel<br />
ein Beispiel für eine Erklärung Freuds aus seiner Psychopathologie des<br />
Alltagslebens, in der uns Freud schildert, wieso es seiner Theorie nach zu<br />
dem Fehler kam, daß er inmitten seiner geschäftlichen Aufzeichnungen<br />
mit Daten des Septembers eine mit dem Datum „Donnerstag, den 20.<br />
Oktober“ notiert hat. Freud schreibt dazu:<br />
Es ist nicht schwierig, diese Antizipation aufzuklären und zwar als<br />
Ausdruck eines Wunsches. Ich bin wenige Tage vorher frisch von<br />
der Ferienreise zurückgekehrt und fühle mich bereit für ausgiebige<br />
ärztliche Beschäftigung, aber die Anzahl der Patienten ist noch gering.<br />
Bei meiner Ankunft fand ich einen Brief von einer Kranken<br />
vor, die sich für den 20. Oktober ankündigte. Als ich die gleiche Tageszahl<br />
im September niederschrieb, kann ich wohl gedacht haben:<br />
Die X. sollte doch schon da sein; wie schade um den vollen Monat!<br />
und in diesem Gedanken rückte ich das Datum vor.<br />
Zunächst ist diese Erklärung elliptisch, weil kein Gesetz genannt wird,<br />
obwohl eine Art von Gesetz Freud dabei vorschwebt, das Hempel charakterisiert:<br />
Wenn jemand einen starken, vielleicht auch unterbewußten Wunsch<br />
hat und einen Schreib-, Sprech-, oder Erinnerungsfehler begeht,<br />
161 Ein typisches Beispiel dafür stellt Hempels erster Fall der quellenden<br />
Seifenblasen dar.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 383<br />
dann nimmt dieser Fehler eine Gestalt an, in der der Wunsch ausgedrückt<br />
und eventuell symbolisch erfüllt wird. (Hempel 1977, 129)<br />
Doch darüber hinaus kann das Gesetz nach Hempel nicht erklären, warum<br />
der Fehler zu einer bestimmten Zeit auftrat oder warum er gerade<br />
diese Gestalt annimmt und nicht eine der vielen anderen Möglichkeiten.<br />
Damit ist die Freudsche Erklärung nur partiell, denn sie erklärt eigentlich<br />
weniger als das konkrete Ereignis, zu dessen Erklärung Freud sich<br />
aufgemacht hatte. Da jede Erklärung eines bestimmten Ereignisses wohl<br />
nicht alle Aspekte dieses Ereignisses abzuleiten vermag, vertritt Hempel<br />
(1977, 136ff) die Ansicht, daß wir nicht für ein konkretes Ereignis in allen<br />
seinen Aspekten und Einzelheiten eine Erklärung verlangen dürfen,<br />
sondern nur für die Aspekte eines Ereignisses, die im Explanandum Satz<br />
beschrieben sind. Damit ist aber nicht gemeint, wogegen sich Hempel<br />
(1977, 139) explizit wendet, daß ein bestimmter Typ von Ereignis erklärt<br />
wird, sondern nur daß bestimmte Aspekte eines konkreten Einzelereignisses<br />
in einer wissenschaftlichen Erklärung erklärt werden.<br />
ii. Statistische Erklärungen<br />
Doch auch der Fall der partiellen Erklärung liegt für historische Erklärungen<br />
wie dem oben beschriebenen Beispiel nicht vor, denn es wurden<br />
keine impliziten wissenschaftlichen Gesetze mitgedacht, die zumindest<br />
bestimmte Aspekte der mittelalterlichen Ablaßpraxis deduktiv erklären,<br />
und auch im Fall der Freudschen Erklärung müßte man das Gesetz vermutlich<br />
vorsichtiger formulieren, was Hempel (1977, 173) schließlich<br />
zu seinem dritten und gewichtigsten Ausweg führt. Hempel spricht davon,<br />
wir hätten in diesen Fällen implizite statistische Gesetze, die uns die<br />
Erklärungen liefern, und ergänzt das DN-Schema für Erklärungen um<br />
die induktiv-statistischen Erklärungen (Hempel 1977, 60ff), die von ihrer<br />
Gestalt her dem DN-Schema sehr nahe kommen. Freud würde vermutlich<br />
nicht behaupten wollen, daß die unterbewußten Wünsche immer<br />
zu Fehlleistungen führen müssen, sondern nur, daß sie es häufig<br />
oder mit einer gewissen Wahrscheinlichkeit tun. Das IS-Schema erhält<br />
dann die Gestalt:<br />
Induktiv-Statistische Erklärung (IS-Schema)<br />
W(G/H) > p<br />
Ga<br />
Ha (mit Wahrscheinlichkeit > p)
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 384<br />
Dabei soll W(G/H) > p bedeuten, daß die Wahrscheinlichkeit für das<br />
Vorliegen von G bei Vorliegen von H größer als p ist und p sollte nach<br />
Hempel nahe bei 1 liegen. Der Schluß auf Ha mit Hilfe der Antezendenzbedingung<br />
Ga ist dann natürlich auch nur noch mit der Wahrscheinlichkeit<br />
p zu ziehen.<br />
Jedoch auch dieses dritte Ausweichmanöver ist nicht unproblematisch.<br />
Zunächst ist es strenggenommen schon eine wesentliche Aufweichung<br />
des DN-Schemas, weil man die Forderung nach logischer Gültigkeit<br />
für den Schluß aufgegeben hat. Aber darüber hinaus ist das IS-Schema<br />
für Erklärungen mit einer Reihe von Problemen behaftet, die ich nur<br />
skizzieren kann, da die statistischen Erklärungen hier nur am Rande behandelt<br />
werden sollen.<br />
Ein Problem, das Hempel selbst sehr lange beschäftigt hat und das<br />
auch heute noch virulent ist, ist das der Erklärungsmehrdeutigkeit von<br />
IS-Erklärungen. Danach ist das, was in einer solchen Erklärung erklärt<br />
werden kann, stark abhängig davon, auf welche Informationen man sich<br />
jeweils stützt. Hempel (1977, 76ff) erläutert sie an folgendem Beispiel.<br />
Beziehe ich mich darauf, daß die Streptokokkeninfektion von Herrn<br />
Müller mit Penicillin behandelt wird, kann ich seine Genesung dadurch<br />
probabilistisch erklären, daß ein sehr hoher Prozentsatz der Streptokokkenerkrankten<br />
durch Penicillin geheilt werden kann. Hat Herr Müller<br />
aber das Pech von einem penicillinresistenten Streptokokkenstamm<br />
heimgesucht zu werden, wo die Heilungschancen durch Penicillin minimal<br />
sind, wirft diese zusätzliche Information den bisherigen inferentiellen<br />
Zusammenhang über den Haufen. Das Explanans von IS-Erklärungen<br />
ist nicht stabil unter zusätzlichen Informationen und spricht für verschiedene<br />
Explananda, je nachdem wieviele Informationen wir jeweils<br />
berücksichtigen. Der einzige Ausweg aus diesem Problem, der in nicht<br />
willkürlicher Weise einen bestimmten Informationsstand vorschreibt,<br />
scheint Hempels Forderung (1977, 76ff) nach maximaler Spezifizierung<br />
im Explanans zu sein, wonach alle zur Verfügung stehenden Informationen<br />
zu berücksichtigen sind. Damit sind IS-Erklärungen allerdings immer<br />
in einer Form auf den jeweiligen Informationsstand zu relativieren,<br />
wie das für DN-Erklärungen nicht der Fall ist.<br />
Noch problematischer ist für das IS-Modell jedoch ein Aspekt auf<br />
den Salmon schon Anfang der 70er Jahre aufmerksam gemacht hat. Es<br />
wird zwar gefordert, daß die statistischen Gesetze hohe Wahrscheinlichkeiten<br />
für das Explanandum aussagen, aber nicht, daß sie die Wahrscheinlichkeit<br />
des Explanandums überhaupt erhöhen. So sind statistische<br />
„Erklärungen“ der folgenden Form durch das IS-Schema gedeckt:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 385<br />
(G) Menschen, die erkältet sind, erholen sich mit hoher<br />
Wahrscheinlichkeit innerhalb<br />
von 14 Tagen, wenn sie Vitamin C nehmen.<br />
(A) Franz war erkältet und nahm Vitamin C.<br />
(E) Franz erholte sich von seiner Erkältung in 14 Tagen.<br />
(s. Salmon 1984, 30)<br />
Dieses Beispiel hat zwar die Form einer IS-Erklärung, aber ob es sich dabei<br />
tatsächlich um eine Erklärung handelt, ist von Gegebenheiten abhängig,<br />
die überhaupt nicht angesprochen wurden, nämlich davon, ob die<br />
Gabe von Vitamin C tatsächlich Einfluß auf die Dauer der Erkältung<br />
hat. Sollte das nicht der Fall sein und fast jeder erholt sich mit hoher<br />
Wahrscheinlichkeit nach 14 Tagen von einer Erkältung, können wir in<br />
diesem Beispiel nicht von einer Erklärung der Genesung von Franz sprechen.<br />
Wir müßten zusätzlich fordern, daß die eingesetzte gesetzesartige<br />
Aussage für das Explanandum relevant ist, d.h. die Wahrscheinlichkeit<br />
des Explanandum-Ereignisses erhöht.<br />
Für Salmons Erklärungsmodell der statistischen Relevanz (SR-Modell)<br />
ist daher gerade diese Forderung die entscheidende, während die<br />
Hempelsche der hohen Wahrscheinlichkeit, die das IS-Schema der deduktiv-nomologischen<br />
Erklärung angleichen sollte, nach Salmon überflüssig<br />
wird. Das trifft auch bestimmte Teile unserer Erklärungspraxis<br />
besser als der Hempelsche Ansatz, denn typischerweise erklären wir einen<br />
Lungenkrebs z. B. durch das vorgängige Rauchverhalten des Erkrankten,<br />
selbst wenn die Erkrankung nicht mit 95%-iger Wahrscheinlichkeit,<br />
sondern nur mit relativ geringen Werten auftritt. Auf Einzelheiten<br />
des SR-Ansatzes von Salmon möchte ich hier nicht eingehen (s. dazu<br />
etwa Salmon 1984, 36ff oder 1989, 62ff), aber bemerkenswert ist ein<br />
Vergleich Salmons (s. dazu 1984, 45) zwischen IS-Konzeption und SR-<br />
Konzeption, in dem er noch einmal die grundlegenden Ideen der beiden<br />
Erklärungsstrategien zusammenfaßt:<br />
IS-model: an explanation is an argument that renders the explanandum<br />
highly probable.<br />
SR-model: an explanation is an assembly of facts statistically relevant<br />
to the explanandum, regardless of the degree of probability that<br />
results.<br />
Für die momentane Diskussion ist vor allem bedeutsam, daß das Salmonsche<br />
SR-Erklärungskonzept eine Verbesserung gegenüber dem Hempelschen<br />
Vorschlag der IS-Erklärung darstellt und dabei gerade ohne Gesetze<br />
auskommt und sich außerdem noch weiter von der Vorstellung ei-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 386<br />
ner Erklärung als Deduktion des Explanandums entfernt hat, als es<br />
schon für das IS-Schema der Fall ist. Damit ist der dritte Ausweg Hempels<br />
aus dem Vorwurf, daß sein DN-Modell der Erklärung viele tatsächliche<br />
Erklärungen nicht angemessen beschreibt, der auf statistische Erklärungen<br />
hinauslief, letztlich in einen Vorschlag für statistische Erklärungen<br />
gemündet, der auf keine Gesetze im Hempelschen Sinn mehr angewiesen<br />
ist. Auf die Ausgangsfrage, ob Gesetze für Erklärungen immer<br />
notwendig sind, müssen wir an dieser Stelle daher mit einem „Nein“<br />
antworten.<br />
Außerdem ist ebenfalls fraglich, wie weit das IS-Schema trägt, denn<br />
in vielen Fällen, wie den beiden obigen Beispielen aus der Geschichtswissenschaft<br />
und der Psychologie, aber auch z. B. in der Evolutionstheorie<br />
oder den Sozialwissenschaften verfügen wir nicht über statistische<br />
Gesetze, in denen wir Wahrscheinlichkeiten nennen oder auch nur begründet<br />
abschätzen könnten. Wie hoch ist denn bitte schön die Wahrscheinlichkeit,<br />
daß eine Organisation vom Typus der Kirche in Situationen<br />
des entsprechenden Typs so etwas wie den Ablaß von den direkt betroffenen<br />
auf weitere Bevölkerungskreise ausdehnt? Schon wenn man<br />
versucht eine gesetzesartige Aussage entsprechenden Inhalts zu formulieren,<br />
die sich nicht nur auf konkrete Individuen bzw. Institutionen zu einem<br />
historischen Zeitpunkt bezieht, gerät man in ernste Schwierigkeiten,<br />
die aber nicht kleiner werden, wenn man auch noch Wahrscheinlichkeiten<br />
für derartige Vorgänge abschätzen möchte. Es gibt nur wenige<br />
Anhaltspunkte, in diesen Fällen guter Hoffnung zu sein, daß wir noch zu<br />
entsprechenden statistischen Gesetzen kommen werden. Aber selbst<br />
wenn Schurz (1983, 128) mit seinem Optimismus Recht haben sollte,<br />
daß die methodologischen Besonderheiten der Geschichtswissenschaft es<br />
zwar erschweren, historische Gesetze zu gewinnen, das aber keineswegs<br />
prinzipiell unmöglich ist, und wir daher auch in diesem Zweig der Wissenschaften<br />
hoffen dürfen, Gesetze zu finden, mit denen sich DN-Erklärungen<br />
erstellen lassen, bleibt die offene Frage doch: Sind die angegebenen<br />
Erklärungen in den Geschichtswissenschaften, solange wir keine Gesetze<br />
angeben können, überhaupt keine Erklärungen oder nur nicht so<br />
gute Erklärungen wie wir sie mit historischen Gesetzen hätten? Da das<br />
DN-Schema inzwischen umstritten ist, kann es aufgrund seiner eigenen<br />
epistemischen Stellung kaum als guter Grund dafür dienen, die zweite<br />
Vermutung zurückzuweisen.<br />
Diese entspricht auch besser unserer Vorstellung von Erklärungen als<br />
gradueller Abstufungen fähig, nach der nicht alle Erklärungen gleich gut<br />
sind. Die Allgemeine Relativitätstheorie liefert bessere Erklärungen der
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 387<br />
Planetenbewegungen als die Newtonsche Theorie und die wiederum<br />
bessere Erklärungen als die Keplersche Theorie usw. Jeder kann sicher<br />
eine Reihe von Beispielen auch aus dem Alltag für bessere und schlechtere<br />
Erklärungen geben. Trotzdem liefern alle diese Theorien zumindest<br />
potentielle Erklärungen und zumindest die Newtonsche Theorie auch<br />
heute noch aktuelle Erklärungen, die für die meisten mechanischen Phänomene<br />
Geltung haben. Für solche Einschätzungen und Abstufungen<br />
gibt das DN-Schema freilich keine Anhaltspunkte, denn es kennt nur das<br />
Vorliegen von Gesetzen und das Bestehen einer deduktiven Beziehung<br />
zwischen Explanans und Explanandum oder das Nichtvorliegen.<br />
iii. Erklärungen in der Evolutionstheorie<br />
Auch Erklärungen im Bereich der Evolutionstheorie haben neben Erklärungen<br />
in der Geschichtswissenschaft oder der Psychologie häufig nicht<br />
die von Hempel verlangte DN-Struktur. Trotzdem scheinen sie brauchbare<br />
Erklärungen darzustellen, die z. B. erklären können, wie es zu der<br />
Entstehung von bestimmten Arten durch natürliche Auslese kam. Die Erklärungen,<br />
die die Theorie erbringen kann und die Erklärungszusammenhänge,<br />
in die sie eingebettet ist, sind dabei so vielfältig, daß<br />
ich nur auf einen sehr kleinen Teil davon hinweisen kann. Da sind die<br />
zahlreichen Erklärungen für die Entstehung bestimmter Organe als Anpassung<br />
an die speziellen Umweltgegebenheiten. Schon Darwins Werk<br />
Die Entstehung der Arten durch natürliche Zuchtwahl bietet eine Fülle<br />
von Beispielen dafür:<br />
Die Augen der Maulwürfe und einiger wühlender Nagetiere sind rudimentär,<br />
zuweilen ganz von Haut und Pelz bedeckt. Das rührt<br />
wahrscheinlich vom Nichtgebrauch her, der vielleicht von der natürlichen<br />
Zuchtwahl unterstützt worden ist. Ein südamerikanisches Nagetier,<br />
der Tukutuko oder Ctenomys, lebt noch ausschließlicher unter<br />
der Erde als der Maulwurf, und ein Spanier, der häufig solche<br />
Tiere fing, versicherte mir, daß sie häufig blind seien. Ein Tukutuko,<br />
den ich lebend erhielt, war es tatsächlich; wie sich bei der Sektion ergab,<br />
war eine Entzündung der Nickhaut die Ursache. Da häufige Augenentzündungen<br />
jedem Tier schädlich sein müssen und da ferner<br />
Tiere mit unterirdischer Lebensweise die Augen nicht brauchen, so<br />
wird deren verminderte Größe, das Verwachsen der Augenlider und<br />
das Überwachsen mit Pelz ihnen vorteilhaft sein; ist dies aber der<br />
Fall, so wird die natürliche Zuchtwahl die Wirkungen des Nichtgebrauchs<br />
unterstützen. (Darwin 1990, 159f)
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 388<br />
Auch die Abhängigkeit der Ausbreitung bestimmter Arten von Bedingungen<br />
ihrer Umwelt wird zwanglos durch Darwins Ansichten vom Überlebenskampf<br />
erklärt. Darwin (1990, 83ff) gibt etwa an, wie sich die Vegetation<br />
eines Heidegebietes von mehreren hundert Hektar in Staffordshire<br />
geändert hat, das sich von seiner Umgebung nur dadurch unterschied,<br />
daß es vor 25 Jahren eingezäunt wurde. Die angepflanzten schottischen<br />
Kiefern, konnten sich ausbreiten, während sie in den nichteingezäunten<br />
Heidegebieten nicht Fuß fassen können, weil ihre Sämlinge und kleinen<br />
Bäumchen sofort vom Vieh abgeweidet werden. In diesem Beispiel sind<br />
die kausalen Mechanismen, die hier am Werk waren, nahezu direkt beobachtbar,<br />
und es kann somit der Darwinschen Vorstellung von dem<br />
Einfluß des Konkurrenzkampfs auf die Verbreitung von Arten epistemische<br />
Unterstützung verleihen.<br />
In ähnlicher Weise kann Darwin eine Reihe von Aspekten der geographischen<br />
Verbreitung von Arten erklären, das Auftreten bestimmter<br />
Verhaltensweisen von Tieren, das Vorkommen von rudimentären Organen<br />
früherer Arten, morphologische Ähnlichkeiten, die Zusammenhänge<br />
der zahlreichen Fossilienfunde, das Aussterben von Arten und vieles<br />
mehr. Dazu sind inzwischen die zahlreichen Zusammenhänge zur Genetik<br />
und viele weitere z.T. singuläre Fakten bekanntgeworden, wie z. B.<br />
das Razematproblem, daß in Lebewesen nur die L-Aminosäuren und<br />
nicht auch die chemisch gleichen D-Formen vorkommen (s. Jeßberger<br />
1990, 78ff). Eine präzise Darstellung der Erklärungskraft der heutigen<br />
Evolutionstheorie könnte nur anhand einer ausführlicheren Rekonstruktion<br />
der Theorie vorgenommen werden, die ich in dieser Arbeit natürlich<br />
nicht leisten kann.<br />
Klar dürfte aber sein, daß wir trotz der offensichtlichen Erklärungsleistungen<br />
der Evolutionstheorie in keinem der genannten Beispiele über<br />
Gesetze verfügen, die eine wirkliche Deduktion (selbst keine statistische)<br />
der heute zu beobachtenden Arten und ihrer Eigenschaften gestatten.<br />
Das scheitert zunächst natürlich schon daran, daß wir die Ausgangssituationen<br />
nicht hinreichend genau kennen, was es in vielen Fällen nur erlaubt,<br />
wie-möglich-Erklärungen anzubieten. Sie sagen uns, wie es zu bestimmten<br />
Arten und Eigenschaften kommen konnte, wenn die und die<br />
vermuteten Bedingungen vorgelegen haben. Daneben haben die evolutionären<br />
Erklärungen aber auch nicht die Gestalt der Subsumption unter<br />
Gesetze und gehen auch bei exakter Kenntnis der Ausgangsbedingungen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 389<br />
nicht in DN-Erklärungen oder IS-Erklärungen über. 162 Welche der Erklärungen<br />
tatsächlich zutreffen, ist wegen der genannten epistemischen<br />
Schwierigkeiten nicht immer leicht zu ermitteln, aber Fazit der Diskussion<br />
bleibt doch, daß wir in vielen Bereichen Erklärungen akzeptieren, die<br />
keine Gesetze benutzen und damit nicht die Struktur des DN-Schemas<br />
besitzen, und es gibt keine metatheoretisch überzeugenden Gründe,<br />
diese von vornherein als nichterklärend zurückzuweisen. Von diesen Beispielerklärungen<br />
ohne Gesetzesprämisse sind vermutlich alle deduktivistischen<br />
Konzeptionen von Erklärung betroffen, denn ohne strikte Gesetze<br />
können wir nicht erwarten, die Explanandumereignisse logisch ableiten<br />
zu können. Auf diesen Punkt werde ich später wieder zurückgreifen,<br />
denn er ist ein Kritikpunkt auch an einigen moderneren Ansätzen in<br />
der Erklärungsdebatte.<br />
2. Asymmetrie und Irrelevanz<br />
Im Zusammenhang mit der IS-Erklärung hatten wir schon das Problem<br />
irrelevanter Bestandteile in Erklärungen kennengelernt. Doch das bleibt<br />
nicht auf statistische Erklärungen beschränkt, sondern findet sich ebenfalls<br />
für deterministische Erklärungen. Ein für diese Diskussion klassisches<br />
Beispiel, das auf Kyburg zurückgeht, ist das des verzauberten Tafelsalzes.<br />
Auf die Frage, warum sich ein bestimmtes Stück Salz in Wasser<br />
auflöst, scheint die Antwort, es sei eine verzauberte Probe Salz und verzaubertes<br />
Salz löse sich in Wasser auf, keine brauchbare Erklärung zu<br />
bieten. Auch die Erklärung eines Mannes, daß er nicht schwanger werde,<br />
weil er die Antibabypille nehme und Männer, die die Antibabypille<br />
nehmen, nicht schwanger werden, erscheint uns mehr als ein Irrweg<br />
denn eine Erklärung. Beispiele dieser Art lassen sich zahlreiche konstruieren,<br />
die sogar die Bedingungen des DN-Schemas erfüllen können, die<br />
aber offensichtlich trotzdem keine Erklärungen darstellen. 163 Das DN-<br />
Schema gibt uns für diese Fälle keine Anhaltspunkte, warum bestimmte<br />
Gesetze relevant erscheinen und andere nicht und kann die Pseudoerklärungen<br />
mit irrelevanter Gesetzesprämisse nicht abweisen. Es ist daher in<br />
diesem Punkt mindestens unvollständig.<br />
162 Einen interessanten Vorschlag, wie evolutionäre Erklärungen besser zu<br />
beschreiben sind, finden wir in Sober (1983), den ich in Abschnitt (C.2.a.1)<br />
schildere.<br />
163 Schurz (1983, 254ff) bietet eine Typisiserung derartiger Fälle mit Beispielen<br />
an.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 390<br />
Salmon (z. B. 1984, 89ff) geht noch weiter in seiner Kritik des DN-<br />
Schemas und stellt die Frage, wieso solche Irrelevanzen sich zwar für Erklärungen<br />
als desaströs erweisen, nicht aber für Argumentationen. Das<br />
ist für ihn ein klarer Hinweis, daß die ganze Hempelsche Konzeption,<br />
die Erklärungen als eine Form von Argumenten rekonstruiert, verfehlt<br />
sein muß. Dem möchte ich nicht weiter folgen, belegt es doch nur, was<br />
inzwischen klar geworden sein sollte, nämlich daß das DN-Modell bei<br />
weitem nicht ausreicht, um den Erklärungsbegriff angemessen zu explizieren.<br />
Ein anderes Phänomen, das Erklärungen aufweisen, ist das der<br />
Asymmetrien. Das inzwischen klassische Beispiel ist das vom Fahnenmast,<br />
dessen Höhe die Länge seines Schattens anhand einiger geometrischer<br />
Überlegungen erklären hilft, während umgekehrt zwar die Höhe<br />
des Mastes sich anhand derselben geometrischen Überlegungen und der<br />
Länge das Schattens berechnen läßt, wir aber in diesem Fall nicht von einer<br />
Erklärung für die Höhe des Mastes reden möchten. 164 Ähnliche Beispiele<br />
lassen sich natürlich auch im wissenschaftlichen Bereich finden, so<br />
läßt die von Hubble entdeckte Rotverschiebung der Spektrallinien zwar<br />
anhand der Theorie von Doppler einen Schluß auf eine Expansion des<br />
Weltalls zu, aber wir würden nicht behaupten, daß sie diese Expansion<br />
erklärt. Umgekehrt kann die Ausdehnung des Universums die zu beobachtende<br />
Rotverschiebung als Auswirkungen des optischen Dopplereffekts<br />
erklären. Kennzeichnend für alle Beispiele solcher Asymmetrien ist,<br />
daß – um es in der Terminologie des DN-Schemas auszudrücken – bestimmte<br />
Gesetze G zusammen mit einer Antezendensbedingung A ein<br />
Explanandum E erklären, während umgekehrt A zwar aus G und E herleitbar<br />
ist, aber wir diese Herleitung nicht als Erklärung betrachten würden.<br />
Doch Hempels DN-Schema gibt uns wiederum keine Anhaltspunkte,<br />
weshalb diese beiden Ableitungen in bezug auf ihre Erklärungskraft<br />
überhaupt zu unterscheiden sind, und kann daher dieses Phänomen<br />
nicht erklären.<br />
Die beiden genannten metatheoretischen Beobachtungen – das der<br />
Erklärungsirrelevanz bestimmter DN-Herleitungen wie auch das der Erklärungsasymmetrien<br />
– stellen Anomalien für Hempels Erklärungskonzeption<br />
dar, denen mit den Mitteln seines Ansatzes nicht wirklich zu be-<br />
164 Auch van Fraassens Versuch (1980, 132ff) dieses Phänomen anhand einer<br />
netten Geschichte als ein Problem des Kontextes auszuweisen, war nicht erfolgreich,<br />
weil die beiden Erklärungen, die er einander gegenüberstellte, nicht<br />
wirklich symmetrisch gebildet wurden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 391<br />
gegnen ist. Spätere Erklärungskonzeptionen können auch daran gemessen<br />
werden, ob sie zu diesen Problemen Lösungen anzubieten haben.<br />
3. Grade von Erklärungen<br />
In Hempels DN-Schema, aber auch in vielen späteren Ansätzen, gibt es<br />
eigentlich keinen Platz für eine graduelle Bewertung von Erklärungen.<br />
Einige Fälle geben uns aber eindeutig bessere Erklärungen als andere,<br />
die wir ihrerseits durchaus noch als Erklärungen akzeptieren würden.<br />
Das Spektrum reicht von naiven Alltagserklärungen über fortgeschrittene<br />
Alltagserklärungen bis hin zu hochentwickelten wissenschaftlichen<br />
Erklärungen. Im DN-Schema gibt es jedoch nur Platz für alles-odernichts<br />
Forderungen, so daß demnach etwas eine Erklärung ist oder<br />
nicht.<br />
Eine Mißachtung dieses Punkts der Abstufungen von Erklärungen<br />
hat auch wissenschaftstheoretische Konsequenzen. So nutzt van Fraassen<br />
(1980, 98ff) sie in einem Argument für seine (instrumentalistische) Position<br />
des konstruktiven Empirismus. Er verweist darauf, daß auch die<br />
Newtonsche Theorie uns die Bewegung einiger Planeten erklärt, obwohl<br />
wir inzwischen wissen, daß sie genaugenommen falsch ist. Die Redeweise<br />
von einer Erklärung durch die Newtonsche Theorie scheint mir<br />
zunächst tatsächlich unseren Vorstellungen von wissenschaftlichen Erklärung<br />
zu entsprechen. Nur die Konsequenz, die van Fraassen daraus<br />
zieht, ist fehlerhaft, denn für ihn zeigt dieses Beispiel allgemein, daß<br />
auch falsche Theorien erklären können. Eine angemessenere Beschreibung<br />
ist dagegen, daß die Newtonsche Theorie den Großteil der Planetenbewegungen<br />
erklärt, weil sie für diese Fälle approximativ zutreffende<br />
Modelle bereithält. 165 Ob man auch von einer Theorie über Klabautermänner,<br />
die man für gänzlich falsch hält, sagen kann, daß sie für uns<br />
heute das Auftreten bestimmter Erscheinungen auf Schiffen erklären<br />
kann, ist dagegen mehr als zweifelhaft. Die Newtonsche Theorie erklärt<br />
somit zwar eine Reihe von Planetenbewegungen, aber die Allgemeine<br />
Relativitätstheorie erklärt einige dieser Bewegungen nach heutiger Ansicht<br />
noch besser, schon weil sie kleinere Unschärfemengen benötigt als<br />
die Newtonsche Theorie. Die Abstufung von Erklärungsgüte entkräftet<br />
so van Fraassens Beispiel, denn etwas unvorsichtig ausgedrückt, ist die<br />
Newtonsche Theorie nicht falsch, sondern approximativ wahr und pro-<br />
165 Siehe dazu auch (VII.C.9), wo ich schon auf die wissenschaftsphilosophische<br />
Bedeutung der Berücksichtigung von Approximationen hingewiesen habe.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 392<br />
duziert daher auch entsprechend approximativ wahre Erklärungen mit<br />
etwas größeren Unschärfemengen als die Allgemeine Relativitätstheorie.<br />
Die Klabautermann Theorie bietet dagegen immer nur falsche Erklärungen,<br />
weil sie nicht einmal ein approximativ zutreffendes Bild der Welt<br />
zeichnet.<br />
Ein anderes Beispiel sind zweifellos die statistischen Erklärungen, bei<br />
denen es naheliegt, von unterschiedlich guten Erklärungen zu sprechen.<br />
Im IS-Modell kann das Explanandum verschieden stark durch das Explanans<br />
gestützt werden, und es scheint natürlich, entsprechend von unterschiedlichen<br />
Graden der Erklärung zu sprechen. Noch deutlicher<br />
wird das im SR-Konzept, wo die Bandbreite von Wahrscheinlichkeiten<br />
größer ist und auch sehr kleine Wahrscheinlichkeiten als erklärend zugelassen<br />
sind. Die Erklärungen, die uns für ein Ereignis weit höhere Wahrscheinlichkeitszuwächse<br />
anbieten können, sind dann auch als besser zu<br />
bezeichnen, als andere, die uns nur 10%-ige zusätzliche Wahrscheinlichkeiten<br />
geben. Vermutlich hat Sober (1987, 245) Recht, daß deterministische<br />
Erklärungen dabei weiterhin als das Ideal für Erklärungen gelten<br />
können und Erklärungen um so besser sind, je mehr sie sich diesem Ideal<br />
nähern. Eine adäquate Erklärungstheorie muß neben der Beschreibung<br />
des Ideals aber zumindest Raum für eine metatheoretische Beschreibung<br />
der graduellen Abstufungen von Erklärung lassen, was für<br />
das DN-Schema zunächst nicht der Fall ist.<br />
D. Neue Ansätze in der Erklärungstheorie<br />
Trotz der über 500 Aufsätze, die Salmon (1989) in seiner Bibliographie<br />
der Erklärungsdebatte zu nennen weiß, gibt es nur wenige systematisch<br />
neue Ansätze mit ausformulierten Erklärungstheorien. Einige der interessanteren<br />
und prominenteren Ansätze möchte ich nun besprechen. Eine<br />
wichtige Ergänzung des DN-Schemas sah schon Hempel in der Berücksichtigung<br />
von pragmatischen Aspekten.<br />
1. Zur Pragmatik von Erklärungen<br />
Mit Erklärungen verfolgt man im allgemeinen nicht nur theoretische<br />
Ziele des Erkenntnisgewinns, sondern auch praktische. Wir suchen z. B.<br />
nach Erklärungen für Unfälle oder Krankheiten, um diese in Zukunft<br />
vermeiden zu können. Spätestens an dieser Stelle sind pragmatische<br />
Aspekte, etwa Fragen danach, wofür ich mich jeweils interessiere, oder
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 393<br />
andere Aspekte des Kontexts der nach einer Erklärung verlangenden<br />
Warum-Frage bedeutsam für die Einschätzung, was für uns eine gute Erklärung<br />
darstellt und was nicht. Einige Wissenschaftsphilosophen sind<br />
sogar der Meinung, daß die pragmatischen Aspekte von Erklärungen immer<br />
von grundlegender Bedeutung für die Erklärungsgüte sind und sogar<br />
alle wesentlichen Probleme der Erklärungstheorie durch eine geeignet<br />
gewählte Pragmatik von Erklärungen erledigt werden können. Um<br />
einen Einstieg in diese Ansätze zur Erklärungsdebatte zu bekommen,<br />
möchte ich exemplarisch die recht einflußreiche Theorie von Bas van<br />
Fraassen diskutieren, die er unter anderem in The Scientific Image<br />
(1980, Kap. 5) präsentiert hat.<br />
Van Fraassen richtet sein Augenmerk zunächst auf die Warum-Fragen,<br />
mit denen wir um eine Erklärung nachsuchen. Sein Beispiel dazu<br />
ist:<br />
(1) Warum aß Adam den Apfel?<br />
So unschuldig dieser Warum-Fragesatz auch erscheint, so weist er doch<br />
eine wesentliche Mehrdeutigkeit auf, die durch unterschiedliche Betonungen<br />
zum Ausdruck gebracht werden kann.<br />
(1a) Warum aß Adam den Apfel?<br />
(1b) Warum aß Adam den Apfel?<br />
(1c) Warum aß Adam den Apfel?<br />
(1d) Warum aß Adam den Apfel?<br />
In (1a) fragt man etwa, warum gerade Adam und nicht jemand anderes<br />
den Apfel aß. In (1b) fragt man dagegen, warum Adam einen Apfel aß<br />
und nicht eine Birne oder etwas anderes, in (1c), warum er den Apfel gegessen<br />
hat und ihn nicht statt dessen weggeworfen oder zu Apfelmus<br />
verarbeitet hat und schließlich in (1d), warum er diesen Apfel und nicht<br />
einen anderen gegessen hat. Mit dem Fragesatz (1) können somit mindestens<br />
vier unterschiedliche Fragen gemeint sein, die zunächst auseinandergehalten<br />
werden müssen, denn auf jede der vier Fragen sind natürlich<br />
andere Antworten erforderlich. Um diese unterschiedlichen Betonungen<br />
und damit unterschiedliche Lesarten der Frage in einer Rekonstruktion<br />
deutlich machen zu können, führt van Fraassen die Kontrastklasse<br />
X von Antwortalternativen ein, unter denen jeweils nach einer<br />
Antwort gesucht wird. Erst sie charakterisieren die Frage hinreichend. In<br />
unserem Beispiel kann sich in Abhängigkeit vom jeweiligen Kontext der<br />
Frage z. B. folgendes ergeben:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 394<br />
(1a) X = {Adam, Eva}<br />
(1b) X = {Apfel, Birne, Kiwi, Butterbrot}<br />
(1c) X = {Essen, Wegwerfen, Einkochen, am Baum hängenlassen}<br />
(1d) X = {dieser Apfel, jener Apfel}<br />
Jede dieser verkürzt angegebenen Kontrastklassen 166 kann zusammen<br />
mit dem Thema der Frage (hier: Adam aß den Apfel) klären, welche Frage<br />
genau gemeint ist. Die Angabe einer Kontrastklasse spezifiziert die<br />
Frage dabei mehr als die Angabe der Betonung, denn z. B. der genaue<br />
Umfang von X wird durch die Betonung allein noch nicht festgelegt. Bei<br />
der Bestimmung der Frage können noch andere Aspekte des Kontextes<br />
eingehen, wie die Situation, in der die Frage gestellt wird.<br />
Eine Antwort auf die Frage (1a) könnte angesichts der angegebenen<br />
Kontrastklasse die folgende Gestalt annehmen:<br />
(A) Adam aß den Apfel und nicht Eva, weil Adam neugieriger<br />
war als Eva.<br />
Wenn wir das Thema (wie van Fraassen) mit T bezeichnen und die Kontrastklasse<br />
mit X = {P1,...,T,..}, so läßt sich eine Antwort allgemein charakterisieren<br />
durch:<br />
(*) T im Unterschied zu den Alternativen aus X, weil A.<br />
Man fragt nicht mehr direkt „Warum trat T ein?“, sondern stellt vielmehr<br />
eine kontrastierende Warum-Frage „Warum T und nicht...?“ Lipton<br />
(1991, 35ff) argumentiert sogar dafür, daß eigentlich alle Warum-<br />
Fragen von dieser Art sind. In unserer Antwort (*) gibt A den Grund an,<br />
warum gerade T und nicht eine der Alternativen aus der Kontrastklasse<br />
verwirklicht wurde. Was als Grund zu akzeptieren ist, ob z. B. in unserem<br />
Fall Adams Neugier überhaupt als Grund betrachtet werden kann<br />
oder nicht, ist für van Fraassen in einem weiteren kontextabhängigen<br />
Bestandteil der Frage zu sehen, der Relevanzbeziehung R. Sie besagt,<br />
wann das „weil“ in (*) zu Recht steht. Damit erhält man insgesamt (s.<br />
van Fraassen 1980, 143ff), daß die Frage Q = drei Komponenten<br />
aufweist, die zusammengenommen festlegen, um welche Frage es<br />
sich handelt. Dann gilt: A ist der Kern einer Antwort auf Q, wenn A in<br />
der Beziehung R zu steht.<br />
Mit dieser Analyse von Warum-Fragen, die van Fraassen schlicht mit<br />
einer Analyse von Erklärungen identifiziert, versucht er im wesentlichen<br />
166 Die Elemente von Kontrastklassen sind eigentlich vollständige Aussagen,<br />
aber diese werden hier immer durch Stichworte abgekürzt, die sich leicht zu<br />
ganzen Sätzen ergänzen lassen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 395<br />
zwei Probleme der Erklärungsproblematik zu behandeln. Das ist zum einen<br />
das Asymmetrieproblem und zum anderen das der Zurückweisungen<br />
von Fragen nach Erklärungen. Für das zweite weiß er eine relativ naheliegende<br />
Analyse anzubieten. Aus der Fragelogik wissen wir bereits, daß<br />
Fragen im allgemeinen neben ihrer fragenden Funktion auch bestimmte<br />
Behauptungen aufstellen. Das klassische Beispiel „Schlagen Sie immer<br />
noch ihre Frau?“ macht etwa die Präsupposition, daß dieses schändliche<br />
Verhalten zumindest früher schon des öfteren beim Gefragten vorgekommen<br />
sein muß. Warum-Fragen haben eine Reihe spezieller Präsuppositionen,<br />
die van Fraassen (1980, 144f) auflistet:<br />
(a) Das Thema ist wahr.<br />
(b) In der Kontrastklasse ist nur das Thema war.<br />
(c) Es gibt zumindest eine wahre Aussage A, die in der Beziehung R<br />
zu steht.<br />
Haben wir im Lichte unseres Hintergrundwissens Grund zu der Annahme,<br />
daß eine dieser Präsuppositionen nicht erfüllt ist, so stellt das auch<br />
einen guten Grund dar, die Forderung nach einer entsprechenden Erklärung<br />
zurückzuweisen. Hat Adam keinen Apfel gegessen, kann ich natürlich<br />
die Frage nicht beantworten, warum er es tat; haben sich sowohl<br />
Adam wie auch Eva als Obstfreunde erwiesen und einen Apfel verspeist,<br />
ist die Frage (1b), warum gerade Adam und nicht Eva den Apfel gegessen<br />
hat, unsinnig; und schließlich, wenn es schon aufgrund der Frage<br />
kein relevantes Faktum geben kann, daß unser Thema erklärt, ist der<br />
Anspruch, nun doch eine Antwort zu finden, nicht zumutbar. Die fragelogische<br />
Theorie der Präsuppositionen von Warum-Fragen kann also genauer<br />
klären, unter welchen Bedingungen wir eine Erklärungsforderung<br />
sinnvollerweise zurückweisen dürfen.<br />
Nicht so günstig steht es um van Fraassens Vorschlag zur Lösung des<br />
Asymmetrieproblems, das er mit Hilfe seiner Fabel „The Tower and the<br />
Shadow“ (van Fraassen 1980, 132ff) zu behandeln gedenkt. In dieser<br />
Ausschmückung des Flaggenmastbeispiels wollte er zeigen, daß, wenn<br />
die Höhe des Stabes zur Erklärung der Länge seines Schattens herangezogen<br />
werden kann, es ebenso Kontexte gibt, in denen dazu symmetrisch<br />
die Länge des Schattens die Höhe des Stabes erklärt. In seiner<br />
phantasievollen Fabel wird die Höhe eines Turmes dadurch erklärt, daß<br />
ihn jemand mit der Absicht gebaut hat, zu einer bestimmten Zeit einen<br />
Schatten an einen bestimmten Ort zu werfen, an dem ein Mord geschah.<br />
Doch damit wird die Symmetrie verletzt. Es ist nicht mehr dieselbe Geschichte<br />
von Lichtstrahlen und dem Satz von Euklid, die zur Erklärung
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 396<br />
der Schattenlänge herangezogen wurde, die nun umgekehrt zur Erklärung<br />
der Turmhöhe erzählt wird, sondern in van Fraassens Fabel ist es<br />
wesentlich die Intention des Erbauers, den Turm so zu erbauen, daß er<br />
an den Mord erinnert, die zum Explanans gehört, die in der ursprünglichen<br />
Erklärung nicht erforderlich war. Damit haben wir in diesem Beispiel<br />
keinen echten Fall von symmetrischen Erklärungen, sondern die<br />
Asymmetrie der Erklärung bleibt auch bei Änderung der pragmatischen<br />
Faktoren bestehen.<br />
Das faszinierende an van Fraassens Analyse ist die Reduktion der<br />
zahllosen Aspekte eines Kontextes, die darüber mitbestimmen können,<br />
welche Frage man mit der Äußerung eines Fragesatzes meint, auf nur<br />
drei Komponenten (Thema, Kontrastklasse, Relevanzrelation) für das<br />
Ergebnis der Interpretation. Mit diesem Instrumentarium möchte ich<br />
noch einmal die schon in (IV.E.2) gestellte Frage aufwerfen, ob Erklärungen<br />
wesentlich interessenrelativ sind. Williams (1991, 279ff) hatte<br />
das gerade unter Berufung auf die Fragetheorie der Erklärung behauptet<br />
und damit Konzeptionen von Kohärenz als Erklärungskohärenz zurückgewiesen,<br />
weil sie keine objektive Beziehung zwischen unseren einzelnen<br />
Meinungen und unserem Hintergrundwissen etablieren könnten. Betrachten<br />
wir noch einmal die beiden in (IV.E.2) diskutierten Beispiele<br />
von Williams. Zunächst den Pfarrer, der den Bankräuber fragt: „Warum<br />
raubst Du Banken aus?“ Auch diese Frage ist mehrdeutig. Der Pfarrer<br />
wird sie vermutlich mit einer Kontrastklasse gemeint haben, die ehrliche<br />
Formen des Gelderwerbs im Auge hat, wie z. B. X1 = {Banken ausrauben,<br />
ehrlicher Beruf, Sozialhilfe kassieren}. Der Bankräuber antwortet<br />
ihm: „Weil dort das meiste Geld zu holen ist.“ Diese Antwort ist gar<br />
keine Antwort auf die Frage des Pfarrers, sondern eine Antwort auf eine<br />
Frage etwa eines Kollegen mit der Kontrastklasse X2 = {Banken ausrauben,<br />
Supermärkte ausrauben, alte Damen überfallen}. Entsprechendes<br />
zeigt auch die Analyse der anderen Frage aus (IV.E.2), warum Williams<br />
um zwei Uhr in seinem Büro war. Auch diese Frage ist mehrdeutig, und<br />
wir müssen zunächst verstehen, wie sie gemeint ist, also ihre Kontrastklasse<br />
kennenlernen, wenn wir seine Frage beantworten wollen. Wird<br />
ihm diese Frage in den Ferien gestellt, könnte die lauten X1 = {Büro, zu<br />
Hause, Palm Beach}. Als Besonderheit nennt Williams für dieses Beispiel<br />
eine Antwort, die zwar dem DN-Schema genügt, aber trotzdem nach<br />
Williams auf keine Frage antworten können soll, nämlich: Er war einen<br />
kurzen Moment vor zwei Uhr in seinem Büro und niemand kann sich<br />
schneller als mit Lichtgeschwindigkeit bewegen, woraus folgt, daß er<br />
auch noch um zwei Uhr in seinem Büro sein mußte. Daß Williams keine
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 397<br />
Warum-Frage findet, auf die diese Deduktion antwortet, ist übrigens<br />
eher ein bedauerlicher Mangel an Phantasie, als ein zwingender Einwand<br />
gegen Hempels Erklärungstheorie. Denken wir z. B. an einen kleinen<br />
Fan der Serie Raumschiff Enterprise, der glaubt, Williams könne sich<br />
jederzeit aus seinem Büro „wegbeamen“ und kurz vor zwei wäre in seinem<br />
Büro eine Gefahr aufgetreten, die es jedem hätte ratsam erscheinen<br />
lassen, von dieser Fähigkeit Gebrauch zu machen. Das Kind fragt Williams<br />
also, warum er sich nicht kurz vor zwei Uhr schnellstens aus dem<br />
Büro „gebeamt“ hat, wenn es ihn fragt, warum er um zwei Uhr noch in<br />
seinem Büro war (X´={Büro,weggebeamt}). Der Hinweis, daß sich aber<br />
tatsächlich niemand schneller als mit Lichtgeschwindigkeit bewegen<br />
kann, so etwas wie „beamen“ also nur in schlechten Science Fiction Serien<br />
möglich ist, bietet dann eine geeignete Erklärung. 167<br />
Doch zurück zur Frage der Interessenrelativität von Erklärungen.<br />
Zeigen die Beispiele, daß es von unseren Interessen abhängt, was eine<br />
gute Erklärung ist? Betrachten wir dazu noch ein krasseres Beispiel. Auf<br />
meine Frage, warum wir eine Rotverschiebung beobachten können, erklärt<br />
mir jemand, warum es zur Februarrevolution von 1917 in der Sowjetunion<br />
gekommen ist. Selbst wenn seine Erläuterungen nun deduktiv-nomologische<br />
Struktur hätten, würde ich diese als Erklärung auf<br />
meine Frage zurückweisen. Danach hatte ich nun einmal nicht gefragt.<br />
Wieso sollte das aber zeigen, daß Erklärungen interessenrelativ sind?<br />
Seine Erklärung kann für andere Fragen eine brauchbare Erklärung bieten.<br />
Sie verweist eventuell auf andere objektive und an anderer Stelle unseres<br />
Meinungssystems bedeutsame Zusammenhänge, die nur im Moment<br />
nicht zur Debatte stehen. Das macht Erklärungen nicht mehr interessenrelativ<br />
als mathematische Beweise. Wenn ich nach einem Beweis<br />
des Fermatschen Satzes frage und man präsentiert mir einen Beweis für<br />
den Satz von Stokes, weise ich diese Antwort auch zurück, 168 aber niemand<br />
käme deshalb auf die Idee, was ein guter mathematischer Beweis<br />
sei, sei pragmatisch zu relativieren. Genauso sieht meine jetzige Analyse<br />
der Beispiele von Williams aus. Hier werden bestimmte Erklärungen<br />
nicht deshalb zurückgewiesen, weil unsere Interessen gerade so sind, daß<br />
diese Erklärungen in diesem Fall uns schlecht erscheinen, sie aber in anderen<br />
Kontexten gut wären, sondern weil sie auf eine ganz andere Fra-<br />
167 Das Beispiel belegt wiederum, daß die meisten Warum-Fragen kontrastierende<br />
Fragen sind.<br />
168 Wenn man mir einen Beweis präsentiert, der keinen interessanten Satz<br />
beweist, sondern nur eine beliebige mathematische Aussage, rüttelt das natürlich<br />
auch nicht an der Ansicht, daß Deduktionen gute Beweise sind.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 398<br />
ge, mit einer völlig anderen Kontrastklasse, antworten. Auf die tatsächlich<br />
gestellte Frage sind die genannten Antworten jedoch immer<br />
schlecht. Nur wenn durch den Kontext geklärt wird, daß es sich um eine<br />
ganz andere Frage handelt, kommen sie als gute Antworten in Frage.<br />
Was überhaupt auf meine Warum-Frage eine Erklärung ist, hängt also<br />
ganz sicher davon ab, wonach ich frage, und das kann sehr wohl von<br />
meinen Interessen abhängen, aber welche Antwort auf eine ganz bestimmte<br />
Frage gut ist, wird dadurch noch nicht interessenrelativ. Es erschien<br />
uns nur auf den ersten Blick so, daß die Antwort des Bankräubers<br />
auf die Frage des Pfarrers zwar eine Antwort auf seine Frage, aber deshalb<br />
keine gute Erklärung sei, weil der Pfarrer andere Interessen verfolgte.<br />
Die Analyse der Frage mit fragelogischen Mitteln, die die Kontrastklasse<br />
als identifizierenden Bestandteil von Warum-Fragen ausweist,<br />
offenbart jedoch, daß der Bankräuber mit seiner Antwort überhaupt<br />
nicht auf die gestellte Frage antwortet, sondern im Gegenteil so tut, als<br />
ob er sie nicht richtig verstanden hätte. Er unterstellt dem Pfarrer die<br />
unlauteren Interessen eines Berufskollegen. So war es nur die mögliche<br />
Mehrdeutigkeit des Fragesatzes „Warum hast du eine Bank ausgeraubt?“,<br />
die uns dazu verführte, an eine Interessenabhängigkeit der Güte von Erklärungen<br />
zu glauben. 169<br />
Mit dieser Erörterung der Interessenrelativität von Erklärungen können<br />
wir auch auf die Frage antworten, ob „Erklärung“ ein wesentlich<br />
pragmatischer Begriff ist. Die Antwort lautet, das hängt davon ab, was<br />
wir unter „pragmatisch“ verstehen wollen. Friedman (1988, 174ff) unterscheidet<br />
zwei Bedeutungen von „pragmatisch“. Erstens kann damit<br />
gemeint sein, daß der Begriff etwas mit den jeweiligen Meinungen einer<br />
Person zu tun hat und davon abhängt. Das trifft für Erklärungen weitgehend<br />
in dem Sinn zu, daß jede Erklärung und auch jede logische Ableitung<br />
von dem jeweiligen Wissensstand eines epistemischen Subjekts abhängig<br />
sind, denn der bestimmt, über welche Prämissen für logische<br />
Schlüsse bzw. erklärende Theorien wir verfügen. In diesem Sinn verstanden<br />
ist „pragmatisch zu sein“ relativ unproblematisch für Erklärungen.<br />
Es offenbart sich damit nur eine Abhängigkeit von unseren Meinungen,<br />
wie wir sie auch für logische Schlüsse kennen. Wann eine Erklärung vorliegt,<br />
unterliegt aber weiterhin einer objektiven Beurteilung, weil die Beziehung<br />
der logischen Ableitung oder Erklärungsbeziehung davon nicht<br />
169 Für van Fraassen ist auch die Relevanzbeziehung R, die darüber entscheidet,<br />
was gute Antworten auf meine Frage sind, eine kontextabhängige Größe.<br />
Doch das geben die bisherigen Beispiele nicht her. Daß wir van Fraassen<br />
hierin nicht mehr folgen sollten, zeigen entsprechende Beispiele weiter unten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 399<br />
betroffen ist, sondern nur die Frage, über welche Erklärung oder Ableitung<br />
ein epistemisches Subjekt verfügt. Die Konzepte der logischen Ableitung<br />
und der Erklärung sind in diesem Fall für verschiedene Personen<br />
dieselben. Zweitens ist mit „Interessenrelativität“ aber wohl häufig gemeint,<br />
daß der Erklärungsbegriff selbst „launenhaft“ von Person zu Person<br />
variiert, je nach dessen Geschmack oder momentanen Interessen. In<br />
diesem zweiten Sinn würde „Erklärung“ ein subjektiver Begriff, für den<br />
es keine objektive Bewertung mehr gibt, sondern nur noch die subjektiven<br />
Einschätzungen verschiedener Personen. Wie Friedman richtet sich<br />
meine Kritik nur gegen den zweiten Sinn von „pragmatisch“ und ich<br />
versuche eine objektive Erklärungstheorie zu konzipieren, die gleichwohl<br />
im ersten Sinn pragmatisch genannt werden kann.<br />
Die Frage nach einer Bewertung von Erklärungen ist wohl die größte<br />
Schwachstelle der van Fraassenschen Erklärungstheorie. Sie wurde in<br />
der bisher ausgeführten Theorie noch nicht erhellt. Es wurde einfach<br />
nur verlangt, daß es eine Relevanzbeziehung R gibt, die den Antwortkern<br />
A als relevant für ausweist. Der objektive Aspekt einer Erklärungstheorie<br />
ist aber genau in den Bedingungen zu suchen, die R zu<br />
erfüllen hat. Doch was hat van Fraassen dafür anzubieten? Van Fraassen<br />
(1980, 146ff) nennt einige Bedingungen, wie daß:<br />
1. A wahrscheinlich wahr sein sollte<br />
2. A gerade das Thema T gegenüber seinen Konkurrenten in der<br />
Kontrastklasse favorisieren muß<br />
3. A anderen Weil-Antworten überlegen sein muß. 170<br />
Van Fraassens Bedingungen lassen sich auf sehr unterschiedliche Weise<br />
präzisieren, aber ich möchte wenigstens einen ersten wahrscheinlichkeitstheoretischen<br />
Vorschlag unterbreiten, dessen subjektive Lesart van<br />
Fraassen im Sinn haben könnte. Die erste Bedingung besagt schlicht, daß<br />
die Wahrscheinlichkeit von A groß sein sollte:<br />
1’) p(A) 1- mit sehr klein<br />
Die zweite Bedingung ist etwas schwieriger zu explizieren, weil „favorisieren“<br />
unterschiedlich gedeutet werden kann. Eine möglichst einfache<br />
Variante erhalten wir durch:<br />
2’) Für van Fraassen steht die Umverteilung von Wahrscheinlichkeiten<br />
im Vordergrund. Dazu müssen wir die Wahrscheinlichkeits-<br />
170 Van Fraassen spezifiziert insbesondere die dritte Bedingung weiter, aber<br />
auch diese Klärungen der Bedingungen können die Schwächen seiner Erklärungstheorie<br />
nicht beheben.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 400<br />
differenzen vorher und hinterher betrachten und die von T muß<br />
gegenüber den Konkurrenten in der Kontrastklasse X =<br />
{T,B1,..,Bn} angehoben worden sein, d.h. für alle i sollte die Ungleichung<br />
gelten:<br />
p(T)-p(Bi) p(T,A)-p(Bi,A) und für mindestens ein i sollte eine<br />
echte Ungleichung gelten.<br />
Um die dritte Bedingung zu präzisieren, könnten wir den Unterschied<br />
der Differenzen als Maß MA für die Erhöhung der Erklärung durch A<br />
bezeichnen:<br />
Damit läßt sich dann der Vergleich zu alternativen Erklärungen präzisieren:<br />
3’) MA ist größer als MA’ für alle alternativen Erklärungen A’, die<br />
ebenfalls die Bedingungen (1’) und (2’) erfüllen. 171<br />
Damit van Fraassens Theorie plausibel bleibt, müssen wir uns ganz auf<br />
die kontrastierenden Erklärungen beschränken, denn die Konzeption erlaubt<br />
auch, daß A ein Thema T erklärt, indem A die Wahrscheinlichkeit<br />
von T senkt. Haben wir etwa einen Patienten mit Röteln und fragen,<br />
warum er die bekommen hat, so ist es bestimmt keine gute Antwort zu<br />
sagen: „Er bekam Kranckofit und das verringert zwar die Wahrscheinlichkeit<br />
für Röteln, aber macht etwa Masern noch viel unwahrscheinlicher.“<br />
Erst wenn jemand fragt: „Warum bekam er Röteln (was doch<br />
recht unwahrscheinlich ist) und nicht Masern (wie alle anderen in seiner<br />
Klasse)?“, wird die Antwort wieder plausibel. Relativ zur Ausgangswahrscheinlichkeit<br />
(bei der er wahrscheinlich auch Masern bekommen hätte)<br />
wurde die Wahrscheinlichkeit für Röteln gegenüber der von Masern<br />
durch Kranckofit sehr erhöht. 172 Das scheint als Antwort auf die kontrastierende<br />
Warum-Frage und entsprechende Erklärung zunächst<br />
brauchbar.<br />
Diese Vorgehensweise – eine Explikation mit Hilfe subjektiver bedingter<br />
Wahrscheinlichkeiten zu geben, erinnert an Erklärungskonzeptionen<br />
aus der epistemischen Logik wie z. B. die von Gärdenfors (1988).<br />
Sie hat aber auch in der subjektivistischen Lesart der Wahrscheinlichkei-<br />
171 Eine weitergehende Analyse anhand von Beispielen zeigt leider schnell,<br />
daß wir die Bedingungen noch koplexer gestalten müssen, wenn wir eine vertretbare<br />
Konzeption erhalten wollen.<br />
172 Das Beispiel stammt von Gerrit Imsieke.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 401<br />
ten mit denselben Schwierigkeiten zu kämpfen wie diese Ansätze. Wenn<br />
wir – und das ist ein Normalfall für Erklärungen – bereits wissen, daß T<br />
und A vorliegen, d.h. alle unsere Wahrscheinlichkeitseinschätzungen bereits<br />
unter der Annahme T und A erfolgen, wie groß ist dann p(T) oder<br />
p(Bi) vor der Annahme von T und A? Hier werden gewagte kontrafaktische<br />
Konstruktionen nötig, bei denen wir unser Wissen etwa um A kontrahieren<br />
sollen, also die „kleinste Änderung“ unseres Meinungssystems<br />
suchen, bei der wir A nicht annehmen, oder Ähnliches. Außerdem bleibt<br />
natürlich die spannende Frage offen, welche Bedingungen wir an die<br />
Wahrscheinlichkeiten richten können, um sicherzustellen, daß sie nicht<br />
willkürlich und unwissenschaftlich sind. Von einer tatsächlichen und<br />
nicht nur vermuteten Erklärung würden wir etwa verlangen, daß Kranckofit<br />
die Umverteilung der Wahrscheinlichkeiten in einem objektiven<br />
Sinn bewirkt, wir uns also auf objektive Wahrscheinlichkeiten in unseren<br />
Bedingungen beziehen. Wie wenig diese Bedingungen leisten, wenn wir<br />
keine objektiven Anforderungen an R richten, zeigen die folgenden Beispiele<br />
von Kitcher und Salmon (1987).<br />
Sie betrachten die Frage, warum John F. Kennedy am 22.11.1963<br />
starb, und verstehen die Frage Q = wie folgt:<br />
T = JFK starb am 22.11.63<br />
X = {am 1.1.63, am 2.1.63, ..., 31.12.63, er überlebte 1963}<br />
R = astrale Einflüsse<br />
Jemand, der an eine astrologische Theorie glaubt, nach der die Konfiguration<br />
der Planeten und Sterne zum 22.11.63 zur Ermordung Kennedys<br />
an diesem Datum führt, erfüllt dann mit seiner Antwort die van Fraassenschen<br />
Bedingungen:<br />
JFK starb am 22.11.63, weil die Konfiguration der Sterne und Planeten<br />
so und so ist.<br />
Nehmen wir an, wir wüßten den Kern A der Antwort, nämlich die Konfiguration<br />
der Sterne und Planeten mit beliebiger Genauigkeit und Gewißheit,<br />
so ist A beliebig wahrscheinlich vor unserem Hintergrundwissen.<br />
173 Damit ist van Fraassens erste Anforderung vollends erfüllt. Für<br />
die zweite Bedingung für gute Erklärungen muß der Erklärende über<br />
eine astrologische Theorie verfügen, die den entsprechenden Zusammenhang<br />
behauptet. Nehmen wir an, daß JFKs Todestag sogar deduktiv<br />
173 Zur Erläuterung von „wahrscheinlich vor unserem Hintergrundwissen“<br />
muß van Fraassen allerdings schon auf andere Induktionsschlüsse als die Abduktion<br />
setzen, denn sonst gerät er in einen Zirkel.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 402<br />
aus dieser Theorie folgt und auch die dritte Bedingung erfüllt ist. Damit<br />
ist die angegebene Antwort für van Fraassen unwiderruflich eine Erklärung.<br />
Andererseits denken wir, in solchen Fällen eine falsche Erklärung,<br />
ja sogar eine Pseudoerklärung vor uns zu haben, und eine Erklärungstheorie,<br />
die wir zur Wahrheitsfindung einsetzen möchten, sollte in der<br />
Lage sein, objektive Anhaltspunkte zur Überprüfung der Erklärung und<br />
der erklärenden Theorie anzubieten. In der rein pragmatischen Erklärungstheorie<br />
kommen dagegen keine Ansatzpunkte mehr vor, die zwischen<br />
tatsächlichen Erklärungen und Pseudoerklärungen zu differenzieren<br />
helfen. Wir dürften in diesem Fall nicht sagen, der Astrologiegläubige<br />
glaubte nur, eine Erklärung für die Ermordung von JFK zu besitzen,<br />
hat aber in Wirklichkeit keine, sondern wir müßten sagen: Er hat tatsächlich<br />
eine (sogar ziemlich ideale) Erklärung von JFKs Ermordung gegeben,<br />
auch wenn wir sie nicht akzeptieren können. Kitcher und Salmon<br />
konnten sogar zeigen, daß jede wahre Aussage A in der rein pragmatischen<br />
Erklärungskonzeption von van Fraassen wesentlicher Bestandteil<br />
jedes Themas T mit beliebiger Kontrastklasse sein kann. Um plausibel zu<br />
bleiben, müßte van Fraassen nach ihrer Meinung ergänzend eigentlich<br />
eine Bedingung der Art:<br />
(*) R ist eine objektive Relevanzbeziehung<br />
aufnehmen. Um diese Forderung explizieren zu können, stoßen wir aber<br />
(s. Salmon 1989, 143ff) auf all die aus der Erklärungsdebatte altbekannten<br />
Probleme, so daß wir in diesem Punkt eigentlich noch keinen wesentlichen<br />
Fortschritt erzielt haben.<br />
Das intuitive Problem des Ansatzes von van Fraassen ist, daß es sich<br />
auch in den metatheoretischen Beurteilungen ausschließlich auf die<br />
Überzeugungen des betrachteten epistemischen Subjekts stützt. Was eine<br />
gute Antwort auf die Warum-Frage darstellt wird nur nach dessen Ansichten<br />
beurteilt, und van Fraassen läßt keinen Raum für metatheoretische<br />
Hinweise darauf, was eine Erklärung objektiv als solche auszeichnen<br />
kann. Im DN-Schema gibt Hempel dem Erklärenden zumindest einige<br />
Hinweise, mit deren Überprüfung er feststellen soll, ob es sich um<br />
eine echte Erklärung handelt, nämlich die Forderung nach dem wesentlichen<br />
Einsatz eines Naturgesetzes und die Forderung nach einem deduktiven<br />
Zusammenhang zwischen Explanans und Explanandum. Es ist daher<br />
auch kein Wunder, daß van Fraassen seine Erklärungstheorie als einen<br />
wichtigen Bestandteil seiner instrumentalistischen Sichtweise der<br />
Wissenschaften entwickelt hat, denn nur vor einem antirealistischen<br />
Hintergrund kann sie als die ganze Geschichte, die es zu Erklärungen zu
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 403<br />
erzählen gibt, Plausibilität beanspruchen. Eine ähnliche Kritik wie gegen<br />
van Fraassens Erklärungstheorie läßt sich auch gegen andere erotetische<br />
Ansätze wie den von Achinstein (1983) richten, denn auch bei ihm<br />
bleibt die Beziehung zwischen Explanans und Explanandum unterbestimmt,<br />
was etwa Salmon (1989, 146ff) ausführt.<br />
Viele Aspekte des Kontextes einer Warum-Frage bestimmen, wonach<br />
wir genau fragen und welcher Typ von Antwort uns gerade interessiert.<br />
Das gilt insbesondere, wenn ich aus praktischen Motiven um eine Erklärung<br />
bitte. Der Pfarrer fragt deshalb den Bankräuber nach seinen Motiven,<br />
weil er seelsorgerisch auf ihn einwirken möchte. Das ist sicher eine<br />
richtige Beobachtung und sollte auch weiter in die Erklärungsdebatte<br />
eingebracht werden, aber damit ist noch nicht belegt, daß die Güte von<br />
Erklärungen nicht darüber hinaus einen harten Kern besitzt, der einer<br />
objektiven Beurteilung zugänglich ist – insbesondere im Falle der wissenschaftlichen<br />
Erklärungen –, und dessen Erforschung möchte ich mich<br />
widmen. Das dabei bestimmende Interesse ist ein theoretisches Interesse<br />
daran, einen bestimmten Vorgang oder Zusammenhang besser zu verstehen.<br />
Gegen die Annahme von van Fraassen, daß über die Pragmatik hinaus<br />
nichts zu entdecken ist, was Erklärungen zu solchen macht, versuche<br />
ich eine Konzeption von objektiver Erklärungskraft zu setzen. Pragmatische<br />
Theorien der Erklärung bieten sicher eine sinnvolle Ergänzung dazu,<br />
aber sie können sie nicht völlig ersetzen.<br />
2. Kausale Erklärungen<br />
Ein wichtiges Desiderat, das ich aus der Debatte um pragmatische Erklärungstheorien<br />
mitgenommen habe, ist also die Suche nach einer Explikation<br />
einer objektiven Relevanzbeziehung zwischen Explanandum und Explanans.<br />
Zwei prominente Ansätze der Erklärungsdebatte, die sich demselben<br />
Ziel verschrieben haben, sollen in diesem und dem nächsten Kapitel<br />
weiterverfolgt werden. Der eine besagt, daß Erklärungen die Ursachen<br />
eines Ereignisses aufzudecken haben und aufzeigen sollten, wie dieses<br />
in die kausale Struktur unserer Welt einzubetten ist. Der andere stellt<br />
mehr die vereinheitlichende und systematisierende Funktion von wissenschaftlichen<br />
Erklärungen in den Vordergrund. Wissenschaftliche Erklärungen<br />
zeigen uns demnach, wie sich eine Vielzahl von Tatsachen auf<br />
wenige allgemeine Zusammenhänge zurückführen läßt. Diese beiden<br />
Ansätze möchte ich in ihren neueren Versionen eine Weile verfolgen, um<br />
abzuschätzen, welche Perspektiven und Probleme sie meines Erachtens<br />
bieten, und werde innerhalb des zweiten eine eigene Konzeption von Er-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 404<br />
klärung anbieten und präzisieren. Beginnen möchte ich mit der Vorstellung,<br />
jede Erklärung sei eine kausale Erklärung.<br />
a) Kausale Prozesse<br />
Insbesondere das obengenannte (B.2) Asymmetrieproblem verweist auf<br />
die zugrundeliegende kausale Struktur zu seiner Lösung. Das Zurückweichen<br />
der Sterne verursacht die Rotverschiebung ihres Spektrums und<br />
kann sie deshalb erklären, während das Umgekehrte nicht gilt. Ähnliche<br />
Auflösungen von Erklärungsasymmetrien anhand der Asymmetrie von<br />
Kausalbeziehungen lassen sich auch in den anderen Fällen finden, wenn<br />
sie auch nicht immer so glatt erscheinen wie die der Rotverschiebung.<br />
Theorien oder Konzeptionen von Kausalität gibt es allerdings zahlreiche<br />
und nicht alle eignen sich gleichermaßen für eine Erklärungstheorie. Außerdem<br />
hat sich jede heutige Kausalitätstheorie zum einen der Humeschen<br />
Kritik an der Kausalitätsvorstellung zu stellen und sollte andererseits<br />
mit unseren gegenwärtigen naturwissenschaftlichen Ansichten kompatibel<br />
sein, was die Auswahl schon erheblich einschränkt. Trotzdem<br />
bleiben verschiedene Theorien übrig, die alle zu diskutieren, den Rahmen<br />
des Buches sprengen würde. Daher möchte ich mich einem besonders<br />
namhaften Ansatz in der kausalen Erklärungstheorie zuwenden und<br />
diesen ausführlicher besprechen, was in den kritischen Aspekten aber sicher<br />
auch für andere Kausalitätskonzeptionen Ansatzpunkte für kritische<br />
Einwendungen liefert. Darüber hinaus werde ich anhand allgemeinerer<br />
Überlegungen nahelegen, daß unsere Kausalitätsvorstellungen keinen<br />
sehr informativen Beitrag zu unserem Verständnis der Welt leisten können,<br />
der zugleich ein wichtiger Beitrag zum Verständnis von Erklärungen<br />
sein könnte.<br />
Es war insbesondere Wesley Salmon, der in neuerer Zeit mit seinem<br />
Werk Scientific Explanation and the Causal Structure of the World<br />
(1984) und einer Reihe anderer Arbeiten die kausale Erklärungstheorie<br />
belebt und vor allem detailliert ausgearbeitet hat. Etwas unklar bleibt in<br />
Salmons kausaler Konzeption, inwiefern sie eine Ergänzung seiner älteren<br />
bereits kurz vorgestellten SR-Konzeption (s. B.1.b.2) darstellt oder<br />
mit dieser zusammenhängt, doch es gibt zumindest auch eine probabilistische<br />
Version für die kausale Theorie. Zunächst stellt sich Salmon allerdings<br />
der Aufgabe, zu erklären, was denn unter einer Kausalbeziehung<br />
zu verstehen sei. Dabei versucht er der Kritik Humes und Russells<br />
Warnungen vor der Kausalität zu begegnen. So hält er die Ansätze, die<br />
Kausalität mit Hilfe von Begriffen wie „notwendiger“ und „hinreichender<br />
Bedingung“ explizieren wollen, für grundsätzlich falsch (Salmon
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 405<br />
1984, 138), wobei ihm auch die INUS-Bedingung von Mackie (1974,<br />
62) (nach der eine Ursache ein nicht-hinreichender, aber notwendiger<br />
Teil einer nicht notwendigen, aber hinreichenden Bedingung ist), die<br />
wohl den prominentesten Vertreter dieser Auffassung verkörpert, als<br />
nicht akzeptabel erscheint.<br />
Grundlegend in Salmons Erörterung von Kausalität sind Prozesse<br />
(processes) und nicht wie sonst häufig üblich Ereignisse. Prozesse sind<br />
raumzeitlich weiter ausgedehnt als Ereignisse. Wenn man Ereignisse im<br />
Raum-Zeit-Diagramm als Punkte darstellt, so können Prozesse als Linien<br />
repräsentiert werden. Ein Gegenstand wird etwa in seiner Bewegung<br />
eine Zeit lang verfolgt. Das intuitive Problem, das Salmon mit dem<br />
Übergang zu Prozessen zu lösen versucht, beschreibt Kitcher (1989,<br />
461ff): Ein Ereignis U ist dann eine Ursache eines anderen Ereignisses<br />
W (Wirkung), wenn von E ein kausaler Prozeß abläuft, der zu W führt,<br />
die Ereignisse also in geeigneter Weise kausal verbunden sind. Die abgefeuerte<br />
Kugel ist z. B. die Ursache für die durch die auftreffende Kugel<br />
entstehenden Schäden, wenn der „kausale Weg“ von der Kugel zu den<br />
Schäden nachzuzeichnen ist. Zwischen zwei Ereignissen (die nicht raumoder<br />
lichtartig zueinander liegen) gibt es aber eine Vielzahl von Weltlinien,<br />
die sie miteinander verbinden und das größte Problem einer Analyse<br />
von Kausalität ist es, genau die wesentlichen und geeigneten von<br />
den irrelevanten oder Pseudoverbindungen zu trennen. Genau dazu soll<br />
Salmons Explikation von „kausaler Prozeß“ dienen, die er auf dem naturwissenschaftlichen<br />
Hintergrund der speziellen Relativitätstheorie entwirft,<br />
die für Salmon immer wieder leitende Funktion für seine Theoriebildung<br />
besitzt.<br />
Auch die Relativitätstheorie macht eine Unterscheidung der Prozesse<br />
in kausale Prozesse und Pseudoprozesse erforderlich. In wirklichen kausalen<br />
Prozessen im Sinne der speziellen Relativitätstheorie können z. B.<br />
keine höheren Geschwindigkeiten als die Vakuumlichtgeschwindigkeit c<br />
auftreten, während das für Pseudoprozesse nicht der Fall ist; in ihnen<br />
können sogar beliebig hohe Geschwindigkeiten vorkommen. Salmons<br />
Beispiele für Pseudoprozesse mögen diesen Unterschied verdeutlichen.<br />
Stellen wir uns einen dunklen, runden Raum vor, der in der Mitte einen<br />
rotierenden Lichtstrahl enthält. Der von dem Lichtstrahl erzeugte, sich<br />
über die Wand bewegende Lichtfleck ist ein solcher Pseudoprozess, der<br />
beliebige Geschwindigkeiten erreichen kann, je nachdem, wie schnell<br />
sich die Lichtquelle dreht und wie groß der Raum ist. Ebenso ist auch<br />
der Schatten eines fahrenden Autos ein Pseudoprozeß. Es handelt sich<br />
bei diesen Pseudoprozessen um Vorgänge, bei denen vorhergehende Zu-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 406<br />
stände die späteren nicht verursachen und daher auch nicht direkt beeinflussen<br />
können. Der Schatten des Autos zu einer früheren Zeit kommt<br />
nicht als Ursache für den Schatten des Autos zu einer späteren Zeit in<br />
Betracht. Sober (1987, 252) hat das Verhältnis von kausalen Prozessen<br />
und Pseudoprozessen in einem Diagramm veranschaulicht:<br />
Die schwarzen ausgefüllten Pfeile stellen kausale Zusammenhänge dar<br />
und die schmalen nicht-kausale. Damit gibt uns die obere Reihe die<br />
Ereignisse an, die kausal auseinander hervorgehen, also etwa die verschiedenen<br />
Phasen der Fahrt eines Autos, während uns die untere Reihe<br />
einen Pseudoprozeß darstellt, wie den sich bewegende Schatten des Autos.<br />
Nur zwischen den Zuständen des kausalen Prozesses gibt es kausale<br />
Beziehungen, während die Zustände des Pseudoprozesses kausal untereinander<br />
unverbunden sind. Dieser Zusammenhang hat Salmon dazu angeregt,<br />
für eine Präzisierung der Abgrenzung das folgende ursprünglich<br />
von Reichenbach stammende Kriterium einzusetzen: Kausale Prozesse<br />
können Informationen übertragen und Pseudoprozesse nicht. Diese Idee<br />
hat Salmon anhand der Übertragung von Zeichen (transmitting of a<br />
mark) in seinem „principle of mark transmission“ (Salmon 1984, 148)<br />
zu präzisieren versucht. Dieses Prinzip besagt informell ausgedrückt:<br />
A genuine causal process is one that can transmit a mark: if the process<br />
is modified at one stage the modification persists beyond that<br />
point without any additional intervention. (Salmon 1989, 108)<br />
A „process“ that can be marked at one place, but without having any<br />
such modification persist beyond the point at which the mark is<br />
made, cannot transmit marks. Such „processes“ are pseudoprocesses.<br />
(Salmon 1989, 109)<br />
Ein Pferd, das über eine Wiese läuft, ist ein genuin kausaler Vorgang,<br />
aber nicht so der sich bewegende Schatten oder das laufende Pferd im<br />
Film auf einer Leinwand. Natürlich ist der Projektionsvorgang im Kino<br />
ein kausaler Prozeß, aber die Bewegung des Pferdes im Bild ist ein Pseudoprozeß.<br />
Wenn man dem Bild des Pferdes einen roten Punkt verpaßt,<br />
indem man mit einem roten Licht auf die Leinwand strahlt, verschwindet<br />
dieser rote Punkt sofort wieder, wenn wir das Licht ausschalten und<br />
das Bild des Pferdes gibt dieses Zeichen nicht weiter.<br />
Dieses Beispiel von Salmon (1989, 109) zeigt aber auch schon erste<br />
Probleme dieses Ansatzes, denn auch das Pferd selbst behält einen roten<br />
Punkt, den man ihm mit einem roten Lichtstrahl zufügt, nicht bei. Allerdings<br />
behält es, wenn man es genau nimmt, eine kleine Erwärmung an
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 407<br />
dieser Stelle, die es weiter transportiert. Deutlicher wird Salmons Unterscheidung<br />
im Beispiel eines Autos, dem wir eine Beule zufügen. Die<br />
bleibt dauerhafter, während das Einbeulen der Leinwand an einer Stelle<br />
keine dauerhaften Zeichen auf dem Bild des Pferdes hinterläßt – höchstens<br />
auf der Leinwand. Trotz dieser recht einleuchtenden Zusammenhänge<br />
läßt einen die Definition von kausalen Prozessen mit intuitiven<br />
Problemen zurück, von denen ich nur einige von allgemeinerer Bedeutung<br />
aufgreifen möchte. 174<br />
Ein notorisches Problem vieler Explikationsvorschläge von Kausalität<br />
ist der Einsatz modaler Begriffe. 175 Kausale Prozesse sind für Salmon<br />
die Mittel, durch die kausale Einflüsse weitergeleitet werden (s. Salmon<br />
1984, 170). Diese Mittel sind dadurch ausgezeichnet, daß sie Zeichen<br />
weitergeben können. Das müssen sie natürlich nicht in jedem Fall tatsächlich<br />
tun, was Salmon auch deutlich macht (z. B. Salmon 1989, 110).<br />
Dazu erläutert Sober (1987, 254f) an einem leichtverständlichen Beispiel<br />
ein Problem dieser Definition: Wenn eine elektrische Lampe durch<br />
verschiedene elektrische Leitungen mit Schaltern an das Stromnetz angeschlossen<br />
ist, sind sie alle im Sinne Salmons „kausale Prozesse“, da sie<br />
Zeichen weitergeben können. Ein Schalter wird aber schließlich nur eingeschaltet<br />
und transportiert tatsächlich ein „Zeichen“ und nur diese Leitung<br />
gibt uns die tatsächliche Ursache des aufleuchtenden Lichts. Wie<br />
kann Salmon in seiner Theorie der Kausalität jedoch von den bloß möglichen<br />
Ursachen zu den tatsächlichen übergehen? Salmon (1984, 171)<br />
gibt uns dazu ein Prinzip für die kausale Wechselwirkung (causal interaction)<br />
von Prozessen an, wonach eine tatsächliche Wechselwirkung dann<br />
vorliegt, wenn die Zustände der Prozesse nach der Wechselwirkung andere<br />
sind als vorher. Doch auch diese Vorgehensweise bleibt unbefriedigend,<br />
wie weitere Überlegungen und Beispiele Sobers (1987, 255f) zeigen<br />
können. Ursachen müssen nämlich nicht immer zu Veränderungen<br />
führen. Sie können etwa durch entsprechende Gegenkräfte aufgehoben<br />
werden. So kann ein Partikel in der Newtonschen Mechanik einer Vielzahl<br />
von Kräften unterliegen, die seine geradlinig gleichförmige Bewe-<br />
174 Zu den Schwierigkeiten, echte Zeichen etwa von Pseudozeichen zu unterscheiden,<br />
bei denen sich auf einer anderen Ebene das Problem der Abgrenzung<br />
von Prozessen und Pseudoprozessen erneut stellt, siehe Kitcher (1989,<br />
463).<br />
175 Er findet sich schon in Humes Untersuchung über den menschlichen<br />
Verstand und wurde von Lewis (1981) innerhalb seiner Analyse im Rahmen einer<br />
mögliche-Welten Semantik wieder aufgegriffen. Der Aspekt von Kausalität,<br />
der hier verfolgt wird, ist folgender: Wäre das ursächliche Ereignis U nicht gewesen,<br />
so hätte auch die Wirkung W nicht stattgefunden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 408<br />
gung trotzdem nicht stören, weil sie sich gegenseitig aufheben. Obwohl<br />
hier also Ursachen am Werk sind, kann es vielleicht an entsprechenden<br />
Wirkungen im Sinne einer Veränderung des Vorgangs fehlen.<br />
Die Salmonsche Charakterisierung macht darüber hinaus einige Annahmen<br />
über die Beschaffenheit der Welt, die Sober (1987, 255f) aufdeckt,<br />
die aber auch nicht verwundern können, wenn man bedenkt, daß<br />
Salmons Explikationsvorschlag auf dem Hintergrund der speziellen Relativitätstheorie<br />
entwickelt wurde. Doch ich möchte nicht weiter die fast<br />
schon technischen Details und Probleme dieses Ansatzes besprechen,<br />
sondern mich nun stärker der Frage zuwenden, was wir vom kausalen<br />
Ansatz zur Charakterisierung von Erklärungen generell erwarten können.<br />
Die dabei anzutreffenden Probleme sind nicht spezifisch für die Salmonsche<br />
Explikation von Kausalität, sondern treffen in ähnlicher Weise<br />
auf andere Kausalitätskonzeptionen zu.<br />
b) Sind alle Erklärungen kausale Erklärungen?<br />
Es war mir nicht möglich, verschiedene Vorschläge zur Explikation von<br />
Kausalität im Detail zu besprechen. Ich hatte mich deshalb auf den Salmonschen<br />
konzentriert, weil dieser explizit zu einer prominenten Erklärungstheorie<br />
ausgearbeitet wurde, aber einige allgemeinere Überlegungen<br />
mögen meine Skepsis begründen, daß sich mit Hilfe des Kausalitätskonzepts<br />
überhaupt eine gehaltvolle Konzeption von Erklärung finden<br />
läßt. Die kausale Erklärungstheorie wurde primär entwickelt, um singuläre<br />
Tatsachen oder Ereignisse zu erklären. Aber sind in all diesen Fällen<br />
kausale Erklärungen möglich und auch die naheliegendsten Erklärungen?<br />
Tatsächlich scheint mir das nicht der Fall zu sein, und um diese Vermutung<br />
zu belegen, werde ich einige Beispiele und Überlegungen anführen.<br />
Ein erster Punkt, auf den uns Kitcher (1989, 423ff) hinweist, sind<br />
Erklärungen in der Mathematik. So können uns Sätze wie der Zwischenwertsatz<br />
erklären, wieso eine stetige reellwertige Funktion f auf einem<br />
Intervall [a, b] eine Nullstelle haben muß, wenn f(a) < 0 und f(b) > 0<br />
ist. Kitcher weiß dazu Beispiele anzugeben, die insbesondere auf der<br />
Grundlage seiner Anschauungen von Mathematik nicht aus der Erklärungsdebatte<br />
ausgeschlossen werden sollten. Auch mir geht es darum, einen<br />
möglichst breiten Erklärungsbegriff vor Augen zu haben, der viele<br />
Beispiele von Erklärungen abzudecken gestattet, und ich bin darum mit<br />
Kitcher bereit, geeignete Beispiele aus der Mathematik zu akzeptieren.<br />
Außerdem ist es zumindest ein methodologischer Vorteil einer Erklä-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 409<br />
rungskonzeption, wenn sie einen großen Anwendungsbereich besitzt. 176<br />
Da aber die Einbeziehung mathematischer Erklärungen in die Erklärungsdebatte<br />
vielen Philosophen wahrscheinlich intuitive Schwierigkeiten<br />
bereiten wird, möchte ich diese Beispiele hier nicht zu sehr strapazieren,<br />
sondern mich gleich anderen Typen von Fällen zuwenden.<br />
Ein schönes Beispiel in dieser Richtung ist Kitchers (1989, 426)<br />
„Party Trick“ mit wissenschaftlich ernstzunehmendem Hintergrund. In<br />
diesem Trick (man kann auch an einen Entfesselungskünstler denken)<br />
wird ein Knoten so um eine Schere geschlungen, daß er sofort aufgeht,<br />
wenn man zu Beginn die richtigen Entschlingungen vornimmt, aber man<br />
kann sich stundenlang damit abquälen, wenn man sie nicht findet. Was<br />
erklärt dann den Mißerfolg? Natürlich kann man in so einem Fall mit<br />
den kausalen Zusammenhängen der einzelnen Verschlingungen argumentieren,<br />
doch dabei verkennt man den wesentlichen Punkt, um den es<br />
geht, nämlich die topologischen Zusammenhänge, die zwischen den unterschiedlichen<br />
Fehlversuchen bestehen. Bestimmte Entwirrungsversuche<br />
müssen aus topologischen Gründen fehlschlagen, während andere gelingen<br />
werden. Die kausalen Details der Versuche wie die Kräfte und Materialeigenschaften<br />
etc. sind dabei eigentlich ganz unerheblich.<br />
Auf das dabei erkennbare Phänomen stoßen wir in vielen Erklärungen.<br />
Es sind nicht die individuellen kausalen Beziehungen, die etwas erklären,<br />
sondern abstraktere Zusammenhänge, die auf einer anderen Ebene<br />
angesiedelt sind. Will ich etwa erklären, warum ein Holzpflock mit<br />
quadratischer Grundfläche und einer Kantenlänge von 1 m nicht durch<br />
ein rundes Loch mit einem Durchmesser von 1,2 m paßt, so ist eine einfache<br />
geometrische Erklärung angemessen: Bei einer Kantenlänge von 1<br />
m weist die Diagonale eine Länge von 2 1/2 auf, und das ist größer als 1,2<br />
m. Also kann der Pflock nicht durch das Loch gehen. Natürlich ließe<br />
sich dazu im Prinzip auch eine „tolle“ kausale Erklärung geben, die statt<br />
dessen die möglichen Trajektorien der einzelnen Moleküle des Pflocks<br />
unter gewissen Randbedingungen verfolgt. Doch käme uns jemand mit<br />
dieser „Erklärung“, würden wir sie als ziemlich uninformativ zurückweisen.<br />
Es wäre eine furchtbar lange Geschichte, die uns schließlich nicht<br />
mehr die wesentliche Information bieten würde. Die geometrische Erklärung<br />
ist eindeutig die viel bessere und informativere. Und Entsprechendes<br />
gilt auch für andere typisch wissenschaftliche Erklärungen. Et-<br />
176 Die jeweilige Einschränkung des Erklärungsbegriff auf gerade die Fälle,<br />
die zu einem bestimmten Erklärungskonzept passen, ist natürlich außerdem eine<br />
Immunisierungsstrategie, die einem immer offensteht und damit die Gefahr der<br />
Trivialisierung in sich trägt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 410<br />
wa die Erklärung des Zwillingsparadoxon ist keine kausale Erklärung,<br />
sondern eine geometrische anhand der Raum-Zeit-Geometrie der speziellen<br />
Relativitätstheorie (s. Ray 1991, 36ff).<br />
Ein weiteres solches Beispiel von nicht-kausaler Erklärung stammt<br />
von Sober (1983) und wird von Kitcher (1989, 426) wieder aufgegriffen.<br />
Sober beschreibt die Evolutionstheorie in Analogie zum Aufbau der<br />
Newtonschen Mechanik. Das Hardy-Weinberg Gesetz gibt uns demnach<br />
einen „kräftefreien“ Gleichgewichtszustand für die Häufigkeiten verschiedener<br />
Genkombinationen an. Abweichungen davon können durch<br />
das Wirken von „Evolutionskräften“ wie Migration, Selektion, Mutation<br />
und Zufallsdrift erklärt werden. Fragen wir uns dann, wie sich ein Geschlechterverhältnis<br />
aller Geburten einer Stadt von 1,04 zu 1 (Männer-<br />
Frauen) erklären läßt, könnte man eine sehr komplizierte kausale Geschichte<br />
über Spermien und Eier etc. erzählen, 177 aber die meisten dieser<br />
kausalen Details sind eigentlich für unser Erklärungsvorhaben nicht interessant<br />
oder sogar hinderlich. Eine bessere wenn auch recht abstrakte<br />
Antwort zitiert den Selektionsdruck, der zunächst zu einem annähernden<br />
1 zu 1 Verhältnis geführt hat, weil sich dabei die höchsten Reproduktionsraten<br />
erzielen lassen, gibt aber zusätzlich die etwas höhere<br />
Sterblichkeit der Männer in der Zeitspanne von der Geburt bis zur Vermehrung<br />
zu berücksichtigen, so daß sich bei dem erwähnten Verhältnis<br />
von 1,04 zu 1 ein Gleichgewicht der Evolutionskräfte einstellt. 178 Sowohl<br />
Sober wie auch Kitcher halten diese Erklärung nicht für eine kausale Erklärung<br />
im üblichen Sinn des Worts, denn es geht in der Erklärung wiederum<br />
primär um einen strukturellen Zusammenhang, ein Gleichgewicht<br />
bestimmter Größen, aber nicht um eine Beschreibung der kausalen<br />
Prozesse, die zu diesem Gleichgewicht geführt haben.<br />
Daß viele Erklärungen singulärer Tatsachen nicht nach kausalen Erklärungen<br />
mit Angabe der speziellen kausalen Vorgeschichte verlangen,<br />
liegt unter anderem daran, daß man in diesen Beispielen nicht an der Erklärung<br />
eines speziellen Ereignisses interessiert ist, sondern an der Erklärung<br />
allgemeinerer Regularitäten. Friedman (1988) geht sogar noch weiter<br />
und behauptet, daß eigentlich immer Regelmäßigkeiten oder Gesetze<br />
erklärt werden sollen. Wenn man fragt, warum Wasser zu verdampfen<br />
beginnt, wenn es erhitzt wird, und man darauf erklärt: „Die Erhitzung<br />
177 In Wahrheit wäre eine derartige Geschichte viel zu kompliziert, als daß<br />
wir sie tatsächlich ohne große Lücken erzählen könnten.<br />
178 Einen kurzen Einblick in die Geschichte des Geschlechterzahlenverhältnisses<br />
im Rahmen der Evolutionstheorie bieten Uyenoyama/Feldman (1992,<br />
39f).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 411<br />
besteht in einer Zunahme der Molekülbewegung, und wenn diese heftig<br />
genug sind, zwischenmolekulare Kräfte zu überwinden, fliegen die Wassermoleküle<br />
davon.“, so hat man ein ganzes Phänomen erklärt und nicht<br />
nur ein einzelnes Datum. Friedman (1988, 172) schreibt dazu:<br />
Was erklärt wird, ist eine allgemeine Regelmäßigkeit bzw. ein Verhaltensmuster<br />
– ein Gesetz, wenn man will – nämlich, daß Wasser zu<br />
verdampfen beginnt, wenn es erhitzt wird. Obwohl sich der überwiegende<br />
Teil der philosophischen Erklärungsliteratur mit der Erklärung<br />
von Einzelereignissen beschäftigt, so scheint doch der in den<br />
obigen Beispielen illustrierte Erklärungstyp für die Naturwissenschaften<br />
viel charakteristischer zu sein. Erklärungen von Einzelereignissen<br />
sind dagegen vergleichsweise selten – sie kommen höchstens<br />
vielleicht in der Geologie oder Astronomie vor.<br />
Selbst wenn Friedman hier die Bedeutung von Gesetzeserklärungen etwas<br />
überbetont, bleibt doch der Punkt, daß zumindest ein großer Teil<br />
der wissenschaftlichen Erklärungen diesen allgemeineren Charakter besitzt.<br />
Erklärend sind dabei abstraktere strukturelle Zusammenhänge, die<br />
einer größeren Klasse von Fällen gemeinsam sind. Wie kann der Proponent<br />
einer kausalen Erklärungstheorie auf die Tatsache reagieren, daß<br />
Erklärungen oft diese abstraktere Beschreibungsebene verlangen?<br />
Diese Perspektive auf Erklärungen ermöglicht auch Einsichten in anderen<br />
Bereichen der Philosophie. Auch wenn wir mit Davidson der Meinung<br />
sind, daß intentionale Zustände keine geeigneten Kandidaten für<br />
echte physikalistische Erklärungen darstellen, so können sie trotzdem<br />
wesentliche Aspekte brauchbarer Erklärungen sein. Dennett hat gezeigt,<br />
wie wir selbst gegenüber Schachcomputern eine intentionale Einstellung<br />
mit Gewinn einnehmen können und ihnen einfache Wünsche und Überzeugungen<br />
zuschreiben, um ihr Vorgehen zu verstehen. Das heißt noch<br />
nicht, daß sie diese Zustände im Sinne identifizierbarer konkreter kausaler<br />
Zustände besitzen. Das glauben wir nur von Menschen und eventuell<br />
noch manchen Tieren. Trotzdem finden wir auch bei Schachcomputern<br />
entsprechende Verhaltensmuster mit Erklärungswert. Das läßt sich als<br />
ein Hinweis deuten, daß intentionale Erklärungen auch im allgemeinen<br />
nicht als kausale Erklärungen gemeint sind. Überhaupt haben wir in vielen<br />
Fällen vermeintlich kausaler Erklärungen noch genauer hinzuschauen,<br />
ob es tatsächlich die Angabe von Ursachen ist, die erklärt, oder nicht<br />
vielmehr der Hinweis auf abstraktere Regelmäßigkeiten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 412<br />
c) Koexistenzgesetze<br />
Verschärft wird das Problem für die kausalen Erklärungskonzeptionen<br />
noch durch einen speziellen Typ von Beispielen, den man als Erklärungen<br />
anhand von Koexistenzgesetzen bezeichnen kann. Unter einer kausalen<br />
Beziehung stellt man sich normalerweise mindestens eine zeitliche<br />
Beziehung vor, bei der die Wirkungen den Ursachen vorhergehen. Für<br />
die Koexistenzgesetze oder auch strukturelle Gesetze scheint diese Bedingung<br />
aber nicht erfüllt zu sein, obwohl wir sie intuitiv trotzdem als<br />
erklärend einstufen. Ein klassisches Beispiel ist das Pendelgesetz, nach<br />
dem die Schwingungsdauer umgekehrt proportional zur Pendellänge für<br />
ideale Pendel ist. Mit seiner Hilfe können wir erklären, warum ein bestimmtes<br />
Pendel eine bestimmte Schwingungsdauer aufweist, indem wir<br />
sie auf die Länge des Pendels zurückführen. Andere Beispiele sind Strahlungsgesetze<br />
wie das Plancksche oder die Balmersche Serienformel oder<br />
auch Gleichgewichtsgesetze wie das Gasgesetz etc. Schurz (1983, 213ff)<br />
nennt noch andere Beispiele und meint, daß sogar die fundamentalen<br />
Grundgleichungen der Physik als Koexistenzgesetze aufgefaßt werden<br />
können, geben diese Differentialgleichungen doch immer einen momentanen<br />
Gleichgewichtszustand an. Das geht aber wohl etwas zu weit,<br />
denn immerhin tritt die Zeit in ihnen als ein wichtiger Parameter auf,<br />
der deutlich macht, wieso sie einen Ablauf beschreiben. Neben den Koexistenzgesetzen<br />
finden wir Gesetze, die man eher als Strukturgesetze<br />
bezeichnen kann, die ebenfalls keinen Zeitfaktor enthalten. Etwa Paulis<br />
Ausschlußprinzip, das im Rahmen der Quantenmechanik den Aufbau<br />
des Periodensystems erklärt und speziell auch erklärt, wieso gerade Edelgase<br />
chemisch besonders stabil und träge sind (s. Kitcher 1989, 428f).<br />
Bemerkenswert ist dabei, daß auch für diese Gesetze das Phänomen<br />
der Asymmetrie zu finden ist (s. dazu Schurz 1983), obwohl es in diesen<br />
Beispielgesetzen keine klar erkennbare kausale Struktur gibt. Sie deshalb<br />
alle als nichterklärend auszuschließen, ist ebenfalls keine wirkliche Option,<br />
denn damit würde man große Teile der Naturwissenschaften als<br />
nichterklärend bezeichnen. Vielmehr zeigen sie, daß es dem kausalen Erklärungsansatz<br />
nicht um wissenschaftliche Erklärungen per se geht, sondern<br />
nur um einen bestimmten Typ von Erklärungen, nämlich kausale<br />
Erklärungen, was einem „Nein“ auf die Ausgangsfrage des Kapitels<br />
gleichkommt. Natürlich können wir, um die kausale Erklärungstheorie<br />
an diesem Punkt zu retten, mit (Schurz 1983, 453ff) den Kausalitätsbegriff<br />
entsprechend erweitern und auch diese Gesetze darunter fassen,<br />
wobei die Asymmetrie in einem versteckten Sinn doch auf eine zeitliche<br />
Beziehung zurückzuführen ist. Aber das bedeutet erstens eine weitere
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 413<br />
Aufweichung und inhaltliche Entleerung des Kausalitätsbegriffs und außerdem<br />
eine Interpretation der Gesetze, die man nicht unbedingt in allen<br />
Fällen unterschreiben sollte.<br />
Zwei weitere spezielle Typen von Erklärungen, die sich ebenfalls<br />
nicht ohne eine weitere Aushöhlung des Kausalitätskonzepts in den Rahmen<br />
der kausalen Erklärung einbetten lassen, nennt Achinstein (1983,<br />
233ff). Da sind zum einen die klassifikatorischen Erklärungen, die eine<br />
Antwort auf Fragen wie: „Warum hat Eisen die Nummer 26 im Periodenssystem<br />
der Elemente?“ geben. Eine derartige Erklärung würde etwa<br />
darauf verweisen, daß die Nummern im Periodensystem anhand der<br />
Protonenzahlen im Atomkern vergeben werden und Eisen gerade 26<br />
Protonen aufweist. Einen anderen Typ von Erklärungen sieht Achinstein<br />
noch in „Identitätserklärungen“. Auf die Frage, warum auch Eis Wasser<br />
ist, könnte man z. B. antworten, daß Wasser zu sein gerade durch die Eigenschaft,<br />
aus H2O Molekülen zu bestehen, definiert ist und Eis ebenfalls<br />
aus H2O Molekülen besteht. Auch auf die Frage, warum schwerere<br />
Massen höhere Kräfte benötigen, um beschleunigt zu werden, können<br />
wir eine Erklärung anhand der Identität von schwerer und träger Masse<br />
geben, die sich ebenfalls nicht als kausale Erklärung anbietet.<br />
Angesichts der Vielzahl und Vielfältigkeit der Beispiele drängt sich<br />
der Eindruck auf, daß die kausalen Erklärungen nur eine echte Teilklasse<br />
der (wissenschaftlichen) Erklärungen ausmachen. Dieser Eindruck wird<br />
noch in zwei weiteren Bereichen bestätigt.<br />
d) Theoretische Erklärungen<br />
In Abschnitt (C.3.a) hatte ich bereits darauf hingewiesen, daß viele wissenschaftliche<br />
Erklärungen nicht Erklärungen einzelner konkreter Ereignisse<br />
sind, sondern eher Erklärungen von Phänomenen also Ereignistypen<br />
oder sogar Gesetzen. Für den Fall von Gesetzeserklärungen oder Erklärungen<br />
ganzer Theorien hat sich auch der Begriff der Reduktion eingebürgert,<br />
was uns aber nicht darüber hinwegtäuschen sollte, daß es einen<br />
kontinuierlichen Übergang zwischen Erklärungen und Reduktionen<br />
gibt, den eine Erklärungstheorie zumindest verständlich machen sollte.<br />
Man denke unter dem Stichwort der Reduktion oder „theoretischen Erklärung“<br />
etwa an Beispiele wie die Erklärung der Keplerschen Gesetze<br />
durch die Newtonschen, der Mendelschen durch die Molekulargenetik,<br />
der phänomenologischen Thermodynamik durch die statistische Mechanik,<br />
der Balmer Formel durch das Bohrsche Atommodell usf.<br />
Für die Hempelsche Erklärungstheorie ist es der Fall, daß sie für den<br />
Zusammenhang zwischen Erklärungen und Reduktionen eine hilfreiche
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 414<br />
Erläuterung zur Hand hat. Im Prinzip können wir das DN-Modell nämlich<br />
auch auf die Erklärung von Gesetzen ausdehnen. Die Keplerschen<br />
Gesetze werden dabei z. B. abgleitet aus den Gleichungen der Newtonschen<br />
Gravitationstheorie zusammen mit einigen Tatsachen über unser<br />
Sonnensystem (s. etwa Scheibe 1973). Hempel und Oppenheim (1948)<br />
sahen bei dieser Art von Ableitungen allerdings ein Problem, daß sie davor<br />
zurückschrecken ließ, nämlich die Gefahr der irrelevanten Herleitung,<br />
die allerdings, wie wir heute wissen, ebenso andere DN-Ableitungen<br />
bedroht. Man könnte das Keplersche Gesetz auch aus einer Konjunktion<br />
von Keplerschem Gesetz und einem chemischen Gesetz wie<br />
dem Kirchhoffschen Satz deduzieren. In solchen Fällen würden wir natürlich<br />
nicht von einer Erklärung sprechen, denn die setzt eine „tiefere“<br />
Theorie voraus, die sich nicht einfach als Konjunktion zweier beliebiger<br />
Gesetze erweist. Die erklärende Theorie sollte statt dessen eine „organische<br />
Einheit“ bilden, die das zu erklärende Gesetz nicht konjunktiv enthält<br />
(s. dazu IX.E.8).<br />
Anhand einer derartigen Erweiterung um eine Forderung nach organischer<br />
Einheit wäre das Hempelsche Erklärungsmodell zumindest im<br />
Prinzip in der Lage, die Erklärung von Gesetzen analog zu der Erklärung<br />
von Einzelereignissen zu beschreiben. Es bleibt allerdings noch ein Problem,<br />
auf das man dabei in der Praxis solcher Erklärungen stößt, nämlich<br />
daß alle interessanten Reduktionen aus der Physik aber auch anderen<br />
Gebieten immer approximative Reduktionen sind, die keine strengen<br />
Deduktionen gestatten. Auf den ersten Blick könnte man darin sogar<br />
eine Unterscheidung zwischen Erklärungen und Reduktionen erblicken,<br />
aber eine genauere Untersuchung ergibt, daß auch alle Einzelfallerklärungen<br />
jedenfalls für quantitative Theorien letztlich approximativen<br />
Charakter haben. Mit solchen Approximationen nicht auf überzeugende<br />
Weise fertigzuwerden, ist kein spezielles Manko des Hempelschen Ansatzes,<br />
sondern eher ein allgemeines Problem syntaktischer Darstellungen<br />
von Theorien (s. VII.C.9). 179<br />
Lassen wir das Problem der Approximationen zunächst außer Acht,<br />
kann Hempel im Prinzip erklären, wie der Übergang von Erklärungen zu<br />
Reduktionen aussieht, wenn das DN-Schema auch in der Ausgestaltung<br />
versagt. Doch was hat der Proponent kausaler Erklärungstheorien demgegenüber<br />
anzubieten? Kitcher (1989, 429ff) erörtert dazu einige Möglichkeiten,<br />
die aber alle nicht wirklich zufriedenstellen können. Der<br />
179 Die notwendigen Approximationen sind auch wiederum ein Hinweis,<br />
daß das zu erklärende Gesetz nicht einfach konjunktiv in der erklärenden Theorie<br />
enthalten ist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 415<br />
Kausalitätstheoretiker muß immer weggehen von konkreten kausalen<br />
Beziehungen, wo er sich zu Hause fühlt, zu allgemeineren Beziehungen,<br />
für die keineswegs wesentlich ist, daß ihre Instanzen kausale Relationen<br />
darstellen.<br />
e) Erklärungen in der Quantenmechanik<br />
Ein Gebiet, das ich aus Gründen der Einfachheit weitgehend ausklammern<br />
möchte, muß an dieser Stelle nun doch noch kurz zur Sprache<br />
kommen, die statistischen Erklärungen. Unser Alltagsverständnis von<br />
Kausalität ist überwiegend das eines determinierten Ablaufs, wobei Indeterminiertheiten<br />
und statistische Gesetze eher auf Unkenntnis also auf<br />
epistemische Inderterminiertheit zurückzuführen sind als auf ontologische<br />
Unbestimmtheiten. Das entspricht zunächst auch dem Salmonschen<br />
Ansatz, der sich als Hintergrund auf die Spezielle Relativitätstheorie<br />
stützt, die eine deterministische Struktur besitzt. Doch in vielen Bereichen<br />
stoßen wir auf statistische Erklärungen, die man zumindest im<br />
Prinzip in einem Erklärungsansatz berücksichtigen können muß. Seit der<br />
probabilistischen Revolution dringen statistische Hypothesen in immer<br />
größere Bereiche unseres Lebens vor. Man denke nur an die Gesellschaftswissenschaften,<br />
in denen wohl die meisten Gesetze probabilistischen<br />
Charakter haben, aber auch an einige Bereiche der Naturwissenschaften,<br />
für die schon Hempel höchstens statistische Gesetze erwartet<br />
hat. Um das in der kausalen Erklärungstheorie umsetzen zu können,<br />
müssen wir von einer deterministischen Kausalitätsvorstellung zu einer<br />
probabilistischen übergehen. Damit wird jede Kausalitätskonzeption auf<br />
eine schwere Probe gestellt, der sie sich stellen muß, will sie nicht nur<br />
längst überholte Vorstellungen von Kausalität rekonstruieren, sondern<br />
auch in den heutigen Wissenschaften eine Rolle spielen können.<br />
Dabei kann man die Bedeutung der Wahrscheinlichkeiten für die<br />
klassische Physik noch herunterspielen, denn für sie läßt sich die epistemische<br />
Interpretation von Wahrscheinlichkeitsgesetzen vertreten. Danach<br />
könnten wir z. B. in der statistischen Mechanik im Prinzip die Bahnen<br />
aller einzelner Moleküle im Rahmen der klassischen Partikelmechanik<br />
vorausberechnen, wenn wir ihre Anfangszustände nur genau bestimmen<br />
könnten und genügend Rechenkapazitäten besäßen – so lautet zumindest<br />
die klassische Vorstellung. Das zeigt, daß diese Bahnen im Sinne<br />
der klassischen Mechanik determiniert sind. Der Zustand der Welt zu einer<br />
bestimmten Zeit legt die Zustände für alle weiteren Zeiten fest. Nur<br />
da wir die „Mühe scheuen“, dieses Unterfangen der einzelnen Vorausberechnung<br />
und der Ermittlung aller Anfangswerte tatsächlich durchzufüh-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 416<br />
ren, arbeiten wir mit statistischen Beschreibungen, die einfach unseren<br />
unvollständigen Kenntnisstand wiedergeben. 180 Auf diese Art ließen sich<br />
schließlich kausale Erklärungstheorie und klassische statistische Gesetze<br />
und Erklärungen miteinander versöhnen. Salmon (1984, Kap. 6) entwikkelt<br />
zu diesem Zweck seine Theorie der kausalen Gabelungen (causal<br />
forks), mit den drei Typen „conjunctive fork“, „interactive“ und „perfect<br />
fork“, wobei die konjunktive Gabelung die wichtigste ist. Sie entspricht<br />
weitgehend dem sogenannten „Common Cause“ Modell (CC Modell)<br />
der statistischen Erklärung aus Reichenbachs The Direction of Time<br />
(1956).<br />
Dieses CC-Modell verfolgt einen elementaren Gedanken, den ich an<br />
einem Beispiel erläutern möchte. Für zwei Ereignisse A und B liegt genau<br />
dann eine positive Korrelation zwischen A und B vor, wenn gilt:<br />
P(A&B) > P(A) P(B) 181<br />
In Salmons Beispiel (1984, 161f) sind die beiden Ereignisse jeweils<br />
durch das Würfeln einer 6 mit einem von zwei Würfeln charakterisiert.<br />
Handelt es sich um faire Würfel, treten die Ereignisse A (Würfel 1 zeigt<br />
eine 6) und B (Würfel 2 zeigt eine 6) jeweils mit Wahrscheinlichkeit 1/6<br />
auf und A&B, wenn es sich beim Sechsenwerfen um voneinander unabhängige<br />
Ereignisse handelt, mit Wahrscheinlichkeit 1/36. Findet sich<br />
aber eine Korrelation zwischen den beiden Würfelergebnissen, nach der<br />
ein Pasch 6 signifikant häufiger auftritt als 1/36, stellt sich die Frage<br />
nach einer Ursache dieses Zusammenhangs. Beide Würfel enthalten vielleicht<br />
einen kleinen Magneten und der Würfeltisch einen Elektromagneten,<br />
der die Wahrscheinlichkeit für gemeinsame Sechsen stark erhöht,<br />
wenn er eingeschaltet wird (Ereignis C). Von C sagen wir dann, daß es<br />
180 Die Überlegungen über prinzipielle Unschärfen (s. VII.C.9) geben schon<br />
Hinweise, daß diese Vorstellung auch im klassischen Rahmen nicht überzeugend<br />
wirkt. Für chaotische Systeme müßten wir die Anfangsbedingungen „unendlich<br />
genau“ kennen, um eine Vorhersage abgeben zu können. Das setzt aber eine<br />
ganz unrealistische Interpretation der Theorien voraus, die Unschärfen außer<br />
Acht läßt.<br />
181 Zur Schreibweise: P(A) bezeichne die Wahrscheinlichkeit von A,<br />
P(A&B) die Wahrscheinlichkeit, daß A und B zusammen auftreten und P(A|B)<br />
die Wahrscheinlichkeit dafür, daß A auftritt, gegeben, daß B auftritt. Hier zeigt<br />
sich auch ein Zusammenhang zur statistischen Relevanzbeziehung, nach der B<br />
statistisch relevant für A ist, wenn P(A|b) P(A). Das ist äquivalent mit der Bedingung,<br />
daß eine Korrelation zwischen A und B vorliegt und im Falle P(A|B) ><br />
P(A) ist diese positiv.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 417<br />
die beobachtete Korrelation erklärt, wenn A und B bei gegebenem C<br />
wieder statistisch unabhängig werden, d.h.:<br />
(CC) P(A&B|C) = P(A|C) P(B|C)<br />
Man sagt dann auch, daß C die gemeinsame Ursache (common cause)<br />
von A und B ist. Wissen wir schon, daß der Elektromagnet an ist, können<br />
wir die Wahrscheinlichkeit für A&B wieder aus den Einzelwahrscheinlichkeiten<br />
durch Multiplikation bestimmen; es gibt also keine erklärungsbedürftige<br />
Korrelation mehr.<br />
Ein Beispiel aus der Praxis der Common-Cause-Vorstellung diskutiert<br />
van Fraassen (1980, 25ff). Zwischen starkem Rauchen und Lungenkrebs<br />
tritt eine signifikante Korrelation auf, d.h. das Auftreten von Lungenkrebs<br />
ist unter Rauchern deutlich höher als in der Gesamtbevölkerung.<br />
Eine Erklärung, die dafür naheliegt, ist das vorgängige Rauchverhalten,<br />
das sowohl zu dem heutigen Rauchverhalten wie auch dem Lungenkrebs<br />
geführt hat. Ob sie bereits die ganze Erklärung (im Sinne der<br />
vollständigen Ursache) liefert oder vielleicht andere Aspekte wie ein<br />
Gen, das für beide Neigungen verantwortlich ist – diese Alternative wurde<br />
in amerikanischen Diskussionen über die Gefahren des Rauchens von<br />
bestimmten Gruppen vertreten –, ebenfalls noch ins Spiel kommen,<br />
kann dann anhand der Gleichung (CC) im Prinzip ermittelt werden. Das<br />
ist in diesem Fall natürlich von großer praktischer Bedeutung. Wäre ein<br />
Gen der Common Cause und sowohl für die Neigung zum Lungenkrebs<br />
wie auch die zum Nikotingenuß verantwortlich, hätten wir keinen<br />
Grund mehr, mit dem Rauchen aufzuhören oder es gesetzlich einzuschränken.<br />
Das Risiko, Krebs zu bekommen, hinge in dem Fall nur von<br />
dem Gen und nicht vom Rauchverhalten ab.<br />
Das CC-Modell gestattet es, eine Reihe von statistischen Zusammenhängen<br />
zu erklären, und für Salmon sind es vor allem diese Zusammenhänge<br />
zwischen Prozessen, die die kausale Struktur unserer Welt bestimmen.<br />
In der Diskussion von Salmons Ansatz haben sich aber inzwischen<br />
eine ganze Reihe von Schwachstellen des Modells gezeigt, die seine anfängliche<br />
Plausibilität in Frage stellen. Von verschiedenen Seiten wurde<br />
etwa ein Zirkularitätsvorwurf gegen Salmons Explikationen geäußert.<br />
Kitcher erwähnt in (1985, 638), wie eng die Begriffe „Prozeß“, „kausaler<br />
Prozeß“, „Wechselwirkung“ und „Zeichen“ zusammenhängen und<br />
Dowe (1992, 200f) zeigt, daß hier eine Zirkularität der Explikation<br />
schlummert. Auch ist der Zusammenhang zwischen Ursachen und den<br />
konjunktiven Gabelungen unklar. Dowe (1992, 204ff) greift einige Beispiele<br />
von Salmon für Verursachung auf: Die Wucht des Hammers treibt
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 418<br />
ihn in das Holz; der Blitz entzündet den Wald etc. In keinem dieser Fälle<br />
ist überhaupt die Rede von einer Korrelation. Andererseits finden wir<br />
bemerkenswerte Korrelationen, die nichts mit Verursachung zu tun haben.<br />
Unsere Theorien über Moleküle erklären, daß wir denselben Wert<br />
für die Avogadrosche Zahl erhalten, ob wir sie mit Hilfe der Brownschen<br />
Bewegung ermitteln oder anhand von Röntgenbeugungsexperimenten.<br />
Die konjunktive Gabelung gestattet es, derartige Fälle zu analysieren,<br />
aber es liegen deshalb noch keine Kausalbeziehungen vor. Viele<br />
weitere Einwände in dieser Richtung zeigen deutlich, wie schwer es ist,<br />
eine zweckmäßige Explikation von probabilistischer Kausalität zu geben,<br />
die vor unserem heutigen Weltbild bestehen kann und auch auf unsere<br />
typischen Fälle von kausalen Zusammenhängen anwendbar ist.<br />
Endgültig problematisch wird diese Analyse probabilistischer Kausalität<br />
allerdings, wenn wir sie in der Quantenmechanik einsetzen wollen,<br />
die ja einen der Gründe für die große Bedeutung statistischer Analysen<br />
darstellt. Salmon ist sich der Bedeutung und Einzigartigkeit dieser Theorie<br />
voll bewußt, wenn er sagt (1989, 173): „Quantum mechanics (including<br />
quantum electrodynamics and quantum chronodynamics) has had<br />
more explanatory succcess than any other theory in the history of science.“<br />
Insbesondere wischt er auch die Konsequenzen aus der Theorie<br />
wie die Korrelationen vom „EPR-Typ“ 182 nicht leichtfertig vom Tisch,<br />
sondern unterschreibt David Mermins Einschätzung, daß „anyone who<br />
isn’t worried about this problem has rocks in their head“ (Salmon 1989,<br />
186). In den von der Quantenmechanik beschriebenen Situationen vom<br />
EPR-Typ ist die Common-Cause Konzeption aber nicht anwendbar, was<br />
auch Salmon zugibt.<br />
Eine sehr sorgfältige Analyse, der hier auftretenden Probleme findet<br />
sich bei van Fraassen (1991, 81ff) 183 . Die formale Rekonstruktion der<br />
EPR-Situationen durch van Fraassen kann ich hier nicht aufgreifen, sondern<br />
nur die inhaltlichen Ergebnisse informell erörtern. Auf Situationen<br />
dieses Typs ist man zwar erstmalig innerhalb der Quantenmechanik in<br />
dem berühmten Aufsatz von Einstein, Podolsky und Rosen aufmerksam<br />
geworden, sie lassen sich aber unabhängig von der Quantenmechanik<br />
beschreiben und inzwischen sogar experimentell realisieren. Das zeigt,<br />
daß sie nicht nur exotische Konsequenzen einer vielleicht doch nicht in<br />
allen Aspekten korrekten Theorie sind, sondern Merkmale unserer Welt,<br />
182 „EPR“ bezieht sich auf Situationen des Typs, die in dem berühmten<br />
Aufsatz von Einstein-Podolsky-Rosen (1935) beschrieben werden und unter dem<br />
Namen EPR-Paradoxon bekannt geworden sind.<br />
183 Und schon in van Fraassen (1982).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 419<br />
mit denen eine Kausalitätstheorie umzugehen hat. Um diese Situationen<br />
zu veranschaulichen, möchte ich nicht nur abstrakt über diese Situationen<br />
sprechen, sondern anhand einer stark vereinfachten Skizze realistischer<br />
Beispiele.<br />
Man denke dazu an Elektronen oder Photonen, die aus einer gemeinsamen<br />
Quelle in zwei entgegengesetzte Richtungen ausgesandt werden.<br />
An zwei entfernten Stellen werden dann ihre jeweiligen Spins bestimmt.<br />
Dabei ergibt sich – entsprechend dem Gesetz der Erhaltung des<br />
Drehimpulses – eine perfekte Korrelation, nach der die beiden Teilchen<br />
immer entgegengesetzten Spin aufweisen. Nehmen wir als zusätzliche<br />
genauere Beschreibung des Phänomens zur perfekten Korrelation noch<br />
die Lokalitätsbedingung hinzu, die man auch experimentell überprüfen<br />
kann, daß der Ausgang des Experiments auf der einen Seite unabhängig<br />
davon ist, ob ich auf der anderen Seite auch eine Messung vornehme.<br />
Dann erhalten wir eine Situation, die sich nach van Fraassen nur in ein<br />
„kausales Modell“ einbetten läßt, wenn gewisse empirische Annahmen<br />
zutreffen, die durch die Bellschen Ungleichungen 184 beschrieben werden.<br />
Um diesen Gedanken besprechen zu können, stellt sich zunächst<br />
die Frage, was dabei unter einem „kausalen Modell“ zu verstehen ist. Zu<br />
diesem Zweck nennt van Fraassen (1991, 89) drei Bedingungen, die<br />
kausale Modelle charakterisieren sollen 185 . Die wesentlichste ist die Forderung<br />
nach einer gemeinsamen Ursache für unsere Korrelation, die die<br />
beiden Meßergebnisse gegeneinander abschirmt, die auch van Fraassen<br />
für eine Art von Minimalbedingung für Kausalität hält. Dazu kommen<br />
zwei weitere Lokalitätsbedingungen, die besagen, daß die gemeinsame<br />
Ursache (als zeitlich vorgängiges Ereignis) nicht von den Messungen beeinflußt<br />
wird und auch bei gegebenem „Common-Cause“ die oben genannte<br />
Lokalität erhalten bleibt (sonst würde eine Trivialisierung möglich,<br />
indem man als gemeinsame Ursache einfach die Konjunktion der<br />
Meßergebnisse wählt).<br />
Sind diese fünf Bedingungen erfüllt (die zwei, die das Phänomen beschreiben<br />
und die drei, die uns sagen, was ein kausales Modell für das<br />
Phänomen sein soll), lassen sich, ohne die Quantenmechanik bemühen<br />
zu müssen, die auf Bell (1964 und 1966) zurückgehenden Ungleichungen<br />
für bestimmte konditionale Wahrscheinlichkeiten ableiten. Die Ungleichungen<br />
der Wahrscheinlichkeiten sind aber einer experimentellen<br />
184 Die Ungleichungen finden sich an verschiedenen Stellen bei van Fraassen<br />
(1991), z. B. auf S. 93.<br />
185 Das sind die Bedingungen, die aus der Diskussion von EPR-Situationen<br />
bekannt sind.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 420<br />
Überprüfung zugänglich, und wir können also testen, ob die Welt tatsächlich<br />
so ist, wie es aus unserer Forderung nach einem kausalen Modell<br />
folgen würde. Das EPR-Paradox sagt uns, daß die Quantenmechanik<br />
diese Behauptung verneint, aber es ist erst in den letzten Jahrzehnten<br />
insbesondere in den Experimenten von Aspect und anderen (z. B. 1982<br />
und 1985) gelungen zu demonstrieren, daß das nicht nur eine exzentrische<br />
Konsequenz der Quantenmechanik ist, sondern daß die Verletzung<br />
der Bellschen Ungleichungen auch experimentell bestätigt werden kann.<br />
Intuitiv widerlegen die experimentellen Resultate unsere Anfangsvermutung,<br />
der jeweilige Spin der Teilchen wäre schon in der Abstrahlungsquelle<br />
festgelegt worden. Ein solcher Common Cause für die perfekte<br />
Korrelation ist mit der Quantenmechanik und den Aspect Ergebnissen<br />
nicht vereinbar. Das belegt, daß sich unsere präzisierten Vorstellungen<br />
von Kausalität auf diese Systeme nicht anwenden lassen, obwohl wir<br />
auch nicht sagen möchten, es handele sich um nichtkausale Zusammenhänge.<br />
Dabei ist „experimentelle Überprüfung“ natürlich immer mit den<br />
Problemen und Risiken behaftet, die Duhem schon genannt hat, wonach<br />
wir uns jeweils auf andere Theorien unseres Hintergrundwissens zu stützen<br />
haben; sie ist daher natürlich mit der entsprechenden Vorsicht zu bewerten.<br />
Gleichwohl haben wir alle Gründe für die angegebenen Beschreibungen<br />
auf unserer Seite und der bloße Hinweis, daß wir zur<br />
Interpretation der Messungen immer auf andere Annahmen angewiesen<br />
sind, die vielleicht falsch sein könnten, trägt kaum zur Rettung der kausalen<br />
Modelle bei.<br />
Also haben wir wiederum einen grundlegenden Phänomenbereich<br />
gefunden, für den wir zwar über exzellente wissenschaftliche Darstellungen<br />
in Form der Quantenmechanik verfügen, der sich aber nicht in ein<br />
kausales Modell, noch nicht einmal ein statistisches vom Typ CC, einbetten<br />
läßt. Die Forderung nach einem „Common Cause“ stößt spätestens<br />
hier an eine Grenze. Salmon erwägt noch zwei Hypothesen, um seine<br />
Kausalitätsvorstellung mit den EPR-Situationen zu versöhnen. Die erste<br />
ist die Aufgabe der Lokalitätsvorstellung und die Annahme einer Fernwirkung<br />
(Salmon 1984, 250ff). Allerdings ist die Annahme einer derartigen<br />
Fernwirkung relativ ad hoc, und es gibt keine empirischen Hinweise<br />
auf Fernwirkungen. Gerade für Salmon würde dieser Weg auch eine weitere<br />
Aufweichung seiner Vorstellung von Kausalität bedeuten, weil damit<br />
eine wesentliche Eigenschaft der kausalen Übertragung in der Relativitätstheorie<br />
aufgegeben würde und man für Fernwirkungen nicht mehr in<br />
einem anspruchsvollen Sinn des Wortes von einem kausalen Prozeß der<br />
Übertragung sprechen könnte. Die zweite Brückenhypothese, die Sal-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 421<br />
mon (1984, 256ff) in Betracht zieht, ist eine holistische Sicht physikalischer<br />
Systeme mit „remote conservation“, aber sie wird auch nicht weiter<br />
ausformuliert, so daß Salmon das Gebiet der Erklärungen in der<br />
Quantenmechanik weitgehend unverrichteter Dinge verlassen muß.<br />
Wie ausgesprochen schwierig es ist, eine statistische Theorie der<br />
Kausalität zu entwerfen, dokumentiert auch ein Beispiel von Michael<br />
Tooley. Eine geradezu minimale Anforderung an die Ursache U einer<br />
Wirkung E scheint zu sein, daß U die konditionale Wahrscheinlichkeit<br />
von E erhöht:<br />
P(W,U) > P(W)<br />
Doch selbst diese harmlose Bedingung (Suppes spricht davon, daß U in<br />
diesem Fall prima facie Ursache von W sei) hat antiintuitive Konsequenzen.<br />
Tooley (1987, 234f; Sosa/Tooley 1993, 20f) erläutern das an folgendem<br />
Fall: Nehmen wir an, es gäbe zwei Krankheiten A und B, wobei A<br />
mit Wahrscheinlichkeit 0,1 zum Tode führt und B mit 0,8. Jede der<br />
Krankheiten würde einen aber auf Dauer gegen die andere immunisieren.<br />
Außerdem sei die Wahrscheinlichkeit, die unangenehme Erkrankung<br />
B zu bekommen gerade ½. Wenn wir einmal von anderen Risikofaktoren<br />
absehen, wäre die unkonditionale Wahrscheinlichkeit zu sterben<br />
mindestens 0,4 — allein durch die Möglichkeit an B zu erkranken<br />
und daran zu sterben. Wenn jetzt aber jemand A bekommt, sinkt seine<br />
Sterbewahrscheinlichkeit auf 0,1, da ihm nun jedenfalls B erspart bleibt.<br />
Sollte diese Person dann an A sterben, war die Infizierung mit A die Ursache<br />
seines Todes, obwohl es seine Sterbewahrscheinlichkeit nur herabgesetzt<br />
hat. Mit rein statistischen Mitteln scheinen wir dem Ursachenkonzept<br />
nicht so einfach beizukommen.<br />
Das grundsätzliche Problem kausaler Theorien und speziell von Salmons<br />
Ansatz, die zwei folgenden Anforderungen unter einen Hut zu<br />
bringen, ist daher nicht gelöst worden. Erstens eine gehaltvolle Analyse<br />
von Kausalität anzugeben, die auf der einen Seite möglichst alle Fälle beinhaltet,<br />
in denen wir üblichererweise von Kausalität sprechen, die aber<br />
auf der anderen Seite noch Informationen liefert, die über eine Humesche<br />
Analyse hinausgehen und eine gewisse Substanz besitzen. Zweitens<br />
eine Explikation zu erbringen, die sich nicht kurzerhand auf geheimnisvolle<br />
Notwendigkeiten in der Natur stützt, sondern auf Zusammenhänge,<br />
die kohärent in unser heutiges Weltbild einzubetten sind und auf die<br />
wir daher auch in Erklärungen tatsächlich bezug nehmen können. Dazu<br />
beruft sich Salmon auf die Kausalitätsvorstellung der speziellen Relativitätstheorie,<br />
zumal diese unseren intuitiven Konzeptionen von Kausalität
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 422<br />
wohl am nächsten kommt. Damit kann er zwar gehaltvolle Aussagen<br />
über Kausalität aufstellen – wenn auch keinesfalls unkontroverse, wie<br />
wir gesehen haben –, aber er ist dann auch auf eine bestimmte Vorstellung<br />
von Kausalität festgelegt, die sich für viele Bereiche als unangemessen<br />
erweist. Sie beinhaltet die Konzeption raumzeitlich kontinuierlicher<br />
Vorgänge und ist weitgehend deterministisch. Daran ändert letztlich<br />
auch Salmons Theorie der Gabelungen nichts Wesentliches, denn auch<br />
diese ist nur anwendbar, wenn die Vorgänge eigentlich deterministisch<br />
sind (s. van Fraassen 1991, 85). Versuche, dennoch eine Versöhnung von<br />
Kausalität mit tatsächlich probabilistischen Vorgängen zu erreichen, wie<br />
die genannten von Salmon oder andere von Cartwright (1988), haben<br />
zunächst einen gewissen ad hoc Charakter und entfernen sich immer<br />
stärker von unserem gewöhnlichen Kausalitätsbegriff, wodurch Kausalität<br />
als eine zunehmend uninteressantere Beziehung erscheinen muß. Im<br />
nächsten Abschnitt möchte ich der Vermutung, daß dieses Problem unlösbar<br />
sein könnte, weitere Gründe hinzufügen.<br />
f) Eine deflationäre Theorie der Kausalität<br />
Was berechtigt uns dazu, in bestimmten Fällen das Vorliegen einer Kausalbeziehung<br />
zu vermuten, und warum geht diese Vermutung über die<br />
beobachteten Regularitäten oder gesetzesartigen Verknüpfungen hinaus?<br />
Van Fraassen argumentiert in (1980) und einer Reihe anderer Arbeiten<br />
für seine empiristische Wissenschaftskonzeption, die er als konstruktiven<br />
Empirismus bezeichnet. Dessen hervorstechendstes Merkmal ist sein wissenschaftlicher<br />
Antirealismus und, man muß wohl sagen, eine letztlich<br />
instrumentalistische Interpretation der Wissenschaft. 186 Der möchte ich<br />
mich nicht anschließen, aber doch einem anderen Aspekt der van Fraassenschen<br />
Wissenschaftsauffassung, nämlich seiner skeptischen Einschätzung<br />
von Kausalität, die man eine Art von deflationärem Verständnis der<br />
Kausalität nennen könnte. Es drückt sich aus in einem „Definitionsvorschlag“<br />
(van Fraassen 1980, 124):<br />
the causal net = whatever structure of relations science describes<br />
Van Fraassens Begründung für eine so stark verwässerte Konzeption der<br />
von Philosophen geliebten Kausalität, stützt sich auf seine Untersuchungen<br />
zur Quantenmechanik. Dazu möchte ich noch einige allgemeinere<br />
186 Van Fraassen ist ein wenig vorsichtiger als die klassischen Instrumentalisten,<br />
weil er nicht behauptet, es gäbe keine theoretischen Entitäten, sondern<br />
„nur“ eine agnostische Haltung ihnen gegenüber empfiehlt, aber das macht ihn<br />
aus der Sicht eines Realisten auch nicht schöner.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 423<br />
Überlegungen hinzufügen. Seit Humes Kritik am Kausalitätskonzept gibt<br />
es eine philosophische Diskussion um den Kausalitätsbegriff mit zahlreichen<br />
Explikationsvorschlägen. Insbesondere Regularitätskonzeptionen<br />
von Kausalität, wie man sie schon bei Hume findet, und hierhin rechne<br />
ich auch Vorschläge (Hempel, Stegmüller), die Kausalität über bestimmte<br />
Ablaufgesetze definieren wollen, passen eigentlich zu der von<br />
van Fraassen geäußerten Vorstellung. Für bestimmte Regularitäten, die<br />
von den Wissenschaften als zeitliche Prozesse beschrieben werden,<br />
spricht man dann von kausalen Beziehungen. Diese minimale Forderung<br />
an kausale Vorgänge kann man kaum tadeln und einem entsprechenden<br />
Verständnis von Kausalität möchte auch ich mich anschließen. Problematisch<br />
wird der Kausalitätsbegriff erst dort, wo zusätzlich eine Form von<br />
Notwendigkeit in der Natur und nicht nur in unseren Beschreibungen<br />
behauptet wird. 187 Der deflationäre Kausalitätsbegriff faßt dagegen einfach<br />
Ablaufgesetze unter dem Stichwort der Kausalität zusammen, ohne<br />
damit die Behauptung zu verbinden, hiermit werde eine besondere Relation<br />
zwischen Ereignissen beschrieben, die sich durch gemeinsame relationale<br />
Eigenschaften von anderen Beziehungen zwischen Ereignissen<br />
abgrenzen lassen. Oder anders ausgedrückt, es wird mit „Kausalität“<br />
nicht eine substantielle Eigenschaft in der Natur bezeichnet, sondern nur<br />
gewisse Ähnlichkeiten von Ablaufgesetzen, die die Wissenschaft aufstellt.<br />
In unseren Common Sense Theorien der Welt finden wir Konzeptionen<br />
von Kausalität, die auch von Philosophen aufgegriffen wurden, wonach<br />
Ereignisse oder Gegenstände andere Ereignisse in ihrer näheren<br />
Umgebung mit Hilfe ihrer kausalen Eigenschaften notwendig hervorbringen<br />
können. Diese Konzeption ist häufig deterministisch zu verstehen.<br />
Kant nahm sogar an, daß wir eine Vorstellung eines deterministischen<br />
kausalen Zusammenhangs in der Welt annehmen müssen, um die<br />
vielfältigen Erscheinungen unserer Erfahrung überhaupt in eine verständliche<br />
Ordnung bringen zu können. Die Entwicklung unseres Bildes<br />
der Welt hat unter dem Eindruck der Naturwissenschaften aber eine<br />
Weiterentwicklung in einer anderen Richtung erfahren, und ich möchte<br />
kurz resümieren, welche inhaltlichen Vorstellungen wir eigentlich mit<br />
der Kausalbeziehung noch verbinden können. Einen ersten Einblick bieten<br />
dazu die kausalen Rahmentheorien, die in der Physik verwendet<br />
werden, innerhalb derer spezielle physikalische Theorien angesiedelt<br />
sind.<br />
Da ist zunächst die klassische Physik, die stark durch mechanistische<br />
Vorstellungen geprägt ist und geradezu das wissenschaftliche Gegen-<br />
187 Wogegen van Fraassen auch explizit in (1977) argumentiert.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 424<br />
stück unserer Common Sense Theorien der Kausalität zu sein scheint.<br />
Doch die Newtonsche Mechanik entpuppt sich bei genauerem Hinsehen<br />
überraschenderweise als nicht so intuitiv und leichtverständlich wie zunächst<br />
angenommen. Zunächst beinhaltet Newtons Gravitationstheorie<br />
die ihm auch selbst suspekten unmittelbaren Fernwirkungen. Danach übt<br />
ein Körper eine Wirkung auf einen sehr entfernten Körper ohne Zeitverzögerung<br />
und ohne Vermittlung eines dazwischenliegenden Mediums<br />
aus. Hierfür finden wir kaum ein plausibles Modell in unserem Alltagsverständnis<br />
einer kausal strukturierten Welt. Das paßt auch genaugenommen<br />
nicht recht in eine konsequente mechanistische Vorstellung der<br />
Welt, wie sie etwa noch von Descartes intendiert war. Wenn man von<br />
den Gravitationskräften einmal absieht, verhält sich die klassische Mechanik<br />
jedoch überwiegend gutartig. Sie wurde lange Zeit auch für eine<br />
deterministische Theorie gehalten, was sich allerdings als falsch erwies,<br />
wie Earman (1986, 32ff; 1989,177f) anhand der sogenannten „invaders<br />
from infinity“ zeigen konnte. Allerdings hat sie eine deterministische<br />
Gestalt, solange man nur kausal isolierte und beschränkte Raum-Zeit-<br />
Gebiete betrachtet, was ich als lokale Determiniertheit bezeichne. Besser<br />
steht es da schon um die Spezielle Relativitätstheorie, die weder Fernwirkungen<br />
gestattet, noch entsprechende Verletzungen des Determinismus<br />
aufweist. Diese Gutartigkeit der speziellen Relativitätstheorie und ihre<br />
Nähe zu unseren intuitiven Konzeptionen von Kausalität mag das Motiv<br />
sein, das Salmon (1984) bewog, diese Theorie als Hintergrund für seine<br />
Vorstellung von Kausalität und Erklärung zu wählen, wobei er allerdings,<br />
bestimmte statistische Formen von Kausalität mit einzubeziehen<br />
versuchte. In der allgemeinen Relativitätstheorie sind zwar keine Fernwirkungen<br />
zugelassen, aber durch sogenannte Singularitäten in der<br />
Raum-Zeit-Mannigfaltigkeit entsteht auch hier eine Indeterminiertheit<br />
des Weltgeschehens durch die vorherigen Weltzustände. In den Singularitäten<br />
nimmt die Raum-Zeit-Metrik unendliche Werte an, aber eine genauere<br />
Bestimmung, worum es sich dabei handelt, ist an dieser Stelle<br />
nicht möglich. 188 Die Existenzsätze für Singularitäten von Hawking und<br />
Penrose zeigen jedenfalls, daß man dieses Phänomen zumindest im großen<br />
Maßstab ernst zu nehmen hat, obwohl es lokale Bereiche gibt, in denen<br />
sich die allgemeinrelativistischen Theorien deterministisch verhalten.<br />
Endgültig scheitern müssen unsere intuitiven Kausalitätsvorstellungen<br />
im Fall der Quantenmechanik. Sie ist die erste genuin statistische<br />
188 Siehe Earman (1989, 185ff) und z. B. Hawking/Ellis (1973) über Singularitäten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 425<br />
Theorie unter den angeführten Theorien. Hier ist kaum der geeignete<br />
Ort für eine ausführlichere Diskussion der Quantenmechanik, aber einige<br />
Anmerkungen sollen dennoch folgen. Viele Interpretationsprobleme<br />
der Quantenmechanik ranken sich um ihre bekannten Paradoxien insbesondere<br />
das Einstein-Podolsky-Rosen Paradox. Sein Widerstand gegen<br />
eine verständliche Interpretation der Theorie hat sogar dazu geführt,<br />
daß es auch Vorschläge gibt, die Quantenmechanik wieder als eine Fernwirkungstheorie<br />
zu denken (s. o.). Eindeutig ist jedenfalls, daß es sich<br />
bei ihr um eine nicht deterministische Theorie handelt (s. z. B. Earman<br />
1986, 226ff). Ein geradezu paradigmatisches Beispiel für einen indeterministischen<br />
Prozeß ist der radioaktive Zerfall. Für ein einzelnes Radium<br />
Atom ist nicht festgelegt, wann es tatsächlich zerfällt. Man kann bestenfalls<br />
Wahrscheinlichkeiten für bestimmte Zeiträume angeben. Die Schrödingersche<br />
-Funktion beschreibt die zeitliche Entwicklung eines quantenmechanischen<br />
Zustands zwar in deterministischer Weise, aber jeder<br />
derartige Zustand bietet selbst wiederum nur eine Wahrscheinlichkeitsverteilung<br />
für alle meßbaren Größen eines quantenmechanischen Systems<br />
an. Dazu kommt noch, daß die Schrödingergleichung den Meßprozeß<br />
selbst nicht beschreiben kann, so daß dieser der deterministischen<br />
Entwicklung der Wahrscheinlichkeiten noch zusätzlich einen<br />
Strich durch die Rechnung macht. Eine Tabelle soll noch einmal im<br />
Überblick zeigen, wie heterogen die gerade betrachteten Kausalitätsvorstellungen<br />
sind.<br />
Einige Kausalitätsvorstellungen in der Physik<br />
Fernwirkungen<br />
deterministisch<br />
lokal/global<br />
probabilistische<br />
Gesetze<br />
klassische Mechanik ja ja/nein nein<br />
Spezielle<br />
Relativitätstheorie<br />
nein ja/ja nein<br />
Allgemeine<br />
Relativitätstheorie<br />
nein (ja)/nein nein<br />
Quantenmechanik unbestimmt nein/nein ja<br />
Das Dilemma des Kausalitätstheoretikers läßt sich damit noch einmal so<br />
formulieren: Jede Kausalitätstheorie muß sich entweder einer dieser<br />
Konzeptionen anschließen und damit viele Beispiele aus anderen Bereichen<br />
ausschließen, oder sie ist so allgemein abzufassen, daß sie diese he-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 426<br />
terogenen Bereiche gleichermaßen beinhaltet, was nur durch entsprechende<br />
Inhaltslosigkeit des Kausalitätskonzepts zu erreichen ist. Folgt<br />
man van Fraassen, hat eine nicht-deflationäre Kausalitätstheorie sogar<br />
mit noch größeren Problemen zu kämpfen als dem, welche Kausalitätsvorstellung<br />
sie wählen sollte. Die Quantenmechanik erlaubt, wie ich im<br />
vorigen Abschnitt erläutert habe, keine Vorstellung von Kausalität, die<br />
diesen Namen noch verdienen würde, auch keine statistische. Die Bedeutung<br />
der Quantenmechanik für die Brauchbarkeit einer Kausalitätskonzeption<br />
dürfen wir auch nicht unterschätzen. Die Quantenmechanik<br />
ist in dem heutigen physikalischen Weltbild nicht eine Theorie unter vielen,<br />
sondern die Theorie mit dem umfangreichsten Anwendungsbereich<br />
aller bisherigen Theorien und dem kleinsten Unschärfebereich. Allein<br />
die Quantenmechanik gibt daher schon Anlaß zu der Behauptung, daß<br />
wir keine umfassende adäquate Kausalitätstheorie entwickeln können<br />
und daß eine kausale Erklärungstheorie immer nur einen Teilbereich unserer<br />
Erklärungskonzeption darstellen kann.<br />
Der Vorschlag, die objektive Relevanzbeziehung zwischen Explanans<br />
und Explanandum als die von Ursache und Wirkung zu kennzeichnen,<br />
stößt also auf eine ganze Reihe von Problemen. Zunächst finden wir<br />
eine Vielzahl von Erklärungstypen, die zumindest keine typischen Kausalerklärungen<br />
darstellen. Hier sind es eher strukturelle Merkmale einer<br />
Situation, die dadurch erklärt werden, daß sie Instanzen eines Modells<br />
sind. Wollten wir diese Beispiele mit unter den Kausalbegriff subsumieren,<br />
wären wir gezwungen ihn sehr zu liberalisieren, was mit einem weiteren<br />
Substanzverlust verbunden wäre, gleichgültig, wie wir die Kausalbeziehung<br />
zu explizieren gedenken. Außerdem erweist sich das Kausalitätskonzept<br />
als nicht sehr inhaltsreich, wenn wir es nicht im Rahmen<br />
überholter mechanistischer Konzeptionen kombiniert mit metaphysischen<br />
Annahmen wie der eines notwendigen Zusammenhangs explizieren<br />
wollen, sondern in Einklang mit heutigen naturwissenschaftlichen<br />
Vorstellungen von Kausalität. Je allgemeiner wir Kausalität aber fassen,<br />
um damit möglichst viele Fälle von Ursache-Wirkungs Beziehungen zu<br />
erreichen, um so weniger ist sie noch geeignet, wesentliche von unwesentlichen<br />
Zusammenhängen zu unterscheiden. So stoßen wir auf viele<br />
statistische Korrelationen, für die keine Kausalbeziehungen vermuten<br />
und umgekehrt auf viele Kausalbeziehungen, die sich nicht als Korrelationen<br />
beschreiben lassen.<br />
Ein weiterer Punkt, der bisher nicht zur Sprache kam, weil bereits<br />
die Explikation von „Kausalität“ für eine Erklärungstheorie auf schier<br />
unüberwindliche Hindernisse stößt, ist das umgekehrte Phänomen, daß
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 427<br />
die Kausalbeziehung nicht nur üblicherweise zu eng gefaßt ist, um alle<br />
Beispiele von Erklärungen zu erfassen, sondern auch nicht hinreichend<br />
spezifisch ist, um immer Erklärungen zu liefern. Dazu ein Beispiel von<br />
Lipton (1991, 34ff), der sich selbst allerdings trotz der zahlreichen<br />
Schwächen dem kausalen Erklärungsmodell verschreibt, weil er keine<br />
bessere Alternative sieht. 189 Die kausale Vorgeschichte der meisten Ereignisse<br />
ist sehr lang und zahllose Aspekte und Teile dieser Geschichte<br />
können kaum zu Erklärungszwecken herangezogen werden. Insbesondere<br />
gehört der „Big Bang“ zur Vorgeschichte jedes anderen Ereignisses,<br />
aber natürlich würden wir uns in den meisten Fällen kaum mit der Auskunft:<br />
„Das kommt alles vom Big Bang“, zufriedengeben und annehmen,<br />
man hätte uns damit eine Erklärung für ein bestimmtes Ereignis<br />
präsentiert. Um die erklärungsrelevanten von den nicht relevanten Ursachen<br />
eines Ereignisses zu unterscheiden, formuliert Lipton (1991, 43ff)<br />
seine „Difference Condition“ in Anlehnung an Mill. Die stellt sicherlich<br />
eine wichtige Ergänzung jeder kausalen Erklärungskonzeption dar, bleibt<br />
aber an einigen Stellen selbst noch explikationsbedürftig.<br />
E. Resümee<br />
Neben den erkenntnistheoretischen Funktionen, die ich für Erklärungen<br />
in den ersten Kapiteln reserviert habe, dienen sie vor allem dazu, unser<br />
Verständnis der zu erklärenden Phänomene zu befördern. Das akzeptierte<br />
schon Hempel, der mit seinem DN-Schema die erste ausgearbeitete<br />
Erklärungstheorie vorgelegt hat, die für die Diskussion um wissenschaftliche<br />
Erklärungen seitdem das Paradigma darstellte, gegen das sich<br />
andere Vorschläge zu bewähren haben. Im Laufe der Jahre stellten sich<br />
allerdings so zahlreiche Anomalien ein, daß es aussichtslos erscheint, das<br />
DN-Schema mit kleineren Korrekturen wiederbeleben zu wollen. Die erste<br />
Gruppe solcher Schwierigkeiten betraf eine seiner wenigen wirklich<br />
substantiellen Forderungen, nämlich der nach einem Naturgesetz im Explanans.<br />
Trotz wiederholter Versuche gelang es nicht, eine befriedigende<br />
Auszeichnung von Naturgesetzen vor anderen Aussagen vorzunehmen<br />
und daneben trat noch das Problem auf, daß viele Erklärungen auch<br />
ohne Gesetzesprämisse auszukommen scheinen. Außerdem konnten andere<br />
metatheoretische Phänomene wie die der Erklärungsasymmetrie im<br />
189 Achinstein (1992) weiß einige überzeugende Kritiken zu Lipton vorzutragen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 428<br />
Rahmen der DN-Konzeption nicht behandelt werden, so daß Erklärungstheorien<br />
in anderen Richtungen gesucht wurden.<br />
Eine hilfreiche Ergänzung aller anderen Konzeptionen stellen die<br />
pragmatischen Ansätze dar, die zeigen, wie bestimmte pragmatische Faktoren<br />
der Erklärungssituation darauf Einfluß nehmen können, wonach<br />
genau gefragt wird. Doch der harte Kern einer Erklärungstheorie sollte<br />
weiterhin in objektiven Beziehungen zwischen Explanans und Explanandum<br />
zu suchen sein. Dazu kam die prominenteste kausale Erklärungstheorie<br />
zu Wort, für die der gesuchte objektive Zusammenhang gerade<br />
in dem von Ursache und Wirkung besteht. Doch auch sie weist zu viele<br />
Anomalien auf, um wirklich überzeugen zu können. Jede heute noch akzeptable<br />
Konzeption von Kausalität sieht sich vor dem unüberwindlichen<br />
Dilemma, daß sie auf der einen Seite so liberal gehalten sein muß,<br />
die meisten gewöhnlichen Fälle von Erklärungen miteinzubeziehen, aber<br />
auf der anderen Seite so substantielle Forderungen enthalten sollte, daß<br />
sie nicht als deflationäre Kausalitätstheorie à la van Fraassen endet.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 429<br />
IX Erklärung als Vereinheitlichung<br />
Da sich der Vorschlag, Erklärungen als Angabe von Ursachen zu betrachten,<br />
als nicht besonders erfolgversprechend erwiesen hat, möchte ich<br />
noch einmal an die wesentliche Aufgabe von Erklärungen in der Kohärenztheorie<br />
der epistemischen Rechtfertigung (KTR) erinnern, um einen<br />
anderen Ansatz zu konzipieren. Für die Kohärenztheorie haben Theorien<br />
vor allem die Aufgabe, mit Hilfe von Erklärungen wichtige inferentielle<br />
Zusammenhänge zwischen unseren Überzeugungen herzustellen.<br />
Genau diesen Aspekt betonen die Vereinheitlichungsansätze in der Erklärungsdebatte.<br />
Ihnen geht es in erster Linie um die systematisierende und<br />
vereinheitlichende Wirkung von Erklärungen, die für sie mit ihrer Erklärungskraft<br />
korreliert ist. Auch in diesem Ansatz versucht man, eine personen-<br />
und kontextunabhängige Relevanzbeziehung zu etablieren, die<br />
den harten Kern von Erklärungsbeziehungen ausmachen soll. Während<br />
Theorien und ihre kohärenzstiftende Funktion für pragmatische und<br />
kausale Ansätze nur eine untergeordnete Rolle spielten und von den jeweiligen<br />
Vertretern kaum thematisiert wurde, stehen sie für die Vereinheitlichungskonzeptionen<br />
im Vordergrund. Doch dabei besteht keineswegs<br />
Einmütigkeit darüber, was unter „Vereinheitlichung“ zu verstehen<br />
ist. Zwei vieldiskutierte Vorschläge, die in unterschiedliche Richtungen<br />
zielen, sollen den Ausgangspunkt eines Verständnisses von Vereinheitlichung<br />
bilden.<br />
A. Friedmans Vereinheitlichung der Phänomene<br />
Ein erster konkreter Ansatz zur Analyse von Vereinheitlichung ist der<br />
Michael Friedmans aus dem Jahre 1974. 190 Es finden sich zwar auch bei<br />
Hempel bereits vereinzelt Bemerkungen zur großen Bedeutung der Systematisierungsleistung<br />
von Theorien, aber als einzigen wirklichen Vorläufer<br />
für seine Konzeption weiß Friedman (1988, 185) nur William<br />
190 Im folgenden werde ich mich auf die deutsche Übersetzung (1988) beziehen,<br />
zumal sich in Schurz (1988) bereits ein Teil der Diskussion um diesen<br />
Ansatz finden läßt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 430<br />
Kneale zu nennen. 191 Wie schon erwähnt, verweist Friedman (1988,<br />
172ff) zunächst darauf, daß wir in den Wissenschaften im Normalfall<br />
nicht Einzelereignisse, sondern vornehmlich Phänomene also allgemeinere<br />
Regularitäten oder sogar Gesetze erklären. Für Friedman besteht dabei<br />
eine Vereinheitlichung unseres Wissens vor allem in einer Reduzierung<br />
einer Vielzahl von Phänomenen auf wenige Gesetze.<br />
Sein Beispiel dafür ist die kinetische Gastheorie, die etwa erklären<br />
kann, daß Gase approximativ dem Boyle-Charlesschen Gesetz gehorchen.<br />
Wäre das die einzige Leistung der kinetischen Gastheorie, könnte<br />
man zu Recht fragen, warum wir sie überhaupt einführen und es nicht<br />
schlicht beim Boyle-Charlesschen Gesetz belassen. Forderungen nach<br />
theoretischer oder ontologischer Sparsamkeit würden das jedenfalls implizieren.<br />
Friedmans Antwort (1988, 184) ist eindeutig: Die kinetische<br />
Gastheorie erklärt neben dem Boyle-Charlesschen Gesetz eine ganze<br />
Reihe von anderen Phänomenen wie das Grahamsche Diffusionsgesetz<br />
und eine Reihe von Phänomenen spezifischer Wärmekapazitäten. Außerdem<br />
stiftet sie neue Verbindungen, die ohne die kinetische Gastheorie<br />
nicht sichtbar waren, zwischen dem Verhalten von Gasen und vielen mechanischen<br />
Erscheinungen, die wir schon kennen. Sie wirkt daher eindeutig<br />
kohärenzstiftend, 192 indem sie inferentielle Zusammenhänge dieser<br />
Art herstellt. Für Friedman ist das auch der entscheidende Schritt zu<br />
einem wissenschaftlichen Verständnis:<br />
Wieder haben wir eine Vielzahl von unerklärten und unabhängigen<br />
Phänomenen auf eines reduziert. Ich behaupte, daß dies jene entscheidende<br />
Eigenschaft von wissenschaftlichen Theorien ist, nach<br />
der wir suchen; dies ist das Wesen von wissenschaftlicher Erklärung<br />
– Wissenschaft erhöht unser Verständnis der Welt durch Reduktion<br />
der Gesamtzahl von unabhängigen Phänomenen, die wir als grundlegend<br />
bzw. gegeben akzeptieren müssen. (Friedman 1988, 185)<br />
Werfen wir nun einen Blick darauf, wie Friedman versucht, das bisher<br />
skizzenhaft vorgestellte Programm in eine konkretere Konzeption von<br />
Vereinheitlichung umzusetzen. Friedman nennt die Menge der akzeptierten<br />
gesetzesartigen Sätze „K“. Die soll deduktiv abgeschlossen (in bezug<br />
auf gesetzesartige Aussagen) sein. Das Problem, um das es ihm geht, ist<br />
191 Meines Erachtens sind hier jedoch auch Mill, in jedem Fall aber Whewell<br />
(1967) zu erwähnen, auf den ich im folgenden wieder zurückkommen werde,<br />
der diese Form von Vereinheitlichung unter dem Stichwort „consilience of<br />
inductions“ behandelt.<br />
192 Den Ausdruck „Kohärenz“ verwendet Friedman allerdings nicht.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 431<br />
die Frage, wann ein Gesetz die Menge K reduziert, so daß eine gewisse<br />
Zahl von unabhängigen Gesetzen durch ein neues Gesetz ersetzt werden<br />
kann. Natürlich taucht sofort die Frage auf, wie wir Gesetze zählen können<br />
und wie wir dabei trivialen Vereinheitlichungen entgehen können.<br />
So können wir zu je zwei Gesetzen z. B. zu ihrer Konjunktion als einem<br />
neuen Gesetz übergehen, das die zwei anderen überflüssig macht. Friedman<br />
weiß zur Analyse des Begriffs „unterschiedliche Gesetze“ keine<br />
wirklich erhellenden Antworten anzubieten und spricht zunächst informell<br />
von „unabhängig akzeptierbaren“ Gesetzen. Die werde ich im folgenden<br />
kurz als „unabhängige Gesetze“ bezeichnen. Mit „s ist unabhängig<br />
von q“ soll ungefähr gemeint sein, daß die Gründe, die uns genügen,<br />
s zu akzeptieren, nicht genügen, um auch q anzuerkennen. Nehmen wir<br />
dieses Konzept einfach als Grundbegriff und schauen, ob sich darauf<br />
eine angemessene Explikation von Vereinheitlichung stützen läßt.<br />
Da Friedman nur wenige intuitive Erläuterungen gibt, wieso er gerade<br />
die folgenden Definitionen wählt und seine Notation auch stellenweise<br />
unübersichtlich ist, gebe ich eine etwas vereinfachte Darstellung<br />
seiner Begrifflichkeit an, die ich anschließend mit eigenen Hilfsbegriffen<br />
erläutern möchte. Doch zunächst zu den formalen Definitionen:<br />
s, p, und q seien Sätze aus K während M, Z(s) etc. Teilmengen von K<br />
sind, wobei ich die weitere Bezugnahme auf K, die Friedman immer<br />
mitschleppt, weglassen werde.<br />
1) Z(s) ist eine Zerlegung von s gdw.<br />
a) Z(s) ist logisch äquivalent zu s<br />
b) Alle Elemente von Z(s) sind unabhängig von s.<br />
(Mit Z(s) sind ab jetzt immer Zerlegungen von s gemeint und außerdem<br />
läßt sich die Definition für Zerlegungen auch auf Mengen von Sätzen in<br />
analoger Weise ausdehnen.)<br />
2) s ist atomar, wenn es keine Zerlegung von s gibt. 193<br />
3) Z(s) ist atomare Zerlegung von s gdw. alle Elemente von Z(s)<br />
atomar sind.<br />
4) Kardinalität von M: Kard(M) :=<br />
inf{ Z(M); mit Z(M) ist atomare Zerlegung von M}<br />
5) s reduziert M gdw. Kard(M {s}) < Kard(M)<br />
193 Hier nehme ich eine geringfügige Änderung gegenüber Friedmans Definition<br />
vor, der sich ohne Erklärung auf Zerlegungen in Paarmengen beschränkt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 432<br />
6) Unabhängige Konsequenzen von s:<br />
Kons(s) := { q; q folgt aus s und q ist unabhängig von s}<br />
Damit läßt sich nun Friedmans erste Explikation von Erklärung angeben:<br />
D1) s erklärt q gdw. q Kons(s) und s reduziert Kons(s)<br />
Eine Zerlegung von s gibt eine Menge von Phänomenen oder Untergesetzen<br />
von s an, die aus s abzuleiten sind, aber unabhängig von s sind. Die<br />
Gründe, die ausreichen, ein Untergesetz q Z(s) zu akzeptieren, genügen<br />
also noch nicht, um s zu akzeptieren (1b). Allerdings folgt aus allen<br />
Untergesetzen der Zerlegung zusammengenommen wiederum s (1a). Anders<br />
ausgedrückt: s geht (was seine deduktiven Konsequenzen angeht)<br />
auch nicht wirklich über die Menge seiner Untergesetze hinaus. Eine<br />
atomare Zerlegung gibt eine Menge von Phänomenen an, die echte Phänomene<br />
in dem Sinne sind, daß sie nicht etwa künstlich (als Konjunktion)<br />
zusammengesetzt sind. Man könnte sie auch als atomare Untergesetze<br />
von s bezeichnen. Die Anzahl der kleinsten solcher Mengen von echten<br />
Untergesetzen, die sich aus s herleiten lassen, soll die Kardinalität<br />
von s darstellen. Von s sagt man außerdem, daß es die Menge seiner unabhängigen<br />
Konsequenzen reduziert, wenn seine Einbringung eine neue<br />
atomare Zerlegung gestattet, die kleiner ist, als alle vorherigen atomaren<br />
Zerlegungen. D.h. intuitiv gesprochen: Bestimmte Phänomene, die vorher<br />
als wesentlich verschiedene Phänomene interpretiert wurden, lassen<br />
sich nun mit Hilfe von s als Instanzen eines Phänomens verstehen. Nur<br />
dann wirkt s nach Friedman als Erklärung. Das erscheint auf den ersten<br />
Blick als eine interessante Umsetzung der intuitiven Überlegungen Friedmans,<br />
aber eine weitere Betrachtung der Konsequenzen dieser Definition<br />
– die Friedman selbst leider verabsäumt –, belegt, weshalb die Vereinheitlichung,<br />
die unsere wissenschaftlichen Theorien unzweifelhaft leisten,<br />
mit diesem Instrumentarium nicht einzufangen ist.<br />
Eine erste wichtige Erläuterung dieser formalen Explikation bietet<br />
Kitcher (1976, 209), der zeigen kann, daß für nicht atomare Sätze s gilt:<br />
Kard(Kons(s) {s}) = Kard(Kons(s)),<br />
d.h. s kann in diesem Fall Kons(s) nicht reduzieren und hat daher keine<br />
Erklärungsleistung im Sinne von (D1). Demnach können überhaupt nur<br />
atomare Sätze erklären. Ein Blick auf einige Beispiele aus der Wissenschaft<br />
zeigt, warum das kein wünschenswertes Resultat sein kann. Kitcher<br />
(1976, 209f) gibt selbst einige solcher Beispiele an. Etwa die übliche<br />
Ableitung des Gesetzes der adiabatischen Ausdehnung eines idealen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 433<br />
Gases, für die die Konjunktion zweier unabhängiger Gesetze, nämlich<br />
dem Boyle-Charlesschen und dem ersten Gesetz der Thermodynamik<br />
benötigt wird. Überhaupt kommt es des öfteren vor, daß wir Phänomene<br />
wie Blitz und darauffolgenden Donner anhand von Theorien aus verschiedenen<br />
Gebieten – hier Elektrizitätslehre, Thermodynamik und Akustik<br />
– erklären, die nur zusammengenommen die Erklärungsleistung<br />
vollbringen. 194 Friedman gibt noch eine zweite Definition von „Erklärung“,<br />
da er aus anderen als den gerade genannten Gründen mit der ersten<br />
nicht zufrieden ist, aber auch diese vermag die Einwände gegen<br />
seine Explikation von „Erklärung“ letztlich nicht zu entkräften (s. Kitcher<br />
1976, 211f), so daß er sich selbst in seinen späteren Arbeiten (etwa<br />
1981 & 1983) zu den Themen Vereinheitlichung und Erklärung nicht<br />
wieder auf sie stützt.<br />
Die Problemstellung, wann wir von einem Gesetz sagen können, es<br />
sei atomar, hat Salmon (1989, 94ff) anhand von weiteren Beispielen verfolgt.<br />
Insbesondere wirft er die Frage auf, ob es überhaupt atomare Gesetze<br />
gibt. Betrachten wir zu dieser Frage einmal einfache Gesetze der logischen<br />
Form: x (FxGx). Salmon weist darauf hin, daß sie schon<br />
dann nicht atomar sind, wenn sich eine Zerlegung des Anwendungsbereichs<br />
F in Mengen H1,,Hk finden läßt, mit der sich das Gesetz zerlegen<br />
läßt in Gesetze der Form: x (H1xGx), , x (HkxGx), wobei<br />
alle Gesetze unabhängig voneinander zu akzeptieren sind. Das erscheint<br />
aber durchaus nicht unrealistisch, wie Salmon am Beispiel des Newtonschen<br />
Gravitationsgesetzes belegen kann. Die Anwendungsmenge zerfällt<br />
nach Salmon etwa in die Menge der Anziehung zweier schwerer Körper,<br />
der Anziehung von leichtem und schwerem Körper, sowie der von zwei<br />
leichten Körpern. Die ersten beiden erfuhren schon bald unabhängige<br />
Unterstützung, die sie als unabhängig voneinander akzeptierbar auswies.<br />
Solange die Behauptung der Gravitation für den dritten Bereich allerdings<br />
nur aus dem allgemeinen Gravitationsgesetz selbst folgte, blieb das<br />
Newtonsche Gesetz atomar. Doch mit der Drehwaage von Cavendish<br />
ließ sich auch der dritte Anwendungsbereich unabhängig von den anderen<br />
akzeptieren. Damit müßte nach Friedman das Newtonsche Gravitationsgesetz<br />
seine Erklärungskraft verloren haben, was ausgesprochen unplausibel<br />
erscheint. Intuitiv sollte es durch seine direkte Anwendung in<br />
diesem weiteren Bereich viel eher gestärkt worden sein.<br />
Dieses nun unschwer erkennbare Defizit innerhalb der Friedmanschen<br />
Metatheorie, aber auch der Salmonschen Analyse des Falles, resul-<br />
194 Kitcher (1976, 210) erwähnt dieses Beispiel und verweist für die Erklärung<br />
auf Few (1975).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 434<br />
tiert im wesentlichen aus einer Nichtbeachtung von Brückenstrukturen<br />
wie Constraints (s. VII.C.2), die einen Informationstransfer unter den<br />
intendierten Anwendungen der Gravitationstheorie bewirken. Unter Unabhängigkeit<br />
sollte man nicht nur unabhängig voneinander akzeptierbar<br />
verstehen, sondern eine weitergehende Unabhängigkeit, die sich auch<br />
auf andere wesentliche Zusammenhänge erstreckt und sich insbesondere<br />
in ihren Konsequenzen für die empirische Behauptung von Theorien beschreiben<br />
läßt. Wenn die Einführung des allgemeinen Gravitationsgesetzes<br />
tatsächlich nichts anderes bedeuten würde als eine Konjunktion der<br />
drei Teilbehauptungen:<br />
1. Alle schweren Körper erfüllen es untereinander.<br />
2. Alle gravitativen Wechselwirkungen von schweren und leichten<br />
Körpern erfüllen das Gesetz.<br />
3. Alle leichten Körper erfüllen es untereinander.<br />
so wäre es allerdings unklar – und insoweit teile ich Friedmans Anschauung<br />
–, wieso das allgemeine Gravitationsgesetz darüber hinaus noch einen<br />
Erklärungswert besitzen sollte. Den erhält es erst im Rahmen einer<br />
umfangreicheren Theorie, die auch Constraints berücksichtigt. Damit<br />
werden Verbindungen zwischen den drei Teil-„Gesetzen“ hergestellt, die<br />
eine bloße Konjunktion noch nicht enthält, denn die einzelnen Teilgesetze<br />
stellten keine übergreifenden Behauptungen für alle Anwendungsklassen<br />
zugleich auf. Der Identitätsconstraint für die Masse besagt etwa, daß<br />
einem schweren Körper, z. B. der Erde, dieselbe Masse zugeordnet werden<br />
muß, wenn er in Anwendungen des Typs (1) und wenn er in solchen<br />
des Typs (2) auftritt. Eine entsprechende Verknüpfung bewirkt der Constraint<br />
anhand von leichten Körpern für die „Gesetze“ (2) und (3). Außerdem<br />
tritt in allen drei Gesetzen die Gravitationskonstante auf, die<br />
per gemeinsamer Existenzquantifikation einzubringen ist – zumal ihr<br />
Zahlenwert im Anfang unbekannt war –, und die Teilgesetze drücken für<br />
sich nicht aus, daß es sich in allen drei Fällen um dieselbe Größe handeln<br />
muß. Das wird erst in einer Formulierung durch ein Gesetz oder einen<br />
entsprechenden Constraint deutlich (s. dazu IX.E.8).<br />
Von welch entscheidender Bedeutung diese Vernetzung der verschiedenen<br />
Anwendungen einer Theorie ist, ergibt sich schon aus Salmons eigenem<br />
Beispiel. Erst Cavendish gelang es 1798 anhand seiner Experimente,<br />
die Newtonsche Gravitationskonstante zu bestimmen, wobei er<br />
die Gravitationskräfte kleiner Körper untereinander gemessen hat. Da<br />
man von einem universellen Gesetz mit universeller Gravitationskon-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 435<br />
stante ausging, 195 gilt diese Konstante ebenso für andere gravitierende<br />
Massen. Genau dieser Zusammenhang ermöglichte es, die Masse der Erde<br />
anhand ihrer Anziehungskraft auf kleine Körper zu bestimmen – Cavendish<br />
kam auf 6,6 10 21 Tonnen und lag damit schon sehr nah an dem<br />
heutigen Wert von 5,98 10 21 Tonnen. Die Konstante geht ihrerseits<br />
wiederum ein in die Bestimmung der Massen anderer Planeten usf. Eine<br />
empirisch wirklich gehaltvolle und erklärende Theorie ergibt sich nur<br />
dann, wenn wir diese Verknüpfungen in Rechnung stellen. Von Friedman<br />
waren solche Zusammenhänge sicherlich implizit mit angenommen<br />
worden, aber solange sie nicht eigens in der Konzeption von Theorien<br />
aufgeführt werden, kann man wie Salmon der Vermutung unterliegen,<br />
das Newtonsche Gravitationsgesetz sei nichts anderes, als eine Konjunktion<br />
der drei genannten Teilgesetze. Der Überschußgehalt, den das allgemeine<br />
Gravitationsgesetz (eingebettet in eine ganze Theorie, die natürlich<br />
nicht allein durch ein Gesetz dargestellt werden kann) gegenüber einer<br />
bloßen Konjunktion der drei Teilgesetze aufweist, ergibt sich erst aus<br />
der Vernetzung der Anwendungen. 196 In (E.8) werde ich auf diesen<br />
Punkt anhand neuerer Explikationsversuche für die Einheitlichkeit einer<br />
Theorie zurückkommen. Es ist hier wiederum ein zu einfaches Bild von<br />
Theorien dafür verantwortlich, die vereinheitlichende Funktion von<br />
Theorien zu verkennen. Im differenzierteren metatheoretischen Rahmen<br />
des Strukturalismus läßt sich dagegen ein angemessenerer Explikationsvorschlag<br />
angeben.<br />
Interessant ist vor allem die Frage: Woran genau ist Friedman mit<br />
seinem Typ von Explikationsversuch gescheitert? Kitcher (1976, 212),<br />
der Friedmans Vorstellung von einem engen Zusammenhang zwischen<br />
Erklärung und Vereinheitlichung gutheißt, wendet sich gegen Friedmans<br />
Zählweise von Phänomenen anhand von unabhängigen Gesetzen. Statt<br />
Gesetze zu zählen, sollten wir auf ein anderes Phänomen achten:<br />
195 Das ist natürlich eine empirische Vermutung, die sich auch als falsch<br />
herausstellen könnte, wie wir es im Falle der Cepheiden, den Gähde genauer untersucht<br />
hat, bereits kennengelernt haben. So wie wir dort die Annahme einer<br />
Konstante für die Perioden-Helligkeitsbeziehung aller Cepheiden für selbstverständlich<br />
hielten und dann später zu zwei Konstanten für zwei Typen von Cepheiden<br />
übergehen mußten, könnten wir auch im Falle der Gravitationskonstante<br />
schließlich zur Annahme zweier oder dreier Typen von Massen mit verschiedenen<br />
Gravitationskonstanten gezwungen sein.<br />
196 Die Vernetzung wird natürlich durch den Extensivitätsconstraint noch<br />
weiter verstärkt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 436<br />
What is much more striking than the relation between these numbers<br />
is the fact that Newton’s laws of motion are used again and<br />
again and that they are always supplemented by laws of the same<br />
types, to wit, laws specifying force distributions, mass distributions,<br />
initial velocity distributions, etc. Hence the unification achieved by<br />
Newtonian theory seems to consist not in the replacement of a large<br />
number of independent laws by a smaller number, but in the repeated<br />
use of a small number of types of law which relate a large<br />
class of apparently diverse phenomena to a few fundamental magnitudes<br />
and properties. Each explanation embodies a similar pattern:<br />
from the laws governing the fundamental magnitudes and properties<br />
together with laws that specify those magnitudes and properties for<br />
a class of systems, we derive the laws that apply to systems of that<br />
class. (Kitcher 1976, 212)<br />
Diese Analyse von Kitcher paßt in einigen Punkten schon recht gut mit<br />
den strukturalistischen Vorstellungen der inneren Struktur von Theorien<br />
zusammen. Zum einen haben wir die Grundgesetze, wie etwa die Newtonschen<br />
Axiome, die in allen Anwendungen der Mechanik zum Einsatz<br />
kommen und damit eine Vereinheitlichung bewirken; zum anderen die<br />
jeweiligen Ergänzungen durch Spezialgesetze, deren Typ sich für bestimmte<br />
Klassen von intendierten Anwendungen durch ein gemeinsames<br />
Schema darstellen läßt. Das entspricht ziemlich genau der strukturalistischen<br />
Auffassung von einem Basis-Theorie-Element und seinen Spezialisierungen.<br />
Dagegen ist Friedmans Bild von Theorien 1974 noch zu stark<br />
von einem Theorienverständnis im Sinne der Metamathematik geprägt,<br />
wonach es grundlegende Axiome gibt, die allein schon eine Reihe von<br />
deduktiven Schlußfolgerungen erlauben. Sogar die von ihm selbst erwähnten<br />
Phänomene wie, daß die Herleitung von Gesetzen oft nur approximativ<br />
möglich ist (s. z. B. Friedman 1988, 184), finden in seinem<br />
Explikationsversuch keinerlei Beachtung. So überzeugend seine Ausgangsposition<br />
uns somit auch erschien, seine Ausgestaltung war zu unrealistisch<br />
und läßt ein zu einfaches Bild wissenschaftlicher Theorien dahinter<br />
vermuten. Angeregt durch diese Diskussion und den Mißerfolg<br />
Friedmans versuchte Kitcher seine in dem obigen Zitat geäußerten Vorstellungen<br />
von Vereinheitlichung in einer eigenen Theorie von Erklärung<br />
umzusetzen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 437<br />
B. Kitchers Vereinheitlichung der Argumentationsformen<br />
Ähnlich wie schon Friedman betont auch Kitcher in seinen theoretischen<br />
Arbeiten zur Vereinheitlichungstheorie der Erklärung (z. B. Kitcher<br />
1988 und 1989) den globalen Charakter der Bewertung von Erklärungen.<br />
Für Friedman hatte ein Gesetz nur dann Erklärungskraft, wenn es<br />
sich in einer größeren Menge von Aussagen als vereinheitlichend erwies.<br />
Ebenso ist auch für Kitcher im Unterschied zu den in Kapitel (VIII) genannten<br />
Erklärungstheorien die Bewertung einer potentiellen Erklärung<br />
nur in einem größeren Kontext möglich.<br />
On both the Hempelian and the causal approaches to explanation,<br />
the explanatory worth of candidates – whether derivations, narratives,<br />
or whatever – can be assessed individually. By contrast, the<br />
heart of the view that I shall develop […] is that successful explanations<br />
earn that title because they belong to a set of explanations, the<br />
explanatory store, and that the fundamental task of a theory of explanation<br />
is to specify the conditions on the explanatory store. (Kitcher<br />
1989, 430)<br />
Dieser Zugriff auf globalere Zusammenhänge zur Einschätzung von Erklärungen<br />
scheint mir aus mehreren Perspektiven sinnvoll. Da ist zuerst<br />
eine intuitive Auswertung von Beispielen, die dafür spricht. Einer für<br />
sich betrachteten Ableitung eines Ereignisses läßt sich nicht ansehen, ob<br />
es sich um eine gute Erklärung oder nicht handelt. So kann sich die<br />
Struktur einer astrologischen Erklärung mutigen Verhaltens (weil er<br />
Sternzeichen Löwe ist, und Löwen sind mutig) durchaus mit der Struktur<br />
guter Erklärungen decken. Doch selbst wenn es zufällig so wäre, daß<br />
fast alle „Löwen“ mutig wären, würden wir hier keinen brauchbaren Ansatz<br />
für eine Erklärung sehen, solange eine Theorie astrologischer Zusammenhänge<br />
nicht kohärent in unsere gegenwärtigen Überzeugungssysteme<br />
paßt. Außerdem spricht für die globalere Sichtweise von Erklärungen<br />
unser inzwischen holistischeres Wissenschaftsverständnis, das sich<br />
auch in der Darstellung der inneren Struktur von Theorien gezeigt hat.<br />
Einzelne Gesetze wie die Newtonschen Axiome haben demnach isoliert<br />
betrachtet keinen empirischen Gehalt, sondern nur im Zusammenspiel<br />
mit Spezialgesetzen, innertheoretischen Querverbindungen und „Links“<br />
ergibt sich dieser. Erst dann gelangen wir zu Aussagen, die genügend<br />
Substanz für eine Beurteilung bieten. Diese Vorstellungen von der Notwendigkeit<br />
globalerer Beurteilungen für epistemische Zwecke manifestierte<br />
sich daher an verschiedenen Stellen in der Explikation unserer
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 438<br />
Kohärenztheorie KTR, so daß auch in diesem Punkt der Vereinheitlichungsansatz<br />
der Erklärung geeignet erscheint, um die verbliebene Lükke<br />
in KTR auszufüllen.<br />
Dazu hat Kitcher den am weitesten ausformulierten Ansatz einer Erklärungstheorie<br />
vorgelegt, den er noch dazu in einer Reihe von Beispielen<br />
erprobt hat. Wie für Hempel sind für ihn Erklärungen Argumente,<br />
d.h. Folgen von Aussagen, die entsprechenden logischen Regeln gehorchen.<br />
Entscheidend ist für ihn dabei die Vereinheitlichung, die dadurch<br />
zustande kommt, daß sich all unsere wissenschaftlichen Argumente auf<br />
möglichst wenige Argumentschemata oder Argumentmuster zurückführen<br />
lassen. So ist für Kitcher (1988, 204f) die Vereinheitlichungskraft<br />
von Newtons Werk gerade darin zu sehen, daß Newton versuchte eine<br />
Vielzahl akzeptierter Sätze anhand eines Argumentmusters, das seine Basisgesetze<br />
enthält, herzuleiten. Auch Darwin skizzierte mit der natürlichen<br />
Auslese ein allgemeines Muster für Erklärungen, mit dem sich viele<br />
bekannte Tatsachen aus der Biologie erklären ließen.<br />
Den Wissenshintergrund, um dessen Vereinheitlichung es gehen soll,<br />
nennt Kitcher die zu einem Zeitpunkt von der wissenschaftlichen Gemeinschaft<br />
akzeptierten Sätze K. In bezug auf Vereinheitlichung soll dazu<br />
der Erklärungsvorrat E(K) (explanatory store) über K untersucht werden,<br />
aus dem sich die Sätze von K ableiten lassen. Diese Konzeption<br />
paßt gut zur KTR, bis auf die Vorstellung, daß die vereinheitlichenden<br />
Beziehungen alle deduktiver Natur sind. Wesentlich zur Beurteilung von<br />
E(K) ist nach Kitcher aber nun nicht, wieviele solche Erklärungen es enthält,<br />
sondern wieviele Typen von Erklärungen vorkommen. Um diese Typen<br />
identifizieren zu können, wird von Kitcher die Konzeption der Argumentmuster<br />
(„argument pattern“) ins Spiel gebracht. Genau die Argumente<br />
gelten als ähnlich und zu einem Typ gehörig, die als Instanzen eines<br />
Argumentmusters gelten können.<br />
Ein Argumentmuster besteht aus drei Komponenten, nämlich einer<br />
Folge von schematischen Sätzen, einer Menge von Ausfüllungsanweisungen<br />
und einer Klassifikation für die Sätze der Folge. Die schematischen<br />
Sätze sind Sätze, in denen einige nichtlogische Terme durch Schemabuchstaben<br />
ersetzt sind, so daß hier ein Spielraum zum Einsetzen verschiedener<br />
Ausdrücke gegeben ist, der es gestattet, aus einer Folge von<br />
schematischen Sätzen unterschiedliche konkrete Argumente zu gewinnen.<br />
Die Ausfüllungsanweisungen sagen uns, welche Terme jeweils an<br />
den verschiedenen Stellen eingesetzt werden dürfen. Schließlich geben<br />
uns die Klassifikationen der schematischen Sätze Informationen darüber,<br />
ob es sich um Prämissen unseres Argumentmusters oder Konklusionen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 439<br />
handelt. Die Idee Kitchers dürfte an einem einfachen Beispiel (s. Kitcher<br />
1988, 208ff) am ehesten deutlich werden, in dem Kitcher die Newtonische<br />
Vorgehensweise für die Behandlung von Einkörpersystemen anhand<br />
von Argumentmustern beschreibt. Zunächst finden wir für das Basismuster<br />
eine Folge von schematischen Sätzen:<br />
(1) Die auf ausgeübte Kraft ist .<br />
(2) Die Beschleunigung von ist .<br />
(3) Kraft = Masse x Beschleunigung<br />
(4) Masse() · = <br />
(5) = <br />
Dazu kommen Ausfüllungsanweisungen, die etwa besagen:<br />
„“ ist durch einen Ausdruck für den zu untersuchenden Körper zu<br />
ersetzen.<br />
„“ ist jeweils durch denselben Ausdruck für eine Funktion von<br />
Raum und Zeit-Koordinaten zu ersetzen.<br />
„“ ist durch einen Funktionsausdruck für die Beschleunigung zu ersetzen<br />
(also etwa d 2 x/dt 2 ).<br />
„“ bezeichnet die Funktion, die uns die Ortskoordinaten des Körpers<br />
gibt.<br />
„“ ist durch eine explizite Funktion der Zeit zu ersetzen.<br />
Die Klassifikation besagt dann, daß (1) (3) die Prämissen sind,<br />
während (4) daraus durch Substitution entsprechender Terme und<br />
(5) aus (4) durch mathematische Umformungen folgt.<br />
Wesentlich für eine Beurteilung der Ähnlichkeit von Argumenten anhand<br />
von Argumentmustern ist, was Kitcher die „Stringenz“ der Muster<br />
nennt. Sind die Ausfüllungsbedingungen und die Klassifikationen sehr liberal<br />
gehalten, läßt sich mit einem bißchen guten Willen unter ein entsprechendes<br />
Muster jedes Argument als eine Instanz subsumieren. Wie<br />
groß die Ähnlichkeiten der Argumente eines Musters sind (wie stringent<br />
das Muster ist), wie groß damit seine Vereinheitlichungskraft ist, bemißt<br />
sich nach Kitcher hauptsächlich an den auftretenden nichtlogischen Termen,<br />
den Ausfüllungsanweisungen und dem Gehalt der Klassifikationen.<br />
Kitcher gibt hier schon selbst Hinweise auf ein Problem der Vagheit<br />
wenn nicht sogar drohenden Trivialisierung der Ähnlichkeitsbehauptungen<br />
anhand von Argumentmustern, das ich später noch aufgreifen werde.<br />
Zu unseren akzeptierten Überzeugungen K betrachten wir nun (das<br />
ist nach Kitcher eine Idealisierung) nur solche Mengen von Argumenten,
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 440<br />
die ebenfalls als akzeptabel bezüglich K gelten dürfen, d.h. die nur Prämissen<br />
aus K verwenden und sich nur gültiger Schlußregeln (deduktiver<br />
oder induktiver Art) bedienen. 197 Gesucht wird nun die Argumentmenge,<br />
die die beste Vereinheitlichung von K darstellt, wobei der Grad der Vereinheitlichung<br />
anhand von Argumentmustern bestimmt werden soll.<br />
Jede beliebige Argumentmenge, die aus bestimmten Aussagen aus K<br />
auf andere schließt, die also eine Menge von bezüglich K akzeptablen<br />
Argumenten darstellt, heiße Systematisierung von K und wird mit D(K)<br />
(für „derivations“) bezeichnet. 198 Zu D(K) sei GD(K) eine Generierungsmenge<br />
für D(K), d.h. eine Menge von Argumentmustern, so daß sich jedes<br />
Argument aus D(K) als eine Instanz eines Musters aus GD(K) darstellen<br />
läßt. D(K) ist vollständig bezüglich GD(K), wenn alle (bezüglich K akzeptablen)<br />
Argumente, die durch die Muster in GD(K) generiert werden,<br />
auch zu D(K) gehören. 199 Zu einer Argumentmenge D(K) sollen nun nur<br />
noch die Generierungsmengen in Betracht gezogen werden, für die D(K)<br />
vollständig ist.<br />
Damit möchte Kitcher ausschließen, daß man bestimmte Erklärungsmuster<br />
manchmal anwendet und in anderen Fällen Instanzen dieses Musters<br />
als Erklärungen willkürlich zurückweist, denn das ist seiner Meinung<br />
nach eine inkohärente Verwendungsweise von Erklärungen. Unter<br />
diesen Generierungsmengen, für die D(K) vollständig ist, suchen wir in<br />
einem letzten Schritt die mit der größten vereinheitlichenden Kraft heraus<br />
und nennen sie die Basis der Systematisierung D(K).<br />
Die vereinheitlichende Kraft einer Generierungsmenge ist dabei um<br />
so größer, je weniger Muster sie benötigt und je mehr Argumente sie zu<br />
generieren gestattet. Zusätzlich zur Anzahl der Muster sollte natürlich<br />
noch die Stringenz der Muster Berücksichtigung finden. Stringentere<br />
Muster besitzen eine größere Vereinheitlichungskraft als weniger stringente.<br />
Als Erklärungsvorrat E(K) über K wählen wir nun die Argumentmenge<br />
D(K), die K in dem eben genannten Sinn am besten vereinheitlicht,<br />
d.h. deren Basis die größte vereinheitlichende Kraft aufweist. E(K)<br />
197 Bis hierher stimmen die Überlegungen von Kitcher (1988) und (1989)<br />
weitgehend überein, aber nicht mehr für das Folgende. Daher beziehe ich mich<br />
dabei auf den späteren und ausgearbeiteteren Vorschlag von (1989).<br />
198 Hier und im folgenden weiche ich z.T. von der Notation und der Darstellung<br />
Kitchers ab, um diese durchsichtiger zu gestalten.<br />
199 Kitcher (1989, 434) spricht davon, daß in diesem Fall GD(K) bezüglich K<br />
vollständig ist, aber diese Bezeichnungsweise erscheint mir irreführend, weil es<br />
intuitiv um die Vollständigkeit der Menge D(K) geht, weshalb ich von ihr abweiche.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 441<br />
bestimmt dann, was eine Erklärung vor unserem Hintergrundwissen ist<br />
und was nicht.<br />
Allerdings weiß Kitcher keine allgemeinen Regeln anzugeben, wie<br />
sich die verschiedenen Dimensionen der Beurteilung von Vereinheitlichung<br />
gegeneinander aufrechnen lassen, wenn sie in Widerstreit geraten,<br />
wenn etwa eine Basis zwar mehr Muster benötigt als eine andere, diese<br />
aber stringenter sind. Doch zumindest einige Fälle lassen sich anhand<br />
von Kitchers Theorie miteinander vergleichen und Kitcher denkt, daß<br />
das insbesondere für die praktisch bedeutsamen Beispiele aus der Wissenschaftsgeschichte<br />
gilt.<br />
Ehe ich Kitchers Konzeption in einigen Punkten kritisiere, möchte<br />
ich kurz darauf zu sprechen kommen, wie er das Irrelevanz- und das<br />
Asymmetrieproblem innerhalb seiner Erklärungstheorie behandeln<br />
möchte. Zunächst zum Irrelevanzproblem, für das Kitchers Konzeption<br />
am überzeugendsten wirkt. Betrachten wir noch einmal das Beispiel des<br />
verzauberten Kochsalzes und der darauf aufbauenden Erklärung für seine<br />
Auflösung. Kitcher (1988, 216ff; 1989, 482ff) stellt hier zwei Überzeugungssysteme<br />
mit unterschiedlichen Systematisierungen einander gegenüber.<br />
Das erste besteht aus unserem normalen System, in dem wir die<br />
Überzeugung finden, daß es gerade die molekularen Eigenschaften des<br />
speziellen Salzes sind, die erklären, warum es sich in Wasser auflöst. Das<br />
zweite enthält neben kleineren Änderungen zusätzlich die Auffassung,<br />
daß sich die Auflösung von Salz in Wasser manchmal aufgrund ihrer Verzauberung<br />
erklären läßt. Gegen das zweite Überzeugungssystem wendet<br />
Kitcher ein, daß in ihm ein zusätzliches Argumentmuster Anwendung<br />
findet, nämlich eines, in dem Verzauberung vorkommt, ohne daß dadurch<br />
ein Gewinn an ableitbaren Sätzen erzielt würde; schließlich wird<br />
die Auflösung des Salzes ja schon durch die molekulare Erklärung herleitbar.<br />
Damit ist die erste Systematisierung eindeutig zu bevorzugen,<br />
denn sie kommt mit einem Argumentmuster weniger bei gleicher Systematisierungsleistung<br />
aus. Auch wenn sich für dieses Beispiel noch weitere<br />
Einwendungen finden lassen, indem man etwa verrücktere Überzeugungssysteme<br />
als Alternativen ins Spiel bringt, wirkt Kitchers Vorschlag<br />
zur Lösung der Irrelevanzproblematik recht ansprechend.<br />
Das gilt nicht in demselben Maße für seine Antwort auf das Asymmetrieproblem,<br />
obwohl er hier ganz analog vorgehen möchte. Die Beispiele<br />
für eine solche Asymmetrie, die Kitcher betrachtet, sind das von<br />
Pendelfrequenz und Pendellänge (1988, 220ff) und das berühmte Beispiel<br />
vom „Tower and Shadow“ (1989, 484fff), das schon van Fraassen<br />
ausführlicher besprochen hat. Davon möchte ich mich dem ersten zu-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 442<br />
wenden, weil es eher unter die Rubrik „wissenschaftliche Erklärungen“<br />
fällt. Mit Hilfe der Pendellänge erklären wir normalerweise die Pendelfrequenz<br />
eines Pendels, aber nicht umgekehrt seine Pendellänge unter<br />
Berufung auf seine Pendelfrequenz, obwohl sich anhand des Pendelgesetzes<br />
auch in dieser Richtung eine Ableitung ergibt. Wiederum vergleicht<br />
Kitcher zwei alternative Überzeugungssysteme, nämlich erstens das normale,<br />
in dem eine Erklärung von der Pendelfrequenz zur Pendellänge<br />
nicht vorkommt, wir aber über andere Erklärungen für Pendellängen<br />
verfügen, und zweitens das alternative System, in dem zusätzlich eine<br />
Ableitung der Pendellänge aus der Pendelfrequenz unter die Systematisierungen<br />
gezählt wird. Doch zunächst: Welche anderen Erklärungen für<br />
die Pendellänge können wir denn überhaupt anbieten? Wir können beschreiben,<br />
wie es zur Herstellung des fraglichen Pendels mit seiner speziellen<br />
Länge kam. In einer sehr großen Zahl von Fällen haben wir derartige<br />
„Ursprungs- und Entwicklungsherleitungen“, auf die wir zur Erklärung<br />
der Pendellänge zurückgreifen können. Demgegenüber führt die alternative<br />
Systematisierung ein zweites und eigentlich überflüssiges Erklärungsschema<br />
für einen Teilbereich ein (auf alle Fälle, in denen wir üblicherweise<br />
Ursprungs- und Entwicklungsherleitungen geben, läßt sich die<br />
Erklärung aus der Pendelfrequenz sicherlich nicht anwenden), das keine<br />
zusätzlichen Systematisierungsleistungen erbringt, aber die Vereinheitlichung<br />
vermindert. Laut Kitchers Theorie ist daher das normale Überzeugungssystem<br />
zu bevorzugen. Ob in diesem Beispiel unsere kausalen Vorstellungen<br />
von Asymmetrie aber tatsächlich außer Acht bleiben können,<br />
möchte ich hier nur zur Diskussion stellen.<br />
Gegen diese Lösung des Asymmetrieproblems argumentiert etwa<br />
Barnes (1992), indem er Kitchers Behauptung, das alternative Überzeugungssystem<br />
sei weniger einheitlich, in Frage stellt – allerdings am Beispiel<br />
von „Tower and Shadow“. 200 Auch wenn diese Diskussion noch<br />
nicht abgeschlossen ist, läßt sich dagen, daß Kitcher für die Fragen von<br />
Irrelevanz und Asymmetrie zumindest einen sehr interessanten Lösungsansatz<br />
anzubietenhat. Mit dem steht er insgesamt bestimmt nicht<br />
schlechter da als seine Konkurrenten etwa aus dem Bereich der Kausalerklärung.<br />
Die Konzeption der Vereinheitlichung durch Argumentmuster möchte<br />
ich nun nicht weiter in seinen technischen Details ausführen, sondern<br />
auf einige intuitive Schwierigkeiten und die Schachzüge, zu denen Kit-<br />
200 Barnes bietet auch noch andere Einwände gegen Kitchers Auflösung des<br />
Asymmetrieproblems, die mich allerdings nicht vollkommen überzeugen, deren<br />
Diskussion aber den Rahmen dieser Arbeit verlassen würde.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 443<br />
cher dadurch gezwungen wird, zu sprechen kommen. So naheliegend<br />
die Argumentationsmuster auch in den von Kitcher untersuchten Beispielen<br />
aus der Evolutionstheorie und in seiner allgemeinen Beschreibung<br />
erscheinen, stoßen wir doch sofort auf Probleme, wenn wir sie auf<br />
hochentwickelte Theorien in ihrer Gänze anwenden wollen. Das von Kitcher<br />
angegebene Muster zur Mechanik ist auf ein-Partikel-Systeme und<br />
dort auch noch auf bestimmte Spezialfälle beschränkt. Natürlich wird<br />
die Ableitung für mehr-Teilchen-Systeme komplizierter und insbesondere<br />
läßt sich für viele Systeme keine Lösung der Differentialgleichungen<br />
durch mathematische Umformungen mehr finden, denn sie sind keiner<br />
analytischen Lösung zugänglich. Dazu gibt es eine Reihe von Spezialgesetzen,<br />
die Kitcher in Betracht ziehen müßte, wollte er der Komplexität<br />
der Newtonschen Theorie (als einem Netz) wirklich Rechnung tragen.<br />
Erst mit Hilfe der Spezialgesetze bekommt die Newtonsche Mechanik<br />
jedoch empirischen Gehalt, und es lassen sich die Bahnen der Partikel<br />
vorhersagen. Kitcher (1988, 214f) spricht deshalb von einem Kernmuster,<br />
das in vielen Argumentmustern, die in der Newtonschen Theorie<br />
vorkommen auftritt, und von problem-reduzierenden Mustern, die das<br />
Kernmuster ergänzen können. D.h., daß auch die Muster untereinander<br />
wieder ähnlicher oder weniger ähnlich sein können, wobei Ähnlichkeit<br />
(gemeinsame Submuster) die vereinheitlichende Wirkung der Muster einer<br />
Basis noch einmal erhöht. Damit bewegt sich Kitcher in Richtung<br />
auf eine Art Theorien-Netz mit Spezialisierungen und einer Basis oder<br />
gemeinsamen Verzweigungspunkten, die die Gemeinsamkeiten von Modellmengen<br />
in Spezialisierungen darstellen. Allerdings hat er für die<br />
Konzeption der Kern- und Submuster und ihres Zusammenhangs keine<br />
Modellierung anzubieten und auch keine entsprechenden Anwendungen<br />
vorgelegt, weil er keine hochentwickelten Theorien vollständig zu erfassen<br />
sucht.<br />
Neben den Spezialgesetzen, die zu neuen Argumentmustern führen<br />
können, ohne damit die Einheitlichkeit einer Theorie gänzlich über<br />
Bord zu werfen, ist es die Flexibilität von Theorien, die Kitcher zu schaffen<br />
macht. Auch sie erhöht die Zahl der Argumentmuster, ist aber trotzdem<br />
erkenntnistheoretisch wünschenswert. Die Newtonsche Theorie<br />
läßt sich für andere Ableitungen als die der Weg-Zeit-Funktionen einsetzen.<br />
Aus der Pendellänge und der Pendelfrequenz kann man z. B. auf die<br />
Pendelmasse schließen, aus den Weg-Zeit-Funktionen von Doppelsternen<br />
auf ihre Massen etc. Da sich diese Ableitungen – auch wenn sie unterschiedliche<br />
Argumentmuster instantiieren – auf dieselben Grundgesetze<br />
stützen, bietet die Theorie auch hier eine Vereinheitlichung, die je-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 444<br />
doch so in den unterschiedlichen Argumentmustern, die in den Ableitungen<br />
verwandt wurden, nicht wiederzufinden ist.<br />
Der Friedmansche Gesichtspunkt, daß eine Theorie verschiedene<br />
Phänomene in einen Zusammenhang stellt und dadurch im Sinne einer<br />
Kohärenztheorie zur Vernetzung unserer Erkenntnis beiträgt, kommt bei<br />
Kitchers Vereinheitlichung über Argumentmuster zu kurz. Um Vereinheitlichung<br />
im Sinne Kitchers zu gewährleisten, könnte man sich darauf<br />
beschränken, E(K) relativ einfach zu halten und mit wenigen Ableitungen<br />
zu versehen, so daß man auch mit wenigen Argumentmustern auskommt.<br />
Diesen trivialen Weg sollte Kitcher mit bestimmten Mindestanforderungen<br />
an die betrachteten Systematisierungen unterbinden, was<br />
aber auch nicht einfach sein dürfte, weil es eine globale Verrechnung<br />
von Stringenz und Systematisierungsleistung erfordert. Solange das nicht<br />
möglich ist, zeigt diese Alternative zu unserem Überzeugungssystem, daß<br />
Kitchers Konzeption noch nicht zur Vorstellung von epistemischem Fortschritt<br />
als höherer Kohärenz paßt, denn Kitcher kommt es nicht auf eine<br />
hohe Vernetzung von K an, sondern darauf, die Verbindungslinien im<br />
Netz K von möglichst einfach zu gestalten; als Deduktionen, die einander<br />
strukturell sehr ähnlich sind.<br />
Wenn wir ein neues Erklärungsschema aufnehmen müssen, um etwa<br />
die Entwicklung des Universums vom Urknall angefangen zu erklären<br />
und dieses Schema nur für diese Anwendung einsetzen können, so gibt<br />
es nach Kitcher keinen guten Grund, darauf nicht einfach zu verzichten.<br />
Wir könnten statt dessen die Entwicklung des Universums als einzelnes<br />
Faktum ohne Erklärung zur Kenntnis zu nehmen, da für Kitcher systematische<br />
Kohärenz kein erklärtes erkenntnistheoretisches Ziel darstellt.<br />
Hauptsache wir vermehren nicht die Typen von Argumentationen in unserem<br />
Überzeugungssystem. Ähnliches mag für Erklärungen in den Geschichtswissenschaften<br />
gelten, wenn sie bestimmte einzigartige Ereignisse<br />
erklären. So kann Kitcher aber das Streben der Wissenschaften<br />
nach möglichst vielen Erklärungen in derartigen Fällen kaum angemessen<br />
nachzeichnen oder verständlich machen. Meine kritische Frage an<br />
Kitcher ist daher, ob seine Konzeption, die sich so stark daran orientiert,<br />
ob die Vernetzung von K von einer Metaebene aus betrachtet einfach ist,<br />
wirklich richtig beschreibt, was unter Vereinheitlichung in den Wissenschaften<br />
zu verstehen ist. Mir scheint Friedmans Ansatz in diesem Punkt<br />
intuitiv leichter nachvollziehbar zu sein und eine Vereinheitlichung der<br />
Phänomene durch Gesetze sollte in irgendeiner Form in allen Konzeptionen<br />
von Vereinheitlichung vorkommen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 445<br />
Abgesehen von der Möglichkeit einer Trivialisierung der Kitcherschen<br />
Konzeption durch willkürliche Vereinfachung von E(K) weist der<br />
Ansatz noch eine andere Trivialisierungsgefahr auf, die Kitcher (1988,<br />
222ff) unter dem Stichwort unechte Verallgemeinerung („spurious unification“)<br />
diskutiert. Schon Hempel hatte mit dem Problem von Selbsterklärungen<br />
zu kämpfen. Aus der Konjunktion von Keplers Gesetz mit<br />
dem Boyleschen Gesetz läßt sich das Keplersche Gesetz ableiten, doch<br />
das ist intuitiv keine Erklärung, obwohl die Ableitung dem DN-Schema<br />
entspricht. Mit diesem Problem hatte schließlich auch Friedman seine<br />
Schwierigkeiten, wenn er anzugeben versucht, wie sich Gesetze zählen<br />
lassen. Noch deutlicher ist das bei einer Ableitung eines Gesetzes aus<br />
sich selbst, das niemand mehr als Erklärung bezeichnen wird. Solche<br />
Beispiele weisen den Weg zu ideal einfachen Argumentmustern, die als<br />
Basis beliebiger Mengen D(K) dienen können. Im ersten Fall ergibt sich<br />
etwa:<br />
A und B<br />
A<br />
zusammen mit der Ausfüllungsanweisung: „A“ ist durch einen beliebigen<br />
Satz aus K zu ersetzen. Im zweiten noch einfacher:<br />
A<br />
A<br />
mit derselben Ausfüllungsanweisung. Zu diesen trivialen Fällen sind natürlich<br />
auch kompliziertere Fälle von beinahe trivialer Vereinheitlichung<br />
denkbar, die durch bloße Betrachtung der Schemata nicht so leicht zu<br />
entdecken sind. Kitchers sehr abstrakte Sichtweise von Vereinheitlichung<br />
lädt geradezu dazu ein, sich entsprechenden Mustern zuzuwenden.<br />
Gegen solche Beispiele wehrt sich Kitcher (1988, 223ff) unter Hinweis<br />
auf die fehlende Stringenz der Muster und erklärt jedes Muster als<br />
unbrauchbar zu Vereinheitlichungszwecken, das im Prinzip – von der Art<br />
seiner Ausfüllungsanweisungen her – die Herleitung jedes Satzes erlaubt.<br />
Wenn die mit Muster P assoziierten Ausfüllungsinstruktionen durch<br />
andere Ausfüllungsinstruktionen, welche die Substitution einer Klasse<br />
von Ausdrücken derselben syntaktischen Kategorie zulassen, derart<br />
ersetzt werden könnten, daß dies zu einem Muster P’ führen<br />
würde, welches die Herleitung jedes Satzes erlaubt, dann ist die<br />
durch P bewirkte Vereinheitlichung unecht. (Kitcher 1988, 224)<br />
Mit dieser etwas umständlichen Formulierung möchte Kitcher auch<br />
noch solche Fälle ausschließen, in denen jemand sich bemüht, die Trivialität<br />
der Vereinheitlichung oberflächlich zu verschleiern, indem er etwa
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 446<br />
davon spricht, Gott wolle, daß p, und dann doch im Prinzip in dem<br />
Schema keine wirklich einschränkenden Bedingungen darüber zu finden<br />
sind, was Gott denn wollen könne. Diese Schemata sind dann trivialen<br />
Schemata äquivalent und deshalb zurückzuweisen. Doch diese Nichttrivialitätsforderung<br />
läßt sich schon dadurch erfüllen, daß man in den Ausfüllungsanweisungen<br />
einen bestimmten Satz ausschließt. Zu der spannenden<br />
Frage der Einheitlichkeit der vereinheitlichenden Theorie wird<br />
man auf Kitchers Weg wohl kaum eine befriedigende Antwort finden.<br />
Später formuliert Kitcher (1989, 479ff) entsprechende komparative<br />
Bedingungen, die uns für bestimmte Fälle sagen, welches von zwei Mustern<br />
stringenter ist, nämlich das, dessen Ausfüllungsbedingungen und<br />
dessen Klassifikationen einschränkender sind. Auch mit diesen umständlichen<br />
Formulierungen gelingt es Kitcher jedoch nicht, eine auch nur einigermaßen<br />
anspruchsvolle untere Grenze für Stringenz, zu formulieren<br />
und ebensowenig die Querverbindungen zu anderen Argumentmustern<br />
einzubeziehen. Doch gerade diese beiden Forderungen hätte Kitcher zu<br />
erfüllen, wollten wir seine Vereinheitlichungskonzeption ernsthaften<br />
Tests unterziehen. Er müßte in der Lage sein, Schemata der oben genannten<br />
Art, aber auch viele weitere ohne echten Gehalt, auch wenn sie<br />
sich nicht auf alle Aussagen beziehen, als unechte Vereinheitlichungen<br />
zurückzuweisen. Die von ihm genannte Bedingung für unechte Vereinheitlichung<br />
spricht schon dann von echter Vereinheitlichung, wenn wir<br />
einen Typ von Aussagen als nicht ableitbar erweisen können. Hier fehlt<br />
eine stärkere inhaltliche Charakterisierung von Vereinheitlichung, wie ich<br />
sie in Abschnitt E vorschlagen werde. Das kann nur anhand eines vollständigeren<br />
Bilds von wissenschaftlichen Theorien gelingen, in dem<br />
auch die Spezialgesetze und Querverbindungen innerhalb und zwischen<br />
Theorien mit in Betracht gezogen werden, weil die Grundgesetze von<br />
Theorien im allgemeinen viel zu schwach sind, um substantielle Vereinheitlichungen<br />
bewirken zu können.<br />
Für Kitchers Bedingungen kann man sich außerdem des Verdachts<br />
nicht erwehren, daß diese Bedingungen zu stark sprachabhängig sind,<br />
weil die Frage, was jeweils eingesetzt werden kann, wesentlich von den<br />
zur Verfügung stehenden Termen abhängt. Dabei bleiben unsere Intuitionen<br />
zur Vereinheitlichung auf der Strecke, denn Kitchers Bedingungen<br />
(besonders in ihren Präzisierungen 1989, 479f) sind kaum geeignet umzusetzen,<br />
inwieweit bestimmte Theorien unser Wissen vereinheitlichen,<br />
denn Vereinheitlichung wird nur anhand von abstrakten und nur syntaktisch<br />
ausgestalteten Ähnlichkeitsmaßen für Argumentationen auf einer<br />
Metaebene beurteilt. Für sie müssen wir einschätzen, welche gemeinsa-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 447<br />
men Submuster sie aufweisen und wie stringent diese jeweils sind, wobei<br />
gerade der Stringenzbegriff keine Präzisierung erfährt und seine Verbindungen<br />
zu unseren Vorstellungen von Vereinheitlichung nicht völlig aufgeklärt<br />
werden.<br />
Doch neben diesem intuitiven Unbehagen, das sich an einer rein syntaktischen<br />
Beschreibung von Vereinheitlichung festmachen läßt, bleiben<br />
auch weitere handfeste Probleme, die das Unbehagen vergrößern. Kitcher<br />
stellt sich ganz auf die Seite von Hempel, für den Erklärungen Argumente<br />
sind. Dazu verteidigt er, was Alberto Coffa den „Deduktions-<br />
Chauvinismus“ genannt hat. Aber damit hatte schon Hempel seine<br />
Schwierigkeiten (s.a. VIII.B.1), auf die Kitcher (1989, 448ff) Erwiderungen<br />
zu formulieren sucht. Da sind zunächst die statistischen Erklärungen,<br />
auf die wir in verschiedenen Bereichen der Wissenschaften stoßen.<br />
Ihnen gegenüber stützt sich Kitcher auf die naheliegende und bereits genannte<br />
Strategie, die Wahrscheinlichkeiten in diesen Erklärungen als<br />
Grad von Unkenntnis der eigentlich zugrundeliegenden deduktiven Erklärung<br />
anzusehen. Dabei gesteht er zu, daß diese Vorgehensweise zumindest<br />
auf den ersten Blick für die Quantenmechanik versagt, aber<br />
auch für andere Fälle ist die Hoffnung auf eine deduktive Erklärung vermutlich<br />
eher Wunschdenken als durch handfeste Daten zu begründen.<br />
Doch Kitcher (1989, 450) bemüht sich trotzdem, den Deduktions-<br />
Chauvinismus sogar für den Fall der Quantenmechanik zu verteidigen.<br />
Er bespricht dazu den Fall zweier Teilchen, die auf eine Potentialschwelle<br />
treffen, wie er von der Quantenmechanik beschrieben wird. Nehmen<br />
wir an, eines tunnelt trotz einer geringen Wahrscheinlichkeit von 0,1<br />
durch und das andere wird reflektiert. Nach Kitcher erklärt die Quantenmechanik<br />
nicht, wieso das eine Teilchen die Schwelle durchtunnelte,<br />
sondern bietet höchstens eine wie-möglich-Erklärung dafür an. Warum<br />
das eine Teilchen durchtunnelte, das andere jedoch nicht, bleibt dagegen<br />
grundsätzlich unerklärlich, wenn die Quantenmechanik alles sagt, was es<br />
in diesem Fall zu sagen gibt. Die deduktive Erklärungstheorie verpaßt<br />
nach Kitcher in diesen Punkten eigentlich keine Erklärungschancen. Allerdings<br />
erklärt die Quantenmechanik wenigstens noch bestimmte relative<br />
Häufigkeiten, die wir in diesen Experimenten beobachten können.<br />
Oder sie erklärt für bestimmte Kontrastklassen die Reflektion von Teilchen.<br />
Dabei handelt es sich jeweils um genuin statistische Erklärungen,<br />
die wir nicht dem Deduktions-Chauvinismus opfern sollten.<br />
Auch wenn Kitcher mit seiner Analyse quantenmechanischer Erklärungen<br />
richtig liegt, so bleiben doch die Fälle von historischen und evolutionären<br />
Erklärungen, in denen nicht unbedingt statistische Gesetze
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 448<br />
vorliegen, wir aber ebenfalls weit davon entfernt sind, die zu erklärenden<br />
Ereignisse deduzieren zu können. Die vielen derartigen Beispiele, in<br />
denen wir manchmal auch von „wie-möglich-Erklärungen“ sprechen,<br />
belegen zumindest, daß es sich nicht um eine unbedeutende Teilklasse<br />
von Erklärungen handelt, die wir für Untersuchungen der Struktur von<br />
wissenschaftlichen Erklärungen nicht ernstzunehmen haben. Daneben<br />
trifft Kitchers Analyse nicht den Fall statistischer Erklärungen mit hohen<br />
Wahrscheinlichkeiten. Hätte das Teilchen bei einer Wahrscheinlichkeit<br />
von 0,99 die Potentialschwelle überwunden, wäre diese Wahrscheinlichkeit<br />
nicht mehr nur eine Erklärung für die Möglichkeit des Durchtunnelns,<br />
sondern auch als eine Erklärung für das tatsächliche Ereignis zu<br />
betrachten; aber ebenfalls keine Deduktion.<br />
Das Resümee der bisherigen Diskussion des Deduktions-Chauvinismus<br />
kann daher nur lauten, daß es zumindest höchst fraglich ist, ob sie<br />
sich in allen Beispielen von wissenschaftlichen Erklärungen durchhalten<br />
läßt, und wir sollten unsere Erklärungstheorie nicht von der recht zweifelhaften<br />
Hoffnung abhängig machen, alle statistischen Erklärungen<br />
letztlich zu deduktiven verstärken zu können.<br />
Neben den statistischen Erklärungen finden wir einen anderen wichtigen<br />
metatheoretischen Phänomenbereich, den Kitcher manchmal mit<br />
unter die Probleme statistischer Theorien einzuordnen scheint, nämlich<br />
den der Approximationen und Unschärfen. Schon Popper (1972, 202)<br />
verweist darauf, daß bei fortschrittlichen Entwicklungen in der Wissenschaft,<br />
in denen die alte Theorie nicht völlig aufgegeben wird, regelmäßig<br />
die neue Theorie die alte nicht einfach übernimmt, sondern auch<br />
korrigiert. Dementsprechend sind praktisch alle interessanten Reduktionen<br />
quantitativer Theorien in der Wissenschaftsgeschichte approximative<br />
Reduktionen. Popper nennt z. B. Newtons Theorie, die die Theorien<br />
von Galileo und Kepler vereinheitlicht und erklärt, aber sie gleichzeitig<br />
auch an einigen Stellen korrigiert. Ebenso sieht es für die anderen großen<br />
„wissenschaftlichen Revolutionen“ aus, wie die Übergänge von der<br />
Newtonschen zu speziell und dann allgemein relativistischen Mechaniken<br />
und den zu den quantenmechanischen Theorien. Entsprechende Approximationen<br />
sind ein integraler Bestandteil von wissenschaftlichen Erklärungen.<br />
Das hat etwa Nancy Cartwright (1983) dazu geführt, ihren<br />
„Simulacrum account“ zu entwickeln. Wir erklären demnach nicht, wie<br />
sich die Dinge in der tatsächlichen Welt verhalten, sondern wie sie sich<br />
in einer vereinfachten und idealisierten Welt verhalten.<br />
Kitcher (1989, 453f) gibt sogar selbst einmal ein Beispiel in Form einer<br />
Anekdote aus der Wissenschaftsgeschichte zu dieser Problematik an.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 449<br />
So fragte ein Füsilier der Venezianischen Artillerie Galileo, warum seine<br />
Kanonen die größte Reichweite hätten, wenn sie in einem Winkel von<br />
45 abgefeuert würden. Das Wesentliche von Galileos Erklärung sieht<br />
wie folgt aus: Man betrachte die Kanonenkugel als Punktpartikel, die<br />
umgebende Atmosphäre als Vakuum und die Ebene als ideale euklidische<br />
Fläche. Wenn wir nun noch annehmen, daß auf die Kanonenkugel nur<br />
die Schwerkraft wirkt, können wir den idealen Abschußwinkel zu 45<br />
ausrechnen. In tatsächlichen Situationen sind natürlich all die idealen<br />
Bedingungen nicht erfüllt. Daß wir trotzdem von einer Erklärung Galileos<br />
für die größte Weite bei 45 auch für tatsächliche Kanonen sprechen<br />
können, liegt daran, daß im Rahmen der hier verlangten Genauigkeiten<br />
die meisten auftretenden Abweichungen von den idealen Bedingungen<br />
das Ergebnis nur mit so kleinen Unschärfen belasten, wie sie<br />
vom Füsilier – das heißt in dieser intendierten Anwendung von Galileos<br />
Theorie – ohne weiteres akzeptiert werden. Kitcher (1989, 454) bezieht<br />
sich auf die Quantenmechanik zur Erklärung bestimmter Abweichungen<br />
und spricht von geringen Wahrscheinlichkeiten, daß größere Abweichungen<br />
auftreten. Doch für das genannte Phänomen können wir quantenmechanische<br />
Einflüsse höchstens zu einem sehr kleinen Teil verantwortlich<br />
machen – nicht z. B. für Bodenunebenheiten etc. – und wie es<br />
zu den Unschärfen kommt, mag zunächst auch offen bleiben. Wesentlich<br />
ist es dagegen, bestimmte Idealisierungen zu akzeptieren, aber natürlich<br />
nicht alle beliebigen, sondern nur solche, für die wir in den betrachteten<br />
Anwendungen tolerierbar kleine Abweichungen zwischen unseren Meßwerten<br />
und den theoretisch vorhersagbaren Werten erhalten.<br />
Diesen Phänomenen von Unschärfen in Erklärungen und in Reduktionen<br />
und den damit verbundenen Fragen des Fortschritts von Theorien,<br />
kann Kitcher in seinem rein syntaktischen und deduktivistischen<br />
Vereinheitlichungsansatz überhaupt nicht gerecht werden. Zunächst ist<br />
in seiner deduktivistischen Konzeption kein Platz für Approximationen<br />
vorgesehen, und es bedarf auch einiger grundlegender Änderungen, um<br />
dieses Phänomen einzubringen. Wir haben jedenfalls keine wirkliche Deduktion<br />
mehr vor uns, wenn wir Unschärfen in Anschlag bringen. Was<br />
an Stelle einer Deduktion in Kitchers Konzeption treten könnte, hätte<br />
zunächst er selbst zu beantworten. Außerdem kommen an dieser Stelle<br />
die schon in (VII.C.8) geäußerten Bedenken gegenüber jeder syntaktischen<br />
Behandlung von Unschärfen zum Tragen, so daß es sogar prinzipiell<br />
fraglich ist, ob sie sich in Kitchers Ansatz unterbringen lassen. Sollte<br />
das nicht gelingen, kann er wesentliche Aspekte des Theorienfort-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 450<br />
schritts, der auch einen Übergang zu Theorien mit kleineren Unschärfemengen<br />
darstellt, nicht erfassen.<br />
Darin liegt einer der Hauptnachteile von Kitchers Vereinheitlichungskonzeption,<br />
zusammen mit ihrer Unfähigkeit die Flexibilität von<br />
Theorien und ihre inneren Zusammenhänge nachzuzeichnen. Für Fälle<br />
nicht deduktiver Erklärungen, echter statistischer Erklärungen, dem Zusammenhang<br />
vieler Theorie-Elemente und Spezialisierungen in einem<br />
ganzen Theorien-Netz etc. kann Kitcher kaum eine Analyse anbieten.<br />
Darunter muß auch sein Versuch leiden, unechte von echter Vereinheitlichung<br />
zu trennen. Wie die zahlreichen Muster, Kern- und Submuster,<br />
die mit einer Theorie assoziiert sind, zusammenspielen und wann sie zu<br />
gehaltvollen Aussagen führen, wird nicht weiter ausgearbeitet. Ob es tatsächlich<br />
gelingen würde, diese Phänomene auf der Metaebene allein mit<br />
Hilfe von Argumentmustern auch nur approximativ nachzuzeichnen,<br />
scheint mir eher fraglich. Deshalb möchte ich einen anderen Ansatz vorschlagen,<br />
der sowohl Friedmans wie auch Kitchers Einsichten reproduzieren<br />
kann, aber auf der anderen Seite von einer tiefergehenden Analyse<br />
der inneren Struktur von Theorien ausgeht, um so den genannten<br />
metatheoretischen Phänomenen gerecht zu werden.<br />
C. Einbettung in ein Modell<br />
In diesem Kapitel stelle ich eine eigene Konzeption von Vereinheitlichung<br />
vor, die gerade für den Bereich wissenschaftlicher Erklärungen<br />
wieder stärker auf das zurückgreift, was ich im Kapitel VII über die innere<br />
Struktur von Theorien gesagt habe. Das allgemeine Schlagwort, mit<br />
dem sich meine Erklärungskonzeption umreißen läßt, ist das der Einbettung<br />
in ein Modell. Demnach sind Erklärungen von Ereignissen oder Tatsachen<br />
Einbettungen dieser Tatsachen in ein Modell oder in eine Modellmenge<br />
von Modellen eines Typs und die Vereinheitlichung besteht<br />
darin, daß man mit wenigen möglichst gehaltvollen Modellen bzw. Modelltypen<br />
die zu erklärenden Phänomene zu beschreiben sucht. Im folgenden<br />
werde ich manchmal auch kurz von der Einbettungstheorie der<br />
Erklärung oder auch der Modelltheorie der Erklärung sprechen.<br />
Zunächst möchte ich diese Konzeption eher abstrakt erläutern und<br />
im folgenden anhand von Beispielen und der Problemlösefähigkeit für<br />
die Einbettungstheorie argumentieren. Dabei gehe ich von einer überwiegend<br />
informellen Darstellung schrittweise zu einer formal explizierten<br />
Erklärungstheorie über.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 451<br />
1. Ein allgemeiner Modellbegriff<br />
Ein wichtiger Punkt einer Explikation dieser Erklärungstheorie ist sicherlich<br />
der Modellbegriff selbst, der in dem Schlagwort „Einbettung in<br />
ein Modell“ verwendet wird. Für den allgemeinen Teil meiner Erklärungskonzeption<br />
möchte ich mit einem recht allgemeinen Modellbegriff<br />
arbeiten, nach dem ein Modell einfach eine Darstellung von etwas anderem<br />
ist, die speziell dazu entwickelt wurde, als Darstellung zu dienen.<br />
Um schon hier eine stärkere Abgrenzung zu eher künstlerischen Darstellungen<br />
zu gewinnen, könnte man hinzufügen, daß diese Darstellung für<br />
erkenntnistheoretische Zwecke entworfen wurde. Dabei sollen zunächst<br />
auch mechanische Modelle oder Analogiemodelle etwa im Sinn von Mary<br />
Hesse (1963) unter dem recht weitgefaßten Modellbegriff zu verstehen<br />
sein. Ebenso sind theoretische Modelle im Sinne von Achinstein und<br />
Redhead (1980) 201 hierunter zu subsumieren oder die „Simulacra“ von<br />
Cartwright (1983). Für den wissenschaftlichen Bereich möchte ich natürlich<br />
weitgehend an den schon im vorigen Kapitel vorgestellten formalen<br />
Modellbegriff der Logik anknüpfen, für den Modelle Relationsstrukturen<br />
sind, deren Grundmengen auch materielle Objekte enthalten dürfen.<br />
Die formalen Modelle in den Wissenschaften müssen nicht unbedingt<br />
durch Gesetze zu beschreiben sein, obwohl diese im Regelfall für<br />
Modellmengen wissenschaftlicher Theorien eine zentrale Rolle spielen<br />
werden. Aber gerade in den weniger stark formalisierten Disziplinen stoßen<br />
wir ebenso auf Modelle, die z. B. als Ablaufgeschichten eher narrativen<br />
Charakter haben und weitgehend ohne Gesetze zu ihrer Beschreibung<br />
auskommen. Außerdem können wissenschaftliche Modelle wie die<br />
Weltmodelle oder Klimamodelle, neben gesetzesartigen Charakterisierungen<br />
auch Einzeldaten enthalten, die über eine spezifische Situation<br />
Auskunft geben. In Klimamodellen sind das z. B. Daten über die Oberfläche<br />
der Erde und Strömungen von Luft und Wasser auf unserem Planeten.<br />
Als Modelle im allgemeineren Sinn zählen sogar Miniaturmodelle<br />
von Schiffen, Flugzeugen oder Autos, die bestimmte Eigenschaften ihrer<br />
repräsentierten Objekte im Strömungs- oder Windkanal ermitteln sollen.<br />
Offensichtlich sollte bei dieser Charakterisierung von Modellen sein,<br />
daß ein Modell keine isomorphe Abbildung von irgendwelchen Objekten<br />
und ihren Eigenschaften und Relationen sein muß. Isomorphe Zuordnungen<br />
finden sich bestenfalls zwischen bestimmten Aspekten der Wirklichkeit<br />
und bestimmten Teilen der Modelle (s. dazu Bartelborth 1993a).<br />
201 Redhead (1980, 146ff) diskutiert dort fünf Bedingungen von Achinstein<br />
für theoretische Modelle.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 452<br />
Spätere Beispiele können die Reichhaltigkeit unseres Modellbegriffs sicher<br />
besser illustrieren als eine abstrakte Erörterung.<br />
Einige Vorläufer zu einer Art von Vereinheitlichungstheorie der Erklärung<br />
wurden schon erwähnt. Speziellen Wert auf Modelle legten<br />
auch einige Wissenschaftstheoretiker und Naturwissenschaftler – man<br />
denke unter anderen an James Clerk Maxwell, Norman Cambell oder<br />
Piere Duhem –, für die meist anschauliche oder mechanische Modelle<br />
eine erstrangige Rolle spielten. Das paßt auch zu der wissenschaftstheoretischen<br />
Forderung, die von Braithwaite und anderen erhoben wurde,<br />
wonach uns das Modell vertrauter sein sollte als das Dargestellte. In einer<br />
moderneren Auffassung von Modellen sind solche Implikationen des<br />
Arbeitens mit Modellen natürlich nicht mehr zwingend. Als Vorbild für<br />
eine strukturalistische Sicht der Einbettungstheorie sind die Arbeiten<br />
von John Forge (1980 und 1985) zu nennen; mit seinem „instance view“<br />
der Erklärung, den er auch in einem semantischen Rahmen ansiedelt.<br />
Statt von der Einbettung in ein Modell spricht er davon, daß sich ein<br />
Modell als eine Instanz eines Gesetzes erweist.<br />
Einbettungen sind dabei nicht nur eine einfache einstufige Angelegenheit,<br />
sondern können in mehreren Stufen in immer neue Obermodelle<br />
erfolgen, was sogar für wissenschaftliche Erklärungen den Regelfall<br />
darstellt. Diese Stufenfolgen können von ganz unterschiedlicher Art<br />
sein. Optische Phänomene lassen sich zunächst in eine Wellentheorie des<br />
Lichts einbetten und diese wiederum in eine allgemeine Wellentheorie,<br />
in der allgemeine Phänomene wie Interferenz beschrieben werden. Insbesondere<br />
geht bereits die übliche Einbettung von Daten, die man etwa<br />
aus Messungen gewinnt, in zwei Stufen vonstatten. Zunächst müssen die<br />
endlich vielen erhobenen Daten (man könnte auch von einem Datenmodell<br />
sprechen) in ein partielles Modell einer Theorie eingebettet werden,<br />
das die „Instanziierung“ eines Phänomens darstellt und damit häufig<br />
schon unendlich viele Bahnwerte beinhaltet. Dieses partielle Modell<br />
muß nun seinerseits in ein theoretisches Modell eingebettet werden Die<br />
erste Einbettung läßt sich auch als Konzeptualisierung beschreiben, in<br />
der die Daten in der nichttheoretischen Begrifflichkeit einer Theorie formuliert<br />
werden. Als der englische Astronom Edmond Halley ab 1678<br />
auf der Insel St. Helena Daten über Kometen sammelt und dabei große<br />
Ähnlichkeiten zwischen den Bahnen und regelmäßige zeitliche Abstände<br />
von ca. 75 Jahren feststellte, vermutete er elliptische Bahnen, die sich<br />
anhand der Daten genauer angeben ließen. Damit hatte er die wenigen<br />
Meßwerte in ein partielles Modell der Newtonschen Mechanik eingebettet,<br />
das eine Instanz eines allgemeineren Phänomens von elliptischen Be-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 453<br />
wegungen von Himmelskörpern darstellt. Bereits durch diese Formulierung<br />
wurde die Kometenbewegung in einen bis dahin unbekannten theoretischen<br />
Zusammenhang zu den Planetenbewegungen gebracht, der<br />
eine erste Form von Vereinheitlichung bedeutet. Mit der Wiederkehr des<br />
Halleyschen Kometen im Jahr 1758 stieg daher das Interesse an Kometen<br />
stark an, jedoch erst im Jahre 1818 gelang es dem deutschen Astronomen<br />
Encke, die Bahn eines weiteren Kometen zu bestimmen und damit<br />
den systematischen Zusammenhang untereinander und zu den Planetenbahnen<br />
tatsächlich zu belegen.<br />
Im zweiten Schritt wird dann eine theoretische Einbettung gesucht,<br />
die nun ein ganzes Phänomen theoretisch erklärt, wobei alle Instanzen<br />
des Phänomens unter Respektierung der Querverbindungen der Theorie<br />
zu geeigneten Modellen ergänzt werden. D.h. sie werden in der Newtonschen<br />
Gravitationstheorie durch die Anziehungskräfte der Sonne und<br />
der Planeten erklärt, wobei außerdem der Identitäts- und der<br />
Extensivitätsconstraint zu berücksichtigen sind. Für theoretische Erklärungen,<br />
die Friedman für die wesentlichen Erklärungen in den Naturwissenschaften<br />
hält, spricht Friedman spätestens seit 1981 (s. Friedman<br />
1981 und 1983) ebenfalls von Erklärungen als Einbettungen:<br />
A typical, and striking, feature of advanced sciences is the procedure<br />
of theoretical explanation: the derivation of the properties of a relatively<br />
concrete and observable phenomenon by means of an embedding<br />
of that phenomenon into some larger, relatively abstract and<br />
unobservable theoretical structure. (Friedman 1981, 1)<br />
Im informellen Sinn spricht er dabei z. B. von Einbettungen der Eigenschaften<br />
von Gasen in die „Welt“ der Molekulartheorie oder der Planetenbewegung<br />
in die „Welt“ der universellen Gravitation Newtons. In seinen<br />
formaleren Darstellungen bezieht er sich aber eindeutig auf semantische<br />
Modelle wie sie auch der Strukturalismus verwendet (s. z. B. Friedman<br />
1981, 4, Anm. 2 oder 1983, 251ff). Dabei trifft er noch eine Unterscheidung<br />
zwischen Einbettungen und echten Submodellen, um den Unterschied<br />
zwischen antirealistischen und realistischen Interpretationen<br />
von Theorien damit auszudrücken. Der Einfachheit halber spreche ich<br />
jedoch nur von „Einbettungen“, möchte damit aber keineswegs antirealistische<br />
Interpretationen implizieren, denn natürlich soll die Darstellung<br />
von Theorien zunächst neutral gegenüber diesen Interpretationsmöglichkeiten<br />
sein. Das gilt um so mehr, als wir sicher Teile von Theorien realistisch<br />
interpretieren sollten, während andere Teile eher als mathemati-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 454<br />
sche Repräsentationen zu betrachten sind (s. Friedman 1981, 4ff und<br />
Bartelborth 1993a).<br />
Neben den theoretischen Erklärungen möchte ich aber wie angekündigt<br />
auch die „Common Sense“ Erklärungen einbeziehen, die sich überwiegend<br />
auf dem Niveau der begrifflichen Einbettung zu bewegen scheinen.<br />
Z. B. Abelson und Lalljee (1988), die Ideen von Schank (1986) weiterverfolgen,<br />
untersuchen in empirischen Studien „Common Sense“ Erklärungen<br />
menschlichen Verhaltens und bedienen sich ähnlicher Schemaerklärungen<br />
wie Kitcher. 202 So geht es ihnen in Erklärungen um<br />
„connecting the thing to be explained with some available conceptual<br />
pattern, appropriately modified to fit the circumstances“ (Abelson/Lalljee<br />
1988, 175). Für sie ist etwa HERZANFALL ein solcher „Erklärungsprototyp“,<br />
der eine Minitheorie beinhaltet, die die typische Geschichte<br />
dazu erzählt und überwiegend auf einer begrifflichen Ebene angesiedelt<br />
ist, also einer Art von Erläuterung des Begriffs darstellt. Dazu gehört für<br />
sie, daß es sich typischerweise um einen Mann (hier eine Anpassung an<br />
die Umstände eines Falles, zu dessen Erklärung sich die Autoren anschikken)<br />
über 50 handelt, der raucht und/oder übergewichtig ist und/oder<br />
hohen Blutdruck hat … und eventuell an den Folgen einer solchen Herzattacke<br />
stirbt. Mit diesem Prototyp HERZANFALL können sie dann den<br />
Tod eines bestimmten Menschen auf Common-Sense Niveau erklären,<br />
wenn er sich in eine derartige Geschichte einbetten läßt.<br />
Auch im wissenschaftlichen Bereich lassen sich viele Einbettungen<br />
finden, die sicher noch nicht den Status hochtheoretischer Einbettungen<br />
verdienen, sondern eher Einbettungen in Alltagsgeschichten auf einer<br />
nichttheoretischen Ebene darstellen. Hierhin gehören etwa kommentierte<br />
Ablaufschilderungen wie die bereits genannte Erklärung der Entstehung<br />
des Ablasses (s. VIII.B.1.b). Dabei werden einige historische Daten,<br />
die uns bekannt sind, in eine umfangreichere Geschichte eingebettet,<br />
die wir als Modell einer Common-Sense Psychologie bezeichnen<br />
können, wobei diese Einbettung durchaus einen Erklärungswert für uns<br />
besitzen kann, auch wenn keine Naturgesetze zitiert wurden und auch<br />
keine Deduktion dieser Praxis stattfand.<br />
202 Sie sprechen zwar von kausalen Erklärungen, aber was sie tatsächlich<br />
verfolgen, sind nur die Prototypen oder Schemata, während inhaltliche Ausgestaltungen<br />
von Kausalität fehlen. Hier findet sich ein typisches Beispiel für eine<br />
Verwendung eines deflationären Kausalitätskonzept.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 455<br />
2. Einbettungen und Erklärungen<br />
Jede Erklärung ist eine Form von Einbettung, so lautet die These der<br />
letzten Abschnitte, doch natürlich muß nicht jede Einbettung schon eine<br />
Erklärung darstellen. Zunächst sei daran erinnert, daß es eine Sache des<br />
Grades ist, ob etwas eine Erklärung ist. Unter den Erklärungen finden<br />
sich Fälle von tiefergehenden und gehaltvolleren Erklärungen und solche,<br />
für das (noch) nicht der Fall ist. Einen Beispieltyp von Erklärungen<br />
auf einem niedrigeren Erklärungsniveau hatten wir in den eher begrifflichen<br />
Einbettungen gefunden. Wenn etwa Kepler auf die Frage, warum<br />
ein bestimmter Planet sich zu verschiedenen Zeiten an bestimmten Orten<br />
befunden hat, antwortet, daß sich die Planeten auf ellipsenförmigen<br />
Bahnen mit der Sonne in einem Brennpunkt bewegen, wobei sie mit einer<br />
berechenbaren Geschwindigkeit um die Sonne fliegen, und die in<br />
Rede stehenden Orte und Zeiten nachweisbar genau auf der Elipsenbahn<br />
dieses Planeten liegen, so bietet das schon eine erste Erklärung.<br />
Wir erhalten von Kepler wichtige Informationen, die sich sogar für Voraussagezwecke<br />
eignen und in diesem Sinne erklären, warum der Planet<br />
gerade durch diese Raum-Zeit-Punkte und nicht durch beliebige andere<br />
lief. Allerdings können wir hier nicht von einer Ursachenerklärung sprechen,<br />
wie sie uns die Newtonsche Theorie zu bieten hat, die auch noch<br />
den Bahnverlauf selbst erklären kann und nicht einfach Ellipsenbahnen<br />
als unhintergehbares Faktum akzeptieren muß. Daß die Newtonsche Erklärung<br />
besser ist, wird natürlich nicht nur in der intuitiven Redeweise<br />
von Ursachen deutlich, sondern läßt sich in einem Vereinheitlichungsansatz<br />
verständlich machen. Die Newtonsche Theorie vereinheitlicht<br />
schließlich eine Vielzahl von Partikelsystemen unter einem Dach, während<br />
die Keplersche Planetenbahnentheorie nur einen sehr engen Ausschnitt<br />
davon beschreibt.<br />
Ähnlich ist das für Einbettungen in das Periodensystem. Sie geben<br />
uns erste Hinweise, warum ein Gas besonders stabil ist, aber diese Erklärungen<br />
sind als bloße Klassifikationen natürlich recht schwach, obwohl<br />
sie Prognosen erlauben. In anderen Disziplinen und in Stereotypenerklärungen<br />
wie HERZANFALL (s.o.) stoßen wir sicher auf noch schwächere<br />
Erklärungen und schließlich sind wir nicht mehr bereit, überhaupt noch<br />
von Erklärung zu sprechen, weil den Einbettungen jede Stringenz, jeder<br />
Gehalt, abgeht. Es wird deshalb notwendig sein, einen Schwellenwert<br />
anzugeben, ab dem eine Einbettung als eine Erklärung anzusehen ist und<br />
wann sie bestenfalls als eine Vorstufe zu einer Erklärung betrachtet werden<br />
kann. Für einen Vorschlag, wo wir die untere Grenze ziehen sollten,<br />
möchte ich den empirischen Gehalt der einbettenden Theorie einsetzen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 456<br />
Hat eine Einbettung keinen empirischen Gehalt mehr, d.h. kann die einbettende<br />
Theorie keine Situation als nicht einbettbar zurückweisen, sollten<br />
wir von einer rein begrifflichen Einbettung ohne Erklärungswert<br />
sprechen. Besitzt die Theorie dagegen empirischen Gehalt, gibt sie uns<br />
wenigstens erste Informationen, warum gerade diese Situation vorliegt<br />
und nicht eine beliebige andere.<br />
Für die Einbettung in wissenschaftliche Theorien, also die von partiellen<br />
Modellen in aktuelle, ist der empirische Gehalt präzise definiert<br />
worden und kann nun für die verlangte Abgrenzung herangezogen werden.<br />
Für informelle Einbettungen ist das natürlich nicht in derselben<br />
Strenge möglich, doch es läßt sich wenigstens intuitiv bestimmen, ob die<br />
Einbettung bestimmte Situationen ausschließt oder nur eine Klassifikation<br />
von an sich beliebigen Situationen darstellt. Darüber hinaus erlaubt<br />
der empirische Gehalt auch eine Präzisierung für Vergleiche von Theorien<br />
auf ihre Erklärungskraft hin, doch dazu später mehr.<br />
Im Rahmen der strukturalistischen Auffassung von Theorien haben<br />
übrigens sogar Common-Sense Theorien eine Chance, gehaltvolle Erklärungen<br />
zu produzieren, denn für den empirischen Gehalt werden auch<br />
einige holistische Phänomene berücksichtigt. Zunächst müssen die Einbettungen<br />
nicht nur einzelne Phänomene einbetten, sondern gleichzeitig<br />
für ganze Klassen von intendierten Anwendungen Gültigkeit besitzen.<br />
Dazu müssen die Einbettungen nicht nur die gesetzesartigen Bestimmungen<br />
der Theorie erfüllen, sondern ebenso eine Reihe von intertheoretischen<br />
Anforderungen, die für Common-Sense Theorien z. B. in den diversen<br />
Bedeutungsbeziehungen in unserer Sprache (und etwa den Putnamschen<br />
Stereotypen) zu sehen sind.<br />
Außerdem erlaubt es die Einbettungstheorie, die wichtigsten Dimensionen<br />
der Vereinheitlichung in einen formal präzisen Rahmen zu integrieren.<br />
Was Kitcher als die Stringenz der Vereinheitlichung bezeichnete,<br />
läßt sich in erster Näherung durch den theoretischen Gehalt einer Theorie<br />
beschreiben, denn dieser gibt Auskunft darüber, wie anspruchsvoll<br />
die Einbettung ist. Neben der Stringenz einer Theorie entscheidet ihre<br />
Systematisierungsleistung über den Erklärungswert einer Theorie. Sie<br />
soll nicht nur gehaltvolle Aussagen über einzelne intendierte Anwendungen<br />
machen, sondern eine möglichst große Zahl von Anwendungen in<br />
einem systematischen Rahmen unterbringen, wodurch auch Verbindungen<br />
zwischen möglichst vielen Anwendungen entstehen. Diese Vernetzung<br />
ist dabei um so hilfreicher, je verschiedenartigere Typen von intendierten<br />
Anwendungen verknüpft werden, denn gerade für sie ist sonst<br />
am ehesten zu erwarten, daß sie zu getrennten Subsystemen gehören
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 457<br />
könnten. Dadurch wird Friedmans Konzeption der Vereinheitlichung<br />
möglichst vieler Phänomene in der semantischen Theorienkonzeption<br />
umgesetzt, und schließlich werde ich auch seine Überlegung, erklärende<br />
Theorien hätten möglichst atomar zu sein, in einer etwas anderen Form<br />
unter dem Stichwort der organischen Einheitlichkeit von Theorien mitberücksichtigen.<br />
Diese Dimensionen der Vereinheitlichung entsprechen den intuitiven<br />
Vorgaben aus der Erklärungsdebatte. Zugleich decken sie sich mit unseren<br />
erkenntnistheoretischen Anforderungen an Erklärungen. Eine hohe<br />
Systematisierungsleistung einer erklärenden Theorie stellt sicher, daß ihre<br />
Erklärungen viele inferentielle Verbindungen der erklärten Phänomene<br />
zu anderen Phänomenen etablieren. Das trägt bereits lokal wie<br />
global zur Kohärenz bei. Daß diese Verbindungen möglichst stark sind,<br />
wird durch die Forderung nach Stringenz der Vereinheitlichung erfaßt.<br />
Schließlich sorgt die organische Einheitlichkeit einer Theorie dafür, daß<br />
die Verbindungen anhand von Knoten in unserem Netz nicht bloß künstlich,<br />
etwa durch Konjunktion des Verbundenen, herbeigeführt wird, sondern<br />
eine genuine Vernetzung darstellt.<br />
Daß die Einbettungstheorie sich auch mit der vertretenen Auffassung<br />
von wissenschaftlichem Verstehen verträgt oder sogar deckt, ist ebenfalls<br />
offensichtlich. Die Einbettung in ein Modell ist ein wichtiger Spezialfall<br />
der kohärenten Einbettung in unsere Überzeugungssysteme. Sie zeigt,<br />
wie sich einzelne Instanzen bestimmter Phänomene in akzeptierte Theorien<br />
einbetten lassen, wodurch sie indirekt in unsere Meinungssysteme<br />
integriert werden.<br />
D. Ein Beispiel für Vereinheitlichung<br />
In dieser Arbeit ist nicht der Raum für detaillierte Fallstudien, aber zu<br />
Zwecken der Illustration möchte ich für eine entwickelte Theorie, nämlich<br />
die Elektrodynamik, einige intendierte Anwendungen aus unterschiedlichen<br />
Bereichen nennen. Das soll die Bandbreite der Vereinheitlichung<br />
unserer wissenschaftlichen Erkenntnisse durch diese Theorie vor<br />
Augen zu führen. Zwangsläufig ist es dabei nicht möglich, die wissenschaftlichen<br />
Erklärungen, die die Elektrodynamik für die angeführten<br />
Phänomene gibt, hier zu präsentieren. Auch das ist eine Aufgabe für eigene<br />
ausführlichere Fallstudien. Außerdem sollte für die Phänomene immer<br />
klar sein, daß nicht die Maxwellsche Theorie allein in der Lage ist,<br />
die Erklärungsleistung zu erbringen, sondern meist mehrere Theorien
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 458<br />
dazu notwendig sind. Um die Leistungsfähigkeit der Elektrodynamik wenigstens<br />
anzudeuten, werde ich eine Auswahl von Phänomenen und<br />
technischen Entwicklungen ungefähr chronologisch anführen. Das betont<br />
den dynamischen Aspekt der langen Geschichte von Entdeckungen,<br />
die heutzutage bereits in dieser Theorie vereinheitlicht werden oder erst<br />
anhand der Theorie entdeckt wurden. 203 Darunter fallen Phänomene<br />
aus den Bereichen Magnetismus, Elektrizität, aber auch der Optik und<br />
anderer Gebiete der elektromagnetischen Strahlung.<br />
Zur Elektrodynamik:<br />
Magneten sollen bereits im 6. Jh. v. Chr. entdeckt worden sein. Erste<br />
Beschreibungen des Magnetismus mit einer animistischen Theorie,<br />
die ihn erklären sollte, finden sich schon bei Thales von Milet. Der<br />
Magnetismus bestimmter Materialien kann heute mit Hilfe von<br />
Atomtheorien und Elektrodynamik erklärt werden.<br />
Weitere magnetische Phänomene fand man im Erdmagnetismus. In<br />
Europa bestimmt man seit 1180 mit seiner Hilfe die Himmelsrichtung.<br />
Kolumbus vermerkte aber schon 1492 die Abweichungen der<br />
Kompaßnadel von der Nordrichtung, die magnetische Deklination.<br />
William Gilbert deutete die Erde um 1600 als einen Magneten und<br />
erklärte damit als erster das Verhalten der Kompaßnadel.<br />
1269 entdeckte Pelerin de Maricourt gelegentlich einer längeren Belagerung,<br />
daß Magneten magnetische Pole besitzen.<br />
Bereits Thales soll sich mit Bernstein beschäftigt haben, der sich beim<br />
Reiben elektrostatisch auflädt. Gilbert nannte ähnliche Stoffe (Felskristall<br />
z. B.) elektrische Stoffe (nach „elektron“ griechisch für Bernstein).<br />
Guericke baute um 1660 mit Hilfe einer rotierenden Schwefelkugel<br />
das erste Gerät zur Erzeugung von Reibungselektrizität, das<br />
sogar Funken abgab. Mit einer Glaskugel konnte Hauksbee das Gerät<br />
1706 wesentlich verbessern.<br />
Grimaldis Entdeckung der Diffraktion von Licht wurde 1665 posthum<br />
veröffentlicht. Newton bemerkte 1666, daß sich das weiße<br />
Licht in verschiedene Farben aufspalten läßt.<br />
Romer schätzte 1675 die Lichtgeschwindigkeit auf 225 000 km/s.<br />
Bradley, der sie 1728 anhand der von ihm verstandenen Abberation<br />
203 Dabei stütze ich mich unter anderem auf die Chronologie in Asimov<br />
(1991), aber es soll sich nicht um eine vollständige Chronologie aller Phänomene<br />
und Ereignisse handeln, die in der Elektrodynamik erklärt werden können,<br />
sondern nur um eine Auswahl.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 459<br />
des Lichts bei der Sternenbeobachtung schätzte, kam auf 283 000<br />
km/s.<br />
Newton behauptete, das Licht bestehe aus Teilchen, während Huygens<br />
es für eine Wellenbewegung im Äther hielt.<br />
Gray fand 1729, daß Elektrizität durch manche Stoffe, die er Leiter<br />
nannte floß, und hielt sie für eine Flüssigkeit. Du Fay vermutete<br />
1733 anhand von Anziehungs- und Abstoßungsphänomenen, daß es<br />
sich um zwei Flüssigkeiten handeln müsse.<br />
Im Jahre 1945 bauten Musschenbroek und unabhängig von ihm<br />
Kleist Geräte zur Speicherung von Elektrizität, die nach der Universität<br />
Leiden, wo ersterer arbeitete, Leidener Flasche genannt wurde.<br />
Cronstedt entdeckte, daß neben Eisen auch Nickel und Kobalt von<br />
Magneten angezogen werden.<br />
Franklin, der nur an eine einzige elektrische Flüssigkeit glaubte, entdeckte,<br />
daß auch Blitze elektrische Entladungen darstellen und entwickelte<br />
den Blitzableiter.<br />
Galvani bemerkte, daß auch die Muskeln toter Frösche bei Elektrizität<br />
zucken, kam in diesem Zusammenhang aber noch auf die Vermutung<br />
tierischer Elektrizität.<br />
Im Jahre 1800 baute Volta die erste elektrische Batterie, mit Kupfer<br />
und Zinkplatten sowie in Salzlösung getränkten Scheiben aus Pappe.<br />
Der Chemiker William Nicholson nutzte sie kurz darauf, um Wasser<br />
zu elektrolysieren.<br />
Ebenfalls im Jahr 1800 entdeckte Herschel die Infrarotstrahlung, als<br />
er einen besonderen Temperaturanstieg am roten Ende des Lichtspektrums<br />
feststellte.<br />
Ein Jahr später konnte Ritter die besonders schnelle Färbung von Silbernitratstreifen<br />
am anderen Ende des Spektrums beobachten, die<br />
auf eine ebenfalls unsichtbare Strahlung – die Ultraviolettstrahlung –<br />
zurückgeht.<br />
Im selben Jahr führte Young seine Lichtexperimente zur Interferenz<br />
und Beugung von Lichtwellen durch und ermittelte dabei u.a. auch<br />
die Länge von Lichtwellen.<br />
Davy (1807) isolierte mittels elektrochemischer Verfahren die Elemente<br />
Barium, Strontium, Calcium und Magnesium.<br />
In den folgenden Jahren wurden eine Reihe von Phänomenen des polarisierten<br />
Lichts von Physikern wie Malus und dem Chemiker Berzelius<br />
untersucht, die Fresnel (1818) z.T. anhand einer mathematisierten<br />
Fassung einer Theorie von Transversalwellen erklären konnte.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 460<br />
Das Jahr 1820 war besonders folgenreich. Ørsted bemerkte den Einfluß<br />
eines Stroms auf die Kompaßnadel, was Ampère zu systematischen<br />
Versuchen der Wirkungen zweier stromdurchflossener Drähte<br />
veranlaßte und Schweigger auf den Gedanken brachte, das erste<br />
Meßgerät für Stromstärken zu bauen. Arago konnte die Ähnlichkeit<br />
der Anziehung durch einen Kupferdraht, der einen Strom führt, mit<br />
der eines Magneten demonstrieren.<br />
Faraday (1821) konnte zeigen, wie sich Elektrizität in Bewegung umsetzen<br />
ließ und Seebeck, wie sich Wärme in Elektrizität verwandeln<br />
ließ (Seebeck-Effekt).<br />
Ohm (1827) ermittelte den Zusammenhang von Stromstärke und<br />
Dicke sowie Länge des Leitungsdrahtes.<br />
Faraday (1831) entwickelte den ersten elektrischen Generator, der<br />
sinnvoll durch einen Elektromotor (von Henry) ergänzt wurde.<br />
Um 1844 baute Morse seinen Telegraphen, der die Erkenntnisse über<br />
elektrische Magneten und Batterien umsetzte.<br />
Fluoreszenz in luftleeren Glasgefäßen, durch die man einen Strom<br />
schickt, hatte schon Faraday bemerkt, aber systematisch untersuchte<br />
sie zuerst der Physiker Plücker 1858 in einer Geißlerschen Röhre.<br />
In der zweiten Hälfte des 19. Jahrhunderts gelang es Physikern wie<br />
Maxwell und Hertz eine erste einheitliche Theorie der Elektrodynamik<br />
zu entwerfen – die in ihren Grundgleichungen noch heute gültig<br />
ist – die den genauen Zusammenhang von elektrischen und magnetischen<br />
Feldern und oszillierenden Ladungen angab und erstmals die<br />
Ausbreitung elektromagnetischer Wellen mathematisch präzise beschrieb.<br />
Damit war die Entfaltung der Elektrodynamik und das Entdecken von<br />
Phänomenen, die hauptsächlich sie beschreibt, natürlich noch lange<br />
nicht zu Ende. Die elektrischen Geräte und insbesondere die Resultate<br />
der Elektrotechnik und Elektronik geben heutzutage eine beredtes Zeugnis<br />
dafür, wie rasant die Entwicklung weiterging. Aber dieser kleine Ausschnitt<br />
der Entwicklung mag genügen, um zu erkennen, welch ungeheuer<br />
große Vereinheitlichungsleistung eine Theorie wie die Elektrodynamik<br />
erbringt. Das erklärt zugleich, warum wir sie gegenüber ihren „Konkurrenten“<br />
für überlegen halten. Die vielen kleinen Theorien, die man<br />
im Laufe der Zeit entwickelte, um die einzelnen beschriebenen Phänomene<br />
zu erklären, können gegenüber dieser Vereinheitlichungskraft<br />
nicht bestehen. Niemand würde diese „kleinen“ Theorien wie etwa die<br />
Flüssigkeitstheorien der Elektrizität ernsthaft als Konkurrenten der<br />
Maxwellschen Elektrodynamik ansehen, auch wenn es keine direkten
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 461<br />
experimentellen Resultate gegen sie gäbe. Schon durch ihre umfassende<br />
Vereinheitlichungsleistung überzeugt uns die Maxwellsche Theorie. 204<br />
Auf welche Weise die Vereinheitlichung vor sich geht und welche Rolle<br />
den Komponenten einer Theorie dabei zufällt, soll der nächste Abschnitt<br />
aufklären helfen.<br />
E. Komponenten der Vereinheitlichung<br />
Die strukturalistische Sichtweise von Theorien gestattet eine Präzisierung<br />
zumindest wesentlicher Teile der erklärenden Einbettung. Das geschieht<br />
anhand der in (VII.C) angegebenen inneren Struktur von Theorien<br />
und der darauf fußenden Explikation ihres empirischen Gehalts. Jede<br />
Einbettungsfunktion e, die ein partielles Modell x zu einem theoretischem<br />
Modell ergänzt und dabei die dort angeführten Anforderungen<br />
an Einbettungsfunktionen erfüllt, ist eine Erklärung des in x beschriebenen<br />
Ereignisses, wenn sie stringent und vereinheitlichend ist. Die Bedingungen,<br />
die die Komponenten einer Theorie T ihr dazu auferlegen, bestimmen,<br />
in welchem Ausmaß die Theorie vereinheitlichend wirkt und<br />
wie stringent sie dabei ist. Ehe ich zu einer formalen Explikation der<br />
Vereinheitlichungskraft von Theorien und speziellen Einbettungen übergehen,<br />
möchte ich die Beiträge der verschiedenen Theoriekomponenten<br />
informell beschreiben.<br />
1. Begriffliche Vereinheitlichung in Strukturarten<br />
Die gesuchten Beiträge zur stringenten Vereinheitlichung durch die Theorie<br />
sind von recht unterschiedlichem Gehalt. Da ist als erstes der begriffliche<br />
Rahmen zu nennen, den die potentiellen Modelle bereitstellen. Jede<br />
Einbettungsfunktion hat jedes Phänomen zunächst einer einheitlichen<br />
begrifflichen Einordnung zu unterziehen, die z. B. bestimmte Idealisierungen<br />
beinhaltet. Man spricht etwa in der KPM (klassischen Partikelmechanik)<br />
von Punktpartikeln, wohlwissend, daß tatsächliche Partikel<br />
immer eine Ausdehnung besitzen, und impliziert damit, daß diese Idealisierung<br />
vernachlässigbare Auswirkungen auf das Verhältnis von Theorie<br />
204 Eine viel stärker inhaltlich auf die Elektrodynamik eingehende Fallstudie<br />
zu ihrer Vereinheitlichungskraft bietet Morrison (1992). Eine ausführlichere<br />
Darstellung der klassischen Elektrodynamik im strukturalistischen Theorienkonzept<br />
findet sich in Bartelborth (1988).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 462<br />
und Erfahrung besitzt, die zumindest innerhalb der erlaubten Unschärfen<br />
angesiedelt sind. Daneben wird jedes physikalische System auf die<br />
wenigen Eigenschaften reduziert, die in der KPM eine Rolle spielen, wie<br />
Kräfte, Massen, Weg-Zeit-Funktionen und bestimmte mechanische Parameter,<br />
während zahllose andere Eigenschaften wie die Gestalten und<br />
Farben der Partikel weggelassen werden. Auch wenn diese begrifflichen<br />
Vereinheitlichungen nicht die Stringenz von Vereinheitlichungen durch<br />
Gesetze erreichen, so stellen sie doch eine wichtige Ebene der theoretischen<br />
Vereinheitlichung dar, die bereits erste inhaltliche Konsequenzen<br />
hat.<br />
Daß diese begriffliche Einordnung zu keiner Pseudovereinheitlichung<br />
verkommt, bei der einfach nur ein Name für vollkommen Unterschiedliches<br />
vergeben wird, dafür sorgt die Forderung an die potentiellen<br />
Modelle einer Theorie, daß sie einer Strukturart angehören sollen,<br />
d.h. daß sie alle von demselben Strukturtyp sein sollen. Diese Forderung<br />
läßt sich anhand des Begriffs der Strukturart von Bourbaki präzisieren.<br />
Sie dient dazu, strukturelle Ähnlichkeiten zwischen Relationsstrukturen<br />
= mit Mengen Dj und Relationen Rl darauf<br />
sichtbar zu machen. Zu diesem Begriff zunächst einige Hilfsbegriffe<br />
(s.a. Ludwig 1978, 58ff oder BMS 6ff):<br />
Eine Menge L, die nur aufgrund der wiederholten Anwendung des Cartesischen<br />
Produkts „“ und der Potenzmengenoperation „Pot“ auf<br />
D1,…,Dn (den Basismengen) entstanden ist, heiße Leitermenge L über<br />
. Bei entsprechendem n könnte eine solche Menge etwa folgendermaßen<br />
aussehen:<br />
L = Pot(D3 Pot(D5D1))<br />
Diese Menge hat einen bestimmten mengentheoretischen Typ , der<br />
diese Konstruktion aus den Basismengen typisiert, den wir etwa durch:<br />
(D) = Pot(3 Pot(51))<br />
charakterisieren können. gibt uns also ein mengentheoretisches (Leiter-)<br />
Verfahren an, wie wir von den Basismengen D zu der Leitermenge<br />
L = (D) gelangen können. Für eine Strukturart mit k Relationen<br />
zu den Basismengen benötigt man Typisierungen<br />
des (komplexen) Typs = und erhält:<br />
Eine Strukturart vom Typ zur Basis D ist die Menge:<br />
{; i gilt: Ri i(D)}
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 463<br />
D.h., eine Strukturart vom Typ zur Basis D ist die Menge aller Relationsstrukturen<br />
mit Basismengen und Relationen<br />
, für die die Relationen an der i-ten Stelle alle von demselben<br />
Typ i sind. Strukturarten sind damit Mengen von Relationsstrukturen<br />
mit denselben Grundmengen und strukturähnlich aufgebauten<br />
Relationen. Diese Einheitlichkeit verlangen wir nun auch noch zusätzlich<br />
von den potentiellen Modellen einer Theorie: 205<br />
Die Menge Mp der potentiellen Modelle einer Theorie muß eine<br />
Strukturart bilden.<br />
Die potentiellen Modelle einer Theorie lassen sich im allgemeinen nicht<br />
allein durch Typisierungen definieren, sondern sind weiter einzuschränken<br />
durch Bedingungen, wie daß eine Relation eine Funktion und außerdem<br />
differenzierbar sein soll. Diese zusätzlichen Forderungen, die zu<br />
den rein mengentheoretischen Typisierungen hinzukommen und mathematische<br />
Bedingungen an die Relationen formulieren, die noch keine<br />
Gesetze sind, sollen „Charakterisierungen“ heißen (s. BMS 14ff).<br />
Eine Abweichung von der ursprünglichen Bourbaki Definition verdient<br />
noch Erwähnung. Für einschränkende Zusatzbedingungen – in unserem<br />
Fall die Charakterisierungen – forderte Bourbaki, daß sie „transportabel“<br />
sein sollten, d.h. daß sie beim Transport von einer Menge zu<br />
einer isomorphen Menge stabil sein sollten (s. Scheibe 1981, 314). Bourbaki<br />
ließ als Bedingungen also nur strukturelle Bedingungen zu, die<br />
nicht von den speziellen Elementen der Grundmengen abhängen dürfen.<br />
Scheibe (1981) versucht durch solche Transportabilitätsbedingung wesentliche<br />
Invarianzeigenschaften von Theorien auszudrücken. Doch diese<br />
Forderung Bourbakis paßt besser zu mathematischen Theorien als zu<br />
empirischen, die ja auch Theorien über ganz bestimmte Objekte sein<br />
können (die Sonne nimmt in Keplers Theorie z. B. eine Sonderstellung<br />
ein und ist nicht gegen die Planeten austauschbar). Diesen Elementen<br />
mit Sonderstellung können wir natürlich immer eine eigenständige<br />
Grundmenge einräumen, um die Transportabilität zu erhalten, aber damit<br />
umgehen wir die Bedingung nur und gestehen zu, daß sie eigentlich<br />
nicht für empirische Theorien geeignet ist. Deshalb verzichtet der Strukturalismus<br />
auf diese Forderung. Ich verzichte weiterhin darauf – im Unterschied<br />
zur Darstellung in BMS –, auch von den Modellen einer Theorie<br />
zu verlangen, daß sie eine Strukturart bilden, denn ohne Transportabilitätsforderung<br />
kommt dadurch nichts Neues zu der bisherigen Forderung<br />
an die potentiellen Modelle hinzu.<br />
205 Damit gelten sie auch automatisch für die partiellen Modelle.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 464<br />
Mit der Bedingung, daß die potentiellen Modellmengen zu einer<br />
Strukturart gehören sollen, erreichen wir eine entsprechend einheitliche<br />
Beschreibung aller Systeme, die von einem Theorien-Netz behandelt<br />
werden. Insbesondere sind damit die Teil-Ganzes- Beziehungen und Art-<br />
Gattungs-Beziehungen für ein ganzes Theorie-Element und sogar ein<br />
ganzes Theorien-Netz einheitlich festgelegt. Das scheint ein wesentliches<br />
Merkmal der normalwissenschaftlichen Forschung zu sein. Wenn wir etwa<br />
Kuhns Netzmetapher für begriffliche Zusammenhänge folgen, daß<br />
jede theoretische Änderung eine leichte Bedeutungsverschiebung unseres<br />
Begriffsnetzes bedeutet, so werden wir trotzdem nicht gleich jede Bedeutungsänderung<br />
als wissenschaftliche Revolution ansehen. Wie groß müssen<br />
die Änderungen aber sein, um von einer „Revolution“ sprechen zu<br />
können?<br />
Dazu hat Thagard (1992, 30ff) einen Vorschlag gemacht und in einer<br />
großen Zahl von Fallstudien seine Brauchbarkeit belegt. Er geht davon<br />
aus, daß gerade Teil-Ganzes Beziehungen und Einteilungen in Arten<br />
entscheidende Auskünfte über die Ontologien unserer Theorien bieten.<br />
Schließlich sagen sie uns, aus welchen Konstituenten die Welt besteht.<br />
Für echte Revolutionen finden wir daher Verschiebungen vor allem in<br />
diesem Bereich. Die Evolutionstheorie veränderte z. B. den Artbegriff<br />
von einer morphologischen Konzeption mit synchronischen Kriterien<br />
der Zugehörigkeit zu einer genealogischen Konzeption. Besonders<br />
schockierend war für Darwins Zeitgenossen die dabei erfolgte Neueinteilung<br />
des Menschen von einer herausgehobenen selbständigen Kategorie<br />
zu einer unter anderen Tieren (s. Thagard 1992, 136ff). Es finden<br />
sich in den Wissenschaften zahlreiche weitere Beispiele für derartige Reklassifizierungen,<br />
die ihre Bedeutung für revolutionäre versus normalwissenschaftliche<br />
Entwicklungen nahelegen. Die Typisierungen und Charakterisierungen,<br />
die einen Typ von potentiellen Modellen für eine<br />
Theorie festlegen, sind zwar im allgemeinen keine besonders stringenten<br />
Vereinheitlichungen, aber sie sind immerhin geeignet, die ontologischen<br />
Hierarchien einer Theorie festzulegen.<br />
2. Sukzessive Vereinheitlichung durch Gesetze<br />
Stärkere inhaltliche Anforderungen, die besonders die Stringenz der Vereinheitlichung<br />
erhöhen, finden sich erst in der Beschränkung auf die<br />
Modellmenge. Damit werden nun, ganz im Sinne Friedmans, bestimmte<br />
Phänomene unter einige wenige Gesetze gebracht. Allerdings ist dabei<br />
zu beachten, daß hier sukzessive eine Reihe von Einbettungen in einem
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 465<br />
Theorien-Netz erfolgt. Zunächst werden alle intendierten Anwendungen<br />
einer Theorie unter ihre Grundgesetze im Basis-Theorie-Element subsumiert.<br />
Das erweist sich in den meisten Fällen jedoch kaum als stringente<br />
Einbettung, wie Fallstudien zu verschiedenen Theorien gezeigt haben,<br />
nach denen das Basis-Theorie-Element allein gehaltsleer war. Erst mit<br />
der Subsumption unter die Spezialisierungen des Netzes und die sie charakterisierenden<br />
Spezialgesetze ist eine substantielle empirische Behauptung<br />
verbunden. Die kann sukzessive durch weitere Spezialisierungen bis<br />
in Bereiche technischer Anwendungen der Theorie hinein verstärkt werden.<br />
An dieser Stelle zeigt sich auch der Vorteil eines hierarchischen Aufbaus<br />
einer Theorie in Form eines Netzes. Eine Theorie soll nämlich auf<br />
der einen Seite eine Vereinheitlichung und Systematisierung vieler Phänomene<br />
bieten, dabei aber zugleich möglichst informationsreich sein.<br />
Diese beiden Forderungen stehen in einem Spannungsverhältnis, das immer<br />
eine Abwägung gegeneinander erfordert. Doch diese hat nicht in einem<br />
Schritt ein für allemal zu erfolgen, sondern kann in mehreren<br />
Schritten auf unterschiedlichen Ebenen vorgenommen werden. Die Konzeption<br />
des Theorien-Netzes erlaubt es, beide Forderungen in unterschiedlichen<br />
Kombinationen zu verwirklichen, so daß sich insgesamt<br />
eine gehaltvolle Aussage ergibt.<br />
Man könnte sagen, ein Netz von Theorie-Elementen verwirkliche<br />
die zwei Aspekte Vereinheitlichung und Stringenz in entgegengesetzten<br />
Richtungen. Während die Vereinheitlichung nach oben (in Richtung auf<br />
das Basis-Theorie-Element) hin wächst, weil immer mehr Phänomene<br />
unter immer weniger Gesetze subsumiert werden, wächst die Stringenz<br />
zusammen mit der Spezifizität nach unten hin an, wo jeweils speziellere<br />
Gesetze für immer weniger Typen von intendierten Anwendungen formuliert<br />
werden. In die empirische Behauptung des ganzen Netzes fließen<br />
dann beide Effekte ein und ergeben eine Art Zusammenschau aller<br />
Bedingungen, die das Netz an die intendierten Anwendungen stellt.<br />
Die empirische Behauptung ist daher auch der geeignete Ort, um<br />
eine untere Grenze, wann wir überhaupt noch von einer Erklärung sprechen<br />
können, zu markieren. Daß nicht jede Einbettung schon eine Erklärung<br />
darstellt, hatte ich in (C.2) zugestanden und als Schwellenwert gerade<br />
die empirische Behauptung einer Theorie genannt, die nicht leer<br />
sein sollte. Diese Bedingung sorgt dafür, daß die erklärende Einbettung<br />
nicht nur eine begriffliche Klassifizierung darstellt, sondern empirische<br />
Informationen beinhaltet, die darüber hinausgehen. Die rein begrifflichen<br />
Einbettungen, die natürlich keineswegs wissenschaftlich unbedeu-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 466<br />
tend sind – man denke nur an die biologischen Klassifizierungen –,<br />
möchte ich in Anlehnung an eine Stegmüllersche Formulierung bloß als<br />
„wissenschaftliche Systematisierungen“ bezeichnen.<br />
3. Vereinheitlichung durch Konsistenzforderungen<br />
Neben den Gesetzen einer Theorie, die wesentlich zur Stringenz der<br />
theoretischen Vereinheitlichung beitragen, sind in erster Linie die innertheoretischen<br />
Querverbindungen (Constraints) als wichtige Faktoren der<br />
Vereinheitlichung zu nennen. Sie wirken wie eine verbindende Klammer<br />
zwischen den lokalen Modellen eines Theorie-Elements und sollen die<br />
Konsistenz für die Zuweisung von physikalischen Größen innerhalb eines<br />
Theorie-Elements sicherstellen. Während die Bestimmungen für die<br />
potentiellen Modelle für eine einheitliche begriffliche Struktur sorgten,<br />
bewirken die Constraints grob gesagt eine Einheitlichkeit der Funktionswerte<br />
in unterschiedlichen Bereichen der Theorie. So handelt es sich<br />
häufig um Identitätsconstraints oder Invarianzconstraints, die deutlich<br />
machen, daß es sich um ein und dieselbe Funktion mit denselben Werten<br />
etwa für die Masse eines Partikels handelt, auch wenn dieser Partikel in<br />
verschiedenen physikalischen Systemen auftritt. Untersuchungen zur empirischen<br />
Behauptung von Theorien (etwa Gähde 1989) offenbaren,<br />
welch große Bedeutung den Constraints für die Stringenz der Vereinheitlichung<br />
zukommt, und es ist daher auch nicht überraschend, daß sie<br />
ebenfalls eine wichtige Rolle für theoriendynamische Prozesse spielen.<br />
Darüber hinaus bestimmen sie wesentlich mit über den inneren Zusammenhalt<br />
eines Theorie-Elementes. Ihre verbindende Funktion als Brükkenstruktur<br />
innerhalb einer Theorie sorgt dafür, daß die Theorie nicht<br />
in eine schlichte Konjunktion von Einzelbehauptungen und damit gewissermaßen<br />
in Subsysteme zerfällt, sondern ein organisches Ganzes bildet,<br />
was ich in (IX.E.8) ausführen werde. Die Wirkung der Constraints, etwa<br />
des Identitätsconstraints für Partikelsysteme in der Mechanik, läßt sich<br />
auch wie folgt beschreiben: Die lokalen potentiellen Modelle, die einen<br />
Constraint erfüllen, lassen sich zusammen in ein globales potentielles<br />
Modell der Theorie einbetten. Dieser Gedanke wird für den Fall der Allgemeinen<br />
Relativitätstheorie in Bartelborth (1993) präziser gefaßt. Das<br />
bringt noch einmal zum Ausdruck, wie sich auch die Vereinheitlichung<br />
durch innertheoretische Querverbindungen in die Redeweise von Vereinheitlichung<br />
als Einbettung in ein Obermodell einfügt.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 467<br />
4. Vortheoretische Vereinheitlichung und theoretische Größen<br />
Die partiellen Modelle zeichnen eine Substruktur der potentiellen Modelle<br />
als nicht-T-theoretisch aus. D.h. in erster Näherung: Wir haben die<br />
Werte für diese Größen (also die Submodelle) anhand anderer Theorien<br />
zu ermitteln. Die partiellen Modelle geben uns daher eine wichtige<br />
Schnittstelle zu anderen Theorien über die ein intertheoretischer Informationstransfer<br />
laufen kann und Theorien zu einem Holon zusammengefaßt<br />
werden können. 206 Für die Frage der Vereinheitlichung ist allerdings<br />
spannender, welche Funktion die T-theoretischen Größen übernehmen<br />
und warum wir sie überhaupt benötigen. Tatsächlich gelingt erst<br />
durch ihre Mithilfe die Vereinheitlichung so scheinbar heterogener Phänomene<br />
(vom elastischen Stoß bis zur Planetenbewegung) in einer Theorie.<br />
Die Bedeutung theoretischer Terme für eine Vereinheitlichung läßt<br />
sich kaum überschätzen, und es ist ein typischer Fehler streng empiristischer<br />
Wissenschaftskonzeptionen, sie als eher suspekte Bestandteile zugunsten<br />
von Beobachtungsbegriffen aus Theorien eliminieren zu wollen.<br />
Wenn Newton tatsächlich auf den fallenden Apfel in seinem Obstgarten<br />
und den Mond geschaut hat, wobei ihm der Gedanke kam, daß<br />
es dieselbe Art von Kraft sein muß, die beide Bahnen regiert, so zeigt<br />
das, wie das Konzept der Gravitationskraft wesentlich zur Vereinheitlichung<br />
beiträgt. Um so mehr gilt das für Newtons allgemeinen Kraftbegriff,<br />
der hilft noch viel verschiedenartigere Phänomene unter wenige<br />
Gesetze zu bringen. Diese Bestimmung scheinen theoretische Größen in<br />
hochentwickelten Theorien allgemein zu erfüllen. Um dabei Anpassungsprozesse<br />
und Gehaltsverstärkungen in dynamischen Forschungsprogrammen<br />
mitmachen zu können, wäre es geradezu hinderlich, wenn<br />
die theoretischen Größen dabei den von Lewis (1970) angestellten Vermutungen<br />
über eine eindeutige Charakterisierbarkeit der theoretischen<br />
Größen (und Definierbarkeit) auf der zweiten Stufe gehorchen würden.<br />
Damit wären sie ein für allemal festgelegt, und neu hinzukommende<br />
Spezialgesetze könnten zu ihrer Bestimmung nichts Neues hinzufügen.<br />
Sie wären eigentlich überflüssig. Doch tatsächliche Theorien zeigen das<br />
gegenteilige Verhalten. Ihre theoretischen Terme werden durch die<br />
Grundgesetze nicht definiert und weisen zunächst sogar eine sehr große<br />
206 Ein gutes Beispiel, wie diese Zusammenfassung gerade durch „Vortheorien“<br />
bewirkt wird, die die partiellen Modelle einer Theorie bestimmen, finden<br />
wir in der Allgemeinen Relativitätstheorie, wo die grundlegenden Raum-Zeit<br />
Modelle als partielle Modellle aller anderen relativistisch formulierten Theorien<br />
dienen (s. Bartelborth 1993).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 468<br />
Flexibilität auf, die erst in weiteren Spezialisierungen für Teile ihres Anwendungsbereichs<br />
langsam eingeschränkt wird. Daß dabei immer weitere<br />
sinnvolle Zusatzforderungen berücksichtigt werden können, bis<br />
schließlich hin zu technischen Anwendungen, demonstriert nur diesen<br />
Spielraum theoretischer Größen. So erstrebenswert sich die Forderung<br />
nach Definierbarkeit also auch in den Ohren des Logikers anhören mag,<br />
für den Wissenschaftstheoretiker, der wissenschaftsdynamische Phänomene<br />
beschreiben will, wäre ihre Erfüllung eine Katastrophe.<br />
Für tatsächlich rekonstruierte Theorien ist sie auch nicht gegeben.<br />
Im Basis-Theorie-Element werden die theoretischen Größen sicherlich<br />
nicht eindeutig bestimmt, denn dessen Axiome sind meist nur Schemagesetze,<br />
die kaum die nötige Spezifizierung für eine Definition bereitstellen.<br />
Den Fall der Newtonschen Mechanik hat z. B. Ulrich Gähde (1983)<br />
unter diesem Gesichtspunkt untersucht. Jede Spezialisierung bietet dann<br />
zwar eine weitere Charakterisierung der theoretischen Größen, aber nur<br />
um den Preis der Einschränkung auf bestimmte Anwendungstypen. Bietet<br />
also die strukturalistische Auffassung von Theorien ein einigermaßen<br />
realistisches Bild der Wissenschaften – und dafür sprechen immerhin<br />
zahlreiche Fallstudien und konkrete Rekonstruktionen –, ist es gerade<br />
die inhaltliche Flexibilität theoretischer Terme, die für sie wesentlich ist.<br />
Sie gestattet es, unterschiedliche Phänomene unter eine Begrifflichkeit<br />
und in eine Modellhierarchie zu bringen. Das Ideal eindeutig definierbarer<br />
Begriffe stammt dagegen eher aus der Mathematik und bietet ein zu<br />
schlichtes Bild empirischer Disziplinen. Die Ausgestaltung der Spielräume<br />
für theoretische Begriffe im Hinblick auf Vereinheitlichung und<br />
Stringenz ist dann eine Aufgabe für die dynamische Entfaltung einer<br />
Theorie.<br />
5. Vereinheitlichung der Phänomene<br />
Letztlich hat sich alle Rede von Vereinheitlichung immer auf die intendierten<br />
Anwendungen und insbesondere Typen von intendierten Anwendungen<br />
zu beziehen. Das hat schon Whewell (1967, 65) deutlich ausgesprochen.<br />
Zwar wird eine Theorie nach Whewell ebenfalls durch einzelne<br />
Tatsachen derselben Art gestützt, aber erst, wenn sie Fälle unterschiedlicher<br />
Typen von Tatsachen zu erklären vermag, denken wir, sie sei<br />
gewiß, weil sich nur so dieses außergewöhnliche Zusammentreffen erklären<br />
läßt. Um diese Überlegung in eine Präzisierung von Erklärung<br />
einzubringen, erweist sich die explizite Einführung des Anwendungsbereichs<br />
einer Theorie wiederum als ausgesprochen hilfreich. Die verein-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 469<br />
heitlichende Kraft einer Theorie bemißt sich geradezu an der Anzahl der<br />
Typen von intendierten Anwendungen, die zu den erfolgreichen intendierten<br />
Anwendungen einer Theorie gehören. Wenn es auch sicherlich nicht<br />
immer unproblematisch ist, I in eine Klasse von Typen intendierter Anwendungen<br />
zu zerlegen (s.u.), so sind viele Vagheiten der Zerlegung von<br />
I für einen Theorienvergleich in bezug auf Vereinheitlichung nicht bedeutsam,<br />
da diese Vergleiche sich für wettstreitende Theorien oft auf<br />
dieselben Phänomenbereiche richten. Vergleiche ich z. B. zwei mechanische<br />
Theorien, von denen die eine nur einfache Pendel, die andere zusätzlich<br />
Doppelpendel erklären kann, spielt es keine große Rolle, ob ich<br />
Pendel und Doppelpendel als einen oder zwei Typen von Anwendungen<br />
verstehe. Im ersten Fall hat die erste Theorie den Nachteil, einen Typ<br />
von Pendelbewegung nicht ganz zu erklären, im zweiten Fall den Nachteil,<br />
einen Typ weniger als die zweite Theorie behandeln zu können.<br />
Klar ist in jedem Fall die Überlegenheit der zweiten Theorie. Kann dagegen<br />
eine Theorie einen Phänomenbereich x und eine andere einen Phänomenbereich<br />
y neben einem gemeinsamen Bereich behandeln, ist eine<br />
Abwägung der Theorien gegeneinander wohl kaum anhand einer simplen<br />
Zählung der Phänomene möglich, sondern erfordert einen komplexeren<br />
Vergleich, der z. B. auch zulässige Unschärfemengen und intertheoretische<br />
Überlegungen mit einbezieht.<br />
Doch nun zur Frage, wie sich der Anwendungsbereich einer Theorie<br />
überhaupt in Typen aufteilen läßt. Für die intendierten Anwendungen<br />
der Newtonschen Mechanik haben wir diese Aufteilung in ihrer Beschreibung<br />
bereits immer schon berücksichtigt. Sie lassen sich etwa als<br />
eine Menge von Typen von Anwendungen begreifen, die jeweils durch<br />
ein Stichwort oder paradigmatisches Exemplar in erster Näherung charakterisiert<br />
werden können und sind damit als eine Klasse I der folgenden<br />
Form darstellbar: I = {Planetensysteme, Pendel, zusammenstoßende<br />
Partikel (Billiardbälle), schiefe Würfe, …}. 207 Bei einer Rekonstruktion<br />
dieser Theorien finden wir die Typen bereits in den Wissenschaften vor,<br />
aber natürlich verbinden wir auch gewisse theoretische Vorstellungen<br />
mit diesen Einteilungen. Wir sagen etwa, sie repräsentierten Phänomene<br />
oder natürliche Arten von intendierten Anwendungen und sind keine<br />
willkürlichen Zusammenstellungen, sondern eben natürliche Klassifikationen<br />
physikalischer Systeme.<br />
207 Siehe dazu z. B. Moulines (1979, 420ff), wo der Gesichtspunkt, daß der<br />
Bereich der intendierten Anwendungen durch Arten von solchen Anwendungen<br />
beschrieben werden kann, für (diachronische) Theorie-Entwicklungen betont<br />
wird.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 470<br />
So einleuchtend das in unserem Beispiel erscheint, bleibt doch die<br />
Frage zu beantworten, wie sich natürliche Arten charakterisieren lassen,<br />
d.h. welche Kriterien über die Mitgliedschaft in ihnen entscheiden dürfen.<br />
Zunächst gibt es sicher eine Reihe vortheoretischer Ähnlichkeitseinstufungen,<br />
die zusammen mit bestimmten paradigmatischen Beispielen<br />
diese Klassifizierungen nahelegen (s. dazu Moulines 1979). D.h., man<br />
muß nicht unbedingt die Newtonsche Mechanik kennen oder selbst akzeptieren,<br />
um den genannten Eingruppierungen zustimmen zu können.<br />
Trotzdem sind es oftmals auch die theoretischen Beschreibungen<br />
durch die Theorien selbst, die wesentlich für unsere Taxonomie von<br />
Phänomenen sind und die insbesondere zu entsprechenden Verfeinerungen<br />
oder Unterarten führen können. Friedman (1988) hatte versucht,<br />
Phänomene anhand von Gesetzen zu zählen. Diese Idee, die Wiggins<br />
(1980) ganz allgemein zur Charakterisierung von natürlichen Arten vertritt,<br />
hat schließlich Platts (1983) in seiner Konzeption einer Hierarchie<br />
von theoretisch ausgezeichneten natürlichen Arten weiterentwickelt, die<br />
gut zu den strukturalistischen Vorstellungen eines Theorien-Netzes paßt.<br />
Seinen intuitiven Ausgangspunkt formuliert er wie folgt:<br />
Hence the rough initial idea is that what is involved in a class being<br />
a natural kind class is that there be explanations, of law-based kind,<br />
which serve to account for the nature of each member of that class<br />
but which do not so serve for any other object. (Platts 1983, 134)<br />
Ein Beispiel mag diese Ansicht erläutern. In unserem Sonnensystem gibt<br />
es auf den ersten Blick eine Reihe unterschiedlicher Typen von Himmelskörpern.<br />
Neben der Sonne, die selbst auch eine Sonderstellung einnimmt,<br />
finden sich etwa Planeten, Monde dieser Planeten, Asteroiden<br />
und Kometen. Welche Klassen wir aus diesen Gruppen als natürliche<br />
und eigenständige Arten für eine Theorie betrachten, ist wesentlich von<br />
unserem Wissensstand abhängig. In Keplers Theorie kommt der Sonne<br />
gegenüber den Planeten eine Ausnahmestellung zu, die sie in Newtons<br />
Gravitationstheorie nicht in demselben Sinn behielt. Ähnliches gilt für<br />
die Kometen. Bereits die Griechen der Antike kannten Kometen und ihre<br />
auffälligen Schweife. Da ihre Bahnen sehr unregelmäßig und willkürlich<br />
im Unterschied zu denen der Sterne und Planeten erscheinen, mußte<br />
man sie als eigenständige Art von Himmelsobjekten betrachten. Erst<br />
Halley, einem Freund Newtons, gelang es anhand der Vermutung, daß<br />
auch sie auf elliptischen Bahnen um die Sonne laufen, sie in einen theoretischen<br />
Rahmen mit den Planeten zu stellen. Ähnliche Beispiele finden<br />
sich in allen Bereichen der Naturwissenschaften und belegen, wie abhän-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 471<br />
gig die Einteilung in natürliche Arten von unseren theoretischen Kenntnissen<br />
sein kann.<br />
Solche natürlichen Arten, die mit Erklärungen anhand von Gesetzen<br />
eng zusammenhängen können, treten aber nicht nur auf einer Ebene auf,<br />
sondern in einer Hierarchie von Allgemeinheitsstufen, und wir könnten<br />
in Analogie zur biologischen Taxonomie auch hier von Stämmen, Klassen,<br />
Familien, Gattungen etc. sprechen, die jeweils auf anderen Ebenen<br />
der theoretischen Erklärung zur Anwendung kommen. So finden wir<br />
oberhalb von Zitronen Zitrusfrüchte und darüber wiederum Früchte<br />
usf., die jeweils natürliche Arten bilden können, die für bestimmte Erklärungszwecke<br />
zu unterscheiden sind. Platts (1983, 137ff) beschreibt, wie<br />
die Einschränkung von Erklärungen auf kleinere Anwendungsbereiche<br />
jeweils mit einem Gewinn an Erklärungsstärke verbunden sein kann.<br />
Das paßt recht gut zu der strukturalistischen Konzeption von Spezialisierungen<br />
auf Teilbereiche der intendierten Anwendungen mit stärkeren<br />
Spezialgesetzen für diese Anwendungen. Jede Menge I läßt sich so auf<br />
unterschiedlichen Ebenen in Typen von Anwendungen aufteilen. Die<br />
„Pendel“ lassen sich wieder in einfache und Doppelpendel aufteilen, die<br />
Stoßsysteme in solche mit elastischen und solche mit unelastischen Stößen<br />
usf.<br />
So homogen uns ein Phänomenbereich auch im Rahmen einer Theorie<br />
erscheinen mag, aus einer anderen theoretischen Perspektive können<br />
sich wieder andere Einteilungen ergeben. Während in den moderneren<br />
Himmelsmechaniken die Sonne ein Körper wie die Planeten, Kometen,<br />
Monde und Asteroiden ist, nur mit besonders großer Masse, kommt ihr<br />
in der Astropysik eine andere Bedeutung zu. Dort wird sie anhand des<br />
Hertzsprung-Russell Diagramms als ein Stern der Hauptreihe mit vielen<br />
Sternen gegen rote Riesen und weiße Zwerge abgegrenzt, die sich in einem<br />
anderen Entwicklungsstadium befinden. Khalidi (1993) weiß eine<br />
Reihe von Beispielen aus unterschiedlichen Bereichen beizubringen, die<br />
darlegen, daß Einteilungen in natürliche Arten nicht nur zu einer Hierarchie<br />
gehören müssen, sondern außerdem – und das scheint ein Problem<br />
für essentialistische Ansichten natürlicher Arten zu sein –, vollkommen<br />
quer zueinander liegen können, je nachdem, welche theoretischen Ziele<br />
wir im Auge haben. Es gibt demnach auch nicht die eine basale Taxonomie<br />
für alle Bereiche der Wissenschaften, sondern wir sind wohl zu einem<br />
Pluralismus von Taxonomien gezwungen.<br />
Dieses Phänomen findet sich sogar bereits in der Disziplin mit den<br />
ausgefeiltesten Klassifikationsschemata: der Biologie. Neben biologischen<br />
Kategorien wie „Parasiten“, die etwa quer durch die stammesge-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 472<br />
schichtlichen Zusammenhänge verlaufen (s. Khalidi 1993, 105), stoßen<br />
wir auf entsprechende Phänomene auch schon im grundlegenden Speziesbegriff.<br />
Mit Darwin fand z. B. eine begriffliche Revolution von der<br />
morphologischen Klassifikation Linnés zu einer stärker phylogenetisch<br />
orientierten Einteilung statt. 208 Aber auch die Stammesgeschichte gibt<br />
keine endgültige Auskunft, wann man von einer neuen Art sprechen<br />
sollte und wann nur von einer Variation innerhalb derselben Art. So<br />
kommt Dupré (1992) für biologische Spezies schließlich zu dem Schluß,<br />
daß nur ein taxonomischer Pluralismus übrigbleibt, der mit unterschiedlichen<br />
Klassifikationskriterien und dementsprechend manchmal auch<br />
mit unterschiedlichen Einteilungen zu arbeiten hat.<br />
Eine Warnung möchte ich der Konzeption von einem Pluralismus<br />
von Taxonomien noch hinzufügen. Damit wird keineswegs schon eine<br />
antirealistische Einstellung ihnen gegenüber impliziert, nach der die Einteilungen<br />
der Welt nur von uns „gemacht“ werden und eigentlich nur<br />
völlig willkürliche Zusammenfassungen darstellen oder schlimmer noch,<br />
damit verschiedene Welten von uns erzeugt werden. Tatsächlich ist eine<br />
realistische Position nicht darauf festgelegt, es könne nur eine wahre Beschreibung<br />
der Welt geben, wie es Putnam dem Realisten unterschiebt (s.<br />
dazu Bartelborth 1993a). Verschiedene Beschreibungen der Welt eventuell<br />
mit unterschiedlichen Einteilungen in natürliche Arten dürfen nur<br />
nicht unverträglich sein, was in den genannten Beispielen jedoch nicht<br />
der Fall ist. Im Gegenteil kann der Realist in diesen Fällen jeweils erklären,<br />
welcher Zusammenhang zwischen den unterschiedlichen Beschreibungen<br />
besteht. Das ist meines Erachtens die wichtigste Forderung an einen<br />
Realisten, der unterschiedliche Beschreibungen zulassen möchte (s.<br />
Bartelborth 1993a).<br />
Der Realist (z. B. Devitt 1991, Kap. 13) erklärt das so, daß es auch<br />
tatsächlich unterschiedliche Zusammenhänge in der Welt gibt, die zu unterschiedlichen<br />
Klasseneinteilungen Anlaß geben können. Dabei kann es<br />
sich um diverse kausale Beziehungen handeln, aber auch um topologische,<br />
kombinatorische, statistische usf., die jeweils andere Taxonomien<br />
verlangen mögen. Trotz eines Pluralismus von Taxonomien finden wir<br />
für einen bestimmten Bereich bei gleicher Fragestellung im allgemeinen<br />
eine relativ einheitliche Aufteilungen in natürliche Arten, die wie in den<br />
Beispielen aus der Mechanik in einer hierarchischen Gliederung bestehen<br />
können. Außerdem können wir nun zumindest eine hinreichende<br />
Bedingung für die Zugehörigkeit zu unterschiedlichen natürlichen Arten<br />
208 Eine kurze Geschichte des Speziesbegriffs in der Biologie bietet Stevens<br />
(1992).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 473<br />
in einem Netz N = (Ti)iJ formulieren. Zwei intendierte Anwendungen x<br />
und y des Netzes gehören zu unterschiedlichen Arten, wenn gilt:<br />
(*) Es gibt ein Theorie-Element Ti mit: x I(Ti) und y I(Ti).<br />
Für eine notwendige Bedingung reicht das natürlich kaum, denn die Gesetze<br />
der Theorie sind nicht unsere einzigen Kriterien für die Zugehörigkeit<br />
zu einer Art. Neben vortheoretischen Unterscheidungen kommen<br />
eventuell weitere Unterscheidungen ins Spiel, die erst bei einer Fortführung<br />
des Netzes in technischere Bereiche anhand der Bedingung (*) unterschieden<br />
werden könnten. Für jedes Theorie-Element Ti erhalten wir<br />
schließlich eine Zerlegung:<br />
I(Ti) = j Pi,j<br />
der intendierten Anwendungen dieses Theorie-Elements in eine Menge<br />
von Phänomenen Pi,j Mpp(T). Wenn wir nun für die gesamte Anwendungsmenge<br />
I(T0) die gröbste Zerlegung wählen, so daß alle anderen<br />
Zerlegungen Pi,j noch darin enthalten sind, erhalten wir den gesamten<br />
Phänomenbereich des Netzes:<br />
I(T0) = Pj (mit j aus einer Indexmenge ) und die Menge Ƥ(T), aller<br />
Phänomene, die zu erklären T antritt. Das Netz bewirkt genau dann<br />
eine Vereinheitlichung der Phänomene PjƤ(T), wenn es gelingt, diese<br />
vollständig theoretisch einzubetten. Die Stringenz dieser Vereinheitlichung<br />
wird allerdings für jedes Phänomen durch die unterschiedlichen<br />
Spezialisierungsebenen bestimmt, auf denen dieses Phänomen anzutreffen<br />
ist (d.h. für die es zum intendierten Anwendungsbereich der Spezialisierung<br />
gehört). Jedenfalls scheint eine Forderung für die vereinheitlichende<br />
Kraft einer Theorie naheliegend, nämlich daß immer möglichst<br />
alle intendierten Anwendungen eines Phänomens zusammen erklärt werden<br />
und nicht einzelne „willkürlich“ ausgeschlossen bleiben.<br />
Das zeigt erneut den holistischen Charakter der Einteilung in natürliche<br />
Arten und einer entsprechenden Theorienbildung. Gelingt es nicht,<br />
alle Elemente einer Art gemeinsam in die Theorie einzubetten, sondern<br />
nur einen Teil, kann man natürlich jederzeit für eine Verfeinerung der<br />
Aufspaltung in Arten plädieren, die gerade diesen Defekt behebt. Ein<br />
Beispiel dafür hatten wir schon kennengelernt, nämlich die von Gähde<br />
untersuchte Geschichte der Cepheiden, die man schließlich in zwei unterschiedliche<br />
Typen eingeteilt hatte. Auch in der KPM lassen sich derartige<br />
Fälle finden. In den vier in BMS (223ff) geschilderten Phasen der<br />
Entwicklung der KPM werden in der ersten Phase bestimmte Gezeitenphänomene<br />
als erfolgreiche Anwendungen der KPM betrachtet und an-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 474<br />
dere nicht. In der dritten Phase führten Probleme, die Euler mit dem System<br />
{Erde-Mond-Sonne} hatte dazu, daß es aus der Menge der intendierten<br />
Anwendungen herausgenommen wurde, bis Laplace die notwendigen<br />
mathematischen Analysen gelangen, um es wieder erfolgreich in<br />
die KPM einzubetten.<br />
Ein berühmtes anderes Beispiel finden wir in Bohrs Atommodell.<br />
Während die Elektronen außerhalb des Atoms der klassischen Elektrodynamik<br />
gehorchen, verhalten sie sich plötzlich innerhalb des Atoms auf<br />
andere Weise und strahlen nicht gleichmäßig Energie entsprechend den<br />
Maxwellschen Gleichungen ab. Statt wie Lakatos von einem Forschungsprogramm<br />
auf inkonsistenter Grundlage zu sprechen, scheint mir die Beschreibung<br />
angemessener, Bohr hätte die Atome aus dem Anwendungsbereich<br />
der Elektrodynamik herausgenommen (s. dazu Bartelborth<br />
1989). Daß es sich bei ihnen um eine andere Art von Phänomenen handelt<br />
als den klassischen elektrodynamischen wurde auch nicht nur durch<br />
Bohrs Atommodell nahegelegt, sondern ebenso durch die Planckschen<br />
Resultate der Wärmestrahlung, auf die Bohr extra hinweist. 209 Trotzdem<br />
waren die Physiker der damaligen Zeit mit dieser Aufteilung des Phänomenbereichs<br />
der Elektrodynamik nicht glücklich – vor allem, weil sich<br />
Bohr weiterhin auf bestimmte Begriffe aus der klassischen Elektrodynamik<br />
stützen mußte –, so daß hier ein Grund für die Entwicklung der<br />
Quantenelektrodynamik zu finden ist. Wie ad hoc solche Zerlegungen in<br />
neue Phänomenbereiche sind, ist nur im Einzelfall zu untersuchen, aber<br />
es bleibt zumindest der berechtigte Anspruch erkennbar, immer ganze<br />
Phänomene und nicht nur einzelne Instanzen davon durch eine Theorie<br />
zu erklären. Wir können daher einfach formulieren: Eine Theorie leistet<br />
ceteris paribus eine um so größere Vereinheitlichung, je mehr Phänomene<br />
sie einzubetten erlaubt. 210<br />
6. Stringenz durch kleinere erlaubte Unschärfen<br />
Welch grundlegende Bedeutung für das Verständnis wissenschaftlicher<br />
Theorien Approximationen besitzen, hatte ich bereits in (VII.C.9) erläutert.<br />
Aber neben der metatheoretischen Tatsache, daß Theorien uns immer<br />
nur modulo Unschärfen Auskunft über die Welt geben, zeigen auch<br />
209 Natürlich ist auch dieses Beispiel hier stark vereinfacht dargestellt, aber<br />
in Bartelborth (1989) findet man eine ausführlichere Analyse der Einzelheiten<br />
des Falls.<br />
210 Diese Forderung läßt sich natürlich ohne allzu große Mühe weiter verfeinern<br />
und auf einzelne partielle Modelle beziehen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 475<br />
kontinuierliche fortschrittliche Entwicklungen typischerweise das Phänomen,<br />
daß die alten Theorien nicht einfach Teile der neuen darstellen,<br />
sondern daß sie in bestimmter Weise durch die neuen Theorien korrigiert<br />
werden. Wenn auch die wissenschaftstheoretische Diskussion um<br />
derartige fortschrittliche Entwicklungen oft anhand der Redeweise von<br />
(strikten) Reduktionsbeziehungen – etwa in Anlehnung an Nagels (1961,<br />
Kap. 11) Forderung der Herleitbarkeit der alten Gleichungen aus den<br />
neuen – geführt wurde, so weisen doch fast alle bekannten Beispiele von<br />
Reduktionen nur approximative Zusammenhänge auf.<br />
Das gilt für die Reduktion von Keplers Theorie auf die Newtonsche<br />
oder die der Newtonschen Theorien auf die relativistischen etc. Die<br />
neue Theorie steckt in vielen Fällen den Bereich genauer ab, für den wir<br />
die alte Theorie weiterhin als gültig betrachten können, und beschreibt,<br />
welche Unschärfen dabei in Kauf zu nehmen sind. So gibt uns die allgemeine<br />
Relativitätstheorie gute Gründe, die meisten Planetenbewegungen<br />
weiterhin anhand der Newtonschen Gravitationstheorie zu berechnen –<br />
denn diese bleibt dort innerhalb der akzeptablen Unschärfemengen korrekt<br />
–, aber sie nennt auch die Grenzen dieser Betrachtung, wie z. B. die<br />
Bestimmung der Perihelbewegung des Merkur. Damit erklärt die neue<br />
Theorie den Erfolg der alten Theorie, die wichtige Ergebnisse vorzuweisen<br />
hat, auf denen die neue Theorie aufbaut, aber sie gibt uns darüber<br />
hinaus Gründe an, die uns dazu bewegen sollten, die alte Theorie durch<br />
die neue zu ersetzen.<br />
Um präzise rekonstruieren zu können, was man mit Fortschritt in<br />
den Naturwissenschaften meint, sind wir also unter anderem auf ein<br />
Verständnis und eine Darstellung von Approximationen angewiesen. Im<br />
strukturalistischen Theorienkonzept lassen sich die Fortschritte der neuen<br />
gegenüber der alten Theorie in bezug auf ihre Präzision, in Form kleinerer<br />
erlaubter Unschärfemengen repräsentieren. Daß die Beschränkung<br />
auf kleinere Unschärfemengen eine epistemische Tugend einer Theorie<br />
ist, ist wohl offensichtlich, da sie den empirischen Gehalt einer Theorie<br />
erhöht. Aber sie führt auch zu einer bestimmten Form größerer Einheitlichkeit,<br />
denn sie verlangt einheitlichere, nämlich enger benachbarte<br />
Werte für die Größen einer Theorie und stellt damit einen Aspekt der<br />
einheitlicheren Weltbeschreibung anhand erhöhter Stringenz der Vereinheitlichung<br />
durch quantitative Theorien dar. Wie sich diese Präzisierung<br />
tatsächlich auswirkt, wird am besten über die empirische Behauptung<br />
der Theorie ermittelt, denn sie gibt in exakter Weise die Auswirkungen<br />
auf die Anwendungen der Theorie an. Damit gestattet die empirische<br />
Behauptung auch einen entsprechenden Vergleich verschiedener Theo-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 476<br />
rie in bezug auf ihre jeweilige Stringenz, was ich später ausnutzen werde.<br />
Die semantische Sichtweise von Theorien hat insbesondere hier ihre<br />
Stärken, kann sie doch die approximativen Zusammenhänge und Verkleinerungen<br />
von Unschärfen auf natürliche Weise nachzeichnen.<br />
7. Intertheoretische Vereinheitlichung<br />
Die Funktion, die Constraints innerhalb eines Theorien-Netzes übernehmen,<br />
erfüllen die Links oder intertheoretischen Querverbindungen zwischen<br />
verschiedenen Theorien. Sie geben uns Zusammenhänge, vornehmlich<br />
Identitäten, für Begriffe aus unterschiedlichen Theorien. Mit<br />
gleicher Namensgebung ist in der Regel noch nicht sichergestellt, daß es<br />
sich um denselben Begriff handelt. Schließlich gibt es z. B. unterschiedliche<br />
Massekonzepte, die alle unter dem Namen „Masse“ firmieren. Erst<br />
entsprechende Links können die Identität oder auch andere Zusammenhänge<br />
von theoretischen Begriffen wiedergeben und damit einen weiteren<br />
Schritt zur Vereinheitlichung unseres Wissens gehen. So drücken sie<br />
z. B. aus, daß der Term „Druck“, wie er in der Hydromechanik, Thermodynamik<br />
oder statistischen Mechanik auftritt, immer dasselbe Konzept<br />
bezeichnen soll, so daß auch die jeweiligen Werte dieser Funktionen<br />
für dieselben Raum-Zeit-Bereiche übereinstimmen müssen. Außerdem<br />
liefern Links uns Zusammenhänge zwischen Größen, die unterschiedliche<br />
Namen tragen, wie die Identifizierung von Temperatur und mittlerer<br />
kinetischer Energie.<br />
Die Links sind also die intertheoretischen Brückenstrukturen, die zu<br />
einer Vernetzung über den Rahmen einzelner Theorien hinaus führen<br />
und deren Untersuchung uns zeigt, welche eventuell hierarchischen Verhältnisse<br />
zwischen verschiedenen Theorien bestehen oder welche holistischen<br />
Blöcke sich in den Wissenschaften identifizieren lassen. 211 Die Vereinheitlichung<br />
durch Links läßt sich wiederum als eine Einbettung in<br />
„größere“ Modelle begreifen wie das schon für die Constraints der Fall<br />
war und repräsentiert so wiederum den allgemeinen Rahmen von Vereinheitlichung,<br />
der hier vorgestellt wird.<br />
211 Für das besonders spannende Beispiel der Allgemeinen Relativitätstheorie<br />
sind diese Verhältnisse im strukturalistischen Rahmen in Bartelborth (1993)<br />
untersucht worden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 477<br />
8. Empirische Behauptung und organische Einheit von Theorien<br />
Damit Theorien die ihnen zugedachte Aufgabe der Vereinheitlichung<br />
und Systematisierung unserer Erkenntnis tatsächlich erfüllen können,<br />
müssen sie mehr sein als eine Konjunktion der empirischen Aussagen,<br />
die sie zu erklären haben. Soviel ist wohl klar. In der syntaktischen Sichtweise<br />
auf Theorien läßt sich das so ausdrücken: Nicht jede Menge unabhängiger<br />
Axiome beschreibt bereits eine Theorie. Es muß noch eine gewisse<br />
innere Geschlossenheit und Einheitlichkeit hinzukommen, um von<br />
einer Theorie sprechen zu können. Und obwohl es eine Reihe berühmter<br />
Wissenschaftsphilosophen gibt, 212 die auf dieses Problem hingewiesen<br />
haben, finden sich nur wenige konstruktive Vorschläge, worin diese Einheitlichkeit<br />
und der innere Zusammenhang einer Theorie bestehen<br />
könnte. Lakatos (1974, 169f) erklärt eine Einheitlichkeit auch für Forschungsprogramme,<br />
die sich anhand von Hilfshypothesen entfalten, für<br />
notwendig, wenn sie fortschrittlich sein sollen. Anderenfalls handele es<br />
sich nur um eine „zusammengeflickte, willkürliche Reihe von unzusammenhängenden<br />
Theorien“ oder um „zusammengeflickte, phantasielose<br />
Serien von prosaischen ‘empirischen’ Adjustierungen“ und in diesem<br />
Theoretisieren sei keine „vereinheitlichende Idee, kein heuristisches Potential<br />
und keine Kontinuität“. 213 Doch so phantasievoll Lakatos das<br />
Problem von „Einheit und Schönheit“ der Wissenschaft schildert, bleibt<br />
es ein offenes Problem bei ihm, worin sie besteht. Auf der syntaktischen<br />
Ebene hat z. B. Robert Causey (1977, 120) neben anderen Bedingungen<br />
eine genannt, die einigermaßen plausibel erscheint: In jedem Axiom einer<br />
Theorie sollte zumindest ein Begriff auftreten, der auch in anderen<br />
Axiomen der Theorie wieder vorkommt. Ein Problem dieser Forderung<br />
ist allerdings, daß man natürlich zu jedem potentiellen Axiom, das die<br />
Bedingung noch nicht erfüllt, z. B. leere Bestimmungen mit geeigneten<br />
Termen konjunktiv hinzufügen kann. In jedem Fall sollte der verbindende<br />
Begriff wesentlich in dem Axiom und den anderen vorkommen, was<br />
wiederum explikationsbedürftig ist. Wie abhängig derartige syntaktische<br />
Kriterien von der jeweiligen Formulierung von Gesetzen sind, zeigt auch<br />
ein strukturalistischer Versuch (BMS 15f), mit einem ähnlichen Kriteri-<br />
212 U.a Popper (1957), Oppenheim/Putnam (1958), Lakatos (1974).<br />
213 Lakatos deutet damit auf einen wichtigen Zusammenhang zwischen der<br />
Forderung nach Einheitlichkeit von Theorien und ad hoc Hypothesen hin, dem<br />
ich allerdings in dieser Arbeit nicht weiter nachgehen kann. Jedenfalls müssen<br />
wir wohl solche Hypothesen aus der Sicht einer Theorie T eher als ad hoc betrachten,<br />
die die Einheitlichkeit der Theorie mehr stören, als sie zu befördern.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 478<br />
um mögliche Axiome für Theorien auszuzeichnen. Danach sollte ein<br />
Axiom mindestens zwei Grundbegriffe der Theorie – wenn diese mehrere<br />
besitzt – aufweisen. In Bartelborth (1988, 19ff) konnte ich aber am<br />
Beispiel verschiedener Formulierungen der Maxwellschen Gleichungen<br />
demonstrieren, daß dieser Ansatz zu sensibel auf unterschiedliche Notationen<br />
für dieselben Gesetze reagiert und damit schließlich unplausibel<br />
erscheint.<br />
Einen aufwendigeren Versuch, die Einheitlichkeit einer Theorie zu<br />
bestimmen, hatten wir mit Friedmans Ansatz zur Vereinheitlichung kennengelernt.<br />
Friedman spricht von größerer Einheitlichkeit, wenn mehrere<br />
unabhängige Gesetze durch eines ersetzt werden können, das selbst<br />
keine Zerlegung mehr besitzt, aber die Systematisierungsleistung der bisherigen<br />
Gesetze übernehmen kann. In ähnlicher Weise – wenn auch in<br />
Unkenntnis des Friedmanschen Vorschlags – entwickelte Watkins (1984,<br />
203ff) seine Bedingung der organischen Fruchtbarkeit, nach der eine<br />
Theorie T dann einheitlich ist, wenn es keine Aufteilung der Axiome in<br />
zwei neue Theorien T’ und T” gibt, so daß gilt:<br />
CT(T) = CT(T’) CT(T”),<br />
wobei mit „CT(T)“ der „content“ von T gemeint ist, der aus den singulären<br />
Voraussagen von T besteht. Man könnte sagen, daß in diesem Fall<br />
T keinen „synergistischen Überschußgehalt“ gegenüber der Konjunktion<br />
aus T’ und T” besitzt und daher eigentlich aus zwei unabhängigen Teiltheorien<br />
besteht. Auch Watkins hat allerdings mit der Möglichkeit unterschiedlicher<br />
Formulierungen einer Theorie zu kämpfen und bemüht sich<br />
daher durch Angabe von 5 weiteren Regeln für Axiomensysteme (s. Watkins<br />
1984, 208f), die natürlichen Formulierungen von unnatürlichen zu<br />
unterscheiden, um damit die Umformulierungsspielräume einzuschränken.<br />
Trotzdem muß er eingestehen, daß die durch Umformulierungen<br />
drohenden Gefahren für sein Kriterium der Einheitlichkeit, damit nicht<br />
aus der Welt geschafft sind. Festhalten sollten wir jedenfalls, daß er die<br />
Vereinheitlichung durch Theorien anhand seiner Explikation der Zerlegbarkeit<br />
von Theorien erläutert. Bei gleichem Gehalt bietet natürlich die<br />
Theorie eine bessere Vereinheitlichung, die in weniger Teile zerlegbar<br />
ist. So nah Watkins Ansatz in einigen Punkten meinen Intuitionen zur<br />
Vereinheitlichung kommt, bleibt sein Ansatz doch mit den Schwächen<br />
der syntaktischen Auffassung von Theorien behaftet. Das zeigt sich in<br />
seiner Behandlung von Approximationen ebenso wie an den Stellen, wo<br />
er unterschiedliche Teile von Theorien unterscheidet, ohne über eine<br />
ausgearbeitete Konzeption komplexer Theorien zu verfügen. Außerdem
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 479<br />
bleibt er – und für die syntaktische Vorgehensweise ist das charakteristisch<br />
– ein Anhänger des Deduktions-Chauvinismus.<br />
Doch die Grundideen der Watkinschen „organischen Fruchtbarkeit“<br />
lassen sich auch im strukturalistischen Theorienkonzept rekonstruieren.<br />
Eine Explikation von organischer Einheitlichkeit, die direkt auf der semantischen<br />
Darstellung von Theorien aufbaut und nicht mehr auf die<br />
Axiome einer Theorie bezug nimmt, sollte sich dabei auf die empirische<br />
Behauptung einer Theorie stützen. Sie gibt letztlich in einer Zusammenschau<br />
an, wie eine Theorie auf den Bereich ihrer intendierten Anwendungen<br />
wirkt. Dabei kann das in einheitlicher Form geschehen oder<br />
auch nicht. Wenn wir – wie das in der strukturalistischen Auffassung üblich<br />
ist – die Komponenten eines Theorie-Elements T (ausgenommen I)<br />
als den Kern K von T zusammenfassen, ist die empirische Behauptung<br />
auch so zu beschreiben: Der Kern K ist auf I anwendbar. Schematisch<br />
wollen wir das folgendermaßen ausdrücken:<br />
EB(K,I) (empirische Behauptung von T = ) 214<br />
Man kann nun behaupten, daß T genau dann organisch aufgebaut ist,<br />
wenn es keine Zerlegung dieser empirischen Behauptung von T gibt, so<br />
daß gilt:<br />
K’ K” I’ I” mit: EB(K,I) ’’””<br />
denn damit hätten wir T in zwei Theorien T’ = und<br />
T” = zerlegt, deren Konjunktion dieselbe empirische Behauptung<br />
aufstellen wie T. Das sind nun rein mengentheoretische Zusammenhänge<br />
für die Modellmengen, die sich weiter untersuchen lassen.<br />
Wichtige Arbeit dazu hat Ulrich Gähde (1989, 130ff) geleistet, indem<br />
er die Zerlegbarkeit von I genauer unter die Lupe genommen hat.<br />
Er konnte unter anderem eine hinreichende Bedingung dafür angeben,<br />
wann sich eine Zerlegung des folgenden Typs finden läßt:<br />
I’ I” mit: EB(K,I) EB(K,I’) EB(K,I”)<br />
Er hat nachgewiesen, daß hierfür die Constraints die entscheidende Rolle<br />
spielen. Falls es eine disjunkte Zerlegung von I = X Y in zwei nichtleere<br />
und constraintunabhängige Mengen X und Y gibt, so läßt sich auch<br />
214 Ich beziehe mich hier und im folgenden der Einfachheit halber auf die<br />
präzisen empirischen Behauptungen, aber das Gesagte läßt sich natürlich auf die<br />
entsprechenden approximativen Versionen der empirischen Behauptungen übertragen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 480<br />
die empirische Behauptung von T entsprechend zerlegen. Dazu gilt die<br />
folgende Definition:<br />
X, Y Mpp(T) nichtleer und disjunkt heißen constraintunabhängig<br />
gdw:<br />
e ℰ(T) gilt: [e(X) C(T) e(Y) C(T)] e(X) e(Y) <br />
C(T). 215<br />
D.h., daß zwei Mengen constraintunabhängig sind, wenn ihnen durch<br />
den allgemeinen Constraint der Theorie keine wesentlichen Beschränkungen<br />
für die Einbettung ihrer Vereinigung auferlegt werden. Intuitiv<br />
besagt das, daß die Mengen X und Y durch C nicht weiter verknüpft<br />
sind, denn sonst würden nicht alle Erweiterungen von Anwendungen<br />
aus X zu allen von Anwendungen aus Y passen. Die Erweiterungsmöglichkeiten<br />
für zwei Anwendungsmengen werden durch den Constraint<br />
nicht eingeschränkt gegenüber den Erweiterungsmöglichkeiten der einzelnen<br />
Mengen.<br />
Mit diesen Vorarbeiten läßt sich die angekündigte Behauptung relativ<br />
leicht beweisen:<br />
Theorem von Gähde: 216<br />
Falls es eine (disjunkte) Zerlegung von I in constraintunabhängige<br />
nichtleere Mengen X und Y gibt, so gilt:<br />
(*) EB(K,I) EB(K,X) EB(K,Y).<br />
Beweis:<br />
i) Die eine Richtung „“ der Äquivalenz (*) ist offensichtlich.<br />
ii) In der anderen Richtung „“ läßt sich die gesuchte Einbettungsfunktion<br />
e für I aus den beiden vorhandenen Einbettungsfunktionen<br />
für X und Y „zusammenbauen“:<br />
Wir wissen, es gibt e’, e” ℰ(T) mit: e’(X), e”(Y) TG(T). Dann<br />
läßt sich e unter anderem wie folgt definieren:<br />
Daß die so definierte Funktion e wieder eine Einbettungsfunktion<br />
ist, ist klar, weil sie nur aus Funktionen zusammengesetzt wurde, die<br />
215 Die Notation ist durch die Einbettungsfunktionen gegenüber der von<br />
Gähde wieder etwas verändert.<br />
216 Gähde (1989, 162ff) beweist eine entsprechende Behauptung gleich für<br />
Zerlegungen in n Mengen. Da er außerdem mit einer etwas anderen Notation<br />
arbeitet, gebe ich den Beweis des Satzes noch einmal in der neuen Notation an.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 481<br />
die Faserbündelstruktur respektieren. Außerdem gilt e(I) = e’(X) <br />
e”(Y) M(T) L(T), da beide Teilmengen diese Inklusion erfüllen.<br />
Zusätzlich ist aber e(I) C(T), weil e’(X), e”(Y) C(T) sind und X<br />
und Y constraintunabhängig sind. Also gibt uns e eine erfolgreiche<br />
Einbettung von I in den theoretischen Gehalt von T: e(I) TG(T).<br />
q.e.d.<br />
Damit ist deutlich, daß dieser Typ von Zerlegung einer Theorie wesentlich<br />
von der Anwendungsmenge I und der Art, wie sie durch die innertheoretischen<br />
Querverbindungen der Theorie zusammengehalten<br />
wird, abhängt. Das zeigte sich auch im Beispiel von Salmon (s. IX.A),<br />
der das Gravitationsgesetz in drei Teilgesetze zerlegen wollte, was an<br />
den Identitätsconstraints für die Masse und die Gravitationskonstante<br />
scheiterte, die die Aussagen zusammenhalten. Ob es auch andere sinnvolle<br />
Formen von Zerlegungen einer Theorie etwa anhand von Zerlegungen<br />
des Kerns gibt, bleibt der weiteren Forschung überlassen.<br />
Die bisherigen Überlegungen zur „organischen Einheitlichkeit“ einer<br />
Theorie bezogen sich alle nur auf ein einzelnes Theorie-Element, aber<br />
sie lassen sich natürlich auch auf ausgewachsene Theorien-Netze N =<br />
(Ti)iJ übertragen. Für sie stellt sich zunächst auf jeder Ebene erneut die<br />
Frage nach der jeweiligen Zerlegbarkeit von Spezialisierungen, wobei<br />
zusätzlich eine Gewichtung von Zerlegungen vorzunehmen ist. Zerlegungen<br />
für einzelne Theorie-Elemente an der Peripherie des Netzes sind<br />
sicher unbedeutender als Zerlegungen, die sich etwa durch ein ganzes<br />
Netz ziehen. Wenn wir mit T0 das Basis-Theorie-Element von N bezeichnen,<br />
könnte eine solche Zerlegung des ganzen Netzes wiederum anhand<br />
einer constraintunabhängigen Zerlegung von I0 erhalten, wobei diesmal<br />
„Constraintunabhängigkeit“ allerdings Unabhängigkeit in bezug auf alle<br />
im Netz vorkommenden Constraints bedeutet.<br />
X, Y Mpp(T0) nichtleer und disjunkt heißen constraintunabhängig<br />
in bezug auf das Netz N = (Ti)iJ gdw:<br />
e ℰ(T) i J gilt:<br />
[e(X) C(Ti) e(Y) C(Ti)] e(X) e(Y) C(Ti). 217<br />
Auch hier gilt wieder ein entsprechender Satz über eine konjunktive Zerlegung<br />
der empirischen Behauptung des ganzen Netzes, wenn I0 eine<br />
Zerlegung in zwei constraintunabhängige Mengen gestattet.<br />
217 Die Notation ist durch die Einbettungsfunktionen gegenüber der von<br />
Gähde wieder etwas verändert.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 482<br />
Zusammengenommen ergibt sich damit für die Einheitlichkeit einer<br />
Theorie die Forderung, sie solle möglichst wenige solcher konjunktiven<br />
Zerlegungen zulassen. Diese Forderung läßt sich anhand einer naheliegenden<br />
Bedingung an die Einbettungsfunktionen befördern, nämlich<br />
die, daß sie stetig sein sollen. 218<br />
Betrachten wir dazu noch einmal den Fall, in dem I in zwei constraintunabhängige<br />
Mengen X und Y zerlegbar ist, in der Faserbündeldarstellung.<br />
In diesem Bild sind X und Y nur dann constraintunabhängig,<br />
wenn nicht nur die durchgehenden Querlinien Constraints<br />
darstellen, sondern auch alle zusammengesetzten Teile solcher Linien,<br />
die in den Faserbündeln zu X und Y liegen. Die Teile X und Y des Anwendungsbereichs<br />
sind erfolgreich theoretisch einzubetten durch die angedeuteten<br />
Einbettungen e’ und e”, und ganz I ist es bei Constraintunabhängigkeit<br />
von X und Y ebenfalls, weil man dafür eine Einbettungsfunktion<br />
aus e’ und e” (wie im Beweis des Theorem von Gähde) zusammenbauen<br />
darf. Diese stellt dann allerdings eine unstetige Einbettungsfunktion<br />
dar. Für zusammenhängende Anwendungsbereiche I scheint aber eine<br />
Stetigkeitsforderung eine für die Einheitlichkeit der Theorie förderliche<br />
Bedingung zu sein.<br />
Unstetige Einbettung<br />
Wir erwarten auch eine stetige Einbettung von einer organischen Theorie,<br />
denn eng benachbarte empirische Systeme sollten nicht durch völlig<br />
unterschiedliche theoretische Größen repräsentiert und damit von der<br />
Theorie völlig unterschiedlich behandelt werden. In einem solchen Fall<br />
218 Da wir üblicherweise über eine Topologie – etwa eine Quasimetrik –<br />
auf Mp wie auf Mpp verfügen, ist die Rede von stetigen Einbettungen sinnvoll.<br />
Was sie für konkrete Theoiren bedeutet, ist anhand von Fallstudien weiter zu<br />
verfolgen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 483<br />
würden wir intuitiv von einer unterschiedlichen und nichteinheitlichen<br />
Beschreibung dieser benachbarten Systeme sprechen müssen. Für den<br />
Fall diskreter Anwendungsbereiche könnte man eine entsprechende Forderung<br />
nach möglichst kleiner Variation statt der Stetigkeitsforderung<br />
verlangen, um von einer möglichst einheitlichen Theorie sprechen zu<br />
können.<br />
Insgesamt ergibt dieser Abschnitt, daß eine Theorie, um vereinheitlichend<br />
wirken zu können, selbst möglichst einheitlich sein sollte. In der<br />
Sprache der strukturalistischen Theorienkonzeption läßt sich das durch<br />
die Forderung explizieren: Die empirische Behauptung der Theorie<br />
sollte in möglichst wenige konjunktive Teilbehauptungen zerlegbar sein.<br />
Ein Schritt, um diese Forderung noch zu verstärken, besteht in der Beschränkung<br />
auf stetige Einbettungsfunktionen, die verhindern, daß bei<br />
Zerlegungen des Anwendungsbereichs die Einbettungsfunktion aus eigentlich<br />
„unzusammenhängenden“ Teilstücken zusammengesetzt werden<br />
kann.<br />
9. Formale Explikation von Vereinheitlichung<br />
Alle wichtigen Komponenten der Vereinheitlichung durch ein Theorien-<br />
Netz sind nun angesprochen worden, so daß jetzt eine Zusammenfassung<br />
der Ergebnisse möglich ist. Beginnen möchte ich mit einem einzelnen<br />
Theorie-Element T = . Seine Erklärungskraft beruht darauf,<br />
wie stringent es wieviele intendierte Anwendungen einbetten kann.<br />
Vereinheitlichung durch ein Theorie-Element T:<br />
Bestimmend für die Stringenz der Vereinheitlichung durch T ist<br />
hauptsächlich der Kern K der Theorie, der den theoretischen Gehalt<br />
TG(T) der Theorie festlegt. Der Umfang der Vereinheitlichung oder<br />
die Systematisierungsleistung bemißt sich dagegen an der Anzahl und<br />
Art der Phänomene Pj aus I, die tatsächlich theoretisch eingebettet<br />
werden können, d.h. die vollständig im empirischen Gehalt EG(T)<br />
liegen, und schließlich an der Einheitlichkeit der Theorie selbst, die<br />
sich darin zeigt, in wieviele konjunktive Teilbehauptungen die empirische<br />
Behauptung EB(T) höchstens zerfällt.<br />
Diese Kenngrößen der Vereinheitlichung können wir natürlich auch präzise<br />
angeben. Zunächst ist da der theoretische Gehalt, den wir bereits definiert<br />
haben:<br />
i) TG(T) := Pot(M) C Pot(L)
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 484<br />
Je kleiner TG(T) ist, desto informativer ist die Einbettung durch T, da T<br />
dann um so mehr Einbettungen verbietet. Außerdem haben wir als<br />
Gradmesser der Systematisierungsleistung den Umfang der eingebetteten<br />
Phänomene UP(T), der sich als Mengensystem aller Mengen von Phänomenen<br />
darstellen läßt, die tatsächlich theoretisch eingebettet werden<br />
können:<br />
ii) UP(T) := {Q Ƥ(T); Q EG(T)}<br />
D.h., UP(T) ist die Menge der Mengen von Phänomenen Q (aus der Gesamtmenge<br />
Ƥ(T) der Phänomene, die man mit T einzubetten hofft), die<br />
sich tatsächlich gemeinsam einbetten lassen, die also im empirischen Gehalt<br />
EG(T) liegen. Um dabei wieder eine Menge von partiellen Modellen<br />
zu erhalten und nicht bei einem Mengensystem stehenzubleiben, ist<br />
es erforderlich, zunächst alle partiellen Modelle aus den Phänomenmengen<br />
in Q wieder in einer Menge Q zu vereinigen.<br />
Besonders interessant ist auch noch die maximale Anzahl von Phänomenen,<br />
die zusammen eingebettet werden können, also die Anzahl der<br />
größten Menge Q aus UP(T):<br />
Anz[UP] := max {||Q||; Q UP(T)}, 219<br />
wobei ich davon ausgehe, daß die Anzahl der Phänomene in I, auf die<br />
man eine Theorie anzuwenden gedenkt, endlich ist, auch wenn die Menge<br />
aller Instanzen der Phänomene unendlich ist.<br />
Schließlich geht es noch um die Einheitlichkeit versus Zerlegbarkeit<br />
einer Theorie, die sowohl die Kerne wie auch die intendierten Anwendungen<br />
einer Theorie gemeinsam betrifft. Dazu betrachte ich die Menge<br />
aller konjunktiven Zerlegungen von in Theorien Ti = ,<br />
die selbst einen nichtleeren empirischen Gehalt besitzen – falls T einen<br />
besitzt – und nenne jede solche Menge V = {Ti; Ti ist nichtleeres Theorie-Element}<br />
eine konjunktive Zerlegung von T, wenn gilt: EB(K,I) <br />
V EB(Ki, Ii), d.h. wenn sich die empirische Behauptung von T als Konjunktion<br />
der empirischen Behauptungen der Ti darstellen läßt. 220 Dann<br />
sei die Menge aller Zerlegungen von T:<br />
iii) ZL(T) := {V; V ist eine konjunktive Zerlegung von T}<br />
219 Wobei mit ||Q|| die Anzahl der Elemente in Q gemeint ist.<br />
220 Dabei gehe ich der Einfachheit halber davon aus, daß abspaltbare Teile<br />
der empirischen Behauptung, die überhaupt keinen Beitrag zum empirischen Gehalt<br />
der Theorie leisten, im Sinne größerer Einheitlichkeit der Theorie schon<br />
vorher abgespalten und als überflüssig aufgegeben wurden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 485<br />
Dazu läßt sich natürlich wieder die Anzahl der größten Zerlegung bestimmen<br />
zu:<br />
Anz[ZL] := max {V||; V ZL(T)},<br />
in der Hoffnung, daß unsere Theorien zumindest so gut sind, daß sie<br />
nicht in unendlich viele Teiltheorien zerfallen, sondern wenigstens<br />
Anz[ZL] Anz[UP] bleibt. Was dabei unter einem nichtleeren Theorie-<br />
Element zu verstehen ist, läßt sich natürlich auch mengentheoretisch<br />
ausdrücken: T ist nichtleer gdw<br />
Q Mpp(T) mit: Q EG(T) und Q ,<br />
d.h. es gibt Mengen von partiellen Modellen, die nicht theoretisch einzubetten<br />
sind. Positiv gewendet: T ist nicht so inhaltsleer, daß es jede beliebige<br />
Einbettung partieller Modelle gestattet.<br />
Mit diesem Instrumentarium haben wir die drei Kenngrößen, für die<br />
vereinheitlichende Kraft von Theorien rekonstruiert, nämlich TG, UP<br />
und ZL, wobei T um so vereinheitlichender ist, je umfangreicher UP<br />
und je kleiner TG und auch ZL sind. Damit können zwei Theorie-Elemente<br />
T und T’ in bezug auf ihre Vereinheitlichung miteinander verglichen<br />
werden, wenn sie eine wesentliche Voraussetzungen mitbringen.<br />
Sie müssen über eine gemeinsame nichttheoretische Beschreibungsebene<br />
verfügen, also über einen gemeinsamen Bereich von partiellen Modellen.<br />
Theorien, die ihre Systeme bereits auf der „empirischen“ Ebene<br />
ganz unterschiedlich beschreiben und demnach auf andere Aspekte dieser<br />
Systeme ausgehen, können in diesem strikten Sinn nicht miteinander<br />
verglichen werden. Immerhin erlaubt diese Explikation aber Vergleiche<br />
z. B. zwischen relativistisch und vorrelativistisch formulierten Theorien,<br />
da sich für sie gemeinsame Mengen partieller Modelle anbieten (s. dazu<br />
Bartelborth 1988, 102ff). Dann erhalten wir das Ergebnis, daß T’ eine<br />
größere oder gleiche Vereinheitlichung bewirkt, wenn die folgenden drei<br />
Bedingungen erfüllt sind:<br />
T’ bewirkt eine größere oder gleiche Vereinheitlichung gegenüber T<br />
gdw:<br />
1) TG(T’) TG(T)<br />
2) UP(T) UP(T’)<br />
3) ZL(T’) ZL(T)<br />
Für einen ersten Vergleich sind die Bedingungen (2) und (3) auch durch<br />
die folgenden Bedingungen zu ersetzen:
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 486<br />
2’) Anz[UP(T)] Anz[UP(T’)]<br />
3’) Anz[ZL(T’)] Anz[ZL(T)]<br />
Allerdings ergibt sich auch für Theorien mit denselben partiellen Modellen<br />
nur ein partieller Vergleich, denn es ist nicht auszuschließen, daß die<br />
eine Theorie in der einen Kennzahl und die andere dafür in einer anderen<br />
besser abschneidet. Es scheint mir nicht leicht zu sein, für diese Fälle<br />
allgemeingültige Aussagen zu treffen, welche der Theorien dann in bezug<br />
auf ihre Vereinheitlichung vorzuziehen ist, d.h. wie die drei Kenngrößen<br />
gegeneinander abgewogen werden sollten. Das muß im Einzelfall<br />
anhand der Berücksichtigung der jeweiligen Unterschiede in den Kenngrößen<br />
und ihrer jeweiligen Bedeutung geschehen. Zumindest sagt einem<br />
die Explikation der Kennzahlen dann noch, welche Aspekte von<br />
Theorien man in solchen Fällen zu vergleichen hat.<br />
Bisher habe ich nur über Vereinheitlichung durch eine Theorie gesprochen<br />
und noch nicht über Erklärungen. Das soll nun anhand konkreter<br />
Einbettungsfunktionen geschehen. Als Vorzug meiner Rekonstruktion<br />
der Erklärungskraft habe ich die globale Bewertung herausgestellt,<br />
die an dieser Stelle zu berücksichtigen ist. Auch wenn jemand ein<br />
einzelnes Ereignis erklärt, ist eine Bewertung dieser Erklärung nur im<br />
Hinblick auf einen größeren Ausschnitt aus seinem Überzeugungssystem<br />
vorzunehmen. Dazu haben wir zu ermitteln, welcher Einbettungsfunktion<br />
er sich bedient oder welche er für zulässig hält. Beschränken wir uns<br />
der Einfachheit halber auf den Fall, in dem wir ihm eine bestimmte Einbettungsfunktion<br />
e zuschreiben können. 221 Die ergibt sich etwa anhand<br />
der Meßverfahren, auf die er sich für die Größen stützt, und daraus, wie<br />
er seine Theorie beschreibt und auf welche Systeme er sie anzuwenden<br />
gedenkt. Die Güte der tatsächlichen Erklärung wird natürlich wesentlich<br />
dadurch bestimmt, wie sie von der Theorie Gebrauch macht, d.h. welche<br />
Phänomene sie tatsächlich in den theoretischen Gehalt der Theorie<br />
einzubetten weiß. Also durch:<br />
UP(e) := {Pi Ƥ(T); e(Pi) TG(T)}<br />
Die Kenngröße UP(e) (der Umfang, der durch e tatsächlich eingebetteten<br />
Phänomene) erlaubt damit auch einen Vergleich verschiedener Erklärungen,<br />
die sich auf ein und dieselbe Theorie beziehen, indem man nicht<br />
nur lokal überprüft, ob sich eine korrekte Einbettung für ein Phänomen<br />
finden läßt, sondern einbezieht, ob diese Einbettung mit der von weite-<br />
221 Das ist selbstverständlich nur eine Rekonstruktion dessen, was er tatsächlich<br />
tut, zum Zwecke bestimmter metatheoretischer Bewertungen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 487<br />
ren Phänomenen verträglich ist. Es kommt also nicht nur darauf an Pi in<br />
T einzubetten, sondern auch darauf, wie man es einbettet.<br />
An dieser Stelle scheint es darüber hinaus wiederum sinnvoll, Forderungen<br />
nach einer gewissen Einheitlichkeit der Einbettung zu stellen,<br />
wie die, daß e stetig sein sollte. Außerdem ist die Erklärungsleistung von<br />
e natürlich anhand der beiden anderen Kenngrößen der einbettenden<br />
Theorie zu beurteilen, also zum einen dem Informationsgehalt, den sie<br />
bietet, bzw. ihrer Stringenz, sowie ihrer Einheitlichkeit.<br />
Entsprechende Kenngrößen der Vereinheitlichung lassen sich nun<br />
auch allerdings mit etwas größerem formalen Aufwand auf der Ebene<br />
der Theorien-Netze finden. Sei dazu N := (Ti)iJ ein Theorien-Netz mit J<br />
:= {1,…,n}. Dann wird der „theoretische Gehalt“ des Netzes nicht<br />
durch das n-Tupel der TG(Ti) angemessen dargestellt, weil dabei die<br />
Konsistenzforderung innerhalb des Netzes (s. VII.C.9) nicht berücksichtigt<br />
würde. Diese Zusammenhänge können nur anhand der Einbettungsfunktionen<br />
ℰ(N) für das ganze Netz präzise integriert werden. Das geschieht<br />
durch die Inhaltsfunktion F, die allen möglichen Anwendungsmengen<br />
Ii des Netzes die Menge ihrer erfolgreichen Einbettungsfunktionen<br />
zuordnet:<br />
F: [Pot(Mp)] n Pot[EINB(N)]<br />
F wird definiert für [Pot(Mp)] n durch:<br />
F() := {e ℰ(N); i J: e(Qi) TG(Ti)} 222<br />
D.h. F ordnet jedem n-Tupel von Mengensystemen partieller Modelle<br />
(oder Phänomenmengen) die Menge der Einbettungsfunktionen zu, die<br />
die Mengen auf allen Ebenen jeweils korrekt in die entsprechenden Spezialisierungen<br />
des Netzes einbetten. In F finden wir daher die Kenngröße<br />
des theoretischen Gehalts für ein ganzes Theorien-Netz. Das mögen einige<br />
Überlegungen erläutern. Je kleiner F() ist, desto größer<br />
ist der theoretische Gehalt des Netzes, denn um so kleiner ist die Anzahl<br />
der Möglichkeiten (also der Einbettungsfunktionen) die Qi in die theoretischen<br />
Gehalte der entsprechenden Theorie-Elemente einzubetten. Der<br />
schlimmste Fall für eine Theorie ist der, daß sie den Einbettungen überhaupt<br />
keine Beschränkungen auferlegt und alle Phänomene oder anderen<br />
Mengensysteme einbettbar sind:<br />
Q1,…,Qn F() = ℰ(N)<br />
222 Dabei ist F mengentheoretisch extra auf einer Ebene angesiedelt, die es<br />
erlaubt, F auch direkt auf Phänomenmengen anzuwenden.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 488<br />
Das ist schon ein Extremfall, in dem nicht nur alle Mengen einbettbar<br />
sind, sondern auch gleich noch durch alle Einbettungsfunktionen eingebettet<br />
werden. Etwas besser ist schon der Fall:<br />
Q1,…,Qn F() <br />
Das Netz ist eventuell immer noch in einem gewissen Sinn inhaltsleer,<br />
weil alle Phänomene einbettbar sein könnten, aber es ist nicht mehr gesagt,<br />
daß uns diese Einbettungen in den Schoß fallen. Hier müssen wir<br />
eventuell schon nach den richtigen Einbettungsfunktionen suchen. Falls<br />
wir auf gehaltsleere Theorien stoßen, wird vermutlich dieser zweite Typ<br />
von Gehaltlosigkeit vorliegen, denn den erkennt man nicht auf Anhieb.<br />
Besonders interessant ist natürlich die Auswertung von F auf den intendierten<br />
Anwendungen der Theorie-Elemente, also F(). Die<br />
empirische Behauptung von N läßt sich nämlich – man sehe auch die<br />
Parallele zum theoretischen Gehalt von Theorie-Elementen – darstellen<br />
als:<br />
Empirische Behauptung von N:<br />
e F() (oder F() <br />
Des weiteren ist der Phänomenbereich für das ganze Netz zu bestimmen,<br />
der tatsächlich erfolgreich einzubetten ist. Auch das ist komplizierter als<br />
im Falle eines einzelnen Theorie-Elements, geht es doch um eine Einbettung<br />
auf mehreren Ebenen im Netz, also wieder um die Einbettung von<br />
n-Tupeln von Phänomenmengen:<br />
UP(N) := { [Pot(Ƥ(N))] n ; F() },<br />
UP(N) enthält gerade die n-Tupel von Phänomenmengen, für die es noch<br />
eine konsistente theoretische Einbettung in die jeweiligen theoretischen<br />
Gehalte der entsprechenden Spezialisierungen des Netzes gibt. Und<br />
schließlich läßt sich wiederum die Einheitlichkeit des ganzen Netzes anhand<br />
der Zerlegbarkeit seiner empirischen Behauptung bestimmen.<br />
Wenn wir mit EB(N) die empirische Behauptung von N bezeichnen, d.h.<br />
(zur Erinnerung):<br />
EB(N) : e ℰ(N) j J [e(Ij) TG(Tj)],<br />
dann sollte diese Behauptung in möglichst wenige entsprechende Teilbehauptungen<br />
zerlegbar sein, wenn diese wiederum empirische Behauptungen<br />
von eigenständigen, nicht gehaltleeren Netzen N1,… ,Nk darstellen<br />
sollen.<br />
ZL(N) := {V = {N1,…, Nk}; EB(N) EB(N1) … EB(Nk)}
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 489<br />
Daneben läßt sich wie im Falle des einzelnen Theorie-Elements die Vereinheitlichung<br />
möglichst vieler Phänomene durch eine spezielle erklärende<br />
Einbettungsfunktion e EINB(N) angeben: wiederum als die<br />
Menge der Phänomene, die durch e auf den verschiedenen Ebenen eingebettet<br />
werden können:<br />
UP(e) := { [Pot(Ƥ(N))] n ; e F() },<br />
Oder in einer vereinfachten Version, die bereits auf die intendierten Anwendungen<br />
bezug nimmt:<br />
UPv(e) := {P Ƥ(N); i J: P Ii e(P) TG(Ti)}<br />
Dabei werden einfach die Phänomene alle zusammengenommen, die<br />
sich erfolgreichen in die Spezialisierungen von N einbetten lassen, für<br />
die wir das beabsichtigen. Eine Aufspaltung in die unterschiedlichen Spezialisierungsebenen<br />
entfällt dabei, aber es geht natürlich dann auch ein<br />
Teil der Information verloren, auf welchen Ebenen wir jeweils erfolgreich<br />
waren. Sind wir für P überall im Netz erfolgreich, wo wir es sein<br />
wollten, gehört P zu UPv(e). Ob sich P dann noch in andere Spezialisierungen<br />
von N einbetten ließe, wird nicht mehr weiter untersucht. So<br />
läßt sich eine Kenngröße womöglich ohne zu große Verluste erheblich<br />
vereinfachen.<br />
Anhand dieser drei Kenngrößen der Vereinheitlichung lassen sich nun<br />
wiederum Vergleiche für zwei Theorien-Netze mit derselben begrifflichen<br />
Grundstruktur auf der nichttheoretischen Ebene oder für zwei entsprechende<br />
Erklärungen durchführen, indem man von dem vereinheitlichenderen<br />
Netz verlangt, daß für alle n-Tupel von partiellen Modellen<br />
die Einschränkungsfunktion F die kleineren Mengen liefert, der Umfang<br />
von einbettbaren Phänomenen aber mindestens genauso groß ist und außerdem<br />
weniger Zerlegungen der empirischen Behauptung möglich<br />
sind.<br />
N’ hat größere vereinheitlichende Kraft als N gdw:<br />
1) Q1,..., Qn Pot(Mp) gilt: F’() F()<br />
2) UP(N) UP(N’)<br />
3) ZL(N’) ZL(N)<br />
Zusammengenommen läßt sich ein Vergleich dann auf die empirischen<br />
Behauptungen zweier Netze N und N’ und ihre Zerlegbarkeit zurückführen.<br />
Folgt EB(N) aus EB(N’), und ist EB(N’) trotzdem nicht in mehr<br />
Komponenten zerlegbar als EB(N), so weist N’ die größere Vereinheitli-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 490<br />
chungsleistung auf. Um diese Behauptung zu untersuchen, sind wir allerdings<br />
auf die entsprechende Analyse der Komponenten angewiesen.<br />
Ein Aspekt, den ich in diesem Abschnitt bisher noch überhaupt nicht<br />
berücksichtigt habe, sind die Unschärfen von Theorien. Sie sind für<br />
quantitative empirische Theorien eigentlich immer vorhanden und daher<br />
auch an dieser Stelle wiederum einzubeziehen. Das würde die jeweiligen<br />
Mengen in gewisser Weise „erweitern“, wie das schon (VII.C.9) für<br />
die empirische Behauptung eines Theorien-Netzes vorgeführt wurde. An<br />
dieser Stelle möchte ich darauf verzichten, diese „Verschmierungen“ alle<br />
explizit anzugeben, weil das Verfahren nun bekannt ist und im Prinzip<br />
auf die genannten Größen übertragen werden kann.<br />
Die Kenngrößen der Vereinheitlichung eines ganzen Netzes lassen<br />
sich also ganz analog zu denen eines einzelnen Theorie-Elements zusammenbringen:<br />
Vereinheitlichung durch ein Theorien-Netz N:<br />
Bestimmend für die Stringenz der Vereinheitlichung eines Netzes N<br />
sind hauptsächlich die Kerne Ki der Spezialisierungen von N. Sie legen<br />
den theoretischen Gehalt des ganzen Netzes anhand der Inhaltsfunktion<br />
F für die möglichen Einbettungsfunktionen auf den verschiedenen<br />
Ebenen fest. Der Umfang der Vereinheitlichung bemißt<br />
sich dagegen an der Anzahl und Art der Phänomene Pj aus Ƥ(N), die<br />
tatsächlich theoretisch eingebettet werden können, d.h. die durch<br />
eine Einbettungsfunktion jeweils vollständig in den theoretischen Gehalt<br />
aller der Theorie-Elemente Ti des Netzes einzubetten sind, zu<br />
derem intendierten Anwendungsbereich Ii sie gehören. Schließlich<br />
muß auch noch die Einheitlichkeit von N berücksichtigt werden, die<br />
sich darin zeigt, in wieviele konjunktive Teilbehauptungen die empirische<br />
Behauptung EB(N) höchstens zerfällt.<br />
Die in diesem Kapitel präzisierte theoretische Einbettung von partiellen<br />
Modellen in theoretische Modelle, stellt natürlich nur einen Schritt in<br />
der theoretischen Vereinheitlichung dar. Oft genug erhalten wir die partiellen<br />
Modelle selbst wieder als aktuale Modelle von Vortheorien, die<br />
ihrerseits auf ähnliche Weise entstanden sind. Umgekehrt gibt es eventuell<br />
„über“ dem Netz wiederum neue Netze, zu denen die Modelle des<br />
Netzes den „empirischen“ Input bilden. Die theoretische Vereinheitlichung<br />
findet also nicht nur im Netz, sondern auch im Umfeld des Netzes<br />
auf verschiedenen Ebenen statt, die in komplizierter Weise ineinandergreifen.<br />
Eine formale Explikation der Vereinheitlichungskraft derartiger<br />
größerer Teile der Wissenschaft – z. B. von Theorien-Holons – ist natür-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 491<br />
lich im Prinzip auf denselben Wegen möglich, die hier für Theorie-Elemente<br />
und Netze beschritten wurden, soll aber an dieser Stelle nicht<br />
weiter verfolgt werden.<br />
Mit der Explikation der theoretischen Vereinheitlichung haben wir<br />
dann auch den Begriff der wissenschaftlichen Erklärung expliziert:<br />
Wissenschaftliche Erklärung<br />
Eine Instanz eines Phänomens P wird erklärt durch seine Einbettung<br />
e in eine Theorie T, wobei die Erklärung um so besser ist, je größer<br />
die theoretische Vereinheitlichung durch T ist und je größer die spezielle<br />
Vereinheitlichung durch e ist.<br />
Die drei Parameter der Erklärung: Systematisierungsleistung, Informationsgehalt<br />
der Einbettung und organische Einheitlichkeit der einbettenden<br />
Theorie tragen alle direkt zu einer Erhöhung der Kohärenz unseres<br />
Meinungssystems bei. Für die Systematisierungsleistung, die den Kern<br />
der Vereinheitlichungskonzeption bildet, ist das offensichtlich, denn nur<br />
durch stark systematisierende Theorien entsteht eine globale Kohärenz<br />
meines Überzeugungssystems. Die Systematisierungsleistung spiegelt also<br />
den lokalen Beitrag einer Theorie zur globalen Kohärenz wieder. Die organische<br />
Einheitlichkeit von T gibt an, wie stark T seine Anwendungen<br />
zusammenbindet. Eine Zusammenfassung in einer bloße Konjunktion<br />
wäre dabei die schwächste Form der Verknüpfung, während die Einbindung<br />
durch eine unzerlegbare Theorie die stärkste Form darstellt. Allerdings<br />
spielt dabei auch die Frage des empirischen Gehalts eine Rolle, der<br />
bei Zerlegungen jeweils verlorengehen würde. Je größer diese Verluste<br />
sind – also je größer der synergistische Überschußgehalt der Theorie ist,<br />
desto gehaltvoller ist die Zusammenbindung durch T. Der Informationsgehalt<br />
der jeweiligen Einbettung gibt uns schließlich die Stärke der kohärenten<br />
Einbettung speziell von P in unser Meinungssystem an. Im Extremfall,<br />
in dem nur ein partielles Modell eingebettet werden kann, entspräche<br />
das einer Herleitung von P aus der Theorie.<br />
Die formal präzisierte Erklärungstheorie erlaubt natürlich nicht nur<br />
die „Berechnung“ der Erklärungskraft für mathematisierte Theorien und<br />
entsprechend rekonstruierte Erklärungen, sondern ist ebenso bei der Beurteilung<br />
informeller Erklärungen von Nutzen. Im Prinzip läßt sich jede<br />
Erklärung mittels einer Einschätzung nach den vorgegebenen Kriterien<br />
und unter Heranziehen von KTR bewerten. Erklärungen werden dabei<br />
wesentlich zusammen mit den erklärenden Theorien in einem größeren<br />
Kontext bewertet. Die genannten Kennzahlen von Theorien sind letztlich<br />
immer in einem größeren Rahmen und im Vergleich mit anderen
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 492<br />
Theorien zu sehen. Der kann erst darüber entscheiden, welches die beste<br />
Erklärung in unserem Überzeugungssystem darstellt.<br />
F. Analogien und Kohärenz<br />
Die strukturalistische Auffassung wissenschaftlicher Theorien, konnte<br />
dazu beitragen, eine spezielle Form der Einbettung zu erläutern, nämlich<br />
die von Phänomenen in möglichst stringente und einheitliche Theorien.<br />
Daneben finden sich eine Reihe von anderen Einbettungen in den Wissenschaften,<br />
die in dieser Konzeption bisher noch nicht erfaßt oder in<br />
diesem Rahmen zumindest noch nicht ausführlicher untersucht wurden.<br />
Ein Bereich zu dem zwar schon Arbeiten vorliegen, der aber sicherlich<br />
noch weiterer Analysen bedarf, wurde bereits genannt, nämlich der des<br />
Übergangs von Daten als einzelnen Meßwerten zu einem partiellen Modell,<br />
das eine Instanz eines Phänomens vortheoretisch beschreibt. Man<br />
kann das auch als den Übergang von einem Datenmodell zu einem partiellen<br />
Modell bezeichnen. Da es bekanntlich meist viele Möglichkeiten<br />
gibt, Meßwerte unter Berücksichtigung ihrer Unschärfen in partielle<br />
Modelle einzubetten, ist hier die Frage nach den Kriterien für vereinheitlichende<br />
Einbettungen zu stellen. Auch dafür sind Kriterien der Einfachheit<br />
und Gleichbehandlung ähnlicher Fälle zu entwickeln, was meines<br />
Wissens aber bis heute nicht in völlig zufriedenstellender Weise geschehen<br />
ist. 223<br />
Oberhalb der Einbettung von Phänomenen in Theorien finden sich<br />
Einbettungen von Theorien in theoretische Modelle oder Analogiemodelle,<br />
die wiederum Theorien auf einer eventuell semiformalen Ebene<br />
vereinheitlichen helfen. Friedman (1981, 7) nennt als Beispiel die Molekülvorstellung<br />
von Gasen aus der statistischen Mechanik. Sie gestattet<br />
es, das Verhalten von Gasen in einen Zusammenhang zu vielen anderen<br />
Arten von Phänomenen wie chemischen Bindungen, elektrischen und<br />
thermischen Diffusionsprozessen, genetischer Vererbung etc. zu bringen.<br />
Auch für diese Form von „analoger Vereinheitlichung“ kann es zahlreiche<br />
Stufen geben. Das beginnt vielleicht bei relativ präzisen mathematischen<br />
Modellen über Potential- oder Wellenphänomene, in die sich zahlreiche<br />
konkrete Theorien über Wasserwellen, elektromagnetische Wellen,<br />
Lichtwellen etc. einbetten lassen, und geht über die Friedmanschen me-<br />
223 Einen guten Einblick in entsprechende Problemstellungen bietet Forster/Sober<br />
(1994).
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 493<br />
chanistischen Vorstellungen bis zu Analogien zwischen der Konstruktion<br />
von Artefakten durch den Menschen und der Konstruktion der Welt<br />
durch Gott. Viele Analogien lassen sich vermutlich durch eine Art von<br />
partiellem Homomorphismus zwischen den jeweiligen Modelltypen charakterisieren,<br />
was ich an einem Beispiel erläutern möchte. Natürlich<br />
kann ich damit nicht den Anspruch verbinden, an dieser Stelle eine ausführlichere<br />
Theorie von Analogien vorzulegen. Die hätte sich auf präzisere<br />
Untersuchungen von Einzelfällen zu berufen, denen ich nicht weiter<br />
nachgehe.<br />
Nehmen wir als Beispiel den Vorbild- und Analogiecharakter, den<br />
die Newtonschen Theorien des Planetensystems für das Bohrsche Atommodell<br />
darstellten. Die Abbildung zwischen den Modelltypen ist folgendermaßen<br />
zu beschreiben: Der Sonne und ihren Planeten entspricht der<br />
Atomkern und seine Elektronen. Den Gravitationskräften stehen die<br />
elektrostatischen Anziehungskräfte gegenüber, die ebenfalls vom 1/r 2 -<br />
Typ sind. Daraus folgen entsprechende Beziehungen für die Bahnen von<br />
Planeten und Elektronen, allerdings mit der Einschränkung, daß die<br />
Elektronen nur bestimmte diskrete Bahnen einnehmen dürfen. Doch<br />
trotz dieser offensichtlichen Disanalogie an einer wichtigen Stelle in den<br />
beiden Modelltypen, beruhte die Entwicklung des Bohrschen Atommodells<br />
wesentlich auf dieser Analogie (s. auch Lakatos 1974, 137ff).<br />
In der Anfangsphase dieses Forschungsprogramms ließen sich nahezu<br />
alle wichtigen Korrekturen, die aufgrund aufgetretener Widersprüche<br />
zur Empirie notwendig wurden, aus dieser Analogie gewinnen. Dabei erschienen<br />
sie gerade durch diese Anlehnung an das Planetensystem nicht<br />
als ad hoc Adjustierungen, sondern eher als ohnehin notwendige Weiterentwicklungen<br />
der Bohrschen Theorie. Einige Stufen dieser Entwicklung<br />
mögen das veranschaulichen: Bohrs Modell gelang es in seiner einfachen<br />
Fassung nicht, die Wellenlängen der sogenannten Fowler-Serie genau zu<br />
prognostizieren. 224 Als Verbesserung des Modells mußte Bohr aber nur<br />
auf den Übergang zu reduzierten Massen für Zwei-Körper-Probleme verweisen,<br />
um die aufgetretenen Abweichungen wie selbstverständlich einbauen<br />
zu können. Dieser Übergang war aus der Mechanik bereits bekannt,<br />
denn auch die Sonne steht nicht absolut still im Zentrum des Sonnensystems,<br />
sondern wird durch die Anziehungskraft der Planeten „hinund<br />
hergezogen“, was für genaue Berechnungen den Einsatz der reduzierten<br />
Massen erfordert. Den nächsten Verbesserungsschritt unternahm<br />
224 Die Vorhersage und Erklärung von abgestrahlten Wellenlängen des<br />
Wasserstoff- und des Heliumatoms war eine der entscheidenden empirischen<br />
Leistungen der Bohrschen Theorie.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 494<br />
1915 Sommerfeld mit seinem Übergang zu elliptischen Bahnen und relativistischen<br />
Korrekturtermen; ebenfalls aus der Mechanik bestens bekannt.<br />
Wiederum kam niemand auf die Idee zu behaupten, diese Verbesserungen<br />
seien reine ad hoc Modifizierungen, und die Analogie hätte<br />
doch bestenfalls heuristischen Wert und könnte daher den da hoc Charakter<br />
solcher Zusatzannahmen nicht „heilen“.<br />
Diese Entwicklungen der Atomtheorie wurden im Gegenteil als geradezu<br />
selbstverständliche Weiterentwicklungen begriffen. Es wurde eine<br />
wesentliche Verbindung zwischen den analogen Theorien akzeptiert, die<br />
allerdings auf einer eher formalen Stufe der gemeinsamen Einbettung in<br />
eine Theorie der Bewegungen in einem zentralen Potentialfeld zu sehen<br />
ist. Und obwohl es sich nicht um eine wesentlich materiale Analogie<br />
handelt, kann man sich dieser erkenntnistheoretischen Bewertung kaum<br />
entziehen. Damit findet sich eine weitere Form von Vereinheitlichung<br />
und Einbettung – nämlich in ein abstraktes Modell der Potentialbewegung<br />
um einen Zentralkörper, die sich auf der Ebene eines Modellvergleich<br />
recht gut beschreiben läßt und die offensichtlich epistemische Bedeutung<br />
besitzt. Man kann zumindest in einem schwachen Sinn davon<br />
sprechen, daß die Analogie auch erklärt, wieso die Bohrsche Theorie in<br />
ihrer einfachen Gestalt die Fowler-Serie nicht abzuleiten gestattete. Sie<br />
hatte die zu starke Idealisierung eines feststehenden Zentralkörpers aufzugeben.<br />
Ohne diesen Zusammenhängen weiter folgen zu können, hoffe<br />
ich doch, daß nun die metatheoretische Hypothese plausibel erscheint,<br />
wonach auch Analogiebeziehungen einen gewissen Erklärungswert und<br />
epistemische Bedeutung besitzen können, selbst wenn sie als Einbettungen<br />
auf einer recht abstrakten Ebene angesiedelt sind.<br />
G. Einbettung und kausale Erklärung<br />
Die Auffassung, daß Erklärungen immer kausale Erklärungen sind und<br />
wir durch eine genauere Untersuchung der Kausalitätskonzeption auch<br />
den Begriff der wissenschaftlichen Erklärung expliziert hätten, habe ich<br />
im wesentlichen aus zwei Gründen zurückgewiesen. Erstens deckt die<br />
kausale Erklärung nur einen Teilbereich der Bandbreite tatsächlicher<br />
wissenschaftlicher Erklärungen ab; in vielen Fällen, benötigen wir schon<br />
einen sehr liberalen und damit auch wenig informativen Kausalitätsbegriff,<br />
um noch von einer Ursache-Wirkungsbeziehung sprechen zu können.<br />
Zweitens sind unsere Kausalitätsvorstellungen nur wenig bestimmt,<br />
wenn wir sie nicht auf bestimmte Typen von Ereignissen beschränken.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 495<br />
Daher bietet die Redeweise von einem kausalen Zusammenhang keine<br />
wesentlich neuen Einsichten darüber hinaus, daß ein zeitlicher Ablauf<br />
von Ereignissen und eine große Regelmäßigkeit für diesen Zusammenhang<br />
gegeben sind.<br />
Damit möchte ich keineswegs leugnen, daß wir die Vorstellung von<br />
der Welt haben, es gäbe so etwas wie einen bestimmten Typus von besonders<br />
wichtigen Beziehungen, der für sehr viele Ereignisse in unserer<br />
Welt gemeinsam ist. Sie findet sich auf einer recht abstrakten Ebene unserer<br />
Überzeugungen als eine Art von Metaüberzeugung zu unseren<br />
Theorien. Es handelt sich dabei geradezu um ein kleines Theorien-Netz<br />
„Kausalität“ mit dem eben skizzierten Basis-Theorie-Element, das wohl<br />
nur die beiden informell formulierten Gesetze (zeitlicher Ablauf und Regelmäßigkeit)<br />
enthält, und einer Reihe von Spezialisierungen auf bestimmte<br />
Typen von Fällen, die besondere Aussagen für diese Vorgänge<br />
erlauben. Diese Spezialisierungen können etwa den in (VIII.C.2.e) genannten<br />
Vorstellungen von Kausalität zu einigen physikalischen Rahmen<br />
entsprechen. Für Phänomene, die unter die Kausalitätsvorstellung der<br />
speziellen Relativitätstheorie fallen – vermutlich der größte und unserem<br />
Common-Sense Verständnis von Kausalität nächstliegende Bereich – gehört<br />
zu kausalen Vorgängen nur ein Energie-Impuls-Transfer, der mit<br />
höchstens Lichtgeschwindigkeit abläuft. In anderen Bereichen etwa der<br />
statistischen Kausalität scheinen unsere Intuitionen besser durch das<br />
Common Cause Modell abgedeckt zu werden usf. Dieses Netz ist damit<br />
natürlich alles andere als präzise rekonstruiert, aber Versuche wie den<br />
von Salmon und anderen Wissenschaftstheoretikern in diesem Gebiet<br />
mag man als logische Rekonstruktionen einzelner Spezialisierungen dieses<br />
Netzes betrachten. Wie gesagt, betten wir viele Phänomene in dieses<br />
Netz ein, was sicherlich einen Beitrag zur Vereinheitlichung und damit<br />
zur Kohärenz unseres gesamten Meinungssystem leistet. In diesem Sinn<br />
läßt sich auch im hier vorgelegten Rahmen verstehen, was mit kausaler<br />
Erklärung gemeint ist, nämlich die (informelle) Einbettung in dieses<br />
kleine Theorien-Netz von Ablaufmodellen. Damit hat sich eine gewisse<br />
Annäherung der beiden Positionen aus der Sicht der Vereinheitlichungskonzeption<br />
gezeigt, die auch verstehen hilft, wieso beide Vorstellungen<br />
nebeneinander bestehen können. Wie die Analogiebeziehung, stellt auch<br />
die Kausalkonzeption eine Einbettung in abstrakte Modelle oberhalb der<br />
Ebene unserer empirischen Theorien bereit, die eine große vereinheitlichende<br />
Kraft besitzt; jedenfalls was den Umfang betrifft, aber wohl nicht<br />
in Bezug auf ihre Stringenz.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 496<br />
Dieser Idee eines Zusammenspiels beider Auffassungen, scheint auch<br />
Salmon (1989, 180ff) inzwischen nicht abgeneigt zu sein, und einige frühere<br />
Äußerungen von ihm dokumentieren, daß er sich damit noch nicht<br />
einmal so weit von seiner ursprünglichen Position entfernen mußte:<br />
The aim of a scientific explanation, according to the ontic conception,<br />
is to fit the event-to-be-explained into a discernible pattern.<br />
This pattern is constituted by regularities in nature – regularities to<br />
which we often refer as laws of nature. Such laws may be either universal<br />
or statistical…<br />
It should be immediately evident, however, that mere subsumption<br />
under laws – mere fitting of events into regular patterns – has little,<br />
if any, explanatory force. (Salmon 1984, 121)<br />
So weit stimmen die Ansätze geradezu überein, 225 man übersetze hier<br />
nur „pattern“ etwa durch „Modell“, was unproblematisch erscheint, da<br />
ich den Modellbegriff zunächst auch recht liberal verstanden wissen<br />
möchte. Erst in der Frage, was denn erklärende Einbettungen von nichterklärenden<br />
unterscheidet, trennen sich die Wege. Von Erklärungen etwa<br />
durch das ideale Gasgesetz sagt Salmon (z. B. 1984, 121), sie hätten<br />
„not much (if any) explanatory import“. Für ihn sind es also nur Einbettungen<br />
in kausale Modelle, d.h. in Modelle, die einen zeitlichen Ablauf<br />
beschreiben, die erklärend sind. Allerdings traut er sich auf der anderen<br />
Seite nicht, den Koexistenzgesetzen überhaupt keine Erklärungskraft zuzusprechen,<br />
sondern bringt das „if any“ nur als verschämten Zusatz.<br />
Auch ich bin der Meinung, daß die Koexistenzgesetze meist nur geringe<br />
Erklärungskraft besitzen – aber immerhin nicht völlig ohne Erklärungswert<br />
sind. Das ist allerdings ebenso eine Eigenschaft der von Salmon so<br />
gerühmten Newtonschen Axiome, wenn sie allein auftreten. So hat Ulrich<br />
Gähde (1983) gezeigt, daß sie empirisch leer sind, solange sie nicht<br />
durch Spezialgesetze ergänzt werden. Auch der Hinweis darauf, daß es<br />
sich dabei um Kausalgesetze handelt, scheint mir – gerade wenn man damit<br />
nicht eine metaphysische Behauptung über notwendige Zusammenhänge<br />
in der Natur aufstellen möchte, was ich Salmon natürlich nicht<br />
unterstelle – kaum der entscheidende Zusatz zu sein, der ihnen Erklä-<br />
225 Einige Anmerkungen zu Erklärungen, bei denen das Explanans die<br />
Wahrscheinlichkeit für das Explanandumereignis herabsetzt, was in Salmons Erklärungstheorie<br />
erlaubt ist, aber sicherlich nicht unbedingt intuitiv erscheint,<br />
lasse ich aus, da ich mich mit der speziellen Problematik statistischer Erklärungen<br />
nicht befassen möchte.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 497<br />
rungskraft verleiht; das sollte die Diskussion über die relative Inhaltslosigkeit<br />
von Kausalitätsbehauptungen verdeutlicht haben.<br />
Und damit möchte ich Priorität für die Vereinheitlichungskonzeption<br />
in Anspruch nehmen, denn erst sie gibt uns den entscheidenden Hinweis<br />
auf den Erklärungswert, der in der Frage zu suchen ist, wie groß die vereinheitlichende<br />
Kraft des erklärenden Gesetzes oder der erklärenden<br />
Theorie ist und wie groß ihr empirischer Gehalt dabei ist. Was nützen<br />
mir Gesetze, die ich als kausal bezeichnen kann, die aber inhaltlich leer<br />
sind? Salmon unterscheidet in (1984) also Einbettungen wesentlich danach,<br />
ob sie in kausale Modelle erfolgen oder nicht, während es mir um<br />
den Informationsgehalt der Modelle und ihre vereinheitlichende Kraft<br />
geht. Wenn kausale Gesetze in dieser Richtung auch etwas zu bieten haben,<br />
was ich von den meisten annehme, so läßt sich Salmons Theorie in<br />
meinen Ansatz einbetten und der Streit zwischen einem kausalen und einem<br />
Vereinheitlichungsansatz besteht nur noch in der Frage, ob es über<br />
die kausalen Einbettungen hinaus noch andere Einbettungen gibt, die<br />
ebenfalls den Namen „Erklärung“ zu Recht tragen. Die genannten Beispiele<br />
sprechen meiner Ansicht nach ganz klar dafür, zumal man sonst<br />
große Teile der Wissenschaft bloß aufgrund der von Philosophen gehätschelten<br />
Kausalität von einem zentralen Ziel der Wissenschaften, nämlich<br />
Erklärungen zu liefern, apodiktisch ausschließen würde.<br />
H. Zur Problemlösekraft des Einbettungsmodells<br />
Die meiste Unterstützung zieht der Vereinheitlichungsansatz der Erklärung<br />
sicher daraus, wie natürlich es ihm gelingt, Beispiele von Erklärungen<br />
zu subsumieren und darüber hinaus ihre Erklärungskraft und die<br />
von wissenschaftlichen Theorien korrekt zu beschreiben. Neben einigen<br />
Beispielen, die ich an verschiedenen Stellen genannt habe, lassen sich im<br />
Rahmen der Vereinheitlichungstheorie von Kitcher weitere Beispiele finden.<br />
Trotzdem spielt für die kohärente Einbettung dieser Konzeption in<br />
unsere Metatheorie der Erkenntnis nicht nur die Beziehung zu den „Daten“<br />
– also hier den Beispielfällen – eine wichtige Rolle, sondern ebenfalls<br />
die Kohärenz zu anderen metatheoretischen Überzeugungen über<br />
Erklärung. Dabei interessieren uns insbesondere die Anomalien früherer<br />
Ansätze, aber auch offengebliebene Fragen der erkenntnistheoretischen<br />
Debatte. Diese Zusammenhänge möchte ich im folgenden noch kurz untersuchen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 498<br />
1. Erklärungsanomalien<br />
In der wissenschaftstheoretischen Debatte um theoriendynamische Phänomene<br />
spielen spätestens seit Kuhn die Anomalien eine besondere Rolle.<br />
Sobald sie sich häufen, gerät ein Paradigma in die Gefahr aufgegeben<br />
zu werden. Auch in der Kohärenztheorie der Rechtfertigung habe ich ihnen<br />
eine besondere Rolle zugebilligt, wenn es darum geht, die Kohärenz<br />
eines Meinungssystems zu bedrohen. Aber was ist unter einer Erklärungsanomalie<br />
genau zu verstehen? Natürlich ist nicht jedes Ereignis, für<br />
das wir keine Erklärung besitzen, damit schon eine Erklärungsanomalie.<br />
Für die allermeisten Phänomene um uns herum haben wir wohl keine<br />
informativen Erklärungen. Das beunruhigt uns schon deshalb kaum,<br />
weil wir davon ausgehen, daß sie im Prinzip welche besitzen.<br />
Außerdem wissen wir inzwischen, daß jede Theorie über einen Anwendungsbereich<br />
verfügt, der im Laufe der Entwicklung der Theorie<br />
Veränderungen unterliegt. So hat sich Newtons Hoffnung nicht erfüllt,<br />
optische, chemische und Gezeitenphänomene in seiner Partikelmechanik<br />
erklären zu können, und diese wurden dann aus dem Bereich der zunächst<br />
intendierten Anwendungen herausgenommen. Oftmals sind derartige<br />
Veränderungen von I nicht ganz so spektakulär und umfassend,<br />
aber nichtsdestoweniger bestimmen sie über die Entwicklung einer<br />
Theorie. Nun kann ein unerklärtes Ereignis z. B. aus dem schlichten<br />
Grunde keine Erklärungsanomalie sein, weil es in keinem intendierten<br />
Anwendungsbereich einer Theorie liegt. Daß ich heute um 13.30 Uhr<br />
eine Banane gegessen habe und viele andere alltägliche Geschehnisse,<br />
sind im allgemeinen keine Fakten, die von irgendeiner Wissenschaft für<br />
Wert befunden werden, anhand geeigneter Theorien erklärt zu werden.<br />
Selbst wenn man zunächst daran dachte, optische Phänomene im Rahmen<br />
einer Mechanik zu erklären, und es dann doch nicht gelingt, so daß<br />
wir sie aus dem Anwendungsbereich der Mechanik wieder entfernen<br />
müssen, liegt damit noch nicht unbedingt eine Erklärungsanomalie vor.<br />
Dazu muß die Einheitlichkeit und Systematisierungskraft einer Theorie<br />
schon in stärkerem Umfang beeinträchtigt sein, als das in diesem Beispiel<br />
der Fall war. Die Newtonsche Mechanik konnte diese relativ getrennt<br />
erscheinenden Gebiete aufgeben, ohne daß die zurückbleibende<br />
Theorie dadurch uneinheitlich wurde. Sie hatte damit zwar nicht ganz<br />
die erhoffte Vereinheitlichungskraft, aber konnte immer noch genügend<br />
Phänomene erfolgreich einbetten, um als großer Fortschritt gegenüber<br />
einem entsprechenden Meinungssystem ohne sie betrachtet zu werden.<br />
Anders sieht es da schon für die Perihelanomalie des Merkur aus.<br />
Hätte sie sich durch Erweiterung des Anwendungsbereichs der Newtons-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 499<br />
chen Mechanik um den Planeten Vulkan beheben lassen, wäre damit die<br />
Vereinheitlichung nicht besonders vergrößert worden, aber auch nicht<br />
erheblich gestört worden. Doch andererseits wäre es eine empfindliche<br />
Beeinträchtigung der Einheitlichkeit gewesen, das System Merkur-Sonne<br />
aus dem Anwendungsbereich der Theorie auszuschließen, weil damit<br />
eine natürliche Art, nämlich die der Himmelskörper oder noch spezifischer<br />
die der Planeten, nicht mehr einheitlich zum Anwendungsbereich<br />
der Mechanik gehört hätte und damit auch nicht mehr zu UP(KPM). Da<br />
dieser Bereich der Theorie aber geradezu die zentrale Anwendung der<br />
frühen KPM darstellte (s. BMS 223ff), bot der einfache Weg der Verkleinerung<br />
des Anwendungsbereichs von KPM keine Möglichkeit mehr, die<br />
Vereinheitlichungskraft der Theorie auch nur einigermaßen zu bewahren.<br />
226 Wenn das der Fall ist, liegt eine authentische Erklärungsanomalie<br />
vor. Es sind also zwei Dinge, die dafür zusammenkommen müssen, nämlich<br />
erstens eine intendierte Anwendung einer Theorie, die sich der<br />
theoretischen Einbettung hartnäckig widersetzt, und zweitens eine wichtige<br />
Rolle im Rahmen der vereinheitlichenden Wirkung der Theorie, so<br />
daß die betreffende intendierte Anwendung nicht einfach ausgeschlossen<br />
werden kann.<br />
2. Asymmetrien der Erklärung<br />
Eine metatheoretische Anomalie der klassischen Erklärungskonzeption<br />
von Hempel bildet die sogenannte Asymmetrie der Erklärung, die vielleicht<br />
das bedeutsamste Argument für eine kausale Betrachtungsweise<br />
von Erklärungen darstellte. Und auch nach unserer Zurückweisung der<br />
kausalen Erklärungstheorie als wesentlich unzureichend läßt sich der<br />
Zusammenhang zwischen den Asymmetrien und unseren Vorstellungen<br />
von kausalen Zusammenhängen nicht einfach abweisen. Das ist aber für<br />
die Vereinheitlichungskonzeption auch kein Hindernis, denn wie wir in<br />
Abschnitt (G) gesehen haben, gibt es einen entsprechenden Zusammenhang<br />
zwischen beiden Auffassungen. In unserem Meinungssystem findet<br />
sich eine recht allgemeine „Theorie“ von kausalen Vorgängen, die sich<br />
zumindest darauf beruft, daß es sich um zeitliche Abfolgen von Ereignissen<br />
handelt, die eine hohe Regelmäßigkeit aufweisen. In diese Konzeption<br />
betten wir sehr viele Vorgänge und Abfolgen von Ereignissen in<br />
asymmetrischer Weise ein, denn wir ordnen sie bei dieser Gelegenheit in<br />
Ursachen und Wirkungen. Zu dieser Konzeption von Kausalität gehört<br />
226 In diesem Beispiel wird auch deutlich, wieso zu UP(T) jeweils nur die<br />
Phänomene zählen, die zur Gänze durch T erklärbar sind.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 500<br />
nämlich die Vorstellung, daß nur Vorhergehendes spätere Ereignisse beeinflussen<br />
kann und nicht umgekehrt, sowie einen entsprechenden Zusammenhang<br />
zur Erklärungskonzeption, nach der viele Ereignisse und<br />
Eigenschaften von Dingen durch Beschreibung ihrer Entstehungsgeschichte<br />
erklärt werden können.<br />
Betrachten wir dazu noch einmal die beiden Beispiele aus (VIII.B.2)<br />
zur Asymmetrie von Erklärungen, die Rotverschiebung und die Länge<br />
des Schattens. In beiden Fällen können wir eigentlich nur davon sprechen,<br />
daß eine Entstehungserklärung gegeben wurde und nicht eine kausale<br />
Erklärung in einem irgendwie anspruchsvollen Sinn des Wortes. Der<br />
für die Rotverschiebung verantwortliche Dopplereffekt gibt keinen kausalen<br />
Mechanismus an, der mit einer Form von Energie- oder Impulsübertragung<br />
verbunden wäre, sondern nur einfache kinematisch-geometrische<br />
Zusammenhänge, die sich auf die Relativgeschwindigkeiten der<br />
beteiligten Objekte beziehen. Und entsprechendes gilt für die Länge des<br />
Schattens in unserem Fahnenmastbeispiel. Die Erklärung stützt sich gerade<br />
nicht auf den kausalen Prozeß der dem Phänomen zugrundeliegt –<br />
sie beschreibt nicht die kausalen Auswirkungen des Fahnenmastes auf<br />
auftreffende Photonen etc., sondern bezieht sich hauptsächlich auf den<br />
Satz des Pythagoras. Statt von kausaler Erklärung würde ich daher bescheidener<br />
von einer „Entstehungsgeschichtenerklärung“ sprechen, die<br />
asymmetrisch ist.<br />
Wie kann die Vereinheitlichungstheorie damit umgehen? Die erste<br />
Antwort war: Wir finden in unserem Überzeugungssystem die Theorie<br />
der Entstehungsgeschichten, und die Einbettung in diese Theorie erhöht<br />
die Vereinheitlichung, hat also auch im Rahmen der Vereinheitlichungstheorie<br />
eindeutig erklärende Kraft. Allgemein gilt: Die Vorstellung, daß<br />
wir Erklärungen in solchen „Entstehungsgeschichtenerklärungen“ organisieren<br />
sollten, ist ein sinnvolles regulatives Prinzip der Forschung. Außerdem<br />
fügt sie sich auch im übrigen kohärent in unsere Überzeugungssysteme<br />
ein, und ein Vertreter der Vereinheitlichungstheorie darf daher<br />
auf sie bauen.<br />
Kitcher (1988, 220ff und 1989, 484ff) hat noch einen anderen Weg<br />
eingeschlagen und versucht die Asymmetrie zu verstehen, ohne daruf bezug<br />
zu nehmen, daß eine eigenständige Theorie der Kausalität vereinheitlichender<br />
Teil unseres Überzeugungssystems ist. Für die Länge eines<br />
Pendels oder die Höhe eines Fahnenmastes und viele andere Gegenstände<br />
verfügen wir im Prinzip über Erklärungen, die sich auf ihren Ursprung<br />
und ihre Entwicklung beziehen. Diese umfassen eine große Anzahl<br />
von Fällen. Erklärungen, die dazu in Konkurrenz treten würden, in-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 501<br />
dem sie die Länge des Fahnenmastes anhand seines Schattens oder die<br />
Länge des Pendels anhand seiner Frequenz herleiten wollten, müßten<br />
demgegenüber unterliegen, weil sie jeweils nur für kleine Teilklassen unserer<br />
Objekte gelten würden (vgl. IX.B). Allein anhand von Vergleichen<br />
der Systematisierungsleistung sind daher unsere normalen Erklärungen<br />
gegenüber ihren Alternativen zu bevorzugen. Auf eine Erwähnung der<br />
Kausalität sind wir dabei überhaupt nicht angewiesen.<br />
Doch dagegen weist Barnes (1992, 564ff) darauf hin, daß etwa die<br />
Newtonsche Theorie verschiedene Formen von Ableitungen gestattet.<br />
Zum einen können wir die Bahnen bestimmter Körper eines abgeschlossenen<br />
Newtonschen Systems anhand der Newtonschen Gesetze, ihrer<br />
Geschwindigkeiten [hier wären eigentlich die Impulse zu wählen] und<br />
Orte zu einem Zeitpunkt berechnen und daher ihre Positionen für einen<br />
späteren Zustand vorhersagen. Zum anderen können wir sie aber auch<br />
zurückberechnen und damit Retrodiktionen für ihre Orte zu vergangenen<br />
Zeiten vornehmen. Beides ergäbe vereinheitlichende Argumentmuster,<br />
aber nur die Prognosen sind nach Barnes erklärend, während die<br />
Retrodiktionen keine Erklärungskraft besäßen. Damit wird nach seiner<br />
Meinung das Asymmetrieproblem zu einem ernstzunehmenden Testfall<br />
gegen Kitchers Vereinheitlichungskonzeption. Doch das scheint mir aus<br />
mehren Gründen nicht ganz überzeugend. Als erstes leuchtet mir die<br />
Asymmetrie in diesem Beispiel nicht besonders ein, weil es sich in beiden<br />
Fällen nicht gerade um typische Erklärungen handelt. Aber das ist<br />
nicht der springende Punkt. Entscheidend ist, daß von einer vereinheitlichenden<br />
Theorie wie der Newtonschen nicht einzelne Orte vorhergesagt<br />
oder erklärt werden, sondern ganze Bahnen etwa von Planeten über einen<br />
gewissen Zeitraum (s. Forge 1980, 223ff). Man kann die Theorie<br />
unter gewissen Umständen dann natürlich auch dazu verwenden, einzelnen<br />
Teile dieser Bahnen deduktiv abzuleiten, aber das ist nur eine sekundäre<br />
Möglichkeit, die meines Erachtens nicht den Kern der Newtonschen<br />
Erklärungskraft betrifft. Barnes scheint in seinem Argument schon<br />
die Sicht der kausalen Erklärungstheorie einzubauen, die sich gerade auf<br />
das erklären von einzelnen Ereignissen bezieht. Für Kitcher (1988, 208f)<br />
ergibt das Argumentmuster der Newtonschen Partikelmechanik eine Erklärung<br />
ganzer Bahnen. Und ganz so war auch die strukturalistische Rekonstruktion<br />
der KPM in (VII.C) angelegt, denn die partiellen Modelle<br />
der KPM enthalten jeweils ganze Bahnen von Partikeln als Lösungen der<br />
Newtonschen Differentialgleichungen. Trotzdem liegen hier sicher noch<br />
intuitive Probleme für Kitcher, wenn er die in unseren informellen Erklärungen<br />
deutlich vertretene Vorstellung von Kausalität für Asymme-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 502<br />
triefragen ganz aus dem Spiel lassen will. Für ihn muß das so sein, denn<br />
auch Kausalbeziehungen werden seiner Meinung nach schließlich durch<br />
Vereinheitlichung konstituiert.<br />
Dem möchte ich mich nicht anschließen und bin daher nicht auf<br />
diese Möglichkeit zur Erklärung von Asymmetrien angewiesen. Im Einbettungsmodell<br />
der Erklärung tritt die Asymmetrie zunächst überhaupt<br />
nicht auf, worauf Forge (für den „instance view“) schon (1980) hingewiesen<br />
hat. Im Bereich der theoretischen Erklärung werden nämlich nur<br />
vollständige partielle Modelle in Theorien eingebettet, so daß wir keine<br />
Ableitungen von bestimmten Orten zu bestimmten Zeiten erhalten, sondern<br />
immer nur die ganzen Weg-Zeit-Funktionen einbetten. Wir finden<br />
die Asymmetrie daher höchstens auf einer intuitiven Ebene von informellen<br />
Erklärungen. Dort sind es die Einbettungen in Ablaufmodelle,<br />
die Beispiele wie die von Barnes am besten beschreiben, die dann auch<br />
Beziehungen zwischen Teilen von partiellen Modellen, wie Impulsen<br />
und Orten von Partikeln zu bestimmten Zeiten zueinander in asymmetrische<br />
Zusammenhänge ordnen.<br />
3. Irrelevanz<br />
Anders ist das für die irrelevanten Bestandteile von Erklärungen. Die<br />
können – wie ich auch schon in (IX.B) erläutert habe – allein aufgrund<br />
von Überlegungen der Vereinheitlichung als solche gebrandmarkt und<br />
zurückgewiesen werden. Betrachten wir dazu noch einmal das Beispiel<br />
des verzauberten Tafelsalzes und seine Variationen.<br />
A) Die Erklärung für Auflösung eines bestimmten Stückes Salz (oder einer<br />
Gruppe von Salzstücken) beruft sich darauf, daß dieses Salz verzaubert<br />
ist.<br />
B) Die Erklärung für die Auflösung von Salz beruft sich allgemein (also<br />
für alles Salz) auf die Verzauberung von Salz.<br />
Im Fall (A) müssen wir mit zwei Theorien T1 und T2 (oder ihrer Konjunktion)<br />
arbeiten, um die Auflösung von Salz zu erklären. Zum einen<br />
mit einer physikalisch-chemischen Theorie der Molekülgitter von Salzen<br />
und der Auflösung der Gitterstruktur im Wasser und zum anderen mit<br />
einer Theorie der Verzauberung von Salzstücken, die zu ihrer Auflösung<br />
führen, wobei beide Theorien nur einen Teilbereich der Salze abdecken.<br />
Als Alternative dazu haben wir die Möglichkeit, mit einer chemisch-physikalischen<br />
Theorie auszukommen, die für alle Salzstücke ihr Auflösungsvermögen<br />
erklärt. Es gibt nun eine Reihe von Aspekten unter de-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 503<br />
nen die zweite Möglichkeit vorzuziehen ist. Als erstes haben wir für die<br />
eine umfassende Theorie einen größeren intendierten Anwendungsbereich<br />
als für die zwei eingeschränkten Theorien und damit eine größere<br />
Vereinheitlichungskraft. Das gilt natürlich auch gegenüber der Konjunktion<br />
der beiden Teiltheorien, denn die ist offensichtlich in zwei (vollkommen)<br />
unabhängige empirische Behauptungen zu zerlegen. Aber es ist<br />
nicht nur die stärkere Vereinheitlichung des Anwendungsbereichs, die<br />
für die zweite Möglichkeit spricht, sondern ebenfalls ihre größere Stringenz.<br />
Für sie finden wir quantitative und damit gehaltvollere Beschreibungen<br />
der Auflösung und außerdem eine Reihe von „Links“ zu anderen<br />
Theorien wie der Elektrodynamik, die uns etwas über die Bindungskräfte<br />
im Molekülverband erzählen kann. All das hat die Verzauberungstheorie<br />
nicht anzubieten. Sie ist zunächst ziemlich gehaltsleer und erhält<br />
auch keinen Inhalt durch entsprechende Querverbindungen zu anderen<br />
Theorien, weil sie isoliert in unserem Meinungssystem dasteht.<br />
Im Fall (B) haben wir zu wählen zwischen der Verzauberungstheorie,<br />
die für alle Proben von Salz gilt, und der chemisch-physikalischen Theorie,<br />
die ebenfalls alle Proben von Salz behandelt. Damit ist zunächst der<br />
intendierte Anwendungsbereich der beiden Theorien gleich, aber natürlich<br />
nicht ihre Stringenz. Die zweite Theorie weist einen deutlich höheren<br />
Gehalt auf. Die erste Theorie ist auch nicht durch eine Kombination<br />
mit der zweiten Theorie zu retten, in der sie etwa behauptet, es sei gerade<br />
die Verbindung von chemisch-physikalischen Eigenschaften und<br />
Verzauberung, die zur Auflösbarkeit führe, denn diese Variante gestattet<br />
eine Abspaltung der chemisch-physikalischen Theorie, die die Einheitlichkeit<br />
dieser Theorie zerstört und die schon dadurch minderwertig gegenüber<br />
der rein chemisch-physikalischen Theorie ist. In ähnlicher Weise<br />
können wir versuchen, auf der Grundlage der Einbettungstheorie<br />
Fälle von irrelevanten Bestandteilen in Erklärungen zurückzuweisen,<br />
denn diese sind in der Regel abzuspalten und damit kohärenzvermindernd.<br />
4. Statistische Theorien und Erklärungen<br />
Statistische Erklärungen hatte ich im wesentlichen ausgeklammert, vor<br />
allem, um mich nicht in den formalen Untiefen dieser Unterart von Erklärungen<br />
zu verlieren. Doch ein guter Teil der heutigen wissenschaftlichen<br />
Theorien und den entsprechenden Erklärungen sind statistischer<br />
Natur, so daß ich zumindest skizzieren möchte, wie sie sich im strukturalistischen<br />
Theorienkonzept behandeln lassen. Das ist nicht ganz unpro-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 504<br />
blematisch, wie sich sogleich zeigen wird, denn gerade die lokale Auffassung<br />
von Modellen enthüllt gewisse Probleme in unserem Verständnis<br />
statistischer Theorien. Für die Rekonstruktion spielt es zunächst keine<br />
wesentliche Rolle, wie wir die statistischen Aussagen oder Gesetze der<br />
beteiligten Theorien interpretieren, ob als genuine probabilistische Gesetze,<br />
die das Vorliegen von objektiven Wahrscheinlichkeiten in der Natur<br />
behaupten oder eher als das Bestehen von Unsicherheiten in unserer<br />
Kenntnis der „wirklichen“ Gesetze, die wir als deterministisch vermuten,<br />
aber über die wir noch nicht verfügen. Die meisten Theorien werden<br />
wir intuitiv eher der zweiten Kategorie zuordnen, aber zumindest<br />
für eine der grundlegensten Theorien unserer Zeit, die Quantenmechanik,<br />
scheint das nicht möglich zu sein.<br />
Die bei einer logischen Rekonstruktion auftretenden Probleme untersuchen<br />
wir am Beispiel einer einfachen fiktiven probabilistischen<br />
Theorie. Sie besagt, daß jeder Mensch, der die Eigenschaft besitzt, rothaarig<br />
(R) zu sein, mit einer Wahrscheinlichkeit von 35% jähzornig (J)<br />
ist. Nennen wir die Theorie J-Theorie (Jähzorn-Theorie). Die J-Theorie<br />
scheint über einzelne Menschen zu sprechen und wir werden sie auch<br />
einzeln in den Blick nehmen müssen, wenn wir die Aussage der Theorie<br />
überprüfen wollen. Demnach ist es strukturalistische Rekonstruktionsstrategie,<br />
als Grundbereich die Menge der Menschen einzuführen. Da<br />
über jeden einzelnen Menschen eine entsprechende Aussage gilt und in<br />
strukturalistischen Rekonstruktionen die partiellen Modelle als lokale<br />
Modelle so gewählt werden sollten, würden demnach die partiellen und<br />
die potentiellen Modelle über einzelne Menschen oder kleinere Gruppen<br />
von solchen sprechen. (Oder im Fall von physikalischen Mikrotheorien<br />
wie der Quantenmechanik über atomare oder subatomare Teilchen.)<br />
Nehmen wir zunächst der Einfachheit halber an, jedes partielle<br />
Modell beschriebe genau einen Menschen und sehen vom Problem der<br />
theoretischen Terme ab, so ergibt sich folgende Schwierigkeit für die<br />
Darstellung der Theorie: Im Fall deterministischer Theorien gehen wir<br />
davon aus, daß für ein bestimmtes potentielles Modell festgelegt ist und<br />
im Prinzip auch feststellbar ist, ob es ein Modell der Theorie ist oder<br />
nicht. Das gilt aber für die J-Theorie gerade nicht mehr. Wenn wir einen<br />
bestimmten rothaarigen Menschen untersuchen, stellen wir immer nur<br />
fest – sehen wir einmal von operationalen Problemen der Zuschreibung<br />
von Jähzorn ab –, daß er jähzornig ist oder nicht. Beide Feststellungen<br />
berechtigen weder zu der Annahme, daß es sich um ein Modell der<br />
Theorie handelt, noch daß das nicht der Fall ist. Der übliche strukturalistische<br />
Weg, Theorien darzustellen, versagt anscheinend. Unser Gesetz
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 505<br />
in der J-Theorie teilt die potentiellen Modelle nicht einfach in zwei Klassen,<br />
nämlich in Modelle und nicht-Modelle, ein. Jedes einzelne Vorkommnis<br />
von Jähzorn oder ruhigem Gemüt ist mit dem Gesetz vereinbar.<br />
Trotzdem würden wir sagen, daß bestimmte statistische Erscheinungen<br />
– wie etwa, daß alle Rothaarigen jähzornig sind – gegen die Theorie<br />
spricht, während andere statistischen Erscheinungen die Theorie zu stützen<br />
scheinen.<br />
Ehe wir uns anschauen, welche Optionen dem strukturalistischen<br />
Rekonstrukteur statistischer Theorien offenstehen, möchte ich der Frage<br />
nachgehen, ob wir hier nicht eine grundlegende Schwäche des strukturalistischen<br />
Ansatzes aufgedeckt haben. Obwohl es im ersten Moment so<br />
zu sein scheint, möchte ich behaupten, daß das nicht der Fall ist, sondern<br />
daß sich hier geradezu eine Stärke der strukturalistischen Sicht auf<br />
Theorien zeigt. Diese ist darin zu sehen, daß der strukturalistische Apparat<br />
bei der Rekonstruktion auf ein Problem stößt und aufmerksam<br />
macht, das bereits in unserem Verständnis der Theorie selbst angelegt<br />
ist. Wir sprechen in unserer J-Theorie zum einen so, als ob wir allen rothaarigen<br />
Menschen eine einfache Eigenschaft zusprechen, nämlich die<br />
mit 35%-tiger Wahrscheinlichkeit jähzornig zu sein, und auf der anderen<br />
Seite denken wir uns doch nur die Eigenschaft, jähzornig zu sein oder<br />
nicht, als eine reale Eigenschaft von Menschen. Es sind unsere Probleme,<br />
statistische Aussagen zu verstehen und ihre Verschiedenartigkeit gegenüber<br />
deterministischen Aussagen, die uns die Probleme für eine logische<br />
Klärung dieser Theorien bescheren und nicht die strukturalistische<br />
Auffassung der Theorien. Für probabilistische Theorien verfügen wir<br />
nicht mehr über so einfache und klare Kriterien dafür, daß ein System<br />
ein Modell der Theorie ist, sondern nur über Wahrscheinlichkeitsabschätzungen<br />
für größere Klassen von Einzelfällen. Nach welchen Reihen<br />
von Würfelergebnissen würden wir definitiv sagen, daß es sich um einen<br />
fairen und nach welchen, daß es sich um einen gezinkten handelt? Hier<br />
können wir nur noch mit bestimmten Irrtumswahrscheinlichkeiten arbeiten.<br />
Einzelne Würfe helfen uns jedenfalls kaum weiter, besitzen sie<br />
doch, wenigstens für Wahrscheinlichkeiten ungleich 0 und 1, keine Aussagekraft.<br />
Diese Probleme zeigen sich dann auch in der logischen Rekonstruktion<br />
der Theorie, die ja ebenfalls die Funktion haben soll, derartige<br />
Interpretationsfragen einer Theorie ans Licht zu bringen und einer Analyse<br />
zugänglich zu machen. Unsere Rede über statistische Theorien erscheint<br />
uns auf den ersten Blick einfach, sie verbirgt aber Irreführungen,<br />
die bei einer Rekonstruktion aufgedeckt werden. Die Einteilung in Modelle<br />
geschieht hier nicht nach der uns zugänglichen Eigenschaft des Jäh-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 506<br />
zorns, sondern nach der schwieriger verständlichen Eigenschaft, eine bestimmte<br />
Wahrscheinlichkeit für Jähzorn zu besitzen.<br />
Welche Optionen für Interpretationen statistischer Theorien und ihrer<br />
logischen Rekonstruktion stehen uns nun offen? Ohne einen Anspruch<br />
auf Vollständigkeit zu erheben, möchte ich doch einige Varianten<br />
und ihre Probleme der Reihe nach behandeln.<br />
(i) Gesamtheiten als Anwendungen des Gesetzes<br />
Statt wie zunächst von der Formulierung des Gesetzes nahegelegt einzelne<br />
Menschen als die Adressaten des Gesetzes anzusehen, lassen sich<br />
probabilistische Gesetze als Aussagen über größere Gesamtheiten interpretieren.<br />
So sprechen gemäß dieser Vorstellung Gesetze über den radioaktiven<br />
Zerfall nicht über den Zerfall einzelner Atome, sondern über<br />
größere Gesamtheiten gleichartiger Atome. Das entspricht zunächst<br />
auch ganz gut den experimentellen Tests bzw. Anwendungen statistischer<br />
Theorien, denn dafür sind wir immer darauf angewiesen, mehrere Objekte<br />
zu untersuchen. Damit ergibt sich also auch kein Widerspruch zur<br />
Rekonstruktionsstrategie des Strukturalismus, denn die kleinsten tatsächlichen<br />
Einheiten sind dann Mengen von Einzelobjekten und diese<br />
werden als partielle Modelle ausgewählt. Für solche Gruppen läßt sich<br />
nicht mehr sagen, sie seien einbettbar oder nicht, sondern nur, daß sie<br />
mit einer bestimmten Wahrscheinlichkeit zur Theorie passen. Die ergibt<br />
sich aus der Wahrscheinlichkeit, die die Theorie dieser Gruppe zuerkennt.<br />
Wenn wir dafür eine konkrete Schwelle angeben, bis zu der wir<br />
noch Gruppen als Bestätigungen der Theorie betrachten wollen (z. B.<br />
90%), so können wir dann wieder auf die Verfahren für deterministische<br />
Theorien zurückgreifen. Anderenfalls müssen wir die Wahrscheinlichkeiten<br />
direkt in die empirischen Behauptung der Theorie einbauen.<br />
Allerdings handelt es sich bei dieser Auffassung von Wahrscheinlichkeitsaussagen<br />
immer um eine recht schwache Interpretation probabilistischer<br />
Gesetze, denn gerade in dem betrachteten Beispiel denken wir<br />
doch, daß das Zerfallsgesetz uns ebenfalls etwas über das einzelne Atom<br />
sagt. Es gibt uns z. B. an, in welchem Ausmaß wir seinen Zerfall etwa in<br />
der nächsten halben Stunde zu erwarten haben. Diese Information ist<br />
aber bei der Gesamtheitenlesart der probabilistischen Aussage verlorengegangen.<br />
Es kann an dieser Stelle nicht meine Aufgabe sein, tiefer in die<br />
schwierige allgemeinere Diskussion über das Verständnis und den Gehalt<br />
statistischer Aussagen einzusteigen. Deshalb möchte ich mich darauf beschränken<br />
vorzustellen, wie selbst stärkere Interpretationen statistischer<br />
Theorien in einer Rekonstruktion wiedergegeben werden könnten.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 507<br />
(ii) Wahrscheinlichkeiten als Eigenschaften<br />
Eine anspruchsvollere Interpretation, die die unter (i) verlorengehenden<br />
Aussagen nicht verschenken möchte, ist eine, die die Wahrscheinlichkeiten<br />
direkt als Eigenschaften der einzelnen Individuen ansieht. Diese Eigenschaften<br />
können dispositionaler Art, man denke etwa an Poppers<br />
Propensitäten, oder auch anders gedacht werden. Das soll an dieser Stelle<br />
nicht weiter unterschieden werden. Im strukturalistischen Rahmen<br />
hätten sie wahrscheinlich gute Chancen als theoretische Größen klassifiziert<br />
zu werden. Auf der nichttheoretischen Ebene werden die sichtbaren<br />
Ergebnisse (ob ein Zerfall oder Jähzorn vorliegt) in partiellen Modellen<br />
festgehalten, während auf der theoretischen Ebene dann etwa<br />
Propensitäten zur Erklärung eingeführt werden. Diese Vorstellung ist sicherlich<br />
mit vielen Schwierigkeiten behaftet. Sie scheint zunächst über<br />
einzelne Modelle mit einzelnen Objekten zu sprechen, aber wir müssen<br />
wieder eine Reihe von partiellen Modellen mit Zerfall und eine Reihe<br />
ohne als Modelle aussondern. Diese Modelle unterscheiden sich aber<br />
nicht durch relevante Parameter auf der nichttheoretischen Ebene, sondern<br />
nur numerisch. Das ist völlig anders als bei deterministischen Theorien.<br />
Ehe wir hier nicht zu intuitiveren Interpretationen gelangen,<br />
scheint das die Gesamtheiten Interpretationen besser aussehen zu lassen.<br />
(iii) Probabilistische Aussagen als Constraints<br />
Wenn wir an der begrifflichen Gestaltung der Modelle als lokaler Modelle<br />
über einzelne Objekte festhalten möchten, liegt es nahe, probabilistische<br />
Aussagen als Aussagen nicht über einzelne Modelle, sondern als<br />
Aussagen über Modellmengen aufzufassen, die üblicherweise in Constraints<br />
unterzubringen sind. Die Elemente dieser Constraints sind dann<br />
gerade die Mengen potentieller Modelle, die laut probabilistischem Gesetz<br />
erlaubt sind. Das scheint die Absichten der Gesamtheiteninterpretation<br />
und die der lokalen Modelle zugleich zum Ausdruck zu bringen, beinhaltet<br />
aber noch eine Schwierigkeit. Das probabilistische Gesetz verbietet<br />
keine Mengen im strengen Sinn. Es sagt nur über einige, daß sie<br />
höchst unwahrscheinlich sind. Um diesen Punkt in der Rekonstruktion<br />
angemessen wiedergeben zu können, bietet es sich eventuell an, die Constraints<br />
als eine fuzzy-Menge aufzufassen. Danach wird jede Menge nur<br />
in einem gewissen Ausmaß Element des Constraints. Dieses Maß der<br />
Mengenzugehörigkeit sollte sich dabei in einfacher Weise an der Unwahrscheinlichkeit,<br />
die durch das probabilistische Gesetz vorgegeben ist,<br />
orientieren. Ein anderer Weg könnte wiederum sein, mit einer fest vor-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 508<br />
gegebenen Irrtumswahrscheinlichkeit zu arbeiten und per Constraint<br />
alle die Mengen zu verbieten, deren Unwahrscheinlichkeit größer ist, als<br />
der zugelassene Wahrscheinlichkeitsbereich es erlaubt. Diese Lösung ist<br />
formal einfacher und hält sich enger an die bisherige strukturalistische<br />
Terminologie, ist aber zunächst auf eine bestimmte Irrtumswahrscheinlichkeit<br />
festgelegt. Das ließe sich natürlich seinerseits wieder auflockern,<br />
indem man die Irrtumswahrscheinlichkeit als offenen Parameter betrachtet<br />
oder Familien solcher Irrtumswahrscheinlichkeiten zuläßt, die natürlich<br />
auch Familien von zwar gleichartigen aber doch unterschiedlichen<br />
Constraints nach sich ziehen. Die letzten beiden Möglichkeiten scheinen<br />
mir am besten in die strukturalistische Theorienauffassung hineinzupassen<br />
und deshalb favorisiere ich sie. Die dabei auftretenden Constraints<br />
wären allerdings im Unterschied zu den bisher von mir betrachteten<br />
Constraints in hohem Maße nicht-transitiv, d.h. es würde nicht mehr für<br />
beliebige Teilmengen einer Constraintmenge gelten, daß sie ebenfalls<br />
Constraintmengen darstellten, sondern jede dieser Mengen müßte eine<br />
hinreichend große „Stichprobe“ von potentiellen Modellen beinhalten,<br />
die bereits statistisch bedeutsame Aussagen gestattet.<br />
5. Und wenn die Welt nicht einheitlich ist?<br />
Ein Thema, das immer wieder im Zusammenhang mit Vereinheitlichungsansätzen<br />
angesprochen wird, ist die Frage, wie es um diese Ansätze<br />
bestellt ist, wenn die Welt nun einmal nicht einheitlich ist? Eine<br />
kurze Erörterung dieses Problems mag den Abschluß meiner Diskussion<br />
des Vereinheitlichungsansatzes bilden. Es ist zunächst nicht leicht zu sagen,<br />
welches Szenario man mit dieser Vermutung im Auge haben kann.<br />
Für die hier beschriebene Theorie der Erklärung als Vereinheitlichung<br />
ist natürlich die Frage spannend, was passieren würde, gäbe es keine<br />
korrekten Beschreibungen der Welt, die die hier verlangte Einheitlichkeit<br />
und Systematisierungsleistung für unser Überzeugungssystem aufwiesen.<br />
Eine interessante Antwort bietet uns Kitcher (1989, 494ff und 1986)<br />
an, die sich auf Kants Überlegungen zur Systematisierungsleistung von<br />
Gesetzen stützt – jedenfalls in Kitchers Kant Interpretation. 227 Danach<br />
227 Kitcher gibt eine interessante Interpretation von Kants Wissenschaftstheorie,<br />
die sich auf Teile der Kritik der reinen Vernunft und auch auf die Metaphysischen<br />
Anfangsgründe der Naturwissenschaft bezieht und für die Theorie der<br />
Rechtfertigung einige Ähnlichkeiten mit der von Kitcher vertretenen Konzeption<br />
aufweist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 509<br />
haben wissenschaftliche Erklärungen zwar oft zum Ziel, unser Verständnis<br />
der Welt anhand einer Zurückführung auf die basalen kausalen Mechanismen<br />
zu befördern, aber welche Mechanismen als grundlegend gelten<br />
können, bemißt sich allein an ihrer Stellung in der besten vereinheitlichenden<br />
Systematisierung unserer Meinungen:<br />
The heart of the unification approach is that we cannot make sense<br />
of the notion of a basic mechanism apart from the idea of a systematization<br />
of the world in which as many consequences as possible are<br />
traced to the action of as small a number of basic mechanisms as<br />
possible. In short, on the unification approach, the basic mechanisms<br />
must be those picked out in the best unifying systematization of our<br />
best beliefs, for if they were not so picked out then they would not<br />
be basic.<br />
Ohne Vereinheitlichung gäbe es also auch keine Kausalen Zusammenhänge<br />
mehr. So weit, daß die Vereinheitlichung konstitutiv für Kausalität<br />
ist, möchte ich Kitcher nicht folgen. Aber ohne Kohärenz und einer gewissen<br />
Vereinheitlichung unserer Überzeugungen, haben wir keinen epistemischen<br />
Zugang zur Frage der Wahrheit unserer Meinungen; das gerade<br />
war Bestandteil der Argumentation für KTR. Gründe für eine Meinung<br />
sind demnach immer in inferentiellen Beziehungen dieser Meinung<br />
zu unseren anderen Meinungen zu sehen, wobei das Maß der Rechtfertigung<br />
im Ausmaß der relationalen und systematischen Kohärenz besteht.<br />
Ob kausale Beziehungen eine eigenständige ontologische und semantische<br />
Kategorie darstellen oder nur parasitär gegenüber Systematisierungen<br />
unserer Erkenntnis sind, möchte ich offenlassen. Wesentlich ist nur,<br />
daß auch Meinungen über kausale Zusammenhänge – oder man muß<br />
wohl eher sagen, insbesondere solche Meinungen – nur dann gerechtfertigt<br />
sind, wenn sie eine Vereinheitlichung unserer Überzeugungen bewirken.<br />
Ein Schluß von dieser Tatsache auf die Behauptung, es habe keinen<br />
Sinn, von Kausalität ohne einen systematisierenden theoretischen Rahmen<br />
zu sprechen, ist dann allerdings wohl nur anhand einer Verifikationstheorie<br />
der Bedeutung möglich, die ich nicht vertrete.<br />
Was also passiert in einer radikal nicht einheitlichen Welt? Es könnte<br />
trotzdem kausale Zusammenhänge geben, aber sie können uns nicht zu<br />
Erklärungszwecken dienen. Finden wir nicht eine Spur von Regularität<br />
in dieser Welt, sondern immer nur Ereignisse, deren Abfolgen für uns<br />
vollkommen willkürlich erscheinen müssen, weil niemals auf Ereignisse<br />
eines bestimmten Typs mehrfach Ereignisse eines bestimmten anderen<br />
Typs folgen – und wir können auch keine anderen eventuell komplexe-
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 510<br />
ren Regelmäßigkeiten feststellen –, so haben wir keine Handhabe mehr,<br />
um allgemeine Theorien über den Ablauf von Ereignissen in dieser Welt<br />
aufzustellen und zu begründen. Damit haben wir auch keine Gründe<br />
mehr, eine Unterscheidung in zufällige Ereignisfolgen und kausale anzunehmen.<br />
Damit will ich, wie gesagt, nicht ausschließen, daß auch in dieser<br />
Welt eine unerkennbare Kausalität am Werke sein könnte, die vielleicht<br />
bestimmte Ereignisse mit Notwendigkeit auf andere folgen läßt,<br />
während andere nur zufällig geschehen. Wir können sie nur nicht erkennen<br />
und haben keinen Grund, an sie zu glauben. Hätten wir in dieser<br />
Welt wenigstens eine Art sechsten Sinn für das Vorliegen von Kausalbeziehungen,<br />
der immer anspricht, wenn wir gerade einen kausale Ereignisfolge<br />
beobachten, haben wir damit auch bereits eine erste Regelmäßigkeit,<br />
an die wir anknüpfen könnten. Auch die würde allein sicher<br />
noch nicht hinreichen, um zu schließen, daß wir damit eine notwendige<br />
Beziehung aufspüren und nicht irgendein anderes Merkmal der Vorgänge,<br />
aber zumindest wäre die Welt nicht mehr völlig regellos. Je mehr<br />
Struktur wir finden, desto eher haben wir Gründe zur Verfügung, bestimmte<br />
allgemeinere Annahmen über die Welt zu akzeptieren. 228<br />
Ein vollständig kohärentes Bild der Welt, in das alle unsere Wahrnehmungen<br />
optimal einzupassen sind und etliche korrekt vorhergesagt<br />
werden können, liefert uns die besten Gründe, an seine Wahrheit zu<br />
glauben. Das ist unser einziger Weg zur Wahrheit, und wenn die Welt<br />
tatsächlich völlig regellos wäre, wäre er für uns verschlossen. Wir müßten<br />
ohne begründete Erkenntnisse und Voraussagen auskommen. Der<br />
Kohärenztheoretiker muß also keine metaphysische Einfachheitsannahme<br />
für die Welt voraussetzen, sondern überläßt es der empirischen Forschung<br />
und der Beschaffenheit der Welt, welche Regelmäßigkeiten sich<br />
tatsächlich zeigen. Er kann allerdings auf gewisse erkenntnistheoretische<br />
Konsequenzen hinweisen, die sich aus dem Umfang der Einheitlichkeit<br />
der Welt ergeben. Außerdem gibt er andererseits zu, daß der Weg zu<br />
wahren Meinungen zwar nur über Kohärenz führt, daß dieser Weg aber<br />
auch nicht sicher ist. Auch wenn wir über ein ausgearbeitetes und hochkohärentes<br />
Weltbild verfügen in das alle unsere Wahrnehmungen perfekt<br />
hineinpassen und das alle möglichen Ereignisse präzise vorhersagt, können<br />
wir die theoretische Möglichkeit, daß das auf die üblen Machenschaften<br />
eines Dämons zurückzuführen ist oder es sich dabei um einen<br />
astronomischen Irrtum handelt, nicht wirklich ausschließen. Doch wenn<br />
228 Natürlich sind in einer komplett regellosen Welt auch Zweifel bezüglich<br />
unserer Beobachtungsaussagen angebracht, aber diesen Punkt möchte ich<br />
hier nicht vertiefen.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 511<br />
wir uns entscheiden, unseren Ansichten über die Welt nicht grundsätzlich<br />
zu mißtrauen, sondern sie im Gegenteil für im wesentlichen zuverlässig<br />
halten, gewinnen wir ein spannendes Forschungsprogramm, das<br />
uns auch interne Gründe bietet, an seine Wahrheit zu glauben.<br />
I. Resümee<br />
Passend zur Kohärenztheorie der Erkenntnis und einer gebräuchlichen<br />
Konzeption von wissenschaftlichem Verstehen, habe ich mich für eine<br />
Erklärungstheorie entschieden, die gerade in der Systematisierungs- und<br />
Vereinheitlichungsleistung von Theorien oder Hypothesen ihre Erklärungskraft<br />
sieht. Im Unterschied zu herkömmlichen Vorschlägen ist<br />
diese in der semantischen Auffassung von Theorien angesiedelt und läßt<br />
sich dementsprechend durch das Schlagwort der informativen Einbettung<br />
in ein Modell am besten beschreiben. Der Strukturalismus bietet dazu<br />
die nötigen Einsichten in die innere Struktur von Theorien, um eine<br />
substantielle Konzeption von Vereinheitlichung zu explizieren, die sowohl<br />
erläutern kann, wie sich die klassischen Beispiele von Erklärungen<br />
unter diesen Rahmen subsumieren lassen, aber auch Lösungsvorschläge<br />
für eine ganze Reihe der Anomalien des DN-Modells der Erklärung bereitstellt.<br />
Dazu werden die drei wesentlichen Dimensionen der Vereinheitlichung<br />
benannt und präzisiert, die sich als die Systematisierungsleistung<br />
einer Theorie, ihre Stringenz (bzw. ihren Informationsgehalt) und<br />
schließlich ihre organische Einheitlichkeit bezeichnen lassen. Zu diesem<br />
Zweck wird der Beitrag aller Komponenten von Theorien zu diesen<br />
Kenngrößen der Vereinheitlichung bestimmt und ihr Zusammenspiel in<br />
der empirischen Behauptung von Theorie-Elementen und Theorien-Netzen<br />
rekonstruiert. Das erlaubt es auch, einen unteren Schwellenwert<br />
festzulegen, ab dem Einbettungen überhaupt Erklärungskraft besitzen.<br />
Natürlich handelt es sich dabei um ein größeres Forschungsprogramm in<br />
den Bereichen der Erkenntnistheorie und der Wissenschaftstheorie, das<br />
mit dieser Arbeit noch nicht vollständig ausgestaltet oder abgeschlossen<br />
ist.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 512<br />
Literaturverzeichnis:<br />
Abelson, R.P./ Lalljee, M., 1988, Knowledge Structures and Causal Explanation,<br />
in: Hilton (Hrsg.) (1988), 175-203.<br />
Achinstein, P., 1983, The Nature of Explanation, Oxford University Press.<br />
Achinstein, P., 1992, Inference to the Best Explanation: Or, Who Won the<br />
Mill-Whewell Debate?, Studies in the History and Philosophy of Science<br />
23, 349-364.<br />
Adler, J.E., 1990, Conservativism and Tacit Confirmation, Mind 99,<br />
559-570.<br />
Armstrong, D.M., 1973, Belief, Truth and Knowledge, Cambridge: CUP.<br />
Asimov, I., 1986, Die exakten Geheimnisse unserer Welt. Bausteine des Lebens,<br />
München: Droemer Knaur.<br />
Asimov, I., 1991, Das Wissen unserer Welt, Bertelsmann München, Originaltitel:<br />
Asimov's Chronology of Science and Discovery, Harper and<br />
Row: New York, 1989.<br />
Aspect, A./ Dalibard, J./ Roger, G., 1982, Experimental Test of Bell's Inequalities<br />
using Time-Varying Analyzers, Physical Review Letters 49,<br />
1804-1807.<br />
Aspect, A./ Grangier, P., 1985, Tests of Bell's Inequalities with Pairs of Low<br />
Energy Correlated Photons: An Experimental Realization of Einstein-<br />
Podolsky-Rosen-type Correlations, in: Lahti und Mittelstaedt (1985),<br />
50-70.<br />
Audi, R., 1988, Belief, Justification, and Knowledge, Wadsworth.<br />
Audi, R., 1993, The Structure of Justification, Cambridge University Press.<br />
Ayer, A.J., 1970, Sprache, Wahrheit und Logik, Reclam Stuttgart, Original:<br />
Language, Truth and Logic, 1936.<br />
Ayer, A.J., 1979, The Foundations of Empirical Knowledge, London: Macmillan,<br />
erste Veröffentlichung 1940.<br />
Ayer, A.J., 1984, The Problem of Knowledge, Penguin Books, erste Veröffentlichung<br />
1956.<br />
Bacon, F., 1870, Novum Organum II, New York.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 513<br />
Baines, W., 1990, Genetic Engineering for Almost Everybody, Penguin<br />
Books.<br />
Balzer, W./Moulines, C.U., 1981, Die Grundstruktur der klassischen Partikelmechanik<br />
und ihre Spezialisierungen. Zeitschrift für Naturforschung<br />
36a, 1981, 600-608.<br />
Balzer, W./Moulines, C.U./Sneed,J.D., [BMS abgekürzt], 1987, An Architectonic<br />
for Science, Reidel.<br />
Barnes, E., 1992, Explanatory Unification and the Problem of Asymmetry,<br />
Philosophy of Science 59, 558-571.<br />
Bartelborth, T., 1988, Eine logische Rekonstruktion der klassischen Elektrodynamik,<br />
Frankfurt a.M: Peter Lang Verlag.<br />
Bartelborth, T., 1989, Kann es rational sein, eine inkonsistente Theorie zu<br />
akzeptieren? Philosophia Naturalis 26, 91-120.<br />
Bartelborth, T., 1989a, Is Bohr's Model of the Atom Inconsistent? In: P.<br />
Weingartner, G. Schurz eds.): "Reports of the 13th International Wittgenstein-Symposium<br />
1988 - Philosophy and Natural Science. Borderline<br />
Questions". Hölder-Pichler-Tempsky) Wien, 220-223.<br />
Bartelborth, T., 1991, Theorieprüfung und Gedankenexperiment,<br />
Zeitschrift für Ethik und Sozialwissenschaft, Diskussion zum Hauptartikel<br />
von E. Witte, Eine Systematisierung intendierter Anwendungsformen<br />
für sozialwissenschaftliche Theorien.<br />
Bartelborth, T., 1993a, Wissenschaftlicher Realismus und approximative<br />
Theorien. Zur Explikation des wissenschaftlichen Realismus, erscheint<br />
in den Proceedings der Gesellschaft für analytische Philosophie.<br />
Bartelborth, T., 1993, Hierarchy versus Holism. A Structuralist View on<br />
General Relativity, erscheint in Erkenntnis.<br />
Bartelborth, T., 1994a, Modelle und Wirklichkeitsbezug, in: H.J. Sandkühler<br />
(Hrsg.), Theorien, Modelle und Tatsachen, Peter Lang, 87-106.<br />
Bartelborth, T., 1994, Wozu benötigen wir "holistische Komplexe"?, in:<br />
H.J. Sandkühler (Hrsg.), Theorien, Modelle und Tatsachen, Peter Lang,<br />
87-106.<br />
Bell, J.S. 1964, On the Einstein-Podolski-Rosen Paradox, Physics 1, 195-<br />
200.<br />
Bell, J.S. 1966, On the Problem of Hidden Variables in Quantum Mechanics,<br />
Review of Modern Physics 38, 447-475.<br />
Bender, J.W., (ed.), 1989, The Current State of the Coherence Theory,<br />
Kluwer Academic Publishers.<br />
Bennett, J., 1984, Locke, Berkeley, Hume. Central Themes, Oxford UP.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 514<br />
Bieri, P. (Hrsg.), 1987, Analytische Philosophie der Erkenntnis, Athenäum<br />
Verlag.<br />
Bieri, P., 1987, Evolution, Erkenntnis und Kognition, Zweifel an der evolutionären<br />
Erkenntnistheorie, in: W. Lütterfelds (Hrsg.),<br />
Transzendentale oder evolutionäre Erkenntnistheorie?, Darmstatt.<br />
Blanshard, B., 1939, The Nature of Thought, vol 2, London.<br />
BonJour, L., 1987, Die Kohärenztheorie empirischen Wissens, in : Bieri<br />
1987, 239-270, Originaltitel: The Coherence Theory of Empirical<br />
Knowlegde, Philosophical Studies 30, (1976), 281-312.<br />
BonJour, L., 1985, The Structure of Empirical Knowledge, Harvard University<br />
Press.<br />
BonJour, L., 1989, Replies and Clarifications, in: J.W. Bender (Hrsg.)<br />
1989.<br />
Brink, D.O., 1989, Moral Realism and the Foundation of Ethics, Cambridge<br />
UP.<br />
Bromberger, S., 1965, An Approach to Explanation, in: R. Butler (ed.),<br />
Studies in Analytical Philosophy, Oxford: Blackwell, 72-105.<br />
Carnap, R., 1928, Der logische Aufbau der Welt, Leipzig.<br />
Carnap, R., 1956, Empiricism, Semantics and Ontology, in Carnap,<br />
Meaning and Necessity, Chicago University Press.<br />
Carnap, R., 1966, Philosophical Foundations of Physics, New York.<br />
Cartwright, N., 1983, How the Laws of Physics Lie, Oxford Clarendon<br />
Press.<br />
Cartwright, N., 1988, How to Tell a Common Cause: Generalizations of<br />
the Conjunctive Fork Criterion, in : Fetzer (1988), 181-188.<br />
Causey, R., 1977, Unity of Science, Dordrecht:Reidel.<br />
Chisholm, R.M., 1979, Erkenntnistheorie, München: dtv Wissenschaft,<br />
Originaltitel: Theory of Knowledge, Prentice-Hall 1977, 1. Auflage<br />
1966.<br />
Churchland, P.M. & Hooker, C.A. (Hrsg.), 1985, Images of Science, University<br />
of Chicago Press.<br />
Cohen, L.J., 1989, The Philosophy of Induction and Probability, Oxford<br />
Clarendon Press.<br />
Conee, E. & Feldman, R., 1983, Discussion: Stich and Nisbett on Justifying<br />
Inference Rules, Philosophy of Science 50, 326-331.<br />
Craig, E., 1993, Was wir wissen können, Frankfurt a.M.: stw.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 515<br />
Cummins, R., 1983, Analysis and Subsumption in the Behaviorism of<br />
Hull, Philosophy of Science 50, 96-111.<br />
Cushing, J., 1982, Models and Methodologies in Current theoretical High<br />
Energy Physics, Synthese 50, 5-101.<br />
Dancy, J./Sosa, E., 1992, A Companion to Epistemology, Blackwell.<br />
Daniels, N., 1979, Wide Reflective Equilibrium and Theory Acceptance in<br />
Ethics, Journal of Philosophy 76, 256-282.<br />
Davidson, D., 1987, Eine Kohärenztheorie der Wahrheit und der Erkenntnis,<br />
in: P. Bieri (Hrsg.) (1987) 271-290, Original: A Coherence Theory<br />
of Truth and Knowledge, in: D. Henrich (Hrsg.), Kant oder Hegel?,<br />
Stuttgart: Klett-Cotta 1983, 423-438.<br />
Darwin, C., 1990, Die Entstehung der Arten durch natürliche Zuchtwahl,<br />
Leipzig: Reclam Verlag.<br />
Dawkins, R., 1990, Der blinde Uhrmacher, München: dtv, Originalausgabe:<br />
The Blind Watchmaker, 1986.<br />
Descartes, R., 1986, Meditationen über die erste Philosophie, Reclam<br />
(lat/deutsch).<br />
Dennett, D., 1987, The Intentional Stance, Cambridge, Mass.: MIT Press.<br />
Devitt, M., 1991, Realism and Truth, Blackwell.<br />
Diederich, W./Ibarra, A./Mormann, T., 1989, Bibliography of Structuralism,<br />
Erkenntnis 30, 387-407.<br />
Doyle, Sir A.C., 1986, Sherlock Holmes: The Complete Novels and Stories,<br />
vol I, Bantam Books.<br />
Dowe, P., 1992, Wesley Salmon's Process Theory of Causality and the<br />
Conserved Quantity Theory, Philosophy of Science 59, 195-216.<br />
Duhem, P., 1978, Ziel und Struktur der physikalischen Theorien, Hamburg:<br />
Felix Meiner Verlag.<br />
Dupré, J., 1992, SPECIES: Theoretical Context, in: Keller/Lloyd (Hrsg.)<br />
312-317.<br />
Earman, J., 1983, Minnesota Studies in the Philosophy of Science, vol. X,<br />
Testing Scientific Theories, Minnesota UP.<br />
Earman, J., 1986, A Primer on Determinism, Dordrecht: Reidel.<br />
Earman, J., 1989, World Enough and Space-Time, MIT Press.<br />
Earman, J., 1992, Bayes or Bust. A Critical Examination of Bayesian Confirmation<br />
Theory, MIT Press.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 516<br />
Einstein, A./ Podolsky, B./ Rosen, N., 1935, Can Quantum-Mechanical Description<br />
of Reality be Considered Complete?, Physical Review 47,<br />
777-780.<br />
Ewing, A.C., 1934, Idealism: A Critical Survey, London.<br />
Fetzer, J. H., 1988, Probability and Causality: Essays in Honour of Wesley<br />
Salmon, Dordrecht: Kluwer Academic Publishers.<br />
Fetzer, J. H., 1991, Critical Notice: Philip Kitcher and Wesley Salmon,<br />
(eds.), Scientific Explanation; and Wesley Salmon, Four Decades of<br />
Scientific Explanantion, Philosophy of Science 58, 288-306.<br />
Few, A.A., 1975, Thunder, Scientific American, July 80-90.<br />
Feyerabend, P.K., 1962, Explanation, Reduction and Empiricism, in: H.<br />
Feigl & G. Maxwell (eds.), Minnesota Studies in the Philosphy of Science,<br />
vol III, Minneapolis.<br />
Feyerabend, P.K., 1986, Wider den Methodenzwang, Frankfurt a.M.: stw,<br />
Originaltitel: Against Method. Outline of an Anarchistic Theory of<br />
Knowledge, New Left Books 1976.<br />
Field, H., 1973, Theory Change and the Indeterminacy of Reference,<br />
Journal of Philosophy 70, 462-481.<br />
Forge, J., 1980, The Structure of Physical Explanation, Philosophy of Science<br />
47, 203-226.<br />
Forge, J., 1984, Theoretical Functions, Theory and Evidence, Philosophy<br />
of Science 51, 443-463.<br />
Forge, J., 1984a, Theoretical Functions in Physical Science, Erkenntnis 21,<br />
1-29.<br />
Forge, J., 1985, Theoretical Explanation in Physical Science, Erkenntnis<br />
23, 269-294.<br />
Forster, M., 1988, Unification, Explanation, and the Composition of<br />
Causes in Newtonian Mechanics, Stud. Hist. Phil. Sci. 19, 55-101.<br />
Forster, M./Sober, E., 1994, How to Tell when Simpler, More Unified, or<br />
Less Ad Hoc Theories will Provide More Accurate Predictions, British<br />
Journal for the Philosophy of Science 45, 1-35.<br />
Friedman, M., 1988, Erklärung und wissenschaftliches Verstehen, in<br />
Schurz (Hrsg.) 1988, 171-191, Originaltitel: Explanation and Scientific<br />
Understanding, Journal of Philosophy 71, 5-19.<br />
Friedman, M., 1981, Theoretical Explanation, in: Healey (ed.).<br />
Friedman, M., 1983, Foundations of Space-Time Theories, Princeton UP.<br />
Gähde, U., 1983, T-Theoretizität und Holismus, Frankfurt a.M.: Peter<br />
Lang.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 517<br />
Gähde, U., On Innertheoretical Conditions for Theoretical Terms,<br />
Erkenntnis 32, 1990, 215-233.<br />
Gähde, U., 1989, Theorie und Hypothese, Zur Eingrenzung von Konflikten<br />
zwischen Theorie und Erfahrung, Habilitationsschrift Bielefeld<br />
1989.<br />
Gähde, U., 1989b, Bridge Principles and the Borderlin Between the Internal<br />
and the external History of Science, in: Gavroglu (1989).<br />
Gähde, U., 1990, On Innertheoretical Conditions for Theoretical Terms,<br />
Erkenntnis 32, 215-233.<br />
Gähde, U./ Stegmüller, W., 1987, An Argument in Favour of the Duhem-<br />
Quine-Thesis: From the Structuralist Point of View, in: Hahn, L.E./<br />
Schilpp, P.H., The Philosophy of W.v. Quine, The Library of Living Philosophers,<br />
vol 15, La Salle.<br />
Gärdenfors, P., 1988, Knowledge in Flux, MIT Press.<br />
Gavroglu et. al (Hrsg.), 1989, Imre Lakatos and Theories of Scientific<br />
Change, in: Boston Studies in the Philosophy of Science, Dordrecht:<br />
Reidel.<br />
Gettier, E., 1963, Is Justified True Belief Knowledge?, Analysis 23, 121-<br />
123.<br />
Glymour, C., 1980, Theory and Evidence, Princeton UP.<br />
Goldman, A., 1967, A Causal Theory of Knowing, The Journal of Philosophy<br />
64, 357-372, zitiert nach: Eine Kausaltheorie des Wissens, in:<br />
Bieri (1987), 150-165.<br />
Goldman, A.I., 1979, What is Justified Belief?, in: Pappas 1979, 1-23.<br />
Goldman, A.I., 1986, Epistemology and Cognition, Harvard UP.<br />
Goldman, A.I., 1992, Reliabilism, in: Dancy, J./Sosa, E. (1992), 433-436.<br />
Goldstick, D., 1971, Methodological Conservatism, American Philosophical<br />
Quarterly .<br />
Goodman, N., 1951, The Structure of Appearance, Harvard UP.<br />
Goodman, N., 1988, Tatsache, Fiktion, Voraussage, stw, Originaltitel: Fact,<br />
Fiction, Forecast, Indianapolis: Bobs-Merril 1973, 3. Auflage.<br />
Grünbaum, A./Salmon, W.C. (Hrsg.), 1988, The Limitations of Deductivism,<br />
University of California Press.<br />
Haack, S., Theories fo Knowledge: An Analytic Framework, Proceedings<br />
of the Aristotelian Society, vol 83.<br />
Haack, S., 1993, Evidence and Inquiry, Blackwell.<br />
Harman, G., 1973, Thought, Princeton UP.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 518<br />
Harman, G., 1986, Change in View. Principles of Reasoning, MIT Press.<br />
Harman, G., 1987, Wissen, Gründe und Ursachen, in: Bieri 1987, 108-<br />
123; Originaltitel: Knowledge, Reasons and Causes, The Journal of<br />
Philosophy 67 (1970), 841-855.<br />
Hempel, C.G./Oppenheim, P., 1948, Studies in the Logic of Explanation,<br />
Philosophy of Science 15, 135-175.<br />
Hempel, C.G., 1977, Aspekte wissenschaftlicher Erklärung, Berlin: de<br />
Gruyter, Original in: Aspects of Scientific Explanations and other Essays<br />
in the Philosophy of Science, New York: The Free Press 1965.<br />
Hesse, M.B., 1963, Models and Analogies in Science, London.<br />
Hilton, D.J., (Hrsg.), 1988, Contemporary Science and Natural Explanation.<br />
Common Sense Conceptions of Causality, Harvester Press.<br />
Hodge, M.J.S., 1989, Darwin's Theory and Darwin's Argument, in: Ruse<br />
1989 (ed.), 163-182.<br />
Hoerster, N., 1991, Abtreibung im säkularen Staat, stw.<br />
Holton, G., 1981, Thematische Analyse der Wissenschaft. Die Physik Einsteins<br />
und seiner Zeit, Frankfurt a.M.: Suhrkamp, Originaltitel:<br />
Thematic Origins of Scientific Thought. Kepler to Einstein, Cambridge<br />
Mass. 1973.<br />
Horwich, P., 1982, Probability and Evidence, Cambridge University Press.<br />
Horwich, P., 1987, Asymmetries in Time, MIT Press.<br />
Hume, D., 1985, A Treatise of Human Nature, (edited by Selby-Bigge) Oxford<br />
University Press, First Edition 1888.<br />
Hume, D., 1979, Eine Untersuchung über den menschlichen Verstand,<br />
Stuttgart: Reclam.<br />
James, W., 1956, The Will to Believe and Other Essays in Popular Philosophy,<br />
New York: Dover, Reprint von 1897.<br />
Jeßberger, R., 1990, Kreationismus, Paul Parey: Berlin.<br />
D. Kahneman, P. Slovic und A. Tversky (Hrsg.), 1982, Judgement und<br />
Certainty: Heuristics and Biases, Cambridge University Press.<br />
Kant, I., 1968, Kritik der reinen Vernunft, herausgegeben von Wilhem<br />
Weischedel, erste Auflage (A) 1781, zweite Auflage (B) 1787, Frankfurt<br />
a.M.: Suhrkamp.<br />
Keller, E.F. / Lloyd, E.A., (Hrsg.), 1992, Keywords in Evolutionary Biology,<br />
Harvard University Press.<br />
Khalidi, M.A., 1993, Carving Nature at the Joints, Philosophy of Science<br />
60, 100-113.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 519<br />
Kitcher, P., 1976, Explanation, Conjunction and Unification, Journal of<br />
Philosophy 73, 207-212.<br />
Kitcher, P., 1985, Darwin's Achievement, in: Rescher (ed.) 1985, 127-189.<br />
Kitcher, P., 1985, Two Approaches to Explanation, Journal of Philosophy<br />
82, 632-639.<br />
Kitcher, P./ Salmon, W.C., 1987, Van Fraassen on Explanation, Journal of<br />
Philosophy 84, 315-330.<br />
Kitcher, P., 1988, Erklärung durch Vereinheitlichung, in: Schurz (Hrsg.)<br />
1988, 193-229 + Nachwort 231-234, Originaltitel: Explanatory Unification,<br />
Philosophy of Science 48, 1981, 507-531.<br />
Kitcher, P., 1989, Explanatory Unification and the Causal Structure of the<br />
World, in: Kitcher/Salmon (eds.) 1989, 410-505.<br />
Kitcher, P., Salmon, W.C., 1987, Van Fraassen on Explanation, The Journal<br />
of Philosophy 84, 315-330.<br />
Kitcher, P., Salmon, W.C. (eds.), 1989, Scientific Explanation, Minneapolis:<br />
Minnesota Studies in the Philosophy of Science.<br />
Koertge, N., 1992, Explanation and its Problems, British Journal for the<br />
Philosphy of Science 43, 85-98.<br />
Koppelberg, D., 1987, Die Aufhebung der analytischen Philosophie, Suhrkamp<br />
Theorie.<br />
Koppelberg, D., 1994, Naturalistische Erkenntnistheorien und Probleme<br />
der Normativität, in: Meggle/Wessels 1994, 198-206.<br />
Kuhn, T.S., 1976, Die Struktur wissenschaftlicher Revolutionen, Originaltitel:<br />
The Structure of Scientific Revolutions, Chicago 1962.<br />
Kutschera, F. von, 1982, Grundfragen der Erkenntnistheorie, de Gruyter:<br />
Berlin.<br />
Lahti, P./ Mittelstaedt, P. (Hrsg.), 1985, Symposium on the Foundations of<br />
Modern Physics, Singapore: World Scienetific Publishing Co.<br />
Lakatos, I., 1974, Falsifikation und die Methodologie wissenschaftlicher<br />
Forschungsprogramme, in: Lakatos/Musgrave (Hrsg.) 1974, 89-189.<br />
Lakatos, I./ Musgrave, A. (hrsg.), 1974, Kritik und Erkenntnisfortschritt,<br />
Braunschweig: Vieweg, Originaltitel: Critism and the Growth of<br />
Knowledge, London: Cambridge UP 1970.<br />
Lambert, K., 1988, Prolegomenon zu einer Theorie des wissenschaftlichen<br />
Verstehens, in: Schurz (Hrsg.) 1988.<br />
Leeds, S., 1978, Theories of Reference and Truth, Erkenntnis 13, 111-129.<br />
Lehrer, K., 1974, Knowledge, Oxford Clarendon Press.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 520<br />
Lehrer, K., 1987, Personal and Social Knowledge, Synthese 73, 87-107.<br />
Lehrer, K., Coherence and the Truth Connection: A Reply to my critics,<br />
in: Bender 1989, 253-275.<br />
Lehrer, K., 1988, Metaknowledge: Undefeated Justification, Synthese 74,<br />
329-347.<br />
Lehrer, K., 1990a, The Coherence Theory of Knowledge, in: Metamind,<br />
Oxford Clarendon Press, 226-250. Original in: Philosophical Topics<br />
14, 5-25.<br />
Lehrer, K., 1990b, Theory of Knowledge, Routledge.<br />
Lenzen, W., 1974, Theorien der Bestätigung wissenschaftlicher Hypothesen,<br />
Stuttgart: Frommann-Holzboog.<br />
Lewis, D., 1981, Kausalität, in: Posch (Hrsg.) 102-123, Originaltitel: Causation,<br />
Journal of Philosophy 70, 556-572.<br />
Lipton, P., 1991, Inference to the best Explanation, London: Routledge.<br />
Lloyd, E.A., 1983, The Nature of Darwin's Support for the Theory of Natural<br />
Selection, Philosphy of Science 50, 112-129.<br />
Losee, J., 1977, Wissenschaftstheorie. Eine historische Einführung, München:<br />
Beck, Originaltitel: A Historical Introduction to the Philosophy<br />
of Science, Oxford UP 1972.<br />
Ludwig, G., 1974, Einführung in die Grundlagen der Theoretischen Physik,<br />
I-IV, Bertelsmann.<br />
Mackie, J.L., 1981, Ethik, Stuttgart: Reclam, Originaltitel: Ethics. Inventing<br />
Right and Wrong, Harmondsworth: Penguin Books 1977.<br />
McGinn, C., 1984, The Concept of Knowledge, Midwest Studies in Philosophy<br />
IX, 529-554.<br />
Meggle, G./Wessels, U. (Hrsg.), 1994, Analyomen 1, Berlin: de Gruyter.<br />
Mill, J.S., 1865, System of Logic, London.<br />
Monod, J., 1971, Zufall und Notwendigkeit, München, Originaltitel: Le<br />
Hasard et la Nécessité, Paris 1970.<br />
Morrison, M., 1992, A Study in Theory Unification: The Case of Maxwell's<br />
Electromagnetic Theory, Studies in the History and Philosophy of<br />
Science 23, 103-145.<br />
Moser, P.K., 1985, Empirical Justification, Dordrecht: Reidel.<br />
Moser, P.K., 1991, Knowledge and Evidence, Cambridge UP, Hardcover<br />
1989.<br />
Moulines, C.U., 1976, Approximate Application of Empirical Theories: A<br />
General Explication, Erkenntnis 10.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 521<br />
Moulines, C.U., 1979, Theory-Nets and the Evolution of Theories: The<br />
Example of Newtonian Mechanics, Synthese 41, 417-439.<br />
Moulines, C.U., 1980, Intertheoretic Approximation: The Kepler-Newton<br />
Case, Synthese 45.<br />
Moulines, C.U., 1981, A General Scheme for Intertheoretic Approximation.<br />
In: A. Hartkämper, H.-J. Schmidt (eds.), 123-146.<br />
Moulines, C.U., 1984, Links, Loops, and the Global Structure of Science,<br />
Philosophia Naturalis.<br />
Moulines, C.U., 1986, The Ways of Holism, Nous 20, 313-330.<br />
Moulines, C.U., 1993, Is Life a Dream?, bisher unveröffentlichtes Manuskript.<br />
Mühlhölzer, F., 1989, Objektivität und Erkenntnisfortschritt, Habilitationsschrift<br />
München.<br />
Musgrave, A., 1993, Alltagswissen, Wissenschaft und Skeptizismus, Tübingen:<br />
J.C.B. Mohr.<br />
Nagel, E., 1961, The Structure of Science, London: Routledge and Kegan.<br />
Nagel, T., 1992, Der Blick von nirgendwo, Frankfurt a.M.: Suhrkamp,<br />
Originaltitel: The View from Nowhere, Oxford University Press 1986.<br />
Nisbett, R./ Stich, S., 1980, Justification and the Psychology of Human<br />
Reasoning, Philosophy of Science 47, 188-202.<br />
Nozick, R., 1981, Philosophical Explanations, Oxford University Press.<br />
Pais, A., 1982, Subtle is the Lord..., The Science and Life of Albert Einstein,<br />
Oxford University Press.<br />
Pais, A., 1986, Inward Bound. Of Matters and Forces in the Physical World,<br />
Oxford University Press.<br />
Pappas, G., (Hrsg.), 1979, Justification and Knowledge, Dordrecht: Reidel.<br />
Penrose, R., 1989, The Emperor's New Mind, Oxford University Press.<br />
Platts, M., 1983, Explanatory Kinds, British Journal for the Philosophy of<br />
Science 34, 133-148.<br />
Pollock, J.L., 1986, Contemporary Theories of Knowledge, Rowman and<br />
Littlefield.<br />
Pollock, J.L, 1990, Nomic Probability and the Foundations of Induction,<br />
Oxford UP.<br />
Popper, K.R., 1972, The Aim of Science, in: Popper 1972, 191-205, Original<br />
in: Ratio 1, 1957.<br />
Popper, K.R., 1972, Objective Knowlegde, Oxford Clarendon Press.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 522<br />
Popper, K.R., 1984, Die Logik der Forschung, Tübingen: Mohr, Original:<br />
1934.<br />
Posch, G., (Hrsg.), 1981, Kausalität, Stuttgart: Reclam.<br />
Putnam, H., 1979, Die Bedeutung von "Bedeutung", Frankfurt a.M.: Klostermann<br />
(Original 1975).<br />
Putnam, H., 1978, Meaning and the Moral Sciences, London: Routledge<br />
and Kegan Paul.<br />
Putnam, H., 1990, Vernunft, Wahrheit und Geschichte, Frankfurt a.M.:<br />
stw, Original: Reason, Truth and History, 1981, Cambridge University<br />
Press.<br />
Quine, W.v.O., 1975, Naturalisierte Erkenntnistheorie, in: Quine,<br />
Ontologische Relativität und andere Schriften, Reclam Stuttgart.<br />
Quine, W.v.O., 1975a, The Nature of Natural Knowledge, in: S. Guttenplan<br />
(Hrsg.) Mind and Language, Oxford UP, 67-81.<br />
Quine, W.v.O., 1979, Zwei Dogmen des Empirismus, in: W.v.O. Quine,<br />
Von einem logischen Standpunkt aus, Frankfurt a.M.: Ullstein.<br />
Quine, W.v.O., 1981, Reply to Stroud, Midwest Studies in Philosophy, Bd.<br />
VI.<br />
Quine, W.v.O., 1985, Theorien und Dinge, Frankfurt a.M.: Suhrkamp,<br />
Originaltitel: Theories and Things, 1981.<br />
Railton, P., 1989, Explanation and Metaphysical Controversy, in: Kitcher/Salmon<br />
(eds.) 1989, 220-251..<br />
Ramsey, 1927, Facts and Propositions, Proceedings of the Aristotelian Society,<br />
Suppl. Vol. VII.<br />
Rawls, J., 1979, Eine Theorie der Gerechtigkeit, Suhrkamp, Originaltitel: A<br />
Theory of Justice, 1971.<br />
Rawls, J., 1980, Kantian Construction in Moral Theory, Journal of Philosophy<br />
77, 515-572.<br />
Ray, C., 1991, Time, Space and Philosophy, London: Routledge.<br />
Redhead, M., 1980, Models in Physics, British Journal for the Philosophy<br />
of Science 31, 145-163.<br />
Rescher, N., 1982, The Coherence Theory of Truth, University Press of<br />
America, erste Auflage 1973.<br />
Rescher, N. (ed.), 1985, Reason and Rationality in Natural Science, CPS<br />
Publications in Philosophy of Science.<br />
Rescher, N., 1985, Die Grenzen der Wissenschaft, Reclam, übersetzt von B.<br />
Puntel. Originaltitel: The Limits of Science, London 1984.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 523<br />
Rorty, R., 1984, Der Spiegel der Natur. Eine Kritik der Philosophie, Frankfurt<br />
a.M.: Suhrkamp, Originaltitel: Philosophy and the Mirror of Nature,<br />
Princeton University Press 1979.<br />
Rosenberg, A., 1985, The Structure of Biological Science, Cambridge University<br />
Press.<br />
Rosenberg, J.F., 1986, Philosophieren, Frankfurt a.M.: Klostermann, Originaltitel:<br />
The Practice of Philosophy, Prentice-Hall 1984.<br />
Ross, L./ Anderson, C., 1982, Shortcomings in the attribution process: On<br />
the the origins and maintenance of erroneous social assessment, in:<br />
Judgement und Certainty: Heuristics and Biases, D. Kahneman, P.<br />
Slovic und A. Tversky, (Hrsg.) Cambridge University Press 129-152.<br />
Ruse, M., 1989, What the Philosophy of Biology is, Dordrecht: Kluwer<br />
Academic Publishers.<br />
Russell, B., (1910), Über die Natur von Wahrheit und Falschheit, in: Russell<br />
1980, 99-113.<br />
Russell, B., (1909), Über den Gegenstand der Physik, in: Russell 1980, 61-<br />
98, aus: Reply to Criticsm, in: The Philosophy of Bertrand Russell,<br />
(ed.) P.A. Schilpp, New York: Tudor.<br />
Russell, B., 1912, The Problems of Philosophy, London.<br />
Russell, B., 1940, An Inquiry into Meaning and Truth, London.<br />
Russell, B., (1944), Über den Gegenstand der Physik, in. Russell 1980, 52-<br />
60.<br />
Russell, B., 1978, Philosophie des Abendlandes, Zürich: Europa Verlag,<br />
Originaltitel: A History of Western Philosphy, London.<br />
Russell, B., 1980, Philosophische und politische Aufsätze, (hrsg. von U.<br />
Steinvorth), Stuttgart: Reclam.<br />
Salmon, W.C., 1984, Logik, Stuttgart: Reclam, Originaltitel: Logic,<br />
Englewood Cliffs, N.J.: Prentice Hall 1973.<br />
Salmon, W.C., 1984, Scientific Explanation and the Causal Structure of the<br />
World, Princeton University Press.<br />
Salmon, W.C., 1989, Four Decades of Scientific Explanation, in: Kitcher/Salmon<br />
(eds.) 1989, 3-219.<br />
Schäfer, B./ Six, B., 1978, Sozialpsychologie des Vorurteils, Stuttgart: Kohlhammer.<br />
Schank, R.C., 1986, Explanation Patterns: Understanding Mechanically<br />
and Craetively, Hillsdale, N.J.: Lawrence Erlbaum.<br />
Schantz, R., 1991, Perception, in: Handbook of Metaphysics and Ontology,<br />
H. Burkhard und B. Smith (Hrsg.) München: Philosophia.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 524<br />
Scheibe, E., 1973, Die Erklärung der Keplerschen Gesetze durch Newtons<br />
Gravitationsgesetz, in: Scheibe/Süßmann 1973.<br />
Scheibe, E., 1981, Invariance and Covariance, in: Agassi, J. & Cohen,<br />
R.S., (eds.) Scientific Philosophy Today, 311-331, Dordrecht: Reidel.<br />
Scheibe, E./Süßmann, G. (Hrsg.), 1973, Einheit und Vielheit, Göttingen.<br />
Schlick, M., 1934, Über das Fundament der Erkenntnis, Erkenntnis 4, 79-<br />
99.<br />
Schurz, G., 1983, Wissenschafliche Erklärung, dbv-Verlag für die technische<br />
Universität Graz.<br />
Schurz, G., 1988, Erklären und Verstehen in der Wissenschaft, München.<br />
Schurz, G., 1990, Paradoxical Consequences of Balzer's and Gähde's Criteria<br />
of Theoreticity. Results of an Application to Ten Scientific Theories,<br />
Erkenntnis 32, 161-214.<br />
Searle, J., 1964, How to derive "ought" from "is", Philosophical Review 73.<br />
Sellars, W., 1963, Science, Perception and Reality, London: Routledge.<br />
Shoenfield, J.R., 1973, Mathematical Logic, Addison-Wesley.<br />
Sidgwick, H., 1962, The Methods of Ethics, London: Macmillan.<br />
Sintonen, M., 1991, How Evolutionary Theory faces Reality, Synthese 89,<br />
163-183.<br />
Sklar, L., 1975, Methodological Conservatism, Philosophical Review,<br />
374-400.<br />
Smullyan, R., 1989, Spottdrosseln und Metavögeln, Frankfurt a.M.: Fischer,<br />
Originaltitel: To Mock a Mockingbird And Other Logic Puzzles,<br />
New Yorck 1985.<br />
Sober, E., 1984, The Nature of Selection. Evolutionary Theory in Philosophical<br />
Focus, MIT Press.<br />
Sober, E., 1987, Explanation and Causation, British Journal for the Philosophy<br />
of Science 38, 243-257.<br />
Sosa, E., 1989, Equilibrium in Coherence, in: Bender (ed.) 1989, 242-250.<br />
Sosa, E. / Tooley, M. (Hrsg.), 1993, Causation, Oxford University Press.<br />
Sneed, Joseph D., The Logical Structure of Mathematical Physics, Reidel<br />
1971 (1962).<br />
Stegmüller, W., 1958, Der Phänomenalismus und seine Schwierigkeiten,<br />
Archiv für Philosophie 8, 36-100.<br />
Stegmüller, W., 1983, Probleme und Resultate der Wissenschaftstheorie und<br />
analytischen Philosophie, Bd I, zweite erweiterte Auflage, Erklärung<br />
Begründung Kausalität, Berlin: Springer.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 525<br />
Stegmüller, W., Probleme und Resultate der Wissenschaftstheorie und analytischen<br />
Philosophie, Bd II, Teil I 1970, Teil II 1973, Teil III 1986, Berlin:<br />
Springer.<br />
Stegmüller, W., 1987, Hauptströmungen der Gegenwartsphilosophie, Bd.<br />
III, 8. Auflage, Stuttgart: Kröner.<br />
Stevens, P.F., 1992, SPECIES: Historical Perspectives, in: Keller/Lloyd<br />
(Hrsg.) (1992), 302-311.<br />
Stich, S., 1988, Reflective Equilibrium, Analytic Epistemology and the<br />
Problem of Cognitive Diversity, Synthese 74, 391-413.<br />
Stroud, B., 1984, The Sigificance of Philosophical Scepticism, New York:<br />
Oxford University Press.<br />
Suppe, F., 1988, A Nondeductivist Approach to Theoretical Explanation,<br />
in: Grünbaum/Salmon (Hrsg.) (1988).<br />
Swain, M., 1981, Reasons and Knowledge, Ithaca, Cornell University<br />
Press.<br />
Swain, M., 1989, BonJours Coherence Theory of Justification, in: J.W.<br />
Bender (1989).<br />
Thagard, P., 1978, The best explanation: Criteria for theory choice,<br />
Journal of Philosophy 75, 76-92.<br />
Thagard, P., 1989, Explanatory Coherence, Behavioural and Brain Sciences<br />
12, 435-467.<br />
Thagard, P., 1992, Conceptual Revolutions, Princeton University Press.<br />
Thompson, P., 1983, The Structure of Evolutionary Theory: A Semantic<br />
Approach, Studies in the History and Philosophy of Science 14, 215-<br />
229.<br />
Tooley, M., 1987, Causation: A Realist Approach, Oxford University Press.<br />
Triplett, T., Recent Work on Foundationalism, American Philosophical<br />
Quarterly 27, 1990, 93-116<br />
Tugendhat, E., 1984, Probleme der Ethik, Stuttgart: Reclam.<br />
Uyenoyama, M.K. / Feldman, M.W., 1992, Altruism: Some Theoretical<br />
Ambiguities, in Keller/Lloyd (1992), 34-40.<br />
van Fraassen, B.C., 1977, The Only Necessity is Verbal Necessity, Journal<br />
of Philosophy LXXIV, 71-85.<br />
van Fraassen, B.C., 1980, The Scientific Image, Oxford Clarendon Press.<br />
van Fraassen, B.C., 1982, The Charybdis of Realism: Epistemological Implications<br />
of Bell's Inequality, Synthese 52, 25-38.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 526<br />
van Fraassen, B.C., 1984, Belief and the Will, Journal of Philosophy<br />
LXXXI, 235-256.<br />
van Fraassen, B.C., 1985, Salmon on Explanation, Journal of Philosophy<br />
82, 639-651.<br />
van Fraassen, B.C., 1985b, Empiricism in the Philosophy of Science, in:<br />
Churchland/Hooker (Hrsg.) (1985), 245-308.<br />
van Fraassen, B.C., 1989, Laws and Symmetry, Oxford Clarendon Press.<br />
van Fraassen, B.C., 1991, Quantum Mechanics, Oxford Clarendon Press.<br />
Vollmer, G., 1983, Mesokosmos und objektive Erkenntnis - Über Probleme,<br />
die von der evolutionären Erkenntnistheorie gelöst werden, in: K.<br />
Lorenz/ F.M. Wuketits (hrsg.): Die Evolution des Denkens, München/Zürich.<br />
Walton, D.N., 1984, Logical Dialogue-Games and Fallacies, University<br />
Press of America.<br />
Watkins, J., 1984, Science and Scepticism, Princeton University Press.<br />
Whewell, W., 1967, The Philosophy of the Inductive Sciences, New York.<br />
Williams, B., 1978, Kann man sich entscheiden, etwas zu glauben?, 217-<br />
241 in: Williams, Probleme des Selbst, Reclam, Originaltitel: Problems<br />
of the Self. Philosophical Papers 1956-1972, Cambridge University<br />
Press 1973.<br />
Williams, B., 1981, Descartes. Das Vorhaben der reinen philosophischen<br />
Untersuchung, Athenäum Verlag, Originaltitel: The project of Pure Enquiry,<br />
Penguin Books 1978.<br />
Williams, M., 1986, Do We Epistemologists Need a Theory of Truth?,<br />
Philosophical Topics.<br />
Williams, M., 1991, Unnatural Doubts. Epistemological Realism and the<br />
Basis of Scepticism, Blackwell.<br />
Wittgenstein, L., 1990, Über Gewißheit, Frankfurt a.M.: Bibliothek Suhrkamp.
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 527<br />
a priori Wahrscheinlichkeiten, 320<br />
Abduktion, 10, 152, 173<br />
Abelson, R.P., 455<br />
Abschneidefunktion, 352<br />
acceptance system, 212<br />
Achinstein, P., 404, 414, 428<br />
ad hoc Hypothesen, 244<br />
Adler, J., 274<br />
aktuale Modelle, 341<br />
akzidentelle Allausage, 381<br />
allgemeine Relativitätstheorie, 347<br />
allmächtiger Dämon, 320<br />
Alltagsüberzeugungen, 277<br />
alternative Erklärung, 175<br />
alternative Erklärungshypothesen, 12<br />
Alternativhypothesen, 278<br />
analoge Erklärungen, 224<br />
Analogiemodelle, 191, 493<br />
Analogien, 190<br />
Anti-Erklärer, 239<br />
Antirealismus, 423<br />
Anz[ZL], 486<br />
Approximation, 363, 449, 475<br />
approximative Einbettung, 365<br />
approximative empirische Behauptung,<br />
369<br />
approximative Reduktionen, 449<br />
Argument, 378<br />
Argumentation, 21, 254<br />
Argumentmuster, 439<br />
armchair psychology, 154<br />
Armstrong, D., 101, 103, 104<br />
Art-Gattungs-Beziehungen, 465<br />
Asimov, I., 36, 459<br />
Aspect, A., 421<br />
Asymmetrieproblem, 442<br />
atomare Gesetze, 434<br />
atomare Zerlegung, 432<br />
Index<br />
Audi, R., 307<br />
Ayer, A.J., 39, 136, 137, 149, 150,<br />
152, 153, 154<br />
Bacon, F., 181<br />
Balzer, W., 350<br />
Barnes, E., 443, 502<br />
Bartelborth, T., 75, 98, 150, 211,<br />
217, 281, 338, 343, 345, 347,<br />
348, 355, 366, 367, 368, 453,<br />
455, 462, 467, 468, 473, 475,<br />
477, 479, 486<br />
basale Meinungen, 144<br />
basale Überzeugungen, 131, 133<br />
Basis-Theorie-Element, 340<br />
Bayesianismus, 188, 260<br />
Begründungsstruktur, 268<br />
Bell, J.S., 421<br />
Bennett, J., 12<br />
Beobachtungsaussagen, 189<br />
Beobachtungsbedingungen, 194<br />
Beobachtungsterme, 349<br />
Beobachtungsüberzeugung:Entscheidung<br />
für, 201<br />
Beobachtungsüberzeugung:Rechtfertigung,<br />
198<br />
Beobachtungsüberzeugungen, 192<br />
beurteilende Statistik, 183<br />
Beweis der Außenwelt, 316<br />
biologische Taxonomie, 472<br />
BMS, 339, 345, 355, 357, 358, 364,<br />
368, 500<br />
BonJour, L., 14, 16, 25, 101, 114,<br />
115, 117, 118, 123, 124, 125,<br />
144, 145, 146, 156, 157, 158,<br />
198, 200, 206, 215, 220, 297,<br />
316, 317, 318, 319, 320, 321<br />
BonJours Metaforderung, 224<br />
Brückenstrukturen, 343
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 528<br />
Carnap, R., 136, 137, 149, 150, 162,<br />
314<br />
Cartesianischer Skeptiker, 291<br />
Cartesischer Dämon, 105, 159<br />
Cartwright, N., 423, 449, 452<br />
Causey, R., 478<br />
Cepheidentheorie, 344<br />
chaotische Systeme, 417<br />
Charakterisierungen, 464<br />
Chisholm, R., 116, 136, 137, 145,<br />
147<br />
Churchland, P., 192<br />
Cogito, 279<br />
Common-Sense Überzeugungen, 124<br />
Constraints, 343, 435<br />
constraintunabhängige Mengen, 480<br />
Darwin, C., 389<br />
Datenmodell, 453<br />
Deduktions-Chauvinismus, 448<br />
der mehrere-Systeme Einwand, 288<br />
Descartes, R., 203, 279<br />
Determinismus, 425<br />
Devitt, M., 13, 316<br />
diachronische Wissenschaftstheorie,<br />
365<br />
Diederich, W., 27<br />
Difference Condition, 428<br />
Dingaussage, 149<br />
Dowe, P., 419<br />
Doxastic Presumption, 206<br />
Doyle, C., 171<br />
dritte-Person Sicht, 127<br />
Dupré, J., 473<br />
Earman, J., 426<br />
ECHO, 188, 221<br />
Einbettung in ein Modell., 451<br />
Einbettung von Daten, 453<br />
Einbettung:begriffliche, 456<br />
Einbettung:in Theorien-Netz, 466<br />
Einbettung:Schwellenwert, 456<br />
Einbettung:sukzessive, 465<br />
Einbettung:und Erklärung, 456<br />
Einbettungsfunktion, 360, 462<br />
Einbettungsfunktion:Stetigkeitsforderung,<br />
483<br />
Einheitlichkeit einer Theorie, 436<br />
Einwände gegen KTR, 264<br />
eliminativer Materialismus, 218<br />
empirische Behauptung von N, 489<br />
empirische Substruktur, 350<br />
empirischer Gehalt:Überschuß, 436<br />
Empiristen, 202<br />
Entscheidung unter Unsicherheit, 328<br />
Entstehungserklärung, 501<br />
enumerative Induktion, 179<br />
epistemische Arbeitsteilung, 118, 125,<br />
296<br />
epistemische Konkurrenz, 228<br />
epistemische Metaüberzeugungen,<br />
234<br />
epistemische Unfairness, 313<br />
epistemische Überzeugungen, 270<br />
Erinnerung, 204<br />
Erkenntnistheoretische Ziele, 322<br />
erkenntnistheoretischer Erwartungswert,<br />
327<br />
Erkenntnistheorie, 16<br />
Erklärung, 158<br />
Erklärung: und Hintergrundwissen,<br />
231<br />
Erklärung:als epistemischer Begriff,<br />
229<br />
Erklärung:anhand von Koexistenzgesetzen,<br />
413<br />
Erklärung:Antezedenzbedingungen,<br />
379<br />
Erklärung:approximative, 415<br />
Erklärung:Asymmetrie, 391, 396, 500<br />
Erklärung:deduktiv-nomologische,<br />
378<br />
Erklärung:DN-Schema, 218, 378<br />
Erklärung:Einbettungstheorie, 451<br />
Erklärung:elliptische, 383<br />
Erklärung:genetische, 382<br />
Erklärung:graduelle Abstufungen,<br />
392<br />
Erklärung:historische, 382
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 529<br />
Erklärung:in der Evolutionstheorie,<br />
388<br />
Erklärung:in der Mathematik, 409<br />
Erklärung:in der Quantenmechanik,<br />
416, 448<br />
Erklärung:induktiv-statistische, 384<br />
Erklärung:instrumentalistische Sichtweise,<br />
404<br />
Erklärung:Interessenrelativität von,<br />
231, 397<br />
Erklärung:Irrelevanz, 390, 503<br />
Erklärung:Irrelevanzproblem, 442<br />
Erklärung:IS-Schema, 384<br />
Erklärung:kausale, 405<br />
Erklärung:kontrastierende, 401<br />
Erklärung:Kontrastklasse, 395<br />
Erklärung:nicht-kausale, 409<br />
Erklärung:objektive Relevanzbeziehung,<br />
404<br />
Erklärung:partielle, 383<br />
Erklärung:potentielle/wahre, 380<br />
Erklärung:pragmatischen Aspekte,<br />
394<br />
Erklärung:Relevanzbeziehung, 400<br />
Erklärung:statistische, 384, 448<br />
Erklärung:statistisches Relevanzmodell,<br />
386<br />
Erklärung:theoretische, 414<br />
Erklärung:Vereinheitlichung, 430<br />
Erklärung:Zurückweisen von Fragen,<br />
396<br />
Erklärungen:konkurrierende, 227<br />
Erklärungsanomalie, 219, 499<br />
Erklärungskohärenz, 221<br />
Erklärungskohärenz:triviale Immunisierung,<br />
233<br />
Erklärungsprototyp, 455<br />
Erklärungsrahmen, 238<br />
erklärungsrelevante Ursachen, 428<br />
Erklärungstheorie:Anforderungen an,<br />
375<br />
Erklärungsvorrat, 439<br />
evident, 147<br />
Evolutionstheorie, 411<br />
Extensivitätsconstraint, 345<br />
Externalismus, 99, 309<br />
externe Frage, 294<br />
Externe Fragen, 314<br />
Extrapolation, 180<br />
Fallibilismus, 302<br />
Faserbündeldarstellung, 483<br />
Fehleranalyse, 195<br />
Fernwirkung, 422, 425<br />
Feyerabend, P., 281<br />
Flexibilität von Theorien, 444<br />
Forge, J., 350, 453, 502, 503<br />
Forster, M., 493<br />
Fortschritt, 476<br />
Fragesatz, 394<br />
Fragesatz:Betonungen, 394<br />
Fragesatz:Präsuppositionen, 396<br />
Friedman, M., 350, 366, 375, 399,<br />
412, 430, 431, 432, 433, 434,<br />
436, 437, 438, 446, 454, 455,<br />
471, 479, 493<br />
FU 1, 132<br />
FU 2, 132<br />
FU 3, 134<br />
Fundamentalismus, 132, 135, 146<br />
Gedankenexperimente, 256<br />
Gehirn im Topf, 106<br />
Gettier Beispiel, 16, 101, 102<br />
Glaubensgrade, 260<br />
Goldman, A., 101, 103, 104, 106,<br />
116, 136, 137<br />
Goldstick, D., 283<br />
Goodman, N., 150, 182, 281<br />
Gottesperspektive, 314<br />
grue-Paradox, 281<br />
Gründe: die wahren, 122<br />
Gähde, U., 211, 344, 351, 357, 360,<br />
361, 363, 436, 467, 469, 474,<br />
480, 481, 482, 483, 497<br />
Gärdenfors, P., 402<br />
Haack, S., 104, 120, 121, 131, 299<br />
Harman, 101<br />
Harman, G., 102, 119, 120, 170,<br />
171, 174, 180, 229, 236, 241, 286
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 530<br />
Hawking, S., 426<br />
Hempel, C.G., 375, 376, 377, 378,<br />
379, 380, 382, 383, 384, 385,<br />
388, 393, 403, 415, 416, 424, 429<br />
Hesse, M., 190, 452<br />
Hilfshypothesen, 224<br />
Hintergrundwissen, 10, 111, 174<br />
historische Periode, 358<br />
Hoerster, N., 256<br />
Holismus, 160, 161, 210, 267, 275,<br />
347<br />
Holismus:von Erklärungen, 438<br />
Holton, G., 208<br />
Hume, D., 12, 170, 182, 185, 186,<br />
187, 236, 238, 239, 312, 316, 321<br />
Humescher Skeptiker, 291<br />
Ich denke, 147<br />
idealistische Theorie, 151<br />
Identitätsconstraint, 345, 482<br />
Identitätserklärungen, 414<br />
implizite Tests, 274<br />
indexikalische Aussagen, 148<br />
Induktion: und Deduktion, 171<br />
induktive Schlüsse, 9<br />
induzierte Quasimetrik, 368<br />
infallibler Fundamentalismus, 149<br />
infiniter Regreß, 282<br />
Informationsgewinn, 322<br />
Inhaltsfunktion, 488<br />
Inkohärenz, 217, 225, 246<br />
Inkonsistenz, 217, 225<br />
instance view, 453<br />
Instanz eines Gesetzes, 453<br />
Instrumentalismus, 135, 282<br />
intendierte Anwendungen, 434, 450,<br />
470<br />
intendierte Anwendungen:Vernetzung,<br />
435<br />
Internalismus:Kritik an, 118, 124<br />
interne Fragen, 314<br />
interne Gründe, 309<br />
Introspektion, 204<br />
INUS-Bedingung, 406<br />
Invarianzconstraints, 345<br />
irreale Konditionalsätze, 381<br />
Irrtumsfreiheit, 322<br />
Irrtumsquellen, 193<br />
Irrtumsrisiko, 143<br />
irrtumssicher, 147<br />
Irrtumsvermeidung, 330<br />
Isolationseinwand, 287<br />
James, W., 322, 330, 331<br />
Kardinalität, 432<br />
kausale Erklärungen, 495<br />
kausale Modelle, 497<br />
kausale Wechselwirkung, 409<br />
kausaler Kontakt, 326<br />
kausaler Prozeß, 406<br />
kausales Modell, 420<br />
Kausalität, 424<br />
Kausalität:als Theorien-Netz, 496<br />
Kausalität:und Vereinheitlichung, 496<br />
Kenngrößen der Vereinheitlichung,<br />
490<br />
Khalidi, M.A., 473<br />
Kitcher, P., 406, 408, 409, 411, 419,<br />
433, 434, 436, 437, 438, 439,<br />
440, 441, 442, 443, 444, 445,<br />
446, 447, 448, 449, 450, 451,<br />
455, 457, 498, 501, 502, 509, 510<br />
KK, 326<br />
klassische Physik, 425<br />
klassischen Partikelmechanik, 340<br />
KO 1, 133<br />
KO 2, 133<br />
Kohypothesen, 223<br />
Kohärenz, 167, 211, 242<br />
Kohärenz:diachronische, 241<br />
Kohärenz:Erklärungsanomalie, 248<br />
Kohärenz:konkurrierende Erklärungen,<br />
248<br />
Kohärenz:relationale, 243, 249<br />
Kohärenz:Stabilitätsbedingung, 246<br />
Kohärenz:Subsysteme, 247<br />
Kohärenz:systematische, 215, 243,<br />
245<br />
Kohärenz:Transitivitätsforderung,<br />
223
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 531<br />
Kohärenztheorie, 133<br />
Kohärenztheorie der Rechtfertigung,<br />
298<br />
Kohärenztheorie:diachronische, 318<br />
Kohärenztheorie:Kritik daran, 269<br />
Komponenten der Vereinheitlichung,<br />
462<br />
Konditionalisierungsregel, 261<br />
Konkurrenten, 212<br />
Konservatismus, 273<br />
konservative Induktion, 10<br />
Konsistenz, 167, 216<br />
Konstatierungen, 148<br />
Kontextualismus, 265<br />
Kontinuumsannahme, 366<br />
konvergentes Meinungssystem, 276<br />
Koppelberg, D., 120, 166<br />
Korrespondenztheorie der Wahrheit,<br />
295<br />
KPM, 340<br />
Kriterium, 144<br />
KTR, 242<br />
KTR:Argument dafür, 294<br />
Kutschera, F.v., 151, 313<br />
Lakatos, I., 281, 475, 478, 494<br />
Lambert, K., 377<br />
Lehrer, K., 101, 110, 111, 112, 113,<br />
119, 136, 212, 236, 239<br />
Leitermenge, 463<br />
Lenzen, W., 182<br />
Lewis, D., 408, 468<br />
Limes unserer Meinungen, 277<br />
lineare Rechtfertigungsbeziehungen,<br />
269<br />
Link, 349<br />
Links, 477<br />
Lipton, P., 174, 180, 181, 246, 299,<br />
311, 395, 428<br />
lokale Modelle, 342<br />
Lokalitätsbedingung, 420<br />
Ludwig, G., 337, 367, 463<br />
Mackie, J.L., 406<br />
Maxwell, J.C., 191<br />
McGinn, C., 103, 112<br />
mechanische Modelle, 453<br />
mengentheoretischer Typ, 463<br />
Metamathematik, 335<br />
Metaphilosophie, 19<br />
Metarechtfertigung, 16, 291<br />
Metatheorie der Wissenschaften, 334<br />
Metawissen, 112<br />
Metaüberzeugungen, 206<br />
Methodologie wissenschaftlicher Forschungsp,<br />
281<br />
Meßfehler, 364<br />
MK, 273<br />
Modell, 452<br />
Modelle, 336<br />
modelltheoretischer Ansatz, 335<br />
Monod, J., 320<br />
Morrison, M., 462<br />
Moser, P., 100, 101, 113, 136, 137,<br />
154, 155, 156, 157, 158, 159,<br />
160, 161, 163, 204, 271, 308,<br />
316, 319<br />
Moulines, C.U., 326, 339, 357, 367,<br />
470, 471<br />
Musgrave, A., 268, 301, 302<br />
Naturalisierung der Erkenntnistheorie,<br />
128<br />
Naturgesetz, 380<br />
natürliche Arten, 470<br />
natürliche epistemische Arten, 142<br />
Neurath, O., 166<br />
Newtonsche Partikelmechanik, 354<br />
nicht-propositionale Wahrnehmungszustände,<br />
155<br />
No False Conclusions, 101<br />
Notwendigkeit, 423<br />
Nozick, R., 101, 103, 109<br />
Observation Requirement, 220, 278<br />
Ontologie von Theorien, 465<br />
OR, 220<br />
organische Einheitlichkeit, 478<br />
overall- Erklärungen, 160<br />
Pais, A., 208<br />
paradigmatisches Basis-Theorie-Element,<br />
358
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 532<br />
Parfit, D., 258<br />
partielle Modelle, 350<br />
Pascals Wette, 331<br />
Penrose, R., 259<br />
personally justified, 212<br />
Perspektive der ersten-Person, 107<br />
Philosophie des Geistes, 121<br />
physikalisch unmöglich, 259<br />
Phänomenalismus, 146<br />
Phänomene, 431<br />
Platon, 283<br />
Platts, M., 471, 472<br />
Pluralismus von Taxonomien, 473<br />
Pollock, 104<br />
Popper, K.R., 134, 166, 257, 449,<br />
478<br />
pragmatisch, 399<br />
presupposition links, 347<br />
principle of mark transmission, 407<br />
prinzipielle Unschärfen, 417<br />
probabilistische Aussagen, 508<br />
probability-maker, 156<br />
Pseudoerklärung, 403<br />
Pseudoprozeß, 406<br />
Putnam, H., 69, 153, 169, 170, 251<br />
Pyramide von Überzeugungen, 134<br />
Quasimetrik, 367, 483<br />
Querverbindungen:innertheoretische,<br />
343<br />
Querverbindungen:intertheoretische,<br />
346<br />
Rationalisierung von Verhalten, 178<br />
Rationalisten, 202<br />
Rationalität, 123, 260, 284<br />
Rawls, J., 329<br />
Ray, C., 411<br />
Realismus, 473<br />
Rechtfertigung, 12<br />
Rechtfertigung und Wissensexplikation,<br />
17<br />
Rechtfertigung: ohne Erklärung, 236<br />
Rechtfertigung:diachronisch, 280<br />
Rechtfertigung:durch Erklärung, 187<br />
Rechtfertigung:epistemische/moralische,<br />
20<br />
Rechtfertigung:extern, 100<br />
Rechtfertigung:externalistische, 114<br />
Rechtfertigung:externe, 126<br />
Rechtfertigung:fundamentalistische,<br />
131<br />
Rechtfertigung:gerichtet, 132<br />
Rechtfertigung:ideale, 125<br />
Rechtfertigung:implizite, 125<br />
Rechtfertigung:intern, 100<br />
Rechtfertigung:kohärentistische, 131<br />
Rechtfertigung:lineare, 299<br />
Rechtfertigung:lokal/global, 207<br />
Rechtfertigung:subjektiv/objektiv,<br />
129<br />
Rechtfertigung:und Kausalität, 120<br />
Rechtfertigung:und Rationalität, 22<br />
Rechtfertigungen:implizit, 139<br />
Rechtfertigungsketten, 268<br />
Rechtfertigungspraxis, 266<br />
Rechtfertigungssgeschichten, 284<br />
Rechtfertigungsskeptizismus, 308<br />
Rechtfertigungsstrategien, 99<br />
Rechtfertigungsstruktur, 132, 138,<br />
297<br />
Redhead, M., 452<br />
Reduktion, 149, 365, 414<br />
Reduktion von Konflikten, 212<br />
Regreß, 114, 138, 142, 204<br />
Regreßargument, 264<br />
Regreßproblem, 299<br />
Reichenbach, H., 417<br />
Relationsstrukturen, 336, 452<br />
Reliabilisten, 102<br />
Reliabilitätsindikatortheorie, 117<br />
remote conservation, 422<br />
Repräsentationstheorien der Erkenntnis,<br />
152<br />
Rescher, N., 211, 288<br />
revolutionäres Meinungssystem, 276<br />
reziproke Beziehungen, 184<br />
Rosenberg, J.F., 19<br />
Ross, L., 286
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 533<br />
Russell, B., 301, 331<br />
Salmon, W.C., 14, 29, 190, 380, 385,<br />
386, 391, 393, 402, 403, 404,<br />
405, 406, 407, 408, 417, 419,<br />
420, 422, 423, 425, 434, 436,<br />
482, 496, 497, 498<br />
Schank, R.C., 455<br />
Schantz, R., 149<br />
Scheibe, E., 415, 464<br />
schematische Sätze, 439<br />
Schlick, M., 136, 148, 156, 287, 288<br />
Schluß auf die beste Erklärung, 10,<br />
152, 158, 173, 189, 316<br />
Schlußverfahren, 9<br />
Schurz, G., 351, 387, 390, 413, 414,<br />
430<br />
scientific community, 126, 358<br />
Selbsterklärungen, 446<br />
selbstrepräsentierend, 147<br />
Sherlock Holmes, 171<br />
Signifikanz, 163<br />
Simulacrum account, 449<br />
Sinnesdaten, 146, 149<br />
Sinnestäuschung, 193<br />
Skeptische Hypothesen, 107, 310,<br />
327<br />
Skeptizismus, 106, 107, 108, 109,<br />
128, 129, 130, 145, 151, 158,<br />
159, 161, 162, 267, 291<br />
Skeptizismus:antiker, 301<br />
Skeptizismus:interner, 294<br />
Skeptizismus:Kontextabhängigkeit,<br />
312<br />
Skeptizismus:radikaler, 303<br />
Skeptizismus:Unnatürlichkeit des,<br />
312<br />
Sklar, L., 273, 283<br />
Sober, E., 390, 393, 407, 408, 409,<br />
411<br />
Sparsamkeitsprinzip, 163<br />
Spezialgesetze, 351, 437<br />
Spezialisierung, 339<br />
spontan auftretende Meinungen, 157<br />
spontane Meinungen, 278<br />
statistische Aussagen, 217<br />
statistische Theorien, 505<br />
Stegmüller, W., 38, 149, 380<br />
Stereotype, 169<br />
Stevens, P.F., 473<br />
stillschweigende Bewährung, 275<br />
Stringenz der Muster, 440<br />
Stroud, B., 306, 307, 308, 312<br />
Strukturalismus, 335<br />
Strukturalismus:Überblick, 370<br />
Strukturart, 463<br />
Subsystem, 218<br />
Subsysteme, 467<br />
Superempirist, 167, 250, 274<br />
Swain, M., 101, 112, 117, 118, 124<br />
synergistischer Überschußgehalt, 479<br />
T-nichttheoretisch, 350<br />
technisches Wissen, 356<br />
Teil-Ganzes Beziehungen, 465<br />
TG(T), 484<br />
Thagard, P., 176, 177, 188, 221, 223,<br />
224, 225, 226, 227, 230, 236,<br />
241, 246, 247, 465<br />
theoretisch/nichttheoretisch Unterscheidung,<br />
350<br />
theoretische Einbettung, 454<br />
theoretische Terme, 350<br />
theoretische Unterbestimmtheit, 278<br />
theoretischer Gehalts, 488<br />
Theorie der Rechtfertigung, 16<br />
Theorie-Elemente, 338<br />
Theorie:empirische Behauptung, 359<br />
Theorie:empirischer Gehalt, 360<br />
Theorie:intendierte Anwendungen,<br />
352<br />
Theorie:Kovarianzforderungen, 345<br />
Theorie:theoretischer Gehalt, 359<br />
Theorien, 27, 333<br />
Theorien-Holons, 338<br />
Theorien-Netze, 338<br />
Theorien:alternative, 334<br />
Theorien:begriffliche Struktur, 340<br />
Theorien:innere Struktur, 336<br />
Theorien:potentielle Modelle, 340
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 534<br />
Theorien:semantische Auffassung,<br />
336<br />
Theorien:sprachliche Darstellung,<br />
337<br />
Theorien:strukturalistische Auffassung,<br />
27, 335<br />
Theoriendynamik, 357<br />
Thermometeranalogie, 103<br />
Tooley, M., 422<br />
Transportabilitätsforderung, 464<br />
transzendentaler Idealismus, 315<br />
Triplett, T., 135, 136<br />
truth resistant, 113<br />
Tversky, A., 55<br />
Typen von Anwendungen, 470<br />
Typen von Erklärungen, 439<br />
Umfang der eingebetteten Phänomene,<br />
485<br />
unbewußte Informationsverarbeitung,<br />
110<br />
unechte Verallgemeinerung, 446<br />
unendliche Rechtfertigungsketten,<br />
140<br />
unendlicher Regreß, 266<br />
unerkennbare Kausalität, 511<br />
uniforme Strukturen, 367<br />
Unschärfen, 363, 450<br />
Unterbestimmtheit, 135<br />
unvollständige Erklärungen, 185<br />
UP(e), 487<br />
UP(T), 485<br />
Uyenoyama, M.K., 411<br />
van Fraassen, B., 38, 135, 192, 289,<br />
317, 342, 350, 392, 394, 395,<br />
396, 399, 400, 401, 403, 404,<br />
418, 420, 423, 424, 427, 429<br />
Vereinheitlichung, 430<br />
Vereinheitlichung:Dimensionen der,<br />
457<br />
Vereinheitlichung:durch Analogien,<br />
493<br />
Vereinheitlichung:durch Constraints,<br />
467<br />
Vereinheitlichung:durch Strukturarten,<br />
463<br />
Vereinheitlichung:durch theoretische<br />
Größen, 468<br />
Vereinheitlichung:durch Theorien-<br />
Netze, 466<br />
Vereinheitlichung:formale Präzisierung,<br />
484<br />
Vereinheitlichung:in der Elektrodynamik,<br />
458<br />
Vereinheitlichung:Kernmuster, 444<br />
Vereinheitlichung:Reduktion der Phänomene,<br />
431<br />
Vereinheitlichung:Sprachabhängigkeit,<br />
447<br />
Vereinheitlichung:Stringenz, 446,<br />
484<br />
Vereinheitlichung:Systematisierungsleistung,<br />
484<br />
Vereinheitlichung:Trivialisierungsproblem,<br />
440<br />
Vereinheitlichung:und Definierbarkeit,<br />
468<br />
Vereinheitlichung:und Kausalität, 510<br />
Vereinheitlichung:und Kohärenz,<br />
458, 492<br />
Vereinheitlichungsleistung, 491<br />
Vereinheitlichungsleistung:eines Netzes,<br />
491<br />
Verhaltenserklärungen, 177<br />
vernünftiges Handeln, 124<br />
Verstehen, 159, 251, 252, 375<br />
Verstehen:kohärente Einbettung, 376<br />
Verstehen:Personenrelativität, 377<br />
Verstehen:Zurückführung auf Vertrautes,<br />
376<br />
Voraussagen, 381<br />
Vortheorie, 346<br />
Vorurteil, 180, 194<br />
wahrheitsdienlich, 309<br />
Wahrheitsindikator, 20, 284, 289<br />
Wahrheitsquote, 103<br />
wahrheitsresistent, 308<br />
Wahrnehmung, 115, 192
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 535<br />
Wahrnehmung:innere, 204<br />
Wahrnehmung:irrtumssicher, 137<br />
Wahrnehmungsaussagen, 143<br />
Wahrnehmungsirrtum, 186<br />
Wahrnehmungsüberzeugung, 110<br />
Wahrscheinlichkeit:Propensitäten,<br />
508<br />
Wahrscheinlichkeit:schwache Interpretation,<br />
507<br />
Wahrscheinlichkeiten, 260<br />
Walton, D.N., 21<br />
Warum-Fragen, 394<br />
Watkins, J., 291, 292, 331, 479<br />
Whewell, W., 181, 183, 431, 469<br />
Williams, B., 201<br />
Williams, M., 41, 108, 132, 133,<br />
136, 142, 210, 267, 311, 312, 397<br />
Wissen, 16, 112<br />
Wissen:implizites, 118<br />
Wissen:logische Abgeschlossenheit,<br />
108<br />
Wissenschaftlergemeinschaft, 126<br />
Wissenschaftliche Erklärung, 492<br />
wissenschaftliche Erklärungen, 15<br />
wissenschaftliche Modelle, 452<br />
wissenschaftliche Revolution, 465<br />
wissenschaftliches Verstehen, 375<br />
Wissensdefinition, 101<br />
Wissensskeptizismus, 305<br />
Wittgenstein, 142<br />
Wunder, 185<br />
Zerlegung, 432<br />
Zirkel der Explikation, 229<br />
Zirkelvorwurf, 206<br />
ZL(T), 485<br />
Zuverlässigkeit, 103<br />
überflüssige Entität, 159<br />
Übersetzungsthese, 150<br />
Überzeugungen:Genese, 41<br />
Überzeugungssystem, 170, 252<br />
Überzeugungssystem:Entstehung, 235<br />
Überzeugungssystem:innere Stabilität,<br />
277<br />
„Argument, 89<br />
„Ausleseprozeß“, 63<br />
„Bartelborth,, 50, 72<br />
„Bedeutungsanalyse“, 57<br />
„Beobachtungsüberzeugungen“, 62,<br />
92<br />
„Bieri,, 61, 65<br />
„Bohrs, 50<br />
„BonJour,, 74, 84<br />
„böser, 41<br />
„Chisholm,, 51<br />
„Common-Sense, 52<br />
„Conee,, 59<br />
„Daniels,, 54<br />
„Davidson,, 70<br />
„Dawkins,, 64<br />
„Dennett,, 80<br />
„Descartes,, 57, 85<br />
„Devitt,, 34, 43, 61<br />
„Elektrodynamik“, 50<br />
„empirische, 48<br />
„empirischer, 47<br />
„Epistemische, 85<br />
„Epistemisches, 77<br />
„Erklärung:post-hoc“, 47<br />
„erste, 38, 40<br />
„ethische, 53<br />
„evolutionäre, 61<br />
„Evolution“, 60<br />
„Fallibilismus“, 43<br />
„Falsifikationismus“, 46<br />
„Fehlschluß“, 59<br />
„gamblers, 59<br />
„Genese/Rechtfertigung“, 35<br />
„Geometrie“, 56<br />
„Gerechtigkeit“, 53<br />
„Gewißheit“, 43<br />
„Glaubensgrade“, 78<br />
„Goodman,, 52<br />
„Grenzwert, 69<br />
„Harman,, 85<br />
„Hintergrundwissen“, 78<br />
„Holismus“, 42, 54<br />
„Idealismus“, 71<br />
„Induktion“, 95
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 536<br />
„Informationsbesitz“, 79<br />
„Information“, 40, 65<br />
„intendierte, 49<br />
„Kant,, 56<br />
„Kekulé“, 36<br />
„Konservatismus“, 56<br />
„Koppelberg,, 38, 39<br />
„Kriterien, 52<br />
„Kuhn,, 46<br />
„Leeds,, 68<br />
„Lehrer,, 34, 78<br />
„logische, 39<br />
„Mackie,, 58<br />
„Mathematik“, 49<br />
„Metamathematik“, 48<br />
„Metaphilosophie“, 46<br />
„metatheoretische, 45<br />
„Metatheorie“, 51<br />
„Metaüberzeugungen“, 93, 95<br />
„Methodologie:aprioristische“, 45<br />
„methodologischer, 87<br />
„moralische, 54<br />
„Nagel,, 62<br />
„Naturalisierung, 34<br />
„Naturalismus:methodologischer“, 51<br />
„Naturalismus:radikaler“, 36<br />
„naturalistischer, 58<br />
„natürliche, 63<br />
„Newtonsche, 49<br />
„Nisbett“, 59<br />
„Normen, 39<br />
„ordinary, 57<br />
„Peano, 49<br />
„Penrose,, 98<br />
„Physik“, 96<br />
„Phänomenalismus“, 38<br />
„Platon“, 54<br />
„Plattfisch“, 64<br />
„Psychologie“, 37<br />
„Putnam,, 58, 69, 70, 75, 88<br />
„Quine,, 34, 36, 38, 39, 40, 41, 42,<br />
44<br />
„Ramsey,, 67<br />
„Rawls,, 35, 53<br />
„Realismus“, 74<br />
„Rechtfertigung, 52<br />
„Rechtfertigung:implizite“, 85<br />
„Rechtfertigung:indirekte“, 88<br />
„Rechtfertigungspraxis“, 76<br />
„Rechtfertigungsstruktur“, 76<br />
„reflective, 35<br />
„reflektives, 53<br />
„Rorty,, 70<br />
„Russell,, 52<br />
„Salmon,, 90<br />
„Searle,, 58<br />
„Skeptizismus“, 41, 68<br />
„Sosa,, 58<br />
„Sprachanalyse“, 59<br />
„Stegmüller,, 49<br />
„Stich,, 57<br />
„Strukturalismus“, 49<br />
„Tarski,, 67<br />
„Tarskis, 73<br />
„Themenwechsel“, 40<br />
„theoretische, 49<br />
„Unkorrigierbarkeit“, 43<br />
„Vollmer,, 61<br />
„Wahrheit:Disquotationstheorien“,<br />
68<br />
„Wahrheit:epistemisch, 69, 72<br />
„Wahrheit:Korrespondenzauffassung“,<br />
73<br />
„Wahrheit:Korrespondenztheorie“,<br />
67<br />
„Wahrheit:Redundanztheorien“, 67<br />
„Wahrheit:Relativismus“, 70<br />
„Wahrheit:Äquivalenzthese“, 67<br />
„Wahrheitsindikator“, 66<br />
„Wahrheit“, 66<br />
„Wahrnehmungstheorien“, 37<br />
„Wahrnehmungsurteile“, 56<br />
„Wahrnehmungszustand“, 79<br />
„warranted, 69<br />
„Watkins,, 94<br />
„Williams,, 43, 69<br />
„Wissen:Struktur, 76<br />
„wissenschaftliche, 47
Thomas Bartelborth: <strong>Begründungsstrategien</strong> 537<br />
„wissenschaftliches, 91<br />
„Wissenschaftsgeschichte“, 47<br />
„Wissen“, 52<br />
„Überlebensfähigkeit“, 63<br />
„Übersetzungsunbestimmtheit“, 38<br />
„Überzeugung:implizite“, 82<br />
„Überzeugungen:Allgemeinheitsstufen“,<br />
94<br />
„Überzeugungen:basale“, 96<br />
„Überzeugungen:epistemische“, 93<br />
„Überzeugungen:Hierarchie, 92<br />
„Überzeugungen:Netz, 88<br />
„Überzeugung“, 82<br />
„Wissenschaftsgeschichte“ 40