19.09.2013 Aufrufe

Begründungsstrategien

Begründungsstrategien

Begründungsstrategien

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Begründungsstrategien</strong><br />

Ein Weg durch die analytische<br />

Erkenntnistheorie<br />

von Thomas Bartelborth<br />

Copyright „Akademie Verlag, Berlin 1996“<br />

Postprint mit freundlicher Genehmigung des Akademie Verlags


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 2<br />

Inhaltsverzeichnis<br />

I Epistemologie und Wissenschaftstheorie.......................................... 10<br />

A. Problemstellungen der Erkenntnistheorie .................................. 17<br />

1. Wissen und Begründung ....................................................... 17<br />

2. Epistemische Rechtfertigungen als Wahrheitsindikatoren ...... 19<br />

a) Die Entwicklung einer diachronischen Kohärenztheorie .. 23<br />

b) Metarechtfertigungen...................................................... 26<br />

B. Wissenschaftliche Theorien und Erklärungen............................. 27<br />

1. Theorien und ihre innere Struktur ........................................ 28<br />

2. Unterschiedliche Erklärungskonzeptionen ............................ 28<br />

II Der metatheoretische Rahmen ....................................................... 34<br />

A. Zur Naturalisierung der Erkenntnistheorie................................ 35<br />

1. Genese und Rechtfertigung................................................... 36<br />

2. Resignation in bezug auf das Projekt einer ersten Philosophie43<br />

3. Methodologischer Naturalismus ........................................... 45<br />

a) Poppers Falsifikationismus............................................... 47<br />

b) Reflektives Überlegungsgleichgewicht.............................. 52<br />

4. Evolutionäre Erkenntnistheorie ............................................ 61<br />

5. Resümee............................................................................... 67<br />

B. Wahrheit und Wahrheitsindikatoren ......................................... 67<br />

1. Deflationäre Wahrheitskonzeptionen .................................... 68<br />

2. Epistemische Wahrheitsbegriffe............................................. 70<br />

3. Eine Korrespondenztheorie der Wahrheit ............................. 74<br />

4. Resümee............................................................................... 76<br />

C. Zur Struktur unserer Erkenntnis ............................................... 77<br />

1. Epistemische Subjekte........................................................... 78<br />

2. Inferentielle Rechtfertigungen .............................................. 79<br />

3. Implizites Wissen.................................................................. 83<br />

4. Epistemische Arbeitsteilung .................................................. 86<br />

5. Hierarchische Strukturen...................................................... 93<br />

a) Grade von Allgemeinheit ................................................. 94<br />

b) Metaüberzeugungen ........................................................ 96<br />

c) Rechtfertigungshierarchien .............................................. 97<br />

6. Resümee............................................................................... 99


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 3<br />

III <strong>Begründungsstrategien</strong> ................................................................ 100<br />

A. Externalistische Strategien....................................................... 100<br />

1. Externalistische Wissenskonzeptionen ................................ 102<br />

a) Eine neue Wissensbedingung ......................................... 102<br />

b) Was heißt „zuverlässige Überzeugungsbildung“?............ 104<br />

c) Eine Antwort auf den Skeptiker? ................................... 107<br />

d) Ein nicht-kognitiver Wissensbegriff?.............................. 111<br />

2. Externalistische Rechtfertigungen....................................... 114<br />

a) Fragen der klassischen Erkenntnistheorie....................... 115<br />

b) Eine externalistisch-internalistische Mischform ............. 118<br />

c) Rechtfertigung und Ursachen......................................... 119<br />

d) Rationalität und Rechtfertigung .................................... 124<br />

e) Kritik am Internalismus ................................................. 125<br />

3. Eine Diagnose der intuitiven Attraktivität des Externalismus.....<br />

127<br />

4. Resümee............................................................................. 131<br />

B. Fundamentalistische Erkenntnistheorien.................................. 132<br />

1. Fundamentalistische versus kohärentistische Rechtfertigungsstrukturen<br />

.............................................................................. 132<br />

a) Formaler Fundamentalismus.......................................... 133<br />

b) Spielarten des Fundamentalismus .................................. 136<br />

2. Das Regreßargument für den Fundamentalismus................. 138<br />

3. Natürliche epistemische Arten und Hintergrundwissen....... 143<br />

4. Der Einwand des Kriteriums............................................... 145<br />

5. Substantieller Fundamentalismus ........................................ 147<br />

a) Sinnesdaten und der Phänomenalismus.......................... 147<br />

b) Mosers Fundamentalismus ............................................ 155<br />

6. Resümee............................................................................. 165<br />

IV Kohärenz .................................................................................... 166<br />

A. Bestandteile von Kohärenz ...................................................... 167<br />

1. Kohärenz und Konsistenz ................................................... 167<br />

2. Die Bedeutung von Theorien für Kohärenz......................... 168<br />

3. Sind unsere Schlüsse deduktiv? .......................................... 170<br />

4. Abduktion und Induktion ................................................... 179<br />

5. Epistemische Stützung durch Erklärungen .......................... 184<br />

6. Analogiebeziehungen.......................................................... 190<br />

B. Eine Kohärenztheorie der Wahrnehmung ................................ 192<br />

1. Vier Typen von Irrtumsquellen ........................................... 193<br />

2. Eine kohärentistische Rechtfertigung von Wahrnehmungen 198


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 4<br />

3. Empiristische und rationalistische Wahrnehmungsauffassungen<br />

202<br />

4. Erinnerung und Introspektion ............................................ 204<br />

C. Lokale und Globale Aspekte von Rechtfertigung ..................... 207<br />

D. Drei Kohärenzkonzeptionen ................................................... 211<br />

1. Lehrers Kohärenztheorie .................................................... 212<br />

2. BonJours Theorie der Rechtfertigung ................................. 215<br />

3. Thagards Theorie der Erklärungskohärenz ......................... 221<br />

E. Einwände gegen Kohärenz als Erklärungskohärenz.................. 228<br />

1. „Erklärung“ ist kein epistemischer Begriff........................... 229<br />

2. Sind Erklärungen interessenrelativ? .................................... 230<br />

3. Der Trivialitätsvorwurf ....................................................... 233<br />

4. Rechtfertigungen ohne Erklärung ....................................... 236<br />

F. Eine diachronische Theorie der Erklärungskohärenz................ 241<br />

G. Die Vereinheitlichung unseres Wissens .................................... 250<br />

H. Einige Konsequenzen der KTR ............................................... 253<br />

I. Resümee................................................................................... 259<br />

Anhang: Bayesianistische Schlüsse................................................ 260<br />

V Einwände gegen eine Kohärenztheorie ......................................... 264<br />

A. Das Regreßproblem................................................................. 264<br />

1. Pragmatischer Kontextualismus .......................................... 265<br />

2. Lineare Rechtfertigungsstrukturen? .................................... 267<br />

3. Epistemologischer Konservatismus ..................................... 273<br />

a) Anwendungen des epistemischen Konservatismus .......... 281<br />

b) Ist die konservative Strategie irrational? ........................ 283<br />

B. Der Isolationseinwand............................................................. 287<br />

C. Der mehrere-Systeme Einwand ............................................... 288<br />

D. Resümee ................................................................................. 290<br />

VI Metarechtfertigung ..................................................................... 291<br />

A. Interne Skepsis ........................................................................ 294<br />

B. Externe Skepsis ....................................................................... 301<br />

1. Fallibilismus und Skeptizismus............................................ 302<br />

2. Wissensskeptizismus und Rechtfertigungsskeptizismus ........ 305<br />

3. Unnatürliche Zweifel? ........................................................ 312<br />

4. Realismus als beste Erklärung?............................................ 316<br />

5. Erkenntnistheoretische Ziele .............................................. 322<br />

6. Eine Entscheidung gegen den Skeptiker .............................. 324<br />

C. Resümee ................................................................................. 332


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 5<br />

VII Wissenschaftliche Theorien........................................................ 333<br />

A. Die Entscheidung für den Strukturalismus............................... 335<br />

B. Mehrdeutigkeiten des Theoriekonzepts ................................... 338<br />

C. Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik...............................................................................................<br />

339<br />

1. Die begriffliche Struktur und die Gesetze von Theorie-Elementen..........................................................................................<br />

340<br />

2. Innertheoretische Querverbindungen: Constraints.............. 342<br />

3. Intertheoretische Querverbindungen: Links........................ 346<br />

4. Die „empirische“ Ebene einer Theorie................................ 349<br />

5. Der Anwendungsbereich einer Theorie............................... 352<br />

6. Das Theorien-Netz der Newtonschen Partikelmechanik...... 354<br />

7. Theoriendynamik ............................................................... 356<br />

8. Die empirische Behauptung einer Theorie .......................... 359<br />

9. Approximationen und erlaubte Unschärfemengen............... 363<br />

10. Zusammenfassung der strukturalistischen Theorienauffassung<br />

370<br />

VIII Wissenschaftliche Erklärungen.................................................. 374<br />

A. Erkenntnistheoretische Funktionen von Erklärungen............... 374<br />

B. Wissenschaftliches Verstehen ................................................... 375<br />

C. Die klassische Erklärungskonzeption....................................... 378<br />

1. Erste Probleme des DN-Schemas ....................................... 380<br />

a) Das Problem der Gesetzesartigkeit................................. 380<br />

b) Sind Gesetze für Erklärungen notwendig? ..................... 382<br />

i. Unvollständige Erklärungen....................................... 382<br />

ii. Statistische Erklärungen ........................................... 384<br />

iii. Erklärungen in der Evolutionstheorie ...................... 388<br />

2. Asymmetrie und Irrelevanz................................................. 390<br />

3. Grade von Erklärungen ...................................................... 392<br />

D. Neue Ansätze in der Erklärungstheorie ................................... 393<br />

1. Zur Pragmatik von Erklärungen ......................................... 393<br />

2. Kausale Erklärungen........................................................... 404<br />

a) Kausale Prozesse............................................................ 405<br />

b) Sind alle Erklärungen kausale Erklärungen?................... 409<br />

c) Koexistenzgesetze.......................................................... 413<br />

d) Theoretische Erklärungen ............................................. 414<br />

e) Erklärungen in der Quantenmechanik ........................... 416<br />

f) Eine deflationäre Theorie der Kausalität ........................ 423<br />

E. Resümee.................................................................................. 428


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 6<br />

IX Erklärung als Vereinheitlichung .................................................. 430<br />

A. Friedmans Vereinheitlichung der Phänomene .......................... 430<br />

B. Kitchers Vereinheitlichung der Argumentationsformen ............ 438<br />

C. Einbettung in ein Modell ........................................................ 451<br />

1. Ein allgemeiner Modellbegriff ............................................ 452<br />

2. Einbettungen und Erklärungen ........................................... 456<br />

D. Ein Beispiel für Vereinheitlichung ........................................... 458<br />

E. Komponenten der Vereinheitlichung ....................................... 462<br />

1. Begriffliche Vereinheitlichung in Strukturarten ................... 462<br />

2. Sukzessive Vereinheitlichung durch Gesetze........................ 465<br />

3. Vereinheitlichung durch Konsistenzforderungen ................. 467<br />

4. Vortheoretische Vereinheitlichung und theoretische Größen468<br />

5. Vereinheitlichung der Phänomene....................................... 469<br />

6. Stringenz durch kleinere erlaubte Unschärfen ..................... 475<br />

7. Intertheoretische Vereinheitlichung .................................... 477<br />

8. Empirische Behauptung und organische Einheit von Theorien ..<br />

478<br />

9. Formale Explikation von Vereinheitlichung ........................ 484<br />

F. Analogien und Kohärenz.......................................................... 493<br />

G. Einbettung und kausale Erklärung........................................... 495<br />

H. Zur Problemlösekraft des Einbettungsmodells......................... 498<br />

1. Erklärungsanomalien.......................................................... 498<br />

2. Asymmetrien der Erklärung................................................ 500<br />

3. Irrelevanz ........................................................................... 503<br />

4. Statistische Theorien und Erklärungen................................ 504<br />

(i) Gesamtheiten als Anwendungen des Gesetzes................ 507<br />

(ii) Wahrscheinlichkeiten als Eigenschaften........................ 508<br />

(iii) Probabilistische Aussagen als Constraints .................... 508<br />

5. Und wenn die Welt nicht einheitlich ist? ............................. 509<br />

I. Resümee................................................................................... 512<br />

Literaturverzeichnis:......................................................................... 513<br />

Index................................................................................................ 527


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 7<br />

Vorwort<br />

Die Erkenntnistheorie ist eines der zentralen Gebiete der Philosophie.<br />

Sie fragt, wann unsere Wissensansprüche berechtigt sind und wann wir<br />

über gute Begründungen unserer Meinungen verfügen. Leider ist die gegenwärtige<br />

analytisch orientierte Philosophie der Erkenntnis überwiegend<br />

im englischsprachigen Raum zu Hause. In dieser Arbeit versuche<br />

ich sie auch dem deutschsprachigen Publikum etwas näher zu bringen<br />

und einen Einstieg in eine grundlegende Fragestellung dieser Disziplin<br />

zu geben. Es geht mir vor allem darum, was eine Begründung einer Meinung<br />

auszeichnet, während ich die weniger einschlägigen Diskussionen<br />

um den Wissensbegriff nur nebenbei erwähne. Außerdem möchte ich einem<br />

Versäumnis der Erkenntnistheorie entgegenwirken, nämlich neue<br />

wissenschaftstheoretische Resultate nicht zur Kenntnis zu nehmen, die<br />

wichtige Hilfsmittel zur Lösung epistemischer Probleme bereitstellen. Es<br />

wird Zeit für eine engere Zusammenarbeit beider Disziplinen.<br />

Mein Weg durch die analytische Philosophie der Erkenntnis bietet<br />

eine Einführung in das Thema und beginnt mit einer Erörterung der<br />

grundlegenden Begriffe wie „Meinung“, „Rechtfertigung“ und „Wahrheit“.<br />

Dann werden die verschiedenen Grundpositionen vorgestellt, wobei<br />

ich für eine ganz bestimmte Theorie eintrete, nämlich eine Kohärenztheorie<br />

der Begründung. Die Argumentation für diese Theorie und<br />

ihre Ausgestaltung begleiten uns als roter Faden überall auf unserem<br />

Weg. Dabei müssen wir uns nach und nach von einigen liebgewordenen<br />

etwa empiristischen Ansichten verabschieden und uns mit einer diachronischen<br />

Theorie der Erklärungskohärenz anfreunden. Um diese vollends<br />

kennenzulernen, müssen wir uns außerdem der Frage zuwenden, was eigentlich<br />

das Charakteristische an einer Erklärung ist. Eine substantielle<br />

Antwort auf diese Frage, die im letzten Drittel der Arbeit gegeben wird,<br />

ist auf eine Teilnahme an der entsprechenden wissenschaftstheoretischen<br />

Debatte angewiesen. Die versuche ich so intuitiv wie möglich und mit<br />

vielen Beispielen zu gestalten, damit man auch als Nichtfachmann verstehen<br />

kann, worum es dabei geht.<br />

Die Arbeit ist aus meiner Habilitationsschrift des Jahres 1993 hervorgegangen,<br />

die anhand zahlreicher Diskussionen überarbeitet wurde.<br />

Für Anregungen danke ich in erster Linie Prof. Ulrich Gähde, Prof. Uli-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 8<br />

ses Moulines und Prof. Peter Bieri; des weiteren danke ich Dr. Elke<br />

Brendel, Dr. Oliver Scholz, Dr. Dirk Koppelberg und einigen Studenten<br />

aus meinen Seminaren. Die verbliebenen Fehler sind natürlich trotzdem<br />

mir zuzuschreiben, schon deshalb, weil ich nicht allen Anregungen gefolgt<br />

bin.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 9<br />

I Epistemologie und Wissenschaftstheorie<br />

Sehen wir im ebenmäßigen Sand eines Strandes klare Fußabdrücke in regelmäßiger<br />

Folge, so denken wir unwillkürlich: Da muß ein Mensch gelaufen<br />

sein. Doch trotz der Unwillkürlichkeit haben wir damit bereits<br />

eine Art von Schluß vollzogen. Einen Schluß von Indizien auf etwas, das<br />

wir nicht direkt gesehen haben. Unser Alltag ist voll von solchen Schlüssen,<br />

obwohl wir sie meist nicht einmal bemerken. Verzieht jemand das<br />

Gesicht, nachdem er sich mit einem Messer in den Finger geschnitten<br />

hat, nehmen wir selbstverständlich an, daß er Schmerzen hat. Auch das<br />

können wir nicht direkt wahrnehmen – jedenfalls nicht so direkt wie er<br />

selbst. Wir verfahren in all diesen Fällen ähnlich wie ein Detektiv, der<br />

anhand bestimmter Spuren erschließen muß, wer wohl der Mörder war.<br />

Selbst wenn uns jemand erzählt, er hätte einen Verkehrsunfall beobachtet,<br />

und wir ihm das glauben, vollziehen wir einen Schluß von der Schilderung<br />

zu dem Glauben an das Vorliegen eines bestimmten Verkehrsunfalls.<br />

Daß es sich tatsächlich um Schlüsse handelt, mag folgender Hinweis<br />

verdeutlichen: Auch wenn wir in den geschilderten Beispielen unseren<br />

Sinneswahrnehmungen vollkommen vertrauen, können wir uns in<br />

den darauf gestützten Annahmen irren. Die Spuren im Sand hätte auch<br />

eine Maschine dort hinterlassen können; das Messer schneidet vielleicht<br />

nur in eine Fingerattrappe (etwa bei Filmaufnahmen) und der Betreffende<br />

spielte nur den angeblichen Schmerz; die Schilderung war gelogen<br />

usw.<br />

All die genannten Schlüsse sind natürlich völlig in Ordnung, aber<br />

nicht zuletzt die Irrtumsmöglichkeiten weisen darauf hin, daß wir trotzdem<br />

nach einer Rechtfertigung oder Begründung für die Schlüsse fragen<br />

dürfen. Etwa: Wieso glaubst du, daß dein Bekannter dich nicht angelogen<br />

hat? Oder: Wieso glaubst du, daß du dich nicht getäuscht hast und<br />

nur den Trickaufnahmen zu einem Spielfilm zuschautest? Den Philosophen<br />

und speziell den Erkenntnistheoretiker interessiert außerdem, welches<br />

Schlußverfahren jeweils zum Einsatz kam und wie es sich begründen<br />

läßt, daß wir diesem Verfahren vertrauen. Schlüsse, in denen wir<br />

über das uns Bekannte hinausgehen, nennt man induktive Schlüsse (oder<br />

technischer: nichtmonotone Schlüsse), während sichere Schlüsse, in denen<br />

wir uns nicht irren können, deduktive genannt werden. Man kann


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 10<br />

die Frage also auch so formulieren: Gibt es bestimmte induktive Schlußweisen,<br />

die in unseren Beispielen angewandt wurden, und wie lassen sie<br />

sich rechtfertigen?<br />

Ein einfaches Induktionsverfahren wird schon seit der Antike diskutiert,<br />

nämlich die enumerative oder konservative Induktion. Danach sammeln<br />

wir eine Reihe von gleichartigen Fällen und schließen dann, daß<br />

wir auch in allen weiteren Fällen auf ähnliche Zusammenhänge stoßen<br />

werden. Wenn wir etwa 20 Raben untersucht haben und sie waren alle<br />

schwarz, werden wir von allen Raben erwarten, daß sie schwarz sind.<br />

Unsere Schlüsse im Alltag entsprechen allerdings oft nicht diesem einfachen<br />

Verfahren. Muß ich tatsächlich erst viele Schilderungen von Verkehrsunfällen<br />

meines Bekannten auf ihren Wahrheitsgehalt hin untersucht<br />

haben, ehe ich mit Fug und Recht annehmen darf, daß sein Bericht<br />

auch in diesem Fall der Wahrheit entspricht? Das geht wohl doch zu<br />

weit. Wir können aus vielen anderen Indizien begründen, daß wir ihn<br />

für glaubwürdig halten, und haben dann gute Gründe, seiner Schilderung<br />

zu glauben, selbst wenn es sich um seine erste Schilderung eines<br />

Verkehrsunfalls handelt. Ebenso ist es mit den Spuren im Sand. Es genügt<br />

schon ein einzelner Fall, um unsere Schlüsse zu untermauern. Wir<br />

schließen ohne eine Untersuchung weiterer Beispiele, daß hier ein<br />

Mensch gelaufen sein muß.<br />

Statt von enumerativer Induktion zu sprechen, läßt sich der vollzogene<br />

Schluß daher besser als ein Schluß auf die beste Erklärung beschreiben.<br />

D.h. wir suchen jeweils nach der Annahme, die die beste Erklärung<br />

für unsere Wahrnehmungen darstellt, und halten sie wegen ihrer Erklärungskraft<br />

auch für gut begründet. Für derartige Schlüsse (die ich im folgenden<br />

auch „Abduktionen“ nennen werde) gelten ganz andere Maßstäbe<br />

als für die konservativen Induktionen. So kommt es nicht darauf an,<br />

daß wir schon sehr viele ähnliche Fälle untersucht haben. Wichtiger ist<br />

meist, ob wir über alternative Erklärungen verfügen. Da im Normalfall<br />

keine anderen Erklärungen für die Fußspuren in Betracht kommen, als<br />

die gegebene, scheint unser Schluß vollkommen gerechtfertigt zu sein.<br />

Schon die wenigen Beispiele offenbaren allerdings einen grundlegenden<br />

Aspekt der Schlüsse auf beste Erklärungen: Sie sind wesentlich abhängig<br />

vom jeweiligen Hintergrundwissen. Was für uns die beste Erklärung<br />

für etwas ist, hängt von unseren anderen Annahmen über die Welt<br />

ab. Wir nehmen eventuell an, daß Menschen die Abdrücke im Sand hinterlassen<br />

haben müssen, weil es keine dazu geeigneten Maschinen gibt<br />

und wir normalerweise auch keine Motive kennen, entsprechende Ma-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 11<br />

schinen zu bauen. Vielleicht haben wir noch nicht einmal die Phantasie,<br />

derartige Möglichkeiten überhaupt zu erwägen.<br />

Diese Abhängigkeit der Abduktionen von unseren Hintergrundannahmen<br />

ist im Alltag oft versteckt, weil sie sich nur auf Selbstverständliches<br />

bezieht. Aber sie wird schnell deutlich, sobald wir annehmen, daß<br />

keine „Normalsituation“ vorliegt. Befinden wir uns auf einer Insel, die<br />

einem Ferienclub gehört, der gerne Belebtheit vortäuschen möchte und<br />

zu diesem Zweck rund um die Uhr Maschinen herumschickt, die Fußabdrücke<br />

hinterlassen, ist nicht mehr klar, welches nun die beste Erklärung<br />

unserer Beobachtung ist. Wissen wir darüber hinaus, daß es außer uns<br />

praktisch noch keine Gäste auf der Insel gibt, aber sehr viele Abdruckmaschinen,<br />

gewinnt die Maschinenerklärung die Oberhand. Nicht nur<br />

die Beurteilung der Plausibilität von Erklärungen und erklärenden Hypothesen,<br />

sondern natürlich auch ihre Auswahl ist von unserem Hintergrundwissen<br />

abhängig. In vielen Fällen halten wir sogar nur eine erklärende<br />

Hypothese für möglich. Vielleicht denken wir, es ließen sich überhaupt<br />

keine Fußabdruckmaschinen bauen und können uns z. B. nicht erklären,<br />

wie diese so gebaut werden sollten, daß sie außer Fußabdrücken<br />

keine anderen Abdrücke wie Reifenspuren im Sand hinterlassen. Dann<br />

würden wir diese Alternativerklärung nicht ernsthaft erwägen.<br />

In gewisser Weise stoßen wir hier bereits auf ein weiteres wichtiges<br />

Merkmal der Abduktionen, nämlich einen Regreß. Die gesuchten Erklärungen<br />

sollten möglichst selbst wieder nur erklärbare Bestandteile enthalten.<br />

Diese Einbettung von Erklärungen in weitergehende Erklärungszusammenhänge<br />

wird in meiner Arbeit unter dem Stichwort „Kohärenz“<br />

präzisiert werden. Doch dem möchte ich an dieser Stelle noch nicht vorgreifen.<br />

Bleiben wir noch ein wenig bei den einfachen Abduktionen.<br />

Man könnte anhand der Beispiele vielleicht den Eindruck gewinnen,<br />

die Abduktion sei nur ein typisches Schlußverfahren unseres Alltags.<br />

Doch das wäre ein ganz falscher Eindruck. Gerade in den Wissenschaften<br />

oder auch vor Gericht sind Schlüsse auf die besten Erklärungen allgegenwärtig.<br />

Denken wir z. B. an einen Mordprozeß. Die Staatsanwältin<br />

wird Indizien (dazu zähle ich auch Zeugenaussagen) vorlegen, die gegen<br />

den Angeklagten sprechen sollen. Sie könnte anführen, daß am Tatort<br />

Blut mit seiner Blutgruppe gefunden wurde, daß er ein Mordmotiv und<br />

die Gelegenheit hatte: Er war etwa in Geldnot und hatte einen Schlüssel<br />

zum Haus seiner ermordeten Erbtante. Da außerdem ein Ermordeter<br />

vorliegt und es dafür eine Erklärung (sprich einen Mörder) geben muß,<br />

sei die Geschichte der Staatsanwaltschaft, wonach der Angeklagte nachts<br />

in das Haus seiner Tante ging und sie die Treppe hinunterstieß (wobei er


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 12<br />

sich verletzte), die beste Erklärung für die gesammelten Indizien. Für ihre<br />

Beweisführung muß die Staatsanwältin nicht erst etliche einschlägige<br />

Straftaten des Angeklagten abwarten, um dann einen enumerativen Induktionsschluß<br />

führen zu können. Entsprechende Vorstrafen des Angeklagten<br />

machen die Erklärung der Staatsanwältin zwar noch überzeugender,<br />

aber sie sind weder notwendig noch hinreichend für eine Verurteilung.<br />

Die Verteidigung könnte die Beweisführung unter anderem dadurch<br />

angreifen, daß sie alternative Erklärungshypothesen vorträgt. Vielleicht<br />

hatte die Tante noch einen weiteren geldgierigen Neffen, der sehr gut<br />

mit einem Dietrich umzugehen weiß und ebenfalls kein Alibi für die<br />

Mordnacht besitzt. Sie muß also nicht einmal bestreiten, daß die Staatsanwältin<br />

eine gute Erklärung der Indizien geliefert hat. Es genügt meist<br />

schon zu zeigen, daß sie nicht unbestreitbar die beste Erklärung darstellt.<br />

Zumal die Staatsanwaltschaft gerade in Strafverfahren nicht nur eine<br />

recht gute Erklärung liefern muß, sondern eine, die jenseits allen vernünftigen<br />

Zweifels die beste ist. Die gerade nur angedeuteten Mechanismen<br />

der Beweisführung stellen erste Hinweise für meine Behauptung<br />

dar, daß wir es hier wiederum mit den typischen Regeln für Abduktionen<br />

zu tun haben.<br />

Auch in wissenschaftlichen Kontexten treffen wir wieder auf abduktive<br />

Schlüsse. Wenn es um Fragen der Rechtfertigung oder Wahrheit wissenschaftlicher<br />

Theorien geht, berufen wir uns gern auf ihre Erklärungsleistung.<br />

Eine in den Wissenschaften vielfach anzutreffende Argumentation<br />

besagt sogar, daß eine Theorie genau dann besser begründet ist als<br />

eine andere, wenn sie mehr Phänomene und diese möglichst auch noch<br />

besser erklärt als ihre Konkurrentin. Wir nehmen etwa an, daß sich unser<br />

Weltall ausdehnt, denn diese Annahme ist die beste Erklärung für die<br />

zu beobachtende Rotverschiebung in den Spektrallinien entfernter<br />

Sterne. Die Erklärungsleistung zeichnet diese Annahme gegenüber anderen<br />

kosmologischen Modellen erkenntnistheoretisch aus.<br />

Selbst in philosophischen Begründungen wird der Schluß auf die beste<br />

Erklärung eingesetzt; z. B. in Argumenten für die Existenz einer Außenwelt.<br />

So beruft sich schon Hume (1978, 196ff) auf Konsistenz und<br />

Kohärenzphänomene für die Behauptung, es gäbe unbeobachtete Gegenstände.<br />

Hume spricht zwar manchmal davon, wir müßten sie annehmen,<br />

um Kontradiktionen zu vermeiden, aber Bennett (1984, 325) hat gezeigt,<br />

daß Hume tatsächlich nur sagen kann, daß wir ohne die Annahme<br />

dieser Gegenstände über keine Erklärung für die Kohärenz und Konstanz<br />

unserer Wahrnehmungen verfügen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 13<br />

Der Schluß auf die beste Erklärung ist bis heute eines der prominentesten<br />

Argumente für realistische Positionen geblieben. Das gilt sowohl<br />

für einen „Common Sense“ Realismus wie für den wissenschaftlichen<br />

Realismus (s. z. B. Devitt 1991, 111ff). Abduktionen sind geradezu allgegenwärtig<br />

in den Wissenschaften und eigentlich in allen Disziplinen<br />

festzustellen. Ein Beispiel aus der Linguistik: Dort finden wir in Chomskys<br />

Hypothese einer angeborenen Grammatik einen weiteren typischen<br />

Vertreter dieses Schlußverfahrens. Wir können uns nach Chomsky nämlich<br />

nur aufgrund einer derartigen Annahme erklären, wieso wir so<br />

schnell unsere Sprache erlernen, obwohl diese eine sehr komplexe Struktur<br />

aufweist.<br />

Die Beispielliste für dieses Begründungsverfahren ließe sich ohne<br />

weiteres verlängern. Jedenfalls weist sie schon darauf hin, daß gerade<br />

die erkenntnistheoretisch interessantesten Schlüsse keine deduktiven<br />

und auch keine konservativen induktiven Schlüsse sind. Wir werden im<br />

Verlauf der Arbeit immer wieder feststellen müssen, daß das grundlegendste<br />

Schlußverfahren, das uns für nichtdeduktive Schlüsse zur Verfügung<br />

steht, das des Schlusses auf die beste Erklärung ist. Eine der zentralen<br />

Thesen meiner Arbeit besagt daher:<br />

Für wissenschaftliche Theorien und auch für viele Alltagsüberzeugungen<br />

ist ihre Erklärungsstärke der zentrale Aspekt ihrer epistemischen<br />

Beurteilung.<br />

Dieses Phänomen erklärt das große Interesse von Philosophen an einem<br />

besseren Verständnis dessen, was eine Erklärung ausmacht. Doch so gut<br />

wir auch im Entwerfen und im Beurteilen von konkreten Erklärungen<br />

sind, so schwierig ist es trotzdem, die folgenden drei Fragen zu beantworten:<br />

1. Was ist eine (wissenschaftliche) Erklärung?<br />

2. Warum sind Erklärungen so bedeutsam in der epistemischen<br />

Beurteilung von Meinungen bzw. Theorien?<br />

und schließlich:<br />

3. Wann sind die Erklärungen durch eine Annahme (Theorie) besser<br />

als die durch eine andere?<br />

Diesen Fragen ist meine Arbeit gewidmet. Zu ihrer Beantwortung wird<br />

neben einer allgemeinen Erklärungstheorie vor allem eine Theorie der<br />

wissenschaftlichen Erklärung entwickelt, die wiederum eng mit einer<br />

Analyse, was eine wissenschaftliche Theorie ist und welche inneren<br />

Strukturen sie aufweist, verknüpft wird. Voraussetzung für eine erfolg-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 14<br />

versprechende Bearbeitung der genannten Projekte ist zunächst eine<br />

Antwort auf die zweite Frage, welchen epistemischen Wert Erklärungen<br />

besitzen. Hauptsächlich an dieser Antwort wird die zu entwickelnde Metatheorie<br />

der Erklärung zu messen sein. Sie wird in einer Theorie der epistemischen<br />

Rechtfertigung oder Begründung gegeben, die Erklärungen<br />

eine grundlegende erkenntnistheoretische Aufgabe zuweist. Bei der<br />

Rechtfertigungstheorie handelt es sich um eine diachronische Version einer<br />

Kohärenztheorie, die an bestimmten Stellen an die Theorien von<br />

BonJour, Harman, Lehrer, Sellars, Thagard und anderen Kohärenztheoretikern<br />

anknüpft, aber an anderen Stellen auch eigene Wege geht, um<br />

die bekannten Schwächen der genannten Ansätze zu vermeiden. In dieser<br />

Konzeption wird Kohärenz maßgeblich durch Erklärungsbeziehungen<br />

gestiftet. Zugleich beantwortet sie die alte Frage, welche Struktur<br />

unsere Begründungen aufweisen: Statt linearer Ketten, wie man sie aus<br />

logischen Ableitungen kennt, bilden sie ein Netzwerk von sich gegenseitig<br />

stützenden Aussagen, die durch Erklärungen untereinander verknüpft<br />

sind. Erklärungen bilden demnach geradezu den „Zement unseres Wissens“,<br />

der die Teile unseres Wissens zu einem systematischen Ganzen zusammenfügt.<br />

Diese Anknüpfung an Humes Metapher von der Kausalität als dem<br />

„cement of the universe“ legt es nahe, die Aufgabe von Erklärungen gerade<br />

in der Aufdeckung von kausalen Beziehungen zu sehen. In dieser<br />

Richtung sind deshalb auch viele Wissenschaftsphilosophen vorgegangen;<br />

z. B. Salmon (1984) ist hier als einer der prominentesten zu nennen.<br />

Doch meine Untersuchung der epistemischen Funktionen von Erklärungen<br />

zeigt, daß diese intuitiv so ansprechende Erklärungskonzeption<br />

letztlich zu kurz greift und nur einen Aspekt von Erklärungen erfaßt.<br />

Das wird an den Stellen offensichtlich, an denen es nicht nur kausale Beziehungen<br />

sind, die unsere Welt „zusammenhalten“, sondern z. B. auch<br />

strukturelle Zusammenhänge. In unseren Modellen der Welt finden sich<br />

daher neben Kausalerklärungen Beziehungen inferentieller und begrifflicher<br />

Art, die genauso gut erklärende Funktionen übernehmen können<br />

wie die kausalen. Wir benötigen also eine neue und umfassendere Erklärungstheorie.<br />

Den Bereich des wissenschaftlichen Wissens werde ich in der Arbeit<br />

hervorheben, denn zum einen finden wir dort Erklärungen, die eine explizite<br />

Form annehmen, wie wir sie in unseren Alltagserklärungen meist<br />

nicht erreichen, und zum anderen stellt dieser Bereich einen nicht mehr<br />

wegzudenkenden Teil unseres Hintergrundwissens dar. Die Einschätzung<br />

der Erklärungsstärke und Entwicklung von entsprechenden Kriterien ist


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 15<br />

für Alltagserklärungen oft mit großen Vagheiten behaftet, weil sie kaum<br />

ausformuliert werden und sich unscharfer Begriffe bedienen. Für wissenschaftliche<br />

Erklärungen, die in schriftlicher Form vorliegen und sich auf<br />

entwickelte wissenschaftliche Theorien stützen, kann ihre Bewertung dagegen<br />

präzisiert werden; zumal in den Wissenschaften selbst bereits bestimmte<br />

methodische Standards für eine derartige Einschätzung etabliert<br />

sind. Kriterien, die für den Bereich der Wissenschaften Geltung besitzen,<br />

lassen sich schließlich mit manchen Einschränkungen und Modifikationen<br />

auf Erklärungen aus dem Alltag übertragen, weil zwischen alltäglichen<br />

und wissenschaftlichen Erklärungen grundlegende Gemeinsamkeiten<br />

bestehen.<br />

Mein Unternehmen beginnt also damit, eine diachronische Kohärenztheorie<br />

der Rechtfertigung zu entwickeln, die den allgemeinen Rahmen<br />

bereitstellt, in dem Erklärungen die wichtigste Aufgabe bei der Erzeugung<br />

von Kohärenz zukommt. Erst im zweiten Schritt wird eine Explikation<br />

von „(guter) Erklärung“ folgen, die ihren Schwerpunkt in einer Explikation<br />

von „wissenschaftlicher Erklärung“ findet.<br />

Neben diesen beiden Aufgabenstellungen ist es ein Anliegen dieses<br />

Buchs, einen längst fälligen Brückenschlag zwischen der heutigen Erkenntnistheorie<br />

und der Wissenschaftstheorie zu bewerkstelligen. Denn<br />

obwohl diese philosophischen Disziplinen thematisch eng verbunden<br />

sind, treten sie in den meisten akademischen Diskussionen, wie z. B. der<br />

über epistemische Rechtfertigungen, getrennt in Erscheinung. Meine Arbeit<br />

wird diese Beobachtung an vielen Stellen weiter untermauern. Obgleich<br />

etwa der Erklärungsbegriff explizit eine zentrale Rolle in zahlreichen<br />

erkenntnistheoretischen Ansätzen neueren Datums spielt, wird<br />

dort kaum zu seiner Explikation beigetragen – schon gar nicht gemäß<br />

dem Stand der entsprechenden wissenschaftstheoretischen Diskussion.<br />

Vielmehr wird, was unter einer Erklärung zu verstehen ist, entweder offengelassen<br />

und nur an ein vages Alltagsverständnis dieses Begriffs appelliert,<br />

oder man bezieht sich schlicht auf das Hempel-Oppenheim<br />

Schema der Erklärung, das in der wissenschaftstheoretischen Debatte<br />

um Erklärungen wegen seiner zahlreichen Mängel schon seit längerem<br />

ausgedient hat. Auf der anderen Seite sieht es nicht besser aus: Die wissenschaftsphilosophische<br />

Diskussion, welche der auf das DN-Schema<br />

der Erklärung folgenden Konzeptionen über wissenschaftliche Erklärungen<br />

zu bevorzugen sei, wird nahezu ausschließlich anhand von Anwendungen<br />

dieser Erklärungsansätze auf Beispielfälle geführt. Welche epistemische<br />

Funktion Erklärungen zu erfüllen haben und wie sie sich in bestimmte<br />

Erkenntnistheorien einfügen, bleibt dabei außen vor, obwohl


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 16<br />

diese Überlegungen offensichtlich einschlägig für die Beurteilung von<br />

Erklärungen sind.<br />

A. Problemstellungen der Erkenntnistheorie<br />

BonJour hat in seinem vielbeachteten Buch The Structure of Empirical<br />

Knowledge (1985) im wesentlichen drei Problembereiche für die heutige<br />

Erkenntnistheorie genannt, die auch für die vorliegende Arbeit eine<br />

fruchtbare Unterteilung darstellen. Da ist zunächst ein vornehmlich begriffsanalytisches<br />

Projekt, in dem der Begriff „Wissen“ zu explizieren<br />

und die Wahrheitsbedingungen für Sätze wie „S weiß, daß p“ zu bestimmen<br />

sind. Ein zweites Unternehmen der Erkenntnistheorie läßt sich in<br />

einer Theorie der Rechtfertigung ermitteln, die uns angeben soll, was<br />

eine gute epistemische Rechtfertigung bzw. Begründung einer Meinung<br />

ist. Das dritte Vorhaben, das BonJour als „Metarechtfertigung“ bezeichnet,<br />

bezieht sich insbesondere auf das Zweite, indem es den Zusammenhang<br />

zwischen dem explizierten Rechtfertigungsverfahren und dem<br />

Wahrheitsbegriff untersucht und beinhaltet vor allem die Auseinandersetzung<br />

mit dem Skeptiker. Dieses Buch soll in seinem erkenntnistheoretischen<br />

Teil überwiegend das zweite Problem behandeln und darüber<br />

hinaus zumindest eine Antwortskizze auf den Fragenkomplex der Metarechtfertigung<br />

(speziell auf die Herausforderung durch den Skeptiker)<br />

anbieten, während die Wissensdefinition keinen Gegenstand der Arbeit<br />

bilden wird. Trotzdem ist ein erster Blick auf dieses Thema schon zu<br />

Zwecken der Abgrenzung erforderlich.<br />

1. Wissen und Begründung<br />

Die Aufgabe zu bestimmen, was Wissen ist, ist eine der grundlegenden<br />

Fragen seit den Anfängen der Philosophie. Der wohl einflußreichste Vorschlag<br />

war der Platons im Theaetet und im Menon. Danach verstand<br />

man den Wissensbegriff lange Zeit so, daß jemand eine Aussage p weiß,<br />

wenn er den wahren und zugleich begründeten Glauben hat, daß p. Erst<br />

Gettier hat (1963) einen Typ von Situationen gefunden, der nach ihm<br />

benannt wurde und in seinen zahlreichen Ausgestaltungen Gegenbeispiele<br />

gegen die meisten vorgelegten Wissensdefinitionen anbieten kann.<br />

An einem einfachen Gettierbeispiel möchte ich auf das Verhältnis von<br />

Wissensdefinition und der Begründung von Meinungen eingehen. Nehmen<br />

wir an, ein Student von mir fährt einen BMW und behauptet, er ge-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 17<br />

höre ihm auch. Da ich keinen Grund habe, seine Behauptung in Zweifel<br />

zu ziehen, denn er ist weder ein Angeber, noch finanziell zu schlecht gestellt<br />

für ein solches Auto, glaube ich ihm, daß ihm der Wagen gehört.<br />

Dazu habe ich in diesem Fall auch gute Gründe, und man dürfte meine<br />

Überzeugung sicherlich als Wissen bezeichnen, wenn nicht eine Komplikation<br />

ins Spiel käme. Der Student wollte mich tatsächlich an der Nase<br />

herumführen. Der BMW gehört – so nimmt er jedenfalls an – einem<br />

Freund von ihm, der ihm den Wagen geliehen hat. Er selbst besäße demnach<br />

überhaupt kein Auto. Aber, ohne daß er davon wußte, hat sein Vater<br />

den BMW von seinem Freund für ihn gekauft. Entgegen seinen eigenen<br />

Annahmen gehört ihm der BMW also doch. Damit sind für meine<br />

entsprechende Überzeugung alle Anforderungen der Platonischen Wissensdefinition<br />

buchstäblich erfüllt: Mein Glaube, daß ihm der BMW gehört,<br />

ist wahr und auch begründet.<br />

Trotzdem möchten wir in diesem Fall nicht von Wissen sprechen,<br />

weil meine Gründe für die Meinung, daß der Student einen BMW besitzt,<br />

mit ihrer Wahrheit nichts zu tun haben. Bei meinem Wissensstand,<br />

der sich ganz auf die Angaben des Studenten stützt, ist es bloß ein glücklicher<br />

Zufall, daß die Meinung wahr ist, und somit keineswegs Wissen.<br />

Wir hätten genau dieselben Gründe zur Verfügung gehabt, wenn der Vater<br />

nicht so großzügig gewesen und der Student immer noch auf ein<br />

Leihauto angewiesen wäre. Also können wir nicht mit Fug und Recht<br />

behaupten, ich hätte gewußt, daß dem Student ein BMW gehört, denn<br />

Wissen verlangt mehr als eine bloß zufällig wahre Meinung, für die man<br />

Gründe hat, die nur zufällig mit der Wahrheit der Meinung zusammenhängen.<br />

Diese Beschreibung des Falles, die von den meisten Wissenstheoretikern<br />

geteilt wird, setzt voraus, daß wir in der geschilderten Situation tatsächlich<br />

über eine Rechtfertigung unserer Überzeugung: „Student X besitzt<br />

einen BMW“ verfügen, da sonst die entsprechende Platonische Bedingung<br />

in dem Gettierbeispiel nicht erfüllt wäre und dieses seine Funktion<br />

als Gegenbeispiel nicht übernehmen könnte. Diese Redeweise entspricht<br />

auch unseren üblichen Vorstellungen von Rechtfertigungen. Die<br />

geschilderten Gründe – die man in einer erweiterten Geschichte natürlich<br />

ohne weiteres noch verstärken könnte – stellen gute Gründe für<br />

meine Überzeugung dar, nur reichen diese Gründe eben nicht für Wissen<br />

aus. Dazu müssen in eine Wissensdefinition vermutlich weitere Anforderungen<br />

mit aufgenommen werden.<br />

An dieser Stelle wird erkennbar, wie sich die Wege für eine Theorie<br />

der Rechtfertigung und eine Wissensexplikation trotz ihres Zusammen-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 18<br />

hangs trennen. In dem Projekt der Wissensdefinition sucht man nach<br />

spezifischen Rechtfertigungen, nämlich solchen, die für wahre Meinungen<br />

auch zu Wissen führen, oder beschreitet ganz andere Wege, indem<br />

man die Rechtfertigungsbedingung der Platonischen Definition durch<br />

völlig andersgeartete Forderungen ersetzt. Die für Wissen spezifischen<br />

Rechtfertigungsbedingungen sind aber keinesfalls für Rechtfertigungen<br />

per se unerläßlich, denn in dem Gettierbeispiel liegen sie offensichtlich<br />

nicht vor, obwohl wir es mit guten Gründen für unsere Meinung, daß<br />

der Student einen BMW besitzt, zu tun haben. Das Projekt der Wissensexplikation,<br />

das manchmal auch als „Gettierologie“ bezeichnet wird, hat<br />

sich so zu einer subtilen Tüftelei der Formulierung immer ausgefeilterer<br />

Bedingungen für Wissen und dem Konstruieren immer komplizierterer<br />

Gegenbeispiele im Stile Gettiers entwickelt. Dabei geht es nicht darum,<br />

besonders gute Rechtfertigungen von schlechteren abzugrenzen, sondern<br />

darum, einen ganz speziellen Typ von Rechtfertigungen für eine geeignete<br />

Wissensbedingung zu bestimmen. Es wird schon vorausgesetzt, unsere<br />

Vorstellung, was eine Rechtfertigung ausmacht, sei bereits hinreichend<br />

geklärt, und wir könnten nun unter den Rechtfertigungen nach<br />

solchen für Wissen suchen. Eine beliebige Rechtfertigung ist eben nur zu<br />

wenig für Wissen. Sie kann daher z. B. durch externalistische Anforderungen<br />

an die Rechtfertigung ergänzt werden; wie etwa die Harmansche<br />

Bedingung, nach der die Rechtfertigung selbst nicht auf falschen Annahmen<br />

beruhen darf.<br />

Es ist wichtig, dieses Projekt deutlicher von dem zu trennen, eine<br />

Theorie der epistemischen Rechtfertigung zu entwerfen, als das in der erkenntnistheoretischen<br />

Forschung bisher geschieht. Etliche Autoren vermengen<br />

beide Fragestellungen, als ob es um ein und dasselbe Unternehmen<br />

ginge oder versuchen auf dem „Umweg“ über die Rechtfertigungstheorie<br />

eigentlich nur zu einer Wissensdefinition zu gelangen. Dann hat<br />

die Rechtfertigungstheorie meist erkennbar darunter zu leiden, daß ihre<br />

Konstrukteure schon auf den zweiten Schritt abzielen. Mir soll es in dieser<br />

Arbeit nur um eine Theorie der epistemischen Rechtfertigung oder Begründung<br />

zu tun sein und die Explikation von „Wissen“ wird dabei bestenfalls<br />

am Rande besprochen.<br />

2. Epistemische Rechtfertigungen als Wahrheitsindikatoren<br />

Der kurze Abstecher in das Vorhaben der Wissensexplikation sollte daran<br />

erinnern, an welcher Stelle in den klassischen Wissensdefinitionen<br />

eine Konzeption von Rechtfertigung bereits vorausgesetzt wird. Die Bedeutung<br />

einer Theorie der Rechtfertigung von Meinungen erschöpft sich


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 19<br />

aber keinesfalls darin, eine Vorarbeit zur Wissensdefinition zu sein. Es ist<br />

ein Vorhaben der Erkenntnistheorie, das weit über die spezielle Problematik<br />

des Wissensbegriffs hinausreicht und unabhängig von den Idiosynkrasien<br />

unseres Wissensbegriffs behandelt werden kann.<br />

Wenn man Jay F. Rosenberg (1986, 17ff) wenigstens im Grunde zustimmt,<br />

daß das Wesen des Philosophierens geradezu darin besteht, Positionen<br />

immer nur mit Begründungen zu vertreten und bereit zu sein, auf<br />

Argumente gegen diese Positionen wieder mit Argumenten zu antworten,<br />

gehört das Anfertigen von Rechtfertigungen unerläßlich zur Praxis<br />

des Philosophierens. Eine Analyse, was Rechtfertigungen ausmacht,<br />

sollte daher ein wichtiges Geschäft für jede Metaphilosophie darstellen.<br />

Die Bereitschaft, für eigene Behauptungen auch Gründe anzuführen und<br />

nicht bloß auf zufällig angenommenen Behauptungen zu beharren, ist<br />

die kognitive Leistung, die einen Philosophen von einem bloßen Dogmatiker<br />

oder einem Kind unterscheidet, das eine Meinung von seinen Eltern<br />

übernommen hat, ohne sie selbst begründen zu können. Offenheit<br />

für neue Argumente, die es gestattet, auch die angeführten Begründungen<br />

selbst wieder in Zweifel ziehen zu können, ist der wichtigste Schritt<br />

weg von einer dogmatischen Verteidigung seiner Ansichten zu einer rationalen<br />

Auseinandersetzung.<br />

Eine Rechtfertigung einer Behauptung besteht in idealtypischer Vereinfachung<br />

aus zwei Teilen. Einmal aus weiteren Hypothesen oder Annahmen,<br />

die als Prämissen der Rechtfertigung auftreten und zum zweiten<br />

aus der Behauptung, daß diese Annahmen die in Frage stehende Position<br />

in bestimmter Weise rechtfertigen. Ein Angriff auf eine philosophische<br />

Position kann sich dementsprechend entweder gegen die Prämissen<br />

richten und nach Begründungen für sie verlangen oder dagegen, daß<br />

sie tatsächlich die fragliche Meinung stützen. Im Verlaufe eines solchen<br />

Angriffs auf eine philosophische Ansicht werden meist selbst wieder Behauptungen<br />

formuliert, die ebenfalls zu begründen sind. Diese natürlich<br />

stark vereinfachte Darstellung einer dialektischen geführten Diskussion<br />

mag als Hinweis genügen, warum Rechtfertigungen in philosophischen<br />

Disputen eine zentrale Rolle zukommt. Wir sollten schon deshalb die<br />

philosophische Verpflichtung übernehmen, über die Frage zu reflektieren,<br />

wie eine gute epistemische Rechtfertigung auszusehen hat.<br />

Begründungen bzw. Rechtfertigungen (diese Ausdrücke werden von<br />

mir bezogen auf epistemische Kontexte synonym gebraucht) anzugeben,<br />

ist natürlich keineswegs Philosophen vorbehalten, sondern eine Selbstverständlichkeit<br />

in vielen außerphilosophischen, wissenschaftlichen und<br />

eventuell vollkommen banalen Kontexten. Selbst wenn ich auf einer Par-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 20<br />

ty äußere: „Fritz ist eifersüchtig auf Hans“, ist die Erwiderung: „Wieso<br />

glaubst du das?“, eine naheliegende Aufforderung, die geäußerte Meinung<br />

nun auch zu begründen. Dann kann ich womöglich anführen, Fritz<br />

habe sich gestern sehr feindselig gegenüber Hans verhalten und dies sei<br />

ein Zeichen seiner Eifersucht. Wenn meinem Gesprächspartner diese<br />

Rechtfertigung meiner Behauptung nicht ausreicht, kann er entweder<br />

meine Prämisse bestreiten: „Fritz hat sich nicht feindselig gegenüber<br />

Hans verhalten, sondern war nur allgemein mürrisch“, oder den Rechtfertigungsanspruch<br />

dieser Prämisse in Abrede stellen: „Auch wenn Fritz<br />

sich feindselig verhalten hat, so deutet das keineswegs auf Eifersucht<br />

hin, sondern ist darin begründet, daß Hans den Fritz geschäftlich hereingelegt<br />

hat.“ Wie eine derartige Diskussion weiter verlaufen kann, läßt<br />

sich leicht ausmalen.<br />

Schon in diesem einfachen Beispiel sind zwei Aspekte von Rechtfertigungen<br />

gut erkennbar. Zum einen die oben schon beschriebene Grundstruktur<br />

von Rechtfertigungen und zum anderen ihre erkenntnistheoretische<br />

Funktion. Da wir in vielen Fällen die Wahrheit bestimmter Behauptungen<br />

nicht direkt überprüfen können, suchen wir nach indirekten Anzeichen<br />

für ihre Wahrheit oder auch Falschheit. Dabei steht meist der in<br />

der Pflicht, Wahrheitsindikatoren vorzulegen, der eine Meinung vorträgt.<br />

Indizien für die Wahrheit einer Aussage darzustellen soll zugleich die für<br />

die weitere Arbeit leitende Charakterisierung von Rechtfertigungen sein.<br />

Eine terminologische Abgrenzung ist aber noch angebracht. Mit<br />

„Rechtfertigung“ beziehe ich mich nur auf epistemische Rechtfertigungen.<br />

Bekanntlich spricht man auch in anderen Kontexten von Rechtfertigung.<br />

So könnte mein Chef mich z. B. auffordern, mich zu rechtfertigen,<br />

warum ich in der letzten Woche nicht gearbeitet habe. Wenn die Fakten<br />

bereits geklärt sind und ich ihm nicht in seiner Behauptung, daß es so<br />

war, widersprechen möchte, erwartet er eine moralische oder sogar juristische<br />

Rechtfertigung von mir. Diese Rechtfertigung soll dabei nicht<br />

eine Begründung dafür darstellen, daß bestimmte Annahmen wahr sind,<br />

sondern hat die Funktion, mich moralisch zu entlasten, mein Verhalten<br />

zu rechtfertigen. Dazu teile ich ihm in der Regel gleichfalls neue Fakten<br />

mit – etwa, daß ich krank war –, aber diese Fakten werden in diesem<br />

Kontext nicht als Indizien dafür betrachtet, daß ich nicht im Dienst war,<br />

sondern gelten hoffentlich als angemessene Entschuldigung für meine<br />

Abwesenheit.<br />

Epistemische Rechtfertigungen zielen dagegen auf Wahrheit ab. Sie<br />

sind noch nicht einmal in erster Linie dazu geeignet, andere von der<br />

Wahrheit einer Behauptung zu überzeugen – selbst wenn das Partybei-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 21<br />

spiel oder diskurstheoretische Ansätze das vielleicht nahelegen mögen.<br />

Das können in bestimmten Fällen andere Überlegungen, die z. B. an bestimmte<br />

Vorurteile des Adressaten appellieren oder an gewisse Emotionen<br />

rühren, viel eher leisten, obwohl wir diese Überlegungen nicht unbedingt<br />

als Wahrheitsindikatoren anerkennen werden. Im Gegenteil erachten<br />

wir sie sogar oft als irreführend: Wir werden nicht in der Werbung<br />

nach typischen Vertretern guter Rechtfertigungen und Wahrheitsindikatoren<br />

suchen, obwohl sie ganz darauf abstellt, uns von etwas zu<br />

überzeugen.<br />

Die tatsächliche Überzeugungskraft einer Argumentation möchte ich<br />

aus der Diskussion um Rechtfertigungen weitgehend heraushalten und<br />

in einer Theorie der Argumentation oder Rhetorik ansiedeln. So kann ein<br />

zwingender mathematischer Beweis ein optimaler Wahrheitsindikator<br />

sein, weil er die Wahrheit einer Behauptung sogar garantiert, aber trotzdem<br />

wenig überzeugend wirken, weil er zu lang und kompliziert erscheint,<br />

um von vielen Leuten verstanden zu werden. Außerdem sind typische<br />

Argumentationsweisen häufig nur aus der dialektischen Situation<br />

heraus zu analysieren, etwa in einer dialektischen Logik, und in bestimmten<br />

Fällen kaum als Rechtfertigungen zu bezeichnen. Walton<br />

(1984, 4ff) gibt dazu ein Beispiel für eine Variante eines ad hominem Arguments,<br />

dem sehr wohl ein Platz in einem entsprechenden Disput zukommt,<br />

das aber keine epistemische Begründung darstellt: Der Vater ermahnt<br />

den Sohn weniger zu rauchen, denn das würde sein Krebsrisiko<br />

dramatisch erhöhen. Darauf erwidert der Sohn: „Aber Du rauchst doch<br />

selbst jeden Tag ein Päckchen.“ Diese Replik sagt uns nichts über den<br />

Zusammenhang von Rauchen und Krebs, aber ein Vorstoß des Mottos<br />

„Du praktizierst nicht, was Du predigst“ kann auf eine Art pragmatischer<br />

Inkonsistenz eines Diskussionspartners verweisen, die der Überzeugungskraft<br />

seiner Argumente Abbruch tut. Die epistemologische<br />

Rechtfertigungstheorie hat in derartigen Fällen andere Aufgabenstellungen<br />

als eine Argumentationstheorie und bedient sich bei allen Zusammenhängen,<br />

die es unzweifelhaft zwischen diesen Gebieten gibt, auch<br />

anderer Methoden.<br />

Trotz dieser sicher notwendigen Warnungen, den Zusammenhang<br />

zwischen Rechtfertigungen und Motiven oder Ursachen für unsere Überzeugungen<br />

nicht zu eng zu sehen, sollte es bestimmte Gemeinsamkeiten<br />

geben. Wenn wir von guten Argumenten verlangen, nachhaltige Überzeugungsarbeit<br />

zu leisten und nicht nur auf die menschlichen Schwächen<br />

einiger Diskussionspartner zu zielen, so sollte hinter jedem guten Argument<br />

auch eine gute Begründung stehen. Gute Argumente wären dem-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 22<br />

nach überzeugend verpackte Begründungen. Darüber hinaus erwarten<br />

wir einen Zusammenhang zum Rationalitätsbegriff. Vollkommen rationale<br />

Personen sollten von guten epistemischen Rechtfertigungen überzeugt<br />

werden können, wenn sie keine Gegenargumente anzubieten haben.<br />

Das ist aber vielleicht nicht so sehr eine Behauptung über die kausale<br />

Wirksamkeit von Rechtfertigungen in der Meinungsbildung, als vielmehr<br />

ein analytischer Bestandteil eines entsprechenden normativen Konzepts<br />

von Rationalität.<br />

Neben epistemischen Rechtfertigungen lassen sich also noch viele<br />

Beispiele anderer Rechtfertigungen finden, die im folgenden ebenso ausgeklammert<br />

werden sollen, wie die motivationalen Aspekte von Rechtfertigungen.<br />

Es wird nur um die Frage gehen, was eine gute Rechtfertigung<br />

ist, und nicht um die, von welchen Argumenten bestimmte Menschen<br />

sich besonders beeindrucken lassen. Epistemisch zu rechtfertigen<br />

sind – und das wurde in den Beispielen schon angedeutet – Aussagen<br />

oder Meinungen aus recht unterschiedlichen Bereichen. Im folgenden<br />

möchte ich mich vornehmlich mit Rechtfertigungen für empirische Meinungen<br />

beschäftigen, aber an vielen Stellen ist offensichtlich, daß zumindest<br />

wesentliche Strukturähnlichkeiten zu Rechtfertigungen von moralischen<br />

oder anderen nicht-empirischen Behauptungen gegeben sind.<br />

Allerdings treten für Begründungen normativer Behauptungen spezifische<br />

Probleme hinzu, die zunächst auszuklammern ein methodisches<br />

Gebot sein sollte. Die Moralphilosophie ist ein gutes Beispiel dafür, daß<br />

wir von Begründungen sprechen, die etwas mit der Richtigkeit moralischer<br />

Normen zu tun haben, obwohl die Frage, ob es so etwas wie ethisches<br />

Wissen und moralische Wahrheit gibt, recht umstritten ist. Was das<br />

genaue Ziel moralphilosophischer Begründungen von ethischen Normen<br />

sein soll, wenn wir nicht auch in einem anspruchsvollen nichtrelativistischen<br />

Sinn von moralischer Wahrheit sprechen möchten, ist ein schwieriges<br />

Problem der Metaethik. Das hat einige Moralphilosophen wie<br />

Brink (1989) zu der Ansicht des moralischen Realismus geführt. Für ihn<br />

kann auch im Bereich der Ethik die Suche nach Wahrheit eine geeignete<br />

Beschreibung unserer Praxis moralischen Räsonierens abgeben.<br />

a) Die Entwicklung einer diachronischen Kohärenztheorie<br />

Meine Argumentation für eine bestimmte „Ethik des Meinens“, nämlich<br />

eine Kohärenztheorie der Rechtfertigung, erfolgt in mehreren Schritten.<br />

In Kapitel (II) wird der metatheoretische oder metaphysische Hintergrund<br />

skizziert, vor dem die folgende Untersuchung stattfinden soll. In<br />

(II.A) wende ich mich als erstes gegen Versuche, die Erkenntnistheorie in


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 23<br />

radikaler Weise zu „naturalisieren“, wie wir sie etwa bei Quine finden,<br />

der die Erkenntnistheorie zur Gänze an die Naturwissenschaften delegieren<br />

möchten. Eine sorgfältige Unterscheidung zwischen Genese und<br />

Rechtfertigung von Meinungen bietet dabei immer wieder den besten<br />

Ausgangspunkt zur Zurückweisung naturalistischer Angriffe auf die philosophische<br />

Erkenntnistheorie, die im Unterschied zu rein naturwissenschaftlichen<br />

Forschungsvorhaben eine zum Teil normative Zielsetzung<br />

verfolgt. Ähnliche Einwände sind auch gegen Naturalisierungsvorstöße<br />

wie den der evolutionären Erkenntnistheorie wirksam, der darüber hinaus<br />

noch eine ganze Reihe inhärenter Probleme mit sich bringt.<br />

Zusätzlich zu dieser negativen Abgrenzung gegenüber radikalen naturalistischen<br />

Vorgehensweisen, beinhaltet Kapitel (II.A) auch die Ausarbeitung<br />

einer positiven Methodologie. Die Naturalisierung der Epistemologie<br />

wurde zumindest teilweise durch die Fehlschläge motiviert,<br />

die Erkenntnistheorie in Form einer ersten Philosophie zu begründen,<br />

und es bleibt daher die Frage offen, was an die Stelle der ersten Philosophie<br />

treten kann, wenn die Naturwissenschaften und ihre Methoden dafür<br />

ungeeignet erscheinen. Hier, wie auch für normative Theorien in der<br />

Ethik, scheint mir nur eine Form des von Goodman und Rawls propagierten<br />

reflektiven Gleichgewichts – das ich in seiner hier vertretenen<br />

Form auch als „methodologischen Naturalismus“ bezeichne – den richtigen<br />

Weg zu weisen.<br />

Das Kapitel (II.B) ist einer Bestimmung derjenigen Wahrheitskonzeption<br />

gewidmet, die mit der Redeweise von Wahrheitsindikatoren gemeint<br />

ist. Dabei wähle ich denselben Rahmen, in dem auch klassische erkenntnistheoretische<br />

Debatten geführt wurden, d.h. eine realistische Vorstellung<br />

von der Außenwelt gepaart mit einem realistischen Wahrheitsbegriff<br />

im Sinne einer Korrespondenzauffassung von Wahrheit. Allen noch<br />

so verlockenden Versuchen, den Einwänden des radikalen Skeptikers dadurch<br />

zu entkommen, daß man die Welt als wesentlich durch uns konstruiert<br />

ansieht oder Wahrheit als epistemisch ideale Rechtfertigung betrachtet,<br />

wird damit eine klare Absage zugunsten der klassischen Erkenntnisproblematik<br />

erteilt.<br />

Ehe ich zu einer direkten Untersuchung von Begründungsverfahren<br />

übergehen kann, werden in Kapitel (II.C) noch einige Grundfragen der<br />

Struktur unserer Meinungssysteme und ihrer Rechtfertigungsbeziehungen<br />

rekonstruiert, so etwa, daß Rechtfertigungen immer relativ zu einem<br />

bestimmten Hintergrundwissen bestehen. Bei Menschen setzt sich das zu<br />

einem großen Teil aus dem nicht unproblematischen impliziten Wissen<br />

zusammen. Für andere epistemische Subjekte wie z. B. Wissenschaftler-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 24<br />

gemeinschaften, die hier auch zugelassen werden sollen, ergeben sich dagegen<br />

völlig andere Probleme.<br />

Um zu einer einigermaßen realistischen Darstellung unseres Erkenntniserwerbs<br />

zu kommen, ist aber in jedem Fall ein Phänomen zu berücksichtigen,<br />

das ich als „erkenntnistheoretische Arbeitsteilung“ bezeichne.<br />

Schon der Spracherwerb aber auf jeden Fall der Wissenserwerb und die<br />

uns zur Verfügung stehenden epistemischen Rechtfertigungen unterliegen<br />

zu wesentlichen Teilen einer gesellschaftlichen Arbeitsteilung. Der<br />

methodologische Solipsismus Descartes verkennt, daß wir bereits zum<br />

Verständnis der Wörter, mit denen wir unsere Überzeugungen wiedergeben,<br />

auf sozial vermittelte Bedeutungen – etwa in Form der Putnamschen<br />

Stereotypen – angewiesen sind. Das gilt für die meisten Bereiche<br />

unseres Wissens. Sie sind nur als eine Form von gesellschaftlichem Wissen<br />

verfügbar, und eine Erkenntnistheorie, die diesem Phänomen nicht<br />

Rechnung tragen kann, gerät immer in die Gefahr, dem Erkenntnissubjekt<br />

eine Herkulesarbeit aufzubürden.<br />

Diese Vorarbeiten sind zwar langwierig, aber notwendig, um im folgenden<br />

einer Reihe von Einwänden und Mißverständnissen begegnen zu<br />

können. Erst in Kapitel (III) beginnt eine direkte Argumentation für die<br />

Kohärenztheorie, indem ihr Hauptkonkurrent, der fundamentalistische<br />

Ansatz, bekämpft wird. Dazu wird zunächst einmal die heutzutage für<br />

Fundamentalisten gebräuchliche externalistische Variante ihrer Rechtfertigungsstrategie<br />

zurückgewiesen; jedenfalls für den Bereich der epistemischen<br />

Rechtfertigungen, denn für das Projekt der Wissensexplikation<br />

sind externalistische Schachzüge kaum noch wegzudenken. Für die Ausarbeitung<br />

einer Rechtfertigungstheorie erweist sich das externalistische<br />

Vorgehen allerdings als eine glatte Themaverfehlung. Mit dieser generellen<br />

Argumentation gegen alle externalistischen Schachzüge, die in verschiedenen<br />

Variationen immer wieder in fundamentalistischen Erkenntnistheorien<br />

auftreten, untergrabe ich gleichzeitig das wichtigste Standbein<br />

der empiristischen Epistemologie.<br />

Die Festlegung auf nicht-externalistische Rechtfertigungen verringert<br />

also die Attraktivität fundamentalistischer Ansätze im allgemeinen. Sie<br />

können dann keine überzeugende Antwort auf die Frage geben, welcher<br />

Art die Rechtfertigungen ihrer basalen Meinungen sind. Dadurch verlieren<br />

sie auch die Unterstützung ihres wichtigsten Arguments, dem Regreßargument,<br />

weil sie selbst keine stichhaltige Lösung für einen Stopp des<br />

Regresses mehr anzubieten haben. Dazu kommt eine Reihe interner Probleme,<br />

wie ihre implizite Annahme, es gäbe natürliche epistemische Arten<br />

von Aussagen, die sich anhand von Beispielen als unplausibel heraus-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 25<br />

stellt. Da sie darüber hinaus noch nicht einmal andere erkenntnistheoretische<br />

Ziele wie die Irrtumssicherheit ihrer fundamentalen Aussagen (etwa<br />

im Phänomenalismus) gewährleisten können, führt das letztlich zu einer<br />

Zurückweisung der Konzeption basaler Überzeugungen.<br />

Demnach ist jede unserer Meinungen im Prinzip anhand anderer<br />

Meinungen begründungspflichtig, und die einzige Metatheorie, die diesem<br />

Erfordernis Rechnung trägt, ist eine Kohärenztheorie der Rechtfertigung.<br />

Sie wird in Kapitel (IV) entwickelt und selbst begründet. Dafür ist<br />

als erstes zu klären, was Kohärenz über bloße Konsistenz hinaus ist, worauf<br />

meine Antwort lautet: Ein Netz von Abduktionsbeziehungen, das<br />

über einen gewissen Zeitraum hinweg stabil geblieben ist. Kohärenz<br />

setzt sich dabei aus verschiedenen Aspekten der relationalen und systematischen<br />

Kohärenz zusammen, die außer der Güte der Einbettung einer<br />

Meinung in ein Netzwerk von Meinungen auch holistische Beurteilungen<br />

der globalen Kohärenz dieses Systems von Meinungen berücksichtigten.<br />

Neben einer Reihe von Überlegungen und Beispielen, die die intuitive<br />

Kraft dieser Kohärenztheorie belegen sollen, zeigt die Kohärenztheorie<br />

ihre Leistungsfähigkeit speziell in der bisherigen Domäne der empiristischen<br />

Theorien, den Beobachtungsaussagen. Für sie stütze ich mich<br />

auf die von BonJour entwickelte kohärenztheoretische Begründung von<br />

Wahrnehmungsaussagen, die auch das besondere Irrtumsrisiko bestimmter<br />

Typen von Beobachtungsaussagen besser als empiristische Konzeptionen<br />

erklären kann.<br />

Abgeschlossen wird die Ausgestaltung der Kohärenztheorie in Kapitel<br />

(V) mit einer Beantwortung der Standardeinwände, die gegen Kohärenztheorien<br />

erhoben werden. Da ist in erster Linie wieder das schon erwähnte<br />

Regreßargument zu nennen, das gerade Fundamentalisten gerne<br />

für ihre Position zitieren. Doch relativ zur Antwort des Fundamentalisten<br />

hat die Kohärenztheorie die eindeutig informativere Antwort anzubieten<br />

und kann darüber hinaus eine falsche Voraussetzung des Regreßarguments<br />

entlarven. Zusätzlich verstärke ich an diesem Punkt die Kohärenztheorie<br />

durch den epistemologischen Konservatismus, der noch<br />

einmal den diachronischen Charakter der Rechtfertigungstheorie betont.<br />

b) Metarechtfertigungen<br />

Im Verlauf der Ausarbeitung meiner Rechtfertigungstheorie wird die<br />

Plausibilität bestimmter Rechtfertigungsverfahren immer schon ein Thema<br />

sein – wie für die Wissensexplikation die Auseinandersetzung mit<br />

den Gettierschen Beispielen. Trotzdem bleibt noch Raum für ein eigenständiges<br />

drittes Projekt innerhalb der Erkenntnistheorie, das „Meta-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 26<br />

rechtfertigung“ genannt wird. Für das entwickelte Rechtfertigungsverfahren<br />

soll gezeigt werden, daß es sich tatsächlich um einen Vorschlag<br />

für epistemische Rechtfertigungen handelt, d.h. ein Verfahren, das auf<br />

Wahrheit abzielt. Spätestens in diesem Rahmen haben wir uns mit den<br />

verschiedenen Formen des Skeptizismus auseinanderzusetzen, der das<br />

ganze erkenntnistheoretische Unternehmen bedroht. Der Skeptiker kann<br />

sich auf den vorgegebenen Rahmen einer realistischen Auffassung der<br />

Welt und den korrespondenztheoretischen Wahrheitsbegriff berufen, der<br />

immer eine Lücke zwischen unseren gerechtfertigten Überzeugungen<br />

und der Wahrheit läßt, von der der Skeptiker behauptet, wir könnten sie<br />

nicht überwinden.<br />

In meiner Antwort auf den Skeptizismus beschränke ich mich darauf,<br />

Erwiderungen auf zwei Typen von Skeptikern zu formulieren, nämlich<br />

einen Cartesianischen radikalen Skeptiker und einen sehr gemäßigten<br />

Skeptiker, der unsere Überzeugungen über unsere kausale Stellung in der<br />

Welt nicht gänzlich in Frage stellt. In beiden Fällen betrachte ich die<br />

skeptischen Einwände aber als sowohl verständliche wie auch berechtigte<br />

Herausforderungen, denen nicht leicht zu begegnen ist.<br />

Ein reflektives Unternehmen wie das der Metarechtfertigung wird<br />

dabei mit dem Problem konfrontiert, wie sich Behauptungen im Rahmen<br />

einer Metarechtfertigung selbst begründen lassen. Dazu wiederum auf<br />

die explizierten Rechtfertigungsverfahren zurückzugreifen, erscheint zirkulär.<br />

Zu Metarechtfertigungsverfahren Zuflucht zu nehmen, scheint<br />

nur auf einen Regreß immer höherer Ebenen zu führen. Trotzdem ist<br />

man natürlich auf den Einsatz bestimmter grundlegender Rechtfertigungsmöglichkeiten<br />

angewiesen. Dazu untersuche ich unter anderem<br />

eine bestimmte apriorische Anwendung des Schlusses auf die beste Erklärung,<br />

deren Schwachpunkte ich aufzeigen werde, und zu der ich eine<br />

Alternative vorschlagen möchte.<br />

B. Wissenschaftliche Theorien und Erklärungen<br />

Die von mir vertretene Kohärenztheorie der Rechtfertigung bestimmt<br />

Kohärenz wesentlich als Erklärungskohärenz. Dabei blieb jedoch der Erklärungsbegriff<br />

selbst noch relativ unexpliziert. Diesen weißen Fleck<br />

auszufüllen ist die Aufgabe der letzten drei Kapitel meiner Arbeit, in denen<br />

ich aus den bereits genannten Gründen den Schwerpunkt der Explikation<br />

auf die wissenschaftlichen Erklärungen lege.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 27<br />

1. Theorien und ihre innere Struktur<br />

Für sie wird noch deutlicher als etwa für Alltagserklärungen, wie sehr<br />

sie auf wissenschaftliche Theorien angewiesen sind. Allerdings zeigt sich<br />

schon in der allgemeinen Erkenntnistheorie, daß wir uns in den Begründungen<br />

einer Meinung immer auf allgemeine Annahmen oder „kleine<br />

Theorien“ stützen müssen. Schon aus diesem Grund lohnt es sich, die<br />

Explikation von „Erklärungskohärenz“ mit einer Untersuchung von<br />

Theorien und ihren Leistungen für den Zusammenhalt unseres Wissens<br />

zu beginnen (Kap. VII). Bei der Untersuchung, was Theorien sind, präsentieren<br />

sie sich keineswegs als eine nahezu amorphe Menge von Sätzen,<br />

wie es etwa noch von den logischen Empiristen oder den Popperianern<br />

angenommen wurde. Vielmehr weisen sie eine Vielzahl von inneren<br />

Komponenten auf. Die ermöglichen es ihnen, anhand eines komplizierten<br />

Zusammenspiels, Beobachtungsdaten aber auch andere Theorien<br />

in einen Zusammenhang zu stellen. Um die innere Struktur von Theorien<br />

und das Zusammenwirken der Komponenten verstehen zu können,<br />

setze ich die sogenannte strukturalistische Auffassung von Theorien ein,<br />

die auf Arbeiten von Suppes und Sneed zurückgeht und in Deutschland<br />

vor allem durch Wolfgang Stegmüller Verbreitung fand. Diese semantische<br />

Konzeption versucht anhand von Fallstudien – aus inzwischen fast<br />

allen Wissenschaftsbereichen (s. dazu Diederich/Ibarra/Mormann 1989)<br />

– die Funktionsweise von Theorien zu erfassen, indem sie den Informationsflüssen<br />

innerhalb von Theorien und zwischen Theorien nachgeht.<br />

Theorien sind demnach hierarchisch aufgebaute Netze, die mit Hilfe von<br />

Grundgesetzen und Spezialgesetzen, innertheoretischen und intertheoretischen<br />

Brückenstrukturen sowie durch die Einführung theoretischer<br />

Obermodelle versuchen, eine systematische Konzentration unserer Erkenntnisse<br />

zu erreichen. Aufgrund dieser differenzierten Sicht von Theorien<br />

läßt sich der empirische Gehalt, d.h. die mit einer Theorie aufgestellte<br />

Behauptung über die Welt, präzisieren. Es werden dabei viele metatheoretische<br />

Phänomene zugänglich, wie z. B. die Bedeutung der allgegenwärtigen<br />

Approximationen in quantitativen empirischen Theorien<br />

für ihren Gehalt. Der ist wiederum eng verbunden mit der Erklärungsstärke<br />

und den Erklärungsspielräumen der Theorie, die sich in diesem<br />

Rahmen ebenfalls bestimmen lassen.<br />

2. Unterschiedliche Erklärungskonzeptionen<br />

In den Kapiteln (VIII) und (IX) entwickle schließlich ich meine Antwort<br />

auf die Fragen, wieso wir für Erklärungen auf Theorien angewiesen sind<br />

und was unter einer Erklärung zu verstehen ist. Dazu nenne ich neben


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 28<br />

der epistemischen Funktion, die Erklärungen zu erfüllen haben – die im<br />

erkenntnistheoretischen Teil der Arbeit bereits ausführlich erörtert wurde<br />

– eine andere wesentliche Funktion von Erklärungen: Sie sollen uns<br />

zu einem Verständnis bestimmter Vorgänge verhelfen. Der Verstehensbegriff<br />

ist seinerseits erläuterungsbedürftig, wobei ich an Explikationsvorschläge<br />

von Michael Friedman und Karel Lambert anknüpfe.<br />

Unter diesen Gesichtspunkten – und natürlich auch anhand von Beispielen<br />

– werden unterschiedliche wissenschaftstheoretische Ansätze bewertet,<br />

für die ich mit dem klassischen deduktiv nomologischen Erklärungsschema<br />

von Hempel und seinen Schwierigkeiten den Anfang mache.<br />

Einige grundlegende Fragen der Debatte lassen sich bereits an diesem<br />

Schema erörtern. So argumentiere ich mit Beispielen aus der Wissenschaftspraxis<br />

gegen Hempel dafür, daß Naturgesetze weder notwendige<br />

noch hinreichende Bestandteile von Erklärungen darstellen; und<br />

auch Hempels Berufung auf elliptische oder statistische Erklärungen vermag<br />

die nomologische Sichtweise von wissenschaftlichen Erklärungen<br />

nicht zu retten.<br />

Entsprechende Einsichten und vor allem Probleme der Kontextabhängigkeit<br />

von Erklärungen waren der Anlaß für die Entwicklung von<br />

pragmatischen Erklärungstheorien. Die Einbeziehung pragmatischer<br />

Aspekte von Erklärungen stellt unbestritten eine fruchtbare Ergänzung<br />

einer Explikation von Erklärung dar. Sie kann aber nicht die Aufgabe ablösen,<br />

objektive Beziehungen zwischen Explanans und Explanandum zu<br />

ermitteln. Deshalb werden zwei prominente Ansätze zur Charakterisierung<br />

objektiver Erklärungsbeziehungen daraufhin untersucht, ob sie erfolgreich<br />

die Nachfolge der Hempelschen Theorie antreten können. Das<br />

ist zum einen die kausale Erklärungstheorie, für die Erklärungen eines<br />

Ereignisses in der Angabe seiner Ursachen bestehen (Kap. VIII) und zum<br />

anderen die Vereinheitlichungskonzeption von Erklärung, für die Erklärungen<br />

zwar weiterhin Deduktionen à la Hempel sind, aber nur solche<br />

Deduktionen eine Erklärungsleistung erbringen, die vereinheitlichende<br />

und systematisierende Funktionen in einem bestimmten Sinn besitzen<br />

(Kap. IX).<br />

Für die kausalen Ansätze spricht insbesondere, daß sie die Asymmetrie<br />

der Erklärungsbeziehung nachzuzeichnen gestatten und wir intuitiv<br />

in vielen Fällen eine Aufdeckung von Ursachen als erklärend ansehen.<br />

Das größte Problem, vor dem jede heutige kausale Erklärungstheorie zu<br />

bestehen hat, ist jedoch die Analyse von Kausalität selbst. Sie muß auf<br />

der einen Seite die meisten Fälle heutiger wissenschaftlicher Erklärungen<br />

abdecken können und auf der anderen Seite trotzdem noch inhalt-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 29<br />

lich hinreichend bestimmt sein, daß der Ausdruck „x ist Ursache von y“<br />

nicht zu einer bloßen Leerformel verfällt. Einer der prominentesten Versuche,<br />

diesen Erfordernissen gerecht zu werden, der von Wesley Salmon<br />

stammt, stellt eine Analyse von kausalen Prozessen und ihren Interaktionen<br />

ins Zentrum. Ihn unterziehe ich einer detaillierten Kritik.<br />

Allgemein schätze ich die Vorgehensweise der Proponenten kausaler<br />

Erklärungstheorien als nicht sehr erfolgversprechend ein, wenn es darum<br />

geht, eine vollständige Erklärungstheorie zu entwickeln, denn es gibt<br />

bereits zu viele Beispiele von nichtkausalen Erklärungen, die als wissenschaftliche<br />

„Erklärungen“ nicht weniger überzeugend wirken als ihre<br />

kausalen Amtsbrüder. Auf entsprechende Beispiele stoßen wir bevorzugt<br />

in bestimmten Bereichen der Wissenschaft wie etwa der Evolutionstheorie<br />

oder in den Gesellschaftswissenschaften. Aber auch in zentralen Feldern<br />

der heutigen Physik finden wir mit der Quantenmechanik eine genuin<br />

statistische Theorie, die sich noch nicht einmal mehr in eine statistische<br />

Kausalvorstellung wie das „Common-Cause“ Modell zwängen<br />

läßt. Die kausale Erklärungstheorie deckt daher zwar einen wichtigen<br />

Teilbereich von wissenschaftlichen Erklärungen ab, kann aber nicht beanspruchen,<br />

allgemein zu bestimmen, was unter „Erklärung“ zu verstehen<br />

ist. Das ist auch nicht verwunderlich, denn eine Untersuchung allein<br />

der recht unterschiedlichen in der Physik vertretenen Modelle von Kausalität<br />

ergibt keine gehaltvollen Gemeinsamkeiten mehr, auf die eine<br />

Theorie kausaler Erklärungen aufbauen könnte. Die Kausalitätskonzeption<br />

erweist sich eher als ein Familienähnlichkeitsbegriff, der für eine Erläuterung<br />

des Erklärungsbegriffs zu wenige Gemeinsamkeiten für alle<br />

Typen kausaler Beziehungen mit sich bringt.<br />

Umfassender gelingt es dagegen den Vereinheitlichungskonzeptionen,<br />

heutige wissenschaftliche Erklärungen in einer Theorie zu erfassen. Das<br />

konnten insbesondere Friedman und Kitcher in einer Reihe von Fallstudien<br />

zeigen. Für sie gibt die Systematisierungsleistung von Theorien zugleich<br />

an, in welchem Maß sie unser Verständnis befördern und zur Erklärung<br />

der Welt beitragen. Beide haben denn auch in diesem Rahmen<br />

Explikationsvorschläge vorgelegt, die allerdings bei genauerer Analyse<br />

ebenfalls gravierende Mängel aufweisen.<br />

Für Friedman werden in wissenschaftlichen Erklärungen typischerweise<br />

nicht Einzelereignisse, sondern Phänomene, also allgemeinere Ereignistypen,<br />

erklärt. Wissenschaftliche Erklärungen bewirken nach Friedman<br />

vor allem eine Reduktion der Vielzahl von Phänomenen auf wenige<br />

grundlegende. Das versucht er am Beispiel der kinetischen Gastheorie zu<br />

belegen. Aber seine formale Explikation von Vereinheitlichung, die auf


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 30<br />

eine Zählung von Phänomenen angewiesen ist, weist schwerwiegende<br />

Defekte auf, die Kitcher schon bald aufdecken konnte. Trotzdem erfaßt<br />

Friedmans Konzeption wesentliche Ideen der Vereinheitlichung und<br />

kann als Wegweiser in die richtige Richtung dienen.<br />

Einen anderen Weg zur Charakterisierung von Vereinheitlichung beschreitet<br />

Kitcher selbst, für den unsere besten wissenschaftlichen Erklärungen<br />

gerade darauf beruhen, daß wir mit nur wenigen Argumenttypen<br />

auskommen, um eine Vielzahl von Phänomenen abzuleiten. Statt der Reduktion<br />

vieler Phänomene auf wenige, besteht für Kitcher das Ziel der<br />

Vereinheitlichung in der Reduktion der (erklärenden) Argumente auf einige<br />

wenige Typen von Argumenten – Kitcher spricht hier von „Argumentschemata“.<br />

Diese Typen werden im wesentlichen beschrieben durch<br />

die Grundgleichungen zentraler Theorien wie die Newtonschen<br />

Axiome. Kitcher lenkt unseren Blick von den Dingen, die vereinheitlicht<br />

werden, stärker auf die Art und Weise, wie wir sie mit Hilfe von Gesetzen<br />

vereinheitlichen. Das ist eine hilfreiche Ergänzung der Friedmanschen<br />

Ideen.<br />

Dabei betont auch Kitcher wie schon Friedman die Bedeutung holistischer<br />

Zusammenhänge für die Beurteilung von Erklärungen. Ob ein<br />

einzelner Erklärungsvorschlag eine gute Erklärung darstellt oder nicht,<br />

ist demnach nicht allein anhand seiner Struktur zu erkennen (astrologische<br />

Erklärungen können dieselbe Struktur aufweisen wie vorzügliche<br />

wissenschaftliche), sondern nur an seiner Einbettung in größere Zusammenhänge.<br />

Für seine Konzeption sprechen seine Fallstudien von wissenschaftlichen<br />

Theorien, deren Erklärungskraft er in seinem Ansatz überzeugend<br />

zu rekonstruieren weiß.<br />

Probleme treten allerdings wiederum in der Präzisierung dieser Idee<br />

von Vereinheitlichung auf. Um etwa der Gefahr durch triviale Argumentmuster<br />

zu entgehen – Kitcher spricht auch von „unechter Vereinheitlichung“<br />

–, muß er für seine Argumentmuster eine gewisse „Stringenz“<br />

verlangen, für deren Explikation er sich auf die Inhalte der Theorien<br />

zu beziehen hat. Das fällt ihm ausgesprochen schwer, da seine Konzeption<br />

eher auf einer abstrakteren Beurteilungsebene angesiedelt ist<br />

und er auch über keine ausgearbeitete Konzeption der inneren Struktur<br />

von Theorien verfügt. Hier kann die strukturalistische Wissenschaftsauffassung<br />

bessere Resultate erzielen und eine Bestimmung der Stringenz<br />

von Theorien auf eine Untersuchung ihres empirischen Gehalts zurückführen.<br />

Dabei wird der Schritt von einer eher syntaktischen Analyse bei<br />

Kitcher zu einer semantischen oder modelltheoretischen Auffassung im<br />

Sinne des Strukturalismus notwendig.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 31<br />

Außerdem gelingt es Kitcher nicht, ein Phänomen einzufangen, das<br />

man besonders für hochentwickelte quantitative Theorien – die Kitcher<br />

nicht untersucht – und ihre Dynamik beobachten kann, nämlich das des<br />

Fortschritts durch Verkleinerung der notwendigen Unschärfemengen und<br />

Approximationen einer Theorie. Um dieses wissenschaftliche Phänomen<br />

der geringeren Unschärfen korrekt zu rekonstruieren, bedarf es ebenso<br />

einer semantischen Sichtweise auf Theorien wie an anderen Stellen. Das<br />

spricht wiederum für eine modelltheoretische Analyse, da diese Approximationen<br />

und ihre Bedeutung für den empirischen Gehalt einer Theorie<br />

exakt zu erfassen vermag.<br />

Eine noch stärkere Abkehr von der Kitcherschen Konzeption wird<br />

schließlich notwendig, weil Kitcher dem „Deduktions-Chauvinismus“<br />

verhaftet bleibt und nur deduktive Argumente für ihn wirklich erklärend<br />

sind. Doch viele Erklärungen in den Wissenschaften entsprechen nicht<br />

dieser Vorstellung: etwa in den Geschichtswissenschaften oder in den<br />

Fällen statistischer Theorien.<br />

Die semantische Theorienauffassung bietet dazu eine Lösung, die sowohl<br />

deduktive wie auch nichtdeduktive Erklärungen unter eine Konzeption,<br />

nämlich die der Einbettung in ein Modell, bringen kann. Das ist<br />

die Erklärungstheorie, die ich im letzten Kapitel der Arbeit ausarbeite.<br />

Sie ist nicht mehr dem Deduktions-Chauvinismus verpflichtet und kann<br />

von Einbettungen nicht nur im logisch präzisen Begriffsapparat der Modelltheorie<br />

sprechen, sondern auch in informellen Kontexten, in denen<br />

wir Erklärungsmodelle nur informell beschreiben oder vielleicht nur mit<br />

Analogiemodellen arbeiten. So läßt sich auch verstehen, inwiefern Alltagserklärungen<br />

als die informellen Vorläufer wissenschaftlicher Erklärungen<br />

zu betrachten sind und wo die Vorteile der letzteren liegen.<br />

Überdies gelingt es der semantischen Einbettungstheorie, die drei zentralen<br />

Beurteilungsdimensionen einer Vereinheitlichungskonzeption von<br />

Erklärung zu bestimmen, die man als ihre Systematisierungsleistung, ihre<br />

Stringenz (bzw. ihren Informationsgehalt) und ihre organische Einheitlichkeit<br />

bezeichnen kann. In dieser Analyse kann ich weiterhin das schon<br />

erwähnte Phänomen der Approximationen präzise behandeln und darüber<br />

hinaus eine andere in der Erklärungsdebatte schon mehrfach erhobene<br />

Forderung einlösen, nämlich zu ermitteln, welchen Beitrag die unterschiedlichen<br />

Theoriekomponenten zu einer Erklärung leisten. Dazu<br />

präsentiere ich eine Erklärungstheorie, die die vereinheitlichende Funktion<br />

der verschiedenen Teile einer (wissenschaftlichen) Theorie angibt.<br />

Sie schließt so die noch verbliebene Lücke in der diachronischen Kohärenztheorie<br />

der Rechtfertigung, die der intuitive und nicht weiter präzi-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 32<br />

sierte Gebrauch des Erklärungskonzepts dort hinterlassen hatte. Dabei<br />

lassen sich mit der neuen Erklärungskonzeption außerdem viele der alten<br />

Probleme lösen, auf die das DN-Schema der Erklärung keine Antworten<br />

geben konnte.<br />

Es ist das Ziel dieses Buchs, ein Forschungsprogramm vorzustellen,<br />

das in konstruktiver Weise eine Kohärenztheorie der Rechtfertigung entwickelt,<br />

einen weitergehenden Vorschlag in der Debatte um wissenschaftliche<br />

Erklärungen gibt und darüber hinaus die engen Beziehungen<br />

dieser beiden Projekte deutlich macht. Natürlich kann ein so umfassendes<br />

Forschungsprogramm nicht mit einer Monographie als abgeschlossen<br />

angesehen werden, sondern bietet an nahezu allen Stellen Raum für<br />

eine weitere Ausarbeitung sowie zahlreiche Anhaltspunkte für Auswirkungen<br />

auf „Nebenkriegsschauplätze“, denen ich hier noch nicht nachgehen<br />

konnte. Ich bitte den Leser daher um Verständnis, daß ich die Diskussionen<br />

an vielen Stellen nicht vertiefe, obwohl das naheliegend erscheint.<br />

Das habe ich vor allem dort nicht getan, wo ich den Eindruck<br />

hatte, die mir zur Zeit bekannten weitergehenden Analysen würden<br />

zwar hilfreiche Differenzierungen vornehmen, aber keine neuen konstruktiven<br />

Resultate für die Kohärenz- und Erklärungstheorie bieten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 33<br />

II Der metatheoretische Rahmen<br />

Ehe ich in die erkenntnistheoretische Diskussion um konkrete Ansätze<br />

für Rechtfertigungstheorien einsteige, sind einige Vorüberlegungen über<br />

die Rahmenbedingungen angebracht, unter denen diese Diskussion stattfinden<br />

soll. Im Teil (A) dieses Kapitels wird es daher um den methodologischen<br />

Rahmen der Arbeit gehen. Neben der Verteidigung gegen einen<br />

radikalen Skeptiker muß jede Rechtfertigungskonzeption auch gegenüber<br />

Konkurrenztheorien begründet werden. Doch wie kann man dabei<br />

vorgehen, auf welches Begründungsverfahren können wir uns berufen,<br />

wenn wir erst noch zu entscheiden haben, welches Verfahren tatsächlich<br />

Wahrheitsindikatoren liefert? Zunächst weise ich einige naturalistische<br />

Strategien zurück, die zu diesem Zweck vorgeschlagen wurden, aber<br />

schließlich trete ich für einen moderaten „methodologischen Naturalismus“<br />

ein. Der Abschnitt (B) betrifft den semantisch-metaphysischen Rahmen,<br />

in dem die erkenntnistheoretischen Fragestellungen angesiedelt<br />

werden. Den Hintergrund der klassischen Erkenntnistheorie – auf den<br />

ich mich ebenfalls verpflichten werde – bilden korrespondenztheoretische<br />

und realistische Auffassungen, deren erkenntnistheoretische Bedeutung<br />

ich anhand einer kurzen Betrachtung der Alternativen verdeutlichen<br />

möchte. Der letzte größere Abschnitt (C) ist dem empirisch-deskriptiven<br />

Hintergrund gewidmet, der die grundlegende Struktur von Meinungssystemen<br />

auf einer phänomenologischen Ebene beschreibt und die<br />

für mein Unternehmen wesentlichen Elemente in Erinnerung ruft. Einige<br />

der Punkte, die in diesem Kapitel zur Sprache kommen, werden dem<br />

einen oder anderen recht selbstverständlich erscheinen – das hoffe ich<br />

sogar –, trotzdem werden alle genannten Punkte in der erkenntnistheoretischen<br />

Diskussion an bestimmten Stellen vernachlässigt, übersehen<br />

oder sogar explizit abgestritten. Deshalb ist es erforderlich, diesen Rahmen<br />

noch einmal explizit anzugeben und kurz zu seinen Gunsten zu plädieren.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 34<br />

A. Zur Naturalisierung der Erkenntnistheorie<br />

Schon in der Einleitung habe ich darauf hingewiesen, daß ich mit einer<br />

naturalistischen Vorgehensweise in der Erkenntnistheorie sympathisiere,<br />

mich aber in späteren Phasen meines Projekts von einer rein naturalistischen<br />

Methodologie lösen möchte. Mein Verhältnis zur naturalistischen<br />

Vorgehensweise genauer zu bestimmen, ist für den Fortgang der<br />

Untersuchung unerläßlich, und ich möchte deshalb den systematischen<br />

Teil meiner Arbeit damit beginnen. Unter einer Naturalisierung der Erkenntnistheorie<br />

werden von Philosophen leider recht unterschiedliche<br />

Dinge verstanden. Der wohl radikalste Naturalist der heutigen Erkenntnistheorie<br />

ist der amerikanische Philosoph Willard van Orman Quine,<br />

für den die Erkenntnistheorie ein Projekt ist, das die Philosophie besser<br />

gleich an die Naturwissenschaft – vermutlich die empirische Psychologie<br />

– abgeben sollte. Eine Beschäftigung mit Quines radikalen Ansichten<br />

wird daher den Ausgangspunkt meiner Stellungnahme zum Naturalismus<br />

bilden.<br />

Neben Quine firmieren allerdings auch noch moderatere Naturalisten<br />

unter diesem Stichwort. Grundsätzlich läßt sich der epistemologische<br />

Naturalismus am besten als eine Ansicht darüber klassifizieren, wie<br />

man in der Erkenntnistheorie vorzugehen hat, also als eine Art von Meta-Erkenntnistheorie<br />

oder Methodologie der Erkenntnistheorie. Keith<br />

Lehrer (1990, 154) faßt darunter alle Positionen, die die Erkenntnistheorie<br />

allein durch natürliche Begriffe wie den der kausalen Beziehungen<br />

analysieren oder sogar vollständig auf solche Begriffe reduzieren<br />

wollen. Dazu gehören dann vor allem die externalistischen Positionen,<br />

denen ich das Kapitel (III.A) gewidmet habe. Trotzdem gehört für diese<br />

Autoren eine Analyse, wie eine dritte Bedingung für Wissen auszusehen<br />

hat, sehr wohl noch zur Erkenntnistheorie philosophischer Prägung. Sie<br />

verlangen nur, daß diese Bedingung sich wesentlich auf kausale Zusammenhänge<br />

stützen muß. Eine Überzeugung, die Wissen darstellen soll,<br />

muß auf „zuverlässige Weise“ durch unsere Umwelt verursacht sein (s.<br />

III.A). Natürlich gehört dann die Untersuchung, ob diese Beziehung in<br />

einem konkreten Einzelfall besteht, ganz in den Zuständigkeitsbereich<br />

des Naturwissenschaftlers. Aber die Präzisierung der Bedingung selbst<br />

verbleibt innerhalb der Philosophie.<br />

Devitt (1991, Kap. 5.8) bestimmt den Begriff des Naturalismus noch<br />

liberaler: Zunächst beginnt man mit einer Beschreibung der tatsächlich<br />

akzeptierten epistemischen Verfahren und Bewertungen. Das ist ein<br />

„low-level“ empirisches Unternehmen. In einem zweiten Schritt wird


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 35<br />

man versuchen, anhand von Konsistenz- und Kohärenzüberlegungen<br />

Kriterien für gute und schlechte Rechtfertigungen anzugeben. Das ist<br />

eine vage Beschreibung eines Projekts, das zumindest durch seinen metatheoretischen<br />

Status und seine eindeutig normativen Aspekte im zweiten<br />

Schritt nicht in den gewöhnlichen Zuständigkeitsbereich der Naturwissenschaften<br />

fällt. Unter dieses Verständnis von naturalistischer Erkenntnistheorie<br />

gehört auch das von Rawls propagierte Verfahren zur Begründung<br />

normativer Aussagen, das Rawls (1979, 38) selbst als „reflective<br />

equilibrium“ bezeichnet. In diesem recht liberalen Sinn von Naturalismus,<br />

in dem man zwar mit einer Beschreibung unserer tatsächlichen epistemischen<br />

Begründungspraxis startet, aber dann mit Hilfe des Verfahrens<br />

eines reflektiven Gleichgewichts zu einer normativen Theorie gelangt,<br />

möchte auch ich mich als Naturalisten bezeichnen. Diese stellt allerdings<br />

eindeutig keine naturwissenschaftliche Theorie mehr dar, sondern<br />

eine Metatheorie mit normativer Kraft. Da es sich hierbei um einen<br />

Naturalismus handelt, der unsere tatsächlichen Bewertungsmethoden<br />

zum Ausgangspunkt nimmt, spreche ich manchmal auch von „methodologischem<br />

Naturalismus“. Das dient zugleich einer Abgrenzung von den<br />

radikalen Naturalisierungsversuchen Quines.<br />

1. Genese und Rechtfertigung<br />

Als Ausgangspunkt der Erörterung soll die alte Unterscheidung zwischen<br />

den zwei Fragen dienen, die man beide mit einer Äußerung wie: „Warum<br />

glaubst Du das?“ meinen kann. Die eine fragt danach, wie es dazu kam,<br />

daß man eine bestimmte Meinung annahm, während die andere fragt,<br />

welche Rechtfertigungen man für diese Meinung besitzt. Daß die Antworten<br />

auf diese beiden Fragen keineswegs immer identisch sein müssen,<br />

können viele Beispiele illustrieren. Nehmen wir an, ich halte die politische<br />

Partei X für die beste Partei. Auf die erste Frage, wie ich zu dieser<br />

Ansicht kam, könnte ich z. B. antworten: Meine Eltern fanden die<br />

Partei X schon immer am besten, und ich übernahm früher alle Ansichten<br />

von meinen Eltern, unter anderem auch diese. Das scheint eine annehmbare<br />

Antwort auf die erste Frage zu sein, ist aber nicht befriedigend<br />

als Antwort auf die zweite Frage, wie ich meine Behauptung, die<br />

Partei X sei die beste, begründen kann. Solange ich meine Eltern nicht<br />

in politischen Fragen für besonders kompetent halte – und das war hier<br />

nicht vorausgesetzt –, erwarte ich auf die zweite Frage eine Antwort<br />

ganz anderer Art. Etwa eine Erklärung, wieso ich die Mietrechtspolitik<br />

und andere Vorhaben der Partei X für besonders gut halte oder Ähnliches.<br />

Die erste Antwort gibt mir sozusagen den kausalen Weg an, auf


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 36<br />

dem ich zu dieser Meinung gelangt bin und bezieht sich damit auf Vergangenes,<br />

während die zweite Antwort nach der Verankerung dieser<br />

Meinung in meinem heutigen Überzeugungssystem fragt. Beide exemplarisch<br />

vorgeschlagenen Antworten können daher auch nebeneinander bestehen<br />

und zugleich wahr sein. Meine Vorliebe für die Partei X kann einfach<br />

aus der Übernahme der Ansichten meiner Eltern entstanden sein,<br />

aber gerechtfertigt ist sie heute durch eine detaillierte Analyse der Politik<br />

von X.<br />

Das Phänomen des Auseinanderklaffens der Entstehung einer Meinung<br />

und ihrer Rechtfertigung findet sich natürlich nicht nur im Alltag,<br />

sondern genauso in den Wissenschaften. Der Chemiker Kekulé, der das<br />

System der chemischen Strukturformeln entwickelt hat, beschrieb einige<br />

Jahre später, wie er im Jahre 1865 die spezielle Strukturformel für das<br />

von Faraday entdeckte Benzol fand. Während einer Reise hatte er einen<br />

Tagtraum, in dem Ketten aus Kohlenstoffatomen wie lebende Wesen<br />

herumtanzten und sich plötzlich zusammenrollten wie eine Schlange. Da<br />

kam er auf den entscheidenden Gedanken: Das Benzolmolekül mußte<br />

ringförmig sein. Diese Überzeugung Kekulés konnte er später anhand einer<br />

entsprechenden Strukturformel und vieler Daten bestätigen. 1 Auch<br />

in diesem Beispiel finden wir eine Antwort auf die erste Frage, die nur<br />

wenig mit der Antwort auf die zweite Frage gemein hat.<br />

Man sollte die Fragen der Genese einer Meinung und die ihrer Rechtfertigung<br />

wenigstens zu Beginn einer Analyse der Struktur unserer Erkenntnis<br />

voneinander trennen, und es werden gute Argumente erforderlich,<br />

wenn man trotzdem behaupten möchte, daß die Antworten auf die<br />

beiden Fragen zusammenfallen. Dabei ist offensichtlich, daß die erste<br />

Frage keine genuin philosophische Frage ist, sondern eher in den Bereich<br />

der empirischen Psychologie fällt. Das ist für die zweite Frage aber<br />

alles andere als selbstverständlich, und Quines Plädoyer für eine naturalisierte<br />

Erkenntnistheorie lebt zuweilen davon, daß er diese beiden Fragen<br />

nicht klar genug unterscheidet. Quines Position wurde motiviert<br />

durch seine Kritik an seinen empiristischen Vorgängern – bei denen die<br />

Trennung auch nicht immer deutlich ist –, die in ihrer Erkenntnistheorie<br />

Wahrnehmungstheorien darüber vorschlagen, wie wir von bestimmten<br />

Beobachtungen, Reizungen der Sinnesorgane oder gar Sinnesdaten zu<br />

unseren Meinungen gelangen. Dabei bedienen sie sich häufig einer Reihe<br />

problematischer empirischer Annahmen und Konstruktionen wie Sinnesdaten<br />

oder dem empirisch Gegebenen. Für diese Ansätze hat Quine<br />

sicher Recht, daß sie aus heutiger Sicht nicht immer als gelungene For-<br />

1 Siehe dazu Asimov 1986, 19f.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 37<br />

schungsprogramme anzusehen sind, und wir an diesen Stellen lieber auf<br />

die empirische Forschung setzen sollten, als eine Lehnsessel-Psychologie<br />

zu betreiben.<br />

Mit den angesprochenen Wahrnehmungstheorien ist aber nur ein<br />

kleiner Teilbereich der Erkenntnistheorie in den Blick genommen worden.<br />

Davon, daß dieser Bereich vermutlich besser an die Psychologie delegiert<br />

werden sollte, können wir nicht einfach schließen, auch das angeführte<br />

Rechtfertigungsprojekt, das mit der zweiten Frage verknüpft ist,<br />

gehöre ebenfalls zur Psychologie. Die Psychologie beschreibt und erklärt<br />

nur, wie wir zu bestimmten Meinungen gelangen – jedenfalls, wenn sie<br />

es schafft, so erfolgreich zu sein –, aber doch nicht, wann eine Meinung<br />

als gut begründet in unserem Meinungssystem zu gelten hat. Auch wenn<br />

konkrete empirische Theorien in der Rechtfertigung unserer Meinungen<br />

eine wichtige Rolle zu spielen haben, so klären diese Theorien doch<br />

nicht die Frage, was eine gute Rechtfertigung ausmacht und von einer<br />

schlechten unterscheidet. Das bleibt weiterhin einer metatheoretischen<br />

Reflexion etwa über die rechtfertigende Rolle bestimmter Theorien in<br />

einem bestimmten Kontext überlassen. Die Frage nach der Güte von<br />

Rechtfertigungen ist aber sicherlich sinnvoll, denn wir finden im Alltag,<br />

in der Politik und in den Wissenschaften eindeutige Beispiele für gute<br />

und schlechte Begründungen.<br />

Man muß sich nur einmal konkret vor Augen führen, welche Folgen<br />

die Quinesche Konzeption der Abgabe der Erkenntnistheorie an die empirische<br />

Psychologie bezogen auf den Fall wissenschaftlicher Forschung<br />

hätte, wenn wir sie tatsächlich ernst nähmen. Um die empirische Bestätigung<br />

einer Theorie einzuschätzen, müßte ein Psychologe denjenigen untersuchen,<br />

der an die Theorie glaubt, um herauszufinden, wie der Weg<br />

der Überzeugungsbildung von den Sinnesreizungen bis hin zur Entwicklung<br />

der Theorie bei ihm vor sich ging. Das scheint kaum ein hilfreiches<br />

Verfahren zur Bewertung wissenschaftlicher Hypothesen zu sein. 2 Eine<br />

Zeitschrift wie Nature wird keine Psychologen zu ihren Autoren schikken,<br />

sondern diese eher fragen, welche Fakten und Experimente sie anbieten<br />

können, die ihre Theorie stützen. Ob diese das tun und in welchem<br />

Ausmaß, ist dann Gegenstand einer logischen Analyse der Beziehung<br />

zwischen Theorie und Fakten und ihrer metatheoretischen Bewertung.<br />

Wenn die Fakten, die ein Wissenschaftler uns nennt, stimmen, was<br />

2 Stellen wir uns ruhig einmal ernsthaft vor, jemand hätte zu Ohm einen<br />

Psychologen geschickt, um festzustellen, ob dessen Theorie über den Zusammenhang<br />

von Stromstärke und elektrischem Feld stimmt. Was könnte der eigentlich<br />

untersuchen?


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 38<br />

sich unter anderem mit Hilfe eigener Experimente überprüfen ließe,<br />

könnte uns auch die Mitteilung des untersuchenden Psychologen, daß<br />

der Wissenschaftler selbst nicht an seine Theorie glaubt und uns nur hinters<br />

Licht führen wollte oder alle eigenen Experimente und Ableitungen<br />

nur geträumt hat, im Hinblick auf die Glaubwürdigkeit seiner Theorie<br />

kalt lassen – nicht so natürlich im Hinblick auf die Integrität des Wissenschaftlers.<br />

Wieso nimmt Quine die intuitive Unterscheidung in Ursachenforschung<br />

und Bewertung von Meinungen trotzdem nicht ernst?<br />

Quine scheint beispielsweise in (1975) für die Erkenntnistheorie nur<br />

ein wichtiges philosophisches Projekt zu identifizieren, das man als eine<br />

Form von sprachlich gewendeter erster Philosophie beschreiben könnte:<br />

die Übersetzungsreduktion all unserer Begriffe und insbesondere die der<br />

Wissenschaften auf die Begriffe einer unteren, etwa einer phänomenalen,<br />

Ebene. Das Scheitern Carnaps, der dieses Unternehmen in seinem<br />

Logischen Aufbau der Welt am weitesten vorangetrieben hat, und die<br />

Übersetzungsunbestimmtheit zeigen für Quine, daß dieses Unternehmen<br />

nicht gelingen kann (s. Koppelberg 1987, 301ff). Auch mir scheint dieses<br />

Projekt einer Übersetzungsreduktion auf erste Grundbegriffe nicht<br />

besonders aussichtsreich. 3 Das Reduktionsprojekt ist obendrein ein Vorhaben,<br />

das in den Bereich der rein sprachphilosophisch geprägten Philosophie<br />

fällt, die den Rahmen der metatheoretischen Untersuchung unnötig<br />

einschränkt und deren Bedeutung für die Erkenntnis- und Wissenschaftstheorie<br />

leicht überschätzt wird. 4 Andere Fragen, d.h. Fragen außerhalb<br />

der Übersetzungsreduktion und formaler Gebiete wie der Logik<br />

und Mathematik, siedelt Quine hingegen in den empirischen Wissenschaften<br />

an. Nach dem Scheitern des Reduktionsprojekts kann es für ihn<br />

daher nur noch empirische Fragen geben, die in den Fachwissenschaften<br />

zu behandeln sind.<br />

Die Philosophen haben zu Recht die Hoffnung aufgegeben, alles in<br />

logisch-mathematische und Beobachtungsbegriffe übersetzen zu kön-<br />

3 In einer Argumentation für diese Annahme würde ich mich allerdings<br />

nicht auf eine Übersetzungsunbestimmtheitsthese berufen, sondern vielmehr auf<br />

die konkreten Schwierigkeiten dieses Vorhabens wie die drohenden Unendlichkeiten<br />

(s. Stegmüller 1958).<br />

4 Ich möchte mich hier eher van Fraassens (1980, 56) Diktum anschließen,<br />

daß viele Probleme der syntaktischen Sichtweise von Theorien, die sich etwa<br />

um solche Definierbarkeitsfragen drehen, „purely selfgenerated problems,<br />

and philosophically irrelevant“ sind; zumal die Aufteilung in ein Beobachtungsund<br />

ein theoretisches Vokabular und die damit erhoffte Bestimmung des empirischen<br />

Gehalts von Theorien aus unterschiedlichen Gründen nicht funktioniert.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 39<br />

nen, ... Und manche Philosophen haben in dieser Irreduzibilität den<br />

Bankrott der Erkenntnistheorie gesehen. Carnap und die anderen logischen<br />

Positivisten des Wiener Kreises hatten schon den Begriff<br />

„Metaphysik“ in einen pejorativen, Sinnlosigkeit konnotierenden<br />

Gebrauch gedrängt; der Begriff „Erkenntnistheorie“ war der nächste.<br />

Wittgenstein und seine Jünger vor allem in Oxford, fanden eine<br />

philosophische Restbeschäftigung in der Therapie: nämlich Philosophen<br />

von der Verblendung zu kurieren, es gäbe erkenntnistheoretische<br />

Probleme. Aber ich meine, daß es an dieser Stelle wohl nützlicher<br />

ist, statt dessen zu sagen, daß die Erkenntnistheorie auch weiterhin<br />

fortbesteht, jedoch in einem neuen Rahmen und mit einem<br />

geklärten Status. Die Erkenntnistheorie oder etwas Ähnliches erhält<br />

ihren Platz innerhalb der Psychologie und somit innerhalb der empirischen<br />

Wissenschaften. (Quine 1975, 114f; kursiv von mir)<br />

Doch damit übersieht Quine, daß noch Raum übrig bleibt für metatheoretische<br />

Untersuchungen z. B. über die Methoden in den Naturwissenschaften,<br />

die sicherlich keine definitorischen Reduktionen beabsichtigen,<br />

aber als metatheoretische Projekte zumindest zum Teil auch normativen<br />

Charakter haben und nicht zuletzt dadurch eine gewisse Eigenständigkeit<br />

gegenüber den rein naturwissenschaftlichen Fragestellungen besitzen.<br />

Auch der Hinweis von Koppelberg (1987, 181f), daß Theorien<br />

nicht nur durch Tatsachen bestimmt werden, sondern auch „normative<br />

Ingredienzen“ in den Naturwissenschaften eine Rolle spielen, entlastet<br />

Quine nicht. Die metatheoretische Untersuchung solcher Werte und ihrer<br />

Funktionen, ihrer Begründung sowie ihrer Richtigkeit, ist zu unterscheiden<br />

von ihrer Verwendung in den Wissenschaften. Der Naturwissenschaftler,<br />

der sich bei seiner Theorienwahl auf bestimmte Normen<br />

stützt, wird allein dadurch noch nicht zu einem Metawissenschaftler, der<br />

diese Normen untersucht. Ebensowenig wie der Vogel, der die Gesetze<br />

der Aerodynamik für sein Fliegen ausnutzt, deshalb schon ein Physiker<br />

ist.<br />

Quines strikte Ablehnung einer Erkenntnistheorie mit normativen<br />

Anteilen erinnert mich an die Ansicht der logischen Empiristen, für die<br />

moralische Normen nicht rational diskutierbar waren, und wird mit<br />

ähnlich puritanischer Strenge vorgetragen. 5 So wenig wie dieses Dogma<br />

der logischen Empiristen die Philosophen von einer rationalen Diskussion<br />

und Bewertung moralischer Normen abhalten konnte, kann Quines<br />

5 Eine deutliche Äußerung dieser Ansicht findet sich z. B. in der sprachphilosophischen<br />

Argumentation für die Sinnlosigkeit moralischer Normen bei<br />

Ayer (1970, 141ff).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 40<br />

Argumentation mit der Konsequenz, normative Überlegungen seien in<br />

der Erkenntnistheorie unmöglich, eine Diskussion der zahlreichen heute<br />

vorliegenden Ansätze zu entsprechenden Erkenntnistheorien ersetzen.<br />

Eine klare Trennung von Genese und Rechtfertigung von Meinungen<br />

erleichtert die Einschätzung von Quines Position: Wenn er die Erkenntnistheorie<br />

an die empirischen Wissenschaften abgeben möchte, so bedeutet<br />

das eigentlich etwas anderes, als daß die bisherigen erkenntnistheoretischen<br />

Fragen nun an eine andere Disziplin verwiesen werden.<br />

Sie werden aufgegeben und andere Fragen – eben die der empirischen<br />

Wissenschaften – sollen an ihrer Statt in den Vordergrund treten. Er plädiert<br />

für einen Themenwechsel und nicht eine andere Art, dieselben Fragen<br />

der klassischen Erkenntnistheorie zu beantworten. Quine selbst verschleiert<br />

diesen Unterschied zwischen der genetischen und der Rechtfertigungsfrage<br />

gern durch die Redeweise vom Erwerb von Informationen.<br />

Die Erkenntnistheorie verwirft der Naturalismus nicht, sondern er<br />

assimiliert sie der empirischen Psychologie. Die Wissenschaft selbst<br />

sagt uns, daß unsere Informationen über die Welt auf Erregungen<br />

unserer Oberflächen beschränkt sind, und dann wird die erkenntnistheoretische<br />

Frage ihrerseits zu einem innerwissenschaftlichen Problem:<br />

Wie ist es uns menschlichen Tieren gelungen, aufgrund derart<br />

beschränkter Informationen zur Wissenschaft zu gelangen? (Quine<br />

1985, 95)<br />

Innerwissenschaftlich wird aber höchstens die kausale Genese unserer<br />

wissenschaftlichen Überzeugungen erforscht. Quine berücksichtigt wiederum<br />

keine metatheoretischen Untersuchungen über die Fachwissenschaften<br />

und ihre Normen, die auf der Ebene einer Metatheorie gerade<br />

nicht innerwissenschaftlich im Sinne Quines sind. Aber was sollte uns<br />

hindern, auch die Normen von Wissenschaftlern in rationaler Weise zu<br />

kritisieren? Quines (1985, 94) einziges Argument dafür scheint zu sein,<br />

daß es keine erste Philosophie geben kann, von der aus sich diese Praxis<br />

kritisieren ließe.<br />

Damit bringt er die fragwürdige Voraussetzung ins Spiel, daß solch<br />

eine Kritik nur auf der Grundlage einer ersten Philosophie stattfinden<br />

könne. Daß das keineswegs das einzige Verfahren zur Begründung normativer<br />

Sätze sein muß, ist aber längst bekannt und wird in (A.3) weiter<br />

ausgeführt. Es bleiben also – auch wenn man mit Quine in der Meinung<br />

übereinstimmt, daß es keine erste Philosophie als sichere Grundlage der<br />

Erkenntnis geben kann – die Fragen offen: Warum sollen die klassischen<br />

erkenntnistheoretischen Fragen nun nicht mehr weiter untersucht wer-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 41<br />

den? Warum sollten wir nur noch quid-factis Fragen und keine de-jure<br />

Fragen mehr stellen? Damit ist natürlich noch nicht vorentschieden, ob<br />

es einen allgemeinen Kanon von Regeln der epistemischen Rechtfertigung<br />

zu entdecken gibt oder vielleicht nur Regeln für bestimmte Gebiete<br />

unserer Erkenntnis oder sogar noch weniger. Das kann erst am Ende eines<br />

derartigen Vorhabens beurteilt werden. Die neueren Arbeiten in diesem<br />

Bereich der Philosophie geben jedoch keinen Grund für den Quineschen<br />

Pessimismus oder sogar einen darauf gegründeten Philosophieverzicht.<br />

Wie steht Quine dann zum Skeptiker? In dieser Frage ist seine Haltung<br />

nicht immer einheitlich, 6 doch in der Hauptsache betrachtet er ihn<br />

als „Überreaktion“, die sich als Reaktion auf bestimmte Irrtumsmöglichkeiten<br />

ergab. Dennoch bleibt der Skeptizismus auch für Quines eigene<br />

Darstellung unserer Erkenntnis ein virulentes Problem, obwohl er ihn<br />

nonchalant beiseite zu schieben versucht. An verschiedenen Stellen (z. B.<br />

in 1975a) beschreibt er den kausalen Weg unserer Erkenntnis als auf der<br />

Reizung unserer Sinnesorgane durch Lichtstrahlen und Molekülen beruhend.<br />

Da er nicht wirklich zwischen Fragen der Rechtfertigung und der<br />

Genese unserer Meinungen unterscheidet und die kausale Genese unserer<br />

Meinungen für ihn immer bei unseren Sinnesreizungen beginnt, beruhen<br />

seiner Meinung nach alle unsere Überzeugungen auch im Sinne<br />

ihrer Begründbarkeit auf unseren Sinnesreizungen. 7 Genau auf dieses<br />

fundamentalistische Bild unserer Erkenntnis weiß der radikale Skeptiker<br />

seine Einwände aufzubauen. Er bietet uns mögliche Modelle an, in denen<br />

wir dieselben Wahrnehmungen oder Sinnesreizungen haben, wie in<br />

unserem jetzigen Bild der Welt, aber ihre kausalen Entstehungsgeschichten<br />

sind von unseren radikal verschieden. Wir sind in diesen Modellen<br />

etwa Spielbälle eines bösen Dämons oder Gehirne in der Nährlösung eines<br />

üblen Wissenschaftlers, dem es mit Hilfe eines Computers gelingt, irreführende<br />

Sinnesreizungen vorzunehmen. Die Herausforderung des<br />

Skeptikers an Quine besagt nun: Wieso sollten wir diese Möglichkeiten<br />

nicht genauso ernst nehmen, wie die von uns bevorzugten Entstehungsgeschichten,<br />

wenn doch unser einziger Zugang zur Welt in unseren Sinnesreizungen<br />

besteht, die uns – so sind die skeptischen Modelle konstruiert<br />

– keinen diskriminierenden Hinweis für eines der beiden Modelle<br />

6 Für eine interessante Analyse dieses Punktes s. Williams (1990, 256ff).<br />

7 Wir werden später sehen, daß die kausale Genese unserer Überzeugungen<br />

keineswegs die Rechtfertigungsstruktur unseres Wissens in dieser Weise festlegt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 42<br />

geben können? Auch vis-à-vis dem Skeptiker hat Quine keine überzeugenden<br />

Gründe für seine Zurückweisung dieser Fragen anzubieten.<br />

Quine kommt dem Skeptiker mit seinem Holismus eigentlich zunächst<br />

ein Stück weit entgegen, denn wir können nach Ansicht Quines<br />

unser Überzeugungssystem an vielen Stellen – im Prinzip an allen beliebigen<br />

Stellen – umbauen, um es mit unseren Beobachtungen in Einklang<br />

zu bringen (s. Quine 1979, 47). An welchen Stellen wir Änderungen<br />

vornehmen, scheint für Quine deshalb relativ willkürlich zu sein, weil er<br />

metatheoretische Bewertungen nicht sehr schätzt und unsere Theorien<br />

durch die Erfahrung immer wesentlich unterbestimmt bleiben. Ein solcher<br />

Umbau kann nach Quine sogar die zentralsten Teile unseres Wissen<br />

wie z. B. die eingesetzte Logik betreffen. Der Skeptiker geht nun einfach<br />

noch einen Schritt weiter und nimmt die Unterbestimmtheit auch für<br />

seine radikalen skeptischen Hypothesen in Anspruch. Die Daten, für<br />

Quine die Sinnesreizungen, genügen nicht, um unsere gewöhnlichen<br />

Theorien über die Welt festzulegen, aber ebensowenig, um unser übliches<br />

Weltbild gegenüber den radikalen skeptischen Hypothesen zu bevorzugen.<br />

Die Sinnesreizungen enthalten keine internen Hinweise, ob<br />

sie vom Computer des Wissenschaftlers erzeugt wurden, oder auf die<br />

normale Weise. Also fragt der Skeptiker, warum wir seine Hypothesen<br />

ablehnen. Quines Antwort, diese seien Überreaktionen, nennt keine Anhaltspunkte,<br />

wieso diese Frage illegitim sein sollte (s. Quine 1981, 475),<br />

wo sie doch nur eine konsequente Fortführung seiner eigenen Überlegungen<br />

darstellen. So führt Quines eigene liberale Methodologie gepaart<br />

mit seinen fundamentalistischen Tendenzen, die sich aus seiner empiristischen<br />

Beschreibung unseres Erkenntnisprozesses ergeben, direkt zu<br />

skeptischen Fragen, wenn man sie nur konsequent anwendet. Zumindest<br />

der radikale Naturalismus Quines ist meines Erachtens somit unbegründet,<br />

und wir finden weiterhin sinnvolle Fragestellungen in der Epistemologie,<br />

die wir nicht komplett an die Naturwissenschaften abgeben können,<br />

sondern müssen auf die Herausforderung durch den Skeptiker reagieren.<br />

Daher werde ich im übernächsten Abschnitt für eine andere und<br />

moderatere Form von Naturalismus plädieren.<br />

2. Resignation in bezug auf das Projekt einer ersten Philosophie<br />

Ein Grund für die wachsende Popularität naturalistischer Ansätze in der<br />

Erkenntnistheorie ist vermutlich die Einsicht, daß die hochgesteckten<br />

Anforderungen des radikalen Skeptikers nicht erfüllt werden können. So


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 43<br />

sieht sich der Erkenntnistheoretiker der Forderung Descartes aus seiner<br />

ersten Meditation gegenüber:<br />

Da ja schon die Vernunft anrät, bei nicht ganz gewissen und zweifelsfreien<br />

Ansichten uns ebenso der Zustimmung zu enthalten wie bei<br />

solchen, die ganz sicher falsch sind, so reicht es für ihre Verwerfung<br />

insgesamt aus, wenn ich bei einer jeden irgendeinen Anlaß zum<br />

Zweifeln finde. (Descartes 1986, 63; kursiv von mir)<br />

Diese Forderung nach völliger Gewißheit scheint uns heute ausgerechnet<br />

für die interessantesten Teile unseres empirischen Wissens unerreichbar<br />

zu sein. Das gilt um so mehr, wenn man unter Gewißheit nicht nur subjektive<br />

Sicherheit versteht – wie es der Begriff zunächst nahelegen könnte<br />

–, sondern sogar Unkorrigierbarkeit im Sinne von Williams (1981,<br />

31). Es genügt für das Cartesische Unternehmen, ein sicheres Fundament<br />

für unsere Erkenntnis zu schaffen, natürlich nicht, daß wir uns bestimmter<br />

Meinungen sicher sind, in dem Sinn, daß uns keine Zweifel<br />

mehr bedrängen oder gerade einfallen. Das mag vielleicht schon anhand<br />

mangelnder Phantasie oder posthypnotischer Befehle gelingen. Es soll<br />

vielmehr aus unserer Überzeugung, daß p, auch tatsächlich folgen, daß<br />

p. Unsere Überzeugung soll ihre Wahrheit garantieren. Im Sinne der subjektiven<br />

Sicherheit waren sich einige Gelehrte des Mittelalters sicher,<br />

daß die Erde den Mittelpunkt der Welt darstellt und die Sonne sich um<br />

die Erde dreht, aber diese Überzeugungen waren nicht unkorrigierbar<br />

und bildeten daher keine sichere erste Grundlage unseres Wissens.<br />

Doch im Bereich der Wissenschaften, aber auch für weite Teile unseres<br />

Alltagswissens, gerät die Forderung Descartes in einen massiven Konflikt<br />

mit unseren übrigen metatheoretischen Ansichten. So sind wohl die<br />

meisten heutigen Wissenschaftler Fallibilisten, die metatheoretische<br />

Überzeugung teilen, daß unsere wissenschaftlichen Theorien immer einen<br />

hypothetischen Charakter behalten und damit immer die Möglichkeit<br />

offen bleibt, daß sie falsch sind. 8 Der Fallibilismus impliziert, daß<br />

wir die Forderung Descartes nach einer sicheren Grundlage unserer Erkenntnis<br />

nie werden einlösen können. Einige Erkenntnistheoretiker haben<br />

sich deshalb mit einer gewissen Resignation von dem klassischen<br />

Unternehmen Erkenntnistheorie abgewandt. So beschreibt auch Devitt<br />

(1991, 75) in etwa seine Hinwendung zum Naturalismus. Die Suche<br />

nach Gewißheit paßt nicht mehr zu unseren anderen epistemischen<br />

8 Das mag sogar auf der Objektebene bei der Betrachtung einzelner Theorien<br />

durchaus mit völliger subjektiver Sicherheit, daß eine bestimmte Theorie<br />

wahr ist, einhergehen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 44<br />

Überzeugungen, die stark durch die Überlegungen Poppers beeinflußt<br />

wurden.<br />

Ein ähnliches Motiv fanden wir auch bei Quine für seine naturalisierte<br />

Erkenntnistheorie. Gerade die empiristisch geprägten fundamentalistischen<br />

Erkenntnistheorien – in deren Tradition Quine steht, die er<br />

aber auch kritisiert – sind seiner Ansicht nach in dem Versuch einer<br />

Grundlegung unseres Wissens gescheitert. 9 Quine veranlaßte das zu einem<br />

allgemeinen Verzicht in bezug auf Fragestellungen der Erkenntnistheorie<br />

kombiniert mit einer gewissen Form von Wissenschaftsgläubigkeit.<br />

Er scheint manchmal davon auszugehen, mit dem Scheitern einer<br />

ersten Philosophie sei keine Form von Erkenntnistheorie mehr möglich.<br />

Diese zwei Optionen, Suche nach absoluter Gewißheit oder Aufgabe der<br />

Erkenntnistheorie, sind aber sicher nicht erschöpfend, was große Teile<br />

der heutigen Erkenntnistheorie beweisen. Auch in dieser Arbeit soll ein<br />

dritter Weg für die Erkenntnistheorie beschritten werden.<br />

3. Methodologischer Naturalismus<br />

Während der Quinesche Naturalismus in der Erkenntnistheorie sich in<br />

erster Linie der kausalen Entstehungsgeschichte unserer Meinungen zuwendet<br />

und nicht dem Problem, wie sie gerechtfertigt werden können,<br />

möchte ich einen anderen naturalistischen Ansatz vorschlagen. Statt die<br />

empirische Frage zu stellen, welche Mechanismen unsere Überzeugungen<br />

hervorgerufen haben, beginne ich mit der ebenfalls empirischen Frage,<br />

welche Rechtfertigungen und Rechtfertigungsverfahren wir gewöhnlich<br />

als gut anerkennen. Diese Beurteilung von konkreten Rechtfertigungen<br />

als mehr oder weniger gut hat immer schon normativen Charakter,<br />

der sich in der rein naturwissenschaftlichen Aufklärung der kausalen Zusammenhänge<br />

zwischen unseren Überzeugungen und den sie verursachenden<br />

Ereignissen allein nicht wiederfinden läßt. Wir sollten uns vielmehr<br />

auf unsere Werturteile beziehen, wie überzeugend eine bestimmte<br />

Begründung unserer Meinungen ist. Sie bieten uns erste Anhaltspunkte,<br />

in welchen Fällen, wir von erfolgreichen und in welchen wir von minderwertigen<br />

Rechtfertigungsversuchen sprechen sollten.<br />

Derartige Einschätzungen von Begründungen manifestieren sich im<br />

Alltagsleben und ebenso in politischen Kontexten, wo wir unsere jeweiligen<br />

Behauptungen zu begründen haben und diese Begründungen von<br />

den Zuhörern oder Wählern je nach Bewertung goutiert oder abgelehnt<br />

9 Die Lebensfähigkeit einer empiristischen Erkenntnistheorie wird ein<br />

Thema des nächsten Kapitels sein.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 45<br />

werden können. Ähnliche Beispiele finden wir um so mehr in stärker institutionalisierten<br />

Rechtfertigungsverfahren wie der Wahrheitsfindung<br />

vor Gericht oder in den Wissenschaften, bei denen unsere Vorstellungen<br />

von einer gelungenen Rechtfertigung noch stärker ausgeprägt sind. In einem<br />

ersten Schritt der Untersuchung werde ich unsere üblichen epistemischen<br />

Bewertungen und die Rechtfertigungsstruktur unserer Erkenntnis<br />

auf einem recht allgemeinen Niveau beschreiben. Dabei geht es<br />

nur um relativ schwache und allgemein akzeptierte Vorstellungen zur<br />

Rechtfertigung und nicht so sehr um die idiosynkratischen Konzeptionen<br />

von Rechtfertigung einzelner Personen. Es handelt sich aber bereits<br />

an dieser Stelle um ein hermeneutisch geprägtes und rekonstruktives Unternehmen,<br />

denn wir alle verwenden zwar ständig Rechtfertigungen und<br />

Begründungen und bewerten sie, aber nur die wenigsten Menschen haben<br />

explizite Ansichten darüber, was gute Rechtfertigungen ausmacht.<br />

Hier ist die metatheoretische Theoriebildung gefragt, die ein Interpretationsmodell<br />

vorlegt, in das unsere Begründungspraxis eingebettet<br />

werden kann und durch das sie verstehbar wird. Natürlich können auch<br />

die in dieser Metatheorie ermittelten Bewertungen, die unsere herkömmlichen<br />

Bewertungen zum Ausgangspunkt nehmen, nicht als sakrosankt<br />

erklärt und schlicht übernommen werden, sondern sind jeweils einer<br />

philosophischen Reflexion oder Metabewertung zu unterziehen. An<br />

keiner dieser Stellen geht es um eine rein empirische Theorie, sondern<br />

immer auch um eine normative Klärung und Weiterentwicklung unserer<br />

epistemischen Ansichten. Eine solche kritische Weiterentwicklung und<br />

Auseinandersetzung mit unserer Rechtfertigungs- und Begründungspraxis<br />

wird aber erst durch ein Offenlegen und Explizitmachen wesentlicher<br />

Teile dieser Praxis ermöglicht.<br />

In der Erkenntnistheorie und der Wissenschaftsphilosophie treffen<br />

wir aber auch immer wieder auf eine grundsätzlich andere Vorgehensweise,<br />

die eben nicht die konkrete Wissenschaftspraxis zum Ausgangspunkt<br />

nimmt. Man verfolgt statt dessen eine stärker aprioristische Strategie<br />

und beruft sich auf allgemein plausible erkenntnistheoretische Annahmen,<br />

ohne sie laufend an konkreten Beispielen zu überprüfen. Welche<br />

Gefahren das in sich birgt, möchte ich durch einen kleinen Exkurs<br />

enthüllen, der den Unterschied von naturalistischen und aprioristisch<br />

orientierten Methodologien verdeutlicht. In der Wissenschaftsphilosophie<br />

finden wir viele schöne und berühmte Beispiele für metatheoretische<br />

Plausibilitätsüberlegungen ohne Rückbindung an konkrete Fallstudien.<br />

Ulrich Gähde hat dafür einmal das Schlagwort „Wissenschaftsphilosophie<br />

ohne Wissenschaft“ geprägt. Nun gibt es sicher „schwere Fälle“


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 46<br />

dieser Vorgehensweise, mit denen zu beschäftigen geradezu unfair erschiene,<br />

weshalb ich mich einem versteckteren Fall zuwenden möchte,<br />

der noch dazu eine große anfängliche Plausibilität auf seiner Seite hat,<br />

nämlich Poppers Falsifikationismus. Der Wissenschaftshistoriker Kuhn<br />

hat sicher schon einiges dazu beigetragen, unsere Wachsamkeit gegenüber<br />

der recht einfachen erkenntnistheoretischen Auffassung Poppers<br />

von der Wissenschaftsdynamik zu schärfen. Er argumentiert dafür, daß<br />

Poppersche Falsifikationen in der Wissenschaftsgeschichte so gut wie nie<br />

vorkommen. Doch woran liegt das? Verhalten sich die Wissenschaftler<br />

aus Gründen des persönlichen Ehrgeizes oder anderen externen Motivationen<br />

erkenntnistheoretisch skrupellos oder sogar irrational? Der<br />

„Apriorist“ stimmt solchen Vermutungen vorschnell zu, während der<br />

Naturalist zunächst die Hypothese verfolgen wird, daß die Wissenschaftler<br />

sich in den meisten Fällen durchaus einigermaßen vernünftig entschieden<br />

haben, aber die Poppersche Rationalitätskonzeption defizitär<br />

sein könnte. Um diese Vermutung zu testen, hat er die tatsächlichen wissenschaftlichen<br />

Entscheidungssituationen ausführlicher zu analysieren,<br />

als das durch kurze Verweise auf Beispiele – wie wir sie auch bei Popper<br />

finden – möglich ist. 10 Wie ein derartiges Verfahren aussehen kann,<br />

möchte ich zumindest an einem Kritikpunkt an der Popperschen Wissenschaftsmethodologie<br />

exemplarisch vorführen.<br />

a) Poppers Falsifikationismus<br />

Das Beispiel von Poppers Logik der Forschung und der großen Resonanz,<br />

die Kuhns Kritik daran gefunden hat, bringt eindeutige naturalistische<br />

Tendenzen unserer Metaphilosophie zum Ausdruck. Popper kann zwar<br />

gute Argumente zugunsten seiner falsifikationistischen Anschauung der<br />

Wissenschaften beibringen, aber wenn sich die Wissenschaftler tatsächlich<br />

ganz anders verhalten, als er es vorschreibt, betrachten wir das als<br />

einen bedeutsamen Einwand gegen seine Theorie, der Poppers apriorischere<br />

Argumente dafür aus dem Felde schlagen kann. Auch Popper ist<br />

natürlich von seiner Kenntnis konkreter wissenschaftlicher Theorien<br />

ausgegangen, als er seine Wissenschaftskonzeption entwickelt hat. Aber<br />

er hat von Beginn an normativen Zielen – wie zu zeigen, daß die Astrologie<br />

oder die Psychoanalyse keine wirklich wissenschaftlichen Theorien<br />

seien – großes Gewicht in seiner Vorstellung von wissenschaftlicher Ra-<br />

10 Natürlich ist damit auch das mögliche Ergebnis, daß trotz aller wohlwollenden<br />

Interpretation des Wissenschaftlerverhaltens sich keine Rationalisierung<br />

finden läßt und somit schließlich die Vermutung, er handele unvernünftig,<br />

als richtig erweist, nicht von vornherein ausgeschlossen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 47<br />

tionalität eingeräumt. Seine Falsifikationstheorie der empirischen Wissenschaften,<br />

wonach Theorien als gewagte Hypothesen ins Leben treten<br />

sollen und sich dort empirischen Falsifikationsversuchen zu stellen haben,<br />

wenn sie sich bewähren möchten, scheint für eine idealisierte Sicht<br />

der Wissenschaften zunächst ausgesprochen plausibel zu sein. Auch die<br />

Forderung, daß Theorien im Prinzip falsifizierbar sein sollten, um überhaupt<br />

empirischen Gehalt zu besitzen und dann bei tatsächlichem Auftreten<br />

von Widersprüchen mit der Erfahrung als falsifiziert zu gelten haben<br />

und aufgegeben werden müssen, wirkt recht überzeugend. Schließlich<br />

besitzen nur falsifizierbare Theorien auch prognostische Fähigkeiten<br />

und sind nicht ausschließlich auf post hoc „Erklärungen“ vergangener<br />

Ereignisse beschränkt. Eine Wettertheorie, die nur für das Wetter der<br />

letzten Tage sagen kann, wie es zu erklären ist, und dabei darauf festgelegt<br />

ist, jedes Wetter zu akzeptieren, ist kaum als interessante empirische<br />

Theorie zu betrachten. Sie bringt als Prognose nur Tautologien wie:<br />

„Morgen regnet es oder es regnet nicht“ zustande. Gestattet die Theorie<br />

dagegen auch nur eine gehaltvolle Vorhersage über das morgige Wetter,<br />

die jedenfalls irgendein Wetter für den nächsten Tag ausschließt, ist sie<br />

natürlich auch falsifizierbar im Sinne Poppers. So weit so gut. Die aufgezeigte<br />

Plausibilität der Popperschen Methodologie betrifft aber nur die<br />

eher apriorisch zu nennende Betrachtungsweise. Sobald man sich metaempirischen<br />

Untersuchungen der Wissenschaften zuwendet, verliert<br />

die Poppersche Metatheorie schnell an Glaubwürdigkeit.<br />

Im Fall der Popperschen Theorie geschah das auf zwei Weisen. Kritik<br />

ging einmal von den schon erwähnten wissenschaftshistorischen Analysen<br />

aus, die darauf hinweisen, daß tatsächliche wissenschaftsdynamische<br />

Prozesse nicht die Gestalt von Popperschen Falsifikationen besitzen. 11<br />

Man muß schon einen gesunden popperianischen Dogmatismus aufweisen,<br />

um darauf mit einem Achselzucken und der Bemerkung: „Um so<br />

schlimmer für die Wissenschaften“, zu reagieren. Der naturalistisch gesinnte<br />

Wissenschaftsphilosoph wird dagegen jetzt hellhörig, denn wissenschaftliche<br />

Vorgehensweisen sind, wenn auch selbstverständlich nicht<br />

in jedem Einzelfall, zunächst unsere paradigmatischen Vorbilder wissenschaftlicher<br />

Rationalität. Sie können als solche nicht ohne eingehendere<br />

Diagnose als irrational eingestuft werden, wollen wir uns mit unserem<br />

Rationalitätsbegriff nicht jeglicher Anbindung an unseren gewöhnlichen<br />

Begriff von Rationalität begeben. Ein völlig neu eingeführter Rationalitätsbegriff<br />

wäre ein reines Kunstprodukt und der Wissenschaftler könnte<br />

zu Recht fragen, wieso er sich dafür interessieren sollte. Das gilt dann<br />

11 Für Diskussionen dieser Art s. Kuhn, Lakatos, Feyerabend.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 48<br />

nicht mehr, wenn man ihm zeigt, daß er gemäß einer konsequenten Anwendung<br />

seiner eigenen Normen nicht mehr rational handelt. Erst bei<br />

einer solchen Anbindung unserer normativen Methodologie an seine eigene<br />

Praxis kann diese Methodologie ihm auch Hinweise auf Inkonsistenzen<br />

oder Inkohärenzen in seiner eigenen Vorgehensweise aufzeigen.<br />

Doch der alleinige Hinweis der Wissenschaftshistoriker, daß die Wissenschaften<br />

nicht falsifikationistisch verfahren, bleibt höchst steril, solange<br />

nicht aufgeklärt wird, wieso Poppers Methodologie nicht befolgt<br />

wird und auch nicht so zwingend ist, wie sie zunächst wirkt. Die neuere<br />

Wissenschaftsphilosophie bietet anhand differenzierterer metatheoretischer<br />

Modelle wissenschaftlicher Theorien tiefergehende Einblicke in<br />

die Struktur und Funktionsweise von Theorien. Sie ermöglichen unter<br />

anderem eine präzise Diagnose, woran der Falsifikationismus krankt und<br />

weshalb das tatsächliche Vorgehen der Wissenschaftler weder als falsifikationistisch<br />

noch als irrational anzusehen ist.<br />

An dieser Stelle setzt die zweite Kritik an Popper an, die die Poppersche<br />

Theorie in bezug auf ihre methodologische Brauchbarkeit für die<br />

Beschreibung wissenschaftsdynamischer Prozesse analysiert. Poppers<br />

Fehler, aber auch der einiger Vorgänger wie der logischen Empiristen ist<br />

es, von einer zu einfachen und zu stark idealisierten Konzeption dessen<br />

auszugehen, was eine empirische Theorie ausmacht. Seine metatheoretische<br />

Konzeption empirischer Theorien ist der Metatheorie der Mathematik<br />

entlehnt, nach der Theorien einfach aus deduktiv abgeschlossenen<br />

Satzklassen bestehen, die weitgehend amorph und ohne innere Struktur<br />

sind. Popper geht sogar noch weiter und behauptet, es handle sich dabei<br />

nur um Allsätze. Diese können dann durch Beobachtungen, die in Form<br />

singulärer Existenzsätze niedergelegt werden, mit Hilfe des Modus Tollens<br />

widerlegt werden. Daß es zumindest auch Existenzsätze in empirischen<br />

Theorie gibt, die dort eine wesentliche Funktion übernehmen, ist<br />

eigentlich zu offensichtlich, um hier noch einmal erörtert zu werden. 12<br />

Aber die metamathematische Sicht auf Theorien ist auch aus anderen<br />

Gründen unangemessen. Empirische Theorien besitzen zunächst eine<br />

reichhaltige innere Struktur mit mehreren Komponenten, die aufzuklären<br />

erforderlich ist, um die empirische Behauptung der Theorie zu explizieren<br />

und zu verstehen. So wird in vielen metatheoretischen Konzeptionen<br />

für solche Theorien zwischen zwei Typen von Begriffen unterschieden:<br />

Beobachtungsbegriffe oder empirische Begriffe und theoretische<br />

12 Man denken dazu nur an die in Gesetze auftretenden Naturkonstanten<br />

wie die Newtonsche Gravitationskonstante, die Lichtgeschwindigkeit oder das<br />

Plancksche Wirkungsquantum.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 49<br />

Begriffe. Während die empirischen Begriffe bereits ohne die Theorie zur<br />

Verfügung stehen, werden die theoretischen erst durch die Theorie eingebracht<br />

und eventuell implizit definiert. Das ist nur eine vorläufige und<br />

allein unzureichende Unterscheidung, um zu verstehen, wie empirische<br />

Theorien aufgebaut sind. Sie zeigt aber schon einen wichtigen Unterschied<br />

zwischen empirischen und mathematischen Theorien, den man in<br />

einem rein metamathematischen Konzept nicht wiedergeben kann.<br />

Die sogenannte strukturalistische Auffassung von empirischen Theorien,<br />

die an Patrick Suppes semantische Darstellung von Theorien anknüpft<br />

und von Sneed, Stegmüller, Moulines und anderen weiterentwikkelt<br />

wurde, hat dazu eine Reihe weiterer interessanter Angebote gemacht,<br />

auf die ich in Kapitel (VII) ausführlicher eingehen werde. Ein<br />

einfacher Punkt soll jedoch schon an dieser Stelle Erwähnung finden:<br />

Für mathematische Theorien ist ihr Anwendungsbereich vorgegeben. Sie<br />

treffen auf alle Strukturen zu, die die Definition ihrer Grundelemente<br />

erfüllen. Das heißt z. B., daß die Theoreme der Zahlentheorie von allen<br />

Gegenständen erfüllt werden, die den Peano Axiomen genügen. Empirische<br />

Theorien funktionieren in diesem Punkt vollkommen anders. Ihr<br />

Anwendungsbereich wird nicht anhand einer formalen Definition allgemeiner<br />

Strukturen festgelegt, sondern wird außerhalb der mathematischen<br />

Theorie etwa durch Angabe paradigmatischer Elemente oder Typen<br />

von physikalischen Systemen beschrieben. Die Newtonsche Partikelmechanik<br />

soll z. B. auf Pendel, Billiardbälle, Planeten, das Erde-Mond<br />

System, Kanonenkugeln usw. angewandt werden. Diese realen Systeme<br />

(oder Typen von solchen) können zunächst vorgängig zur Behandlung<br />

durch die Theorie und unabhängig von der Begrifflichkeit der mathematisch<br />

formulierten Gesetze der Theorie identifiziert werden.<br />

Es ist auch keineswegs intendiert, daß alle realen Systeme, die sich<br />

mit der Begrifflichkeit der Newtonschen Theorie wie Kräften und Massen<br />

beschreiben lassen, deshalb gleich als Anwendungen dieser Theorie<br />

zu betrachten sind. Selbst wenn es gelingt, einen wirtschaftlichen Binnenmarkt<br />

mit Hilfe von „Kräften“ und sogar „Massen“ in irgendeiner<br />

Weise zu beschreiben, wird er dadurch noch nicht zum Anwendungsobjekt<br />

der Newtonschen Mechanik – oder sogar zu einem Testfall für die<br />

Brauchbarkeit dieser Theorie. Hier sind bestenfalls heuristisch hilfreiche<br />

Analogiebeziehungen zu erkennen. Diese Einsicht, daß der Bereich der<br />

intendierten Anwendungen einer Theorie ein relativ selbständiger Bestandteil<br />

in einer empirischen Theorie ist, zeigt schon einen, historisch<br />

tatsächlich oft beschrittenen, Weg auf, der Popperschen Falsifikation auf<br />

sinnvolle Weise zu entkommen. Newton hatte ursprünglich angenom-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 50<br />

men, seine Theorie noch auf viele andere als die oben genannten Phänomene<br />

erfolgreich anwenden zu können, wie z. B. die Bereiche chemischer<br />

und optischer Phänomene und Ebbe und Flut. Als sich diese Gebiete<br />

und später noch andere Bereiche, in denen wir elektrische oder<br />

magnetische Kräfte finden, nicht im Rahmen der Newtonschen Theorie<br />

behandeln ließen, haben Newton und seine Anhänger nicht seine Theorie<br />

verworfen, sondern – und wem scheint das nicht sinnvoll zu sein? –<br />

schlicht auf „mechanische“ Phänomene eingeschränkt. Selbst im Bereich<br />

der mechanischen Phänomene war die Geschichte nicht ganz so einfach,<br />

und es mußten zwischenzeitlich noch verwegenere Abgrenzungen vorgenommen<br />

werden (s. Moulines 1979), die in der Popperschen Methodologie<br />

keinen angemessenen Platz finden.<br />

Ein weiteres Beispiel für dynamische Entwicklungen in der Wissenschaft,<br />

die sich am besten als Veränderungen des Bereichs der intendierten<br />

Anwendungen beschreiben lassen, findet sich in der Elektrodynamik.<br />

Obwohl die klassische Maxwellsche Elektrodynamik hervorragend funktionierte,<br />

zeigte sich zu Anfang dieses Jahrhunderts, daß sie für die elektrisch<br />

geladenen Teilchen innerhalb eines Atoms nicht eingesetzt werden<br />

konnte. Hier waren es auf der einen Seite die Abstrahlungsphänomene<br />

der schwarzen Körperstrahlung und der photoelektrische Effekt, die diesen<br />

Ausschluß nahelegten und auf der anderen Seite die intertheoretischen<br />

Verbindungen des Bohrschen Atommodells, die ihn sogar verlangten,<br />

um Inkonsistenzen zu vermeiden. Das war Bohr bei dem Erarbeiten<br />

seiner Atomtheorie auch bewußt, wenn auch vielleicht nicht unter genau<br />

derselben Beschreibung, wie ich sie gegeben habe (s. dazu Bartelborth<br />

1989). Für ihn gehörten daher die gebundenen Elektronen nicht mehr<br />

zum Anwendungsbereich der klassischen Elektrodynamik.<br />

Natürlich sind derartige Immunisierungen von Theorien – die widerspenstige<br />

intendierte Anwendungen schlichtweg aufgeben – nicht in allen<br />

Fällen sinnvoll. So hilfreich das Streichen der Chemie aus der Newtonschen<br />

Theorie auch war, so blieb es doch unbefriedigend, die gebundenen<br />

Elektronen im Atom einer Behandlung durch die Elektrodynamik<br />

zu entziehen, während freie Elektronen weiterhin der Maxwellschen<br />

Theorie gehorchen. Dieser unbefriedigende Zustand war der natürliche<br />

Ausgangspunkt der Suche nach einer beide Fälle umfassenden Theorie,<br />

die letztlich zur Entwicklung der Quantenelektrodynamik geführt hat.<br />

Trotzdem scheint auch vom heutigen Kenntnisstand die Forderung maßlos,<br />

die klassische Elektrodynamik hätte bei Bekanntwerden der widerspenstigen<br />

Phänomene eigentlich vollständig aufgegeben werden müs-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 51<br />

sen. Sie ist selbst heute noch eine durchaus zutreffende Theorie für sehr<br />

viele Anwendungsbereiche.<br />

Popper hat sich mit seiner zu idealisierten Sichtweise von Theorien<br />

den Blick auf eine Analyse dieser Phänomene selbst verstellt und kann<br />

diese Beispiele in seiner Auffassung von Theorien nicht erfassen. Nur<br />

wenn man Poppers einfache Konzeption von Theorien akzeptiert, bleibt<br />

seine Forderung des Falsifikationismus damit noch so intuitiv überzeugend<br />

wie zunächst angenommen. 13 Eine Metatheorie, die demgegenüber<br />

in enger Anbindung an konkrete Beispiele die Struktur von Theorien<br />

und ihrer Bedeutung in der Theoriendynamik ermittelt, wird Theoriekomponenten<br />

wie den Anwendungsbereich einer Theorie und ihre empirische<br />

Funktion in den Blick nehmen. Die strukturalistische Auffassung<br />

hat tatsächlich noch eine ganze Reihe weiterer innerer Strukturen von<br />

Theorien offengelegt, die ebenfalls verständlich machen, weshalb die<br />

Wissenschaften nicht falsifikationistisch verfahren und trotzdem rational<br />

bleiben können. Zu dem methodologischen Naturalismus – wie ich<br />

meine Metaphilosophie nenne – gehört es also, unsere tatsächliche Methodologie<br />

und ihre Bewertung zum Ausgangspunkt einer metatheoretischen<br />

Untersuchung zu nehmen, und sie anhand von Beispielen immer<br />

wieder in bezug auf ihre Gültigkeit hin zu überprüfen. Demgegenüber<br />

fällt der Apriorist zu schnell dem Fehler anheim, seine normativen Ansichten<br />

für verbindlich zu erklären, ohne ihre Anwendbarkeit zu überprüfen.<br />

b) Reflektives Überlegungsgleichgewicht<br />

In der Erkenntnistheorie wiegen die methodologischen Probleme sogar<br />

noch schwerer als in der Wissenschaftstheorie, denn auf welche Begründungsformen<br />

soll man sich beziehen, wenn man erst eine allgemeine<br />

Theorie der Begründung aufstellen und selbst rechtfertigen möchte?<br />

Wenn wir nicht über eine erste Philosophie verfügen, die ohne jede eigene<br />

Voraussetzung als Basis für die Begründung der Rechtfertigungstheorie<br />

dienen kann, sind wir daher bei der Konstruktion erkenntnistheoretischer<br />

Theorien mehr denn je auf einen methodologischen Naturalismus<br />

angewiesen. Doch wie kann der in diesem Fall aussehen? Chisholm<br />

(1979, 171) unterscheidet zwei Fragen, die auf verschiedene Vorgehensweisen<br />

für die Erkenntnistheorie deuten:<br />

13 Das Beispiel der Popperschen Methodologie zeigt allerdings auch, wie<br />

eine falsche aber gut verständliche und intuitive Theorie einen wichtigen Anstoß<br />

für die metatheoretische Forschung darstellen kann.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 52<br />

1. Welchen Umfang hat unser Wissen? und<br />

2. Was sind die Kriterien des Wissens?<br />

Für den Empirismus ist es charakteristisch anzunehmen, wir hätten eine<br />

Antwort auf die zweite Frage und könnten auf dieser Grundlage versuchen,<br />

die erste zu beantworten. Chisholm sieht sich dagegen mit Moore<br />

auf der anderen Seite. Er betont die Gewißheit unserer Common-Sense<br />

Überzeugungen, denen wir gegen skeptische Spitzfindigkeiten vertrauen<br />

sollten, und versucht Kriterien für Wissen auf eine Weise anzugeben,<br />

daß unsere bisherigen Annahmen über den Umfang unseres Wissens aufrechterhalten<br />

werden können. Doch diese Vorgehensweise ist sicher viel<br />

zu blauäugig, denn der Common-Sense hat zu allen Zeiten viele offensichtlich<br />

falsche und ungerechtfertigte Ansichten enthalten. Warum<br />

sollte also gerade er für philosophische Reflexionen sakrosankt sein?<br />

Da auch die empiristische Vorgehensweise schließlich nicht überzeugend<br />

wirkt (s. dazu III.B) sollte ein metaphilosophisches Verfahren irgendwo<br />

dazwischen zu suchen sein. Eine erste schon relativ klare Beschreibung,<br />

wie es aussehen kann, bietet uns Russell in seiner Erörterung<br />

der Bedeutung von Wahrheit:<br />

Der Vorgang, den wir zu durchlaufen haben, ist seinem Wesen nach<br />

der einer Analyse: wir haben verschiedene komplexe und mehr oder<br />

weniger verworrene Meinungen über das Wahre und das Falsche<br />

und müssen sie auf Formen zurückführen, die einfach und klar sind,<br />

ohne einen Widerstreit zwischen unseren ursprünglichen komplexen<br />

und verworrenen Meinungen und unseren zum Schluß einfachen<br />

und klaren Behauptungen hervorzurufen. Diese schließlichen Behauptungen<br />

sind teils nach ihrer eigenen Evidenz, teils nach ihrem<br />

Vermögen zu prüfen, das ‘Gegebene’ zu erklären; und das ‘Gegebene’<br />

sind bei einem solchen Problem die komplexen und verworrenen<br />

Meinungen, mit denen wir beginnen. Diese Meinungen müssen bei<br />

ihrer Klärung notwendig einer Veränderung unterliegen, aber diese<br />

Veränderung sollte nicht größer sein als durch ihre anfängliche Verwirrung<br />

gerechtfertigt ist. (Russell 1910, 100)<br />

Eine entsprechende Darstellung findet sich bei Nelson Goodman (1988)<br />

in seiner Rechtfertigung des von Hume so gebeutelten Induktionsschlusses.<br />

Dabei zieht er die Rechtfertigung deduktiver Schlüsse zum Vergleich<br />

heran und kommt zu dem Ergebnis:<br />

Das sieht eindeutig zirkulär aus. Ich sagte, deduktive Schlüsse würden<br />

aufgrund ihrer Übereinstimmung mit gültigen allgemeinen Re-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 53<br />

geln gerechtfertigt, und allgemeine Regeln würden gerechtfertigt<br />

aufgrund ihrer Übereinstimmung mit gültigen Schlüssen. Doch das<br />

ist ein guter Zirkel… Eine Regel wird abgeändert, wenn sie zu einem<br />

Schluß führt, den wir nicht anzuerkennen bereit sind; ein Schluß<br />

wird verworfen, wenn er eine Regel verletzt, die wir nicht abzuändern<br />

bereit sind. Der Vorgang der Rechtfertigung besteht in feinen<br />

gegenseitigen Abstimmungen zwischen Regeln und anerkannten<br />

Schlüssen; die erzielte Übereinstimmung ist die einzige Rechtfertigung,<br />

derer die einen wie die anderen bedürfen. (Goodman 1988,<br />

86f)<br />

Sowohl unsere anerkannten Schlüsse wie auch unsere Schlußverfahren<br />

können nach Goodman in einem Prozeß der gegenseitigen Abstimmung<br />

schließlich als ungültig verworfen werden; wir müssen uns nicht, wie<br />

Chisholm vorschlägt, für eine Seite entscheiden, und diese als ohne<br />

wenn und aber gegeben voraussetzen. Neben den deskriptiven Aspekten<br />

kommen in diesem Verfahren normative ins Spiel, denn man begnügt<br />

sich nicht mit einer unkritischen Beschreibung und Übernahme der bisherigen<br />

Schlüsse und Regeln, sondern versucht in mehreren Arbeitsgängen<br />

die guten von den schlechten Rechtfertigungen zu trennen und die<br />

schlechten Regeln und Schlüsse auszufiltern. Schlüsse und Regeln, die<br />

diesen Prozeß überstehen, gelten dadurch als begründet.<br />

Es ist daher kein Zufall, daß dieses Verfahren auch für ethische<br />

Theorien, die als ein Paradebeispiel für normative Theorien stehen, Anwendung<br />

findet. Rawls (1975, 65ff) machte das Goodmansche Verfahren<br />

unter dem Namen des reflektiven Gleichgewichts bekannt und begründete<br />

mit seiner Hilfe seine Theorie der Gerechtigkeit. In der Erkenntnistheorie<br />

können wir nicht umhin, in ähnlicher Weise zu verfahren<br />

und mit bestimmten anerkannten Rechtfertigungen zu beginnen, um<br />

dann ihnen entsprechende Rechtfertigungsverfahren vorzuschlagen, die<br />

uns zudem plausibel erscheinen. In deren Licht haben wir wiederum unsere<br />

anerkannten Rechtfertigungen zu untersuchen, ob sie wirklich gute<br />

Gründe bereitstellen. Anschließend müssen wir erneut überlegen, ob unsere<br />

Rechtfertigungsverfahren im Lichte dieser Überlegungen wirklich so<br />

überzeugend sind, wie wir zunächst angenommen haben usf. Das kann<br />

ein längerer Reflexionsprozeß sein, der aber vielleicht schon nach wenigen<br />

Schritten zu einer einigermaßen stabilen Metatheorie führt. Tatsächlich<br />

finden alltägliche und philosophische Dispute oft in entsprechender<br />

Weise statt, wobei allerdings im allgemeinen nicht gleich mehrere Reflexionsstufen<br />

durchlaufen werden. Denken wir als Beispiel an Platons<br />

Staat (erstes Buch 331c), wo Sokrates gegen die Ansicht argumentiert,


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 54<br />

Gerechtigkeit bestehe darin, die Wahrheit zu sagen und das, was man<br />

von jemandem empfangen hat, diesem zurückzugeben. Sokrates verweist<br />

darauf, daß wir nach dieser Konzeption von Gerechtigkeit einem Menschen,<br />

der inzwischen wahnsinnig geworden ist, auch seine Waffen zurückgeben<br />

müßten, die er uns geliehen hat. Das kann aber nicht gerecht<br />

sein, und daher ist im Sinne einer reductio ad absurdum diese Gerechtigkeitsvorstellung<br />

zu verwerfen. Hier wurde eine auf den ersten Blick<br />

plausibel erscheinende Regel für gerechtes Verhalten zurückgewiesen,<br />

weil sie in Konflikt mit unseren Intuitionen über gerechtes Verhalten in<br />

einem bestimmten Anwendungsfall steht.<br />

Umgekehrt berufen wir uns in Diskussionen, ob eine bestimmte<br />

Handlung moralisch richtig war, meist auf allgemeinere Regeln, um unsere<br />

Meinung zu stützen, wobei wir hoffen, daß diese Regeln so einleuchtend<br />

sind, daß auch unser Widerpart sich von ihnen überzeugen<br />

lassen wird. Gegen jemanden, den wir dabei beobachten, wie er aus Vergnügen<br />

seinen Hund schlägt, werden wir z. B. einwenden, es sei doch<br />

offensichtlich Unrecht, einer leidensfähigen Kreatur nur zum Spaß<br />

Schmerzen zuzufügen. Ein solcher Appell wird zwar wahrscheinlich nur<br />

in den seltensten Fällen praktischen Erfolg haben, aber wenn es dem<br />

Tierquäler aus irgendeinem Grund um eine moralische Rechtfertigung<br />

seiner Handlung zu tun ist, ist es nun an ihm, sich gegen den Vorwurf zu<br />

wehren. Als rationaler Diskussionspartner könnte er versuchen, die genannte<br />

Regel anzugreifen – etwa indem er anhand von entsprechenden<br />

Anwendungsfällen zeigt, daß sie nicht in dieser Allgemeinheit gültig ist –<br />

oder ihr zustimmen und etwa erläutern, wieso sein Verhalten trotz des<br />

Anscheins nicht unter die Regel subsumierbar sei. Und selbst wenn er<br />

nur eine fadenscheinige Ausrede daherstottert, zeigt das schon, daß ihn<br />

der Hinweis auf die allgemeine Regel nicht einfach kalt läßt.<br />

Dieses Verfahren wirkt noch etwas spärlich und bedarf einer weiteren<br />

Ausarbeitung. In seiner bisherigen Form wird es meist als enges Reflektives<br />

Gleichgewicht zwischen Regeln und Einzelfällen bezeichnet, das<br />

zu einem Verfahren des weiten reflektiven Gleichgewichts zu erweitern<br />

ist. Dafür werden größere Teile unseres Hintergrundwissens in die Beurteilung<br />

mit eingebracht, die nicht nur aus den jeweiligen Bereichen stammen,<br />

um deren Regeln es geht, wie das bisher der Fall war. Daniels hat<br />

in (1979) einen derartigen Vorschlag für die Ethik unterbreitet, den ich<br />

auf die Erkenntnistheorie übertragen möchte. Danach müssen wir dem<br />

oft holistischen Charakter von Begründungen auch auf der Metaebene<br />

gerecht werden, indem wir alle relevanten Teile unseres Hintergrundwissens<br />

in einen solchen Reflexionsprozeß einbringen. Als Ausgangspunkt


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 55<br />

des Verfahrens sind dann die folgenden drei Komponenten unseres<br />

Überzeugungssystems zu nennen:<br />

(a) Eine Menge wohlüberlegter epistemischer Bewertungen<br />

einzelner Rechtfertigungen,<br />

(b) eine Menge von erkenntnistheoretischen Prinzipien und<br />

(c) unser weiteres relevantes Hintergrundwissen,<br />

das z. B. in Form von empirischen Theorien über unsere Wahrnehmung<br />

und unsere Erinnerungsfähigkeiten und anderen typischen Hilfstheorien<br />

wie etwa der Statistik vorliegt. 14 Unter den wohlüberlegten und reflektierten<br />

epistemischen Bewertungen sind Einschätzungen von bestimmten<br />

rechtfertigenden Argumenten zu verstehen, bei denen wir uns relativ sicher<br />

sind, daß die bekannten Fehlerquellen, wie besondere persönliche<br />

Betroffenheit, mangelhafter Kenntnisstand etc., keine Rolle gespielt haben<br />

und wir zu einem ausgewogenen Urteil anhand einer Abwägung aller<br />

uns bekannten relevanten Umstände gelangt sind. Wie für die Rechtfertigung<br />

empirischer Theorien nicht einfach alle Daten unterschiedslos herangezogen<br />

werden, sondern nur solche, die schon einen Ausleseprozeß<br />

durchlaufen haben, werden also auch hier nicht alle epistemischen Bewertungen,<br />

die wir vorfinden, als Ausgangsdaten zugelassen, sondern<br />

nur solche, die einen vortheoretischen Filterprozeß überstanden haben.<br />

Dabei werden die aussortiert, für die wir bereits, ohne über eine ausgefeilte<br />

Rechtfertigungstheorie zu verfügen, erkennen können, daß sie unzuverlässig<br />

sind. Unter (b) werden verschiedene epistemische Prinzipien<br />

betrachtet und in der Suche nach einem Reflexionsgleichgewicht daraufhin<br />

untersucht, wie gut sie im Lichte unserer Hintergrundtheorien – die<br />

z. B. aus gewissen Metaprinzipien und relevantem empirischen Wissen<br />

bestehen – die wohlüberlegten epistemischen Bewertungen erklären<br />

oder systematisieren können. Das Ziel besteht in einem Überzeugungssystem,<br />

in dem die drei Komponenten in möglichst kohärenter Form vorliegen;<br />

d.h., wir suchen nach Prinzipien, die unsere epistemischen Bewertungen<br />

in optimaler Form erklären, wobei aber in verschiedenen Reflexionsschritten<br />

auch einige der wohlüberlegten Bewertungen selbst<br />

wieder aufgegeben oder revidiert werden können. Die allgemeine Strategie<br />

bei der Suche nach einem Reflexionsgleichgewicht wird dabei vermutlich<br />

eher konservativ sein und versucht mit möglichst wenig Änderungen<br />

im Gesamtsystem unserer Überzeugungen auszukommen, wobei<br />

14 Sie zeigt etwa, daß viele typische Schlußweisen unseres Alltags, die statistische<br />

Aussagen betreffen, mit großer Vorsicht zu genießen sind (s. Tversky/Kahneman<br />

1982)


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 56<br />

die Größe der Änderungen sicher selbst wiederum im Lichte bestimmter<br />

Metabewertungen zu beurteilen ist. 15<br />

So werden wir im Normalfall Bewertungen unproblematisch erscheinender<br />

Wahrnehmungsurteile als zuverlässig nicht allzu schnell aufgeben,<br />

nur weil das unsere epistemischen Prinzipien vereinfachen könnte.<br />

Dem steht unsere Metabewertung entgegen, daß gerade Zuverlässigkeitsannahmen<br />

dieses Typs unersetzliche Eckpfeiler unserer Erkenntnis<br />

sind. Bei ihrer Preisgabe würden zu wenige unserer Vorstellungen von<br />

epistemischer Beurteilung aufrechterhalten. Trotzdem kann uns schließlich<br />

die epistemische Theorie auch Argumente an die Hand geben,<br />

grundlegende Bewertungen einer Reflexion zu unterziehen, und sie<br />

eventuell zu revidieren. Für diesen Vorgang, der einer kleinen erkenntnistheoretischen<br />

Revolution gleichkäme, lassen sich bisher wohl kaum<br />

einfache und strikte Spielregeln angeben. Jedenfalls muß das Verfahren<br />

fortgesetzt werden, bis ein Reflexionsgleichgewicht der drei Komponenten<br />

erreicht ist. Das ist natürlich nur eine recht abstrakte Beschreibung<br />

dieses komplexen Verfahrens, das wir in unterschiedlichen Bereichen<br />

der Philosophie zur dialektischen Begründung von Normen antreffen.<br />

Interessant scheint mir noch der Hinweis, daß nicht nur einschlägige<br />

empirische Theorien wie die über unsere Wahrnehmung und unsere Informationsverarbeitung<br />

erkenntnistheoretisch bedeutsam sein können.<br />

Wir finden z. B. in der Philosophiegeschichte immer wieder Entwicklungen,<br />

für die ebenso das zeitgeschichtliche Weltbild naturwissenschaftlicher<br />

und religiöser Art relevant ist. Um einige Beispiele zu erwähnen:<br />

Wenn Kant zu Beginn seiner Kritik der reinen Vernunft fragt „Wie sind<br />

synthetische Urteile a priori möglich?“, so geschieht das aufgrund seiner<br />

Annahme, daß ihre Existenz offensichtlich ist. Dafür spielt seine Auffassung<br />

der Geometrie und der naturwissenschaftliche Hintergrund der<br />

Newtonschen Mechanik als Paradigma für Wissen eine wesentliche Rolle.<br />

Angesichts der Entwicklung der Wissenschaften seit Kant stehen uns<br />

heute eine Reihe neuer Gesichtspunkte zur Verfügung: Die mathematische<br />

Geometrie gilt inzwischen eher als analytisch und die euklidische<br />

Geometrie sowie die Newtonsche Theorie haben ihren ausgezeichneten<br />

Status verloren; außerdem sind ihre grundlegenden Charakteristika wie<br />

ihre deterministische Vorstellung von Kausalität nicht mehr aufrecht zu<br />

erhalten. Auch die Cartesianische Erkenntnistheorie enthält eine Reihe<br />

von Annahmen, die auf der Grundlage seines Weltbildes sicher anders<br />

als heute zu bewerten sind. Da ist zunächst der Ausgangspunkt Descartes<br />

15 Daß die konservative Vorgehensweise auch erkenntnistheoretisch zu begründen<br />

ist, wird in (V.A.3) zu erläutern sein.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 57<br />

in einer Reflexion auf die Inhalte unserer eigenen mentalen Vorstellungen,<br />

für die er annimmt, daß sie uns vollkommen transparent sind. Daß<br />

diese Annahme nicht unproblematisch ist, ist uns heute nicht nur durch<br />

die Freudsche Redeweise vom Unterbewußten geläufig. Ebenso ist Descartes<br />

Idee, vermittels eines Gottesbeweises zu einer Begründung unserer<br />

Erkenntnis zu gelangen, heutzutage kaum noch plausibel. In diesen<br />

Beispielen, deren Liste sich leicht verlängern ließe, enthüllt sich eine eindeutige<br />

Abhängigkeit erkenntnistheoretischer Überlegungen von unserem<br />

Hintergrundwissen in bezug auf physikalische, psychologische oder<br />

religiöse Ansichten. Sie zeigt, warum die Berücksichtigung eines weiten<br />

Reflexionsgleichgewichts in unserer Methodologie wichtig ist, auch<br />

wenn wir damit noch nicht die Mechanismen aufgeklärt haben, wie die<br />

empirischen Theorien letztlich Eingang in die Erkenntnistheorie finden.<br />

Es bleiben eine Reihe von Fragen offen, wie die, ob es immer ein<br />

Gleichgewicht geben wird oder ob nicht vielmehr die Inkohärenz immer<br />

so groß bleiben könnte, daß wir nicht von einem Reflexionsgleichgewicht<br />

reden möchten; oder ob es mehrere Gleichgewichtszustände geben<br />

kann. Es ist ebenso unklar, wieviele Reflexionsstufen durchlaufen<br />

werden müssen, bis sich ein entsprechendes Gleichgewicht einstellt. Des<br />

weiteren kann der Bereich unseres Wissens, der Berücksichtigung finden<br />

soll, ständig erweitert werden oder sich durch neue Erkenntnisse verändern.<br />

Außerdem sind die Spielregeln nicht soweit geklärt, daß schnelle<br />

Einigung über ihre Anwendung zu erwarten ist. Aber auch wenn sich die<br />

Regeln des Gleichgewichtsverfahrens bisher nicht allgemein explizieren<br />

lassen, scheinen seine Anwendungen in Einzelfällen oft ziemlich überzeugend<br />

zu sein.<br />

Schauen wir zum Abschluß noch auf zwei Einwände gegen das Verfahren<br />

des reflektiven Gleichgewichts, die aus einer anderen Richtung<br />

kommen. Da ist zunächst die Kritik von Stich (1988), daß die analytische<br />

Erkenntnistheorie schlicht von Bedeutungsanalysen ausgeht, denen<br />

man damit eine Aufgabe zuweist, die sie nicht erfüllen können. Stich hat<br />

wohl Recht, daß es in der „ordinary language“-Philosophie Tendenzen<br />

gab, handfeste philosophische Probleme, wie die moralische Frage, was<br />

man in einer bestimmten Situation tun solle, durch eine Bedeutungsanalyse<br />

zu entscheiden. Genügt es nicht – so dachte mancher „ordinary language“-Philosoph<br />

–, einfach zu ermitteln, wie das „soll“ in unserer Sprache<br />

korrekt gebraucht wird, um damit auch die moralische Frage zu beantworten?<br />

Ein bekannter Versuch, sehr direkt so zu argumentieren, findet<br />

sich in Searles Herleitung eines scheinbar moralischen Gebots aus<br />

rein deskriptiven Prämissen. Searle demonstriert dort (erstmals 1964) in


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 58<br />

einer Reihe von Einzelschritten, wie daraus, daß jemand im geeigneten<br />

Kontext die Worte äußert: „Ich verspreche, Dir fünf Dollar zu zahlen“,<br />

geradezu analytisch folgt, daß er auch eine Verpflichtung übernommen<br />

hat, die fünf Dollar zu bezahlen. Doch Mackies Analyse (1981, 82ff)<br />

macht eine implizite Voraussetzung in dieser Argumentation namhaft,<br />

die offenbart, daß wir damit keineswegs eine moralische Norm allein<br />

aufgrund sprachlicher Zusammenhänge begründen konnten. Der Schluß<br />

basiert nämlich unter anderem auf dem Akzeptieren der Institution des<br />

Versprechengebens und ihrer Regeln. Lehnt man diese Institution, die sogar<br />

in sprachliche Zusammenhänge Eingang gefunden hat, dagegen ab,<br />

hat auch das gegebene „Versprechen“ keine verpflichtende Kraft mehr.<br />

Die rein sprachliche Analyse entbindet einen daher nicht von der moralphilosophischen<br />

Aufgabe einer Rechtfertigung der fraglichen Norm, Versprechen<br />

einzuhalten. 16<br />

Spätestens seit Moores Angriff der offenen Frage auf naturalistische<br />

Fehlschlüsse sollte die Sterilität rein sprachphilosophischer Analysen bekannt<br />

sein (s. auch Sosa 1989). Sie können nur mit einiger Akribie ermitteln,<br />

was der normale Muttersprachler in dieser Frage denkt, 17 aber<br />

damit ist noch keineswegs entschieden, ob diese Common Sense Ansichten<br />

auch begründet oder begründbar sind. Es ist z. B. noch nicht einmal<br />

ausgeschlossen, daß diese Ansichten untereinander inkonsistent sind,<br />

was sicherlich in einigen Fällen passiert. Putnam (1990, 279ff) behauptet<br />

sogar, daß es so etwas wie einen Nazi mit rationalen Überzeugungen<br />

überhaupt nicht geben könne, womit der Vorwurf innerer Unstimmigkeit<br />

der Überzeugungen auf größere Gruppen einiger Gesellschaften zuträfe.<br />

In solchen Fällen spricht alles dafür, die Ansichten des Common<br />

Sense zurückzuweisen und gegebenenfalls, sollten sie bereits im Sprachgebrauch<br />

etabliert sein, für eine Änderung des Sprachgebrauchs einzutreten.<br />

Im Bereich empirischen Wissens spielen irreführende Redewendungen<br />

wie „die Sonne geht auf“ keine so verderbliche Rolle wie im moralischen<br />

oder politischen, wo sie häufig genug zur Verschleierung fehlerhafter<br />

normativer Ansichten eingesetzt werden. Statt die „semantische<br />

Umweltverschmutzung“ in diesen Fällen zu bekämpfen, wird sie durch<br />

16 Siehe dazu auch Tugendhat (1984, 59ff), der früher einen entsprechenden<br />

semantischen Zugang zur Moral propagiert hat und seine spätere Kritik daran<br />

(1984, 6).<br />

17 Dazu hat schon Sidgwick (1962, Buch III Kap. XI, Resümee S. 360),<br />

der einige unsere Common Sense Ansichten zur Moral genauer untersucht hat,<br />

darauf hingewiesen, daß die Common Sense Moral meist auch noch viel zu vage<br />

gehalten ist, um die interessanteren Fälle entscheiden zu können.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 59<br />

die bloße Sprachanalyse festgeschrieben, was kaum das Ziel aufklärerischer<br />

Philosophie sein kann. Stich Kritik an diesen Vorgehensweisen ist<br />

daher berechtigt, aber sie trifft die meisten heutigen analytischen Erkenntnistheoretiker<br />

und Moralphilosophen nicht, denn sie versuchen gerade<br />

mit dem Gleichgewichtsverfahren eine substantielle Theoriebildung<br />

vorzunehmen, die den bisherigen Sprachgebrauch und Common Sense<br />

keineswegs zementiert, sondern durch interne Reflexionen zu kritisieren<br />

und an einigen Stellen zu überwinden sucht. Um seinen Vorwurf aufrechtzuerhalten,<br />

hätte Stich nachzuweisen, daß man sich in dem vorgeschlagenen<br />

Reflexionsprozeß nicht hinreichend weit von den ursprünglichen<br />

Positionen entfernen könne, aber das wurde bisher keineswegs belegt.<br />

Gewichtiger erscheint auf den ersten Blick der Einwand von Nisbett<br />

und Stich (1980), daß empirische Untersuchungen demonstrieren, welch<br />

typische Fehlschlüsse, wie z. B. der des Spielers („gamblers fallacy“), sich<br />

in unserer tatsächlichen inferentiellen Praxis finden lassen. Kann es sinnvoll<br />

sein, diese zu Beginn des Verfahrens als Ausgangspunkt zu verwenden?<br />

Eine erste Replik kann in dem Hinweis bestehen, daß im Gleichgewichtsverfahren<br />

eher die geäußerten und reflektierten epistemischen Bewertungen<br />

als Daten herangezogen werden und nicht die bloß im Verhalten<br />

geoffenbarten. Trotzdem lassen sich vermutlich in unseren bereits<br />

reflektierten Absichtserklärungen einige dieser Fehlschlüsse wiederfinden,<br />

die dann in den Reflexionsprozeß mit eingehen werden. Doch gerade<br />

dieser Einwand dokumentiert zugleich, daß sich Fehlschlüsse durch<br />

eine Reflexion der Praxis als solche aufdecken lassen, denn darauf müssen<br />

sich Nisbett und Stich schon stützen, wenn sie von „Fehlschlüssen“<br />

sprechen. In einem reflektiven Gleichgewicht sind diese dann natürlich<br />

zurückzuweisen. In dem erweiterten Reflexionsprozeß können wir auf<br />

alle Informationsquellen zurückgreifen, die uns überhaupt zugänglich<br />

sind und dazu gehören dann auch Expertenmeinungen, die es auch für<br />

Inferenzverfahren gibt (s. dazu Conee und Feldman 1983). Der Fehlschluß<br />

des Spielers ist mit den Regeln der Statistik zu konfrontieren und<br />

zurückzuweisen. Die Beispiele von Nisbett und Stich sind daher gute<br />

Beispiele dafür, wie das Gleichgewichtsverfahren tatsächlich zur theoretischen<br />

Überwindung auch schlechter Schlußregeln durch entsprechende<br />

Reflexion geführt hat. 18<br />

18 Natürlich soll damit nicht die Behauptung verbunden werden, man<br />

könnte durch die bloße Reflexion auch das entsprechende Verhalten ändern.<br />

Diesem Wunschdenken der Aufklärung möchte ich nicht folgen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 60<br />

Anwendungen des Gleichgewichtsverfahrens beschränken sich auch<br />

nicht auf die Erkenntnistheorie, sondern es kann sich um Explikationen<br />

von Begriffen handeln, deren Einschränkung auf bestimmte Bestandteile<br />

des Begriffs eine Bewertung beinhaltet, oder die Begründung einer Moraltheorie<br />

oder die Begründung projektierbarer Schlußregeln der Induktion<br />

usf. Das Verfahren kann in diesen unterschiedlichen Gebieten seine<br />

vereinheitlichende Kraft für die Metaphilosophie unter Beweis stellen,<br />

in Konkurrenz zu anderen Verfahren treten und so weiterentwickelt<br />

werden. 19 Eine weitere Ausgestaltung erfährt es im folgenden in seinem<br />

praktischen Einsatz im Verlauf der Arbeit.<br />

4. Evolutionäre Erkenntnistheorie<br />

Obwohl das eigentlich nicht mein Hauptthema ist, möchte ich doch einige<br />

Bemerkungen dazu machen, welche Stellung der Evolutionstheorie<br />

in dem Unternehmen Erkenntnistheorie zukommt. Die „evolutionäre Erkenntnistheorie“<br />

ist ein aufstrebendes Gebiet in der institutionalisierten<br />

Philosophie und viele Autoren berufen sich nonchalant auf die Evolution,<br />

als ob diese über alle Schwierigkeiten, die in ihren erkenntnistheoretischen<br />

Systemen auftreten, in geradezu naturwissenschaftlicher Weise<br />

hinweghelfen könnte. Da sind sicher Warnungen angebracht, die Evolution<br />

vorsichtiger zum Einsatz zu bringen.<br />

Zunächst dürfte es eigentlich selbstverständlich sein, daß man die<br />

Evolution nicht erfolgreich gegen einen radikalen Skeptiker ins Feld führen<br />

kann, denn die Berufung auf Darwinistische Theorien setzt bereits<br />

einen guten Teil unseres Wissens über unsere Vergangenheit voraus, die<br />

wir zur Begründung evolutionärer Theorien benötigen. Dazu kommen<br />

Erkenntnisse aus der Molekularbiologie und anderen Gebieten wie der<br />

Chemie, auf die sich Darwins Theorie zusätzlich berufen muß, wenn<br />

man der Evolutionstheorie den wissenschaftlichen Status verschaffen<br />

möchte, der ihr heutzutage zukommt. All diese Erkenntnisse stellt ein radikaler<br />

Skeptiker aber bereits in Frage, so daß wir uns ihm gegenüber einer<br />

petitio principii schuldig machten, würden wir sie voraussetzen. Diesen<br />

Punkt möchte ich nicht in seine Details verfolgen, zumal entsprechende<br />

Analysen an anderer Stelle vorgelegt wurden. Sehr klar geschieht<br />

das in Bieri (1987), wo auch der Rettungsversuch Vollmers (1983, 37f),<br />

daß der dabei auftretende Zirkel nicht wirklich vitiös sei, überzeugend<br />

zurückgewiesen wird (s. Bieri 1987, 132ff).<br />

19 Daniels (1979) gibt noch eine Reihe von Punkten an, wo sich dieses<br />

Verfahren von intuitionistischen und subjektivistischen Verfahren unterscheidet.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 61<br />

Kann die Evolution denn innerhalb einer „naturalisierten Erkenntnistheorie“<br />

eine wichtige Rolle übernehmen, wenn man die eben geäußerten<br />

Einschränkungen einer solchen Wendung der Epistemologie einmal<br />

außer Acht läßt? Unsere Vorstellungen von Evolution sind zweifellos<br />

ein wichtiger Bestandteil der internen Erklärung für die Entstehung von<br />

Teilen unserer Erkenntnisfähigkeiten. Während wir uns im Rahmen einer<br />

Naturalisierung zunächst nur nach einer internen Rechtfertigung<br />

umgeschaut haben, wieso wir annehmen, daß bestimmte Meinungen auf<br />

zuverlässigen Wahrnehmungen beruhen, und uns dazu der Sinnesphysiologie<br />

zugewandt hatten, fragen wir nun danach, wie und wieso wir zu<br />

den Sinnesapparaten gelangt sind, die diese Zuverlässigkeit besitzen.<br />

Aber auch an dieser Stelle der Argumentation ist wiederum Vorsicht angebracht.<br />

Das läßt sich an einem typischen Beispiel für die Berufung auf<br />

die Evolution verdeutlichen: Michael Devitt (1991, 78) geht auf Putnams<br />

Bedenken gegenüber apriorischen Ablehnungen bestimmter Theorien<br />

in der Wissenschaft wie z. B. Dämonentheorien ein. Eine derartige<br />

Bevorzugung bestimmter Theorien ist nach Devitts Meinung angeboren,<br />

und er fragt dann: „Is the innateness worrying?“. Daß dem nicht so sei,<br />

wird mit Hilfe der Evolution begründet.<br />

It is not, because it is explicable along Darwinian lines. If a beliefforming<br />

procedure is a good one, then it is not surprising that it<br />

should be innate. Good procedures lead to truths which are conducive<br />

to survival. Thus natural selection will favour organisms with<br />

good procedures. Devitt (1991,78)<br />

Überlegungen dieser Schlichtheit sind leider im Umgang mit der Evolutionstheorie<br />

verschiedentlich anzutreffen; da ist Devitt nicht das eine<br />

schwarze Schaf.<br />

Gegen diese Form, die Evolution ins Spiel zu bringen, lassen sich<br />

eine Reihe von Einwänden geltend machen. Gegenüber klassischen erkenntnistheoretischen<br />

Fragestellungen liegt zunächst eine Änderung des<br />

Themas vor. Der Erkenntnistheoretiker fragt nach der Begründung einzelner<br />

Meinungen und nicht nach den „eingebauten“ Mechanismen der<br />

Überzeugungsbildung. Deren möglicherweise evolutionär erworbene<br />

Zuverlässigkeit kann uns bestenfalls schwache indirekte Hinweise für<br />

eine bestimmte Meinung bieten, daß diese wahr ist. Doch lassen wir uns<br />

auf diesen Punkt einmal ein, dann möchte ich in weiteren Schritten andere<br />

Bedenken gegen die evolutionäre Überlegung vortragen. Zunächst<br />

werde ich dafür eintreten, daß wir mit der natürlichen Auslese im günstigsten<br />

Fall auf solche eingebauten überzeugungsbildenden Mechanis-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 62<br />

men schließen dürfen, die Beobachtungsüberzeugungen betreffen – wobei<br />

mit „Beobachtungsüberzeugungen“ Überzeugungen gemeint sind,<br />

mit denen wir wiederzugeben gedenken, was wir wahrnehmen. Nur für<br />

diese und eng daran angelehnte Überzeugungen können wir für bestimmte<br />

Umgebungen einen Zusammenhang zu dem Überleben der Individuen<br />

einer Art herstellen. Auf der Ebene abstrakter physikalischer<br />

oder gar mathematischer Theorien ist die Redeweise von natürlicher<br />

Auslese höchstens als sehr schwache Analogie zu betrachten. Sie sind<br />

weit von den Umständen entfernt, für die unsere Fähigkeiten durch den<br />

Prozeß der natürlichen Auslese gegangen sind (s. Nagel 1992, 138ff).<br />

Was man mit „Evolution“ auf dieser Ebene meinen kann – welche Art<br />

metatheoretischer Theorie über die Theoriendynamik – bedürfte eigener<br />

Explikationen, und in einem zweiten Schritt müßte belegt werden, daß<br />

solche „Evolutionen“ in der Wissenschaftsgeschichte auch tatsächlich anzutreffen<br />

sind. Bis zu solchen metatheoretischen Resultaten ist aber noch<br />

viel Arbeit zu leisten und einige Hinweise sollen andeuten, warum ich<br />

eher skeptisch bin, was den Erfolg dieses erkenntnistheoretischen Projekts<br />

betrifft.<br />

Ob das persönliche Überleben durch das Vertreten wahrer Theorien<br />

überhaupt gefördert wird, dürfte stark von den jeweiligen Umständen<br />

abhängen. Zu Galileis Zeiten war es kaum förderlich, wahre Ansichten<br />

über die Stellung von Sonne und Erde zu haben und diese auch noch öffentlich<br />

zu verkünden. Daß es in späteren Zeiten einen Vorteil für das<br />

Überleben bedeutet und daß dieser Vorteil auf angeborene Meinungsbildungsverfahren<br />

zurückgeht, bleibt eine genauso gewagte empirische Behauptung.<br />

Wie sehen denn die Mechanismen aus, die verhindern, daß<br />

Menschen, die falsche Theorien vertreten, „weil sie vermutlich falsche<br />

Mechanismen der Meinungsbildung haben“, an der Verbreitung ihrer<br />

Gene durch Fortpflanzung gehindert werden? Eine Ablehnung der<br />

Quantenmechanik führt nach unserem jetzigen Kenntnisstand weder zu<br />

frühzeitigem Ableben noch zu erhöhter Unfruchtbarkeit. Spekulationen<br />

sind eher in der anderen Richtung möglich, daß die Labors der Physiker<br />

und die Strahlenbelastungen im Umkreis der Teilchenbeschleuniger ...<br />

Außerdem verschwenden die Wissenschaftler ihre fruchtbarsten Jahre<br />

mit dem Studium, statt konsequent ihre genetische Ausstattung zu verbreiten.<br />

Die Lächerlichkeit dieser Überlegungen sollte nur deutlich machen,<br />

wie weit wir von solchen Ansichten, auf die Devitt sich beruft, tatsächlich<br />

entfernt sind.<br />

Aber selbst für den Bereich der Beobachtungsüberzeugungen, in dem<br />

es nur um Meinungen über wahrgenommene Teile unserer Umgebung


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 63<br />

geht, ist der Zusammenhang zwischen Mechanismen, die wahrheitsförderlich<br />

sind, und der Überlebensfähigkeit von Individuen nicht so einfach,<br />

wie von Devitt unterstellt. Wir stoßen wiederum auf eine starke<br />

Abhängigkeit von der jeweiligen Umwelt. In einer Umgebung, in der<br />

Nahrung in einem einigermaßen ausreichenden Maße vorhanden ist, jedoch<br />

viele giftige Pflanzen vorkommen, die der Nahrung äußerlich ähnlich<br />

sehen, ist eine Strategie der Vorsicht, die auch viele Pflanzen, die eßbar<br />

wären, eher als giftig einstuft, gegenüber einer die auf Ermittlung<br />

der wahren Qualitäten ausgerichtet ist, vom Standpunkt der Überlebensfähigkeit<br />

vorzuziehen. Die Evolution wird unter derartigen Umständen<br />

ihre Individuen nicht auf Wahrheitsfindung hin auswählen, sondern auf<br />

größere Vorsicht hin. Zusätzlich mag der Zeitfaktor der Einschätzung<br />

von Pflanzen im Hinblick auf ihre Genießbarkeit noch eine Rolle spielen;<br />

so z. B., wenn natürliche Feinde existieren, die ein allzu langes<br />

Nachdenken über die Frage der Eßbarkeit bestimmter Pflanzen zu eigenen<br />

Freßzwecken mißbrauchen könnten. Auch dieser Faktor ist der Frage<br />

der Ermittlung wahrer Ansichten gegenüber eher fremd.<br />

Die Entwicklungen durch natürliche Auslese verlaufen auch nicht<br />

immer in einer bestimmten Richtung, was das bekannte Beispiel der<br />

Nachtfalter in Mittelengland belegt. Um sich der Umwelt während der<br />

industriellen Revolution mit ihrem Ruß anzupassen, nahmen die vorher<br />

weiß-braun gesprenkelten Falter eine gräuliche Farbe an, begannen aber,<br />

nachdem die Luft in den sechziger Jahren wieder besser wurde, zu ihrer<br />

ursprünglichen Farbe zurückzukehren. Das Beispiel demonstriert wiederum<br />

die Kontextabhängigkeit und Wankelmütigkeit von evolutionär<br />

favorisierten Eigenschaften und daß der Schluß, was die Evolution ausgesucht<br />

hätte, müsse nach diesem langen Ausleseprozeß nun in bestimmter<br />

Hinsicht maximal geeignet sein, kaum plausibel ist. All die Überlegungen<br />

der Nützlichkeit bestimmter Mechanismen der Überzeugungsbildung<br />

für ganz bestimmte Tiere in einer ganz bestimmten Umwelt –<br />

wie etwa der Zeitfaktor – sind Überlegungen die den epistemologischen,<br />

die nur auf Wahrheit ausgerichtet sind, eigentlich fremd sind und gehören<br />

deshalb nicht in eine Erkenntnistheorie. Wahrheit und Nützlichkeit<br />

von Überzeugungen für die Individuen einer bestimmten Art müssen daher<br />

keineswegs zusammenfallen. Ihr Zusammenhang sollte für den jeweiligen<br />

Einsatz der Evolution in der Erkenntnistheorie genauer ermittelt<br />

werden. Das gilt natürlich in zunehmendem Maße dort, wo wir uns<br />

Überzeugungen über unsere Umwelt zuwenden, die mit unserem Überleben<br />

in keinem direkt erkennbaren Zusammenhang mehr stehen, etwa<br />

Annahmen über weit zurückliegende und für unser Überleben relativ be-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 64<br />

langlos erscheinende Ereignisse oder Ansichten wie die genannten sehr<br />

theoretischen in der Grundlagenforschung der heutigen Physik oder Mathematik.<br />

Zu dieser Kluft zwischen Nützlichkeit fürs Überleben und Wahrheit<br />

kommen innertheoretischen Hindernisse für eine Verwirklichung der<br />

nützlichsten Mechanismen hinzu. Die Theorie der natürlichen Auslese<br />

ist eine statistische Theorie mit Phänomenen wie „genetic drift“ und „genetic<br />

hitchhiking“, die einer idealen Verwirklichung selbst der Nützlichkeit<br />

im Wege stehen. Das weist darauf hin, daß die Reichweite evolutionärer<br />

Erklärungen auch noch einer innertheoretischen Abschätzung bedarf.<br />

„Genetic Hitchhiking“ bezeichnet den Umstand, daß ganze Gene<br />

vererbt werden. Wenn ein Gen sich in einem Genpool durchsetzt, weil<br />

es bestimmte nützliche Eigenschaften kodifiziert, so werden auch alle<br />

anderen ebenfalls von dem Gen bestimmten Eigenschaften in der Population<br />

auftreten, ob diese nun nützlich sind oder nicht. 20 Das kann verhindern,<br />

daß ideale Lösungen in bestimmten Bereichen verwirklicht<br />

werden, selbst wenn diese in einer Art bereits genetisch vertreten sind.<br />

Das Auftreten bestimmter Eigenschaften, die von der Natur auf ihre<br />

Eignung hin geprüft werden, ist darüber hinaus ein Zufallsprozeß, in<br />

dem ideale Eigenschaften nur dann instantiiert werden können, wenn<br />

zunächst zufällig die geeigneten Mutationen der Gene auch auftreten.<br />

Selbst wenn das der Fall ist, bleibt es noch dem Zufallsprozeß der natürlichen<br />

Auslese überlassen, ob sie sich auch im Genpool durchsetzen können,<br />

was man mit „genetic drift“ bezeichnet. Die Literatur zur Evolutionstheorie<br />

gibt auch eine Reihe von Beispielen an, in denen gerade nicht<br />

die idealen Lösungen realisiert wurden. So nennt Dawkins (1990, 112f)<br />

uns das Beispiel der sonderbaren, asymmetrischen Verdrehung des Kopfes<br />

bei Plattfischen, bis seine beiden Augen nach oben schauen, wenn sie<br />

sich auf den Boden niederlassen. Das wirkt gegenüber der entsprechenden<br />

Entwicklung beim Rochen unangemessen. „Kein vernünftiger Planer<br />

hätte eine solche Monstrosität erdacht, wenn er in eigener Verantwortung<br />

einen Plattfisch hätte schaffen sollen.“ (Dawkins 1990, 112). Diese<br />

und schwerwiegendere „Fehler“ der Evolution – wie der menschliche<br />

Blinddarm und der Daumen des Panda – sind z.T. dadurch zu erklären,<br />

daß die Evolution eben nicht mit einem leeren Zeichenbrett begann,<br />

sondern auf dem aufbauen mußte, was sie schon vorfand, und das sind<br />

bei den Plattfischen Vorfahren, die sich im Unterschied zum Rochen auf<br />

die Seite und nicht den Bauch gelegt haben.<br />

20 Sollten sie zu schädlich für das Überleben sein, wird sich dieses Gen natürlich<br />

nicht durchsetzen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 65<br />

Neben der Verwirklichung minderwertiger Lösungen hat die evolutionäre<br />

Sichtweise kognitiver Prozesse mit Fragen des generellen Leib-<br />

Seele Problems zu kämpfen. Sie hat zunächst zu beschreiben, wie Überzeugungen<br />

oder andere mentale Zustände mit semantischer Information,<br />

für deren Zuschreibung eine Rationalitätsannahme wesentlich erscheint,<br />

in biologischen Systemen instantiiert sein können. Die Evolutionstheorie<br />

beschreibt die Entstehung von Organen mit bestimmten Eigenschaften<br />

und ist ganz der materiellen Beschreibungsebene verhaftet.<br />

Daß die Redeweise evolutionärer Erkenntnistheoretiker von Informationsverarbeitung<br />

diesen problematischen Punkt eher verschleiert als löst,<br />

wird durch eine Reihe von Überlegungen (s. dazu Bieri 1987, 122ff)<br />

deutlich. Der Begriff „Information“ ist ziemlich mehrdeutig. Man unterscheidet<br />

deshalb auch zumindest in syntaktische, semantische und pragmatische<br />

Information. Syntaktische Information findet sich in allen Gegenständen.<br />

Jeder Baum trägt syntaktische Informationen über seine<br />

kausale Vorgeschichte: Sein Aufbau enthält unter anderem die Information,<br />

wie alt er ist. Um diese Information im Sinne eines sehr umfassenden<br />

Informationsbegriffs geht es in der Rechtfertigung von Meinungen<br />

aber nicht. In der klassischen Erkenntnistheorie werden kognitive Zusammenhänge<br />

zwischen Überzeugungen untersucht, die spezifische Informationen<br />

enthalten, nämlich semantische Informationen, also Entitäten,<br />

die wahr oder falsch sein können. Der eher schillernde allgemeine<br />

Informationsbegriff versteckt mit seiner Mehrdeutigkeit oft nur die tiefliegenden<br />

Probleme der Zuschreibung semantischen Gehalts zu den Zuständen<br />

eines biologischen Systems.<br />

Auch zu dieser Problematik sind weitere Vorarbeiten notwendig, um<br />

den Wert der Evolution für eine naturalisierte Erkenntnistheorie einschätzen<br />

zu können. Wir sollten daher ausgesprochen vorsichtig mit Behauptungen<br />

über den evolutionären Wert wahrer Überzeugungen und<br />

entsprechender Veranlagungen zur Überzeugungsbildung sein. Für mein<br />

Projekt, das der klassischen erkenntnistheoretischen Problematik gewidmet<br />

ist, hat die evolutionäre Erkenntnistheorie leider keine erfolgversprechenden<br />

Ansatzpunkte anzubieten.<br />

5. Resümee<br />

Als Resignation auf das Scheitern der Versuche, dem Skeptiker Paroli zu<br />

bieten und die Philosophie auf die sichere Grundlage einer prima philosophia<br />

zu stellen, hat in den letzten Jahrzehnten eine Naturalisierung<br />

unterschiedlicher Bereiche der Philosophie (insbesondere der Erkennt-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 66<br />

nistheorie) an Boden gewonnen. Die alte Unterscheidung zwischen<br />

Rechtfertigungen und Genese von Meinungen zeigt jedoch, daß eine radikale<br />

Naturalisierung darauf hinausläuft, die klassischen Fragen der Erkenntnistheorie<br />

ganz zugunsten rein naturwissenschaftlicher Fragestellungen<br />

aufzugeben. Dafür können die radikalen Naturalisten, allen voran<br />

Quine, aber keine überzeugenden Gründe angeben, denn die klassische<br />

Frage danach, was ich glauben soll, bleibt weiterhin aktuell. Sie erfährt<br />

in der analytischen Erkenntnistheorie neueren Datums mit der Methodologie<br />

des reflektiven Überlegungsgleichgewichts eine Wendung hin<br />

zu substantieller philosophischer Theorienbildung. Statt in den Pessimismus<br />

der radikalen Naturalisten einzustimmen, soll in der vorliegenden<br />

Arbeit ein Methodologischer Naturalismus liberaleren Typs zur Anwendung<br />

kommen, der in kritischer Anknüpfung an bisherige Konzeptionen<br />

von epistemischer Rechtfertigung eine zum Teil normative, philosophische<br />

Theorie der Begründung von Meinungen vorschlägt.<br />

B. Wahrheit und Wahrheitsindikatoren<br />

Meine erste Charakterisierung von epistemischen Rechtfertigungen war<br />

die von Wahrheitsindikatoren, die uns als Hinweis oder Grund dienen<br />

können, anzunehmen, daß eine bestimmte Meinung wahr ist; oder man<br />

könnte auch sagen, die für uns die Wahrscheinlichkeit erhöhen, daß die<br />

gerechtfertigte Meinung wahr ist. Epistemische Rechtfertigungen sind<br />

unser Lackmustest für Wahrheit. Was meint man aber in diesem Zusammenhang<br />

mit „Wahrheit“? Um die grundlegende Intuition von Rechtfertigungen<br />

als Wahrheitsindikatoren einschätzen zu können, werde ich<br />

eine kurze Charakterisierung des dabei vorausgesetzten Verständnisses<br />

von Wahrheit angeben. Diese Explikation von „Wahrheit“, soll uns noch<br />

einmal den metaphysischen Rahmen vor Augen führen, in dem erkenntnistheoretische<br />

Fragestellungen üblicherweise angesiedelt sind.<br />

Anfangen möchte ich mit einer Abgrenzung gegen einige heute verbreitete<br />

Interpretationen des Wahrheitsbegriffs. Es ist in den letzten Jahren<br />

zunehmend in Mode gekommen, sich von realistischen Positionen<br />

abzuwenden und schwächere Konzeptionen von Wahrheit als die einer<br />

Korrespondenztheorie zu vertreten. Diese Auffassungen der Wirklichkeit<br />

und der Wahrheit sind zumeist epistemisch infiziert, d.h. Wahrheit wird<br />

als in irgendeiner Weise abhängig von unseren erkenntnistheoretischen<br />

Zugangsmöglichkeiten aufgefaßt. Diese Wendung soll oft dazu dienen,<br />

die Kluft zu verkleinern, die zwischen unseren Meinungen über die Welt


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 67<br />

und der Welt selbst gesehen wird, um damit die Möglichkeiten des Skeptikers<br />

zu beschneiden, unser Wissen unter Hinweis auf diese Kluft in<br />

Frage zu stellen. Für mein Ziel, eine Theorie von epistemischer Rechtfertigung<br />

als Wahrheitsindikation zu entwerfen, sind epistemisch infizierte<br />

Wahrheitsdefinitionen und auch deflationäre Entwertungen des<br />

Wahrheitsbegriffs aber eher ungeeignet. Das möchte ich im folgenden<br />

kurz erläutern. Die drei Hauptrichtungen in denen eine Explikation des<br />

Wahrheitsbegriffs gesucht wird, werde ich dazu vorstellen und auf ihre<br />

Einsatzmöglichkeiten als Hintergrund für erkenntnistheoretische Fragestellungen<br />

untersuchen.<br />

1. Deflationäre Wahrheitskonzeptionen<br />

In der philosophischen Wahrheitsdebatte stoßen wir spätestens seit Tarskis<br />

berühmter Wahrheitsdefinition in den dreißiger Jahren dieses Jahrhunderts<br />

auf die sogenannten deflationären Auffassungen des Wahrheitsbegriffs<br />

oder Redundanztheorien der Wahrheit, die den Wahrheitsbegriff<br />

vom Sockel im Zentrum der Philosophie stürzen und für die Wirklichkeitserkenntnis<br />

entwerten möchten. Für einen Deflationisten besitzt der<br />

Wahrheitsbegriff keine erklärenden Funktionen mehr und zeichnet nicht<br />

etwa Sätze aus, weil sie in einer besonderen Beziehung zur Welt stehen,<br />

sondern erfüllt nur bestimmte sprachliche Funktionen, die sich anhand<br />

der Äquivalenzthese Tarskis verstehen lassen, nach der für jede Aussage<br />

p gilt:<br />

(ÄT) „p“ ist wahr genau dann, wenn p.<br />

Diese Äquivalenzthese wird von Philosophen der unterschiedlichsten<br />

Richtungen als ein wesentliches Bedeutungsmerkmal des Wahrheitsbegriffs<br />

akzeptiert, aber sie bietet ebenfalls Hinweise darauf, wie wir uns<br />

seiner entledigen können. Den Grundgedanken einer Redundanztheorie<br />

finden wir schon in dem klassischen Aufsatz von Ramsey (1931) 21 , in<br />

dem er sagt: „dann ist evident, daß der Satz »Es ist wahr, daß Cäsar ermordet<br />

wurde« nicht mehr bedeutet als: Cäsar wurde ermordet.“<br />

Der Ausdruck „ist wahr“ ist für einen Deflationisten darüber hinaus<br />

recht hilfreich, wenn wir den Behauptungen von jemand anderem zustimmen<br />

möchten, ohne ihn im einzelnen zu wiederholen; hier genügt<br />

dann etwa: „Alles, was er gesagt hat, ist wahr“. Viel mehr als solche<br />

ganz nützlichen sprachlichen Hilfen bietet der Wahrheitsbegriff jedoch<br />

21 Also bereits bevor Tarski 1935 seine Wahrheitstheorie zum erstenmal<br />

auf einer Konferenz in Paris der Öffentlichkeit präsentierte.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 68<br />

für einen Deflationisten nicht, ob es sich dabei um Disquotationstheorien<br />

wie die von Leeds (1978) oder andere Varianten der Redundanztheorie<br />

handelt. Der Wahrheitsbegriff bezeichnet in diesem Rahmen<br />

keine substantielle Eigenschaft von Sätzen, die bestimmten von ihnen<br />

eine besondere Beziehung zur Welt zuspricht; er verkümmert zu einem<br />

bloß sprachlichen Hilfsmittel.<br />

Die meisten Auseinandersetzungen in der Erkenntnistheorie, z. B.<br />

die mit dem Skeptiker, stützen sich dagegen auf ein anspruchsvolleres<br />

korrespondenztheoretisches Verständnis des Wahrheitsbegriffs, das auch<br />

ich in dieser Arbeit voraussetzen werde, denn es ist gerade Wahrheit,<br />

worauf epistemische Rechtfertigungen abzielen. Für eine deflationäre<br />

Auffassung von Wahrheit, wird es unverständlich, wieso uns dieses Ziel<br />

am Herzen liegen soll. Wahrheit interessiert uns als Grundlage für Entscheidungen<br />

und praktisches Handeln, und in diesen Kontexten gibt uns<br />

eine deflationäre Theorie kein angemessenes Verständnis, wieso Wahrheit<br />

dafür so bedeutsam sein soll. Das kann nur eine substantiellere Konzeption<br />

von Wahrheit, die uns erklärt, wieso die Auskunft, daß eine Aussage<br />

wahr ist, so wichtig für uns ist: Die Annahme, daß ein Satz wahr<br />

ist, gibt uns Informationen über die Welt und nicht nur über sprachliche<br />

Zusammenhänge. Um an diese Informationen zu gelangen, sind wir<br />

mangels einer direkten Einsicht der Wahrheit vieler Meinungen auf den<br />

indirekten Zugang über epistemische Rechtfertigungen angewiesen. Eine<br />

deflationäre Wahrheitsauffassung konnte daher kaum den Rahmen abgeben,<br />

in dem von Aristoteles über Descartes bis in die heutige Zeit Erkenntnistheoretiker<br />

über Wissen und Begründungen nachgedacht haben.<br />

Selbst Kant schreibt in der Kritik der reinen Vernunft (A 58/ B 82): „Was<br />

ist Wahrheit? Die Namenerklärung der Wahrheit, daß sie nämlich die<br />

Übereinstimmung der Erkenntnis mit ihrem Gegenstande sei, wird hier<br />

geschenkt, und vorausgesetzt;“ Im Kontext der Epistemologie möchte<br />

ich es daher als gegeben annehmen, daß wir über eine gehaltvollere korrespondenztheoretische<br />

Wahrheitskonzeption verfügen, denn nur so<br />

können wir an die klassischen Fragestellungen dieser Disziplin anknüpfen.<br />

Allerdings soll damit noch nicht endgültig entschieden sein, inwieweit<br />

die Erkenntnistheorie auf einen substantiellen Wahrheitsbegriff tatsächlich<br />

zwingend angewiesen ist. Michael Williams (1991, 244f) bemüht<br />

sich zu zeigen, daß sogar mit einem deflationären Wahrheitsbegriff<br />

noch kein Verzicht auf ein objektives Verständnis der Welt verbunden<br />

ist. Auch der Skeptiker kann seine unbequemen Fragen nach einer Begründung<br />

unserer Meinungen weiterhin stellen, wenn wir mit dem Aus-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 69<br />

druck „wahr“ nicht eine substantielle Eigenschaft bezeichnen. Nur<br />

möchte ich die erkenntnistheoretische Auseinandersetzung nicht unnötig<br />

mit den Komplikationen eines deflationären Wahrheitsbegriffs belasten,<br />

denn das ist kaum hilfreich für die Frage nach der richtigen Erkenntnistheorie.<br />

Der Hauptkonkurrent korrespondenztheoretischer Auffassungen<br />

von Wahrheit ist auch sicherlich an anderer Stelle zu suchen: Vor allem<br />

in den epistemisch infizierten Wahrheitsbegriffen, die im Unterschied<br />

zu deflationären Konzeptionen die erkenntnistheoretische Auseinandersetzung<br />

maßgeblich beeinflussen können. Ihnen soll daher etwas<br />

mehr Aufmerksamkeit zuteil werden.<br />

2. Epistemische Wahrheitsbegriffe<br />

Im Kampf gegen den Skeptiker ist es verführerisch, die epistemischen<br />

Wahrheitsauffassungen einzusetzen. Sie identifizieren Wahrheit mit<br />

„warranted assertibility“, rationaler Akzeptierbarkeit und ähnlichen epistemisch<br />

geprägten Begriffen – zumindest für den Fall idealer epistemischer<br />

Bedingungen oder im idealen Grenzwert der Forschung. Putnam<br />

(1978, 126) spricht sogar davon, es sei „unverständlich“, daß eine epistemisch<br />

ideale Theorie, die allen möglichen Beobachtungen entspricht und<br />

alle anderen Kriterien an Theorien wie Einfachheit, Schönheit, Plausibilität<br />

etc. genügt, falsch sein kann. 22 Um epistemische Wahrheitskonzepte<br />

untersuchen zu können, ist zunächst zu klären, was mit „möglichen Beobachtungen“<br />

oder einem „Grenzwert der Forschung“ gemeint ist. Diese<br />

Fragen zu beantworten ist ein bekanntermaßen virulentes Problem für<br />

alle Ansätze in diesem Bereich. Aber auch, wenn wir von den sich dabei<br />

auftuenden inneren Schwierigkeiten der Position zunächst einmal absehen,<br />

können die epistemisch infizierten Wahrheitsbegriffe nicht das leisten,<br />

was man sich im Kampf gegen den Skeptiker von ihnen verspricht.<br />

Ein wesentliches Motiv für ihre Einführung innerhalb der Erkenntnistheorie<br />

stammt aus einer Schwierigkeit im Rahmen der Korrespondenzauffassung<br />

von Wahrheit, auf die etwa Davidson (1987, 271) aufmerksam<br />

macht. Begründungen einer Meinung sind in einer Kohärenztheorie<br />

der Erkenntnis nur in anderen bereits von uns akzeptierten<br />

Überzeugungen zu suchen. Einen direkten Vergleich von Meinungen mit<br />

der Welt hält Davidson sogar für eine absurde Vorstellung. Die Wahrheit<br />

22 Das hieße, daß die Position des radikalen Skeptikers eigentlich unverständlich<br />

ist. In dieser Richtung argumentiert Putnam auch in (1990, Kap. 1) in<br />

seinem berühmten Gehirn im Topf Argument. Doch das kann letztlich nicht<br />

überzeugen (s. etwa Nagel 1992, 126ff).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 70<br />

einer Meinung hängt im Rahmen einer Korrespondenzkonzeption aber<br />

ausschließlich von ihrer Beziehung zur Welt ab und nicht davon, welche<br />

Überzeugungen wir über die Welt haben. Wie können wir dann jemals<br />

wissen, daß der Kohärenztest einer Meinung ein Wahrheitstest ist? Die<br />

an dieser Stelle immer verbleibende Lücke nutzt geschickt der Skeptiker<br />

und weist auf die Möglichkeit hin, all unsere Vorstellungen von der Welt<br />

könnten ein komplettes Märchen sein, auch wenn sie eine noch so kohärente<br />

Geschichte bilden. Solange Wahrheit unsere Evidenzen transzendiert<br />

und in einer Beziehung von Sätzen zur Welt zu suchen ist, während<br />

Rechtfertigungen immer nur Beziehungen zwischen Aussagen betreffen,<br />

können wir uns nie der Richtigkeit unserer Meinungen versichern. Es<br />

bleibt sogar das Problem, ob wir auch nur den kleinsten Grund angeben<br />

können, daß epistemische Rechtfertigungen ihren Namen verdienen und<br />

Wahrheitsindikatoren darstellen, wenn Wahrheit und Rechtfertigung auf<br />

so verschiedene Weise definiert werden.<br />

Ein naheliegender Schachzug, um dem Skeptiker den Boden zu entziehen,<br />

ist, ihm eine falsche Auffassung von Wahrheit und einer von unseren<br />

Überzeugungen unabhängigen Welt zu unterstellen. Ist Wahrheit<br />

immer nur relativ zu unseren Evidenzen oder Theorien zu definieren,<br />

wie es z. B. Rorty (1984, im englischen 281) und Putnam (1990, Kap.<br />

III) vorschlagen, verkleinert sich offensichtlich die für den Skeptiker verbleibende<br />

Lücke.<br />

Daß sich auf diesem Weg der Skeptiker jedoch nicht wirklich besiegen<br />

läßt, können die beiden folgenden Gedankengänge offenlegen: Erstens<br />

werden auch die epistemischen Wahrheitskonzeptionen im allgemeinen<br />

Wahrheit nicht mit dem identifizieren, was zur Zeit gerade für<br />

uns gerechtfertigt ist, denn damit würde Wahrheit ein höchst instabiles<br />

Gut, das zeitlich und interpersonell sehr variabel wäre. So weit wollen<br />

sich auch die Vertreter epistemischer Wahrheitskonzeptionen nicht von<br />

unserem traditionellen Wahrheitsverständnis entfernen. Sie verbinden<br />

mit dem Wahrheitsbegriff weiterhin gewisse Objektivitätsstandards. Putnam<br />

(1990, 163ff) wendet sich z. B. vehement gegen einen Relativismus<br />

in bezug auf Wahrheit, der für ihn mit der Aufgabe der Unterscheidung<br />

zwischen recht haben und glauben, recht zu haben, einhergeht und unser<br />

Sprechen damit zu einem bloßen Absondern von Geräuschen verkommen<br />

läßt. Für ihn übersieht der Relativist, „daß es eine Voraussetzung<br />

des Denkens selbst ist, daß es so etwas wie objektive »Richtigkeit« gibt“<br />

(1990, 168). Wahrheit ist nur mit unseren Evidenzen in einem idealen<br />

Grenzwert zu identifizieren und transzendiert demnach immer unsere<br />

tatsächlich verfügbaren Evidenzen. Das ruft wiederum den Skeptiker auf


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 71<br />

den Plan, der an dieser Stelle mit der Bemerkung einhaken kann: Wir<br />

verfügen über keinen Anhaltspunkt, um zu entscheiden, wie weit wir<br />

von diesem idealen Grenzwert mit unseren augenblicklichen Meinungen<br />

entfernt sind. Die Wissenschaft ist voll von Irrwegen und in einem dieser<br />

Irrwege können wir uns gerade befinden. 23 Was macht uns so sicher,<br />

daß wir im Moment nicht einer überdimensionalen Phlogistontheorie<br />

zum Opfer fallen? Allein die Wendung zu epistemischen Auffassungen<br />

von Wahrheit offeriert noch keine Indizien, mit welchen Teilen unseres<br />

Überzeugungssystems wir uns bereits in der Nähe dieses idealen Grenzwerts<br />

aufhalten und mit welchen wir uns auf einem möglicherweise<br />

kompletten Irrweg befinden. Daher bleibt auch für die epistemisch infizierten<br />

Wahrheitsbegriffe das Problem der Skepsis bestehen und ebenfalls<br />

das Problem, den Zusammenhang zwischen Wahrheit und Rechtfertigungen<br />

zu bestimmen – jedenfalls solange sie nicht bereit sind, jeden<br />

Objektivitätsanspruch für Wahrheit aufzugeben.<br />

Ein zweiter Punkt für das Scheitern der epistemischen Wahrheitskonzeptionen<br />

als Heilmittel gegen die Skepsis ist folgender: Auch wenn es<br />

uns mit dieser epistemischen Wendung der Wahrheitskonzeption gelänge,<br />

die Lücke zwischen Wahrheit und unseren Evidenzen zu schließen,<br />

hätten wir den Skeptiker damit nicht besiegt, sondern vielmehr klein<br />

beigegeben. In dem Maße, wie wir die Vorstellung einer objektiven<br />

Wirklichkeit, die unabhängig von uns existiert, verlassen, und uns darauf<br />

zurückziehen, Erkenntnisse über eine von uns konstruierte Welt zu besitzen,<br />

verlassen wir nämlich auch die Ausgangsposition, gegen die der<br />

Skeptiker angetreten war. Wir nähern uns dann idealistischen Auffassungen<br />

der Wirklichkeit, die selbst bereits grundlegend skeptisch infiziert<br />

sind. 24<br />

Epistemische Wahrheitskonzeptionen verfehlen also ihr Ziel, eine<br />

Therapie des Skeptizismus zu formulieren. Sie sind auch nicht verständlicher<br />

als eine Korrespondenzauffassung (s. B.3) und vor allem, sie sind<br />

als Zielvorstellung für eine Erkenntnistheorie unbrauchbar, was ein kleines<br />

Gedankenexperiment belegen kann. Nennen wir die Rechtfertigungen,<br />

die der erst noch zu entwickelnden Theorie epistemischer Rechtfer-<br />

23 Das trifft sich auch mit Putnams (z. B. 1978, 25) Argument der Meta-<br />

Induktion gegen den Realismus.<br />

24 Eine andere Wendung, um die Lücke zwischen Wahrheit und Rechtfertigungen<br />

zu schließen ist die von Fundamentalisten wie Schlick gewählte, wonach<br />

zumindest bestimmte basale Überzeugungen direkt mit der Wirklichkeit<br />

verglichen werden können. Die Schwächen dieses zur epistemischen Wahrheitskonzeption<br />

dualen Vorstoß werden in (III.B.5.a) erörtert werden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 72<br />

tigungen in idealer Weise genügen, „ideale B-Rechtfertigungen“ (für<br />

Bartelborth-Rechtfertigungen). Eine Aussage p hieße dann im Rahmen<br />

einer dazu passenden epistemischen Wahrheitsdefinition genau dann<br />

wahr, wenn sie ideal B-gerechtfertigt wäre. Unsere Suche nach epistemischen<br />

Rechtfertigungen als eine Suche nach Wahrheitstests oder Wahrheitsindikatoren<br />

zu beschreiben, würde damit völlig uninformativ, denn<br />

es hieße nichts anderes, als daß wir nach B-Rechtfertigungen suchen, die<br />

Indikatoren für ideale B-Rechtfertigungen darstellen. Solange wir aber<br />

noch keine Konzeption von B-Rechtfertigungen besitzen, kann uns auch<br />

die Aufforderung zur Suche nach Indikatoren für ideale B-Rechtfertigungen<br />

keine Anhaltspunkte dafür an die Hand geben, was eine gute B-<br />

Rechtfertigung ist. Die Rede von Wahrheitsindikatoren gibt in dieser<br />

Wahrheitsauffassung keinen intuitiven Hinweis mehr, wonach wir suchen<br />

sollen, weil sie keine von unseren Rechtfertigungen unabhängigen<br />

Instanz mehr darstellt.<br />

Schlimmer noch, wir verlieren mit einem epistemischen Wahrheitsbegriff<br />

auch unseren Maßstab, mit dem wir verschiedene Theorien der<br />

Rechtfertigung vergleichen können. Eine andere Rechtfertigungstheorie,<br />

die mit B-Rechtfertigungen unverträgliche Rechtfertigungstypen favorisiert,<br />

nennen wir sie Theorie der A-Rechtfertigung, könnte mit demselben<br />

Recht wie die Theorie der B-Rechtfertigungen für sich in Anspruch<br />

nehmen, Wahrheitsindikatoren anzubieten, wenn Wahrheit in idealer<br />

Rechtfertigung besteht. Für einen Vertreter dieser A-Theorie der Rechtfertigung<br />

bestünde Wahrheit dann nämlich in idealer A-Rechtfertigung,<br />

für die selbstverständlich gerade A-Rechtfertigungen einen guten Indikator<br />

abgeben und nicht B-Rechtfertigungen. Die Wahrheitssuche verliert<br />

so ihre anleitende Funktion für die Epistemologie, und die Auskunft,<br />

epistemische Rechtfertigungen seien Wahrheitsindikatoren wird zu einer<br />

relativistischen Auskunft. Ihre Bedeutung hängt von der jeweils vertretenen<br />

Rechtfertigungskonzeption ab. Ein Leitbild für die Erkenntnistheorie<br />

und einen neutralen Schiedsrichter für verschiedene Rechtfertigungstheorien<br />

kann der Wahrheitsbegriff dagegen nur dann verkörpern, wenn<br />

er von epistemischen Verunreinigungen befreit und damit auch neutral<br />

gegenüber verschiedenen Ansätzen der epistemischen Begründung ist.<br />

Gerade für die Erkenntnistheorie ist es daher notwendig, die Wahrheit<br />

eines Satzes und unsere Indizien dafür strikt auseinanderzuhalten. Es ist<br />

auch nicht schwer, einen derartigen von unseren Rechtfertigungstheorien<br />

unabhängigen Wahrheitsbegriff zu finden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 73<br />

3. Eine Korrespondenztheorie der Wahrheit<br />

Die naheliegendsten Kandidaten dazu sind Korrespondenzkonzeptionen<br />

der Wahrheit, für die die Wahrheit einer Aussage in ihrer Übereinstimmung<br />

mit den Tatsachen besteht. Dieses Verständnis des Wahrheitsbegriffs<br />

entspricht unserem umgangssprachlichen Umgang mit „Wahrheit“<br />

und erscheint uns meist so selbstverständlich, daß die damit verbundene<br />

Charakterisierung von Wahrheit gern als trivial bezeichnet wird. Das<br />

stört mich keineswegs. Ich möchte nur eine besonders schwache und intuitiv<br />

verständliche Form der Korrespondenztheorie der Wahrheit vertreten,<br />

die, gerade wenn sie als trivial betrachtet wird, als Ausgangspunkt<br />

und metaphysischer Hintergrund der Untersuchung akzeptiert<br />

werden kann. In der hier vertretenen Version der Korrespondenzkonzeption<br />

möchte ich mich auch nicht damit beschäftigen, wie sich die<br />

Korrespondenzbeziehung weiter explizieren läßt. Das könnte etwa geschehen<br />

anhand einer Tarskischen Wahrheitstheorie, die zunächst die<br />

Wahrheit von Sätzen auf die Referenzbeziehungen seiner Komponenten<br />

und die Erfüllungsrelation zurückführt. Sie ließe sich ergänzen durch<br />

eine Referenztheorie für die Komponenten, für die ich eine Kombination<br />

aus einer Kennzeichnungstheorie und einer kausalen Referenztheorie<br />

wählen würde. Doch die erkenntnistheoretischen Untersuchungen dieser<br />

Arbeit möchte ich nicht mehr als unbedingt notwendig mit sprachphilosophischen<br />

und metaphysischen Annahmen aus anderen Gebieten belasten<br />

und deshalb soll nicht von semantischen Beziehungen der Teile eines<br />

Satzes zu Teilen der Wirklichkeit die Rede sein. Ebensowenig<br />

möchte ich die Metaphern von Abbildung der Wirklichkeit oder Übereinstimmung<br />

mit der Wirklichkeit überbeanspruchen. Daher werde ich<br />

nicht für eine Form von Ähnlichkeitstheorie zwischen der Wirklichkeit<br />

und bestimmten sie abbildenden Aussagen eintreten.<br />

Tatsächlich anknüpfen möchte ich dagegen an Aristoteles schlichte<br />

Kennzeichnung von Wahrheit: „Von etwas, das ist, zu sagen, daß es nicht<br />

ist, oder von etwas das nicht ist, daß es ist, ist falsch, während von etwas,<br />

das ist, zu sagen, daß es ist, oder von etwas, das nicht ist, daß es<br />

nicht ist, ist wahr.“ In Anlehnung an eine solche semantisch und metaphysisch<br />

bescheidenere Konzeption von Korrespondenz, nenne ich eine<br />

Aussage p dann wahr, wenn die Dinge so sind, wie es in p behauptet<br />

wird. Moser (1991, 26) zeigt, daß diese intuitive Konzeption von Wahrheit<br />

die Tarski-Äquivalenz impliziert, aber nicht mit ihr äquivalent ist,<br />

was man von einer Korrespondenzauffassung auch erwarten sollte. Bereits<br />

BonJour (1985, 167f) hält für erkenntnistheoretische Untersuchungen<br />

eine entsprechende Wahrheitsdefinition für ausreichend. Er ergänzt


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 74<br />

sie für empirisches Wissen allerdings noch um eine Relativierung auf<br />

eine raumzeitliche Einordnung. Mit dieser Formulierung der Korrespondenzauffassung<br />

von Wahrheit, die in erkenntnistheoretischen Debatten<br />

häufiger zugrundegelegt wird, sollen die Probleme anspruchsvollerer<br />

Wahrheitskonzeptionen für das vorliegende Projekt ausgeklammert werden.<br />

Das soll nicht die Frage präjudizieren, ob anspruchsvollere Konzeptionen<br />

von Korrespondenztheorien möglich sind. Entsprechende Explikationen<br />

der Korrespondenzvorstellung sind eben nur nicht mein Thema.<br />

Da es mir hier nur um empirisches Wissen geht, ist eine solch<br />

schwache Korrespondenztheorie der Wahrheit auch gut verständlich,<br />

denn für diesen Bereich sind in geradezu paradigmatischer Weise unsere<br />

Intuitionen geprägt worden, was unter einer wahren Aussage zu verstehen<br />

ist. 25 Insbesondere sollen durch eine Einschränkung auf nichtreflexive<br />

empirische Aussagen auch technische Komplikationen ausgeklammert<br />

werden, die durch die Paradoxien wie die Lügner-Paradoxie für eine<br />

vollständige Wahrheitstheorie zu berücksichtigen wären.<br />

Damit die Wahrheitskonzeption inhaltlich einen gewissen Gehalt behält,<br />

sollte sie allerdings zumindest die Zielvorstellung beinhalten, daß<br />

die Wendung „wenn die Dinge so sind“ realistisch zu verstehen ist – also<br />

als eine Aussage über eine von unseren Ansichten dazu unabhängige<br />

Wirklichkeit. 26 Wenn man sich in der Korrespondenztheorie nicht auf<br />

eine von uns unabhängige Wirklichkeit bezieht, würde die Klausel<br />

„wenn die Dinge so sind“ in der Wahrheitsdefinition in unübersehbarer<br />

Weise abgeschwächt und eventuell auch mit idealistischen Auffassungen<br />

der Wirklichkeit verträglich sein, die zu verteidigen Erkenntnistheoretiker<br />

im allgemeinen nicht so spannend finden.<br />

Diese einfache Korrespondenzauffassung der Wahrheit scheint mir<br />

als Hintergrund für erkenntnistheoretische Analysen relativ unproblematisch<br />

zu sein, wenn wir weiterhin offen dafür sind, auch die realistischen<br />

Annahmen zur Disposition zu stellen. Trotzdem gibt es natürlich eine<br />

ganze Reihe von Einwänden sowohl gegen den Realismus wie auch die<br />

Korrespondenzkonzeption der Wahrheit, die zu einem großen Teil von<br />

Hilary Putnam kommen, der eine Art Galionsfigur des Antirealismus ge-<br />

25 Für mathematische oder moralische Aussagen würde es natürlich schon<br />

schwieriger – wenn nicht unmöglich –, eine entsprechende Korrespondenzkonzeption<br />

zu entwickeln.<br />

26 Über den Zusammenhang zwischen Realismus und Wahrheit und eine<br />

weitergehende Explikation des Realismus siehe Devitt (1991). Wie ein weitergehender<br />

Realismus, der sich etwa auf wissenschaftliche Gegenstände bezieht, zu<br />

explizieren ist, ist in Bartelborth (1993a) nachzulesen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 75<br />

worden ist, vielleicht, weil er sich selbst in der Frage des Realismus vom<br />

Paulus zum Saulus gewandelt hat. Diesen Einwänden nachzugehen bleibt<br />

allerdings anderen Arbeiten überlassen, in denen der Realismus das<br />

Hauptthema darstellt, während es an dieser Stelle genügen mag, den<br />

Rahmen zu benennen, in dem die Diskussion stattfinden soll.<br />

4. Resümee<br />

Was kann und sollte der Erkenntnistheoretiker unter „Wahrheit“ verstehen?<br />

Wenn er eine für epistemologische Projekte informative Antwort<br />

geben möchte, mit der er an klassische erkenntnistheoretische Fragestellungen<br />

anknüpft, kann die Antwort meines Erachtens nur in einer korrespondenztheoretischen<br />

Konzeption von Wahrheit zu suchen sein. Daß<br />

diese trotz zahlreicher antirealistischer Kritiken durchaus hoffähig<br />

bleibt, versuchte ich auf zwei Wegen plausibel zu machen: Erstens weisen<br />

andere Auffassungen von Wahrheit trotz einer Verwässerung des<br />

Wahrheitsbegriffs genügend eigenständige Probleme auf. Zweitens stütze<br />

ich mich nur auf eine schwache und intuitive Wahrheitskonzeption, die<br />

gegen viele Einwände von antirealistischer Seite relativ immun erscheint,<br />

weil diese sich oft auf weitergehende Behauptungen einer stärkeren realistischen<br />

Position beziehen. Gegen diese Korrespondenzauffassung von<br />

Wahrheit läßt sich zumindest nicht mehr einwenden, sie sei völlig unverständlich<br />

oder unmöglich, so daß es keinen Sinn hätte, an klassische Erkenntnisprobleme<br />

anzuknüpfen, ohne zunächst den metatheoretischen<br />

Rahmen völlig zu verändern, in dem sie formuliert wurden. Eine Verteidigung<br />

einer realistischen Korrespondenztheorie der Wahrheit erscheint<br />

vor allem dann aussichtsreich, wenn wir nicht den Strohmann betrachten,<br />

der uns von Antirealisten häufig als Realismus präsentiert wird, sondern<br />

eher an unsere „gewöhnlichen“ Vorstellungen von Realität anknüpfen<br />

und versuchen, diese zu präzisieren.<br />

C. Zur Struktur unserer Erkenntnis<br />

Eine der metatheoretischen Grundlagen meiner Überlegungen zur Erkenntnistheorie,<br />

aber auch zur Wissenschaftstheorie, soll eine Bestandsaufnahme<br />

der Struktur unseres Wissens und gerade unseres empirischen<br />

Wissens bilden. Dieses Vorgehen erwies sich als der einzig gangbare methodologische<br />

Weg (s. II.A) zur Begründung normativer Theorien der<br />

epistemischen Rechtfertigung. Die dafür notwendigen Untersuchungen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 76<br />

unserer Vorstellungen von guter Rechtfertigung und paradigmatischen<br />

Beispielen von epistemischen Rechtfertigungen sind, was ihren empirischen<br />

Gehalt betrifft, auf einem recht allgemeinen Niveau angesiedelt.<br />

Es geht primär um Grundzüge unseres Wissens oder unserer Rechtfertigungspraxis<br />

und nicht etwa um Einzelheiten der Rechtfertigungsstruktur<br />

bestimmter Individuen, die zu erforschen natürlich in das Gebiet der<br />

empirischen Psychologie fällt. Im Vordergrund dieses Abschnitts steht<br />

daher die Einführung und Explikation allgemeiner Unterscheidungen<br />

und das Erarbeiten einiger terminologischer Hilfen dazu. Insbesondere<br />

wird auch das wissenschaftliche Wissen einbezogen. Dazu finden wir in<br />

der Wissenschaftstheorie bereits eine Vielzahl von Untersuchungen und<br />

konkreten Fallstudien vor, auf die ich mich im Verlauf der Arbeit immer<br />

wieder beziehen werde. Ihre systematische Analyse wird allerdings vornehmlich<br />

in den dritten eher wissenschaftsphilosophisch orientierten<br />

Teil fallen. Die zu Beginn entwickelten begrifflichen Klärungen unseres<br />

Wissens und seiner Zusammenhänge sollen an geeigneter Stelle im Verlauf<br />

der Arbeit verfeinert werden. Da das Ziel der Untersuchung eine<br />

Theorie der Rechtfertigung ist, sind besonders die Rechtfertigungszusammenhänge<br />

und unsere intuitive Metatheorie dieser Zusammenhänge die<br />

Schwerpunkte dieses Abschnitts.<br />

1. Epistemische Subjekte<br />

Wenn wir uns fragen, ob eine bestimmte Aussage oder Überzeugung gerechtfertigt<br />

ist oder wie sie zu rechtfertigen sein könnte, beziehen wir<br />

uns dabei immer – wenn auch manchmal nur versteckt – auf ein bestimmtes<br />

Aussagensystem relativ zu dem die Rechtfertigung zu denken<br />

ist. Betrachten wir nur die oben genannten Beispiele, in denen jemand<br />

aufgefordert wird, eine Behauptung zu begründen. Er hat dann andere<br />

seiner Meinungen zu zitieren, wenn er diesem Verlangen nachkommen<br />

möchte. 27 Rechtfertigung von Meinungen ist daher nicht absolut zu denken,<br />

sondern immer relativ zu anderen Meinungen, auf die ich mich zu<br />

Zwecken ihrer Rechtfertigung berufe. 28 Gerechtfertigt sein per se könnte<br />

dann vielleicht als ein Spezialfall verstanden werden und hieße etwa „gerechtfertigt<br />

sein für ein allwissendes Wesen“ oder „gerechtfertigt sein re-<br />

27 Die bekanntesten und meines Erachtens erfolgversprechendsten Gegenvorschläge<br />

zu dieser Ansicht werden in den Kapiteln (III.A) und etwa (III.B.5.b)<br />

behandelt und zurückgewiesen.<br />

28 Als Spezialfall soll hier auch zugelassen werden, daß die Aussage sich<br />

selbst rechtfertigt oder die Rechtfertigungsmenge sogar leer ist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 77<br />

lativ zur Menge aller wahren Aussagen“. Daß dieser „Spezialfall“ nicht<br />

unproblematisch ist, ist offensichtlich.<br />

Als rechtfertigende Aussagensysteme denken wir uns im allgemeinen<br />

nicht beliebige Mengen von Aussagen, sondern solche Systeme, die wir<br />

einem epistemischen Subjekt S zuschreiben können. Wir fragen also normalerweise<br />

nicht, ob eine Überzeugung p per se gerechtfertigt ist, sondern<br />

ob p für S gerechtfertigt ist. Es scheint mir geradezu selbstverständlich<br />

zu sein, daß nur eine solche Frage Sinn hat. Man wird sogar noch<br />

weiter relativieren müssen und sagen: p ist zum Zeitpunkt t für S gerechtfertigt.<br />

Natürlich sind für verschiedene mögliche epistemische Subjekte<br />

wie z. B. bestimmte Menschen oder Götter in verschiedenen Situationen<br />

zu verschiedenen Zeiten andere Aussagen gerechtfertigt. In einer<br />

erkenntnistheoretischen Untersuchung ist man dabei in erster Linie an<br />

begründenden Zusammenhängen interessiert, die nicht mit den Eigenheiten<br />

verschiedener Personen variieren sollten, sondern interpersonelle<br />

Gültigkeit besitzen. Demnach könnte man von den jeweiligen Subjekten<br />

und ihren speziellen Eigenschaften auch abstrahieren und etwa von epistemischen<br />

Zuständen sprechen, wie das in einigen Bereichen der epistemischen<br />

Logik geschieht. Da ich mich aber nicht bei den zahlreichen<br />

zum Teil recht technischen Problemen einer Beschreibung oder gar formalen<br />

Explikation epistemischer Zustände aufhalten möchte (und formale<br />

Präzisierungen epistemischer Zustände an dieser Stelle auch für<br />

verfrüht halte), belasse ich es dabei, in der anschaulicheren Redeweise<br />

von epistemischen Subjekten und ihren Überzeugungen zu sprechen. 29<br />

Insbesondere sollen der Einfachheit halber nur Überzeugungen ohne<br />

weitere Qualifizierung wie etwa probabilistische Abschwächungen<br />

(Glaubensgrade) betrachtet werden, die eine vorerst unnötige Komplikation<br />

ins Spiel brächten.<br />

Im folgenden ist also die genannte Relativierung von Rechtfertigungen<br />

auf ein Aussagensystem immer mit zu denken, auch wenn sie nicht<br />

explizit angegeben wird. Dieser Punkt erscheint selbstverständlich und<br />

seine Erwähnung fast überflüssig, wenn er nicht in bestimmten erkennt-<br />

29 Einige Erkenntnistheoretiker wie Chisholm und Lehrer, sprechen statt<br />

von den Überzeugungen einer Person lieber davon, welche Aussagen sie als wahr<br />

akzeptiert. Was jemand tatsächlich glaubt oder überhaupt zu glauben bereit ist,<br />

ist vielleicht eher eine Frage seiner emotionellen und motivationellen Situation,<br />

während das Akzeptieren von bestimmten Aussagen als wahr, stärker unsere epistemische<br />

Bewertung zum Ausdruck bringt. Der Einfachheit halber möchte ich<br />

auf diese Möglichkeit der Differenzierung verzichten und spreche nur schlicht<br />

von den Überzeugungen und Meinungen einer Person.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 78<br />

nistheoretischen Debatten wieder vergessen würde, was mich später<br />

zwingen wird, auf ihn zurückzugreifen.<br />

Hauptsächlich werde ich unter „epistemischem Subjekt“ an Menschen<br />

und ihre Überzeugungen denken, aber auch andere Möglichkeiten<br />

werden keineswegs ausgeschlossen. So könnten Gruppen von Menschen<br />

– man denke nur an die vielbeschworene „scientific community“ –, Tiere,<br />

Computer oder Gott als epistemische Subjekte auftreten. Das ist<br />

auch nicht unüblich, so spricht etwa Lehrer in (1987) von „social knowledge“,<br />

für das er nahezu dieselben Bedingungen wie für individuelles<br />

Wissen postuliert.<br />

2. Inferentielle Rechtfertigungen<br />

Eine weitere Abgrenzung, die bisher schon implizit vorausgesetzt wurde,<br />

soll noch explizit angegeben werden. Wenn ich von Überzeugungen oder<br />

Wissen oder unserem Wissenskorpus spreche, so beziehe ich mich damit<br />

immer auf Entitäten, die die Struktur von Aussagen (Propositionen) haben,<br />

also wahrheitswertfähig sind. Für die zu rechtfertigenden Aussagen<br />

ist das naheliegend, denn wir suchen nach Wahrheitsindikatoren für sie,<br />

was zumindest voraussetzt, daß sie selbst wahrheitswertfähig sind. Aber<br />

auch die Rechtfertigung besteht wiederum aus Aussagen und ihren inferentiellen<br />

Beziehungen zur rechtfertigenden Aussage. In der Diskussion<br />

fundamentalistischer Ansätze der Epistemologie (III.B) werde ich daneben<br />

zwar auch Vorschläge für andere Rechtfertigungsverfahren untersuchen,<br />

aber auf ein generelles Problem solcher Ansätze, die etwa von einer<br />

direkten Konfrontation bestimmter Aussagen mit unserer Wahrnehmung<br />

sprechen, sei schon an dieser Stelle hingewiesen. Wenn ein bestimmter<br />

Wahrnehmungszustand zur Rechtfertigung herangezogen wird,<br />

so läßt sich immer die Frage stellen, ob er vielleicht neben anderem auch<br />

kognitiven Gehalt besitzt, d.h. ob er bestimmte Aussagen beinhaltet, wie<br />

daß das Haus vor mir rot ist. Ist das der Fall, so können wir die Rechtfertigung<br />

natürlich auf diese Aussagen beziehen, die er beinhaltet. Ist das<br />

aber nicht der Fall und der Wahrnehmungszustand, wird von uns so charakterisiert,<br />

daß er keine begrifflich bestimmten und behauptenden Bestandteile<br />

enthält, so bleibt es ein offenes Problem, wie ein solcher Zustand<br />

überhaupt rechtfertigend für eine Aussage wirken kann.<br />

Der Hinweis auf die propositionale Struktur von Meinungen soll<br />

Meinungen unter anderem von anderen Arten von Informationsbesitz<br />

abgrenzen (vergleiche dazu Bieri 1987, 17ff). Auch Thermostaten haben<br />

in einem gewissen Sinn bestimmte Informationen über die Temperatur


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 79<br />

ihrer Umgebung. Doch ich möchte den Begriff der Überzeugung so anspruchsvoll<br />

benutzen – und das ist meines Erachtens in der Erkenntnistheorie<br />

auch erforderlich (s. dazu III.A.1.d) –, daß man ihnen in diesem<br />

Sinne keine Überzeugungen zusprechen darf. Das scheint schon deshalb<br />

sinnvoll, weil sie ihre Informationen nicht in einer Weise intern repräsentieren,<br />

die zu unseren Zuschreibungen von Überzeugungen paßt.<br />

Ohne daß ich mich zu weit in die Gefilde der Philosophie des Geistes<br />

oder der Sprachphilosophie vorwagen möchte, seien doch einige Intuitionen<br />

genannt, die meine Verwendung des Überzeugungsbegriffs leiten.<br />

Dazu gehört, daß derjenige, der eine Überzeugung hat, über eine Sprache<br />

verfügt und die in Frage stehende Überzeugung auch in dieser Sprache<br />

repräsentiert werden kann. Die Formulierung ist bewußt so vorsichtig<br />

gewählt, weil ich keineswegs behaupten möchte, daß die interne<br />

Speicherung dieser Überzeugungen ebenfalls immer in propositionaler<br />

Form erfolgen muß. Aber auch wenn sie z. B. für die uns gerade nicht<br />

bewußten Überzeugungen, die den überwältigenden Anteil an unseren<br />

Überzeugungen ausmachen, in nicht propositionaler Struktur vorgenommen<br />

würde, so können wir sie doch nur in propositionaler Form als<br />

Grundlage für unser erkenntnistheoretisches Räsonieren verfügbar machen<br />

– jedenfalls, wenn es uns um bewußte Rechtfertigungen von Überzeugungen<br />

handelt, wie sie für Wissen erforderlich sind. Für kognitive<br />

Rechtfertigungen wird man weiterhin verlangen, daß das epistemische<br />

Subjekt die fraglichen Überzeugungen auch verstehen kann und nicht<br />

nur nachplappert wie ein Papagei. Die zuletzt genannte Bedingung ist offensichtlich<br />

sinnvoll, aber ihre Explikation ist wiederum ein eigenständiges<br />

und sicher schwieriges Thema der Philosophie des Geistes. In meinem<br />

Projekt soll es nur um kognitive epistemische Rechtfertigungen gehen,<br />

wie sie der menschlichen Erkenntnis eigentümlich sind, und die<br />

Forderung nach inferentiellen Rechtfertigungen, bei denen die Rechtfertigungen<br />

im wesentlichen aus Aussagen bestehen, ist ihm daher angemessen.<br />

Bezogen auf den Thermostaten dürfte diese Bemerkung verhältnismäßig<br />

leicht nachvollziehbar sein. 30 Er besitzt zwar Informationen, aber<br />

er verfügt nicht in irgendeinem anspruchsvolleren Sinn über Rechtfertigungen<br />

und noch nicht einmal über Überzeugungen. Neben solchen klaren<br />

Fällen stoßen wir auf eine Reihe anderer Beispiele, für die unsere Intuitionen<br />

nicht so einmütig sind. Man kann vermutlich zwischen dem<br />

30 Trotzdem werden wir in (III.A) noch Erkenntnistheorien kennenlernen,<br />

für die gerade der Informationserwerb von Thermostaten das Vorbild menschlicher<br />

Erkenntnis abgibt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 80<br />

Thermostaten und dem Menschen eine Kette von Fällen konstruieren,<br />

für die Informationsbesitz relativ kontinuierlich an Überzeugungsähnlichkeit<br />

gewinnt. Die Informationen werden immer stärker in einer semantisch<br />

zu nennenden Form abgelegt. Von diesen denkbaren Ketten<br />

kann ich nur einige Glieder anführen, die jeweils einige der für Überzeugungen<br />

notwendige Bedingungen erfüllen: Unsere Chromosomen speichern<br />

oder beinhalten hochkomplizierte Informationen in den DNS-<br />

Strängen. Man kann sogar wie Baines (1989) von einer genetischen Sprache<br />

mit Sätzen und einer Grammatik sprechen, die aus vier Grundbausteinen<br />

– Wörtern oder Buchstaben – ihre Informationen zusammensetzt<br />

und sie mit Hilfe von Satzzeichen strukturiert. Das werde ich nur als<br />

analoge Verwendungen des Ausdrucks Sprache bezeichnen und möchte<br />

in derartigen Fällen nicht von Überzeugungen sprechen, die in unseren<br />

Genen niedergelegt sind. Dabei ist für mich die Intuition im Spiel, daß<br />

es so etwas wie eine bewußte Verarbeitung der Informationen in Form<br />

von Propositionen geben muß, damit Überzeugungen vorliegen können.<br />

Etwas schwieriger wird die Entscheidung schon im Falle von Schachcomputern,<br />

bei denen eine Art inferentieller Verarbeitung der Informationen<br />

stattzufinden scheint. Nach Dennett (z. B. 1987) sollten wir ihnen<br />

Überzeugungen zuschreiben. Sein Argument dafür ist, daß wir uns<br />

auf diese Weise ihre Züge am besten erklären und sie am zuverlässigsten<br />

vorhersagen können. Diese Art der Zuweisung bestimmter Eigenschaften<br />

zu Gegenständen der Welt scheint dem auch von mir geliebten<br />

Schluß auf die beste Erklärung zu entsprechen. Daß ich Dennett darin<br />

trotzdem nicht folgen möchte, verlangt eigentlich nach einer umfangreicheren<br />

Diskussion, die aber eher in den Bereich der Philosophie des Geistes<br />

gehört. Hier mögen einige Bemerkungen ausreichen. Wenn wir nach<br />

einer Erklärung suchen, so wünschen wir uns eine wahre Erklärung, die<br />

die tatsächlichen Ursachen für ein Ereignis namhaft macht. Doch es ist<br />

unklar, ob unsere propositionale Beschreibung des Computers das leisten<br />

kann. So paßt zu unserer Vorstellung von den jetzt konstruierbaren<br />

Schachcomputern – darüber was in einer sehr phantasievollen Science<br />

Fiction Geschichte möglich sein könnte, möchte ich nicht weiter spekulieren<br />

– eine Beschreibung, nach der ihre Strategien propositional repräsentiert<br />

werden, nicht kohärent hinein. Das wird schon in einer Betrachtung<br />

des Schachprogrammbeispiels deutlich. Für Schachcomputer wissen<br />

wir, daß sie von ihrem Programmaufbau her anhand recht einfacher<br />

Stellungs- und Variantenberechnungsverfahren arbeiten, die uns eher an<br />

einen komplizierten Thermostaten als an bewußte Informationsverarbeitung<br />

erinnern. Unsere Beschwörung: „Er plant einen heimtückischen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 81<br />

Königsangriff“ werden wir daher als eine typische „als ob“ Beschreibung<br />

verstehen. Wir wählen dieses „als ob“ Vorgehen, nicht als beste Erklärung,<br />

sondern eher wegen seiner Prognosemöglichkeiten. Es erlaubt uns<br />

wenigstens einige oberflächliche Vorhersagen, wie der Computer wohl<br />

weiterspielen wird. Aber wenn uns auch Schachcomputer intuitiv kaum<br />

geeignete Kandidaten für die Zuschreibung von Überzeugungen zu sein<br />

scheinen, werden wir schwankend, wenn wir an höher entwickelte<br />

Computer oder Roboter denken. Spätestens bei Computern, die einen<br />

Turing-Test bestehen, d.h. mit denen man sich unterhalten könnte, ohne<br />

an der Unterhaltung selbst zu bemerken, daß es sich um einen Computer<br />

und nicht einen Menschen handelt, scheiden sich bekanntlich die Geister.<br />

Zugegeben, es handelt sich dabei zumindest zum Teil um eine terminologische<br />

Frage. Unser Überzeugungsbegriff ist zu einem gewissen<br />

Grad anthropomorph und widersetzt sich schon daher einer solchen Zuschreibung.<br />

Das möchte ich aber an dieser Stelle nicht zu stark machen.<br />

Man könnte ja auch für eine sinnvolle Revision dieses Begriffs im Rahmen<br />

einer Theorie des Geistes plädieren, die uns von einem derartigen<br />

Arten-Chauvinismus befreit. Die Frage, ob auch Computer Überzeugungen<br />

haben, wird hier also nicht entschieden.<br />

Ein anderer Schritt, der unsere Ansicht, ob echte Überzeugungen<br />

vorliegen, auf die Probe stellt, ist der zum Tier. Bei manchen höher entwickelten<br />

Arten gibt es sicher Ansätze für eine Sprache. Wie dieser Fall<br />

letztlich einzuschätzen ist, ist hauptsächlich eine Frage an den Fachwissenschaftler<br />

und nicht an den Philosophen. Daher kann ich bestenfalls<br />

eine laienhafte Ansicht anbieten, die sich auf mein geringes Wissen zu<br />

diesem Problem stützt und eher als Klärung meiner Verwendung des<br />

Wortes „Überzeugung“ dienen soll. Demnach scheinen mir Verständigungsmöglichkeiten<br />

bei Tieren im allgemeinen noch nicht hinreichend,<br />

um von einer Sprache mit Aussagen in dem vollen Sinne zu sprechen,<br />

den ich hier verwende, da es auch bei ihnen keine entsprechend reflektierte<br />

Verwendung von Überzeugungen zu geben scheint. Doch daran<br />

hängt für mein Projekt nicht viel. Wenn wir ihnen Überzeugungen zuschreiben<br />

möchten, kommen wir allerdings zunächst in Schwierigkeiten,<br />

weil uns ihr Repräsentationssystem dazu nicht ausreichend vertraut ist.<br />

Schon aus diesem Grund werde ich mich auf Überzeugungen beschränken,<br />

die in einer uns bekannten menschlichen Sprache formuliert sind.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 82<br />

3. Implizites Wissen<br />

Ein weiterer Punkt, der ebenfalls den Fragenkomplex betrifft, inwieweit<br />

man davon sprechen darf, daß reale epistemische Subjekte also z. B.<br />

Menschen in bestimmten Überzeugungen gerechtfertigt sein können,<br />

soll noch gestreift werden. Die Zuschreibung von Überzeugungen und<br />

inferentiellen Rechtfertigungen ist mit vielen aus der Philosophie des<br />

Geistes bekannten Problemen behaftet. Diese stehen meist deshalb nicht<br />

im Vordergrund meiner Aufmerksamkeit, weil ich eher die Frage untersuche,<br />

ob für ein vorgegebenes Überzeugungssystem S eine bestimmte<br />

Überzeugung p gerechtfertigt ist, statt die, wann und wie man jemandem<br />

(gerechtfertigte) Überzeugungen zuschreiben kann. Trotzdem tauchen<br />

im Zusammenhang mit Erkenntnistheorien immer wieder Fragen danach<br />

auf, wie realistisch ihre Rechtfertigungskonzeptionen sind und ob<br />

Menschen in diesem Sinn überhaupt über Begründungen für irgendwelche<br />

ihrer Überzeugungen verfügen. Auch wenn dieser Aspekt nicht zentral<br />

für mein Vorhaben ist, sind dazu einige Bemerkungen angebracht.<br />

Unsere Zuschreibungen von Überzeugungen und Rechtfertigungen<br />

beziehen sich nicht nur auf unsere jeweils bewußten Überzeugungen –<br />

das sind im Normalfall auch nur sehr wenige –, sondern müssen ebenfalls<br />

unsere impliziten Überzeugungen mit umfassen. Schon unser eigener<br />

Name oder unser Geburtsdatum und vieles mehr, das uns ganz vertraut<br />

ist, sind uns in vielen Augenblicken nicht bewußt. Das sollte natürlich<br />

nicht in erkenntnistheoretischen Zusammenhängen dazu führen, daß<br />

wir auf die Behauptung festgelegt sind: Wir wüßten nicht, wie wir heißen.<br />

Es erscheint erkenntnistheoretisch relativ unproblematisch, uns entsprechende<br />

unbewußte Überzeugungen zuzuschreiben. 31 Das gilt in ähnlicher<br />

Weise für viele Überzeugungen unseres Alltagslebens. Etwa daß<br />

Telefone im allgemeinen nicht eßbar sind, Treppen unser Gewicht tragen<br />

– wohlgemerkt hier ist vom Normalfall die Rede –, und unzählige andere<br />

Dinge dieser Art. 32 Diese impliziten oder unbewußten Überzeugungen<br />

sind am ehesten als Dispositionen zu bestimmten bewußten Überzeugungen<br />

oder einem entsprechenden etwa sprachlichem Verhalten zu verstehen.<br />

Wenn wir von einer realistischen Auffassung von Rechtfertigung reden<br />

möchten, sollten tatsächlich zumindest einige unserer gewöhnlichen<br />

31 Diese impliziten oder unbewußten Überzeugungen haben natürlich<br />

nichts gemein mit den unterbewußten Überzeugungen, von denen in der Psychoanalyse<br />

die Rede ist, die uns ja gerade nicht so leicht zugänglich sind.<br />

32 Wie umfangreich dieses Wissen ist, ist wohl erst durch die „frame"-Probleme<br />

in der KI Forschung richtig deutlich geworden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 83<br />

Überzeugungen gerechtfertigt sein. Das kann aber nur der Fall sein,<br />

wenn wir die impliziten Überzeugungen und Rechtfertigungen, die wir<br />

dispositionell besitzen, mit einbeziehen. Das entspricht unserem alltäglichen<br />

Sprachgebrauch und sollte uns daher vertraut erscheinen.<br />

Sicherlich lassen sich Grenzbereiche angeben, wo schwer zu entscheiden<br />

ist, ob jemand eine bestimmte Überzeugung implizit besitzt.<br />

Das Ergebnis von mathematischen Berechnungen, ist uns im allgemeinen<br />

vorher nicht bekannt. Haben wir dann schon vor unserer expliziten Berechnung<br />

die Überzeugung, daß 1235+4234=5469 ist? In diesen Fällen<br />

gibt es eine nachprüfbare Disposition zuzustimmen, aber oft verlangt<br />

man von Überzeugungen mehr, etwa, daß wir sie zumindest irgendwann<br />

schon einmal bewußt gehabt haben. Diese Forderung erscheint mir jedoch<br />

zu stark, wenn wir an andere Fälle denken. Dann gehörten nämlich<br />

auch selbstverständliche Meinungen, die auch in unserem Verhalten<br />

dokumentiert werden, wie die, daß Telefone meistens nicht eßbar sind,<br />

nicht zu unseren impliziten Überzeugungen, auf die wir bei der Suche<br />

nach einer Rechtfertigung bezug nehmen dürfen. Wenn wir uns in einer<br />

Rechtfertigung unserer Ansichten jedoch nur auf derartig selbstverständliche<br />

Meinungen zu stützen haben, wird kaum jemand einwenden, man<br />

wäre in seiner Ansicht deshalb nicht gerechtfertigt gewesen, weil man<br />

nie vorher bewußt gedacht hatte, daß Telefone nicht eßbar seien. Damit<br />

sollen unter „implizite Überzeugungen“ sowohl die momentan unbewußten<br />

Überzeugungen wie auch einfache Ableitungen aus unseren<br />

Überzeugungen, die wir bei kurzer Reflexion ziehen, subsumiert werden.<br />

Gewisse Vagheiten der Zuschreibung impliziter Meinungen können<br />

hier nicht ausgeräumt werden, sind aber tolerierbar, denn im Vordergrund<br />

stehen Fragen nach der Natur des Rechtfertigungszusammenhangs<br />

und nicht in erster Linie Fragen danach, ob man von bestimmten<br />

Personen sagen kann, sie seien in ihren Meinungen gerechtfertigt.<br />

Ebenso wie man viele Überzeugungen nur als implizite Überzeugungen<br />

zuschreiben kann, darf man natürlich auch von vielen Rechtfertigungen<br />

nur impliziten Besitz erwarten. D.h., wir sind nach einer gewissen<br />

Reflektion auf das Ersuchen um eine Rechtfertigung in der Lage,<br />

eine solche zu produzieren (s.a. BonJour 1985, 20). 33<br />

Schon Descartes, der in den Meditationen von einer weitgehenden<br />

Transparenz unseres Geistes gegenüber sich selbst ausging, kannte das<br />

33 Für unsere Überlegungen zur Rechtfertigungsstruktur unseres Wissens<br />

stehen viele langfristige Überzeugungen zur Verfügung. Gerade diese Überzeugungen<br />

können uns nicht immer bewußt sein, sondern sind meist nur implizit gegeben.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 84<br />

Problem impliziten Wissens. Allerdings birgt für Descartes das implizite<br />

Wissen immer eine Irrtumsmöglichkeit, die für bewußte Meinungen<br />

nicht gegeben ist, denn implizites Wissen ist für ihn nicht klar und deutlich.<br />

Klar und deutlich können stets nur unsere momentan bewußten<br />

Vorstellungen sein. Selbst für die mathematischen Wahrheiten gilt: Sobald<br />

wir nicht mehr an sie denken, sind wir uns ihrer nicht mehr sicher,<br />

weil sie uns in dem Moment auch nicht mehr klar und deutlich gegeben<br />

sind. Um so mehr bedroht dieses Problem, daß wir unsere Aufmerksamkeit<br />

immer nur auf einen Teil unserer Meinungen richten können, jeden<br />

anderen Bereich unseres Wissens, so daß wir nach Descartes zur Überwindung<br />

des Zweifels immer auf Gott angewiesen sind:<br />

Da ich von einer solchen Natur bin, daß ich, solange ich etwas ganz<br />

klar und deutlich erfasse, an dessen Wahrheit glauben muß, und da<br />

ich aber auch von einer solchen Natur bin, daß ich nicht mein geistiges<br />

Auge immer auf dieselbe Sache richten kann, um sie klar aufzufassen,<br />

und die Erinnerung an die früher gebildete Meinung oft wiederkehrt,<br />

so können, wenn ich nicht mehr auf die Gründe achte, derentwegen<br />

ich so geurteilt habe, mir andere Gründe entgegentreten,<br />

die mich, falls ich nicht wüßte, daß Gott existiert, leicht von der<br />

Meinung abbringen würden, und so hätte ich niemals von irgendeiner<br />

Sache ein wahres und sicheres Wissen, sondern nur unbestimmte<br />

und veränderliche Meinungen. (Descartes 1986, 173)<br />

Die mathematischen Wahrheiten sind implizit verfügbar und jederzeit<br />

ins Bewußtsein zurückzurufen. Aber Descartes muß Gott bemühen, um<br />

sich solcher impliziten Wahrheiten auch in ihrem impliziten Zustand gewiß<br />

zu sein. Descartes Konzeption von Rechtfertigung ist damit deutlich<br />

anspruchsvoller, als die hier vertretene, da er für Rechtfertigungen Gewißheit<br />

verlangt, die uns momentan bewußt ist, während ich auch implizite<br />

rechtfertigende Überzeugungen und Rechtfertigungen gelten lasse.<br />

Das hängt natürlich mit seiner strengen Forderung nach Sicherheit oder<br />

Unkorrigierbarkeit (s.a. III.B) zusammen, der ich mich nicht anschließen<br />

werde. Sie stellt für implizite Überzeugungen das Problem des Erinnerungsirrtums<br />

in den Vordergrund, auf dessen Bedeutung für die Erkenntnistheorie<br />

ich in (IV.B.4) zu sprechen komme.<br />

4. Epistemische Arbeitsteilung<br />

Ein grundlegendes Phänomen realer epistemischer Begründungen wird<br />

durch eine überwiegend vereinfachende und stark von historischen Posi-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 85<br />

tionen geprägte Erkenntnistheorie außer acht gelassen. Gegen das einfache<br />

Bild der Empiristen – und das entsprechend einfache auf Seiten der<br />

Rationalisten –, daß eine einzelne Person auf sich allein gestellt bestimmte<br />

Beobachtungen macht, dann Theorien dazu entwickelt und sie<br />

durch diese Beobachtungen rechtfertigt, soll eine Konzeption von Wissen<br />

und Rechtfertigungen konstruiert werden, die besser zu unserem offensichtlich<br />

arbeitsteiligen Wissenserwerb paßt. Daß unser Wissenserwerb<br />

im Regelfall kein Unternehmen für Einzelgänger ist, beschreibt Gilbert<br />

Harman in der folgenden Form:<br />

Learning about the world is a cooperative enterprise. One comes to<br />

accept things as a member of one’s family or society of profession or<br />

culture. It is only when people become methodologically self-conscious<br />

that they distinguish their own private opinions from the<br />

things they accept as members of a group. (Harman 1986, 51)<br />

Für naturalistische Vorgehensweisen haben diese evidenten soziologischen<br />

und psychologischen Tatsachen auch erkenntnistheoretische Konsequenzen,<br />

die eine Beschränkung auf eine solipsistische Position – und<br />

insbesondere eine Beschränkung auf einen Solipsismus der Gegenwart,<br />

wie wir ihn z. B. bei Descartes als erkenntnistheoretischen Ausgangspunkt<br />

finden – nicht einfangen kann. In unserem Wissenskorpus stoßen<br />

wir an zahlreichen Stellen auf Überzeugungen, deren wir uns mit guten<br />

Gründen sicher sind, die wir jedoch nicht allein begründen können, ja<br />

für die wir nicht einmal über implizite Rechtfertigungen verfügen. Zu<br />

ihrer Rechtfertigung sind wir wesentlich auf das Zeugnis und die Kenntnisse<br />

anderer Leute angewiesen. Das betrifft bereits die einfachsten Meinungen<br />

über alltägliche Dinge, die in der Nachbarschaft, der Politik, in<br />

anderen Ländern oder schlicht in unserer Abwesenheit passieren, ist<br />

aber viel brisanter für den Bereich wissenschaftlichen Wissens.<br />

Bei Überzeugungen über die Schädlichkeit von Cholesterin, die Wirkungen<br />

von Vitaminen, das Verhalten von Atomen oder Computern etc.<br />

sind wir auf die Urteile von medizinischen und anderen Fachleuten und<br />

ihre Rechtfertigungen für diese Meinungen angewiesen. Unsere Überzeugungen,<br />

daß die Sonne morgen wieder aufgehen wird, daß der Mond<br />

sich um die Erde bewegt usw., sind sicher nicht unbegründet, so daß wir<br />

sogar höhere Wetten darauf abschließen würden. Und wer möchte wohl<br />

dagegen halten? So wettete der Mathematiker G.H. Hardy täglich, daß<br />

die Sonne wieder aufgeht, sein Vermögen gegen einen halben Penny<br />

(nach Dawkins 1990, 137). Was könnten die meisten von uns aber als<br />

Begründung dieser Ansicht anführen? Wohl nicht viel, wenn sie nicht


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 86<br />

auf Fachbücher und Experten verweisen. Direkt zugänglich bleiben für<br />

viele nur Rechtfertigungen wie: Daß es schon immer so war, wobei sie<br />

das aus eigener Anschauung nur für sehr wenige Tage der Erdgeschichte<br />

behaupten können, und vielleicht noch, daß die Erde sich dreht.<br />

Aber selbst ein heutiger Physiker, der sich guten Gewissens auf seine<br />

Kenntnisse der Mechanik bei der Erklärung der Bewegung von Sonne,<br />

Erde und Mond stützen kann, hat damit direkten kognitiven Zugang<br />

nur zu einem recht kleinen Teil der gesellschaftlich verfügbaren Daten.<br />

Er kann unmöglich die vielen Meßdaten über die Umlaufbahnen im Gedächtnis<br />

haben. Ohne die enorme Zahl von Daten sind die mechanischen<br />

Theorien allein aber noch keine gute Begründung unserer Annahmen.<br />

Sollen wir nun sagen, daß wir uns geirrt haben über die Güte der<br />

uns zur Verfügung stehenden Rechtfertigungen? Womöglich gibt es keinen<br />

einzigen Menschen, der auch nur einen kleinen Teil unserer Gründe<br />

für unser Modell des Sonnensystems in der Form parat hat, daß man sie<br />

ihm als eine Form von impliziten Wissen zuschreiben könnte. Sie sind<br />

inzwischen vielmehr in Computern gespeichert. Gibt es daher niemanden,<br />

der in den genannten Annahmen im starken Sinn des Wortes gerechtfertigt<br />

ist? Das scheint keine plausible Beschreibung unserer epistemischen<br />

Situation zu sein. Einige Wissenschaftler etwa der Nasa haben<br />

Zugriff auf diese Daten und können sie im Prinzip zum Test unserer<br />

Vorstellung vom Planetensystem heranziehen und tun das bei vielen Gelegenheiten<br />

auch. Wir dürfen darauf verweisen, daß bestimmte Daten an<br />

bestimmten Stellen im Prinzip verfügbar sind und von Wissenschaftlergruppen<br />

ausgewertet werden, auch wenn wir sie selbst nicht parat haben<br />

und noch nicht einmal wissen, welchen Umfang und welcher Art diese<br />

Daten sind. Sollten wir diese Möglichkeiten zur Rechtfertigung unserer<br />

Ansichten ausschließen, weil sie nicht der klassischen stark solipsistisch<br />

geprägten Vorstellung vom Erkenntniserwerb im Rahmen eines methodologischen<br />

Solipsismus entsprechen, würden wir auf die umfangreichste<br />

Wissensquelle verzichten, die uns zur Verfügung steht. Dann erhalten<br />

die Skeptiker sofort die Oberhand, die uns vorwerfen, daß wir auch<br />

schwächere Anforderungen als absolute Gewißheit niemals erreichen<br />

werden.<br />

Eine Aufgabe der heutigen Erkenntnistheorie ist zu untersuchen, wie<br />

das sozial verfügbare Wissen in die Begründungen unserer Meinungen<br />

eingehen kann. Worüber wir zunächst verfügen, sind Einschätzungen<br />

darüber, wie bedeutsam die von der Gesellschaft gesammelten Daten<br />

sind und darüber hinaus Einschätzungen, aus welchen Quellen wir über<br />

welche Dinge mit welchem Zuverlässigkeitsgrad Auskunft erlangen kön-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 87<br />

nen. Unsere Ansichten über die Bewegungen der Planeten sind durch die<br />

immensen wissenschaftlichen Datensammlungen tatsächlich begründeter,<br />

als es entsprechende Ansichten der Menschen früherer Jahrhunderte<br />

waren, obwohl das neu hinzugekommene Wissen eher ein Expertenwissen<br />

ist, das für keinen Menschen mehr direkt zugänglich ist. Daß die gesellschaftlich<br />

verfügbaren Theorien und Daten eine begründete Sicht der<br />

Planetenbewegung abgeben, ist für uns auch anhand der Erfolge der<br />

Raumfahrt indirekt erkennbar. Erfolgreiche Flüge zum Mond, Erd- und<br />

andere Satelliten sind für uns am ehesten verständlich, wenn wir davon<br />

ausgehen, daß unsere wissenschaftlichen Theorien über ihre Bewegungen<br />

und Anziehungskräfte im wesentlichen richtig sind. Indizien dafür,<br />

daß die wissenschaftlichen Theorien der Mechanik ein richtiges Bild der<br />

Welt zeichnen, finden wir noch in vielen anderen Bereichen.<br />

Wir können uns an unzähligen Stellen – die Beispielliste zeigte nur<br />

einen sehr kleinen Ausschnitt – auf Rechtfertigungen für unsere Überzeugungen<br />

stützen oder berufen, die wir nicht direkt zur Verfügung haben<br />

und die überhaupt keine Einzelperson zur Gänze parat haben kann,<br />

die aber in unserer Gesellschaft verfügbar sind. Das bezeichne ich, in<br />

auch inhaltlich enger Anlehnung an Putnams Überlegungen zur Bedeutungstheorie<br />

(s. Putnam 1979, 37ff), als epistemische Arbeitsteilung. Die<br />

Rechtfertigungen lassen sich stückweise zusammensetzen, wobei die<br />

Stücke verschiedenen Personen verfügbar sind. Trotzdem können sich in<br />

bestimmter Weise auch andere oder sogar alle Mitglieder der Gesellschaft<br />

darauf berufen. Man kann zu Zwecken der Abgrenzung Begründungen<br />

dieser Art als indirekte Rechtfertigungen durch epistemische Arbeitsteilung<br />

bezeichnen. Erst wenn wir sie berücksichtigen, erhalten wir<br />

Menschen, die nicht nur mit lauter unbegründeten Meinungen ausgestattet<br />

sind. Ein Projekt einer heutigen Erkenntnistheorie sollte es somit<br />

sein, den Formen gesellschaftlichen Wissens und unseren indirekten Zugriffsmöglichkeiten<br />

darauf im Hinblick auf Rechtfertigungen weiter<br />

nachzuspüren. Dieses Vorhaben ist natürlich zu einem guten Teil ein empirisches<br />

Forschungsprogramm, für das sich eine Zusammenarbeit etwa<br />

mit der Wissenschaftssoziologie anbietet.<br />

In dem Sinne, daß wir uns nicht direkt auf eigene Überzeugungen in<br />

unseren Rechtfertigungen stützen, habe ich Rechtfertigungen, die sich<br />

wesentlich auf gesellschaftlich verfügbares Wissen stützen, „indirekte Belege“<br />

für die Wahrheit unserer Meinungen genannt. Indirekte Belege behandeln<br />

wir häufig mit einer gewissen Skepsis. Oft mit größerer Skepsis<br />

als die meisten anderen Indizien. Man denke nur an die Einschätzung<br />

von Behauptungen, die man nur vom Hören-Sagen kennt, vor Gericht.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 88<br />

Epistemisch problematisch ist in diesen Fällen meist, daß wir nur wenig<br />

über die epistemische Zuverlässigkeit der Quellen dieser Behauptung<br />

aussagen können. Jede indirekte Rechtfertigung, die sich auf gesellschaftlich<br />

verfügbares Hintergrundwissen bezieht, bedarf aus diesem<br />

Grund einer besonders sorgfältigen Einschätzung der Zuverlässigkeit ihrer<br />

Quelle, die über ihren rechtfertigenden Charakter mitbestimmt. Solche<br />

Einschätzungen müssen sich ihrerseits im allgemeinen wieder auf<br />

nur sozial verfügbare, ebenfalls recht indirekte Belege stützen, ohne das<br />

wir die Begründungsstrukturen, die diesem gesellschaftlichen Wissen zugrunde<br />

liegen selbst überprüfen könnten. Daneben werden wir zur Bewertung<br />

indirekter Belege prüfen, wie kohärent sie sich in unser bisheriges<br />

Hintergrundwissen einpassen lassen. Die Belege, die wir dafür heranziehen<br />

sind vielfältig, und die verlangten Einschätzungen stehen in einem<br />

umfangreichen Netz von anderen Überzeugungen und Metaüberzeugungen,<br />

anhand dessen sie in holistischer Weise vorgenommen werden.<br />

Ähnliches trifft aber auch für unsere eigenen Erinnerungen zu, wenn<br />

wir sie in epistemisch verantwortlicher Weise einschätzen wollen. Wir<br />

müssen uns dazu ganz analog überlegen, unter welchen Bedingungen wir<br />

unseren Erinnerungen trauen können (s. dazu IV.B.4). Sicherlich sind<br />

viele Teile des gesellschaftlich begründeten Wissens epistemisch eindeutig<br />

unproblematischer, als z. B. viele unserer Erinnerungen, von denen<br />

wir oft genug erfahren müssen, daß sie uns trügen. Trotzdem lassen wir<br />

Meinungen, die sich auf Erinnerungen berufen, meist ohne große Bedenken<br />

für Rechtfertigungen zu. Daher sollten wir auch die indirekten<br />

Rechtfertigungen durch epistemische Arbeitsteilung nicht schlechter behandeln<br />

und mit entsprechenden Vorbehalten, was ihre Zuverlässigkeit<br />

betrifft, ebenfalls akzeptieren.<br />

Ein ganz anderer Zugang zur epistemischen Arbeitsteilung findet<br />

sich noch außerhalb erkenntnistheoretischer Überlegungen in sprachphilosophischen<br />

Positionen, die den sozialen Beitrag zur Bedeutung unserer<br />

Äußerungen und Überzeugungen betonen. Wenn wir z. B. als einziges<br />

Heilmittel gegen Probleme um „private Sprachen“ im Sinne Wittgensteins<br />

wesentlich auf die Sprachgemeinschaft angewiesen sind, so wird<br />

die gesellschaftliche Arbeitsteilung bereits für die Festlegung, was wir<br />

meinen, konstitutiv und natürlich um so mehr für alles, was darauf aufbaut.<br />

Doch diesen sprachphilosophischen Zusammenhängen kann ich an<br />

dieser Stelle nicht weiter nachgehen, sondern möchte mich statt dessen<br />

einem engen Anknüpfungspunkt zur Argumentationstheorie zuwenden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 89<br />

Die epistemische Arbeitsteilung trifft sich mit einer Argumentform,<br />

die in der Argumentationstheorie gut bekannt ist, nämlich dem Argument<br />

aus der Autorität. Zwischen epistemischen Rechtfertigungen und<br />

Argumenten gibt es eine enge Beziehung, aber doch Unterschiede in der<br />

Betonung (s. Kap I). Während es für Rechtfertigungen nur auf den tatsächlichen<br />

Zusammenhang zwischen Rechtfertigung und gerechtfertigter<br />

Meinung ankommt, spielt für Argumente stärker ihr pragmatischer Kontext<br />

eine Rolle; an wen sie adressiert sind, welches Hintergrundwissen<br />

der jeweilige Adressat mitbringt und ob sie so formuliert sind, daß sie<br />

Überzeugungskraft besitzen. Trotzdem sollte sich im Prinzip aus jeder<br />

guten Rechtfertigung ein Argument gewinnen lassen, indem man sie didaktisch<br />

so aufbereitet, daß sie den Adressaten überzeugt. Andererseits<br />

gehört zu einem guten Argument meines Erachtens ebenfalls, daß es<br />

nicht nur gut ankommt, sondern auch sachlich richtig ist, also eine gute<br />

Rechtfertigung dahinter steht. Den Rechtfertigungen per epistemischer<br />

Arbeitsteilung entsprechen dabei in etwa die Argumente aus der Autorität,<br />

in denen man sich für eine Behauptung auf Autoritäten beruft. Diese<br />

Argumentform hatte lange Zeit keinen guten Ruf, stand sie doch auf den<br />

ersten Blick dem Fehlschluß eines argumentum ad hominem verdächtig<br />

nahe, aber eine Präzisierung zeigt auch deutlich die erkenntnistheoretisch<br />

bedeutsamen Unterschiede. Für die prinzipielle Zulässigkeit von<br />

Argumenten aus der Autorität tritt Salmon überzeugend ein:<br />

Nur ein notorischer Besserwisser kann annehmen, daß es niemals erlaubt<br />

ist, sich auf Autorität zu berufen, denn bei der Aneignung und<br />

Anwendung von Wissen kann man nicht darauf verzichten, sich in<br />

angemessener Weise einer Autorität zu bedienen. Wenn wir jede Berufung<br />

auf Autorität ablehnen würden, dann müßten wir zum Beispiel<br />

behaupten, daß niemand jemals Grund hat, das Urteil eines erfahrenen<br />

Arztes über eine Krankheit zu akzeptieren. Man müßte<br />

vielmehr versuchen, selbst ein erfahrener Arzt zu werden, würde<br />

aber dabei der unlösbaren Aufgabe gegenüberstehen, sich niemals<br />

auf die Ergebnisse anderer Experten verlassen zu dürfen. Anstatt die<br />

Berufung auf Autorität vollkommen abzulehnen, müssen wir versuchen,<br />

die berechtigten von den unberechtigten Berufungen auf Autorität<br />

zu unterscheiden. (Salmon 1983, 184)<br />

Als eine korrekte Argumentationsform für diesen Argumenttyp nennt<br />

Salmon dann (1983, 185) den Schluß:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 90<br />

Das Argument aus der Autorität<br />

x ist bezüglich p eine verläßliche Autorität.<br />

x behauptet, daß p.<br />

Also: p<br />

Wichtig für die Anwendung einer Berufung auf eine Autorität, ist immer,<br />

daß sie gerade für dieses Gebiet eine Autorität ist, und außerdem ist<br />

natürlich kein umgekehrter Schluß – im Sinne eines argumentums ad hominem<br />

– zulässig, nach der jemand keine Autorität darstellt und wir deshalb<br />

seiner Ansicht für falsch halten sollten. Auch das angegebene Schema<br />

für die Bezugnahme auf Autoritäten weist viele Analogien zu den<br />

Rechtfertigungen auf, die wir in (IV.B) für Beobachtungsüberzeugungen<br />

kennenlernen werden. Weiterhin nennt Salmon schon die wichtigsten<br />

Fehlerquellen für Schlüsse aus der Autorität, die uns Hinweise bieten,<br />

wie das Argument in umfangreicheren Rechtfertigungszusammenhängen<br />

eingeschätzt werden kann. In dieser Richtung können wir auch über indirekte<br />

Rechtfertigungen weiter nachdenken. Das muß aber späteren Arbeiten<br />

überlassen bleiben.<br />

Auf eine Konsequenz der epistemischen Arbeitsteilung möchte ich an<br />

dieser Stelle wenigstens noch aufmerksam machen. Spätestens durch die<br />

epistemische Arbeitsteilung gewinnt das wissenschaftliche Wissen eine<br />

grundlegende Bedeutung für all unser Wissen und unsere Rechtfertigungen.<br />

Man kann sagen – und das ist zunächst einfach als Tatsachenbehauptung<br />

und nicht als Bewertung gemeint –, daß die Wissenschaften<br />

das Rückgrat des gesellschaftlichen Wissens darstellen, sind sie doch<br />

auch von der Gesellschaft mit der systematischen Sammlung von Erkenntnissen<br />

beauftragt. Jeder, der sich in Widerspruch zu diesem Wissen<br />

begibt, hat Schwierigkeiten, seine Überzeugungen in einer offenen Diskussion<br />

gesellschaftlich durchzusetzen. Das zeigt deutlich den geradezu<br />

basalen Charakter dieses Wissens in den modernen Gesellschaften.<br />

Selbst von Sekten und okkulten Bewegungen wird dieser Primat des wissenschaftlichen<br />

Wissens zunehmend – wenn auch häufig nur implizit –<br />

anerkannt. Sie bemühen sich zum einen darum, die meist vorhandenen<br />

Widersprüche zu wissenschaftlichen Auffassungen zu beseitigen oder<br />

herunterzuspielen und zu verschleiern, und andererseits bemühen sie<br />

sich sogar häufig, sich einen wissenschaftlichen Anstrich zu geben, in<br />

dem sie behaupten, sich auf wissenschaftliche Erkenntnisse zu stützen.<br />

In jedem Fall findet das wissenschaftliche Wissen auf dem Wege über<br />

die epistemische Arbeitsteilung Eingang in die impliziten Rechtfertigungen<br />

aller Mitglieder der Gesellschaft. Darauf hingewiesen, daß sie sich<br />

dazu in Widerspruch befinden, werden sie es in aller Regel als Anfech-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 91<br />

tung empfinden, mit der man sich auseinanderzusetzen hat. Was natürlich<br />

keineswegs bedeutet, daß man seine liebgewonnen Überzeugungen<br />

zugunsten dieser Erkenntnisse einfach aufgibt, denn dazu gibt es zu viele<br />

Immunisierungsmöglichkeiten für unsere Meinungen. Auch für politische<br />

Entscheidungen bildet das wissenschaftliche Wissen die bestimmende<br />

Wissensgrundlage, soweit es denn verfügbar ist und nicht aus bestimmten<br />

Gründen unterdrückt wird. Das belegen unter anderem die regelmäßigen<br />

Anhörungen von Experten, Enquete-Kommissionen etc.,<br />

was natürlich ebensowenig wie im individuellen Fall bedeuten muß, daß<br />

es in entsprechenden politischen Entscheidungen auch tatsächlich umgesetzt<br />

wird. Doch zumindest zeigen diese Analysen die große Bedeutung,<br />

die speziell dem wissenschaftlichen Wissen für unser Überzeugungssystem<br />

in unserer intuitiven Einschätzung beigelegt wird.<br />

Das Problem, wie sich gesellschaftliches Wissen definiert, ist mit dem<br />

Hinweis auf die institutionalisierten Wissenschaften natürlich noch<br />

längst nicht gelöst, denn auch wissenschaftliches Wissen ist ja selbst wieder<br />

Gruppenwissen. Dazu, wie wissenschaftliches Wissen zu charakterisieren<br />

ist, gibt es verschiedene Vorschläge, die ich im dritten Teil der Arbeit<br />

ansprechen möchte.<br />

5. Hierarchische Strukturen<br />

Unser Überzeugungssystem ist alles andere als eine amorphe Menge von<br />

isoliert nebeneinanderstehenden Einzelerkenntnissen, sondern besitzt im<br />

Gegenteil vielfältige innere Struktur. Auf einige Unterscheidungen, die in<br />

der Erkenntnistheorie eine gewisse Bedeutung besitzen, komme ich nun<br />

zu sprechen. In unserem Netz von empirischen Überzeugungen über die<br />

Welt – von mathematisch/logischen, ästhetischen, religiösen oder moralischen<br />

Überzeugungen soll hier nicht die Rede sein – finden sich zuerst<br />

einmal verschiedene Grade der Allgemeinheit unserer Meinungen, Überzeugungen<br />

über andere Überzeugungen, darunter insbesondere Ansichten<br />

über den Grad der Rechtfertigung bestimmter Meinungen und anderes<br />

mehr. An diesem Punkt möchte ich anhand einiger klassifizierender Begriffe<br />

den Blick auf die Vielfalt unseres Überzeugungssystems und einige<br />

seiner strukturierenden Dimensionen richten, bin aber weit davon entfernt,<br />

dafür Vollständigkeit zu beanspruchen. Wie wichtig die Beachtung<br />

der Komplexität gewöhnlicher Überzeugungssysteme gerade für eine Bewertung<br />

der Kohärenztheorien ist, soll schon an dieser Stelle ein Beispiel<br />

erläutern.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 92<br />

Kritiker von Kohärenzkonzeptionen der Erkenntnis übersehen oft<br />

diese Vielfalt und schätzen daher die Wirksamkeit von Kohärenztests in<br />

unserem Meinungssystem völlig falsch ein. So lautet ein in verschiedenen<br />

Varianten immer wiederkehrender Einwand gegen Kohärenz als<br />

Maßstab für den Umbau unseres Überzeugungssystems: Wir können die<br />

Kohärenz unserer Meinungen ganz einfach dadurch erreichen, daß wir<br />

Beobachtungen, die nicht kohärent zu unseren Überzeugungen passen,<br />

zurückweisen. Damit bliebe, so der Einwand, unser Meinungssystem kohärent.<br />

Dieser Einwand übersieht gleich zwei wichtige Dinge. Erstens<br />

liegt ihm die Verwechslung von Kohärenz mit Konsistenz zugrunde. Auf<br />

die beschriebene Art mögen wir ein konsistentes Meinungssystem behalten,<br />

aber Kohärenz verlangt auch positive Bestandteile, also etwa inferentielle<br />

Beziehungen der Meinungen untereinander, die durch das Vorliegen<br />

von Konsistenz keineswegs gewährleistet werden können (s.<br />

IV.A.1). Das einfache Abweisen von Beobachtungsüberzeugungen ist daher<br />

kaum geeignet, zur Kohärenz eines Meinungssystems beizutragen.<br />

Kohärenz verlangt vielmehr, daß man sich darum bemüht, weitere Überzeugungen<br />

zu gewinnen, die eine stärkere Vernetzung der Meinungen<br />

zur Folge haben. Kohärenzforderungen wirken in einem komplexen<br />

Überzeugungssystem also sicherlich auf eine völlig andere Art als ein einfacher<br />

Inputfilter.<br />

Der zweite Aspekt, an dem der Vorwurf die innere Vielfalt unserer<br />

Überzeugungssysteme übersieht, ist der unserer epistemischen Überzeugungen.<br />

Die meisten Menschen haben bestimmte Metaüberzeugungen<br />

dergestalt, daß normale Beobachtungen für uns den wichtigsten Input an<br />

Informationen über die Außenwelt bieten. Es paßt dann eben nicht kohärent<br />

in unser Überzeugungssystem hinein, diese schlicht abzulehnen.<br />

Sobald wir überhaupt die Augen aufmachen, nehmen wir unwillkürlich<br />

wahr und erwerben – ob wir es nun wollen oder nicht – bestimmte Beobachtungsüberzeugungen.<br />

Indem wir diese zurückweisen, verletzen wir<br />

auf eklatante Weise unsere Vorstellungen von der Welt und unserer Stellung<br />

in ihr, wenn wir nicht wenigstens eine passende Geschichte darüber<br />

erzählen können, wieso es sich gerade bei diesen Wahrnehmungen um<br />

eine Sinnestäuschung gehandelt hat. Damit paßt dieses Vorgehen nicht<br />

kohärent zu unseren epistemischen Anschauungen darüber, wie grundlegend<br />

und zuverlässig derartige Beobachtungsüberzeugungen über die<br />

Welt Auskunft geben. Der Kritiker eines Kohärenztests hat diese Metaüberzeugungen<br />

nicht beachtet und scheint einer zu einfachen Vorstellungen<br />

unserer Überzeugungssysteme aufgesessen zu sein. Um dem wenigs-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 93<br />

tens etwas entgegenzuwirken, möchte ich einiger Dimensionen der Einteilung<br />

unserer Erkenntnisse auflisten.<br />

a) Grade von Allgemeinheit<br />

Wir haben Überzeugungen über das, was wir gerade wahrnehmen: über<br />

Gegenstände unserer Umgebung und auch über unseren eigenen Zustand<br />

(Schmerz, Müdigkeit, Freude etc.). Diese bezeichne ich häufig als<br />

Beobachtungsüberzeugungen oder manchmal (hoffentlich selten) auch<br />

nachlässiger als Beobachtungen. In Beobachtungsüberzeugungen geht es<br />

im allgemeinen um Einzeldinge, etwa konkrete Gegenstände unserer<br />

Umgebung oder bestimmte Personen, mit denen wir in Kontakt kommen.<br />

Daneben verfügen wir über viele allgemeinere Annahmen oder sogar<br />

kleine Alltagstheorien, auf die wir uns im Alltag verlassen, die mit<br />

unseren Beobachtungen auf viele Arten zusammenhängen. So glauben<br />

wir vielleicht, daß Fritz ein jähzorniger Mensch ist. Das betrifft dann<br />

nicht nur unsere momentanen Beobachtungen, sondern auch Vergangenes<br />

und Zukünftiges. Dabei besitzen wir nicht nur Minitheorien über<br />

Einzeldinge, sondern natürlich auch eine Vielzahl von Ansichten über<br />

Gegenstandstypen. Das sind Theorien, die schon auf einem etwas höheren<br />

Allgemeinheitsniveau liegen. Etwa, daß man Menschen, die zum<br />

Jähzorn neigen, besonders in Streßsituationen nicht reizen sollte (hier<br />

gleich als Handlungsanweisung formuliert, aber die zugrundeliegenden<br />

Überzeugungen kann jeder erraten), daß Zucker sich in Wasser auflöst,<br />

daß Sonnenbaden und Sonnenbrände unser Hautkrebsrisiko erhöhen,<br />

daß Zinssenkungen die Inflation anheizen können u.v.m. Einige der Beispiele<br />

stammen aus dem wissenschaftlich technischen Bereich, wie auch<br />

bei vielen anderen ersichtlich ist, daß bestimmte wissenschaftliche Theorien<br />

hinter ihnen stehen. Da sind sicherlich psychologische Theorien zu<br />

nennen, wie die Freudsche, die zum Teil auch in unsere Alltagsansichten<br />

über andere Menschen Eingang gefunden hat, politische, medizinische<br />

und biologische Theorien oder auch Theorien über die Entwicklung unseres<br />

Sonnensystems und die Entstehung von Leben auf der Erde, sowie<br />

über unsere eigene Entwicklungsgeschichte. Gerade die letzteren hatten<br />

bekanntlich wieder starke Auswirkungen auf bestimmte religiöse Auffassungen,<br />

was zeigt, wie auch inhaltlich zunächst entferntere Bereiche untereinander<br />

vernetzt sein können.<br />

In der nächsten Allgemeinheitsstufen über diesen Theorien finden<br />

wir dann z. B. Theorien der Chemie oder Physik über allgemeine Zusammenhänge<br />

zwischen Stoffen oder über Phänomene aus der Elektrodynamik,<br />

Thermodynamik, Mechanik und dem atomaren Bereich. Diese


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 94<br />

sind für die meisten Menschen wohl nur noch als gesellschaftliches Wissen<br />

verfügbar, übernehmen aber in unserer Wissensvernetzung trotzdem<br />

wesentliche Aufgaben. Dazu kommen allgemeine Annahmen, die auf<br />

verschiedenen Ebenen in verschiedenen Interpretationen anzutreffen<br />

sind. Etwa die, daß bestimmte Ereignisse Ursachen einer bestimmten Art<br />

besitzen, daß gewisse Kontinuitäten in allen natürlichen Prozessen zu<br />

finden sind und sich Dinge nur mit bestimmten Geschwindigkeiten kontinuierlich<br />

ändern. Das mag als kleiner Potpourri genügen, der ein wenig<br />

der Vielfalt unsere Überzeugungssysteme und ihrer Hierarchie von Allgemeinheit<br />

aufzeigt.<br />

Einem weitverbreiteten Irrtum möchte ich in diesem Zusammenhang<br />

gleich vorbeugen. Zumindest handelt es sich um eine Frage, die ich<br />

nicht vorentschieden wissen möchte, weil sie gerade zwischen fundamentalistischen<br />

Ansichten von Rechtfertigung und Kohärenztheorien<br />

strittig ist. Sie wird oft genug als unbemerkte Voraussetzung eingeschmuggelt,<br />

wenn man sich anschickt, dem Skeptiker Paroli zu bieten.<br />

Bei Watkins (1984, 79) finden wir zunächst fünf Ebenen von Aussagen,<br />

die ich etwas verkürzt wiedergebe: 34<br />

level-0: perceptual reports of a first person, here-and-now type.<br />

level-1: singular statements about observable things or events.<br />

level-2: empirical generalisations about regularities displayed by<br />

observable things and events.<br />

level-3: exact experimental laws concerning measurable physical<br />

magnitudes.<br />

level-4: scientific theories that are not only universal and exact but<br />

postulate unobservable entities.<br />

Gegen eine entsprechende Einteilung unserer Überzeugungen habe ich<br />

nichts, nur gegen eine Beschreibung dessen, was ein Erkenntnistheoretiker<br />

zu leisten hat, anhand dieser Beschreibung. Nach Watkins muß er<br />

dem Skeptiker entgegentreten, der uns fragt: Wie kann denn eine Aussage<br />

eines höheren Typs durch Aussagen niedrigerer Typen begründet werden?<br />

Der Skeptiker macht dann meist eine Unterbestimmtheit der höheren<br />

Ebenen durch die niedrigeren Typen geltend und fragt weiter, wie<br />

wir denn die induktiven Verfahren begründen wollen, mit denen wir<br />

aufzusteigen gedenken. Wenn wir uns nun brav ans Werk machen und<br />

etwa entscheidungstheoretische Überlegungen zur Begründung eines Induktionsprinzips<br />

entwickeln, so haben wir schon eine Voraussetzung geschluckt,<br />

die ich mit einer Einteilung dieser Art noch nicht verbinden<br />

34 Für Beispiele zu den Ebenen muß ich auf Watkins (op. cit.) verweisen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 95<br />

möchte: Rechtfertigungen laufen nur von unteren Ebenen zu höheren<br />

und nicht umgekehrt. Dadurch würden die unteren Ebenen in irgendeiner<br />

Form als erkenntnistheoretisch primär gegenüber den unteren Ebenen<br />

ausgezeichnet. Meist denkt man daran, daß sie auch sicherer sind<br />

und der Skeptiker räumt uns – wenn er versöhnlich gestimmt ist – zumindest<br />

für die Ebene 0 oder sogar 1 ein, daß sie unproblematisch sei.<br />

Diese Voraussetzung möchte ich nicht unterschreiben, und ich werde<br />

später (s. III.B) sogar explizit gegen sie argumentieren.<br />

b) Metaüberzeugungen<br />

Zusätzlich zu unseren Überzeugungen über die Welt haben wir auch<br />

viele Überzeugungen über unsere Überzeugungen, also Metaüberzeugungen.<br />

Dazu gehören zunächst schlicht Überzeugungen darüber, welche<br />

Überzeugungen wir haben. Auf diese etwas paradox anmutenden Metaüberzeugungen<br />

und die speziellen Probleme ihrer Begründung gehe ich in<br />

Abschnitt (IV.B.4) ein. Weiterhin haben wir verschiedene Arten von Einteilungen<br />

und Bewertungen unserer eigenen Überzeugungen, die selbst<br />

wieder als Metaüberzeugungen einer bestimmten Art zu beschreiben<br />

sind. Darunter fallen z. B. Bewertungen, welches Wissen für uns wichtig<br />

ist, welches wir geheimhalten sollen, welche unserer Überzeugungen<br />

vielleicht unmoralisch sind, aber auch Einschätzungen – und die sind für<br />

die Erkenntnistheorie besonders interessant – epistemischer Art darüber,<br />

in welchen unserer Meinungen und in welchem Ausmaß wir in diesen<br />

Meinungen gerechtfertigt sind, wie sie entstanden sind, wie Begründungen<br />

für sie überhaupt auszusehen haben etc. Auch Theorien darüber,<br />

was eine gute Rechtfertigung oder Erklärung ist, wird man hier ansiedeln.<br />

D.h. übrigens auch, daß ein großer Teil der Philosophie in den Bereich<br />

dieser Metaüberzeugungen einzuordnen ist. Darunter fallen ebenso<br />

unsere Ansichten über induktive Zusammenhänge wie die Kenntnis<br />

der Paradoxien, die sie bedrohen (Hempel, Goodman); ebenso unsere<br />

Meinungen zu wissenschaftsphilosophischen Themen wie die, daß unsere<br />

Theorien fallibel sind, wie auch unsere Ansichten zur Wissenschaftsgeschichte,<br />

die vielleicht in einem kumulativen Fortschrittsbild oder eher<br />

in Kuhnschen wissenschaftlichen Revolutionen zu sehen sind.<br />

c) Rechtfertigungshierarchien<br />

Das für uns spannendste Thema im Rahmen der Metaüberzeugungen<br />

sind natürlich die epistemischen Überzeugungen und vermutete und tatsächliche<br />

Rechtfertigungsverhältnisse in unserem Wissenskorpus. Gibt es


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 96<br />

so etwas wie basale Überzeugungen, für die wir keine Rechtfertigungen<br />

annehmen und auch keine benötigen, wie das die Fundamentalisten behaupten;<br />

oder finden wir zumindest asymmetrische Verhältnisse, wonach<br />

bestimmtes Wissen zur Rechtfertigung anderer Teile unseres Wissens<br />

benutzt wird und nicht umgekehrt? Am besten zugänglich ist hier<br />

wiederum der große Bereich des gesellschaftlich verfügbaren Wissens innerhalb<br />

der Wissenschaften, da dieses Wissen größtenteils explizit niedergelegt<br />

und damit für eine Analyse relativ gut zugänglich ist. In dem<br />

weiten Gebiet der Wissenschaften von historischen Kenntnissen bis hin<br />

zu Erkenntnissen über unsichtbar kleine Teilchen findet sich zudem eine<br />

Anzahl verschiedener epistemisch interessanter Phänomene, die in spezielleren<br />

wissenschaftsphilosophischen Arbeiten besprochen werden, auf<br />

die ich mich zu gegebener Zeit beziehen werde.<br />

Einige informelle Aspekte möchte ich jedoch noch kurz erwähnen.<br />

Da sind zum einen gewisse typisch asymmetrische Zusammenhänge der<br />

Begründung und der epistemischen Priorität. Etwa eine im allgemeinen<br />

erkenntnistheoretisch grundlegende Stellung der Physik. Man spricht<br />

zwar viel über den grundlegenden Status der Physik in den Naturwissenschaften,<br />

aber es ist oft nicht klar, in welchem Sinn das geschieht. Die<br />

Frage etwa, ob sich andere Disziplinen definitorisch auf die Physik reduzieren<br />

lassen, ist mindestens sehr umstritten. Andererseits scheint es einen<br />

wahren Kern in der Redeweise von einer grundlegenden Stellung<br />

der Physik zu geben, den man genauer bestimmen kann. Am deutlichsten<br />

wird er meines Erachtens in der epistemisch herausgehobenen Stellung<br />

der Physik. Die Physik steckt geradezu den Rahmen ab, innerhalb<br />

dessen die anderen Wissenschaften sich zu bewegen haben. Wenn wir in<br />

der Biologie auf Phänomene stoßen, die gegen ein allgemeines Energieerhaltungsprinzip<br />

zu verstoßen scheinen, so werden wir zunächst davon<br />

ausgehen, daß wir den fraglichen Vorgang noch nicht richtig verstanden<br />

haben und bestimmte Energieformen bisher unseren Messungen<br />

entgangen sind. Hier wird den Gesetzen der Physik eindeutig Priorität<br />

gegenüber denen der Biologie eingeräumt. Solche Vorrangregeln sind sicher<br />

nicht dogmatisch und starr zu befolgen, aber sie haben doch großes<br />

Gewicht für unsere epistemischen Einschätzungen von wissenschaftlichen<br />

Hypothesen.<br />

Ähnlich sieht der Vergleich mit anderen Disziplinen aus. Die Gesetze<br />

der Physik werden in den Geschichtswissenschaften herangezogen – etwa<br />

um das Alter bestimmter Objekte zu bestimmen – um bestimmte historische<br />

Hypothesen zu begründen, aber umgekehrt werden historische


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 97<br />

Theorien kaum zur Untermauerung physikalischer Gesetze eingesetzt. 35<br />

Man erinnere sich nur daran, wie rasch der Streit der Historiker um die<br />

Echtheit der „Hitler-Tagebücher“ des Stern beendet wurde, als eine physikalisch<br />

chemische Analyse zu dem Ergebnis kam, das Papier wäre nicht<br />

alt genug für echte Tagebücher. Den Ergebnissen der physikalischen Untersuchungen<br />

vertraute man hier schneller und hielt sie für zuverlässiger,<br />

als die historischer oder sprachlicher Analysen. Dabei stoßen wir auch<br />

auf epistemische Voraussetzungsverhältnisse, wonach bestimmte Theorien<br />

sich auf die Richtigkeit anderer Theorien stützen müssen. Das gilt<br />

auch innerhalb der Einzeldisziplinen dort, wo man die Frage nach einer<br />

epistemischen Schichtung oder Hierarchie versus holistischen Zusammenhängen<br />

aufwerfen kann. 36 Des weiteren stoßen wir in den Wissenschaften<br />

auf epistemische Einschätzungen und Kategorisierungen, die allerdings<br />

nicht immer explizit vorgenommen werden. Penrose (1989,<br />

152) gibt dazu eine explizite grobe Kategorisierung von Theorien in „superb“,<br />

„useful“ und „tentativ“ an, wobei wir den physikalischen Theorien<br />

der ersteren Kategorien weit mehr vertrauen und etwa auch davon<br />

ausgehen, daß wir sie nicht so bald aufgeben werden, als denen, die wir<br />

nur für vorübergehend nützlich halten, die Penrose unter „tentative“<br />

einordnet. 37<br />

6. Resümee<br />

Im Rahmen eines methodologischen Naturalismus ist ein ausgefülltes<br />

Bild der Struktur unserer Erkenntnis der natürliche Ausgangspunkt zur<br />

Entwicklung einer Theorie der epistemischen Rechtfertigung. Einige<br />

wichtige Elemente dieses Bildes wurden dazu vorgestellt. So sind Recht-<br />

35 Auf einen möglichen Ausnahmefall hat mich Ulrich Gähde aufmerksam<br />

gemacht. Um 1844 benannte der Earl von Rosse ein Gebiet entsprechender<br />

Form im Sternbild Stier „Krabben-Nebel“ oder Krebsnebel, in dem nach historischen<br />

Aufzeichnungen um 1054 ein neuer Stern aufgetaucht war. Aus der Ausdehnungsgeschwindigkeit<br />

dieser Nebelwolke konnte er auf den Zeitpunkt einer<br />

Supernovaexplosion zurückrechnen, der gut mit den historischen Daten übereinstimmte.<br />

In einem solchen Beispiel, wird man die historisch überlieferten Daten<br />

den astronomischen Berechnungen als epistemisch überlegen betrachten, denn<br />

die astronomischen Berechnungen geben uns keine sehr eindeutigen Anhaltspunkte<br />

für das Auftreten zurückliegender Supernovaexplosionen und ihrer genauen<br />

Zeitpunkte.<br />

36 Für die Frage nach einer epistemischen Hierarchie im Rahmen der Relativitätstheorie<br />

s. Bartelborth 1993a.<br />

37 Dazu zählt er übrigens auch seine eigenen Twistortheorien.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 98<br />

fertigungen immer zu relativieren auf ein epistemisches Subjekt oder ein<br />

Überzeugungssystem, das sich im wesentlichen als Aussagenmenge charakterisieren<br />

läßt, und haben die Form von inferentiellen Zusammenhängen.<br />

Um zu einem einigermaßen realistischen Bild auch individueller<br />

epistemischer Rechtfertigungen zu gelangen, sind dabei ebenso implizite<br />

Meinungen und Begründungen zu berücksichtigen, wie auch das Phänomen<br />

gesellschaftlichen Wissenserwerbs, das ich „epistemische Arbeitsteilung“<br />

genannt habe. Außerdem lassen sich verschiedene eventuell sogar<br />

epistemisch bedeutsame Hierarchien in unseren Überzeugungssystemen<br />

identifizieren. Zum einen kommen unsere Überzeugungen in unterschiedlichen<br />

Abstufungen von Allgemeinheit daher, von Beobachtungsüberzeugungen<br />

bis zu allgemeinsten Theorien, aber darüber finden wir<br />

Metaüberzeugungen, und andere epistemische Bewertungen der unterschiedlichen<br />

Bereiche empirischer Erkenntnis, die in jeder umfassenden<br />

kohärentistischen Analyse unserer Überzeugungen eine Rolle für die Bewertung<br />

eingehender Informationen zu übernehmen haben.<br />

III <strong>Begründungsstrategien</strong><br />

Ehe ich mich einem konkreten Verfahren zur Rechtfertigung von Überzeugungen<br />

und seinen Details zuwenden kann, müssen in diesem Kapitel<br />

einige generelle Weichenstellungen vorgenommen werden. Epistemische<br />

Rechtfertigungen können in recht unterschiedlichen Richtungen gesucht<br />

werden, die jeweils allgemeine, aber bindende Vorgaben abgeben, wie<br />

eine Rechtfertigung auszusehen hat. Diese Richtungen möchte ich kurz<br />

als unterschiedliche Rechtfertigungsstrategien bezeichnen. Einige werde<br />

ich in diesem Kapitel vorstellen und auf ihre Brauchbarkeit für die Entwicklung<br />

einer angemessenen Rechtfertigungstheorie prüfen. Dabei sollen<br />

zwei Rechtfertigungsstrategien – und zwar die externalistische und<br />

die fundamentalistische – zurückgewiesen werden. Beide Strategien versuchen<br />

ein vollkommen anderes Bild von der Struktur unserer Begründungen<br />

zu zeichnen, als ich es vertreten werde. Mit ihrer Widerlegung<br />

wird daher der Weg erkennbar, auf dem schließlich die gesuchte Theorie<br />

der epistemischen Rechtfertigung zu entwickeln ist. Das muß eine internalistische<br />

Kohärenztheorie einer bestimmten Form sein, die ich aber erst<br />

im nächsten Kapitel vorstelle. Da die plausibelsten und heutzutage gebräuchlichsten<br />

fundamentalistischen Positionen externalistische Varian-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 99<br />

ten des Fundamentalismus sind, wende ich mich als erstes generell gegen<br />

den Externalismus, was die Diskussion der dann noch verbliebenen fundamentalistischen<br />

Rechtfertigungskonzeptionen erheblich erleichtern<br />

wird.<br />

A. Externalistische Strategien<br />

Eine wesentliche Unterscheidung, nach der Erkenntnistheorien eingeteilt<br />

werden, ist die von externalistischen und internalistischen Elementen in<br />

Rechtfertigungen. Diese Einteilung wird allerdings nicht einheitlich vorgenommen,<br />

weshalb es auch nicht zweckmäßig erscheint, eine ganz präzise<br />

Formulierung für die Unterscheidung anzubieten. Die würde einigen<br />

Ansätzen nicht gerecht werden. Statt dessen möchte ich nur die Ideen<br />

dieser Unterscheidung nennen. 38<br />

Interne Elemente von Rechtfertigungen für ein epistemisches Subjekt<br />

S sind solche Elemente, die für S selbst kognitiv zugänglich<br />

sind.<br />

Dabei ist „kognitiv zugänglich“ in dem Sinn zu verstehen, daß es sich um<br />

semantische Informationen handelt, zu denen das Subjekt bewußten, dispositionellen<br />

oder einfachen inferentiellen Zugang hat. Darunter sind<br />

wiederum die impliziten Überzeugungen, die wir uns im Prinzip ins Bewußtsein<br />

rufen können, mitgemeint. 39<br />

Externe Elemente einer Rechtfertigung für S sind solche, die für S<br />

nicht intern sind.<br />

Externalistische Positionen in der Rechtfertigungsdebatte, d.h. Rechtfertigungstheorien,<br />

für die Rechtfertigungen wesentlich externe Elemente<br />

enthalten, beziehen sich auf Bedingungen, die für das Subjekt der Überzeugung<br />

in dem Sinn extern sind, daß sie nicht zu seiner Beschreibung<br />

38 Speziellere Charakterisierungen dieser Positionen finden sich z. B. bei<br />

Moser (1990, 69ff).<br />

39 Auf eine Position, die sich als eine Ausnahme zu dieser Regel versteht,<br />

den Fundamentalismus Mosers, für den die basalen Überzeugungen durch interne<br />

Zustände gerechtfertigt werden, die keine semantische Information haben,<br />

werde ich in (III.B.5.b) gesondert eingehen. Auch Moser fällt allerdings unter die<br />

allgemein gehaltene Bestimmung von internalistischen Elementen, wenn man<br />

„kognitiv zugänglich" nicht ganz so anspruchsvoll versteht, wie das in der gegebenen<br />

Erläuterung der Fall ist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 100<br />

oder Kenntnis der in Frage stehenden Situation gehören. Die Überzeugungen<br />

müssen nur in einer besonderen Beziehung zu den Tatsachen stehen,<br />

von denen die Überzeugungen handeln. Dabei ist an natürliche objektive<br />

Beziehungen gedacht, wie dem Zusammenhang zwischen einem<br />

beobachtbaren Ereignis und einer ihm entsprechenden Beobachtungsüberzeugung,<br />

die über geeignete Sinneswahrnehmungen miteinander verbunden<br />

sind. Eine solche Beziehung muß nur tatsächlich bestehen, aber<br />

das epistemische Subjekt muß noch nicht einmal die geringste Ahnung<br />

vom Bestehen dieses Zusammenhangs haben, um in seiner Meinung gerechtfertigt<br />

zu sein. Derartige externe Bedingungen oder Tatsachen stellen<br />

meist auf den kausalen oder naturgesetzlichen Zusammenhang zwischen<br />

den in Frage stehenden Tatsachen und der sie ausdrückenden<br />

Überzeugung ab. Spätere Beispiele werden noch weitergehend erläutern,<br />

an welche Zusammenhänge und Tatsachen ein Externalist dabei denken<br />

mag. An der Frage, ob solche externen Elemente erkenntnistheoretisch<br />

bedeutsam sind, scheiden sich die Geister. Einige Erkenntnistheoretiker<br />

fordern, Rechtfertigungen müßten vollständig intern sein (z. B. BonJour,<br />

Moser, Pollock), andere begnügen sich mit überwiegend externen Rechtfertigungen<br />

(z. B. Armstrong, Dretske, Goldman, McGinn, Nozick) und<br />

eine dritte Gruppe vereinigt beide Elemente in ihren Theorien (z. B.<br />

Lehrer, Alston, Swain) in bestimmten Mischformen.<br />

1. Externalistische Wissenskonzeptionen<br />

a) Eine neue Wissensbedingung<br />

Ein zentrales Motiv für die gegenwärtige Popularität externer Bedingungen<br />

in der Erkenntnistheorie ist das bereits vorgestellte Gettier Problem<br />

für die Platonische Wissensdefinition. Eine Abwandlung des in (I.A) erwähnten<br />

Beispiels im Stile Gettiers soll dieses Motiv begreiflich machen.<br />

Besagter Student Fritz fährt wieder einen BMW, und ich habe außerdem<br />

allen Grund anzunehmen, daß Fritz dieser BMW gehört. Dann habe ich<br />

auch Grund zu schließen auf:<br />

(*) Einer meiner Studenten besitzt einen BMW.<br />

In dem derzeitigen Beispiel sei der Vater von Fritz jedoch nicht ganz so<br />

großzügig wie im ersten Fall, und Fritz gehöre der BMW diesmal<br />

nicht. 40 Meine Meinung, daß einer meiner Studenten einen BMW be-<br />

40 Auf juristische Unterscheidungen zwischen Besitz und Eigentum möchte<br />

ich hier verzichten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 101<br />

sitzt, sei aber trotzdem richtig, da der Student Franz, der nur zu bescheiden<br />

ist, um damit zur Uni zu fahren und über den ich nichts weiter<br />

weiß, „heimlich“ einen BMW sein eigen nennt. Damit erfüllt auch die<br />

Meinung (*) die Platonische Wissensbedingung, die wir jedoch abermals<br />

nicht als Wissen einstufen würden, denn daß diese Meinung wahr ist,<br />

verdanke ich nur einem glücklichen Zufall. Harman (1973, 47) schlägt<br />

angesichts derartiger Beispiele als weitere Wissensbedingung vor, die betreffende<br />

Meinung solle nicht wesentlich auf einer falschen Annahme<br />

beruhen:<br />

No False Conclusions<br />

Reasoning that essentially involves false conclusions, intermediate or<br />

final, cannot give one knowledge.<br />

In meinem Beispiel wird deutlich, daß die betreffende Meinung (*) sich<br />

auf die falsche Annahme gründet, daß Fritz einen BMW besitzt. Die<br />

Harmansche Bedingung kann in diesem Beispiel also eine natürliche Erklärung<br />

anbieten, warum es sich bei (*) nicht um Wissen handelt. So<br />

weit so gut. Leider sind nicht alle Gettier Beispiele von dieser Art. Schon<br />

in dem in Kapitel (I.A) angegebenen Fall ist es nicht so klar, auf welche<br />

falsche Annahme meine Überzeugung, daß ein bestimmter Student einen<br />

BMW besitzt, tatsächlich wesentlich angewiesen ist. Hängt sie etwa wesentlich<br />

davon ab, daß der Student selber weiß, daß er einen BMW hat<br />

und daß er mich nicht täuschen will? Die Schilderung des Beispiels erzwingt<br />

diesen Zusammenhang keineswegs.<br />

Noch schwieriger wird es für Harman in anderen Fällen, wo es sehr<br />

künstlich erscheint, überhaupt noch von Räsonment oder Inferenzen zu<br />

reden, in deren Verlauf man sich auf falsche Annahmen stützt. Denken<br />

wir uns den Fall, in dem jemand – nennen wir ihn Hans – auf ein Bild<br />

der Person X hinter einem Fenster schaut, aber denkt, er sieht X durch<br />

das Fenster. Ein Spaßvogel hat ein Bild von X hinter dem Fenster angebracht,<br />

um Hans an der Nase herumzuführen. Hans schaut nun in das<br />

Fenster und glaubt X stünde vor ihm. Tatsächlich steht X zufällig in diesem<br />

Moment wirklich hinter seinem Bild hinter dem Fenster, nur daß<br />

Hans ihn nicht sehen kann. Man kann nun kaum behaupten, Hans<br />

wüßte, daß X vor seinem Fenster steht, denn dieses Zusammentreffen ist<br />

höchst zufällig. Trotzdem erfüllt auch diese Meinung von Hans die Platonischen<br />

Wissensbedingungen, denn das Vorsichsehen einer Person,<br />

muß man wohl als guten Grund für die Meinung, daß diese Person tatsächlich<br />

vor uns steht, betrachten. Da die Meinung sehr unwillkürlich in<br />

Hans durch seine Wahrnehmung hervorgerufen wurde, erscheint es ge-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 102<br />

zwungen, diesen Wahrnehmungsvorgang als eine Form von Ableitung zu<br />

rekonstruieren, in der falsche Annahmen auftreten. Das muß Harman jedoch<br />

tun, will er derartige Beispiele innerhalb seiner Wissensanalyse abweisen.<br />

Weit natürlicher ist da schon die Antwort der sogenannten Reliabilisten<br />

(vom englischen „reliable“), die mit einigem Vorsprung die Hauptgruppe<br />

der Externalisten stellen. Das Problem, das ihrer Ansicht nach<br />

alle genannten Gettier Beispiele kennzeichnet, ist, daß der (kausale) Prozeß,<br />

der zu der betreffenden Überzeugung geführt hat, kein zuverlässiger<br />

Vorgang war, um wahre Meinungen zu produzieren. Hätte Franz nicht<br />

heimlich einen BMW besessen oder hätte X nicht zufällig vor dem Fenster<br />

gestanden, wären trotzdem die betreffenden Überzeugungen entstanden,<br />

dann aber falsch gewesen. Ihre Wahrheit war somit nur ein besonderer<br />

Zufall der ganz speziellen Umstände des Beispiels. Normalerweise<br />

würden wir dagegen in entsprechenden Situationen zu falschen<br />

Meinungen gelangen. Der ganze Vorgang der Überzeugungsbildung hat<br />

also nur glücklicherweise zu einer wahren Meinung geführt und ist damit<br />

keineswegs ein „zuverlässiger Prozeß“ der Überzeugungsbildung.<br />

Das macht ihn ungeeignet, Wissen zu begründen. Die Reliabilisten fordern<br />

als Konsequenz dieser Analyse die neue Wissensbedingung, daß der<br />

Prozeß der Überzeugungsbildung zuverlässig sein muß. Das macht in ihren<br />

Augen oft sogar die Forderung nach einer Begründung der Meinung<br />

im herkömmlichen Sinn in der Wissensdefinition überflüssig. Diese<br />

Überlegungen waren in verschiedenen Varianten der Ursprung externalistischer<br />

Theorien des Wissens. 41<br />

b) Was heißt „zuverlässige Überzeugungsbildung“?<br />

Ehe ich die Positionen der Reliabilisten weiter diskutieren kann, muß ich<br />

mich kurz der durchaus nicht einfachen Frage zuwenden, wie sich die<br />

zentralen Begriffe reliabilistischer Positionen explizieren lassen. Die Antworten<br />

darauf sind denn auch unterschiedlich, weisen aber zumindest in<br />

eine gemeinsame Richtung. Stellvertretend und illustrierend für viele<br />

Philosophen, die externalistische Positionen verteidigen, sollen hier die<br />

typischen Konzeptionen von zwei prominenten Vertretern, D.M. Armstrong<br />

und A.I. Goldman, zur Sprache kommen. Armstrong hat als Analogie<br />

für seine externalistische Konzeption von Rechtfertigung das Thermometer<br />

als Anzeiger bestimmter Informationen gewählt. Damit die An-<br />

41 Z. B. von Goldman (1967), Armstrong (1973), Nozick (1981), McGinn<br />

(1984) und anderen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 103<br />

gaben des Thermometers zuverlässig sind, muß es einen gesetzesartigen<br />

Zusammenhang zwischen Temperatur und der Anzeige des Thermometers<br />

geben. Ähnlich muß man sich nach Armstrong auch den Zusammenhang<br />

im Fall unserer Überzeugungen vorstellen:<br />

Er verlangt einen gesetzesartigen Zusammenhang zwischen der Meinung<br />

von S, daß p, und dem Sachverhalt, daß p, der so beschaffen<br />

ist, daß die Meinung nur auftritt, wenn der Sachverhalt auch tatsächlich<br />

vorliegt (Armstrong 1973, 166).<br />

Dagegen stellt Goldman (1979, 10; 1986, 103ff) relativ direkt auf die<br />

Zuverlässigkeit des kognitiven Prozesses ab, der zu der Überzeugung geführt<br />

hat. Für ihn ist das eine Frage der Wahrheitsquote mit der der Prozeß<br />

zu wahren Meinungen führt. 42 Das scheint mir auch der Kerngedanke<br />

des Reliabilismus zu sein, auf den letztlich alle anderen Spielarten in<br />

irgendeiner Weise zurückgreifen sollten. Weshalb das so ist, kann ich<br />

hier nur andeuten. Denken wir etwa an kausale oder gesetzesartige Varianten<br />

wie die von Armstrong, so haben die alle mit einem Problem zu<br />

kämpfen: Die Redeweise von Naturgesetzen oder Kausalität wird kaum<br />

verständlicher oder leichter explizierbar sein als die von Wahrheitsquoten.<br />

Für die Frage nach der Gesetzesartigkeit zeigen das die Diskussionen<br />

um Goodmans „grue“-Paradox, für die Kausalität werde ich das<br />

selbst in Kapitel (VIII.D.2) ausführen. Beide Varianten stellen bestenfalls<br />

Spezialfälle des Wahrheitsquoten-Ansatzes dar, die sich zudem nur<br />

schwer auf Fälle mathematischen Wissens oder Wissens um allgemeine<br />

Zusammenhänge ausdehnen lassen. Deshalb werde ich mich direkt den<br />

Erfolgsaussichten der Wahrheitsquotenkonzeption zuwenden.<br />

Sie hat zunächst zwei Dinge genauer anzugeben, nämlich wie man<br />

den Prozeß zu beschreiben hat, der zuverlässig sein sollte, und für welche<br />

Situationen wir diese Zuverlässigkeit von ihm erwarten können. Zunächst<br />

zur Beschreibung, unter der ein Prozeß betrachtet wird, bzw. der<br />

Auswahl eines Prozeßtyps. Es geht natürlich nicht nur darum, ob das<br />

konkrete Ereignis der Meinungsbildung ein wahres oder falsches Resultat<br />

ergeben hat, sondern, ob es zu einem Typ von Vorgang gehört, der<br />

im allgemeinen vertrauenswürdig ist. Hier liegt eine Gefahr der Trivialisierung<br />

des ganzen Ansatzes. Hat eine Meinungsbildung zu einer falschen<br />

Meinung geführt, waren dafür ganz bestimmte Faktoren verant-<br />

42 Eine ausführliche und kritische Diskussion der verschiedenen Ausgestaltungen<br />

des Reliabilismus durch Goldman gibt Haack (1993,139ff).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 104<br />

wortlich, 43 von denen wir sagen könnten, daß sie einen unzuverlässigen<br />

Prozeßtyp charakterisieren. Jedenfalls sind wohl alle Meinungsbildungen,<br />

an denen sie in entsprechender Weise beteiligt sind, unzuverlässig.<br />

Als zuverlässig würden dann nur noch Prozesse gelten, in denen keine<br />

derartigen Faktoren mehr zu finden sind. Doch das heißt schlicht, daß<br />

nur noch solche Prozesse als zuverlässig gelten dürfen, die tatsächlich zu<br />

wahren Meinungen führen. Das erscheint überzogen und liefe auch der<br />

Idee des Reliabilismus zuwider. Reliabilisten verlangen nicht nach wahrheitsgarantierenden<br />

Prozessen – welche sollten das auch sein? –, sondern<br />

nur nach im allgemeinen tatsächlich zuverlässigen.<br />

Pollock (1986, 114ff) verdeutlicht das Problem von der Seite realistischer<br />

Bedingungen her: Kein Prozeß von Überzeugungsbildung ist per se<br />

und unter allen Umständen zuverlässig. Prozesse, die wir normalerweise<br />

für zuverlässig halten, wie solche, die auf Sinneswahrnehmungen visueller<br />

Art beruhen, sind es nur unter bestimmten Lichtverhältnissen wenn<br />

wir keine Drogen konsumiert haben und die skeptischen Hypothesen<br />

falsch sind. D.h., wir werden dabei nicht von einem Cartesischen Dämon<br />

hinters Licht geführt und unser visueller Kortex wird nicht von einem<br />

Computer in der Hand eines bösen Wissenschaftlers stimuliert, sondern<br />

auf die „normale“ Weise. Der Reliabilist steht vor der Aufgabe, den<br />

Situationstypus so spezifisch zu beschreiben, daß klar wird, wieso ein<br />

entsprechender Vorgang der Sinneswahrnehmung zuverlässig ist, aber<br />

nicht so spezifisch, daß nur noch die eine in Frage stehende Sinneswahrnehmung<br />

darunter fällt. Außerdem wird jeder realistische Prozeßtyp,<br />

den wir nennen können, immer auch Fälle beinhalten, in denen er zu<br />

falschen Meinungen führen kann. Hier drohen natürlich gleich wieder<br />

Gettier Beispiele.<br />

Als weiteres Erschwernis kommt hinzu, daß auch das Umgekehrte<br />

gilt: Prozesse, die wir normalerweise als lächerlich betrachten, können<br />

in bestimmten Situationen durchaus sinnvoll sein. Wittgensteins Beispiel,<br />

daß man sich nicht zum zweitenmal dieselbe Zeitung kauft, um das zu<br />

überprüfen, was in der ersten steht, erscheint uns normalerweise als<br />

selbstverständlich. Aber es gibt Umstände, unter denen das ein recht zuverlässiges<br />

Prüfverfahren ist. Ein in manchen Krimis beliebter Trick ist<br />

es, in einzelne Ausgaben einer Zeitung getürkte Artikel einzufügen, etwa<br />

um einem Agenten vorübergehend eine glaubwürdige Fassade zu verpassen.<br />

Das würde aber sofort auffallen, wenn man sich am nächsten Zeitungsstand<br />

eine anderes Exemplar derselben Zeitung kaufen würde, um<br />

43 Dem sollten jedenfalls die Reliabilisten zustimmen, die sich den Prozeß<br />

als einen determinierten Kausalvorgang denken.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 105<br />

damit die Meldung zu überprüfen. Selbst für dieses scheinbar absurde<br />

Verfahren gibt es also durchaus geeignete Anwendungsbedingungen. In<br />

diesem Beispiel wird die starke Situationsabhängigkeit dieser Verfahren<br />

deutlich. Wieviel davon soll in die Auszeichnung eines Prozeßtyps eingehen?<br />

Um der trivialen und uninformativen Charakterisierung von zuverlässigen<br />

Prozessen als denen, die immer nur zu wahren Meinungen führen<br />

oder solchen, die alle Eigenschaften eines einzelnen konkreten Prozesses<br />

aufweisen, zu entkommen, sind wir gezwungen, von epistemisch<br />

ähnlichen Prozessen zu sprechen. Wie bestimme ich aber, was als epistemisch<br />

ähnlich zu gelten hat? Ist in unserem Gettier Beispiel das durch<br />

ein Fenster schauen ein unzuverlässiges Verfahren oder das durch ein<br />

Fenster schauen mit einem Bild davor oder das durch das Fenster schauen<br />

mit einem Bild einer bestimmten Person davor...? Es ist schwer, einen<br />

Typ von Überzeugungsbildung in nicht willkürlicher Weise so zu charakterisieren,<br />

daß „unzuverlässiger Prozeß“ nicht einfach bedeuten soll, die<br />

entstandene Überzeugung sei falsch und zuverlässige Prozesse gerade die<br />

wahrheitsgarantierenden sind.<br />

Dazu ist zu bedenken, wie stark die Umstände variieren dürfen, unter<br />

denen unser Prozeß eine hohe Wahrheitsquote haben soll. Dürfen<br />

wir dabei nur an unsere tatsächliche Welt denken? Das scheint eine zu<br />

strenge Anforderung zu sein – jedenfalls wenn wir auch nach einer<br />

Theorie der Rechtfertigung suchen, was für Goldman der Fall ist. So gesteht<br />

er zum Beispiel zu, daß wir auch in den Fällen, in denen wir nur<br />

Gehirne im Topf eines geschickten Neurochirurgen sind, der unsere<br />

Welt durch einen Computer simulieren läßt, in unseren Meinungen intuitiv<br />

gerechtfertigt sind. Und das, obwohl sie in diesem unangenehmen<br />

Fall kaum Zuverlässigkeit im Sinne hoher Wahrheitsquoten beanspruchen<br />

dürfen. Wären wir also in der bedauerlichen Lage der Gehirne im<br />

Topf, würde Goldmans Theorie – zumindest für Rechtfertigungen – zu<br />

antiintuitiven Ergebnissen führen. Goldman (1986, 106f) fordert daher,<br />

daß der Prozeß in „normalen Welten“ zuverlässig sei. D.h. in Welten<br />

(oder in Situationen), in denen unsere allgemeinen Überzeugungen über<br />

die üblichen Gegenstände und Ereignisse in unserer Welt wahr sind. Damit<br />

nähert er sich allerdings bereits wieder internalistischen Positionen,<br />

denn die Wahrheitsquote eines Prozesses wird nicht nach rein objektiven<br />

Merkmalen beurteilt, sondern wesentlich anhand unserer internen und<br />

damit subjektiven Vorstellung davon, was eine normale Welt ist. Andererseits<br />

verlangt Goldmans Ansatz auch zu wenig, doch davon später<br />

mehr.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 106<br />

Es verbleibt damit zunächst ein wichtiges, noch nicht gelöstes Desiderat<br />

reliabilistischer Ansätze, eine brauchbare Explikation für „zuverlässiges<br />

Verfahren“ anzugeben, weil ohne eine solche der ganze Ansatz<br />

unterbestimmt ist. Das könnte eine weitergehende Analyse der verschiedenen<br />

externalistischen Vorschläge noch besser demonstrieren, aber ich<br />

möchte nicht zu lange auf diesem Punkt herumreiten und nehme im folgenden<br />

zugunsten der Externalisten an, wir hätten schon eine brauchbare<br />

Explikation von „zuverlässig“. Um zu erfahren, ob sich der Aufwand,<br />

nach einer Explikation zu suchen, auch lohnen würde, frage ich zunächst:<br />

Was hätte der Externalist damit gewonnen?<br />

c) Eine Antwort auf den Skeptiker?<br />

Die Reliabilisten möchten natürlich eine Antwort auf den radikalen<br />

Skeptiker geben, der uns fragt, wie denn Wissen überhaupt möglich ist.<br />

Skeptische Hypothesen wie die Cartesischen, wonach wir alles nur träumen<br />

könnten oder ein böser Dämon uns in die Irre führt, oder auch modernere<br />

Versionen davon, scheinen die Möglichkeit von Wissen zu bedrohen.<br />

Solange wir keinen Weg finden, dergleichen alternative Erklärungen<br />

für unsere Wahrnehmungen zurückzuweisen, oder sie wenigstens<br />

als in irgendeiner Weise minderwertig gegenüber unseren gewöhnlichen<br />

Ansichten über unsere Wahrnehmungen auszuweisen, bleibt nach Ansicht<br />

des Skeptikers unklar, wie wir überhaupt zu Wissen gelangen können.<br />

Die Reliabilisten haben darauf eine recht einfache Erwiderung anzubieten.<br />

Man betrachte die folgenden zwei Möglichkeiten:<br />

1. Eine der skeptischen Hypothesen trifft auf uns zu. Dann sind unsere<br />

Vorstellungen über die Außenwelt reine Chimären, und wir haben<br />

kein Wissen über sie.<br />

2. Die üblichen realistischen Auffassungen von unserer Stellung in<br />

der Welt sind zumindest zum Teil wahr. Dann sind wenigstens einige<br />

unserer Ansichten über die Außenwelt wahr und auf zuverlässige<br />

Weise entstanden.<br />

Der zweite Fall reicht in der externalistischen Sichtweise bereits dafür<br />

aus, daß jedenfalls einige unserer Meinungen über unsere Umwelt Wissen<br />

darstellen. Allerdings wissen wir nicht, welche der beiden Möglichkeiten<br />

auf uns zutrifft, und können nicht einmal Gründe für den einen<br />

oder anderen Fall nennen. Für einen Externalisten ist das aber für Wissen<br />

auch nicht erforderlich, denn es genügt, daß geeignete Beziehungen<br />

zur Welt bestehen, unabhängig von unseren Kenntnissen darüber. Die


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 107<br />

Möglichkeit von Wissen ist damit für ihn nachgewiesen. Ob wir tatsächlich<br />

Wissen haben oder nicht, ist dann „nur noch“ eine Tatsachenfrage<br />

danach, welche der beiden Möglichkeiten vorliegt.<br />

Wir alle können wohl deutlich das Unbehagen verspüren, das bei<br />

dieser Erwiderung auf den Skeptiker zurückbleibt, so gern wir auch<br />

nach Widerlegungen des Skeptizismus greifen würden. Man gewinnt<br />

nicht den Eindruck, der Skeptizismus sei mit dieser Entgegnung wirklich<br />

aus dem Felde geschlagen. Es ist allerdings nicht ganz einfach, dieses Unbehagen<br />

zu präzisieren. Ein Versuch sieht folgendermaßen aus: Der<br />

Skeptiker könnte sagen, er habe danach, ob unsere Überzeugungen auf<br />

zuverlässige Weise entstanden sein könnten, nicht gefragt, sondern danach,<br />

welche Anzeichen wir dafür besitzen. Seine Frage ist aus der Perspektive<br />

der ersten-Person gestellt, und er erwartet eine entsprechende<br />

Antwort. Die Antwort des Externalisten ist aber aus einer dritten-Person<br />

Perspektive gegeben und beantwortet deswegen nicht die ursprüngliche<br />

Frage, sondern eher die Frage, über welche Indizien ein idealer Beobachter,<br />

der alles über den Vorgang der Überzeugungsbildung weiß – bis auf<br />

den Punkt, ob die gebildete Überzeugung wahr sei –, für die Annahme<br />

verfügen könnte, daß die Überzeugung wahr sei. Der Externalist könnte<br />

natürlich erwidern, die Ausgangsfrage sei eben in gewisser Weise falsch<br />

gestellt gewesen, wenn wir aber schlicht nach der Möglichkeit von Wissen<br />

fragen, hätte er die richtige Antwort gegeben. Doch auch dabei bleiben<br />

eine Reihe von Fragen offen. Erstens ist damit nicht wirklich geklärt,<br />

warum die Frage des klassischen Skeptikers unzulässig sein sollte.<br />

Er könnte sie erneut formulieren als die Frage, welche Anhaltspunkte<br />

wir tatsächlich für unsere Annahme besitzen, in einer Welt mit zuverlässiger<br />

Überzeugungsbildung zu leben. Das scheint weiterhin eine uns<br />

brennend interessierende erkenntnistheoretische Frage zu sein, die<br />

durchaus verständlich und berechtigt ist, selbst wenn wir uns dem Externalisten<br />

anschließen würden, daß ihre Beantwortung für „Wissen“ nicht<br />

erforderlich ist.<br />

Zweitens muß der Externalist mit seiner Wissensanalyse noch eine<br />

andere bittere Pille schlucken. Der Skeptiker kann seine ursprüngliche<br />

Frage nicht nur auf einer höheren Ebene in interessanter Weise wiederholen,<br />

sondern er kann auch auf interne Seltsamkeiten der reliabilistischen<br />

Wissenstheorie hinweisen. Wissen im Sinne des Reliabilisten ist<br />

z. B. nicht abgeschlossen unter bekannter, logischer Implikation.<br />

Prinzip der logischen Abgeschlossenheit<br />

Wenn S weiß, daß p, und weiß, daß q aus p logisch folgt, so weiß<br />

er, daß q.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 108<br />

Dieses Prinzip der logischen Abgeschlossenheit unseres Wissen wirkt<br />

sehr plausibel. Wenn selbst logische Schlüsse nicht von Wissen wieder zu<br />

Wissen führen, wird Wissen ein höchst instabiles Gut (s. dazu Williams<br />

1991, Kap.8). Akzeptiert der Reliabilist allerdings das Prinzip der logischen<br />

Abgeschlossenheit, gerät er sogleich wieder in direkten Konflikt<br />

mit den skeptischen Hypothesen. Aus meiner Überzeugung, an meinem<br />

Schreibtisch zu sitzen und auf meinen neuen „Notebook“ zu schauen,<br />

folgt deduktiv – oder vorsichtiger ausgedrückt – analytisch die Überzeugung,<br />

daß ich kein Gehirn in einem Topf bin. Diese Schlußfolgerung war<br />

auch nicht so versteckt, daß sie mir verborgen geblieben wäre. Wenn also<br />

meine zuerst genannte Beobachtungsüberzeugung auf reliabilistische<br />

Weise Wissen ist – und das nehme ich einmal an –, so dürfte ich auch<br />

schließen, alle radikalen skeptischen Hypothesen seien falsch. Mit dem<br />

Abgeschlossenheitsprinzip könnte ich dann sogar weiter schließen: Ich<br />

weiß, daß die skeptischen Hypothesen falsch sind. Das erscheint nun<br />

aber deshalb nicht überzeugend, weil ich in der beschriebenen Situation<br />

nichts Substantielles gegen die skeptischen Hypothesen vorgebracht habe.<br />

So weit, in der geschilderten Situation tatsächlich behaupten zu dürfen,<br />

zu wissen, daß die skeptischen Hypothesen falsch sind, möchten Reliabilisten<br />

im Allgemeinen auch nicht gehen. Sie versuchen diesen Punkt<br />

mit ihrer Theorie zu umgehen und nicht direkt auf den Skeptiker zu antworten.<br />

Daher lehnen einige von ihnen, wie Nozick und Dretske, das<br />

Abgeschlossenheitsprinzip explizit ab. Wie sich das rechtfertigen läßt,<br />

möchte ich nicht weiter verfolgen, zumal mein Hauptgeschäft schließlich<br />

nicht eine Theorie des Wissens, sondern eine Theorie der Rechtfertigung<br />

ist.<br />

Eine weitere seltsame Konsequenz reliabilistischer Theorien des Wissens<br />

möchte ich aber noch andeuten. Insbesondere für Beobachtungsüberzeugungen<br />

erscheinen uns kausale Zuverlässigkeitstheorien noch<br />

recht einsichtig. Sie stellen geradezu das paradigmatische Anwendungsgebiet<br />

der reliabilistischen Wissenstheorie dar, anhand derer wir diese<br />

Theorie überhaupt anfänglich akzeptieren. Gerade für Beobachtungsüberzeugungen<br />

gilt, daß sie nur dann als Wissen einzustufen sind, wenn<br />

der Beobachtungsvorgang, der sie hervorgebracht hat, zuverlässig ist.<br />

Schwieriger wird es schon, für allgemeinere Teile unseres Wissens. Wie<br />

können die in einer reliabilistischen Theorie erfaßt werden? Inwiefern<br />

kann man sinnvoll davon sprechen, unsere wissenschaftlichen Theorien<br />

seien anhand eines zuverlässigen Prozesses entstanden? Das setzt zumindest<br />

voraus, daß es einen derartigen zuverlässigen Prozeß gibt, der uns<br />

auf relativ sichere Weise zu entsprechenden Theorien hinführt. Das ist


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 109<br />

aber eine keineswegs unproblematische Voraussetzung der reliabilistischen<br />

Theorie, denn die Wissenschaftsphilosophie beteuert, die Entwicklung<br />

von empirischen Theorien sei kein Prozeß, der bestimmten Regeln<br />

wie denen einer induktiven Logik gehorcht, sondern ein Vorgang, der<br />

wesentlich auf die Kreativität und Phantasie des Wissenschaftlers angewiesen<br />

ist. Die Phantasie von Wissenschaftlern wird man aber kaum als<br />

zuverlässigen Vorgang der Überzeugungsbildung für allgemeinere Hypothesen<br />

ansehen. Dazu gibt es zu viele Fehlentwicklungen, die erst nachträglich<br />

durch empirische Tests wieder ausgeschieden werden konnten.<br />

Das angesprochene Problem wird dann noch größer, wenn das Abgeschlossenheitsprinzip<br />

abgelehnt wird. Wenn wir zunächst Beobachtungsüberzeugungen<br />

reliabilistisch als Wissen auszeichnen, stehen uns dann<br />

noch nicht einmal logische Schlüsse zur Gewinnung weiteren Wissens,<br />

etwa von wissenschaftlichen Theorien, zur Verfügung. Induktive oder<br />

andere inferentielle Schlüsse sind aber noch schlechter dran als deduktive.<br />

Wie können wir dann noch hoffen, wissenschaftliche Theorien als<br />

Wissen zu erweisen?<br />

d) Ein nicht-kognitiver Wissensbegriff?<br />

Die vorherigen Überlegungen führen uns unter anderem vor Augen, daß<br />

eine Wissensdefinition, die sich nur auf externalistische Bedingungen<br />

stützt und keine inferentielle Rechtfertigung einer Meinung mehr benötigt,<br />

nicht zu unserer üblichen Konzeption von „kognitivem Wissen“<br />

paßt. Lehrer (1990, 163) zeigt, wie sich die bekanntesten reliabilistischen<br />

Konzeptionen alle nach dem Thermometerbeispiel verstehen lassen.<br />

Wissenserwerb wird dabei in Analogie zur unbewußten Informationsverarbeitung<br />

eines zuverlässigen Meßgeräts gesehen. Hier ist natürlich<br />

wiederum (vgl. II.C.2) zwischen syntaktischer und semantischer Information<br />

in einem anspruchsvolleren Sinn zu unterscheiden. Ein Thermometer<br />

besitzt nur die erstere. Lehrer (1990, 163f) erläutert anhand<br />

eines Gedankenexperiments, daß wir kognitiv unzugängliche, kausale<br />

Prozesse, auch wenn sie beim Menschen ablaufen und zuverlässige Informationen<br />

(im syntaktischen Sinn) liefern, im üblichen Sinn nicht als Wissenserwerb<br />

betrachten.<br />

Nehmen wir an, Herrn Truetemp wird ein Temperatursensor in sein<br />

Gehirn implantiert, der bei ihm korrekte Temperaturüberzeugungen verursacht.<br />

Truetemp denkt z. B.: „Es sind jetzt 23,4 C.“ Er weiß jedoch<br />

nichts über diesen Sensor und macht sich auch keine weiteren Gedanken<br />

über seine Temperaturüberzeugungen und weiß noch nicht einmal, daß<br />

sie immer wahr sind. Seine völlige Ignoranz gegenüber dem Zustande-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 110<br />

kommen seiner Temperaturüberzeugungen hindert uns daran zu sagen,<br />

er wüßte, daß es gerade 23,4 C sind. Diese Überzeugung hat für ihn zunächst<br />

denselben Status wie jede andere zufällige, spontan auftretende<br />

Meinung, wie etwa, daß übermorgen das Ende der Welt sein könnte, deren<br />

Herkunft sich Herr Truetemp nicht erklären kann. Selbst wenn diese<br />

Meinungen wahr sind und durch einen uns unbekannten, aber zuverlässigen<br />

Mechanismus hervorgerufen werden, bezeichnen wir sie nicht als<br />

Wissen, sondern eher als ungewisse Ahnungen. Zu unserem gebräuchlichen<br />

und anspruchsvolleren Wissensbegriff gehört es, eingehende Informationen<br />

auf ihre Zuverlässigkeit hin vor unserem Hintergrundwissen<br />

zu beurteilen, und das sogar in dem Fall (s.a. IV.B), daß es sich um Informationen<br />

unserer Sinne handelt.<br />

Um den Zusammenhang zwischen Wissen und der Bewertung eingehender<br />

Informationen anschaulich zu machen, kann eine Analogie behilflich<br />

sein: Wenn mir jemand etwas erzählt oder ich etwas in einer Zeitung<br />

lese, werde ich – und das erscheint uns für Wissen unvermeidlich<br />

zu sein – mich nur dann darauf verlassen, wenn ich Grund habe anzunehmen,<br />

es handele sich dabei um einen vertrauenswürdigen Informanten<br />

oder eine seriöse Zeitung. Wir glauben vielleicht, daß Fritz, wenn es<br />

um die Qualitäten seiner neuen Freundin, seines Lieblingsfußballers<br />

oder seinem neuen Auto geht, zu Beschönigungen und Übertreibungen<br />

neigt. Dann haben wir guten Grund anzunehmen, wir wüßten nicht<br />

wirklich, daß die drei Dinge so hervorragend sind, wie Fritz es behauptet.<br />

In diesem Fall verhilft es uns auch nicht zu Wissen, wenn Fritz tatsächlich<br />

ein völlig objektiv Urteilender für die besagten Dinge ist (also<br />

ein „zuverlässiges Meßgerät“ für die fraglichen Eigenschaften darstellt)<br />

und alle seine Behauptungen, die wir für Schwärmereien hielten, vollkommen<br />

zutreffend sind. Unsere Hintergrundannahmen über Fritz entwerten<br />

die Behauptungen von Fritz für uns, selbst wenn diese Hintergrundannahmen<br />

falsch sind.<br />

Es gibt keinen guten Grund, mit den Informationen, die wir aus unseren<br />

Sinnen erhalten, anders zu verfahren. Analog zu der Einschätzung<br />

von Behauptungen anderer sollten wir auch unsere eigenen Annahmen<br />

und Beobachtungsüberzeugungen (kritisch) vor dem Tribunal unserer<br />

Hintergrundannahmen einschätzen, wenn es uns um Wissen geht. Zunächst<br />

ist auch hier nicht entscheidend, wie zuverlässig sie unbekannterweise<br />

für uns tatsächlich sind, sondern nur für wie zuverlässig wir sie halten.<br />

Um das zu illustrieren, hat Lehrer (1988, 335) ein phantasievolles<br />

Beispiel anzubieten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 111<br />

Die Künstlerin Dorothy Levine fertigt aus Keramik täuschend echte<br />

Imitationen von Handtaschen an. Ein Herr Trust, der um diese Spezialität<br />

der Künstlerin weiß, sieht nun im Vorzimmer von Frau Levine,<br />

eine Handtasche stehen. Da es der Künstlerin ähnlich sieht,<br />

auch ihre Gäste mit Handtaschenimitaten an der Nase herumführen<br />

zu wollen, kann Herr Trust seinen Sinneswahrnehmungen nicht vertrauen<br />

und nicht wissen, daß es sich um eine echte Handtasche handelt<br />

– auch wenn es sich tatsächlich um eine echte Handtasche handelt.<br />

Die Unwissenheit des Herrn Trust hat auch in dem Fall Bestand, wenn<br />

er seinen Sinnen normalerweise traut, es auch in diesem Fall tut und sich<br />

der Meinung nicht entziehen kann, daß eine Handtasche vor ihm steht.<br />

Er hat für Wissen sein Hintergrundwissen um die Späße der Frau Levine<br />

zu berücksichtigen, die weitere Tests, etwa anfassen und hochheben der<br />

Handtasche, erfordern. Doch gerade diese erkenntnistheoretisch so entscheidende<br />

Bewertung unserer Beobachtungsüberzeugungen durch unser<br />

Hintergrundwissen kann der Reliabilist innerhalb seiner Konzeption<br />

nicht berücksichtigen, denn sie ist auf der Ebene der inferentiellen Beziehungen<br />

unserer Meinungen angesiedelt und nicht auf der der kausalen<br />

Zusammenhänge, von der der Reliabilist spricht.<br />

Externalisten können durch kognitive Zusatzbedingungen oder<br />

Mischformen von externalistischen und internalistischen Elementen versuchen<br />

derartige Beispiele abzufangen. Aber eigentlich verschleiern sie<br />

damit höchstens die grundsätzliche Bedeutung der kognitiven Einschätzung<br />

eingehender Informationen für Wissen und kommen im allgemeinen<br />

dem Internalisten dabei bereits entgegen. Einen solchen Fall, den<br />

„Indikator Reliabilisten“ Marshall Swain, werde ich in Abschnitt<br />

(III.A.2.b) noch vorstellen.<br />

Lehrer hat für diese Form der Einschätzung von eingehenden Informationen<br />

das Schlagwort geprägt: Wissen sei Metawissen. Externalistische<br />

Wissensdefinitionen beschreiben hingegen eher nicht-kognitive Informationsverarbeitung<br />

und knüpfen damit nicht an unseren gewöhnlichen<br />

Wissensbegriff an. Da sie aber im Trend naturalistischer Ansätze<br />

liegen, schließlich wird hier Wissen als eine natürliche Beziehung zwischen<br />

bestimmten Überzeugungen und Tatsachen in der Welt definiert,<br />

wirken sie attraktiv, auch wenn dafür der Wissensbegriff etwas verbogen<br />

werden muß.<br />

Einige Autoren (z. B. McGinn 1984) sprechen deshalb auch davon,<br />

sich nicht so sehr dem herkömmlichen Wissensbegriff zuwenden zu wollen,<br />

sondern vielmehr andere Formen von „Knowledge“ mit zu berück-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 112<br />

sichtigen. Das paßt mit dem deutschen Wissensbegriff nicht besonders<br />

gut zusammen und ist eher verständlich, wenn man bedenkt, daß der<br />

englische Begriff „Knowledge“ umfassender ist als der deutsche Wissensbegriff.<br />

44 Diese nicht-kognitive Tendenz externalistischer Epistemologie<br />

scheint noch problematischer zu sein, wenn wir uns meinem Hauptthema,<br />

den epistemischen Rechtfertigungen, zuwenden und fragen, ob es<br />

für sie ebenfalls reliabilistische Vorschläge gibt.<br />

Für den Wissensbegriff ist es selbstverständlich, daß es sich dabei um<br />

einen Begriff zumindest mit gewissen externalistischen Elementen handelt,<br />

denn für ihn ist die Wahrheitsbedingung konstitutiv, die eine externalistische<br />

Bedingung darstellt. Ob die rein reliabilistischen Wissenstheorien<br />

bei der Suche nach einer zusätzlichen vierten oder neuen dritten<br />

Wissensbedingung erfolgversprechend sind, möchte ich anhand der oben<br />

genannten Probleme dieser Theorien jedoch bezweifeln. Damit ist noch<br />

nicht gesagt, daß nicht andere externalistische Theorien und insbesondere<br />

Mischformen zwischen internalistischen und externalistischen Theorien<br />

hier die überzeugendsten Lösungen anzubieten haben. In Frage<br />

kommen z. B. die Vorschläge von Lehrer oder auch von Moser. Für Lehrer<br />

(1988) muß zur subjektiven Rechtfertigung für Wissen hinzukommen,<br />

daß sie auch objektiv Bestand hat; in seiner Terminologie: daß sie<br />

auch eine Rechtfertigung vor dem Hintergrund des „verific systems“<br />

oder des „ultra systems“ ist. Diese beiden Aussagensysteme entstehen<br />

aus unserem Meinungssystem, indem die falschen Überzeugungen entfernt<br />

und einige wahre dafür eingebracht werden. Für Moser (1991,<br />

242ff) führen solche Rechtfertigungen zu Wissen, die „truth resistant“<br />

sind, d.h. die auch dann noch Bestand haben, wenn man sie mit zusätzlichen<br />

wahren Aussagen konfrontiert.<br />

2. Externalistische Rechtfertigungen<br />

Den Abstecher zu den externalistischen Wissenstheorien möchte ich an<br />

dieser Stelle beenden und zusehen, was sich daraus für die Frage nach<br />

epistemischen Rechtfertigungen gewinnen läßt. Für sie ist es zunächst sicherlich<br />

noch unplausibler als für Wissen, daß es sich um einen externalistischen<br />

Begriff handeln könnte. Dazu möchte ich noch einmal darauf<br />

hinweisen, daß hier von Rechtfertigungen in einem allgemeineren Sinn<br />

die Rede ist und nicht nur von solchen, die zu Wissen führen. Die<br />

Sprachregelung ist in diesem Punkt alles andere als einheitlich. Lehrer<br />

44 Das mag man auch als einen Hinweis ansehen, wie abhängig von<br />

sprachlichen Eigenheiten sprachphilosophische Analysen sein können.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 113<br />

scheint z. B. meist dort von Rechtfertigung zu sprechen, wo sie im Falle,<br />

daß sie wahre Meinungen rechtfertigt, auch bereits Wissen impliziert,<br />

und für Rechtfertigungen per se wählt Lehrer eher den Ausdruck „personally<br />

justified“. 45 Für ihn ist es daher naheliegend, auch für „Rechtfertigungen“<br />

nach externen Zusatzbedingungen zu den von ihm genannten<br />

kohärentistischen internen Bedingungen zu fragen, denn für Wissen erwartet<br />

man, daß die Rechtfertigung nicht nur allgemein ein Indikator<br />

für Wahrheit ist, sondern daß auch die „richtige“ Rechtfertigung vorliegt,<br />

die tatsächlich mit der Wahrheit des Wissens in diesem Einzelfall<br />

zusammenhängt. Für diesen Zusammenhang werden daher eventuell externe<br />

Bedingungen zu formulieren sein, die wir für Rechtfertigungen im<br />

allgemeinen nicht plausibel fordern können, da Rechtfertigungen auch<br />

dann bereits vorliegen, wenn wir gute Gründe für eine Meinung haben.<br />

Selbst wenn diese Meinung schließlich doch falsch ist, bedeutet das noch<br />

nicht, sie sei nicht gerechtfertigt gewesen. Das Haben einer falschen<br />

Meinung macht uns eben noch nicht zu epistemisch fahrlässigen Personen.<br />

Ich kann es daher nicht oft genug betonen: Wir können die Intuition,<br />

daß „Wissen“ wesentlich durch externe Bedingungen bestimmt wird,<br />

nicht einfach in eine Theorie der Rechtfertigung übernehmen.<br />

Trotzdem wird häufig auch von externalistischen Rechtfertigungen<br />

gesprochen, und ich möchte zunächst einige wahrscheinliche Motive dafür<br />

nennen. Ein erstes ist das bereits genannte, daß die meisten Reliabilisten<br />

ihre Fragestellungen ganz aus der Wissensproblematik beziehen,<br />

und es dort naheliegend ist, nach zumindest zum Teil externalistischen<br />

Lösungen zu suchen. Da ich aber nach Rechtfertigungen unabhängig von<br />

einer Wissenstheorie suche, kann das für mich kein guter Grund sein,<br />

externalistische Elemente in eine Rechtfertigungstheorie aufzunehmen.<br />

a) Fragen der klassischen Erkenntnistheorie<br />

Weit interessanter ist schon die Idee, die zahlreichen in Rechtfertigungen<br />

drohenden Regresse durch externalistische Elemente stoppen zu wollen.<br />

In internalistischen inferentiellen Rechtfertigungen möchte man sich immer<br />

nur auf Aussagen stützen, die selbst wieder gerechtfertigt sind. Das<br />

führt bekanntlich in einen unendlichen Regreß oder Zirkel der Rechtfertigung<br />

(s.a. III.B.2). Den versuchen Externalisten zu stoppen, indem sie<br />

z. B. fundamentalistische Positionen vertreten, in denen die basalen<br />

Überzeugungen externalistisch gerechtfertigt sind, etwa durch Berufung<br />

45 Moser z. B. trennt diese verschiedenen Formen von Rechtfertigung<br />

strikter.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 114<br />

auf zuverlässige Wahrnehmungen. Doch dieser Versuch, den Regreß aufzuhalten,<br />

kann nur dann von Erfolg gekrönt sein, wenn wir die basalen<br />

Überzeugungen durch externalistische Zusammenhänge auch tatsächlich<br />

als intuitiv gerechtfertigt akzeptieren können. Genau das werde ich bestreiten,<br />

so daß damit die Grundintuition, die zu dem Regreß geführt<br />

hat, rechtfertigende Aussagen müßten selbst wieder gerechtfertigt sein,<br />

in den externalistischen Ansätzen nicht eingelöst werden kann.<br />

BonJour (1985, 38ff) hat sich dazu eine Reihe von Beispielen ausgedacht,<br />

die uns begreiflich machen sollen, warum reliabilistische oder andere<br />

externalistische Rechtfertigungen eigentlich keine Rechtfertigungen<br />

sind und insbesondere auch nicht für Wissen ausreichen. Um den Unterschied<br />

zwischen internalistisch und externalistisch begründeten Überzeugungen<br />

zugänglich zu machen, mußte BonJour nach Beispielen suchen,<br />

in denen wir auf zuverlässige Weise zu bestimmten Meinungen gelangen,<br />

aber selbst nichts darüber wissen. Nur in solchen Fällen ergibt sich eine<br />

wesentlich verschiedene Bewertung von externalistischer und internalistischer<br />

Seite. Da wir kaum klare Fälle dieser Art finden, sondern die<br />

meisten bestenfalls Mischformen zu sein scheinen, mußte BonJour zu etwas<br />

exotischen Beispielen greifen. Das sollte aber nicht darüber hinwegtäuschen,<br />

daß sie gut verständliche begriffliche Möglichkeiten aufzeigen,<br />

in denen die Unplausibilität der externalistischen Theorie deutlich wird<br />

und man im Prinzip analoge Beispiele aus dem Bereich unserer Wahrnehmung<br />

bilden könnte. BonJours Hauptpersonen nennen wir der Einfachheit<br />

halber Norman.<br />

Norman ist ein sehr zuverlässiger Hellseher (hier wird also eine bestimmte<br />

reliabilistische Bedingung erfüllt), aber Norman weiß nichts<br />

über seine Fähigkeit, er verfügt also nicht über eine entsprechende<br />

Einschätzung seiner auf hellseherischem Wege entstandenen Meinungen<br />

(eine internalistische Bedingung für Wissen ist also nicht erfüllt).<br />

Norman glaubt aufgrund seiner Hellseherei – diese wird als<br />

ein von ihm nicht bemerkter Vorgang betrachtet –, daß der Präsident<br />

gerade in New York ist.<br />

Man kann dieses Beispiel noch auf recht unterschiedliche Weise ausgestalten,<br />

was BonJour auch unternimmt, und sich jeweils fragen, ob man<br />

Norman das Wissen zuschreiben möchte oder eine gerechtfertigte Überzeugung,<br />

daß der Präsident in New York ist. Der für den Externalisten<br />

ungünstigste Fall ist der folgende: Norman könnte zusätzlich über gute<br />

Hinweise verfügen, daß der Präsident sich in Washington aufhält und<br />

mit der festen etwa durch wissenschaftliche Theorien gestützten Ansicht


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 115<br />

leben, daß es Phänomene wie Hellseherei nicht geben kann. Was sollte<br />

uns dann noch veranlassen, ihm das Wissen zu unterstellen, der Präsident<br />

sei in New York, wenn diese Annahme für ihn selbst keine erkennbare<br />

epistemische Stützung besitzt und ihm sogar als eine seltsame und<br />

unerklärliche Ahnung erscheinen muß, die gegen all seine begründeten<br />

Überzeugungen steht. Diese Überzeugung ist dann ein Fremdkörper in<br />

seinem Meinungssystem, dessen zuverlässige Verursachung durch Hellseherei<br />

doch wohl keine Rechtfertigung für Norman bieten kann, an dieser<br />

Meinung festzuhalten. Wenn Norman epistemisch verantwortlich<br />

verfahren wollte, müßte er diese Meinung aufgeben.<br />

Es sind aber auch andere Varianten dieses Beispiels denkbar. So z. B.,<br />

daß Norman keine weiteren Ansichten über den gegenwärtigen Aufenthaltsort<br />

des Präsidenten und keine über Hellseherei hat; oder daß er<br />

glaubt, hellsehen zu können, aber dafür keine Gründe hat usw. In all diesen<br />

Varianten scheint es uns ebenfalls kaum wirklich plausibel, von Norman<br />

zu sagen, er sei in seiner Meinung über den Präsidenten gerechtfertigt<br />

oder sie sei sogar Wissen. Seine weitgehende Ignoranz gegenüber<br />

der Entstehungsgeschichte seiner Überzeugung sowie das Fehlen jeder<br />

Einbindung der Hellseherei in den Korpus seiner Meinungen, machen<br />

ihm eine epistemische Bewertung dieser Meinung unmöglich und verhindern<br />

daher, daß sie zu Wissen im Sinne eines Lehrerschen Metawissens<br />

werden kann oder daß wir sie als begründet ansehen können. Das<br />

wurde schon frühzeitig auch von Erkenntnistheoretikern wie Chisholm<br />

in ähnlicher Weise eingeschätzt:<br />

So könnte jemand einwenden: „Die beste Rechtfertigung, die wir für<br />

eine Proposition haben, besteht doch darin, daß sie aus einer zuverlässigen<br />

Quelle stammt. Was könnte vernünftiger sein, als die Äußerungen<br />

einer solchen Quelle zu akzeptieren – sei die Quelle ein<br />

Computer, ein Sinnesorgan, oder die Wissenschaft selbst?“ Die Antwort<br />

ist natürlich, daß es durchaus vernünftig ist, einer Quelle Glauben<br />

zu schenken, vorausgesetzt man weiß, daß sie zuverlässig ist,<br />

oder man hat gute Gründe oder eine gute Evidenz zu meinen, sie sei<br />

zuverlässig. (Chisholm 1979, 98)<br />

Der Externalist kann seine Konzeption mit einer Reihe von internalistischen<br />

Zusatzbestimmungen gegen solche Fälle Schritt für Schritt abzusichern<br />

suchen. 46 Doch abgesehen von einer gewissen Willkürlichkeit in<br />

der Wahl dieser Zusatzbedingungen, die den ad hoc Charakter dieser<br />

Modifikationen offenbaren, bleibt immer die grundlegende Frage zu-<br />

46 Goldman (1979) geht z. B. so vor.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 116<br />

rück: Was trägt die externe Bedingung zur Rechtfertigung der Überzeugung<br />

überhaupt bei?<br />

Die im Kapitel (II.C.1) als grundlegend angesehene Relativierung<br />

von Rechtfertigungen auf ein bestimmtes Aussagensystem oder einen<br />

entsprechenden epistemischen Zustand paßt mit reliabilistischen Bedingungen<br />

in keiner Weise zusammen, weil diese nicht auf die inferentiellen<br />

Zusammenhänge zum Hintergrundwissen des epistemischen Subjekts abstellen.<br />

Eine reliabilistische Rechtfertigung hat demnach ein anderes<br />

Thema als die internalistische. Sie fragt nicht mehr danach, was ich tatsächlich<br />

für Gründe für eine meiner Meinungen habe und welche anderen<br />

Meinungen ich für sie anführen kann, sondern danach, welche Zusammenhänge<br />

zwischen dieser Meinung und bestimmten Tatsachen in<br />

der Welt objektiv bestehen. Definitionsgemäß bietet sie auch keine Antwort<br />

mehr auf die klassische erkenntnistheoretische Frage: Was soll ich<br />

glauben? Der Externalist tut häufig so, als ob er sich den klassischen erkenntnistheoretischen<br />

Fragen zuwenden würde, aber wenn wir ihn so<br />

interpretieren, macht er sich einer Themaverfehlung schuldig.<br />

b) Eine externalistisch-internalistische Mischform<br />

Um den antiintuitiven Konsequenzen eines reinen Externalismus zu entgehen<br />

und trotzdem die Idee von externalistischen Elementen in Rechtfertigungen<br />

nicht vollständig aufzugeben, wurden die gemischt externalistisch/internalistischen<br />

Rechtfertigungskonzeptionen vorgeschlagen. So<br />

hat Marshall Swain in (1981) ein Rechtfertigungsverfahren konzipiert,<br />

das eine solche Mischform darstellt und wirft BonJour (in Swain 1989)<br />

vor, dessen Beispiele gegen Externalisten träfen jedenfalls nicht seine<br />

Rechtfertigungstheorie. In Swains Theorie, die man als „Reliabilitätsindikatortheorie“<br />

bezeichnen kann, besteht eine Rechtfertigung aus zwei<br />

Aspekten. Zum einen einer tatsächlich zuverlässigen Überzeugungsbildung<br />

und zum anderen einem für das epistemische Subjekt kognitiv zugänglichen<br />

Indikator für diese Zuverlässigkeit, die in unseren Meinungen<br />

über die Entstehung dieser Überzeugung auch in irgendeiner Weise repräsentiert<br />

ist.<br />

A belief is justified provided it is more likely to be true, given the<br />

reasons upon which the belief is based and relevant characteristics of<br />

the believer, than any competitor of the belief. The likelihood in<br />

question is objective, or external, and the characteristics of the believer<br />

which condition it need not be known to the believer. (Swain<br />

1989, 119)


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 117<br />

Auch wenn mit dieser Theorie, weil sie internalistische Elemente beinhaltet,<br />

zunächst BonJours Norman Beispiel ebenfalls als Fall von Nichtwissen<br />

zurückgewiesen werden kann, ist damit noch nicht entschieden,<br />

ob sie einen wesentlichen Fortschritt gegenüber den rein externalistischen<br />

oder internalistischen Konzeptionen verkörpert. BonJour (1989,<br />

279) gelingt es nachzuweisen, daß sich sein Norman Beispiel mit leichten<br />

Modifikationen auch gegen Swains Theorie richten läßt.<br />

Um nun nicht in einem Disput mit immer komplexeren Gegenbeispielen<br />

und subtileren Ausschlußbedingungen zu versinken, möchte ich<br />

lieber darauf eingehen, warum Swain überhaupt annimmt, man müsse<br />

statt einer internalistischen Rechtfertigungstheorie etwa à la BonJour zu<br />

einer Mischform übergehen. Dazu Swain selbst:<br />

Part of the answer is: Consider the alternative! The alternative is to<br />

require for justified belief the accessibility of virtually everything relevant<br />

to one’s justification, the view which BonJour seems to accept<br />

in his book. (Swain 1989, 120)<br />

Swain hält den Internalismus also für unrealistisch, weil er zu viel von<br />

den epistemischen Subjekten verlange und möchte die externalistischen<br />

Komponenten nutzen, um defizitäre interne Rechtfertigungen zu vollwertigen<br />

aufzuwerten. BonJour (1989, 280) stellt dazu als erstes die<br />

knifflige Frage, wie defizitär Rechtfertigungen denn auf der internalistischen<br />

Ebene sein dürfen, um durch externe Elemente noch gerettet werden<br />

zu können? Aber auch wenn es Swain gelänge, diese völlige Vagheit<br />

seiner Grundidee in nicht willkürlicher Weise zu überwinden, kehrt wieder<br />

das Problem zurück, daß gerade die externalistischen Elemente zur<br />

Beantwortung der grundlegende Frage „Was soll ich glauben?“ nichts<br />

beizutragen haben. Sie erscheinen daher als ungeeignetes Mittel, um Defizite<br />

in Rechtfertigungen zu beheben. Wenn meine Rechtfertigung einer<br />

Meinung Defizite aufweist, kann ich nicht erwidern, ob sie wirklich defizitär<br />

ist oder nicht, werden wir vielleicht nie entscheiden können, denn<br />

dazu müßten wir erst alle Tatsachenzusammenhänge zwischen meinen<br />

Überzeugungen und der Welt kennen. Solange ich diese Zusammenhänge<br />

nicht in irgendeiner Form angeben oder auf sie verweisen kann,<br />

bleibt meine Rechtfertigung weiterhin unbefriedigend.<br />

Das muß natürlich nicht heißen, daß es sich nicht wenigstens noch<br />

um eine schwache Rechtfertigung handeln kann, denn Rechtfertigungen<br />

sind gradueller Abstufungen fähig.Mit diesem letzten Punkt möchte ich<br />

auch eine kurze Antwort auf Swains Vorwurf der Überforderung epistemischer<br />

Subjekte durch den Internalismus geben, die in den folgen-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 118<br />

den Abschnitten noch ausgeführt wird. Neben idealen Rechtfertigungen<br />

können uns auch schwache Gründe einen Hinweis dafür bieten, was wir<br />

glauben sollen; auch solche Gründe, die für Wissen bei weitem nicht ausreichen.<br />

Außerdem sind die genannten Phänomene wie implizites Wissen<br />

und vor allem die epistemische Arbeitsteilung zu nennen, die unser<br />

Bild von Rechtfertigungen in realistischer Weise ergänzen und dem Subjekt<br />

einen Teil seiner Rechtfertigungsarbeit abnehmen können. Der externalistische<br />

Schachzug Swains kommt mir dazu verfehlt vor. 47<br />

c) Rechtfertigung und Ursachen<br />

An dieser Stelle ist es hilfreich, noch einmal auf ein früher schon angeschnittenes<br />

Thema zurückzukommen. Für einige Reliabilisten ist es erforderlich,<br />

daß die Belege, die wir für eine Überzeugung haben, zumindest<br />

zum Teil diese Überzeugung mitverursacht haben. Hier ist Vorsicht<br />

angebracht, denn im Hintergrund lauert wieder die Vermengung von<br />

Genese und Rechtfertigung. Selbst wenn es im Normalfall – etwa bei der<br />

Wahrnehmung – oft so sein mag, daß unsere Gründe für unsere Überzeugungen<br />

sich auf deren Entstehung beziehen, so gibt es doch keinen<br />

(das war ein Argumentationsziel des Abschnitts III.A) inhaltlichen oder<br />

begrifflichen Zusammenhang, der das erforderlich macht. Es sind viele<br />

Fälle denkbar, in denen Gründe und Ursachen für eine Überzeugung<br />

auseinanderfallen. Trotzdem läßt uns der Wunsch nach einer einfachen<br />

„natürlichen“ Beziehung als Rechtfertigungsrelation immer wieder Gefahr<br />

laufen, die natürlichen Ursachen einer Meinung für ihre Rechtfertigung<br />

zu halten. Lehrer erläutert deshalb die Unterscheidung noch einmal<br />

durch eine nützliche Analogie zwischen Rechtfertigung und logischer<br />

Gültigkeit:<br />

If a person validly deduces a conclusion from something he knows,<br />

this may cause him to believe the conclusion or influence his belief<br />

in the conclusion. If valid deduction had no influence whatever on<br />

whether a person believed the conclusion, that would not undermine<br />

the validity of the inference. Similarly, if someone justifies some conclusion<br />

on the basis of something he knows, this may cause him to<br />

believe the conclusion or influence his belief in the conclusion. The<br />

justification of his conclusion, however, does not depend on the causal<br />

influence. (Lehrer 1990, 171)<br />

47 Ausführlicher wird dieser Typ von Einwand noch in (III.A.2.e) besprochen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 119<br />

Sich diesen Unterschied zwischen der Gültigkeit von Schlüssen und Begründungen<br />

auf der einen und kausalen Beziehungen auf der anderen<br />

Seite immer wieder klar zu machen, ist auch ein Heilmittel gegen die<br />

Ansicht, Rechtfertigungen seien auf derartige kausale Beziehungen angewiesen.<br />

Unter diesem Aspekt gewinnen auch die Beispiele des Abschnitts<br />

zur Unterscheidung von Genese und Rechtfertigung erneut an Bedeutung.<br />

Mit diesem Rüstzeug möchte ich nun auf eine Redeweise eingehen,<br />

die einen kausalen Zusammenhang zwischen meiner Überzeugung und<br />

ihren Gründen nahezulegen scheint. Schon 1970 wies Harman (1987,<br />

108ff) auf den Unterschied hin zwischen Gründen, die man hat, etwas<br />

zu glauben und solchen derentwegen man etwas glaubt. Die letzteren<br />

entscheiden für ihn darüber, ob man in seinem Glauben gerechtfertigt<br />

ist. Diese Unterscheidung führt nach Harman nicht zu einer Unterscheidung<br />

zwischen verursachenden Gründen und solchen, die das nicht tun,<br />

sondern auf eine Untersuchung der Überlegungen, die zu unseren Meinungen<br />

geführt haben. Nicht zu einer Analyse ihrer kausaler Struktur<br />

und dem Prozeß des Überlegens, sondern zu einer Untersuchung der<br />

„abstrakten Struktur“ aus Prämissen, Zwischenschritten und Schlußfolgerungen<br />

(Harman 1987, 119). Das mündete in seiner „no false conclusions“<br />

Bedingung der Wissensanalyse, die uns allerdings nicht zu überzeugen<br />

vermochte.<br />

In neueren Arbeiten versuchen Autoren erneut eine entsprechende<br />

Unterscheidung im Hinblick auf die Bedeutung von kausalen Zusammenhängen<br />

für unser Gerechtfertigtsein stark zu machen. Nach (Haack<br />

1993, 75ff und Koppelberg 1994, 201ff) hängt epistemische Rechtfertigung<br />

wesentlich davon ab, warum eine Person etwas meint, und das ist<br />

eine Frage der kausalen Abhängigkeit. Um dem nachzugehen, möchte<br />

ich zunächst ein Beispiel von Koppelberg (1994, 210) aufgreifen: Eine<br />

Person S besitzt unter anderem die folgenden drei Meinungen:<br />

(1) p<br />

(2) pq<br />

(3) q<br />

Ist er dann gerechtfertigt in seinem Glauben an q? Nach Koppelberg ist<br />

das jedenfalls dann nicht der Fall, wenn S q aus Gründen glaubt, die<br />

nichts mit den anderen beiden Meinungen zu tun haben und die ihrerseits<br />

eher irrational erscheinen. Dazu möchte ich zwei Fragen trennen,<br />

die meines Erachtens zu verschiedenen Gebieten gehören: 1. Welches<br />

sind die Gründe, derentwegen S an q glaubt? 2. Sind diese Gründe (er-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 120<br />

kenntnistheoretisch) gute Gründe? Mein Interesse gilt überwiegend der<br />

2. Frage. Ich möchte wissen, wann bestimmte Meinungen gute Rechtfertigungen<br />

für eine Meinung abgeben können, zumal eine Antwort auf<br />

diese Frage uns leiten kann bei der Frage, was ich glauben soll. Welche<br />

Meinungen oder Zustände eine Person dazu gebracht haben, an q zu<br />

glauben, gehört dagegen eher in den Bereich der Philosophie des Geistes,<br />

oder wenn man wie ich etwas skeptisch bezüglich deren Leistungsfähigkeit<br />

ist, in den Bereich der empirischen Psychologie oder Neurophysiologie.<br />

Die Frage, wann eine Person S in einer konkreten Meinung<br />

gerechtfertigt ist, zerfällt somit in zwei Fragen. Wir müssen einerseits<br />

klären – das scheint bei einer kausalen Deutung des „derentwegen“ ein<br />

empirisches Projekt zu sein –, aus welchen Motiven oder tatsächlichen<br />

Ursachen S die Meinung q akzeptiert, und müssen andererseits bewerten,<br />

ob diese Ursachen erkenntnistheoretisch akzeptable Gründe darstellen,<br />

an q zu glauben. In dieser Arbeit werde ich mich also der zweiten<br />

rein erkenntnistheoretischen Frage zuwenden und die erste Frage an die<br />

Philosophie des Geistes verweisen.<br />

Doch bevor ich mein eigentliches Projekt wieder aufnehme, möchte<br />

ich mich auch noch ein wenig an den Vermutungen darüber beteiligen,<br />

ob das „derentwegen“ in der ersten Frage – also im Hinblick auf eine<br />

letztlich epistemische Fragestellung – kausal zu deuten ist. Susan Haack<br />

(1993, 76) hält die darin angesprochene Abhängigkeit für eine kausale<br />

Abhängigkeit und meint, daß wir alle kausalen Einflüsse, die S’ Glauben<br />

an q befördert oder gehemmt haben, wie bei einer Kräfteaddition berücksichtigen<br />

sollten. Um das durchzuhalten ist man auf bestimmte Ansichten<br />

in der Philosophie des Geistes festgelegt, die keineswegs unkontrovers<br />

sind. Nämlich daß wir Meinungen auch als Ursachen wie andere<br />

betrachten dürfen. Glaubt man dagegen, daß intentional beschriebene<br />

mentale Zustände ungeeignet sind, um physikalische Ursachen zu charakterisieren,<br />

so ist diese Redeweise – insbesondere zusammen mit der<br />

Redeweise der Verrechnung von Ursachen in einer Art Vektoraddition –<br />

kaum als hilfreiche Erläuterung aufzufassen.<br />

Aber selbst wenn wir die Voraussetzung von Haack übernehmen,<br />

scheint mir Kausalität keinen geeigneten Ansatzpunkt für eine Analyse<br />

der gesuchten Meinungsabhängigkeit darzustellen. Wenn in unserem<br />

Beispiel die Meinungen (1) und (2) den Glauben an q verursacht haben,<br />

so bleibt die bloße Verursachung meines Erachtens epistemisch irrelevant.<br />

Sie könnte zunächst eine Art „Kurzschluß“ im Gehirn sein, den wir<br />

vielleicht genauso zwischen den Meinungen „r“ und „non-r“ wiederfinden.<br />

Ein derartiger kausaler Zusammenhang könnte unsere Ansicht S sei


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 121<br />

gerechtfertigt in seinem Glauben an q nicht begründen. Die Kausalität<br />

zwischen Ereignissen kann jedenfalls dieselbe sein, ob sie Meinungen instantiiert,<br />

die in einem deduktiven Verhältnis oder in einem kontradiktorischen<br />

stehen. Es kommt wiederum vielmehr auf unsere epistemische<br />

Bewertung an. S muß (1) und (2) für seine inferentiellen Gründe für (3)<br />

halten, damit wir sagen können, er sei in seinem Glauben an q gerechtfertigt.<br />

Zu dem Glauben an (1) bis (3) sollte daher eher eine weitere (implizite)<br />

Metaüberzeugung treten, nämlich: „(1) und (2) begründen (3)“.<br />

Das scheint mir eine naheliegendere Explikation von „derentwegen“ in<br />

diesem Kontext zu sein und bietet sich natürlich auch als naheliegende<br />

Ergänzung der Kohärenztheorie der Rechtfertigung an, für die ich im<br />

Weiteren eintreten werde. Ob es erkenntnistheoretisch dann noch interessant<br />

ist, psychologische Spekulationen ins Spiel zu bringen, ob das die<br />

wahren Gründe von S für seinen Glauben an q sind, scheint mir eher<br />

fraglich.<br />

Das soll die Analyse eines Beispiels noch ein wenig beleuchten: Kommissar<br />

X entläßt die Mordverdächtige Y aus der Untersuchungshaft, die<br />

seine Geliebte ist. Sein Vorgesetzter macht ihm daraufhin Vorhaltungen,<br />

daß er Y nur aus persönlichen Neigungen freigelassen und damit seine<br />

Dienstpflichten verletzt hätte. Doch X kann dem zunächst Einiges entgegenhalten:<br />

Y hätte ein gutes Alibi für die Tatzeit, das mutmaßliche Motiv<br />

hätte nicht wirklich bestanden und außerdem sei Y von ihrem Charakter<br />

her eine solch grausame Tat nicht zuzutrauen. Die dienstliche Rechtfertigung<br />

des Kommissars hängt hierbei entscheidend davon ab, ob wir sagen<br />

können, daß er in seiner Ansicht, Y sei nicht mehr dringend tatverdächtig<br />

gewesen, tatsächlich epistemisch gerechtfertigt war oder nicht. Was<br />

kann der Vorgesetzte nun X noch entgegenhalten, um den Kommissar in<br />

die Schranken zu verweisen? Kann er ihm etwa nachweisen, daß X<br />

selbst nicht an das Alibi glaubte oder es nicht für hinreichend wasserdicht<br />

hielt, um seine Bewertung der „Tatverdächtigkeit“ zu begründen,<br />

so hat er noch etwas in der Hand. Muß er aber zugeben, daß die Gründe,<br />

die X für seine Handlungen zu nennen weiß, dessen Bewertung perfekt<br />

rechtfertigen und daß X aufrichtig an diesen Zusammenhang<br />

glaubt, so scheint uns der folgender Einwand des Vorgesetzten ausgesprochen<br />

aus der Luft gegriffen: „Sie hatten zwar sehr gute Gründe, um<br />

Y frei zu lassen, an die Sie auch geglaubt haben, aber das waren trotzdem<br />

nicht ihren wirklichen Beweggründe. Die stammten ganz aus dem<br />

persönlichen Bereich.“ Darauf kann der arme Kommissar natürlich auch<br />

nur zugeben, daß er über die kausale Verschaltung seiner Meinungen<br />

nicht mehr sagen kann, als daß seine bisherigen Auskünfte ehrlich wa-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 122<br />

ren. Wie will er sich jetzt noch rechtfertigen, wenn das Zitieren guter<br />

Gründe, an die er glaubt und von denen er glaubt, daß sie seine Ansicht<br />

begründen, dazu nicht ausreicht? Legen wir solche Maßstäbe an, erhalten<br />

wir einen ausgesprochen praxisfernen Rechtfertigungsbegriff. Nach<br />

den üblichen Standards war der Kommissar dagegen in seiner Ansicht<br />

über den Tatverdacht von Y gerechtfertigt und die weitergehende Spekulation,<br />

es wäre eher wohl eher seine Zuneigung zu Y kausal wirksam gewesen,<br />

diskreditiert X nicht, selbst wenn wir dafür Anhaltspunkte haben.<br />

Für eine normale epistemische Rechtfertigung einer Überzeugung<br />

ist das zuviel verlangt. Doch nun wieder zurück zur Beantwortung der<br />

zweiten Frage durch den Externalisten.<br />

d) Rationalität und Rechtfertigung<br />

Daß der Externalist eine Art von Themaverfehlung begeht, wird außerdem<br />

anhand einer analytischen Verbindung zur Handlungstheorie erkennbar.<br />

Es gibt sicher keinen ganz einfachen Zusammenhang zwischen<br />

den Konzepten von Rationalität und Rechtfertigung, aber daß es eine<br />

begriffliche Verbindung gibt, die ungefähr in der folgenden Weise beschrieben<br />

werden kann, scheint mir relativ unproblematisch zu sein:<br />

Rechtfertigungen und Rationalität (RR)<br />

Wenn ich mich in meinen (Handlungs-)Entscheidungen wesentlich<br />

auf bestimmte Annahmen über die Welt stütze – und das gilt insbesondere<br />

für wichtige Entscheidungen –, dann sollte ich gute Gründe<br />

für diese Annahmen haben, sonst handele ich irrational.<br />

Das Prinzip (RR) ist sicher nur unter bestimmten Bedingungen gültig,<br />

wie, daß ich genügend Zeit für meine Entscheidung zur Verfügung habe,<br />

die wichtigen Informationen für mich zugänglich sind und sich auch der<br />

Aufwand der Informationsbeschaffung für die Entscheidung lohnt, etwa<br />

weil diese für mich entsprechend wichtig ist. Dazu kommen vielleicht<br />

noch weitere ceteris paribus Bedingungen. Aber wenn wir diese berücksichtigen,<br />

drückt (RR) einen quasi-analytischen Zusammenhang aus. Der<br />

geht für externalistische „Rechtfertigungen“ verloren. Das ist wiederum<br />

an Beispielen erkennbar, die sich bei BonJour (1985, 45) finden. Nehmen<br />

wir an, Norman, der uns schon geläufige Hellseher, wird gezwungen,<br />

auf eine von zwei Möglichkeiten zu wetten. Die erste ist, daß der<br />

Präsident in New York ist, und die zweite, daß der Generalstaatsanwalt<br />

in New York ist. Um das Beispiel etwas dramatischer zu gestalten, nehmen<br />

wir weiter an, für Norman stehe eine Menge auf dem Spiel, vielleicht<br />

sogar sein Leben. Die erste Meinung sei nun aufgrund seiner zu-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 123<br />

verlässigen aber ihm kognitiv völlig unzugänglichen Hellseherei entstanden,<br />

so daß der Reliabilist ihm sogar das entsprechende Wissen zuschreiben<br />

würde; für die zweite hat er „nur“ einige gute inferentielle Gründe,<br />

die es wahrscheinlich machen, daß der Generalstaatsanwalt in New York<br />

ist, die aber nicht für Wissen ausreichen. Wenn wir uns Normans epistemische<br />

Situation vor Augen führen, wonach er zwar zunächst die<br />

Überzeugung hat, daß der Präsident in New York ist, jedoch nicht den<br />

geringsten Anhaltspunkt benennen kann, daß es so ist, er hingegen über<br />

gute Gründe für die zweite Meinung verfügt, so ist offensichtlich, daß<br />

wir seine Wahl nur dann vernünftig nennen würden, wenn er sich für die<br />

zweite Meinung entscheidet.<br />

Für den Reliabilisten entsteht damit eine Kluft zwischen begründeten<br />

Überzeugungen (oder sogar Wissen) und vernünftigem Handeln, die<br />

nicht zu unserem üblichen Gebrauch dieser Konzepte paßt. Er trennt das<br />

Begründungsgeschäft von seiner praktischen Konsequenz, handlungsanleitend<br />

zu sein, obwohl die für uns einen wesentlichen Grund darstellt,<br />

warum wir uns um epistemische Rechtfertigungen bemühen. Der Reliabilist<br />

kann natürlich auch in diesem Punkt für eine Änderung unseres<br />

Sprachgebrauchs eintreten, aber wenn er diesen Zusammenhang zur Rationalität<br />

aufgeben möchte, hat er die Frage zu gegenwärtigen, wozu<br />

sein Begriff der Rechtfertigung überhaupt tauglich sein soll. In dem Bereich,<br />

in dem er sich von unserer internalistischen Begründungskonzeption<br />

unterscheidet, kann er uns nicht mehr als Hilfe für Entscheidungen<br />

dienen, sondern ist nur aus der Perspektive eines allwissenden Dritten zu<br />

vergeben.<br />

e) Kritik am Internalismus<br />

Externalisten bedienen sich natürlich nicht nur direkter Argumente für<br />

den Externalismus, sondern auch Argumenten gegen ihre Gegenposition,<br />

den Internalismus, nach dem alle Elemente der Rechtfertigung uns<br />

kognitiv zugänglich sein sollen. Die meisten dieser Kritiken richten sich<br />

gegen spezielle Positionen etwa Positionen aus dem Lager der Kohärenztheorien<br />

der Rechtfertigung, wie auch ich sie später vertreten werde,<br />

und sollen daher auch erst an späterer Stelle zur Sprache kommen. Einen<br />

ziemlich allgemeinen Angriff auf den Internalismus, hatte ich schon<br />

in Abschnitt (III.A.2.b) erwähnt. Es wird behauptet, die internalistischen<br />

Ansätze wie der von BonJour stellten zu hohe Anforderungen an Rechtfertigungen.<br />

Eine Formulierung des Einwands findet sich wieder bei<br />

Swain (1989, 120): „We do not as a matter of empirical fact, have the<br />

grasp of our belief system, implicit or explicit, required by the doxastic


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 124<br />

presumption.“ 48 Demnach sind internalistische Positionen zu anspruchsvoll<br />

und verlangen zuviel von einem epistemischen Subjekt für begründete<br />

Meinungen. Das hätte, so die Kritik, zur Folge, daß wir in den meisten<br />

unserer Common-Sense Überzeugungen nicht gerechtfertigt seien<br />

und man aufgrund internalistischer Rechtfertigungstheorien auch nicht<br />

erwarten dürfte, daß wir solche Rechtfertigungen zur Verfügung haben<br />

könnten. Die ganze Konzeption von internalistischen Rechtfertigungen<br />

wird damit unrealistisch und schlimmer noch, wir müssen sogar befürchten,<br />

unsere paradigmatischen Fälle und Vorbilder für Rechtfertigungen,<br />

die doch unseren Weg zu einer Theorie der Rechtfertigung leiten sollten,<br />

zu verlieren.<br />

In seiner Antwort auf diese Kritik am Internalismus weist BonJour<br />

als erstes darauf hin, daß natürlich auch unsere Common-Sense Ansichten<br />

tatsächlich nicht immer besonders gut begründet sind und keineswegs<br />

sakrosankt sein sollen. Das allein kann andererseits kaum als Erwiderung<br />

genügen, obwohl es eine Erkenntnis ist, die selbst bereits im<br />

Common-Sense Wissen verankert ist.<br />

Ein weiterer Punkt ist, daß, wenngleich das bisher nicht explizit erwähnt<br />

wurde, gerade das Konzept der allgemeinen Rechtfertigung (die<br />

im Falle ihrer Wahrheit nicht schon Wissen implizieren muß) Abstufungen<br />

erlaubt, die von sehr schlechten Begründungen, die man kaum noch<br />

als solche bezeichnen darf, bis zu sehr guten Rechtfertigungen reichen.<br />

Hier zeigt sich wiederum ein Vorteil einer von der Wissensdebatte abgelösten<br />

Untersuchung zur epistemischen Rechtfertigung, denn für Wissen<br />

ist eine solche Abstufung keineswegs ähnlich zwanglos möglich. In der<br />

Analyse von Rechtfertigungen war das Ziel eine Theorie der idealen<br />

Rechtfertigung, die sich nicht in voller Form in unseren tatsächlichen<br />

Rechtfertigungen wiederfinden lassen muß. Wenn einige unserer tatsächlichen<br />

Rechtfertigungen sie auch nur annähernd verwirklichen, ist unsere<br />

Theorie auch für sie aussagekräftig. Darüber hinaus sind zwei weitere<br />

Schritte zur Ehrenrettung tatsächlicher Begründungen bereits eingeführt<br />

worden. Der erste ist, nicht zu verlangen, unsere Rechtfertigungen müßten<br />

immer explizit verfügbar sein, sondern dispositionelle Rechtfertigungen<br />

und einfache Ableitungen zusätzlich als implizite Rechtfertigungen<br />

zuzulassen. Der zweite Schritt, der mindestens genauso bedeutsam ist, ist<br />

die epistemische Arbeitsteilung, die Rechtfertigungen oder Wissen als<br />

auch gesellschaftlich bestimmt ansieht.<br />

48 Auch bleibt nach Swain unklar, was mit „grasping a belief" gemeint ist.<br />

Zumal, wenn man auch implizite Rechtfertigungen zuläßt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 125<br />

Eine naheliegende Frage an diesem Punkt der Diskussion ist aber sicher,<br />

ob die epistemische Arbeitsteilung nicht selbst bereits eine Form<br />

des Externalismus darstellt. Für den Einzelnen ist es allerdings so, daß<br />

eine nur gesellschaftlich verfügbare Rechtfertigung nicht vollkommen<br />

intern ist. Doch in einem liberaleren Sinn sind uns auch die in der Gesellschaft<br />

verfügbaren Rechtfertigungen kognitiv zugänglich, denn wir<br />

können sie etwa nachlesen oder sie uns von einem Experten erklären<br />

lassen, wobei wir vielfach auch schon vorher gute Gründe haben anzunehmen,<br />

daß sich damit Wissenslücken in ganz bestimmter Weise ausfüllen<br />

lassen. Jedenfalls liegen diese Rechtfertigungen schon in propositionaler<br />

Form vor und stellen nicht nur Berufungen auf eine „blinde“ Kausalität<br />

dar, von der vielleicht niemand etwas weiß. Außerdem wurde im<br />

Sinne des Lehrerschen Diktums, nach dem Wissen immer Metawissen<br />

ist, verlangt, daß der Einzelne eine epistemische Bewertung dieser sozial<br />

verfügbaren Rechtfertigungen vornimmt. Auf einige der Probleme solcher<br />

Einschätzungen hatte ich schon hingewiesen. Diese diskreditieren<br />

gesellschaftliche Rechtfertigungen jedoch nicht grundsätzlich, sondern<br />

führen höchstens zu einer Herabstufung in der Frage, wie gut sie im Vergleich<br />

zu idealen Rechtfertigungen liegen. Jedenfalls unterscheiden sich<br />

arbeitsteilige Rechtfertigungen durch ihre prinzipielle Zugänglichkeit<br />

und der damit gegebenen Möglichkeit einer Metabewertung erheblich<br />

von „externen Rechtfertigungen“.<br />

Wieso sie in bestimmten Problemstellungen als Beispiele interner<br />

Rechtfertigungen gelten dürfen, kann auch noch ein ganz anderer Gedankengang<br />

nahelegen. In der Frage, welche Dinge als epistemische Subjekte<br />

in Frage kommen, hatte ich auch Gruppen von Personen, z. B. eine<br />

bestimmte Wissenschaftlergemeinschaft oder andere Gruppen, zugelassen.<br />

Für sozial verfügbares Wissen ist es dann auch vertretbar, davon zu<br />

sprechen, daß eine derartige Gruppe als Ganzes über dieses Wissen verfügt.<br />

Da sie wenigstens im Prinzip in der Lage ist, dieses Wissen in expliziter<br />

Form (als semantische Information) vorzulegen und darüber zu räsonieren,<br />

kann man sagen, die Gruppe besitze das Wissen oder die<br />

Rechtfertigungen in interner Form. Damit können wir ein epistemisches<br />

Subjekt vorweisen, das einige umfangreiche Rechtfertigungen in einer<br />

Form intern aufweist, die in manchen Fällen schon in die Nähe idealer<br />

Rechtfertigungen kommt. Für die Analyse von Erklärungen werde ich<br />

später unter anderem auch so verfahren, daß ich mir anschaue, über<br />

welche Erklärungen die „scientific community“ verfügt. Selbst wenn internalistische<br />

Theorien also keine realistischen Modelle in bezug auf einzelne<br />

Menschen abgäben, könnten sie es noch in bezug auf andere epi-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 126<br />

stemische Subjekte sein, deren weitergehendes Studium ebenfalls erkenntnistheoretisch<br />

fruchtbar erscheint.<br />

3. Eine Diagnose der intuitiven Attraktivität des Externalismus<br />

Nach den vielen Kritiken an der externalistischen Erkenntnistheorie und<br />

dort insbesondere an ihrem Einsatz im Rahmen von Theorien der Rechtfertigung,<br />

bleibt vielleicht trotzdem noch ein Unbehagen zurück, denn es<br />

fehlt bis jetzt eine Diagnose, wieso so vielen Philosophen die Strategie<br />

des Externalismus auf den ersten Blick einleuchtend erschien. Eine Erklärung<br />

dieses Umstandes möchte ich kurz erwägen, die noch einmal die<br />

grundlegende Schwäche des Externalismus aus einer etwas anderen Perspektive<br />

beleuchtet.<br />

Wenn uns der Externalist mit seinen Beispielen – in denen jemand<br />

über zuverlässige Wahrnehmungen zu einer wahren Beobachtungsüberzeugung<br />

gelangt – für sich zu gewinnen versucht, nehmen wir gezwungenermaßen<br />

immer die dritte-Person Sicht auf das epistemische Subjekt S<br />

seiner Beispiele ein. Wir erfahren etwa, aufgrund welcher Kausalketten<br />

die Person S zu der Überzeugung p gelangt ist. Daß p unter diesen Umständen<br />

gerechtfertigt ist, erscheint uns dann plausibel, weil wir als über<br />

den Sachverhalt aufgeklärter Betrachter in diesem Fall über eine interne<br />

Rechtfertigung für p verfügen. Für uns ist S in der Schilderung des Beispiels<br />

nämlich ein zuverlässiger „Anzeiger“ einer bestimmten Tatsache,<br />

die in „p“ ausgedrückt wird. Da wir um seine Zuverlässigkeit wissen,<br />

können wir uns auf ihn verlassen, wie auf die Anzeige eines Thermometers,<br />

über dessen Zuverlässigkeit wir uns vergewissert haben. Das kann<br />

uns zunächst dazu bewegen, dem Externalisten zuzustimmen, p sei gerechtfertigt.<br />

Doch entscheidend ist in der Debatte zwischen Internalisten<br />

und Externalisten nicht, ob wir über eine Rechtfertigung für p verfügen,<br />

sondern ob wir plausibel behaupten können, daß auch S über eine<br />

Rechtfertigung aus seiner ersten Person Sicht verfügt. Und genau das bestreitet<br />

der Internalist mit guten Gründen. Die Schwierigkeit in der Beurteilung<br />

der externalistischen Beispiele rührt zum Teil daher, daß wir<br />

diese Umsetzung vornehmen müssen, von unserer dritten Person Perspektive,<br />

in der wir eindeutig über eine Rechtfertigung für p verfügen,<br />

zu der Frage, wie die epistemische Situation für S selbst ausschaut. Hier<br />

kommt der Aspekt der Relativierung jeder Rechtfertigung auf einen epistemischen<br />

Zustand oder ein epistemisches Subjekt, wie er bereits in<br />

(II.C.1) beschrieben wurde, ins Spiel.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 127<br />

Das Auftreten dieser zwei Perspektiven mag den Umstand, daß externalistische<br />

„Rechtfertigungen“ keine sind, in manchen geschickt gewählten<br />

Beispielen verschleiern, aber wir sollten ihn mittels der Unterscheidung<br />

der beiden Perspektiven im Gedächtnis behalten. In vielen Beispielen<br />

von Sinneswahrnehmungen fällt die Trennung der beiden Perspektiven<br />

nur deshalb nicht ins Gewicht, weil sowohl der Beobachter wie auch<br />

das epistemische Subjekt ähnliche Kenntnisse der Genese ihrer Meinungen<br />

aufweisen. Diese Fälle verleiten wieder dazu, die Trennung nicht zu<br />

berücksichtigen, was dem Externalisten sein Spiel erleichtert. Das Fazit<br />

derartiger Überlegungen drückt Nagel (1992, 122) so aus:<br />

Obgleich neuerdings viel Mühe auf sie verwandt wurde, können uns<br />

Definitionen des Wissens hier nicht weiterhelfen. Das Grundproblem<br />

der Erkenntnistheorie stellt sich als ein Problem der ersten Person:<br />

„Was soll ich glauben, und wie soll ich meine Überzeugungen<br />

rechtfertigen?“ Hierbei handelt es sich nicht um ein impersonales<br />

Problem wie bei der Frage, ob man, wenn man meine Meinungen<br />

und einige Voraussetzungen hinsichtlich ihrer Beziehung zu etwas<br />

betrachtet, das faktisch der Fall ist, von mir sagen kann, ich ‘wisse’.<br />

Die Beantwortung der Frage was Wissen sei, verhilft mir nicht zu einer<br />

Entscheidung darüber, was ich glauben soll.<br />

Der Externalist entfernt sich mit seiner Strategie von diesem Grundproblem<br />

der Erkenntnistheorie in einer Weise, die zumindest für eine Rechtfertigungstheorie<br />

inakzeptabel ist.<br />

Allerdings ist auch unsere Neigung, diesen Übergang von unserer<br />

dritten Person Kenntnis der Dinge zu einer ersten Person Rechtfertigung<br />

von S mitzumachen, nur zu verständlich, entkommen wir damit doch<br />

scheinbar einem ganzen Bündel von schier unlösbaren erkenntnistheoretischen<br />

Problemen. Außerdem entspricht es unserer Naturalisierungstendenz,<br />

metaphysische Probleme und Fragestellungen normativer Art zugunsten<br />

naturwissenschaftlicher Fragestellungen aufzulösen. Mit diesem<br />

Programm sollen Fragen über Intentionalität oder andere geistige Phänomene,<br />

Fragen der Erkenntnistheorie oder auch der Ethik in „einfache“<br />

empirische Fragestellungen übersetzt und so einer „wissenschaftlichen“<br />

Behandlung zugänglich gemacht werden. Ob und inwieweit ein<br />

solches Programm – das oftmals noch mit Ansprüchen nach einer definitorischen<br />

Reduktion der Prädikate dieser Gebiete einhergeht – erfolgversprechend<br />

oder überhaupt nur sinnvoll ist, läßt sich natürlich nicht in einem<br />

Rundumschlag beantworten. Allerdings scheint mir die Bedeutung<br />

eines solchen Übersetzungsprogramms überschätzt zu werden. Es wer-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 128<br />

den aus dem an sich ehrenwerten Motiv, sich nicht in unklaren Fragestellungen<br />

zu verlieren, zu weitgehende Konsequenzen gezogen, die zur<br />

Aufgabe sinnvoller philosophischer Probleme führen.<br />

In der Erkenntnistheorie ist für die Neigung zu naturalistischen Lösungen<br />

sicher die Erfolglosigkeit bei der Bekämpfung des Skeptikers ein<br />

erkennbares Motiv. Es ist trotz zahlreicher Anstrengungen nicht wirklich<br />

gelungen, dem radikalen Erkenntnisskeptiker zu antworten. Die Fixierung<br />

auf die andauernde Bedrohung jeder Erkenntnistheorie durch die<br />

Fragen des Skeptikers hat wesentlich dazu beigetragen, daß Teile der<br />

Erkenntnistheorie praktisch ohne vorzeigbare Resultate geblieben sind.<br />

Daß die Erkenntnistheorie von der Debatte mit dem Skeptiker nicht nur<br />

profitiert, sondern auch darunter gelitten hat, zeigt sich darin, daß die<br />

meisten Erkenntnistheorien nicht zu subtileren Ausgestaltungen ihrer<br />

Grundposition gereift sind. So haben sich zwar schon einige Autoren als<br />

Kohärenztheoretiker verstanden, aber die meisten hatten nur wenig darüber<br />

zu sagen, worin denn die Kohärenz eines Meinungssystems besteht.<br />

Man weiß in der Regel noch Konsistenz zu nennen und daß Konsistenz<br />

nicht alles sein kann, was Kohärenz ausmacht, aber wo dieses Mehr zu<br />

suchen ist, bleibt ungeklärt, weil der Kampf gegen die skeptischen Einwände<br />

alle Kräfte beansprucht. Für andere Ansätze in der Erkenntnistheorie<br />

sieht es da nicht viel besser aus. Nach einer langen Geschichte ist<br />

dieses Ergebnis dürftig und scheint mir wenigstens zum Teil dadurch erklärbar<br />

zu sein, daß man die Beantwortung der skeptischen Einwendungen<br />

als eine Art von Voraussetzung dafür ansah, eine erkenntnistheoretische<br />

Konzeption weiter zu verfolgen. 49 Um so verlockender muß es da<br />

sein, sich auf naturalistische Weise der Fragen des Erkenntnisskeptikers<br />

zu entledigen. Das ist nur leider nicht ehrlich, weil man nicht auf die<br />

klassischen Fragen antwortet, sondern schlicht das Thema wechselt.<br />

Hier offener aufzudecken, was man zu den klassischen Fragen sagen<br />

kann und was nicht, ist redlicher und läßt gleichermaßen Spielraum dafür,<br />

für eine Änderung der Aufgabenstellung oder zumindest der Schwerpunkte<br />

epistemischer Forschung zu plädieren.<br />

Die Überlegungen zu externalistischen Ansätzen in der Erkenntnistheorie<br />

können natürlich keine Vollständigkeit beanspruchen, und es<br />

war auch nicht meine Absicht, einen Überblick über ihre zahlreichen<br />

Spielarten zu geben. Es sollte aber deutlich geworden sein, daß in der<br />

Debatte zwischen Externalisten und Internalisten eigentlich zwei ver-<br />

49 Meine Antwort auf die hier angesprochene Problematik, ob es sich<br />

lohnt, eine Erkenntnistheorie auszuarbeiten, wenn man nicht auch eine direkte<br />

Antwort auf den Skeptiker bereit hält, wird in den nächsten Kapiteln deutlicher.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 129<br />

schiedene Fragestellungen im Spiel sind: eine subjektive und eine objektive.<br />

Erstere fragt, über welche Gründe ein Erkenntnissubjekt S verfügt,<br />

an p zu glauben, letzere, welche Gründe es geben kann, die Meinung p<br />

des S für zuverlässig zu halten. Beide sind natürlich eng miteinander verknüpft.<br />

Jeder der objektiven Gründe für p wird zu einem subjektiven,<br />

wenn S ihn mit guten Gründen zur Kenntnis nimmt. Das klassische erkenntnistheoretische<br />

Problem, woran wir denn glauben sollten, entspricht<br />

aber eindeutig der subjektiven Fragestellung.<br />

Für mein Projekt soll daher die internalistische Rechtfertigung ganz<br />

im Vordergrund stehen. Für sie muß man sich allerdings weiterhin mit<br />

dem klassischen Cartesischen Problem auseinandersetzen: Wieso können<br />

wir von den uns zugänglichen Indikatoren auf die Wahrheit bestimmter<br />

Aussagen schließen, wenn wir doch zur Begründung dieses Schlusses die<br />

Innenperspektive nicht verlassen können? Auf diesen Punkt komme ich<br />

in Kapitel (VI) zurück.<br />

4. Resümee<br />

Im Rahmen naturalistischer Tendenzen in der Philosophie verfolgen einige<br />

Erkenntnistheoretiker eine externalistische Strategie bei der Lösung<br />

epistemologischer Probleme. Sie setzen für Wissen und Rechtfertigungen<br />

auf externe Zusammenhänge zwischen Meinungen und Tatsachen, die<br />

dem epistemischen Subjekt aus seiner Innenperspektive nicht zugänglich<br />

sein müssen. Für das Vorhaben der Wissensexplikation erhoffen sie sich<br />

davon eine Antwort auf das Gettier-Problem und auf den Skeptiker, für<br />

eine Rechtfertigungstheorie versprechen sie sich darüber hinaus eine Lösung<br />

des Regreßproblems. Die größte Gruppe unter den Externalisten<br />

bilden die Reliabilisten, für die der gesuchte externe Zusammenhang in<br />

der Zuverlässigkeit der Überzeugungsbildung zu suchen ist. Neben dem<br />

Problem, „Zuverlässigkeit“ in nichttrivialer Weise zu explizieren, führt<br />

der Reliabilismus zu Wissenskonzeptionen, die von unserem gewöhnlichen<br />

Wissensbegriff deutlich abweichen. Sie sind nicht so sehr an einer<br />

bewußten Verarbeitung semantischer Informationen orientiert, sondern<br />

vielmehr an den „blinden“ kausalen Zusammenhängen, die die syntaktischen<br />

Informationen betreffen. Sie können den Einfluß unseres Hintergrundwissens<br />

auf die Frage, ob bestimmte Überzeugungen begründet<br />

oder sogar Wissen sind, nicht angemessen berücksichtigen. Wenn auch<br />

für „Wissen“ externe Bedingungen sicher wesentlich sind, so ist das für<br />

allgemeine Rechtfertigungen keineswegs so plausibel. Sie sollen im Rahmen<br />

klassischer Fragestellungen der Erkenntnistheorie Auskunft auf die


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 130<br />

Frage geben, was wir glauben sollen. Dabei können aber nur die dem<br />

epistemischen Subjekt zugänglichen Aspekte der Situation hilfreich sein.<br />

Der Externalist wendet sich mit seinem Lösungsvorschlag von der klassischen<br />

Frage zu einer objektiven Beschreibung aus einer dritte Person<br />

Sicht und begeht damit eine Themaverfehlung, wenn er weiterhin behauptet,<br />

die klassische Frage zu beantworten. Im Hintergrund seines<br />

Vorgehens lauert dabei immer wieder der Genese-Rechtfertigungsfehlschluß,<br />

der die Verursachung einer Meinung über ihre Rechtfertigung<br />

entscheiden läßt.<br />

B. Fundamentalistische Erkenntnistheorien<br />

Eine andere Unterscheidung, die gleichermaßen grundlegende Bedeutung<br />

für die Erkenntnistheorie besitzt, ist die zwischen fundamentalistischen<br />

und kohärentistischen Begründungsstrukturen. Unabhängig von<br />

der Unterscheidung zwischen internen und externen epistemischen<br />

Rechtfertigungen gibt es zwei konträre Ansichten über die richtige<br />

Struktur von Rechtfertigungszusammenhängen für unsere Überzeugungssysteme.<br />

Die in der Philosophiegeschichte in der einen oder anderen<br />

Version dominierende Vorstellung ist die des Fundamentalismus. Danach<br />

gibt es eine epistemisch ausgezeichnete Klasse von Überzeugungen, die<br />

selbst keiner Rechtfertigung durch andere Überzeugungen bedürfen.<br />

Von diesen basalen Überzeugungen nimmt der Fundamentalist im allgemeinen<br />

an, daß sie auf eine andere Weise als inferentiell gerechtfertigt<br />

sind, und sie deshalb in der Lage sind, als Basis zur Rechtfertigung anderer<br />

Überzeugungen zu dienen. Die wichtigsten Spielarten des Fundamentalismus<br />

finden sich in rationalistischen und empiristischen Erkenntnistheorien.<br />

Für erstere bedürfen gewisse notwendige erste Prinzipien, die<br />

unser Verstand als evident einsehen kann, keiner weiteren Begründung<br />

und für letzere sind Beobachtungsüberzeugungen, die unsere Wahrnehmungen<br />

als wahr erweisen, keiner Rechtfertigung fähig. Gegen den Fundamentalismus<br />

sollen in diesem Kapitel einige allgemeine Einwände erhoben<br />

werden, mit denen all seine Varianten zu kämpfen haben. Seine<br />

Diskussion und Zurückweisung wird einen weiteren Schritt hin zu einer<br />

kohärentistischen Erkenntnistheorie ausmachen, denn der Fundamentalismus<br />

ist der große Konkurrent einer Kohärenzauffassung von Begründung.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 131<br />

1. Fundamentalistische versus kohärentistische Rechtfertigungsstrukturen<br />

In einem ersten Schritt sollen die beiden gegensätzlichen Ansichten über<br />

Rechtfertigungsstrukturen expliziert werden, wobei ihre Unterschiede<br />

deutlicher zu Tage treten. So konträr die beiden Rechtfertigungsstrategien<br />

in bestimmten Aspekten aber auch wirken, so hat doch Susan<br />

Haack (1982/3) Recht mit ihrer Behauptung, daß sie nur die beiden<br />

Endpunkte eines Kontinuums von Rechtfertigungskonzeptionen sind<br />

und viele Positionen eher dazwischen angesiedelt sind. Haack nennt daher<br />

ihre eigenen Theorie aus diesem Bereich „foundherentism“. Doch<br />

betrachten wir zunächst die „reinen“ Formen.<br />

a) Formaler Fundamentalismus<br />

Mit einer Unterscheidung in formalen und substantiellen Fundamentalismus<br />

schließe ich mich Williams (1991, 114ff) an. Der formale Fundamentalismus<br />

macht zunächst nur Aussagen über die allgemeine Rechtfertigungsstruktur<br />

unserer Meinungen und behauptet die Existenz von basalen<br />

Meinungen, während der substantielle Fundamentalismus außerdem<br />

hinzufügt, welche Meinungen als basal auszuzeichnen sind. Einige<br />

Probleme fundamentalistischer Erkenntnistheorien werden schon in der<br />

strukturellen Beschreibung unserer Rechtfertigungen erkennbar, also auf<br />

der Ebene eines bloß formalen Fundamentalismus, andere hingegen erst<br />

beim Übergang zu einer substantiellen Ausgestaltung. Der Kern des formalen<br />

Fundamentalismus läßt sich in den folgenden zwei Thesen zusammenfassen:<br />

Formaler Fundamentalismus<br />

FU 1<br />

Es gibt basale Überzeugungen, die nicht inferentiell durch andere<br />

Überzeugungen gerechtfertigt werden müssen, sondern anderweitig<br />

gerechtfertigt sind.<br />

FU 2<br />

Alle nicht-basalen Überzeugungen werden inferentiell gerechtfertigt<br />

unter direkter oder indirekter Bezugnahme auf basale Überzeugungen.<br />

Unter FU 2 ist meist mitgemeint, daß Rechtfertigungen gerichtet sind,<br />

d.h., daß die inferentiellen Zusammenhänge zwischen Aussagen nur in


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 132<br />

eine Richtung rechtfertigend wirken. 50 Typisch dafür ist die Auffassung<br />

der Empiristen, nach der Rechtfertigungen angefangen von Beobachtungsüberzeugungen<br />

zu allgemeineren Überzeugungen und Theorien<br />

übergehen. Epistemische Kraft besitzen in diesem Bild ursprünglich nur<br />

Beobachtungsüberzeugungen, die direkt durch Wahrnehmungen zu<br />

rechtfertigen sind. Alle anderen Überzeugungen beziehen ihre epistemische<br />

Stärke nur indirekt durch ihre Beziehungen zur Basis. Zum besseren<br />

Verständnis, was das spezielle an fundamentalistischen Rechtfertigungshierarchien<br />

ist, seien in Abgrenzung dazu zwei allgemeine Bestimmungsstücke<br />

für die formale Charakterisierung einer Kohärenztheorie<br />

angegeben:<br />

Formale Kohärenztheorie<br />

KO 1<br />

Alle Überzeugungen sind inferentiell zu rechtfertigen. Es gibt keine<br />

selbstrechtfertigenden oder anderweitig gerechtfertigten Überzeugungen.<br />

KO 2<br />

Inferentielle Beziehungen zwischen zwei Überzeugungen wirken immer<br />

in beide Richtungen rechtfertigend.<br />

Auch KO1 und KO2 können natürlich keine substantielle Kohärenztheorie<br />

vermitteln, weil sie z. B. offenlassen, wie die inferentiellen Rechtfertigungen,<br />

von denen in ihnen die Rede ist, auszusehen haben, worin also<br />

Kohärenz besteht. Sie geben nur allgemeine Merkmale der Struktur von<br />

Rechtfertigungszusammenhängen an. 51<br />

Die in FU 1 und FU 2 vorgeschlagene Charakterisierung des Fundamentalismus<br />

dürfte auf alle gewöhnlichen Formen fundamentalistischer<br />

Erkenntnistheorien zutreffen, da es sich um zwei minimale Forderungen<br />

handelt, die z. B. noch offenlassen, ob die basalen Meinungen irrtumssicher<br />

sind oder nicht. Außerdem beantworten die Formulierungen zumindest<br />

noch nicht explizit die Frage, ob der Typ von Überzeugungen, der<br />

als basale Überzeugungen in Frage kommt, für alle Rechtfertigungen immer<br />

derselbe sein muß. Diese Annahme sollte ein Fundamentalist allerdings<br />

unterschreiben. Erst sie trennt ihn von Kontextualisten vom Schla-<br />

50 „Inferentiell gerechtfertigt" bedeutet dabei, daß es gerade die inhaltlichen<br />

(etwa logisch-semantischen) Zusammenhänge zu anderen Aussagen sind,<br />

die die Rechtfertigungsleistung tragen.<br />

51 Substantielle Kohärenztheorien werden im Kapitel (IV) behandelt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 133<br />

ge eines Michael Williams, für den zwar auch jede Rechtfertigung auf<br />

bestimmte basale Überzeugungen angewiesen ist, aber welche das sind,<br />

kann für Williams mit dem Kontext der Rechtfertigung variieren. Fügen<br />

wir also diesen Punkt der festgelegten Basistypen noch explizit zur Definition<br />

des Fundamentalismus hinzu, denn gerade gegen ihn möchte ich<br />

die ersten direkten Kritiken am Fundamentalismus richten. Hinzu<br />

kommt noch, daß die Basistypen von Aussagen inhaltlich ausgezeichnet<br />

werden; die Inhalte der Überzeugungen legen fest, ob es sich um basale<br />

oder nicht-basale Überzeugungen handelt. Die basalen Meinungen sind<br />

durch intrinsische Merkmale als solche für das epistemische Subjekt erkennbar.<br />

Der Empirist wird Überzeugungen, die Beobachtungen ausdrücken,<br />

als basal einstufen, der Phänomenalist dagegen nur Überzeugungen,<br />

die ausschließlich die Qualitäten seiner Sinneswahrnehmungen<br />

wiedergeben.<br />

FU 3<br />

Die inhaltlich ausgezeichneten Typen von basalen Überzeugungen<br />

sind für alle Rechtfertigungskontexte (für alle Personen) dieselben.<br />

Erst mit FU 3 erhalten wir ein klares Bild der Rechtfertigungsstruktur im<br />

Fundamentalismus: Idealerweise handelt es sich um eine relativ starre<br />

Schichtenstruktur mit einer Basismenge von Aussagen, aus der jedes epistemische<br />

Subjekt eine Teilmenge als seine basalen Überzeugungen besitzt.<br />

Die Grundmenge ist zumindest dann ein für allemal festgelegt,<br />

wenn wir uns nur auf wahre Aussagen als basale Aussagen beziehen, was<br />

oft intendiert zu sein scheint, zumal viele historische Positionen des Fundamentalismus<br />

noch nicht einmal Irrtumsmöglichkeiten für ihre epistemische<br />

Basis zugestanden haben. Das ist ein geschickter Schachzug,<br />

denn räumt man Irrtumsmöglichkeiten für basale Überzeugungen ein,<br />

wird für jede konkrete basale Aussage p sofort die Frage nach einer Begründung<br />

laut: Warum sollte gerade p zu der Teilklasse der wahren basalen<br />

Überzeugungen gehören? Auch Popper, der Kritiker der logischen<br />

Empiristen, hat in der Logik der Forschung an der fundamentalistischen<br />

Rechtfertigungsstruktur festgehalten. Die Basis wird zwar per Entscheidung<br />

bestimmt und kann damit zu verschiedenen Zeiten eine andere<br />

sein, aber sie ist nicht selbst Gegenstand epistemischer Rechtfertigungen.<br />

Es sind nicht die inferentiellen Beziehungen zu anderen Meinungen, die<br />

sie begründen, sondern nur der Entschluß der Wissenschaftlergemeinschaft.<br />

Ein ideales Bild der Rechtfertigungsstruktur eines Überzeugungssystems<br />

X stellt sich für einen Fundamentalisten dann ungefähr so dar: In


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 134<br />

X gibt es eine Teilmenge B von basalen Aussagen, die selbst kein Ziel für<br />

inferentielle Rechtfertigungen innerhalb von X sind, und über B gibt es<br />

eine Pyramide von Überzeugungen, deren Rechtfertigungen zumindest<br />

indirekt alle auf B zurückzuführen sind. Die Teilmengen B gehören dabei<br />

für alle epistemischen Subjekte zu demselben Typ von Aussagen. Das<br />

Verfahren für den Erkenntnisgewinn, das der empiristische Fundamentalist<br />

empfehlen wird, ist dementsprechend einfach zu beschreiben:<br />

Sammle zunächst so viele basale Meinungen wie möglich und ziehe in einem<br />

zweiten Schritt daraus so viele Schlußfolgerungen auf Theorien wie<br />

möglich.<br />

Es zeigt sich jedoch schon bald, daß dieses Bild unserer Erkenntnis<br />

einige nicht unproblematische Konsequenzen besitzt. So unterstützt es<br />

z. B. eine instrumentalistische Auffassung der Wissenschaften. Sind wir<br />

von einer weitgehenden Unterbestimmtheit der Theorien durch die Basis<br />

überzeugt, so daß durch die tatsächlich ermittelten Basisaussagen immer<br />

verschiedene Theorien in gleich guter Weise begründbar sind, haben<br />

wir auch keine Gründe mehr, an die Wahrheit unserer speziellen<br />

wissenschaftlichen Theorien zu glauben, denn ihre Konkurrenten stehen<br />

erkenntnistheoretisch um keinen Deut schlechter dar. Das Argument der<br />

Unterbestimmtheit durch die Basis kennzeichnet ein sehr populäres Vorgehen<br />

von Skeptikern unterschiedlichster Herkunft; das spezielle Argument<br />

für eine antirealistische Haltung gegenüber wissenschaftlichen<br />

Theorien zieht sich z. B. durch das ganze Werk von van Fraassen (1980).<br />

Es kommt aber noch schlimmer. Akzeptieren wir das Argument einmal<br />

für unsere Theorien, so sind wir ihm auch in bezug auf alle anderen<br />

nicht-basalen Meinungen ausgeliefert. Eine entsprechende Unterbestimmtheit<br />

läßt sich immer aufzeigen und führt somit direkt zu skeptischen<br />

Positionen. Für den Kohärenztheoretiker gibt es diesen fundamentalen<br />

epistemischen Unterschied zwischen Theorien und Daten dagegen<br />

nicht. Theorien haben genauso eine wesentlich rechtfertigende Wirkung<br />

wie Beobachtungsüberzeugungen; man kann in der Erkenntnistheorie<br />

keine bedeutungsvolle Aufteilung in zwei derartige Mengen mehr vornehmen,<br />

womit jeder Argumentation in der oben genannten Weise von<br />

vornherein ein Riegel vorgeschoben wird. Neben dem idealen Bild des<br />

Fundamentalismus gibt es die tatsächlichen Ausgestaltungen zu substantiellen<br />

fundamentalistischen Positionen, die nun immerhin kurz zu Wort<br />

kommen sollen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 135<br />

b) Spielarten des Fundamentalismus<br />

Die inhaltliche Ausgestaltung des Fundamentalismus erlaubt vielfältige<br />

Varianten, auf die im einzelnen ausführlicher einzugehen nicht Ziel dieser<br />

Arbeit sein kann. Aber ein kurzer Überblick über einige Spielarten,<br />

und welche Autoren dort anzusiedeln sind, soll die Diskussion um den<br />

Fundamentalismus anschaulicher gestalten. Zudem gibt er zu erkennen,<br />

wie zahlreich die Fundamentalisten in der Erkenntnistheorie vertreten<br />

sind. Daneben dokumentiert die Aufstellung, daß der substantielle Fundamentalismus<br />

keine einheitliche Position darstellt. D.h. jede Spielart<br />

des Fundamentalismus bedarf ihrerseits spezieller Begründungen über<br />

die der hierarchischen Rechtfertigungsstruktur hinaus, in denen andere<br />

Spielarten zurückgewiesen werden müssen. Der Überblick wird die<br />

Form von zwei Tabellen annehmen, die sich auf den Artikel von Triplett<br />

(1990) stützen und gerade auch neuere Arbeiten zu diesem Gebiet nennen,<br />

deren Autoren vielleicht nicht so allgemein bekannt sind wie die<br />

der klassischen Texte. 52 In der ersten Tabelle wird eine Aufteilung danach<br />

vorgenommen, welche Eigenschaften jeweils für die basalen Meinungen<br />

in Anspruch genommen werden. In der zweiten Tabelle geht es<br />

dagegen um die Frage – über die sich schon deutlich weniger Erkenntnistheoretiker<br />

ausgelassen haben –, wie die basalen Meinungen denn die<br />

nicht-basalen begründen können. Die jeweiligen Einordnungen der Autoren<br />

in die Tabelle und ihre Zuordnungen zu verschiedenen Formen<br />

des Fundamentalismus sind natürlich nicht immer unkontrovers und<br />

manchmal auch durch die Werke der Autoren tatsächlich unterbestimmt.<br />

Für den Fortgang der Argumentationen zum Fundamentalismus sind die<br />

Details der Einordnung allerdings nicht entscheidend. Fragen alternativer<br />

Interpretationen einzelner Philosophen und ihre Klassifizierung stehen<br />

natürlich für die allgemeine Beurteilung des Fundamentalismus<br />

nicht im Vordergrund. Bei Triplett (1990) finden sich einige Hinweise<br />

auf solche Alternativen.<br />

52 Für ausführlichere Literaturangaben muß ich auf den Aufsatz vonTriplett<br />

(1990) verweisen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 136<br />

Variationen der Basis<br />

Merkmale der Basis Typische Vertreter Anderer Ansicht<br />

Basale Überzeugungen<br />

geben mentalen Zustand<br />

wieder<br />

(statt Zustand der Au-<br />

ßenwelt).<br />

Basale Überzeugungen<br />

sind unfehlbar.<br />

Die Basis muß aus<br />

Überzeugungen und<br />

nicht etwa aus Wahrnehmungszuständen<br />

bestehen.<br />

Basale Überzeugungen<br />

sind relativ auf einen<br />

Begründungskontext<br />

(Ablehnung von FU<br />

3).<br />

Descartes, früher Carnap,<br />

Ayer, Chisholm,<br />

Lewis, Mach, Moser,<br />

Russell, Schlick.<br />

Descartes, Lewis,<br />

Schlick, Chisholm.<br />

Lehrer, Pollock, Williams.<br />

Wittgenstein, Sellars,<br />

Hanson, Feyerabend,<br />

Kuhn.<br />

Foley, Kekes, Quinton,<br />

späterer Carnap,<br />

Popper.<br />

Popper, Almeder,<br />

Audi, Cornman, Goldman.<br />

Cornman, Moser.<br />

die meisten Fundamentalisten,<br />

auch<br />

wenn sie es nicht explizit<br />

erwähnen.<br />

Variationen des inferentiellen Zusammenhangs<br />

Art der inferentiellen<br />

Beziehungen<br />

Typische Vertreter<br />

Beziehungen deduktiv Descartes<br />

Induktive Zusammenhänge späterer Carnap<br />

Vermittlung durch epistemische<br />

Prinzipien<br />

Chisholm<br />

Schluß auf die beste Erklärung Cornman, Moser, Goldman<br />

Definitorische Reduktion auf Mach, Russell, früher Carnap,<br />

Sinnesdaten<br />

Ayer, Lewis, Dicker.<br />

In die erste Tabelle habe ich auch noch kontextualistische Varianten des<br />

Fundamentalismus aufgenommen, die FU 3 nicht erfüllen, da sie heute<br />

relativ viele Anhänger finden und zumindest einige wesentliche Bestimmungsstücke<br />

des Fundamentalismus teilen. Trotzdem gehört FU 3 sicherlich<br />

zu der herkömmlichen Auffassung der fundamentalistischen Erkenntnistheorie.<br />

Die beiden Tabellen können natürlich nur eine kleine


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 137<br />

und subjektiv gefärbte Auswahl der zahlreichen fundamentalistischen Variationen<br />

wiedergeben, die sich in verschiedene Richtungen ergänzen ließe.<br />

Sie vervollständigt unser Bild des Fundamentalismus über die im ersten<br />

Abschnitt genannten allgemeinen Annahmen hinaus.<br />

Das wohl wichtigste Argument, das Fundamentalisten für ihre Position<br />

beibringen können, bezieht sich nur auf die formale Struktur des<br />

Fundamentalismus, wird aber immer durch Intuitionen unterstützt, die<br />

sich eher an bestimmten substantiellen Positionen orientieren. Diesem<br />

Argument ist der nächste Abschnitt gewidmet.<br />

2. Das Regreßargument für den Fundamentalismus<br />

Natürliche Kandidaten für basale Meinungen sind Meinungen über unsere<br />

Sinneswahrnehmungen oder Wahrnehmungen innerer Zustände,<br />

denn die halten wir für relativ irrtumssicher. Außerdem können Empiristen<br />

an unsere Intuition appellieren, daß wir alle Informationen über die<br />

Welt durch unsere Sinne gewinnen, diese also als der natürliche Ausgangspunkt<br />

unserer Erkenntnis zu identifizieren sind. Ähnlich sieht es<br />

für unsere allgemeineren Annahmen oder Theorien über unsere Umwelt<br />

aus. Um sie zu entwickeln, sind wir auf Beobachtungen angewiesen.<br />

Man mag dabei an eine induktive Bestätigung von Theorien anhand experimenteller<br />

Daten oder, wie Popper, an eine Bewährung von Theorien<br />

in ernstzunehmenden Falsifikationsversuchen denken. Startpunkt aller<br />

weiteren Überlegungen sind im empiristischen Bild von Erkenntnis jedenfalls<br />

immer Beobachtungen. Doch so sehr sich dieses Bild uns auch<br />

aufdrängt, es spricht in erster Linie über die Genese unserer Meinungen,<br />

und die gibt noch nicht vor, in welchen Rechtfertigungszusammenhängen<br />

unsere Meinungen stehen. Diesen Schwachpunkt ihrer Konzeption<br />

erkennen natürlich auch einige Fundamentalisten und versuchen daher<br />

den eben geschilderten intuitiven Gedanken zu einem echten Argument<br />

für einen formalen Fundamentalismus auszubauen. Dieses Argument,<br />

das oft als erkenntnistheoretisches Regreßargument oder auch Agrippas<br />

Trilemma bezeichnet wird, bezieht sich nun nicht mehr auf die Genese<br />

von Meinungen, sondern ihre Rechtfertigungsstruktur. Wenn ich um<br />

eine Rechtfertigung meiner Behauptung, daß p, gebeten werde, kann ich<br />

auf zwei verschiedene Weisen reagieren:<br />

1. Ich kann andere Behauptungen q äußern, die p inferentiell<br />

stützen sollen.<br />

2. Ich kann mich weigern, eine Rechtfertigung in Form anderer<br />

Meinungen anzugeben.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 138<br />

Der Fundamentalist behauptet nun, daß die erste Reaktion bestenfalls<br />

eine Verschiebung des Rechtfertigungsproblems darstellt, wir aber letztlich<br />

immer auf eine Reaktion des zweiten Typs zurückgreifen müssen.<br />

Und das begründet er so: Eine x-beliebige Behauptung q zu Rechtfertigungszwecken<br />

ins Spiel zu bringen, hilft uns erkenntnistheoretisch nicht<br />

weiter. Damit q tatsächlich eine Rechtfertigung darstellt, muß q selbst<br />

wieder gerechtfertigt sein, sonst könnten wir immer auf triviale Weise<br />

eine Rechtfertigung für p finden, nämlich z. B. p&r mit beliebigem r,<br />

aus der p sogar deduktiv folgt. Also verlangt q nach weiteren begründenden<br />

Aussagen ri, diese wiederum nach anderen si usf. Wir geraten, wenn<br />

wir bei Antworten des 1. Typs bleiben, entweder in einen unendlichen<br />

Regreß von immer neuen Aussagen in einer unendlichen Kette oder einen<br />

Zirkel, wo in der Begründungskette irgendwann eine Aussage auftritt,<br />

die schon vorher in der Kette vorkommt. Beide Ketten, die ins Unendliche<br />

führende und der Zirkel, so argumentiert der Fundamentalist,<br />

bringen uns keinen Fortschritt für das Rechtfertigungsproblem.<br />

Im Falle des Zirkels sind eigentlich alle Aussagen nicht gerechtfertigt<br />

worden, weil keine durch eine bereits unabhängig begründete Aussage<br />

gestützt wird. Eine Metapher kann diesen Punkt illustrieren. So wenig<br />

sich jemand selbst an den Haaren aus dem Sumpf ziehen kann, so wenig<br />

können sich zehn Männer gegenseitig aus dem Sumpf ziehen, wenn keiner<br />

von ihnen festen Boden unter den Füßen hat. Metaphern dieser Art<br />

scheinen uns angemessen, um unser Unbehagen mit der zirkulären<br />

Rechtfertigung auszudrücken und die Vorstellung eines Rechtfertigungszirkels<br />

zurückzuweisen, aber es bleiben eben doch Metaphern. Außerdem<br />

haben sie bereits einen deutlich fundamentalistischen Beigeschmack.<br />

Im Falle des unendlichen Regresses, sind ebenfalls alle Aussagen unbegründet<br />

– so der Fundamentalist – weil wir nie wirklich zu einer bereits<br />

gerechtfertigten Überzeugung gelangen können, die ihre Rechtfertigung<br />

an andere Aussagen weitergeben könnte. Beide Konzeptionen, die<br />

der unendlichen Kette wie die des Zirkels, sind daher eindeutig intuitiv<br />

unbefriedigend. Ich möchte dem Fundamentalisten in diesem Punkt zunächst<br />

Recht geben, ohne allzu lange mit ihm über das Regreßarguments<br />

zu streiten. Im Vordergrund soll statt dessen in den nächsten Abschnitten<br />

eine Bestandsaufnahme stehen, was der Fundamentalist uns seinerseits<br />

auf das Regreßproblem anzubieten weiß.<br />

Auf den ersten Blick ist nämlich die Antwort, eine Rechtfertigung für<br />

bestimmte Meinungen durch Berufung auf andere Meinungen schlicht<br />

zu verweigern, auch nicht besonders überzeugend. Man könnte dem


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 139<br />

Fundamentalisten vorwerfen, das sei wohl der kürzest mögliche Zirkel,<br />

den er damit wählt. Der Fundamentalist verbindet im allgemeinen aber<br />

eine andere Idee mit seinen basalen Meinungen. Für ihn sind sie in irgendeiner<br />

Weise selbstrechtfertigend oder evident. 53 Jedoch auch dieser<br />

Gedanke ist nicht leicht verständlich, wenn man bedenkt, daß die basalen<br />

Meinungen der Fundamentalisten üblicherweise nicht selbstreferentiell<br />

sind, also keine Aussagen über sich selbst machen. Trotzdem sollen<br />

diese Startschwierigkeiten des Fundamentalismus noch nicht zu seiner<br />

Ablehnung führen. Doch die Idee der Selbstrechtfertigung von Aussagen<br />

wird weiterhin als möglicherweise kritischer Aspekt des Fundamentalismus<br />

im Hintergrund bleiben.<br />

Nur zwei Bedenken gegen das Regreßargument sollen noch Erwähnung<br />

finden, bevor ich den Lösungsvorschlag der Fundamentalisten eingehender<br />

untersuche. Erstens wird von begründeten Meinungen nicht<br />

verlangt, daß man eine bestimmte Rechtfertigung explizit und tatsächlich<br />

vollständig durchlaufen hat oder tatsächlich durchlaufen kann.<br />

Wenn diese Rechtfertigungen implizit vorhanden sind, also im Prinzip<br />

verfügbar sind, genügt das bereits, um von jemandem zu sagen, er sei in<br />

seiner Meinung gerechtfertigt. So jedenfalls wollte ich begründete Meinungen<br />

hier verstanden wissen (s. dazu II.C.3). Für implizite Begründungen<br />

könnte also die Existenz einer potentiell unendlichen Kette als<br />

Rechtfertigung durchaus ausreichen, schließlich geht es bei Rechtfertigungsbeziehungen<br />

nicht um einen kausalen Vorgang der Rechtfertigung,<br />

der für unendliche Ketten natürlich nicht durchlaufen werden kann,<br />

sondern um eine inferentielle Beziehung zwischen Aussagen. 54 Wenn es<br />

gelingt, die Kette anschaulich zu beschreiben, könnte das bereits als<br />

schwache Begründung für eine Aussage akzeptiert werden. Ein Beispiel<br />

mag belegen, daß dieser Gedanke nicht so abwegig ist, wie er dem Fundamentalisten<br />

zunächst erscheint.<br />

Auf einer intuitiven Ebene, die natürlich nicht den strengen Anforderungen<br />

an mathematische Beweise entspricht, können wir dafür argumentieren,<br />

daß es zu jeder geraden Zahl eine größere gerade Zahl gibt:<br />

„Zu 2 gibt es 4, zu 4 gibt es 6, zu 6 gibt es 8 usw. und ich sehe nicht,<br />

warum das irgendwo aufhören sollte.“ Eine Überlegung dieser Art ist<br />

53 Man denke hier z. B. an Chisholms (1979, 40ff) Charakterisierung von<br />

selbstrepräsentierenden Sachverhalten oder Propositionen.<br />

54 Bis heute wird der Regreß allerdings immer wieder zeitlich gedeutet. So<br />

spricht Musgrave (1993, z. B. 61) mehrfach von früheren Überzeugungen und<br />

schreibt: „Da keiner von uns immer schon gelebt hat, ist ein unendlicher Regreß<br />

unmöglich."


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 140<br />

durchaus verständlich und wirkt überdies manchmal überzeugender als<br />

ein abstrakter mathematischer Beweis, obwohl sie natürlich nicht dessen<br />

Sicherheit bieten kann. Sie kann durchaus als ein Grund für die aufgestellte<br />

Behauptung dienen. In jedem Fall scheint mir der bloße Hinweis,<br />

daß man schließlich nicht alle Zahlen tatsächlich durchlaufen kann,<br />

nicht auszureichen, um damit zu demonstrieren, daß man die Behauptung<br />

über gerade Zahlen nicht im mindesten auf diese Weise unterstützen<br />

könne. Das Beispiel soll bekunden, daß unendliche Rechtfertigungsketten<br />

keineswegs immer völlig nutzlos sein müssen. Regreßargumenten<br />

gegenüber sollten wir daher mißtrauisch bleiben. Sie sind darüber hinaus<br />

– wie wir in (V.A.2) noch sehen werden – nicht völlig voraussetzungslos<br />

und legen vielleicht sogar falsche Maßstäbe an.<br />

Diese Skepsis gegenüber Regreßvorwürfen wird zum zweiten dadurch<br />

unterstützt, daß wir ähnliche Regreßargumente an vielen Stellen<br />

vortragen können. Auch dort, wo sie dem Fundamentalisten ebensowenig<br />

lieb sind wie dem Kohärenztheoretiker. Der Fundamentalist ist wie<br />

Erkenntnistheoretiker anderer Provenienz auf die Konstatierung bestimmter<br />

inferentieller Zusammenhänge angewiesen, um nicht-basale<br />

Meinungen anhand basaler zu rechtfertigen. Wenn ich q als Rechtfertigung<br />

für p angebe, stelle ich damit die Behauptung auf, daß hier eine<br />

epistemisch relevante Beziehung vorliegt, also q die Wahrscheinlichkeit<br />

für p erhöht. Das kann man so zusammenfassen:<br />

(*) q rechtfertigt p.<br />

Auch für diese Behauptung kann man nach einer Begründung verlangen.<br />

(Das gilt sogar im Falle, daß p aus q logisch folgt, was aber nicht der Regelfall<br />

und nicht der interessanteste Fall sein dürfte, sondern man denke<br />

z. B. an p als Theorie und q sie stützendes Datum.) Eine Begründung der<br />

Behauptung (*) ist, wenn man nicht derartige Begründungen selbst als<br />

basal betrachten möchte, wiederum auf inferentielle Rechtfertigungen<br />

angewiesen, für die man erneut fragen kann, ob sie wirklich rechtfertigend<br />

sind usf. Denn da jede dieser Rechtfertigungen eine Irrtumsmöglichkeit<br />

aufweist – und das gilt bekanntlich sogar für logische Ableitungen<br />

–, können wir jedesmal zu Recht nach einer Begründung dafür verlangen,<br />

daß sie tatsächlich zuverlässige Wahrheitsindikatoren darstellen.<br />

Außerdem lassen sich neben solchen Regreßbeispielen, mit denen<br />

wohl alle realistischen Rechtfertigungstheorien zu kämpfen haben, auch<br />

speziell auf den Fundamentalisten zugeschnittene Regreßargumente entwickeln.<br />

So hält er bestimmte Aussagen für basal und stützt sich in<br />

Rechtfertigungen auf sie. Dazu muß er sich für bestimmte Aussagen dar-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 141<br />

auf berufen, daß gerade sie basal sind. Er hat also etwa die Behauptung<br />

zu vertreten:<br />

(**) p ist basal.<br />

Nun können wir ihn danach fragen, wie er die Behauptung (**) zu begründen<br />

gedenkt. Im Falle von (*) hatte er zumindest noch die theoretische<br />

Möglichkeit, einfach (*) selbst wieder für basal zu erklären, wenn<br />

das auch nicht unbedingt eine realistische und plausible Erkenntnistheorie<br />

ergeben wird. Denn während wir vielleicht bei einfachen Beobachtungsaussagen<br />

eine gewisse Bereitschaft verspüren zu akzeptieren, daß<br />

man sie nicht unter Berufungen auf andere Meinungen weiter rechtfertigen<br />

muß, wird das für höherstufige Fragen danach, wie er sich der rechtfertigenden<br />

Wirkung bestimmter Argumente versichern kann, nicht<br />

mehr so natürlich erscheinen. Im Falle von (**) scheint dieses Vorgehen<br />

dagegen kaum weiter zu helfen, gerät man doch auch auf diesem Weg<br />

direkt in einen neuen Regreß, da es nun darum geht:<br />

(***) „p ist basal“ ist basal.<br />

zu rechtfertigen usw. Diesem Regreß oder Zirkel kann er aber auch auf<br />

andere Weise nicht ausweichen, denn als überzeugter Fundamentalist<br />

muß er sich in der Begründung für (**) letztlich auf basale Meinungen<br />

beziehen, für die wir wieder fragen können, wie er sicher sein kann, daß<br />

es sich dabei um basale Meinungen handelt etc.<br />

Eine solche Inflation von Regressen scheint mir die Bedeutung, die<br />

wir einzelnen Regressen beilegen sollten, zu mindern. Vielleicht genügt<br />

doch die implizit vorhandene Möglichkeit des epistemischen Subjekts,<br />

im Prinzip auf jede neue Frage nach einer Begründung eine Antwort geben<br />

zu können – auch wenn sich die Kette ins Unendliche erstrecken<br />

mag. Jedenfalls könnte ein Anti-Fundamentalist dem Fundamentalisten<br />

erwidern, daß er zwar einen bestimmten Regreß aufweist, mit dem der<br />

Fundamentalist nicht zu kämpfen hat, daß aber dieser dafür mit anderen<br />

zu kämpfen hat, die auch nicht leichter aufzulösen sind. Der Fundamentalist<br />

steht in diesem Punkt jedenfalls nicht besser da als sein Gegenspieler.<br />

Schauen wir nun noch, ob der Fundamentalist mit seiner Einführung<br />

von basalen Meinungen nicht obendrein in neue Schwierigkeiten gerät.<br />

3. Natürliche epistemische Arten und Hintergrundwissen<br />

Die Bedingung FU 3 besagte, daß Aussagen allein nach allgemeinen inhaltlichen<br />

Merkmalen einen intrinsischen epistemischen Status erlangen;


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 142<br />

also etwa danach, ob sie von unseren Sinneswahrnehmungen oder äußeren<br />

Objekten bestimmter Größe handeln. Wenn ich eine Überzeugung<br />

über eine Sinneswahrnehmung habe, so ist sie für einen Empiristen per<br />

se vertrauenswürdig. Williams (1991, 116ff) spricht davon, daß die<br />

Überzeugungen in natürliche epistemische Arten aufgeteilt werden, die<br />

eine Form von epistemischer Hierarchie bilden. Diese Konzeption einer<br />

für alle Kontexte festgelegten hierarchischen Schichtung von Rechtfertigungszusammenhängen<br />

entspricht jedoch nicht unserem üblichen Vorgehen.<br />

Schon Wittgenstein hat in Über Gewißheit 55 darauf aufmerksam gemacht,<br />

daß die Frage, welche Aussagen wir rechtfertigen und auf welche<br />

wir uns dabei stützen, vom jeweiligen Kontext abhängig ist. Der Historiker<br />

diskutiert nicht die Frage, ob das Universum älter als 100 Jahre ist,<br />

sondern setzt diesen Punkt selbstverständlich voraus, und wir würden<br />

ihn auch nicht für einen besonders gründlichen Historiker halten, wenn<br />

er in seinen Werken zu Beginn immer erst dafür plädieren würde. Argumente<br />

in dieser Richtung würden wir eher von einem Geologen oder Erkenntnistheoretiker<br />

erwarten. Wir legen zwar jeder Rechtfertigung bestimmte<br />

Aussagen zugrunde, aber es können Aussagen ganz unterschiedlichen<br />

Typs sein. Es muß sich dabei keineswegs um Beobachtungsüberzeugungen<br />

handeln.<br />

Gibt es denn nicht wenigstens eine Klasse von Aussagen, die man in<br />

allen Begründungen guten Gewissens als grundlegend ansehen darf? Der<br />

Empirist wird behaupten, das müßten doch die Wahrnehmungsaussagen<br />

sein, denn wenn wir an ihnen zweifeln, wie sollen wir dann überhaupt<br />

empirisches Wissen erwerben können? 56 Tatsächlich haben wir eine Neigung,<br />

unseren Beobachtungen zu vertrauen und ziehen sie gerne zu<br />

Rechtfertigungen heran, aber es gibt genauso Kontexte, in denen sie<br />

selbst begründungspflichtig werden. Der Staatsanwalt beruft sich etwa<br />

auf die Beobachtungen eines Augenzeugen, um den Angeklagten zu<br />

überführen. Der Verteidiger zieht dagegen die Aussagen in Zweifel und<br />

verlangt nach einer Begründung, daß diese Wahrnehmungen keinen Irrtum<br />

darstellen. 57 Auch wenn wir Beobachtungen nicht generell in Zweifel<br />

ziehen – was wohl aus praktischen Gründen nahezu unmöglich erscheint<br />

–, tun wir es mit guten Gründen doch in einigen Fällen; vor allem<br />

dann, wenn viel von der Wahrheit einer Beobachtungsaussage ab-<br />

55 Dazu gehören etwa die Paragraphen 163, 167, 234f u.a.<br />

56 Der Empirist muß immer wieder als Paradebeispiel für einen Fundamentalisten<br />

herhalten, weil seine Position zumindest in vorsichtigen Formulierungen<br />

als der plausibelste Kandidat dieser Richtung auftritt.<br />

57 Das wird in Kapitel IV.B erläutert.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 143<br />

hängt. In diesen Fällen bezweifeln wir Beobachtungen z. B. unter Bezugnahme<br />

auf Theorien über die Wahrnehmungsfähigkeiten von Menschen.<br />

Jedenfalls bekunden diese Beispiele keine festgelegte Hierarchie von<br />

Rechtfertigungen, nach der am Anfang einer Rechtfertigungskette immer<br />

Beobachtungen stehen müssen, die selbst keiner Rechtfertigung bedürfen.<br />

Es gehört vielmehr zu unseren Überzeugungen über Wahrnehmung,<br />

daß wir in manchen Fällen relativ zuverlässige Beobachter sind, aber in<br />

anderen Fällen unseren Sinnen nicht unbedingt vertrauen können. Für<br />

jede Beobachtungsaussage gibt es ein Irrtumsrisiko (s. III.B.5), und wir<br />

finden Beobachtungsaussagen auf jeder Ebene von epistemischer Sicherheit<br />

bzw. Unsicherheit. Wie für andere Meinungen auch, können wir für<br />

jede einzelne Beobachtungsaussage fragen, ob sie wahr und außerdem<br />

gut begründet ist oder nicht. Wir haben keinen Grund, Beobachtungsüberzeugungen<br />

gesondert zu behandeln und von jeder Begründungsverpflichtung<br />

zu befreien. Besonders unplausibel ist die Annahme, es seien<br />

intrinsische Merkmale einer derartigen Meinung, die sie als besonders<br />

geeignet – also etwa besonders irrtumssicher – ausweisen würden. Eine<br />

Überzeugung wie „Vor mir steht mein Bruder“ oder „Vor mir steht eine<br />

Handtasche“ kann in vielen normalen Situationen als ganz sicher und<br />

angemessene Grundlage weiterer Schlußfolgerungen dienen, aber sie<br />

wird unter anderen Umständen unsicher und begründungsbedürftig. Das<br />

hängt vor allem von der Situation und unserem Hintergrundwissen ab.<br />

Halluziniere ich des öfteren, oder könnte vielleicht eine lebensgroße<br />

Photographie meines Bruders vor mir stehen, von denen es viele gibt,<br />

oder werden Androiden nach dem Vorbild meines Bruders gebaut oder<br />

fällt mir auch nur ein, daß ich eigentlich keinen Bruder habe, obwohl<br />

ich ihn mir immer so gewünscht habe, steht die zunächst unproblematisch<br />

erscheinende Überzeugung schon in einem ganz anderen Licht dar.<br />

Die zweite Überzeugung wäre zu überdenken, wenn ich mich wieder in<br />

der Wohnung der Künstlerin Dorothy Levine aufhielte. Der Externalist<br />

könnte an dieser Stelle entgegnen, daß wir um diese Bedingungen nicht<br />

Bescheid wissen müssen, um in unseren Wahrnehmungsüberzeugungen<br />

gerechtfertigt zu sein, es genügt dafür, daß sie vorliegen. Doch diesen<br />

Schachzug hat schon das Kapitel (III.A) widerlegt. Wir sind deshalb gezwungen,<br />

unser Hintergrundwissen zur epistemischen Beurteilung von<br />

Wahrnehmungsüberzeugungen zu Rate zu ziehen. Die angeblich basalen<br />

Meinungen sind nicht wirklich selbstrechtfertigend, sondern in ihrem<br />

epistemischen Status von unserem übrigen Wissenshintergrund abhängig.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 144<br />

Sie haben keinen intrinsischen epistemischen Status wie FU 3 nahelegt.<br />

In bestimmten Fällen sind Beobachtungsaussagen sicherer als andere,<br />

aber in anderen Situationen gibt uns unser Hintergrundwissen gute<br />

Gründe, allgemeinere Überzeugungen wie, daß die Sonne jeden Tag wieder<br />

aufgehen wird, als verläßlicher anzunehmen. In einer ähnlichen<br />

Richtung hat BonJour sein allgemeines Argument gegen den Fundamentalismus<br />

entwickelt, in dem er danach fragt, wieso wir eigentlich von bestimmten<br />

basalen Meinungen annehmen, sie seien gute Wahrheitsindikatoren.<br />

4. Der Einwand des Kriteriums<br />

Der letzte Abschnitt erklärte, wieso die üblichen Beispiele für basale<br />

Meinungen nicht durch intrinsische Eigenschaften erkenntnistheoretisch<br />

ausgezeichnet sind. Wenn wir wissen wollen, ob wir einen unsicheren<br />

Kandidaten oder einen nicht irrtumsgefährdeten Fall vor uns haben,<br />

sind wir daher auf zusätzliche Informationen aus unserem Hintergrundwissen<br />

angewiesen. BonJour (1985, 30ff) stellt ein noch grundsätzlicheres<br />

Argument gegen den Fundamentalismus vor, das sogar vor der Frage,<br />

welchen Einfluß zusätzliche Informationen auf den Status basaler Überzeugungen<br />

haben, ansetzt. 58 Sein Ausgangspunkt ist die Überlegung,<br />

über welche Informationen ein Fundamentalist denn zumindest verfügen<br />

muß, damit er behaupten kann, eine vertretbare Antwort auf das Regreßproblem<br />

zu geben. Als Internalisten sind wir als erstes darauf angewiesen,<br />

daß wir die basalen Meinungen als solche auch erkennen. Sie<br />

müssen sich durch ein uns kognitiv zugängliches Merkmal M von nichtbasalen<br />

Meinungen unterscheiden, das sie zu basalen Meinungen macht.<br />

Damit der Fundamentalist über eine einsichtige Form von Rechtfertigung<br />

verfügt, sollte das kein beliebiges Merkmal sein, wie z. B., daß der<br />

erste Buchstabe des zweiten Wortes ein B sei, sondern es muß sich dabei<br />

um ein erkenntnistheoretisch bedeutsames Merkmal handeln. D.h. die<br />

Eigenschaft M zu haben muß die Wahrscheinlichkeit einer Meinung,<br />

wahr zu sein, erhöhen. Weiterhin kann M für einen Internalisten nur<br />

dann epistemisch relevant sein, wenn dieser Charakter von M als Wahrheitsindikator<br />

dem epistemischen Subjekt auch bekannt ist. M könnte<br />

z. B. die Eigenschaft sein, direkt unsere Sinnesdaten wiederzugeben, und<br />

als Phänomenalisten könnten wir M als einen Wahrheitsindikator be-<br />

58 Ein Argument ähnlicher Form steht auch bei Chisholm (1979, 47f), das<br />

dieser dem Skeptiker zuschreibt und auf das er auch keine überzeugende Antwort<br />

weiß.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 145<br />

trachten, weil wir glauben, daß zwar für unsere Überzeugungen über äußere<br />

Gegenstände Irrtumsmöglichkeiten bestehen, aber nicht für unsere<br />

Ansichten über unsere direkt gegebenen Wahrnehmungsinhalte.<br />

Die dann entstandene Situation läßt sich aber nur noch so beschreiben:<br />

Die in Frage stehende Überzeugung ist nicht mehr basal im Sinne<br />

von FU 1. Sie ist nicht selbstrechtfertigend, sondern ihre Rechtfertigung<br />

als „basale“ Meinung hängt von anderen Überzeugungen ab wie der, daß<br />

sie die Eigenschaft M aufweist und daß M ein Wahrheitsindikator ist.<br />

Wir können die Rechtfertigung für eine derartige Meinung p somit in einem<br />

einfachen Schema wiedergeben:<br />

(1) Die Meinung p hat die Eigenschaft M.<br />

(2) Meinungen, die die Eigenschaft M haben, sind<br />

wahrscheinlich wahr.<br />

Also: Die Meinung p ist wahrscheinlich wahr.<br />

Das ist eine inferentielle Begründung für p, ohne die ein Internalist p als<br />

unbegründet ansehen sollte. Für empirische Behauptungen p sind die<br />

Behauptungen (1) und (2) außerdem nicht beide von rein apriorischem<br />

Charakter, was für die meisten Beispiele klar ersichtlich ist und einem<br />

Empiristen allemal begreiflich sein sollte. Für den Common-Sense Empiristen<br />

sollten etwa skeptische Hypothesen ausreichen, um ihm zu verdeutlichen,<br />

daß das Merkmal Aussage über einen Gegenstand mittlerer<br />

Größe zu sein, nur in bestimmten möglichen Welten ein Wahrheitsindikator<br />

ist und daher jedenfalls die Behauptung (2) empirischen Gehalt besitzt.<br />

Die als Kandidat für eine basale Meinung gestartete Überzeugung p<br />

erweist sich somit als nicht-basal.<br />

Dieses Argument, das BonJour (1985, 32) noch in einer ausführlicheren<br />

semiformalen Gestalt präsentiert, zeigt, daß wir nicht zugleich<br />

Fundamentalisten sein und ebenfalls die Gebote des Internalismus für<br />

epistemisch relevante und irrelevante Merkmale einhalten können. In<br />

dem Moment, in dem wir die internalistischen Forderungen und unsere<br />

Explikation von epistemischen Rechtfertigungen als Wahrheitsindikatoren<br />

ernst nehmen, sind wir auf inferentielle Begründungen für all unsere<br />

Meinungen zwingend angewiesen, wenn wir sie überhaupt als begründet<br />

betrachten wollen.<br />

5. Substantieller Fundamentalismus<br />

In diesem Abschnitt sollen nun einige substantielle Ausgestaltungen des<br />

Fundamentalismus ausführlicher zu Wort kommen, die in der empiristi-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 146<br />

schen Tradition angesiedelt sind und auch mir früher in der einen oder<br />

anderen Variante attraktiv erschienen. Es läßt sich in solchen Beispielen<br />

konkreter vorführen, an welchen Stellen die Theorien auf unplausible<br />

Annahmen angewiesen sind. Als erstes stoßen wir auf die Sinnesdatentheorien,<br />

die unter anderem Namen schon von den britischen Empiristen<br />

vertreten wurden. Sie nahmen in neuerer Zeit mit dem „linguistic<br />

turn“ der analytischen Philosophie die Wende zu einer sprachphilosophischen<br />

Theorie: dem Phänomenalismus.<br />

a) Sinnesdaten und der Phänomenalismus<br />

Fundamentalistische Ansätze, die unserer Erkenntnis Beobachtungssätze<br />

wie<br />

(1) Vor mir steht eine Handtasche.<br />

zugrunde legen wollen, haben sofort mit dem Problem zu kämpfen, daß<br />

man sich bei solchen Beobachtungen irren kann. Wir können immer<br />

sinnvoll fragen: Wieso glaubst Du, daß Du Dich gerade in diesem Fall<br />

nicht irrst? Antworten wir darauf in Form einer Rechtfertigung, sind wir<br />

auf zusätzliche Informationen angewiesen, ob es sich jeweils um eine irrtumsträchtige<br />

Wahrnehmungssituation handelt oder nicht. Vor diesem<br />

Hintergrund konnten wir Beobachtungsüberzeugungen vom Typ (1)<br />

nicht mehr als „basal“ einstufen. Um diesem Problem zu entgehen, versuchen<br />

Fundamentalisten Meinungen als basal auszuweisen, die schon<br />

eher als selbstrechtfertigend und irrtumssicher gelten können. Dementsprechend<br />

wählt Chisholm (1979, 41) seine Formel für das Evidente:<br />

„Was mich zu denken berechtigt, daß a F ist, ist einfach die Tatsache, daß<br />

a F ist.“ Dabei hat für Chisholm „unser Mensch seine Rechtfertigung einer<br />

Proposition einfach durch die Reiteration der Proposition gegeben“.<br />

Dieses Verfahren der Rechtfertigung ist natürlich nicht für alle Meinungen<br />

sinnvoll, sondern nur für solche, die selbstrepräsentierend sind. Das<br />

sind Meinungen, die wenn sie wahr sind, notwendigerweise dem epistemischen<br />

Subjekt auch evident sind (Chisholm 1979, 43). Das wohl<br />

prominenteste Beispiel einer solchen Meinung ist „Ich denke“, denn<br />

wenn ich denke, ist mir das nach Descartes und Chisholm notwendigerweise<br />

auch unmittelbar evident. Doch letzteres Beispiel gibt noch keine<br />

sehr gehaltvolle Basis für weitere Annahmen ab – jedenfalls wenn ich davon<br />

ausgehe, daß wir dem Cartesischen Weg, über einen Gottesbeweis<br />

weiterzukommen, nicht mehr folgen wollen. Deshalb haben Empiristen<br />

versucht, eine gehaltvollere Beobachtungsbasis zu finden. Einen Ausweg<br />

aus dem Problem des Satzes (1) scheint der Rückzug auf die subjektiven


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 147<br />

Elemente der Beobachtung zu bieten. Statt die „riskante“ Behauptung<br />

(1) zu wagen, zieht sich der Sinnesdatentheoretiker etwa auf eine Behauptung<br />

vom Typ:<br />

(2) Ich habe eine handtaschenartige Sinneswahrnehmung.<br />

oder besser:<br />

(2’)Ich habe eine Wahrnehmung, als ob eine Handtasche vor mir<br />

steht.<br />

zurück. (2) und (2’) sind nur als Aussagen über unsere subjektiven Sinneseindrücke<br />

gemeint und stellen keine Behauptungen über äußere Gegenstände<br />

mehr auf. Die gewöhnlichen Irrtumsmöglichkeiten entfallen<br />

damit; aber auch der gewöhnliche Gewinn, den wir uns von unseren basalen<br />

Aussagen erhoffen, nämlich daß sie uns Informationen über die<br />

Außenwelt vermitteln. Es tritt nun die Frage stärker in den Vordergrund,<br />

wie man mit Sätzen vom Typ (2) überhaupt Überzeugungen vom Typ (1)<br />

und schließlich die darauf aufbauenden wissenschaftlichen Theorien begründen<br />

kann. Erkenntnistheoretiker verschiedener Couleur haben Vorschläge<br />

unterbreitet, die den Zusammenhang zwischen Sätzen vom Typ<br />

(1) und solchen vom Typ (2) erklären sollen. Dazu haben sie die Terminologie<br />

vom „Sinnesdatum“ eingeführt. Was unter „Sinnesdatum“ verstanden<br />

werden soll, variiert von Autor zu Autor und wird auch nicht<br />

immer deutlich ausgesprochen. Sinnesdaten sind in den meisten Fällen<br />

ungefähr zu beschreiben als der subjektive Wahrnehmungsinhalt, den<br />

wir bei einer Beobachtung haben und werden in etwa durch Sätze vom<br />

Typ (2) oder in anderen Fällen durch Sätze wie<br />

(3) Hier ist jetzt rot.<br />

zum Ausdruck gebracht; manchmal spricht man auch vom unmittelbar<br />

Gegebenen in der Wahrnehmung. Gerade von den letzten Sätzen erhoffte<br />

man sich eine besonders hohe Irrtumsresistenz.<br />

Z. B. Schlicks „Konstatierungen“ lassen sich am ehesten durch Sätze<br />

des Typs (3) beschreiben, die mit ihren indexikalischen Ausdrücken unsere<br />

Wahrnehmungsinhalte am besten wiedergeben (Schlick 1934, 92ff).<br />

Doch Schlick weist darauf hin, daß seine Konstatierungen sich eigentlich<br />

nicht in objektivierte Beschreibungen übersetzen lassen, da der hinweisende<br />

Gehalt von Konstatierungen, der eher durch eine entsprechende<br />

Geste zum Zeitpunkt der Konstatierung zum Ausdruck gebracht würde,<br />

dabei nicht erfaßt werden kann.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 148<br />

Wenn ich die Konstatierung mache: „Hier ist jetzt blau“, so ist sie<br />

nicht dasselbe wie der Protokollsatz: „M.S. nahm am soundsovielten<br />

April 1934 zu der und der Zeit an dem und dem Orte blau wahr“,<br />

sondern der letzte Satz ist eine Hypothese und als solcher stets mit<br />

Unsicherheit behaftet. (Schlick 1934, 97)<br />

Allerdings hat Schlick hier nur die üblichen Protokollsätze der logischen<br />

Empiristen im Auge, die für seine Zwecke tatsächlich ungeeignet sind.<br />

Die Schlickschen Konstatierungen lassen sich wohl eher als indexikalische<br />

Aussagen des Typs (3) interpretiert im Rahmen ihres jeweiligen<br />

pragmatischen Kontextes darstellen. Einen moderneren Vorschlag in dieser<br />

Richtung, der dadurch noch nicht angemessen erfaßt wird, weil er<br />

sich nicht auf Objekte mit wesentlich semantischem Gehalt stützt, stellt<br />

Mosers Fundamentalismus dar, den wir im nächsten Abschnitt kennenlernen<br />

werden.<br />

Den Ausdruck „Sinnesdaten“ haben Moore und Russell im Englischen<br />

(„sense data“) eingeführt, aber mit Locke, Berkeley, Hume und<br />

Mill finden sich bereits frühere Sinnesdatenvertreter, die von „ideas“<br />

oder „impressions“ sprechen. Sinnesdaten haben für repräsentative Realisten<br />

wie John Locke vor allem die Aufgabe, zwischen dem äußeren Objekt<br />

und dem epistemischem Subjekt zu vermitteln. Sie repräsentieren das<br />

Objekt in der Wahrnehmung. Demgegenüber streichen Idealisten wie<br />

Berkeley oder Mill gleich das Objekt und identifizieren es schlicht mit<br />

Komplexen von Sinnesdaten. Dazu hat Mill neben den tatsächlich wahrgenommenen<br />

sogar noch mögliche Sinnesdaten eingeführt, die niemand<br />

mehr tatsächlich empfunden haben muß. 59<br />

Phänomenalisten aus der analytischen Tradition wie z. B. Carnap<br />

und Ayer haben diese Überlegung im Sinn des „linguistic turn“ weitergeführt<br />

und eine einfache Theorie über den Zusammenhang zwischen Sätzen<br />

vom Typ (1) und solchen vom Typ (2) entwickelt. Für sie sind Aussagen<br />

über Gegenstände der Außenwelt in solche über Sinnesdaten übersetzbar.<br />

Wären Sinnesdaten die uns zugänglichen und irrtumssicheren<br />

Bestandteile unserer Sinneswahrnehmungen und alle anderen Sätze<br />

schließlich in Sinnesdatenaussagen übersetzbar, könnte das auf eine ideale<br />

fundamentalistische Position hinauslaufen. Von einer infalliblen Basis<br />

aus ließen sich alle wahren Aussagen mit rein analytischen Schlüssen ableiten,<br />

wobei sowohl die Sinnesdaten wie auch die analytischen Schlüsse<br />

nebenbei noch die Anforderungen des Internalismus erfüllen könnten.<br />

59 Für einen Überblick über die Geschichte der Sinnesdaten in der Wahrnehmungstheorie<br />

s. Schantz (1991).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 149<br />

Das ist natürlich viel zu schön um wahr zu sein. Schwierigkeiten<br />

stellten sich denn auch sogleich ein. Eine Dingaussage wie „Vor mir steht<br />

ein Würfel“ läßt sehr viele, potentiell sogar unendlich viele, verschiedene<br />

Hinsichten zu, aus denen der Würfel betrachtet werden kann, für<br />

die sich entsprechende quader- oder würfelförmige Ansichten eventuell<br />

mit verschiedenen Farben ergeben. Eine konkrete Dingaussage der angegebenen<br />

Art impliziert daher eine entsprechende Vielzahl von Sinnesdatenaussagen<br />

(s. dazu Stegmüller 1958). 60 Tatsächlich kann jeder Mensch<br />

zu einem Zeitpunkt aber immer nur eine solche Hinsicht einnehmen<br />

und damit ihrer sicher sein. Kognitiv zugänglich wird uns deshalb für<br />

Dingaussagen nie ihre gesamte Sinnesdatenbasis sein, sondern immer<br />

nur ein sehr kleiner Ausschnitt daraus. Das Bild eines infalliblen Fundamentalismus<br />

läßt sich dann nicht mehr aufrechterhalten, weil der analytische<br />

Zusammenhang zwischen den wenigen tatsächlich verfügbaren<br />

Daten und unseren Behauptungen vom Typ (1) verlorengeht. Das Problem<br />

wird noch dadurch verschärft, daß Dingaussagen auch Implikationen<br />

für Situationen haben, in denen wir das betreffende Ding für kurze<br />

Zeit überhaupt nicht betrachten und auch über keine anderen Sinnesdaten<br />

von ihm verfügen. 61 Von normalen Gegenständen wissen wir, daß sie<br />

gewisse Kontiniutäten aufweisen und können deshalb von einer Dingaussage<br />

Schlüsse auf nichtbeobachtete Dinge ziehen, während Sinnesdaten<br />

an unsere momentane Wahrnehmung gebunden bleiben.<br />

Trotzdem könnte der Phänomenalist weiter an seiner Übersetzungsthese<br />

festhalten, wenn er die nicht wahrgenommenen aber möglichen<br />

Hinsichten als mögliche Sinnesdaten mit aufnimmt, wie es Mill getan<br />

hat. Aber auch wenn die möglichen Sinnesdaten für die Übersetzungsthese<br />

interessant bleiben, für die erkenntnistheoretischen Überlegungen<br />

eines Internalisten müssen sie außen vor bleiben, weil sie uns nicht tatsächlich<br />

kognitiv verfügbar sind. Sie leisten daher nichts für die Begründung<br />

meiner Meinungen. Der Phänomenalist könnte sich dann nur auf<br />

die Position zurückziehen, daß die Übersetzungsthese den Zusammenhang<br />

zwischen Dingaussagen und Sinnesdaten vermittelt und die wenigen<br />

uns zugänglichen Sinnesdaten eben gerade unsere epistemische Basis<br />

für unseren Schluß auf bestimmte äußere Gegenstände bilden, auch<br />

wenn dieser Schluß kein analytischer mehr sein kann.<br />

60 Nicht nur über visuelle Empfindungen, sondern ebenso über Empfindungen<br />

der anderen Sinne.<br />

61 Ayer war sich in (1984, 118ff) dieser Probleme durchaus bewußt und<br />

glaubte in seinen späteren Jahren nicht mehr an eine vollständige Reduktion von<br />

Ding-Aussagen auf Sinnesdaten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 150<br />

Doch ob die Übersetzungsthese die ihr damit zugewiesene Aufgabe<br />

tatsächlich übernehmen kann, bleibt mehr als ungewiß. Auf welche<br />

Schwierigkeiten der ernsthafte Versuch stößt, das Reduktionsvorhaben<br />

in umfassender Weise tatsächlich auszuführen, zeigt z. B. Carnaps Logischer<br />

Aufbau der Welt. Insbesondere in größerer Entfernung von der Basis<br />

werden die reduzierenden Definitionen immer schwieriger. Einige<br />

der entstehenden Lücken sind von Goodman (1951) angegeben worden<br />

und andere von Carnap selbst. Auch dieses Standbein der phänomenalistischen<br />

Fundamentalisten, die Reduktion aller nicht-basalen Dingaussagen<br />

auf die Sinnesdatenüberzeugungen, die uns tatsächlich epistemisch<br />

zugänglich sind, muß daher als gescheitert angesehen werden. 62<br />

Wenn mir diese Pietätlosigkeit einmal erlaubt sei: Ein Gelingen dieses<br />

inzwischen verstorbenen Projekts scheint mir erkenntnistheoretisch<br />

nicht einmal besonders wünschenswert zu sein. Auch wenn es den Phänomenalisten<br />

vielleicht selbst nicht immer ganz klar war, weil sie ontologische<br />

Fragen meist als rein sprachliche Fragen verstanden wissen wollten,<br />

legt ihr Übersetzungsvorhaben den Grundstein für eine idealistische<br />

Theorie, die auf physische Gegenstände zugunsten der Sinnesdaten ganz<br />

zu verzichten gedenkt. Franz von Kutschera (1982, 223) subsumiert daher<br />

in seiner Erkenntnistheorie die Phänomenalisten unter die neueren<br />

Idealisten. Ein realistisch gesonnener Philosoph wird das phänomenalistische<br />

Reduktionsprogramm deshalb immer mit großer Skepsis verfolgen.<br />

Ein Realist bezüglich der Außenwelt wird auf Sinnesdaten sowieso<br />

nur dann zurückgreifen, wenn seine besten empirischen Theorien unserer<br />

Wahrnehmung Sinnesdaten für einen wesentlichen Bestandteil in unserem<br />

Wahrnehmungsvorgang ansehen. Dann sind sie aber in einem<br />

theoretischen Rahmen innerhalb seiner Vorstellung der Welt und unserer<br />

Stellung in ihr angesiedelt und nicht etwa Fundamente, auf die wir<br />

uns vor jeder empirischen Theorienbildung verlassen können.<br />

Man kann den Phänomenalismus auch als einen Versuch betrachten,<br />

sich dem Skeptiker entgegenzustellen. Wenn der uns den subjektiven Anteil<br />

an der Wahrnehmung als infallibel erkennbar zugesteht, lassen sich<br />

auf dieser Grundlage alle anderen Aussagen als komplizierte Sinnesdatenaussagen<br />

logisch ableiten, so daß keine epistemische Kluft mehr entsteht,<br />

wo der Skeptiker einhaken könnte. Daß die subjektiven Wahrnehmungsinhalte<br />

uns zunächst in unproblematischer Weise zugänglich sind,<br />

und wir uns nur fragen müssen, wie wir von dort zu Erkenntnissen über<br />

die Außenwelt gelangen, ist tatsächlich eine Standardsituation für viele<br />

62 Allerdings ist Carnaps Ziel im Aufbau nicht primär ein erkenntnistheoretisches,<br />

obwohl er meist so gelesen wird (s. Bartelborth 1995).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 151<br />

skeptische Fragestellungen. Das Gehirn in der Nährflüssigkeit eines bösen<br />

Wissenschaftlers ist sich seiner Wahrnehmungen durchaus in zuverlässiger<br />

Weise bewußt, aber alle Schlüsse, die es daraus auf eine entsprechende<br />

Außenwelt zieht, sind leider falsch. Nicht so für den Phänomenalisten.<br />

Der könnte nämlich entgegnen, daß diese Darstellung inkonsistent<br />

ist, weil Aussagen über Gegenstände einer Außenwelt bedeutungsgleich<br />

zu Aussagen über Sinnesdaten sind. Das Gehirn im Topf macht also<br />

immer nur Aussagen über Sinnesdaten, und daß es sich dabei nicht<br />

irrt, war uns vom Skeptiker für diesen Fall zugestanden worden. Doch<br />

diese Wendung des Phänomenalisten, der aus seiner Not, das Verhältnis<br />

von Aussagen des Typs (1) zu denen des Typs (2) zu klären, eine Tugend<br />

macht, indem er sie als identisch einstuft, verzichtet darauf, Erkenntnisse<br />

über eine physische Welt in einem objektiven Sinn anzustreben. Sie<br />

kommt deshalb dem Skeptiker bereits in wesentlichen Punkten entgegen.<br />

Selbst ein Gelingen des phänomenalistischen Programms ist aus<br />

erkenntnistheoretischer Sicht, als Antwort auf den Skeptiker, daher<br />

nicht befriedigend.<br />

Interessanter wirkt da schon der Rückgriff auf die älteren Repräsentationstheorien<br />

der Erkenntnis kombiniert mit dem Schluß auf die beste<br />

Erklärung. Wenn wir in Sinnesdaten eine sichere Basis finden, können<br />

wir auf physische Objekte als die besten Erklärungen für das Auftreten<br />

dieser Sinnesdaten schließen. Ein solcher Verzicht auf eine analytische<br />

Herleitung von nicht-basalen Überzeugungen aus der Basis wäre eher im<br />

Sinne einer realistischen Auffassung des Fundamentalismus. Doch auch<br />

in dieser Version der Sinnesdatentheorie stoßen wir schnell auf neue<br />

Probleme. Die ersten betreffen den Schluß auf die beste Erklärung. Was<br />

eine bessere Erklärung ist, ist immer vor unserem jeweiligen Hintergrundwissen<br />

zu beurteilen (s. dazu VI.B.4). Wieso sollten vor dem alleinigen<br />

Hintergrund von Sinnesdaten, die wir zu Beginn gesammelt haben,<br />

physische Dingtheorien eine bessere Erklärung für die Sinnesdaten<br />

anbieten als etwa skeptische Hypothesen, nach denen die Sinnesdaten<br />

uns von einem bösen Dämon oder Wissenschaftler eingegeben werden?<br />

Bei unserem gewöhnlichen Hintergrundwissen erscheinen sie uns als die<br />

natürlichsten Erklärungen, aber welche Anhaltspunkte finden sich dafür<br />

in einem reinen Sinnesdatenwissenshintergrund? Es dürfte unmöglich<br />

sein, die Abduktion im Rahmen dieser Theorie sinnvoll zum Einsatz zu<br />

bringen. 63<br />

63 Siehe dazu auch die Diskussion um Mosers Fundamentalismus im nächsten<br />

Abschnitt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 152<br />

Ein anderes Problem betrifft die Basis dieses Fundamentalismus. Sie<br />

erschien uns deshalb so sympathisch, weil sie infallibel sein sollte und<br />

auf diese Weise einigen Problemen anderer fundamentalistischer Theorien<br />

entgehen konnte. 64 Dieser Annahme bin ich bisher einfach gefolgt,<br />

ohne damit allerdings ihre Wahrheit präjudizieren zu wollen. Kann man<br />

sich bei Aussagen wie<br />

(4) Ich habe jetzt eine Rotwahrnehmung.<br />

nicht doch irren? Um das zu untersuchen, muß ich zwei Lesarten des<br />

Satzes unterscheiden: In einer ersten, benenne ich mit (4) nur meine augenblickliche<br />

Sinneswahrnehmung mit einem Wort, nämlich „Rotwahrnehmung“<br />

– gleichgültig wie sie qualitativ beschaffen ist. Das scheint<br />

mir eine epistemisch uninteressante Lesart von (4) zu sein, denn (4) besagt<br />

in dieser Interpretation nicht mehr, als daß ich jetzt eine Empfindung<br />

irgendeiner Art habe, der ich einen Namen gebe. Es ist sicher nicht<br />

leicht zu sehen, wie man sich dann in (4) irren kann, aber es ist ebensowenig<br />

verständlich, wie mit (4) in dieser Lesart ein Erkenntnisgewinn<br />

verbunden sein könnte. Dazu müssen wir (4) schon so verstehen, daß<br />

meine Farbwahrnehmung durch (4) in einen Zusammenhang mit anderen<br />

Farbwahrnehmungen gebracht wird, die ich ebenfalls als Rotwahrnehmungen<br />

bezeichne. Dann meine ich mit (4) so etwas wie: Es gibt<br />

eine Klasse von qualitativ ähnlichen Farbwahrnehmungen in einem größeren<br />

Farbenspektrum, die ich mit „rot“ bezeichne, und meine jetzige<br />

Wahrnehmung gehört zu dieser Klasse. Schon bei diesem geringen Gehalt<br />

kann ich mich in (4) aber auch irren, denn ich behaupte eine qualitative<br />

Ähnlichkeit zu anderen Farbwahrnehmungen, die nicht gegeben<br />

sein könnte.<br />

Für den Realisten genügt diese Erklärung, wie es zu einem Irrtum<br />

kommen könnte, um die Irrtumsmöglichkeit zuzugestehen. Aber auch<br />

Anti-Realisten wie Putnam sollten sie zugestehen, denn, daß ich mich<br />

dabei geirrt habe, könnte mir sogar selbst bewußt werden. Der Irrtum ist<br />

nicht etwa prinzipiell unentdeckbar. Wenn ich kurz nach dem Ausspruch<br />

(4) wieder eine andere Rotwahrnehmung habe und sie als solche erkenne,<br />

könnte ich sagen: „Stimmt, das ist Rot, vorher das war dann<br />

doch nur Violett und kein richtiges Rot. Die neue Wahrnehmung erinnert<br />

mich wieder an die Farbe Rot.“ Sobald ich also eine Aussage wenn<br />

64 Das behauptete Ayer z. B. in (1979, II) und sogar noch in der zweiten<br />

Auflage von (1970, 15f), wo er von der Unmöglichkeit sich zu irren, außer einer<br />

rein verbalen spricht. In (Ayer 1984, 44ff) hat er dagegen dieser Behauptung bereits<br />

abgeschworen und argumentiert überzeugend gegen sie.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 153<br />

auch nur mit nur geringem Gehalt akzeptiere und nicht nur eine der Art<br />

„Dies ist jetzt hier“, gerate ich in die Gefahr des Irrtums, während andererseits<br />

mit gehaltsleeren Aussagen kaum ein Erkenntnisfortschritt zu erzielen<br />

ist. Das Fazit dieses Abschnitts läßt sich daher – und wen wundert<br />

das eigentlich? – so zusammenfassen: Bei jeder Überzeugung mit nichtleerem<br />

Gehalt können wir uns irren. 65<br />

Ein beliebter Schachzug in diesem Zusammenhang soll noch erwähnt<br />

werden, obwohl ich ihn kaum plausibel finde. Es wird eingewandt,<br />

daß ein Irrtum bei (4) nur ein Irrtum in der Bedeutung sei. Derjenige<br />

der (4) glaubt und sich irrt, habe sich nur in der Bedeutung des<br />

Wortes „Rotwahrnehmung“ geirrt. Auch wenn man lieber nicht nachfragen<br />

möchte, was hier „nur“ zu bedeuten hat, hat man kaum Grund, sich<br />

dieser Ansicht anzuschließen. Spätestens seit Quines Untersuchungen zur<br />

analytisch/synthetisch Unterscheidung ist deutlich geworden, wie wenig<br />

sich rein begriffliche Bestandteile einer Aussage von inhaltlichen Behauptungen<br />

abtrennen lassen. Aus welchem Grund sollte man also den<br />

oben genannten Gehalt von (4), nach dem eine Ähnlichkeit behauptet<br />

wird, als bloße Angelegenheit des Satzverstehens betrachten? Die angegebene<br />

Ähnlichkeitsbehauptung ist zunächst eine empirische Annahme,<br />

in der man sich irren kann, ohne deshalb gleich seiner Sprache verlustig<br />

zu gehen, was durch die beschriebene Situation, in der ich meinen Irrtum<br />

auch entdecke, noch einmal verdeutlicht wird. Ayer (1984, 66ff)<br />

gibt auch in Beispielen an, wie wir durchaus Indizien dafür haben können,<br />

in solchen Fällen einen tatsächlichen Irrtum zu begehen und nicht<br />

nur einen sprachlichen. Und so ist auch das Beispiel der Rotwahrnehmung<br />

beschrieben worden. Der Schachzug, den Irrtum als einen rein<br />

sprachlichen abzutun, ist für die erkenntnistheoretische Debatte daher<br />

kaum hilfreich.<br />

Gegen Sinnesdatentheorien lassen sich natürlich noch Einwände<br />

ganz anderer Art vorbringen, die darauf beruhen, daß hier von Philosophen<br />

seltsame psychische Entitäten postuliert werden, deren Existenz<br />

eine Frage ist, die eher in den Zuständigkeitsbereich von empirischen<br />

Disziplinen fällt, statt in den einer „armchair psychology“. Aber auch<br />

ohne die Frage der empirischen Plausibilität der Sinnesdatentheorien<br />

weiter zu verfolgen, liegt bereits genügend Material vor, um von dieser<br />

speziellen fundamentalistischen Theorie keine Lösung unserer erkenntnistheoretischen<br />

Probleme zu erwarten. Einer modernen Variante derartiger<br />

Theorien möchte ich mich trotzdem noch ausführlicher widmen,<br />

65 Ayer diskutiert in (1984,44ff) auch die (basale) Meinung „Ich existiere",<br />

für die wir bereits mit ähnlichen Problemen zu kämpfen haben.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 154<br />

nämlich der von Paul K. Moser, die den meines Erachtens erfolgversprechendsten<br />

Weg in diesem Bereich weist.<br />

b) Mosers Fundamentalismus<br />

Die meisten gegenwärtigen Erkenntnistheoretiker argumentieren dafür,<br />

daß nur Überzeugungen rechtfertigende Wirkung für Überzeugungen haben<br />

können und nicht auch Entitäten ohne semantischen Gehalt. Überzeugungen<br />

können aber falsch sein, wenn sie nicht analytisch wahr sind,<br />

und daher ließ sich immer wieder berechtigterweise die Frage nach ihrer<br />

Begründung stellen, die den Fundamentalisten sofort in Verlegenheit<br />

bringt, denn wenigstens für seine basalen Meinungen möchte er gerade<br />

diese Frage eigentlich zurückweisen. Da wir uns außerdem schon von<br />

den externalistischen Lösungen des Rechtfertigungsproblems abgewandt<br />

hatten, scheinen wir um eine inferentielle Begründung auch für die angeblich<br />

basalen Meinungen nicht herumzukommen. Zu diesem Argument<br />

sucht Moser (1989) einen Ausweg. Er entwirft eine fundamentalistische<br />

Theorie, für die es auch Wahrheitsindikatoren nicht-propositionaler<br />

Art gibt.<br />

Mosers Fundamentalismus bleibt dabei trotzdem internalistisch in<br />

dem Sinne, daß uns alle Komponenten der Begründung bewußt zugänglich<br />

sein müssen; nur handelt es sich dabei nicht ausschließlich um Überzeugungen,<br />

sondern auch um nicht-propositionale Wahrnehmungszustände.<br />

Einen seiner zentralen Begriffe in diesem Zusammenhang, den<br />

der „direct attention attraction“, beschreibt er unter anderem wie folgt:<br />

The sort of nonconceptual awareness most appropriate to Moderate<br />

and Radical Internalism is direct attention attraction, where one’s attention<br />

is directly engaged, if only momentarily, by the more or less<br />

determinate features of certain presented contents. Such attention attraction,<br />

being nonconceptual, does not itself essentially involve<br />

one’s predicating something of the presented contents; yet of course<br />

it can be accompanied by such predicating. And such attention attraction<br />

is different from mere sensory stimulation, since it essentially<br />

involves direct awareness, albeit nonconceptual awareness, of<br />

what is presented in experience. (Moser 1989, 81)<br />

Wenn man den Sinnesdatenbegriff weit faßt, verfolgt auch Moser eine<br />

Form von Sinnesdatentheorie, nur mit der Besonderheit, daß diese Sin-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 155<br />

nesdaten keine propositionale Struktur haben, 66 und wir uns auf die beschränken,<br />

die im Zentrum unserer Aufmerksamkeit stehen. Für die<br />

nicht-propositionale Struktur betont Moser die Unterscheidung zwischen<br />

einem Wahrnehmungszustand, der auf ein Objekt gerichtet ist, und<br />

seiner Beschreibung:<br />

Clearly our describing a nonconceptual experience or the object<br />

thereof requires our formulating a judgment about it. But this does<br />

not mean that the having of such an experience is essentially conceptual.<br />

The describing of an experience is one thing, and the having of<br />

it, another. (Moser 1989, 84f)<br />

Für die Rechtfertigung von Meinungen stützt sich Moser nur auf den<br />

subjektiven Teil der nicht-propositionalen Wahrnehmungsinhalte. Diese<br />

sollen durch einen Schluß auf die beste Erklärung bestimmte Überzeugungen<br />

begründen:<br />

My rough preliminary proposal is this: one’s subjective nonconceptual<br />

contents can make a proposition, P, evidentially probable to<br />

some extent for one in virtue of those contents’ being explained for<br />

one by P in the sense that P is an essential part of an explanation for<br />

one of why those contents exists, or equivalently, why those contents<br />

occur as they do. (Moser 1989, 91f)<br />

Mosers Sinnesdaten erinnern ein wenig an Schlicks „Konstatierungen“,<br />

aber Moser weiß mehr als Schlick darüber zu sagen, wie Entitäten ohne<br />

semantischen Gehalt in Rechtfertigungen überhaupt vorkommen können.<br />

Leider kann ich hier nur eine vereinfachte Darstellung der recht<br />

ausgefeilten Wahrnehmungs- und Rechtfertigungstheorie Mosers geben,<br />

die dadurch sicher nicht so überzeugend wirkt, wie seine weitergehenden<br />

Ausführungen; aber die Grundidee der Moserschen Theorie sollte<br />

deutlich geworden sein.<br />

Bestimmte basale Meinungen sind bei ihm dadurch gerechtfertigt,<br />

daß sie die besten Erklärungen für gewisse subjektive Inhalte unserer<br />

Wahrnehmungszustände sind. So könnte meine Annahme, daß ich mit<br />

einer Nadel gestochen werde, als beste Erklärung meiner visuellen<br />

Wahrnehmungen in diesem Moment und meiner inneren Wahrnehmung<br />

einer bestimmten Schmerzqualität gerechtfertigt werden. Die Annahme<br />

ist in dieser Beschreibung nicht weiter von anderen Aussagen inferentiell<br />

abhängig und damit basal. Ihr rechtfertigendes Element („probability-<br />

66 Viele Sinnesdatenvertreter ließen es zumindest zu, daß die Sinnesdaten<br />

durch eine Aussage i.w. ausgedrückt werden können.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 156<br />

maker“) ist selbst kein Wahrheitswertträger und daher auch nicht begründungspflichtig.<br />

Moser (1989, 172) ist wie andere Fundamentalisten<br />

der Meinung, daß nur auf diesem Weg das Regreßproblem zu stoppen<br />

ist und auch der Rechtfertigungsskeptiker Humescher Prägung nur so<br />

überwunden werden kann (Moser 1989, 160ff). Wenn ich Moser in diesen<br />

Behauptungen auch nicht folgen möchte, halte ich seinen Ansatz<br />

doch für einen der aufschlußreichsten im fundamentalistischen Lager,<br />

weiß er doch als einer der wenigen einen interessanten internalistischen<br />

Weg vorzuschlagen, wie unsere Wahrnehmungen, also nicht-semantische<br />

Informationen, bestimmte Beobachtungsüberzeugungen begründen können.<br />

Hier, wie auch bei den anderen Sinnesdatentheorien, möchte ich<br />

nicht in die Diskussion eintreten, wie gut gestützt die empirischen Bestandteile<br />

der Moserschen Theorie sind, obwohl das für alle derartigen<br />

Theorien sicher ein nicht unproblematischer Aspekt ist. Ich möchte<br />

mich lieber gleich der Frage zuwenden, welchen Fortschritt die Erkenntnistheorie<br />

von einer solchen Theorie zu erwarten hätte. Zunächst ist der<br />

Abstand von Mosers Begründung der Beobachtungsüberzeugungen zu einer<br />

entsprechenden kohärentistischen Theorie der Wahrnehmung wie<br />

der von BonJour, die ich im Kapitel (IV.B) vorstellen werde, nicht einmal<br />

so groß, wie man vermuten könnte. Während BonJour die Beobachtungsüberzeugungen<br />

als spontan auftretende Meinungen charakterisiert,<br />

für deren Auftreten die beste Erklärung im Lichte unseres Hintergrundwissens<br />

gerade ihre Wahrheit (also das Vorliegen entsprechender beobachtbarer<br />

Tatsachen ist) rechtfertigt Moser die Annahme von entsprechenden<br />

Beobachtungstatsachen damit, daß sie die besten Erklärungen<br />

für unsere Wahrnehmungszustände bieten. Während also BonJour nach<br />

Erklärungen für das Auftreten bestimmter Beobachtungsüberzeugungen<br />

fragt, geht Moser einen Schritt weiter zurück und fragt nach Erklärungen<br />

von Sinneswahrnehmungen, die in den Beobachtungsüberzeugungen<br />

beschrieben werden.<br />

Was sind nun die Vorzüge des BonJourschen Vorgehens, dem ich<br />

mich in (IV.B.2) anschließen werde? Ich glaube, da finden sich einige.<br />

Zunächst scheint es mir sauberer, die Erkenntnistheorie nicht ohne Notwendigkeit<br />

auf eine recht spezielle empirische Wahrnehmungstheorie<br />

festzulegen und das aus mehreren Gründen. Die Aufnahme einer speziellen<br />

Wahrnehmungstheorie in die Erkenntnistheorie führt zu einer Unflexibilität<br />

in bezug auf neue Wahrnehmungssituationen und neue empirische<br />

Ergebnisse in diesem Bereich. Für BonJour sind Theorien der<br />

Wahrnehmung Bestandteil des Überzeugungssystems des jeweiligen epi-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 157<br />

stemischen Subjekts, das immer seine jeweils besten Theorien der Wahrnehmung<br />

zur Begründung seiner Meinungen heranzieht. Dadurch kann<br />

es immer die neuesten Erkenntnisse innerhalb derselben Erkenntnistheorie<br />

berücksichtigen. Für Moser wird jedesmal eine Abänderung der Erkenntnistheorie<br />

selbst notwendig, sobald sich neue Erkenntnisse in bezug<br />

auf die bewußten Bestandteile unserer Wahrnehmung ergeben. Eine Änderung<br />

zu Wahrnehmungstheorien, die mit den Sinnesdaten im Sinne<br />

Mosers nicht vereinbar sind, überlebt die Mosersche Erkenntnistheorie<br />

schließlich überhaupt nicht. Die kohärentistische Rechtfertigung von Beobachtungen<br />

ist hier zunächst im Vorteil, daß sie nicht auf empirisch so<br />

umstrittene Entitäten wie Sinnesdaten angewiesen ist. Sie bliebe unter<br />

Änderungen oder sogar Revolutionen unserer Theorien der Sinneswahrnehmungen<br />

relativ stabil, denn die würden sich innerhalb der empirischen<br />

Ebene der Überzeugungen des epistemischen Subjekts abspielen,<br />

die nicht direkt die Metaebene unsere epistemischen Überzeugungen beeinflussen<br />

muß. Die Strategie, so wenig spezielle empirische Annahmen<br />

wie möglich in die Erkenntnistheorie aufzunehmen, weil die Erkenntnistheorie<br />

gerade die empirische Begründung von empirischen Theorien<br />

untersuchen soll, scheint zumindest ein sinnvolles regulatives Prinzip zu<br />

sein. Würden theoretische Änderungen an der Peripherie unseres Netzes<br />

auch gleich unsere Bewertungsgrundlage für Theorien ändern, steht<br />

schnell ein Relativismuseinwand à la Kuhn vor der Tür.<br />

Ob Moser tatsächlich dem Skeptiker etwas entgegenzusetzen hat, ist<br />

auch nicht klar, wenn er sich in seiner Metatheorie bereits auf eine empirische<br />

Theorie verlassen muß, die zumindest der radikale Skeptiker in<br />

Frage stellt. Wir könnten sogar das Regreßproblem wiederbeleben, nämlich<br />

auf der Metaebene, denn hier kann man nach einer Rechtfertigung<br />

für Mosers Wahrnehmungstheorie fragen. Aber ich möchte in diesen<br />

Punkten auch nicht allzu kleinlich erscheinen und sie nur als Ansatzpunkte<br />

für weitergehende Kritiken erwähnen.<br />

Um einem vollen Internalismus gerecht zu werden, scheint es mir<br />

auch notwendig, daß das epistemische Subjekt selbst über die entsprechenden<br />

Wahrnehmungstheorien verfügt, in denen die von Moser beschriebenen<br />

Wahrnehmungszustände vorkommen, denn sonst können<br />

wir nicht davon sprechen, daß es wirklich über die von Moser genannte<br />

Rechtfertigung verfügt. Das epistemische Subjekt muß über die Stärken<br />

und Schwächen seiner eigenen Wahrnehmungsfähigkeiten Bescheid wissen,<br />

um eine für einen Internalisten zufriedenstellende Einschätzung derselben<br />

abgeben zu können. BonJour scheint in all diesen Punkten den<br />

einfacheren und überzeugenderen Weg gegangen zu sein.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 158<br />

Am schwierigsten verständlich bleibt für mich aber, wie man davon<br />

sprechen kann, daß eine bestimmte Erklärung eine bessere Erklärung ist,<br />

ohne daß man dabei schon auf ein entsprechendes Hintergrundwissen<br />

rekurriert, vor dem solche Bewertungen vorgenommen werden können.<br />

Das epistemische Subjekt Mosers kann sich für seine Rechtfertigungen<br />

seiner basalen Meinungen jedoch nur auf seine nichtkognitiven Sinnesdaten<br />

stützen. Diese Anwendung der Abduktion widerspricht allem, was<br />

wir in unseren bisherigen Beispielen als wesentliche Elemente dieses Verfahrens<br />

aufzeigen konnten.<br />

Selbst auf der Metaebene, von der der Erkenntnistheoretiker die Situation<br />

beschreibt, kann sich Moser nicht auf irgendein Hintergrundwissen<br />

stützen, wenn er seinen Schluß auf die beste Erklärung auch gegen<br />

den Skeptiker einsetzen möchte. Der springende Punkt dieser Rechtfertigungstheorie<br />

ist also in Mosers fundamentalistischer Vorstellung von Begründung<br />

seine Erklärungstheorie, die ich nun etwas genauer unter die<br />

Lupe nehmen werde. 67<br />

Moser hat für seine Zwecke eigens Ansätze einer Erklärungstheorie<br />

entwickelt. Seine Konzeption von Erklärung stützt sich vor allem auf die<br />

Idee, Erklärungen sollten unser Verstehen befördern:<br />

Here is an appropriate notion: one thing explains another when and<br />

only when the former makes it to some extent, understandable why<br />

the latter thing is as it is. (Moser 1989, 93)<br />

Wesentlich für die Abduktion ist aber auch eine Konzeption von besserer<br />

Erklärung die es gestattet, zwischen verschiedenen Erklärungsmöglichkeiten<br />

eine Wahl zu treffen. Eine Intuition, auf die Moser sich zu diesem<br />

Zweck beruft, führt er anhand eines Beispiels ein. Meine momentane<br />

scheinbare Wahrnehmung eines blauen Buches kann mindestens auf zwei<br />

Weisen erklärt werden. Einmal dadurch, daß ein blaues Buch vor mir<br />

liegt, und zum anderen auch durch die Annahme eines Dämons, der mir<br />

diesen Eindruck vorspiegelt. Moser spricht sich für die erste Möglichkeit<br />

aus, weil in ihr keine überflüssige Entität eingeführt wird:<br />

A Cartesian demon is not represented in my experience by means of<br />

any of its own features, whereas a blue book is: by hypothesis I now<br />

experience only an apparent blue book. (Moser 1989, 98)<br />

67 Dieser Aspekt der Moserschen Theorie trifft sich auch mit den im nächsten<br />

Kapitel zu untersuchenden Kohärenztheorien der Rechtfertigung, für die<br />

der Schluß auf die beste Erklärung ebenfalls eine zentrale Rolle übernehmen soll.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 159<br />

Überflüssige Entitäten erkennt man nach Moser also daran, daß sie in<br />

unseren Wahrnehmungen nicht repräsentiert sind. Diese positivistisch<br />

anmutende Konzeption ist natürlich ausgesprochen problematisch.<br />

Wann wird denn eine Entität in unseren Wahrnehmungen repräsentiert?<br />

Muß ich sie direkt sehen können, oder genügt es auch, daß sie indirekte<br />

Wirkungen hat? Im ersten Fall werden fast alle Erklärungen der Wissenschaften<br />

anhand von Feldern, Elementarteilchen, Genen etc. ausgeschlossen.<br />

Sind wir aber vernünftigerweise liberaler, könnte der Skeptiker<br />

versucht sein zu antworten: Der Dämon wird durch seine Wirkungen,<br />

nämlich die Welt, die er uns erleben läßt, repräsentiert – und insbesondere<br />

durch die Überlegungen über Dämonen, die wir gerade anstellen,<br />

die er uns als besonders raffinierten Hinweis auf sich selbst gibt.<br />

Neben der Forderung, daß Erklärungen besser werden, wenn sie auf<br />

überflüssige Entitäten verzichten, sollten Erklärungen nach Moser noch<br />

möglichst informativ sein. Beide Forderungen gehen in Mosers Explikationsvorschlag<br />

von „entscheidend besserer Erklärung“ ein:<br />

One Proposition, P, is a decisively better explanation of subjective<br />

contents C than is another proposition, Q, if and only if (i) P explains<br />

C, and (ii) either (a) P answers all the explanation-seeking<br />

why-questions about C answered by Q, but posits fewer gratuitous<br />

entities and fewer kinds of gratuitous entities than Q does, or (b)<br />

while positing no more gratuitous entities or kinds of gratuitous entities<br />

than Q posits, P answers all the explanation-seeking why questions<br />

about C answered by Q, and still others, or (c) P and Q answer<br />

the same why questions about C without either positing more gratuitous<br />

entities or kinds of entities than the other, but P is informationally<br />

more specific than Q. (Moser 1989, 99)<br />

Diese Erklärungstheorie ist relativ stark auf Mosers speziellen Einsatz<br />

der Dämonenbekämpfung zugeschnitten, so daß es interessant ist, inwieweit<br />

sie tatsächlich tragfähig ist.<br />

Zunächst sieht auch Moser (1989, 101ff), daß die Güte der Erklärung<br />

eines bestimmten Sinnesdatums von äußeren Umständen abhängen<br />

kann. Ob auf der Straße vor uns, die weiter weg in der Hitze wie eine<br />

Wasserfläche erscheint, eine tatsächliche Wasserfläche die beste Erklärung<br />

für unsere Wahrnehmung ist oder entsprechende Änderungen des<br />

Brechungsindex der Luft über der heißen Straße, ist nicht allein an der<br />

Erklärung des einen Faktums zu erkennen. Sie bedarf der Berücksichtigung<br />

weiterer Beobachtungen, wie z. B. der, wie die Straße dort ausschaut,<br />

wenn wir näher hinkommen. Moser fragt deshalb nach besseren


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 160<br />

„overall“ Erklärungen. Doch hier scheint mir Moser die holistischen<br />

Aspekte des Unternehmens Erkenntnisgewinn erheblich zu unterschätzen.<br />

Informationen können in unseren vollentwickelten Überzeugungssystemen<br />

über allgemeine Annahmen und wissenschaftliche Theorien<br />

transportiert werden; z. B. auch interpersonell oder über Epochen- und<br />

Gebietsgrenzen hinweg. Man denke weiterhin an die epistemische Arbeitsteilung.<br />

Mosers Projekt, nach einer wirklichen „overall“ Erklärung<br />

allein auf der Basis von Sinnesdaten muß schlicht utopisch erscheinen.<br />

Gerade wenn man von einem epistemischen Subjekt sagen möchte, daß<br />

es über eine Begründung verfügt, ist es auf allgemeine Annahmen in der<br />

Bewertung von Erklärungen angewiesen. Es kann sich zwischen den genannten<br />

alternativen Erklärungen für die naß erscheinende Straße in der<br />

Wüste auch dann entscheiden, wenn es nicht zu besagter Stelle hingeht,<br />

weil es allgemeine Annahmen über Wasservorkommnisse in Wüsten und<br />

das Aussehen solcher Wüstenstrassen in der Hitze besitzt. Natürlich<br />

bleibt immer eine Irrtumsmöglichkeit bei diesen Schlüssen zugestanden,<br />

doch das gilt ebenso für Mosers Vorschlag.<br />

Er gibt sich hier einer neuen Variante des empiristischen Traums hin,<br />

daß wir im Prinzip mit reinen Wahrnehmungen und einer theoriefreien<br />

basalen Beschreibung dieser Wahrnehmungen alles Wichtige für unsere<br />

Erkenntnis beisammen haben. Aber wie der Mosersche Sinnesdatentheoretiker<br />

allein die einfache alternative Vermutung widerlegen will, daß<br />

sich die Straße in der Zeit seiner Annäherung von einer Wasserfläche in<br />

eine Teerdecke entwickelt hat, bleibt dabei unklar. Zur Widerlegung solcher<br />

Spekulationen, die doch unseren Sinneswahrnehmungen in Mosers<br />

Beispiel viel eher zu entsprechen scheinen als die richtige Erklärung,<br />

sind wir auf allgemeine Annahmen über die Beständigkeit von Stoffen<br />

wie Wasser und Teer angewiesen. Unsere empirischen Theorien ergeben<br />

sich auch nicht wie bei Moser in einem Schritt von bestimmten Wahrnehmungen<br />

aus, sondern sind, selbst wenn man im hierarchischen Bild<br />

bleiben möchte, eine komplizierte Stufenfolge. 68<br />

Also auch für die Einschätzung, wann wir etwas gut verstehen, benötigen<br />

wir ein reicheres Hintergrundwissen als nur Sinnesdaten. Wir sprechen<br />

dann davon, daß wir etwas gut verstehen, wenn sich zeigen läßt,<br />

wie es sich in dieses Hintergrundwissen einbetten läßt. Das soll im letzten<br />

Teil der Arbeit thematisiert werden. Wie die Güte dieser Einbettung<br />

beurteilt werden kann, wird in der Kohärenztheorie genauer bestimmt.<br />

68 Das gilt in ähnlicher Weise für die Erinnerungen an frühere Wahrnehmungszustände,<br />

auf die Moser angewiesen ist, sucht er „overall"-Erklärungen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 161<br />

Ernstzunehmende Rechtfertigungsversuche für basale Meinungen<br />

wie der von Moser geben allerdings detailliertere und interessantere Einblicke<br />

in die Probleme eines empiristischen Fundamentalismus, als sie<br />

die allgemeine Debatte um die Struktur von Begründungen bieten kann.<br />

Es lohnt sich daher schon aus diesem Grund, sie weiter zu verfolgen.<br />

Außerdem könnte Moser einen weiteren Schritt hin zu einer holistischen<br />

Sicht wagen und von einer wirklichen „overall“-Erklärung sprechen.<br />

Statt einzelne Meinungen könnte er unser gesamtes Meinungssystem als<br />

Erklärung unseres gesamtem Wahrnehmungsinputs betrachten. Damit<br />

ließen sich die eben genannten Probleme der Einschätzung bestimmter<br />

Beobachtungen anhand unseres Hintergrundwissens umgehen, denn dieses<br />

Hintergrundwissen wird hierbei selbst Bestandteil der Erklärung. Alternative<br />

Erklärungen wären nun komplette neue Weltbilder wie z. B.<br />

die der radikalen Skeptiker. Moser selbst dürfte über diese Entwicklung<br />

allerdings nicht wirklich glücklich sein, denn er hätte keine fundamentalistische<br />

Erkenntnistheorie mehr vor sich. Es würden keine einzelnen<br />

Meinungen mehr als basal und den anderen gegenüber epistemisch ausgezeichnet<br />

betrachtet. Es handelt sich eher um eine spezielle Kohärenztheorie,<br />

bei der jede einzelne Meinung dadurch gerechtfertigt wird, daß<br />

sie einen (kohärenten) Teil einer „overall“-Erklärung darstellt. Das gesamte<br />

Meinungssystem wird dagegen dadurch gerechtfertigt, daß es die<br />

Gesamtheit unserer Wahrnehmungszustände am besten erklärt.<br />

Auf diese Strategie komme ich im Zusammenhang mit den Kohärenztheorien<br />

und ihren Antwortmöglichkeiten auf den Skeptiker wieder<br />

zurück, möchte aber schon jetzt eine gewisse Skepsis gegenüber den Erfolgsaussichten<br />

auch dieses Projekts anmelden. Für diese „overall“-Erklärung<br />

können wir wiederum fragen, auf welcher Grundlage sie sich<br />

gegenüber alternativen Erklärungen als die bessere auszeichnen läßt. Es<br />

bleibt nun kein Hintergrundwissen als Schiedsrichter übrig. Auch die<br />

Frage, wann wir überhaupt von einer Erklärung sagen sollen, daß sie die<br />

bessere ist, müßte noch beantwortet werden. Mosers allgemeine Erklärungstheorie<br />

wird dafür kaum geeignet sein, und außerdem müßten wir<br />

diese Erklärungstheorie nun a priori rechtfertigen, was mir ebenfalls unmöglich<br />

erscheint. Ob eine Erklärung wirklich gut ist, wird zu wesentlichen<br />

Teilen erst durch unsere Erklärungspraxis – speziell unsere wissenschaftliche<br />

– erkennbar und ist nicht unabhängig davon vorzugeben.<br />

Der Ansatz einer „overall“-Erklärung all unserer Sinnesdaten beinhaltet<br />

zudem die Vorstellung, man könnte Wahrnehmungszustände vor<br />

ihrer begrifflichen Verarbeitung sicher speichern und sich schließlich<br />

überlegen, wie gut sie von unserem Meinungssystem erklärt werden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 162<br />

Diese Vorstellung ist kaum realistisch und kann bestenfalls als eine sehr<br />

idealisierte Rekonstruktion verstanden werden. Man fragt sich auch,<br />

woher auf der Beschreibungsebene dann die Begriffe kommen sollen.<br />

Der Ansatz geriete hier in ähnliche Schwierigkeiten, wie wir sie für Carnaps<br />

Projekt (Carnap 1928) finden. Die ganze Idee, Wahrnehmungszustände<br />

zunächst komplett von ihrer Weiterverarbeitung (Klassifizierung<br />

und weiterer theoretischer Einbettung) zu trennen, ist meines Erachtens<br />

verfehlt. Es kann daher nicht meine Aufgabe sein, ihn hier weiter auszubauen<br />

und zu verteidigen. So unsauber es auch ausschaut, beides geht<br />

immer Hand in Hand, und wir haben keine andere Möglichkeit als von<br />

diesem Prozeß in seiner Komplexität auszugehen. Genau das wird die<br />

(holistische) Kohärenztheorie der Rechtfertigung, die im nächsten Kapitel<br />

vorgestellt wird, unternehmen.<br />

Deutlich scheint mir auch, daß Mosers recht empiristische Erklärungstheorie<br />

für unsere Paradigmata von Erklärungen, die wissenschaftlichen<br />

Erklärungen, versagen muß. Überflüssige Entitäten als solche zu<br />

brandmarken, ist in jedem Fall ein schwieriges Unterfangen. Wissenschaftliche<br />

Theorien schätzen wir gerade für ihre theoretischen Entitäten,<br />

die wesentlich für Erklärungen und die Systematisierungsleistung<br />

von Theorien sind. 69 Obwohl die meisten dieser Entitäten zumindest<br />

nicht direkt in unserer Wahrnehmung repräsentiert sind, wäre es ein fataler<br />

Fehler, die Theorien und Erklärungen zu bevorzugen, die versuchen<br />

sich auf Beobachtbares zu beschränken. Fast das Gegenteil ist der<br />

Fall. Doch dazu später mehr.<br />

Natürlich gibt es auch schlecht konstruierte Theorien mit überflüssigen<br />

Bestandteilen. Doch wie soll man von einer reinen Sinnesdatenbasis<br />

aus zwischen signifikanten und insignifikanten theoretischen Termen unterscheiden?<br />

Das ist nach Moser notwendig, um schlechtere von besseren<br />

Erklärungen zu unterscheiden. Dazu gibt es bereits eine ausführliche<br />

wissenschaftstheoretische Debatte, die die zahlreichen Untiefen dieser<br />

Fragestellung der signifikanten Terme aufgezeigt hat. Leider ist sie nicht<br />

mit einem so einfachen Vorschlag wie dem Moserschen abzuschließen.<br />

Hinter der Moserschen Idee steckt eine Art von Sparsamkeitsprinzip,<br />

nach der man keine Entitäten postulieren sollte, wenn sie nicht erforderlich<br />

sind; d.h. bei Moser, wenn sie nicht in unserer Wahrnehmung repräsentiert<br />

werden. Doch diese Formulierung ist viel zu unbestimmt und<br />

keine Hilfe, wenn es um die Frage geht, welche Entitäten wir annehmen<br />

sollten. Aber auch die Grundidee ist keine geeignete Maxime für die<br />

69 Warum das so ist, welche Funktion diese theoretischen Größen in<br />

Theorien zu übernehmen haben, wird im 3. Teil ausgeführt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 163<br />

Wissenschaften. Der Physiker Richard Feynman hat uns mehrfach mit alternativen<br />

physikalischen Theorien beglückt, die mit weniger Entitäten<br />

auskommen als unsere gewöhnlichen. Das waren zum einen die elektrodynamischen<br />

Theorien ohne Felder, die statt dessen mit retardierten<br />

Fernwirkungen arbeiten, und zum anderen seine berühmte Theorie des<br />

Positrons (s. Feynman 1949), in der die Positronen zugunsten von Elektronen<br />

eliminiert werden. Beide Theorien stießen trotzdem in der Fachwelt<br />

nur auf wenig Gegenliebe, weil sie zwar Entitäten einsparen konnten,<br />

aber dafür andere wesentliche Prinzipien aufgaben. In seiner Positronentheorie<br />

mußten sich die Elektronen rückwärts in der Zeit bewegen<br />

und seine Theorie der retardierten Fernwirkungen verletzt zumindest<br />

lokal den Energieerhaltungssatz. Wir sind in unseren Theorien nicht<br />

so sparsam, wie Moser annimmt, und insbesondere gibt es viele andere<br />

Prinzipien, deren Erhalt uns mindestens genauso wertvoll erscheint. Erst<br />

eine sorgfältige Abwägung der Kohärenz vermag im konkreten Einzelfall<br />

zu sagen, welche Theorien besser sind: die sparsamen oder die reichhaltigen.<br />

Daher ist es keine gute Idee, einer Erklärungstheorie eine Sparsamkeitsforderung<br />

voranzustellen.<br />

Meine Überlegungen in der Frage der Signifikanz theoretischer Terme<br />

gehen jedenfalls genau den umgekehrten Weg. Statt die Unterscheidung<br />

nach besseren und schlechteren Erklärungen auf die Unterscheidung in<br />

benötigte und überflüssige Terme zu stützen, würde ich die signifikanten<br />

Terme als diejenigen auszeichnen, die in unseren besten Erklärungen benötigt<br />

werden. Diese Konzepte sind danach unverzichtbar, wenn wir<br />

nicht an Erklärungskraft einbüßen möchten. Auch diese Bewertung kann<br />

nur unter Heranziehung unseres Hintergrundwissens ermittelt werden<br />

und setzt vor allem voraus, daß wir die Erklärungsgüte einschätzen können,<br />

ohne schon wissen zu müssen, welche Terme und Gegenstände dieser<br />

Theorien unentbehrlich sind.<br />

6. Resümee<br />

Die zweite Weichenstellung dieses Kapitels betraf die Rechtfertigungsstruktur<br />

unserer Erkenntnis. Sind Rechtfertigungen letztlich lineare Ketten<br />

von Aussagen, die einen Startpunkt aufweisen, der selbst keiner Begründung<br />

durch andere Aussagen bedarf, oder ist ein holistisches Modell<br />

unserer Erkenntnis, in dem man für alle Behauptungen wiederum nach<br />

inferentiellen Rechtfertigungen fragen darf, angemessener? Für den Fundamentalisten<br />

hat die Erkenntnis ein Fundament in basalen Aussagen,<br />

die zwar gerechtfertigt sein sollen, aber nicht unter Bezugnahme auf an-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 164<br />

dere Meinungen, um nicht in einen Regreß zu geraten. Schwierigkeiten<br />

macht allerdings die Frage, wie eine solche nichtinferentielle Rechtfertigung<br />

aussehen kann, wenn sie nicht bloß in einem externen Zusammenhang<br />

der Überzeugungen zu äußeren Tatsachen besteht und für das epistemische<br />

Subjekt erkennbare Hinweise auf die Wahrheit der basalen<br />

Meinungen geben soll. Die Antworten, die wir auf dieses Problem von<br />

Fundamentalisten erhalten, bleiben unbefriedigend, insbesondere wenn<br />

sie versuchen, sich um eine Begründung herumzudrücken, indem sie den<br />

Gehalt der Basisaussagen vermindern und für sie Irrtumsfreiheit behaupten.<br />

Doch für Aussagen mit empirischem Gehalt – und nur solche können<br />

als Basis des empirischen Wissens einen substantiellen Beitrag liefern<br />

– verbleibt immer ein Irrtumsrisiko, das eine Begründung erforderlich<br />

macht. Das BonJoursche Argument des Kriteriums zeigt, daß diese<br />

Begründung nur in weiteren Annahmen bestehen kann, also inferentieller<br />

Natur ist. Die starre Schichtenstruktur des Fundamentalisten kann<br />

uns daher kein geeignetes Modell für eine überzeugenden Begründungsstruktur<br />

bieten. Wir sind nun gezwungen nach einer kohärentistischen<br />

Alternative Ausschau zu halten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 165<br />

IV Kohärenz<br />

Auch innerhalb der philosophischen Strömung des Wiener Kreises gab es<br />

bekanntlich bereits einen Vertreter einer kohärentistischen Erkenntnistheorie,<br />

nämlich Otto Neurath. Er stand damit gegen die eher fundamentalistisch<br />

orientierte Mehrheit der logischen Empiristen und sah sich<br />

unter anderem der Kritik durch den damaligen Leiter des Wiener Kreises,<br />

Moritz Schlick, ausgesetzt. Neurath entwickelte seine erkenntnistheoretischen<br />

Vorstellungen überwiegend in negativer Abgrenzung von<br />

den fundamentalistischen Ansichten Schlicks und des frühen Carnaps in<br />

bezug auf Protokollsätze. Seine eigene Konzeption von Kohärenz ist<br />

dann auch eher als dürftig zu bezeichnen; sie besteht nämlich nur aus<br />

der Forderung nach logischer Konsistenz. Schlick mahnt zu Recht an,<br />

daß damit alleine noch kein Kontakt eines Überzeugungssystems zur<br />

Wirklichkeit gegeben ist und alle Märchen epistemisch gleichwertig erscheinen,<br />

solange sie nur logisch konsistent auftreten. Auch Popper kritisiert<br />

in der „Logik der Forschung“ (Popper 1984, 63), daß nach dieser<br />

Erkenntnistheorie jedes System vertreten werden könne. 70 Diesem Einwand<br />

hatte Neurath nichts Substantielles entgegenzusetzen. Erkenntnistheoretisch<br />

bedeutsam ist also kaum die Neurathsche Epistemologie als<br />

einer Kohärenztheorie der Erkenntnis, 71 sondern eher seine Kritik an<br />

der simplen Vorstellung von Schlick, man könne Sätze direkt mit der<br />

Wirklichkeit vergleichen (s. Koppelberg 1987, 33ff). Für meine Arbeit<br />

ist auch sein bekanntes Bild von uns als Schiffern, die ihr Boot auf hoher<br />

See umbauen müssen, ohne es im Dock aus ganz neuen Bestandteilen<br />

aufbauen zu können, zu einem Leitmotiv für die Erkenntnistheorie geworden.<br />

Vor allem die dynamischen Aspekte dieses Bildes werde ich<br />

schließlich in einer diachronischen Kohärenztheorie ernster nehmen, als<br />

er selbst es tat. Leider war Neurath nicht der letzte Kohärenztheoretiker,<br />

70 Popper selbst hat allerdings nicht viel mehr für seine Basissätze anzubieten.<br />

Sie werden per Beschluß akzeptiert. Das entspricht vermutlich der wissenschaftlichen<br />

Praxis, ist aber noch nicht die ganze Geschichte. Interessant ist doch<br />

eher, die methodischen Prinzipien anzugeben, die dabei berücksichtigt werden.<br />

71 Neurath selbst wehrte sich gegen die Bezeichnung Kohärenztheorie, um<br />

sich von den britischen Idealisten abzugrenzen. (s. Koppelberg 1987, 20, Anm.<br />

8)


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 166<br />

der mehr mit Kämpfen gegen äußere Feinde beschäftigt war, als mit einer<br />

Ausarbeitung der Kohärenzkonzeption selbst.<br />

Dieses Kapitel soll nun dazu dienen, eine systematische Kohärenztheorie<br />

der Rechtfertigung zu entwerfen, die die wesentlichen Schwächen<br />

früherer Ansätze vermeiden hilft. Der entscheidende erste Schritt dazu<br />

besteht in einer Untersuchung, welche Zusammenhänge zwischen Überzeugungen<br />

die Kohärenz eines Meinungssystems konstituieren. Der<br />

nächste Schritt gibt an, wie sich die Gesamtkohärenz des jeweiligen Systems<br />

aus den einzelnen Zusammenhängen zusammensetzt, was schließlich<br />

in einer semiformalen Konzeption von Kohärenz als Erklärungskohärenz<br />

zusammengefaßt wird.<br />

A. Bestandteile von Kohärenz<br />

1. Kohärenz und Konsistenz<br />

Über Kohärenz wird in der Erkenntnistheorie heutzutage sehr oft gesprochen.<br />

Meist ohne gehaltvolle Vorstellungen davon zu haben, was<br />

denn Kohärenz sei; „Kohärenz“ wird manchmal sogar wie ein Grundbegriff<br />

behandelt, über den sich nicht viel sagen läßt. Nur wenige Kohärenztheoretiker<br />

sind aber heute noch damit zufrieden, unter „Kohärenz“<br />

bloß „Konsistenz“ zu verstehen. Abgesehen davon, daß in diesem Fall<br />

auch unklar wäre, wozu man den Kohärenzbegriff neben dem Konsistenzkonzept<br />

noch einführen sollte, möchte man unter einem kohärenten<br />

Überzeugungssystem eines verstehen, dessen Aussagen untereinander<br />

in vielfältiger Weise zusammenhängen, was durch Konsistenz allein noch<br />

nicht erreicht wird. Die besagt bloß, daß unsere Meinungen sich nicht<br />

direkt widersprechen, sich aus ihnen also keine Kontradiktionen (Aussagen<br />

der Form: „p und non-p“) ableiten lassen.<br />

Wie schwach die bloße Forderung nach Konsistenz eines Systems<br />

sein kann, wird erkennbar, wenn wir einmal nicht an unsere gewöhnlichen,<br />

ziemlich reichhaltigen Überzeugungssysteme denken, für die bereits<br />

Konsistenz eine nicht so leicht zu realisierende Anforderung darstellt.<br />

Stellen wir uns zur Illustration statt dessen einen Superempiristen<br />

vor, der es aus vornehmer empiristischer Zurückhaltung vermeidet, auch<br />

nur irgendeine allgemeinere Hypothese oder sogar Theorie über die<br />

Welt zu glauben. Er sammelt einfach nur seine eigenen Wahrnehmungsberichte.<br />

Erlauben wir ihm aber wenigstens, um ihn nicht zu uninteressant<br />

zu gestalten, ein perfektes Gedächtnis, dem er vertrauen kann. Er


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 167<br />

könnte dann, ohne im geringsten beunruhigt zu sein, z. B. Meinungen in<br />

der folgenden Form sammeln:<br />

1) 7.8.95, 18.32 30 : Vor mir steht ein Rolls Royce auf dem<br />

Wenzelsplatz.<br />

2) 7.8.95, 18.32 31 : Vor mir steht ein Mercedes am Fuße des<br />

Empire-State-Building.<br />

3) 7.8.95, 18.32 32 : Vor mir liegt der leere Rote Platz.<br />

etc…<br />

Ein Meinungssystem, das so aufgebaut wäre, wäre aber offensichtlich<br />

kaum kohärent zu nennen. Und das, obwohl es logisch konsistent ist,<br />

denn es ist natürlich nicht logisch unmöglich im Sekundenabstand an so<br />

weit entfernten Plätzen der Welt zu sein, sondern höchstens physikalisch<br />

oder eher verkehrstechnisch unmöglich. Wenn wir davon absehen, daß<br />

uns die Aussagen als in hohem Maße widersprüchlich erscheinen, weil<br />

wir glauben, niemand könne sich so schnell von einem Platz zum anderen<br />

bewegen, bleibt immer noch, daß die Aussagen völlig zusammenhanglos<br />

nebeneinanderstehen. Das entspricht keinesfalls unserer Vorstellung<br />

eines kohärenten Überzeugungssytems. Schon deshalb verlangen<br />

die meisten Erkenntnistheoretiker für Kohärenz mehr als reine Konsistenz.<br />

Es bleibt nur offen, worin dieses Mehr bestehen soll. In den wenigen<br />

ausgearbeiteten Konzeptionen von Kohärenz spielen in der Regel<br />

Erklärungsbeziehungen eine ausgezeichnete Rolle, deren epistemischer<br />

Funktion ich daher in den nächsten Abschnitten im einzelnen nachgehen<br />

möchte. Davor setze ich noch einige Bemerkungen über die Funktion<br />

von Theorien oder allgemeineren Annahmen in unserem Überzeugungssystem,<br />

die wir bei dem Superempiristen vermißt haben.<br />

2. Die Bedeutung von Theorien für Kohärenz<br />

Das Beispiel des Superempiristen mit ausgeprägter theoretischer Abstinenz<br />

führt uns nicht nur eindringlich vor Augen, daß Konsistenz für Kohärenz<br />

zu wenig ist, sondern auch, wie sehr wir auf Theorien oder jedenfalls<br />

allgemeine verbindende Annahmen in unserem Überzeugungssystem<br />

angewiesen sind. Ein System wie das des Superempiristen, in dem<br />

sie völlig fehlen, enthält nur Aussagen, die ohne inneren Zusammenhang<br />

angesammelt wurden. Es gibt normalerweise weder Rechtfertigungszusammenhänge<br />

noch Widersprüchlichkeit darin, so daß die Rede von einem<br />

System von Meinungen eigentlich verfehlt ist. Daß unter den Meinungen<br />

des Superempiristen keine Widersprüche auftreten, ergibt sich


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 168<br />

schon daraus, daß die Beobachtungen nacheinander erfolgen und die<br />

entsprechenden Beobachtungsüberzeugungen daher genaugenommen<br />

mit einem Zeitindex zu versehen sind. Da sie auch nur Auskunft über<br />

den jeweiligen Zeitpunkt und nicht über andere geben, können sie sich<br />

strenggenommen nicht widersprechen. Selbst Aussagen, wie die oben angeführten,<br />

die sich intuitiv widersprechen, sind normalerweise nur als<br />

widersprüchlich mit Hilfe allgemeinerer Annahmen, etwa über eine gewisse<br />

Kontinuität in der Welt, auszuzeichnen. 72 Das ist ein schlichter,<br />

aber dennoch grundlegender Befund, den man einmal festhalten sollte.<br />

Inferentielle Zusammenhänge in unseren Überzeugungssystemen,<br />

auch wenn es nur um solche für Beobachtungsaussagen untereinander<br />

geht, bedürfen der Vermittlung durch allgemeinere Aussagen<br />

oder Theorien.<br />

Wie sehr wir auf Theorien angewiesen sind, bemerken wir meist nicht,<br />

denn die stehen in jedem normalen Meinungssystem selbstverständlich<br />

zur Verfügung. Unsere Meinungssysteme sind tatsächlich ganz anders beschaffen<br />

als die des Superempiristen.<br />

Wir sind sogar auf kleine Theorien angewiesen, damit die Wörter,<br />

mit denen wir unsere Überzeugungen ausdrücken, Bedeutung besitzen.<br />

Wenn ich über Autos oder Bäume spreche, gehören zur Bedeutung dieser<br />

Begriffe immer bestimmte Annahmen über diese Gegenstände. Wenn<br />

es mich nicht beunruhigt, daß Objekte wie Bäume kleiner als ein tausendstel<br />

Millimeter und nur auf anderen Planeten zu finden sein sollen<br />

und ich sie darüber hinaus nicht mit bestimmten Wahrnehmungen in Beziehung<br />

bringen kann, muß man mir vorwerfen, ich hätte diese Begriffe<br />

einfach nicht verstanden. (Die Geschichte läßt sich natürlich leicht in<br />

dieser Richtung weiter führen, wenn einem die bisherigen Ungeheuerlichkeiten<br />

für die Schlußfolgerung noch nicht ausreichen.) Putnam<br />

(1979, 64ff) nennt entsprechende Minitheorien, über die ein kompetenter<br />

Muttersprachler für jeden Begriff seiner Sprache verfügen muß, die<br />

Stereotype, die wir mit einem Begriff verbinden. 73 Das zeigt, daß das<br />

72 Natürlich könnten im Prinzip auch Implikationen über Einzelfälle der<br />

Form ab Widersprüche in das System bringen, aber solche Implikationen finden<br />

sich in unseren Überzeugungssystemen normalerweise nur dann, wenn sie<br />

durch eine allgemeinere Annahme über einen entsprechenden Zusammenhang<br />

von Dingen des Typs a und des Typs b gedeckt wird. Für den Superempiristen ist<br />

jedenfalls nicht erkennbar, wie er zu solchen Implikationen gelangen sollte.<br />

73 Stereotypen sind allerdings nicht ganz so klar umrissene Gebilde wie etwa<br />

wissenschaftliche Theorien.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 169<br />

Beispiel des Superempiristen nicht nur psychologisch unrealistisch ist,<br />

sondern fast unverständlich wirkt, weil selbst ein Superempirist schon<br />

auf Minitheorien angewiesen ist, damit seine Meinungen überhaupt semantischen<br />

Gehalt aufweisen. Wichtig ist noch der Hinweis, daß die Minitheorie,<br />

die zur Bedeutung eines Begriffs gehört, keineswegs wahr sein<br />

muß, weshalb wir nicht versuchen sollten, die Putnamschen Stereotypen<br />

erkenntnistheoretisch zu strapazieren. Es lassen sich genügend Beispiele<br />

angeben, für die sie falsch sind. Darunter fällt auch das von Philosophen<br />

gern als Beispiel für einen analytischen Satz angeführte „Gold ist gelb“.<br />

Das Metall Gold ist in reiner Form eher weiß und nur die Kupferbeimischungen<br />

besonders im Schmuckgold lassen es gelb erscheinen, worauf<br />

Putnam (1979, 69) hinweist.<br />

Aber abgesehen von ihren wichtigen Aufgaben zur Bedeutungskonstitution,<br />

benötigen wir zumindest Minitheorien, damit es irgendwelche<br />

inferentiellen Beziehungen zwischen unseren Überzeugungen geben<br />

kann. Sie sind daher in jedem Fall erforderlich, um Kohärenz in einem<br />

Überzeugungssystem zu erzeugen. Man könnte in Analogie zu Hume,<br />

der die Kausalität als „the cement of the universe“ bezeichnet hat, sagen,<br />

die Theorien sind „the cement of belief“. Sie sind das, was unsere Meinungen<br />

zu einem Netz oder System von Überzeugungen zusammenfügt.<br />

3. Sind unsere Schlüsse deduktiv?<br />

Ein idealisiertes Vorbild für inferentielle Beziehungen sind logische Deduktionen.<br />

In den konkreten Beispielen typischer Rechtfertigungen und<br />

Begründungen, die wir betrachtet haben und noch untersuchen werden,<br />

spielen (logisch) deduktive Schlüsse jedoch keine so offensichtliche Rolle.<br />

Diese Rechtfertigungen bewegen sich alle unterhalb der Schlüssigkeit<br />

einer logischen Herleitung. Das ist der intuitive Hintergrund der Behauptung<br />

Harmans (1973, 163ff), daß das Bild von inferentiellen Rechtfertigungen<br />

als Beweisen im logisch strengen Sinn abzulehnen ist. Harman<br />

(1986, 11ff) versucht sogar zu zeigen, daß selbst die Forderung<br />

nach logischer Konsistenz unseres Meinungssystems und andere grundlegende<br />

Forderungen der Logik nicht als unbedingte Forderungen für unser<br />

Meinungssystem betrachtet werden sollten. So weit möchte ich Harman<br />

nicht folgen. Seine Beispiele dafür sind auch gewiß nicht überzeugend,<br />

sondern der Logik kommt sicherlich die wichtige Aufgabe zu, ei-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 170<br />

nen Rahmen abzustecken, an den sich Rechtfertigungen und Begründungen<br />

zu halten haben. 74<br />

Allerdings hat Harman Recht, daß das Vorbild deduktiver Argumente<br />

in der Philosophie zu oft den Status eines paradigmatischen<br />

Schlußverfahrens eingenommen hat, an dem sich alle Inferenzen zu<br />

orientieren haben; das häufig nur noch durch die Berücksichtigung von<br />

Wahrscheinlichkeiten ergänzt wird. Für epistemische Begründungen<br />

trifft diese Bild kaum zu. Wir sind auf der Suche nach Wahrheitsindikatoren,<br />

also nach Indizien dafür, daß eine bestimmte Überzeugung wahr<br />

ist. Deduktionen können zwar ideale Wahrheitsindikatoren darstellen –<br />

wenn unsere Prämissen wahr sind, garantieren sie schließlich die Wahrheit<br />

der Konklusionen logischer Schlüsse – aber das ist keineswegs der<br />

typische Fall auf den man bei der Suche nach epistemischen Rechtfertigungen<br />

abzielt. Deduktionen führen uns nämlich nicht aus dem heraus,<br />

was wir bereits wissen, sie sind nicht gehaltsvermehrend. Epistemische<br />

Rechtfertigungen sind dagegen typischerweise dazu gedacht, unter Inkaufnahme<br />

eines größeren Irtumsrisikos einen echten Zugewinn an Erkenntnissen<br />

zu erreichen. Wir benötigen induktive Schlußformen z. B.,<br />

um anhand einzelner Beobachtungen allgemeinere Hypothesen oder<br />

Theorien zu rechtfertigen. Auch viele Fälle, die wir umgangssprachlich<br />

als zwingende Schlußfolgerungen oder sogar Deduktionen bezeichnen,<br />

sind tatsächlich Inferenzen eines anderen Typs.<br />

Schauen wir uns dazu ein bekanntes Vorbild für Schlußfolgerungen<br />

aus der Literatur an: Sherlock Holmes behauptet manchmal, den Täter<br />

eines Verbrechens anhand von logischen Schlußfolgerungen zu ermitteln.<br />

Ein einfaches Beispiel aus seiner Fallsammlung soll dazu dienen, die<br />

Art der von ihm vorgenommen Inferenz genauer zu bestimmen. In „A<br />

Case of Identity“ (Doyle 1986, 251ff) kommt eine junge Dame namens<br />

Mary Sutherland zu Sherlock Holmes und bittet diesen, ihren kurz vor<br />

der Hochzeit verschwundenen Bräutigam Hosmer Angel für sie zu suchen.<br />

Sie berichtet Holmes, wie sie ihn vor nicht allzu langer Zeit kennengelernt<br />

hat, sie beide heiraten wollten, er aber kurz vor der Trauung<br />

auf unerklärliche Weise verschwunden ist. Im Verlaufe ihrer Erzählung<br />

nennt sie einige weitere Fakten, die Holmes sofort erkennen lassen, was<br />

sich zugetragen hat. Einige der für seine Schlußfolgerung bedeutsamen<br />

74 Auch Lakatos plädierte in (1974) dafür, daß wir den Rahmen der Konsistenz<br />

manchmal mit Gewinn verlassen sollten. Ich habe in (1988) zu zeigen versucht,<br />

daß auch das von Lakatos dafür angegebene Beispiel der Bohrschen Atomtheorie<br />

kaum ein gutes Argument für diese Ansicht darstellt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 171<br />

Tatsachen, die sie entsprechend schildert, möchte ich in übersichtlicher<br />

Form auflisten:<br />

(1) Mary Sutherland lebt bei ihren Eltern und unterstützt diese, solange<br />

sie noch keinen Mann gefunden hat, mit Hilfe der kleinen aber<br />

ansehnlichen Pension, die sie aus der Erbschaft eines verstorbenen<br />

Onkels erhält.<br />

(2) Ihr neuer Stiefvater Mr. Windibank, der 15 Jahre jünger ist als ihre<br />

Mutter, möchte nicht, daß sie ausgeht.<br />

(3) Als ihr Stiefvater in Frankreich ist, nutzt sie die Gelegenheit auszugehen<br />

und lernt Hosmer Angel kennen und schätzen.<br />

(4) Ihr Stiefvater möchte auch weiterhin nicht, daß sie ihn mit nach<br />

Hause bringt.<br />

(5) Als er wieder nach Frankreich reist, trifft sie sich wieder mit Hosmer<br />

Angel, und sie verabreden zu heiraten, noch bevor ihr Vater<br />

zurückkommt.<br />

(6) Ihre Briefe an Hosmer Angel schickt sie, auf seinen Wunsch hin,<br />

immer postlagernd.<br />

(7) Hosmer Angel ist überhaupt ein scheuer Mann, der sich kaum im<br />

Hellen mit ihr zeigt, und häufig eine Sonnenbrille trägt.<br />

(8) Er schreibt ihr immer auf einer Schreibmaschine.<br />

(9) Sie muß ihm feierlich schwören, immer zu ihm zu stehen, was auch<br />

passieren mag.<br />

(10) Um ihren Stiefvater nicht zu hintergehen, schreibt sie ihrem Stiefvater<br />

nach Frankreich über ihre bevorstehende Heirat, aber der<br />

Brief kommt unverrichteter Dinge zurück.<br />

(11) Ihre Mutter bittet sie, nichts von der geplatzten Hochzeit verlauten<br />

zu lassen, und ihre Eltern wollen auch nicht zur Polizei gehen, um<br />

Hosmer Angel suchen zu lassen.<br />

Diese elf Fakten nennt Miss Sutherland eingebunden in eine ausführlichere<br />

Erzählung Sherlock Holmes und dieser verbindet sie sofort, obwohl<br />

viele zuerst recht zusammenhanglos wirken, durch das Einbringen<br />

einer Hypothese zu einer zusammenhängenden Geschichte. Er schließt,<br />

(H) Hosmer Angel und der Stiefvater Mr. Windibank seien ein und dieselbe<br />

Person, und<br />

(Hi) daß Mr. Windibank Miss Sutherland mit der aufgeführten Komödie<br />

davon abhalten wollte, sich in einen anderen Mann zu verlieben<br />

und dann das Haus ihrer Eltern zu verlassen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 172<br />

Mit dieser Annahme lassen sich die Fakten, die uns zunächst rätselhaft<br />

erschienen sind, entweder erklären, oder sie spielen eine Rolle in bestimmten<br />

Erklärungen, die ihnen einen Sinn verleihen. Gerade die überraschende<br />

Annahme (H) stiftet den Zusammenhang für eine Menge von<br />

anscheinend isolierten Fakten, während (Hi) eine Hilfsannahme ist, die<br />

auf der naheliegenden Vermutung beruht, daß die Eltern von Miss Sutherland<br />

gerne weiterhin in den Genuß ihres Geldes kommen möchten.<br />

(1) erklärt zunächst, wieso der Stiefvater den Wunsch (Hi) haben kann,<br />

daß sie weiter zu Hause wohnt. Dieser Wunsch erklärt, die Tatsache (2).<br />

(3) und (5) erklären zumindest zum Teil, wieso (H) überhaupt vorliegen<br />

kann, und (H) erklärt seinerseits (4). (H) erklärt auch (6), denn Hosmer<br />

Angel hat keine eigene Adresse, die er Miss Sutherland nennen könnte.<br />

Ebenso erklärt (H) (7), (8) und (11) dadurch, daß Hosmer Angel die<br />

Entdeckung seiner wahren Identität fürchtet. Weiterhin erklärt (H) (9)<br />

oder macht es jedenfalls verständlich, warum Angel sich von ihr Treue<br />

schwören läßt, denn nur so kann er sein Ziel, Miss Sutherland im Hause<br />

zu behalten, für längere Zeit verwirklichen. Schließlich wird auch (10)<br />

durch (H) erklärt, denn natürlich kann Mr Windibank alias Hosmer Angel<br />

nicht an zwei Orten zugleich sein. Sherlock Holmes überprüft seine<br />

Annahme (H) durch einen Briefwechsel mit Mr. Windibank, der ergibt,<br />

daß<br />

(12) die Briefe von Windibank und Angel auf derselben Maschine<br />

geschrieben wurden.<br />

Mit diesem zwölften Faktum ist für ihn die Schlußfolgerung (H) zwingend<br />

und auch der Leser hält den Fall gegen Mr. Windibank für wasserdicht.<br />

Aber für den Logiker ist klar – und das bedarf wohl keiner weiteren<br />

Ausführungen –, daß Sherlock Holmes in dieser Geschichte seine<br />

grauen Zellen nicht für einen logischen Schluß in Gang setzt, auch wenn<br />

man umgangssprachlich leichtfertig so redet. Und das ist in Sherlock<br />

Holmes anderen Fällen ganz ähnlich. Sein Schlußverfahren ist natürlich<br />

wiederum ein „Schluß auf die beste Erklärung“ (SBE) oder eine<br />

„Abduktion“, was ich mit einer recht liberalen Auffassung von „Erklärung“<br />

verbinde, die später zu präzisieren sein wird. Dieses Schlußverfahren<br />

bildet mit anderen Erklärungszusammenhängen die meisten und<br />

wichtigsten inferentiellen Beziehungen in unserem Überzeugungssystem.<br />

Ehe ich anhand weiterer Beispiele belegen kann, welch große Bedeutung<br />

der Abduktion in unserer Rechtfertigungspraxis zukommt, möchte ich<br />

das Verfahren in Form eines simplen Schemas vorstellen:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 173<br />

Schluß auf die beste Erklärung (Abduktion)<br />

- E1,…, En, sind Tatsachen, die einer Erklärung bedürfen<br />

- Die Annahme H erklärt E1,…, En besser als alle alternativen<br />

Annahmen<br />

Also: H<br />

Das Schlußschema bedarf noch einiger Erläuterungen: Die Tatsachen Ei<br />

sind die Prämissen des Schemas; ebenso die Voraussetzung, daß sie der<br />

Erklärung bedürfen. Das ist immer vor unserem Hintergrundwissen zu<br />

beurteilen, worauf ich im Rahmen der Ausarbeitung einer Erklärungstheorie<br />

noch eingehen werde. Vor unserem Hintergrundwissen ist auch<br />

die zweite Prämisse zu verstehen. Welche Alternativen es zu H gibt und<br />

wie gut die von ihnen erbrachten Erklärungen sind, ist immer auf unseren<br />

jeweiligen epistemischen Zustand zu relativieren, denn eine Bezugnahme<br />

auf uns nicht zugängliche Alternativerklärungen würde die Forderung<br />

des Internalismus verletzen. 75 Tatsächlich lassen sich immer einige<br />

alternative Erklärungen finden, denn wir können zur Not sogar auf<br />

skeptische Erklärungen zurückgreifen, aber in einigen Fällen können wir<br />

trotzdem aufgrund weniger Daten schließen, weil es keine ernstzunehmenden<br />

Konkurrenten zu einer bestimmten Erklärung gibt. Wie gut die<br />

Abduktion unsere tatsächlich akzeptierten Schlüsse zu beschreiben gestattet,<br />

soll in den folgenden Überlegungen erneut belegt werden. Weitere<br />

Zusammenhänge und Beispiele findet man dazu auch in Lipton<br />

(1991), bei dem die Abduktion ähnlich verstanden wird wie hier, allerdings<br />

um eine andere Erklärungstheorie ergänzt und nicht in eine umfassende<br />

Kohärenztheorie eingebettet wird. 76<br />

Schauen wir noch einmal auf einige Beispiele: Sherlock Holmes Vorgehen<br />

im oberen Fall war zwar eine recht idealisierte Form von Abduktion,<br />

aber sie macht durchaus plausibel, daß kriminalistische Begründungen<br />

für die Täterschaft einer Person, die sich auf Indizien stützen müssen,<br />

typischerweise die Form von Schlüssen auf die beste Erklärung annehmen.<br />

Wir kennen sie aus Kriminalromanen oder vielleicht sogar aus<br />

eigenen Überlegungen. Vorgetragen werden sie etwa vor Gericht, wenn<br />

der Staatsanwalt seine Indizien nennt: Hans hatte ein Motiv Fritz umzu-<br />

75 Harman möchte demgegenüber auch nicht bekannte Alternativerklärungen<br />

mit einbeziehen. Er verletzt damit ohne Not und weitere Erläuterungen die<br />

Forderung des Internalismus und unsere Konzeption von Rechtfertigungen, die<br />

immer auf ein Hintergrundwissen relativiert sind.<br />

76 Daß die Liptonsche Konzeption gerade an diesen Stellen wesentliche<br />

Defizite aufweist, wird in der gründlichen Besprechung von Achinstein (1992)<br />

ersichtlich.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 174<br />

bringen, weil Fritz ihm seine Freundin ausgespannt hat; Fritz ist ermordet<br />

worden; Hans hat für die Tatzeit kein Alibi; neben dem Ermordeten<br />

findet sich ein Taschentuch von Hans; Hans wußte schon, bevor die Polizei<br />

es ihm kundtat, daß Fritz Tod war; auf der Uhr von Fritz sind noch<br />

Fingerabdrücke von Hans; Hans behauptet, Fritz nie besucht zu haben;<br />

usw. Dann schließt der Staatsanwalt: Also hat Hans den Fritz umgebracht,<br />

denn anders sind die genannten Fakten nicht zu erklären.<br />

Das ist eine typische Instanz des Schlusses auf die beste Erklärung,<br />

und der Verteidiger wird sich neben juristischen Winkelzügen und dem<br />

etwaigem Bestreiten einiger Prämissen des Schlusses – hier also den Indizien<br />

– bemühen, den Schluß zu entkräften. Zu diesem Zweck kann er alternative<br />

Erklärungen der Fakten vorschlagen, die genauso gut sind wie<br />

die Erklärung des Staatsanwaltes oder doch zumindest so gut, Zweifel<br />

daran zu wecken, die Erklärung des Staatsanwaltes für die Indizien sei<br />

unzweifelhaft besser als alle Alternativen. Er könnte vielleicht Margot<br />

ins Spiel bringen, die sowohl Fritz wie Hans haßt, auch kein Alibi hat,<br />

noch im Besitz eines Taschentuchs von Hans war und sich von Fritz eine<br />

Uhr geliehen hatte, die sie Hans gezeigt und dabei in die Hand gedrückt<br />

hat. Diese Fakten legen eine alternative Erklärung nahe, die den Status<br />

der Erklärung des Staatsanwaltes als beste Erklärung hinreichend erschüttern<br />

könnte, daß sich das Gericht entsprechend dem Grundsatz „in<br />

dubio pro reo“ zu einem Freispruch entschließen könnte.<br />

Damit wir von den Indizien per Abduktion auf den Täter schließen<br />

können, ist im Sherlock Holmes Fall wie auch im zweiten Fall eine ganze<br />

Menge an implizitem Hintergrundwissen erforderlich. Um den Schluß<br />

des Staatsanwalts ziehen zu können, daß die beste Erklärung für unsere<br />

Indizien die ist, daß Hans den Fritz umgebracht hat, benötigen wir zunächst<br />

einmal Kenntnisse aus der Common Sense Psychologie. Wir müssen<br />

wissen, daß Hans vermutlich mit Eifersucht auf den Wechsel seiner<br />

Freundin zu Fritz reagiert hat und daß das für bestimmte Persönlichkeiten<br />

zu einem Haß führen und sogar zu einem Motiv für einen Mord anwachsen<br />

kann. Außerdem müssen wir uns darauf verlassen, daß Fingerabdrücke<br />

eindeutig eine Person kennzeichnen, daß Hellsehen nicht möglich<br />

ist u.v.m. Das ist der andere Bereich, an dem der Verteidiger ansetzen<br />

kann. Wenn er nachweisen kann, daß die Erklärung des Staatsanwaltes<br />

nicht so gut ist, wie es auf den ersten Blick scheint, weil sie sich auf<br />

unplausible Hintergrundannahmen stützen muß, kann er damit ebenfalls<br />

den Schluß auf die beste Erklärung unterminieren. Wird in der Verhandlung<br />

deutlich, daß Hans der Wechsel seiner Freundin vollkommen<br />

gleichgültig war (vielleicht weil er selbst schon eine andere hatte), stellt


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 175<br />

die Anklageschrift des Staatsanwaltes keine so gute Erklärung der Indizien<br />

mehr dar. Es bleiben plötzlich zu viele unerklärte Fakten übrig.<br />

Warum sollte Hans dann noch Fritz gehaßt haben?<br />

Wir sehen an diesem Beispiel auch, daß die erklärende Hypothese<br />

des Staatsanwaltes keineswegs eine einzelne Annahme darstellt, sondern<br />

eine komplette Geschichte, deren einzelne Teile sowohl erklärenden Gehalt<br />

haben sollen, als auch selbst erklärbar sein müssen, sonst erscheint<br />

sie uns nicht mehr überzeugend. Zu dieser Geschichte gehören letztlich<br />

Annahmen über den Gemütszustand von Hans, über seinen Griff nach<br />

der Uhr von Fritz, über seine potentielle Gewaltbereitschaft usf. Jede<br />

einzelne sollte Erklärungswert für die Indizien besitzen, aber auch selbst<br />

wieder eine Erklärung besitzen. Wir stoßen auf eine enge Vernetzung<br />

von Erklärungsbeziehungen zwischen den Teilen der anklagenden Geschichte,<br />

den bekannten Indizien und unserem übrigen Hintergrundwissen.<br />

Analog sieht es auch in unserem Sherlock Holmes Fall aus. Einige<br />

der Indizien (etwa 3, 4, 5 und 7) sind wesentlich für die Erklärung, wie<br />

es überhaupt möglich war, daß Hosmer Angel und Mr. Windibank ein<br />

und dieselbe Person sind, ohne daß Miß Sutherland das bemerkt hat.<br />

Wenn wir dafür keine Erklärung besäßen, bräche Sherlock Holmes<br />

schöne Lösung schnell in sich zusammen. Umgekehrt erklärt seine Hypothese<br />

H, dann einiges von dem auffälligen (paßt nicht gut in unser<br />

Hintergrundwissen) und daher erklärungsbedürftigen Verhalten von Mr.<br />

Windibank und Hosmer Angel. Das angegebene einfache Schema der<br />

Abduktion abstrahiert also von einigen wichtigen Zusammenhängen, die<br />

erst in einer umfassenderen Kohärenztheorie berücksichtigt werden.<br />

Nur diese Einbettung ermöglicht ein angemessenes Verständnis unserer<br />

Beurteilung von Abduktionen. Diese holistischen Zusammenhänge erschweren<br />

es uns auch, alle Bestimmungsstücke der Beurteilung tatsächlich<br />

auf den Tisch zu legen. Doch davon später mehr.<br />

Obwohl es sich in den Beispielen um stark vereinfachte fiktive Fälle<br />

handelt, wird die Überzeugungskraft des Schlusses auf die beste Erklärung<br />

jeweils deutlich. Wie einschlägig solche Kohärenzüberlegungen für<br />

reale Kriminalfälle sein können, haben Untersuchungen wie die von<br />

Thagard (1989, 450ff) gezeigt, in denen Thagard sein Programm<br />

ECHO, das eine konnektionistische Implementierung seiner Kohärenz-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 176<br />

theorie (s. IV.D.3) darstellt, auf faktische Strafverfahren um Tötungsdelikte<br />

anwandte. 77<br />

Abduktionen finden sich aber natürlich nicht nur in der Kriminalistik<br />

und in formalisierten Situationen, in denen wir um Begründungen<br />

unserer Behauptungen gebeten werden, sondern auch immer wieder in<br />

Alltagsschlüssen. Dazu noch ein Beispiel: Wenn ich auf jemanden warte,<br />

der sich verspätet, stelle ich wahrscheinlich Vermutungen an, wieso er<br />

nicht rechtzeitig kommt. Dazu werde ich aus meinem relevanten Hintergrundwissen<br />

die nötigen Zusatzinformationen heranziehen wie: Er<br />

wollte mit dem Auto kommen; das springt oft nicht an; er glaubt trotzdem<br />

immer wieder, daß er es anbekommt; er bemüht sich eigentlich<br />

pünktlich zu sein,… Sollte ich viele Überzeugungen dieser Art und keine<br />

echten Alternativen, wie, daß er öfter verschläft, haben, werde ich annehmen,<br />

daß er zwar rechtzeitig aufgebrochen ist, aber sein Auto nicht<br />

anbekommen hat. Vor meinem Hintergrundwissen scheint das die beste<br />

Erklärung zu sein.<br />

In ähnlicher Form lassen sich auch unsere Überlegungen beschreiben,<br />

wenn ich jemand eine Überzeugung oder einen Wunsch zuschreibe.<br />

Über Wahrnehmungen zugänglich ist mir nur sein Verhalten. Ich sehe,<br />

für welches Auto oder Essen er sich entscheidet; er sagt mir, daß er keinen<br />

Pudding mag; ich berücksichtige, ob er irgendwelche Gründe haben<br />

sollte, mir seine Vorlieben zu verschweigen und so fort. Wir alle wissen,<br />

daß Beobachtungen der genannten Art, aber auch unsere weiteren Hintergrundannahmen<br />

über diese Person in die Beurteilung, welche Überzeugungen<br />

und Wünsche sie hat, einfließen können. Nicht ganz so einfach<br />

ist es schon zu sagen, welche Theorie von Personen und ihrem Verhalten<br />

wir dabei benutzen. Philosophen neigen dazu, Handlungen anhand<br />

einer Theorie rationalen Verhaltens erklären zu wollen. Man wird<br />

der Person dann solche Überzeugungen und Wünsche zuschreiben, die<br />

ihr Verhalten als möglichst rational erscheinen lassen. Einige Autoren<br />

(z. B. Davidson) halten dieses Vorgehen für geradezu konstitutiv für das<br />

Zuschreiben von intentionalen Zuständen. Nach ihrer Ansicht kann man<br />

das Verhalten anderer Menschen nur dann anhand von Wünschen und<br />

Überzeugungen verstehen, wenn wir sie mit Hilfe des „principles of cha-<br />

77 Außerdem nennt Thagard (1992, 63) zwei Arbeiten von Pennington<br />

und Hastie, die die Entscheidungsfindung von Jurymitgliedern untersucht haben,<br />

und zu dem Schluß gekommen sind, daß sich vieles davon als Suche nach Erklärungskohärenz<br />

verstehen läßt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 177<br />

rity“ interpretieren, wonach man ihnen möglichst konsistente und möglichst<br />

viele wahre Überzeugungen zuschreiben muß. 78<br />

Diese Festlegung auf eine Rationalisierung von Verhalten scheint mir<br />

eher auf einem Mangel an anderen erklärenden Theorien zu beruhen,<br />

aber deshalb noch keineswegs konstitutiv für Verhaltenserklärungen zu<br />

sein. Wenn wir mehr über die betreffende Person wissen, können wir<br />

uns vielleicht auf Verhaltensregularitäten stützen, die zeigen, daß er in<br />

bestimmten Situationen leider immer wieder irrational handelt. Natürlich<br />

können wir ihm dann jeweils Wünsche und Überzeugungen zuschreiben,<br />

die auch dieses scheinbar irrationale Verhalten wieder rationalisieren<br />

würden. Doch das mag nicht kohärent zu anderen Teilen unseres<br />

Hintergrundwissens passen, die normalerweise bestimmte Einschränkungen<br />

für solche Zuschreibungen vorsehen; z. B., daß die Person<br />

auf Befragen hin diese Überzeugungen und Wünsche auch formulieren<br />

kann. Außerdem haben derartige Erklärungen wahrscheinlich nur noch<br />

einen geringen empirischen Gehalt, wenn wir so willfährig mentale Zustände<br />

zuschreiben, wie wir sie gerade benötigen. Darunter leidet sehr<br />

stark ihre erklärende Kraft (s. dazu Kap. IX). 79<br />

Aber welchen Theorien wir auch anhängen, wir werden von der<br />

Struktur her doch ähnlich vorgehen, wenn wir jemandem intentionale<br />

Zustände zuschreiben. Wir wählen die Zustände aus, die sein Verhalten<br />

im Lichte unserer Theorie menschlicher Handlungsweisen und unserer<br />

anderen Hintergrundannahmen über ihn am besten erklären.<br />

In den Wissenschaften und in der Wissenschaftstheorie ist die rechtfertigende<br />

Wirkung von Abduktionen längst ein anerkanntes Phänomen.<br />

Wissenschaftliche Theorien werden immer wieder anhand ihrer Erklärungskraft<br />

eingeschätzt. Daß uns Theorien Erklärungen für bestimmte<br />

Phänomene bieten, wird als ein wesentliches Ziel wissenschaftlicher<br />

Theorienbildung – wenn nicht sogar als das Hauptziel – angesehen. Wir<br />

bevorzugen eine Theorie gegenüber einer anderen, wenn sie uns bessere<br />

Erklärungen anzubieten hat. Diese Suche nach Theorien mit großer Erklärungskraft<br />

findet selbst ihre Erklärung zumindest zum Teil darin, daß<br />

78 Davidsons (1987) versucht daraus sogar ein Argument gegen den Skeptiker<br />

zu machen. Schließlich, wenn wir nicht umhin können, anderen Menschen<br />

möglichst viele wahre Überzeugungen zuzuschreiben, weil das die Spielregeln<br />

der Überzeugungszuschreibung sind, so wird unklar, wie der Skeptiker ernsthaft<br />

erwägen kann, daß wir nur falsche Meinungen haben könnten. Doch Davidsons<br />

Überlegung wird überzeugend von Susan Haack (1993, 60ff) kritisiert.<br />

79 Sie haben sicherlich bemerkt, daß ich auf dem besten Weg bin, eine Erklärungsstrategie<br />

zu kritisieren, die unter anderem von der Psychoanalyse eingeschlagen<br />

wird.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 178<br />

wir Abduktionen als rechtfertigend betrachten und daher die Erklärungskraft<br />

einer Theorie als einen wichtigen Indikator für ihre Wahrheit<br />

nehmen. Auch bescheidenere Schlüsse als die auf ganze Theorien werden<br />

in den Wissenschaften vornehmlich anhand von Abduktionen vorgenommen.<br />

Dazu lassen sich zahlreiche Beispiele finden. Millikan schließt<br />

unter anderem aus der Tatsache, daß sich die gemessenen elektrischen<br />

Ladungen in seinen Experimenten alle als ganzzahlige Vielfache einer<br />

recht kleinen Ladung ergeben, daß es sich dabei um die Elementarladung<br />

handeln muß. 80 Aus den Interferenzerscheinungen des Lichts<br />

schließen wir, daß es sich um ein Wellenphänomen handeln muß, aus<br />

Fossilienfunden auf die Evolutionstheorie usf. Das sind jeweils typische<br />

Beispiele dafür, daß wir nach den Hypothesen suchen, die unsere Beobachtungen<br />

am besten erklären. In der Einleitung hatte ich auch schon<br />

Beispiele aus der Philosophie beigebracht, die belegen, daß Abduktionen<br />

keineswegs auf die Naturwissenschaften beschränkt sind.<br />

4. Abduktion und Induktion<br />

Natürlich lassen sich viele schöne Beispiele für Abduktionen finden,<br />

aber sind die nicht vielleicht auch durch andere Schlußverfahren angemessen<br />

zu beschreiben? Werfen wir einen Blick auf ein typisches Konkurrenzprodukt,<br />

das philosophiehistorisch sicher die bedeutsamste Rolle<br />

gespielt hat, den Induktionsschluß. Von Aristoteles, für den Induktion<br />

überwiegend in enumerativer Induktion bestand, über Francis Bacon, der<br />

mit seiner Ausschließungsmethode subtilere Regeln aufstellte und zufällige<br />

Korrelationen auszuschließen hoffte, über Mills Diskussionen der Induktion<br />

bis hin zu den logischen Empiristen und ihren Nachfolgern, die<br />

sogar eine Logik der Induktion aufgestellt haben, stand der Induktionsschluß<br />

im Zentrum des Interesses an den Beziehungen zwischen Theorie<br />

und Einzeltatsachen. Da auch die Abduktion ein Induktionsschluß im<br />

weiteren Sinn des Wortes ist, halte ich nun natürlich hauptsächlich nach<br />

alternativen Induktionsverfahren etwa im Sinne der konservativen oder<br />

enumerativen Induktion Ausschau. Induktionsschlüsse sind bekanntlich<br />

nicht beschränkt auf die Wissenschaften, sondern typische Inferenzverfahren<br />

unseres Alltags. Behavioristen zeigten den engen Zusammenhang<br />

zu unserem Lernverhalten. Aus der Erkenntnis, daß in Einzelfällen Bier<br />

unseren Durst auf angenehme Weise gelöscht hat, ziehen wir schon bald<br />

80 Die tatsächliche Entwicklung war natürlich erheblich komplexer und<br />

Millikan mußte neben anderem einige Meßwerte als „Ausrutscher“ ganz verwerfen<br />

u.v.m. Siehe zur Geschichte dieses Versuchs Holton 1981, 50ff.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 179<br />

den Schluß, daß das auch in Zukunft der Fall sein wird. Den Besuch bestimmter<br />

Vorlesungen stufen wir schnell als langweilig ein etc. Vermutlich<br />

neigen wir geradezu zu vorschnellen Induktionsschlüssen, was auch<br />

dazu führt, daß wir manchmal sogar bereit sind, anhand nur weniger<br />

Daten und Einzelfälle alle Ausländer als unangenehm zu klassifizieren<br />

oder andere Vorurteile zu entwickeln. Das Wort „Vorurteil“ zeigt hier<br />

schon, daß wir diesen Prozeß bei Reflektion als epistemisch minderwertig<br />

erkennen. Die Beispiellisten kann jeder schnell verlängern.<br />

In seiner klassischen Fassung gehen Induktivisten davon aus, daß wir<br />

aus den Beobachtungen durch eine Extrapolation der Form „more of the<br />

same“ zu allgemeinen Tatsachen gelangen können, während Vertreter<br />

der Abduktion phantasievoll erdachte Hypothesen schon bei der Datenerhebung<br />

für wesentlich halten. Stelle ich fest, daß mein Kühlschrank<br />

nicht mehr läuft, vermute ich zunächst einen Stromausfall, als möglicherweise<br />

beste Erklärung, aber wenn ich dann sehe, daß mein elektrischer<br />

Wecker, der an demselben Stromkreis hängt, trotzdem funktioniert,<br />

muß ich nach anderen Erklärungen suchen (Beispiel von Lipton<br />

1991, 67f). Dieses Vorgehen entspricht überhaupt nicht mehr der konservativen<br />

Induktion, von der ich nun zeigen möchte, daß sich auch ihre<br />

intendierten Anwendungen am ehesten als Schlüsse auf die beste Erklärung<br />

verstehen lassen. 81 Das Prinzip der aufzählenden Induktion, das für<br />

diese Fälle vorgeschlagen wurde, kann man schematisch folgendermaßen<br />

darstellen:<br />

Prinzip der aufzählenden Induktion<br />

1) Fa1 Ga1<br />

2) Fa2 Ga2<br />

…<br />

Also:<br />

3) x (Fx Gx)<br />

Hierbei werden mit F und G bestimmte Eigenschaften bezeichnet und<br />

die ai bezeichnen die untersuchten Gegenstände. Das obige Beispiel des<br />

Biertrinkers läßt sich damit so beschreiben: F steht für die Eigenschaft,<br />

Bier zu sein, und G für die, gut zu schmecken. Die ai bezeichnen die einzelnen<br />

getrunkenen Biere, und wir schließen dann: Bier schmeckt gut.<br />

Doch auch das ist eigentlich nichts anderes als eine Form von Abduktion.<br />

Die beste Erklärung für all unsere Einzelbeobachtungen von gut<br />

81 Diese Behauptung findet sich auch bei Harman (1973, 130), allerdings<br />

ohne eine besondere Begründung und mehr auf die Auseinandersetzung mit der<br />

kausalen Wissenstheorie Goldmans bezogen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 180<br />

schmeckenden Bieren, ist eben die, daß Bier ein gutschmeckendes Getränk<br />

ist. Beide Beschreibungen, die des Schlusses auf die beste Erklärung<br />

und die des aufzählenden Induktionsschlusses, scheinen für diesen<br />

trivialen Fall unseren Schluß angemessen darzustellen. Viele erhoffte Anwendungen<br />

eines Induktionsverfahrens sind jedoch nicht von dieser ausgesprochen<br />

einfachen Gestalt.<br />

Das zeigte sich bereits in der Geschichte der Ausarbeitung induktiver<br />

Methoden durch Bacon und Mill. Für Bacon ist der „Fall der Entscheidung“<br />

einer der wichtigsten seiner 27 Prärogativ Fälle (s. dazu Losee<br />

1977, 68). Er gibt uns dazu das folgende Beispiel an: Für das Auftreten<br />

von Ebbe und Flut werden zwei Hypothesen vorgeschlagen. Die Waschschüsselhypothese,<br />

nach der das Wasser wie in einer hin- und her bewegten<br />

Waschschüssel hin- und herschwappt, und die Hypothese, daß der<br />

gesamte Wasserspiegel steigt und fällt. Welche der Hypothesen nun richtig<br />

sei, läßt sich seiner Meinung nach entscheiden, indem man beobachtet,<br />

ob die Flut an gegenüberliegenden Küsten gleichzeitig eintritt oder<br />

nicht. Man kommt in dieser Frage hingegen nicht weiter, indem man<br />

einfach willkürlich weitere Fälle von Ebbe und Flut betrachtet, sondern<br />

man muß speziell die Daten sammeln, für die ein Unterschied zwischen<br />

den beiden alternativen Hypothesen und ihren Erklärungen gegeben ist.<br />

Wir sind wiederum nicht so sehr an „more of the same“ interessiert,<br />

sondern hauptsächlich an den Daten, die relevant für unsere Auswahl<br />

der besten Erklärung sind. Hier haben wir alle typischen Elemente des<br />

Schlusses auf die beste Erklärung, die wir schon bei Sherlock Holmes<br />

fanden, und die Struktur der einfachen Induktion ist kaum noch erkennbar.<br />

Die Entscheidung fällt in diesem Beispiel eindeutig zwischen konkurrierenden<br />

Erklärungshypothesen. Lipton (1991, 68) spricht von einer<br />

„explanatory detour“, einem Umweg über Theorien, um die erkenntnistheoretisch<br />

notwendigen induktiven Zusammenhänge herzustellen.<br />

Auch Mill (s. Losee 1977, 146) verlangte für die volle Verifikation einer<br />

Hypothese, daß sowohl ihre deduktiven Folgerungen mit den Beobachtungen<br />

übereinstimmen, wie auch, daß die zu erklärenden Tatsachen aus<br />

keiner anderen Hypothese folgen.<br />

Die Ausarbeitung von Theorien der Induktion folgte also schon bald<br />

Wegen (und auch bei Aristoteles lassen sich schon Ansätze dafür finden),<br />

die viel besser in das Schema der Abduktion passen als in das ursprüngliche<br />

induktive Schema. Whewell (1967, 62) war wohl einer der ersten,<br />

die das am deutlichsten aussprachen. Er hatte bereits eine interessante<br />

Theorie über diese Form von Induktionsschlüssen entwickelt hat, die<br />

vor allem „consilience“ von den erklärenden Hypothesen verlangte. Wir


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 181<br />

sind jedenfalls auf bestimmte Elemente unseres Hintergrundwissens bei<br />

unseren induktiven Schlüssen unwillkürlich angewiesen. Deshalb kommt<br />

uns ein Optimist, der vom 40. Stock eines Hochhauses springt und nach<br />

jedem Stock sagt: „Es geht doch ganz prima“, trotz der tragischen Umstände<br />

eher lächerlich vor. So schlicht – im Sinne von „more of the same“<br />

– darf man das Induktionsverfahren eben nicht anwenden. Unser<br />

Wissen um solche Fälle sagt uns, daß trotz 20 Stockwerken erfolgreichen<br />

Flugs der Sprung kein gutes Ende nehmen kann. Der Proponent<br />

der Abduktion kann diesen Fall denn auch leicht aufklären: In unserem<br />

Hintergrundwissen gibt es eine alternative Erklärung, die wir für besser<br />

halten, nämlich die, daß jeder derartige Sturz zwar eine bestimmte Zahl<br />

von Stockwerken „gut geht“, aber immer ein ungutes Ende haben<br />

muß. 82<br />

Welch große Probleme eine induktive Theorie der Bestätigung zu bewältigen<br />

hat, wurde nicht nur durch Humes skeptische Frage, wie sich<br />

ein Induktionsschluß denn rechtfertigen läßt, deutlich. Hempels Rabenparadox<br />

wirft zusätzlich die Frage auf, welche Beobachtungen für eine<br />

induktive Bestätigung mitzuzählen sind (s. dazu Lenzen 1974, 127ff)<br />

und das Goodmansche Paradox stellte die noch grundsätzlichere Frage,<br />

welche allgemeine Hypothese durch unsere Beobachtungen überhaupt<br />

gestützt wird. Goodman (1988) zeigt unter dem Stichwort „das neue<br />

Rätsel der Induktion“, daß sich zu vorgegebenen Daten, zu jeder Hypothese,<br />

die zu den Daten paßt, eine Alternativhypothese angeben läßt, die<br />

ebenfalls zu den Daten paßt. Um zwischen diesen Hypothesen eine Entscheidung<br />

herbeizuführen, sind wir auf unser Hintergrundwissen angewiesen,<br />

nach Goodman auf die Projizierbarkeit der in den Hypothesen<br />

verwendeten Prädikate. Diese Entscheidung ist keine Entscheidung der<br />

orthodoxen Konzeption von Induktion mehr, sondern eine Abduktion,<br />

die eine Hypothese deshalb als bessere Erklärung der Daten auszeichnet,<br />

weil sie von ihren Prädikaten her besser in unser Meinungssystem einzubetten<br />

ist. Sie führt daher zu einem kohärenteren System als ihre Goodmansche<br />

Konkurrentin.<br />

Ein weiteres Phänomen, auf das schon Hume (1985, 131) hingewiesen<br />

hat, zeigt darüber hinaus noch, daß die aufzählende Induktion kein<br />

gutes Modell der Theorienbestätigung anzubieten hat. In vielen Fällen<br />

begnügen wir uns schon mit einer einzelnen Einsetzungsinstanz einer<br />

82 In Teil 3 wird deutlich werden, daß diese Erklärung schon aus dem<br />

Grunde besser ist, weil sie eher zur Vereinheitlichung und Systematisiserung unserer<br />

Beobachtungen beiträgt, als das für die Hoffnung auf eine günstige Fortsetzung<br />

des bisherigen Fluges der Fall ist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 182<br />

Hypothese, um sie zu akzeptieren. Wir verlangen dann nicht nach weiteren<br />

Tests, was für einen aufzählenden Induktivisten doch selbstverständlich<br />

sein sollte. Habe ich ein Auto einmal angelassen, glaube ich, daß der<br />

Motor funktionstüchtig ist. (Das kann natürlich keine Langzeitprognosen<br />

stützen). Daß oft so wenige Instanzen genügen, um eine Hypothese<br />

vorläufig zu akzeptieren, liegt daran, daß in unserem Hintergrundwissen<br />

zu diesem Zeitpunkt keine ernstzunehmenden Konkurrenzhypothesen<br />

verfügbar sind, die den Einzelfall ähnlich gut erklären könnten. Die epistemische<br />

Beurteilung derartiger Fälle orientiert sich nicht primär an der<br />

Anzahl der Einsetzungsfälle, sondern an dem Fehlen oder Vorhandensein<br />

plausibler alternativer Erklärungen in unserem Hintergrundwissen.<br />

Überhaupt scheint in den Beispielen nicht die Anzahl der Tests wesentlich<br />

zu sein, sondern eher schon die Variabilität der Testinstanzen, worauf<br />

ebenfalls bereits Whewell (1967, 65) hingewiesen hat. Wir würden<br />

das Auto nicht immer wieder unter denselben Bedingungen starten, sondern<br />

eher schon bei trockenem versus feuchten Wetter bei Frost oder<br />

wenn der Motor schon warmgefahren wurde usf. Nur davon können<br />

wir uns weitere aufschlußreiche Informationen versprechen.<br />

Natürlich sind in manchen Fällen auch bestimmte Stückzahlen gefragt,<br />

um eine repräsentative Stichprobe zu erhalten. Für Meinungsumfragen<br />

genügt es nicht, nur eine Person zu befragen; um die Jahresproduktion<br />

einer Autofirma auf ihre Qualität zu überprüfen, benötigt man<br />

mehr als ein Fahrzeug aus der Produktion. In solchen Fällen ist auch geradezu<br />

ein Kontinuum von konkurrierenden Hypothesen denkbar, die in<br />

einer epistemischen Einschätzung berücksichtigt werden wollen. Das ist<br />

typisch für quantitative Aussagen und ein Indiz für ihren hohen Gehalt.<br />

In den zuletzt genannten Beispielen ist die beurteilende Statistik gefragt,<br />

die ebenfalls typischerweise abduktiv vorgeht. Sie schätzt statistische<br />

Hypothesen etwa danach ein, wie wahrscheinlich sie die beobachteten<br />

Daten machen, also wie gut sie die Daten in einem intuitiven Sinn<br />

des Wortes erklären. Man schließt dann auf die Hypothese, aus einer<br />

Menge von konkurrierenden Hypothesen, die die beste Erklärung der<br />

Daten anzubieten hat, d.h. im statistischen Fall, für die die beobachteten<br />

Daten am wahrscheinlichsten sind. Mit statistischen Theorien und Verfahren<br />

der beurteilenden Statistik möchte ich mich in dieser Arbeit aber<br />

nicht weiter beschäftigen, da sie eine ganze Reihe von eigenständigen<br />

Problemen aufwerfen, die meine Untersuchung in unnötiger Weise komplizieren<br />

würden.<br />

Die angesprochenen Beispiele für Induktionsschlüsse sollten zunächst<br />

nur belegen, daß der einfache Fall der aufzählenden Induktion


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 183<br />

sich durch die Abduktion genauso gut beschreiben läßt wie durch ein Induktionsprinzip.<br />

Tatsächliche Beispiele von Hypothesenbestätigung sehen<br />

im allgemeinen aber viel komplizierter aus und zeigen insbesondere<br />

eine starke Abhängigkeit von unserem Hintergrundwissen und von dem<br />

Vorliegen alternativer Erklärungshypothesen. Die ist in einem Induktionsprinzip<br />

nicht so natürlich unterzubringen wie im Verfahren der Abduktion.<br />

In diesen Fällen zeigt der Schluß auf die beste Erklärung seine Überlegenheit<br />

gegenüber dem einfachen Induktionsschema. Eine Reihe von<br />

intendierten Anwendungsfällen des Induktionsprinzips werden besser<br />

verständlich, wenn wir sie als Schluß auf die beste Erklärung interpretieren.<br />

Die anfängliche Einfachheit des Induktionsprinzips geht in den betrachteten<br />

Beispielen und den genannten Paradoxien ebenfalls zusehends<br />

verloren. Das sind gute Gründe, das Induktionsprinzip nur als einen –<br />

wenn auch vielleicht wichtigen – Spezialfall der Abduktion zu betrachten.<br />

Dabei ist auch noch zu beachten, daß die klassische Induktion typischerweise<br />

in den Rahmen fundamentalistischer Konzeptionen von Begründung<br />

gehört, geht sie doch davon aus, daß wir zunächst die „Daten“<br />

vorgegeben haben und erst dann nach geeigneten Theorien suchen,<br />

die Verallgemeinerungen unserer Daten verkörpern. Daß man hingegen<br />

schon bei der „Datenerhebung“ und Begründung von Beobachtungsaussagen<br />

auf Theorien angewiesen ist, ist eine Einsicht, die besser in die Kohärenztheorie<br />

paßt.<br />

5. Epistemische Stützung durch Erklärungen<br />

Inferentielle Beziehungen bestehen denn auch nicht nur in der einen<br />

Richtung, vom Erklärten zum Erklärenden, sondern auch in der anderen<br />

Richtung vom Erklärenden zum Erklärten. Für eine Kohärenztheorie<br />

der Erkenntnis sollte das selbstverständlich so sein, denn Rechtfertigungsbeziehungen<br />

werden in Kohärenzkonzeptionen der Rechtfertigung<br />

üblicherweise als reziproke Beziehungen verstanden. Die rechtfertigende<br />

Wirkung von Erklärungen wird aber nicht nur von der Kohärenztheorie<br />

verlangt, sondern ist auch bereits unabhängig davon intuitiv plausibel.<br />

Relativ leicht ist das für die deduktiv-nomologische Erklärung erkennbar,<br />

weil Erklärungen die dem DN-Schema genügen – und davon gibt es<br />

eine ganze Reihe, wie Hempel und Gefolgsleute nachweisen konnten –<br />

insbesondere Deduktionen sind und daher als logische Schlüsse „ideale“<br />

Rechtfertigungen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 184<br />

Allerdings haben nicht alle Erklärungen, die man normalerweise so<br />

bezeichnet, bereits deduktiven Charakter, 83 und Hempel spricht in solchen<br />

Fällen von unvollständigen Erklärungen. Aber auch Beispiele von<br />

unvollständigen Erklärungen wirken intuitiv rechtfertigend. Am deutlichsten<br />

wird das in den Beispielen, in denen wir berechtigte Zweifel an<br />

einer bestimmten Behauptung haben. Jemand erzählt uns z. B. von Vorgängen<br />

wie dem Gabelverbiegen des Uri Geller, die er gesehen hätte und<br />

die uns als Wunder erscheinen, oder einem Ufo, das er beobachtet zu haben<br />

glaubt. Daß er tatsächlich ein Gabelverbiegen beobachten konnte<br />

und daß es solche Vorgänge gibt, wird für uns genau in dem Moment<br />

glaubwürdiger, wo wir eine Erklärung erhalten, wie Uri Geller, nämlich<br />

etwa mit Hilfe bestimmter Chemikalien, seine „Wunder“ bewerkstelligen<br />

konnte. Solange diese Geschichten sich dagegen noch nicht in unsere<br />

Vorstellung der Welt einfügen, sondern als Wunder auftreten, sind sie<br />

für uns sehr unwahrscheinlich und damit unglaubwürdig. Wenn man sie<br />

mit Hilfe einer Erklärung in unser akzeptiertes Modell der Welt integrieren<br />

kann, verlieren sie ihre anfängliche Unglaubwürdigkeit und unser<br />

Vertrauen in die Glaubwürdigkeit des Berichterstatters gewinnt im Normalfall<br />

die Oberhand. Erst dann werden wir seine Berichte akzeptieren,<br />

wenn auch vielleicht nicht seine Interpretationen und Schlußfolgerungen<br />

dazu. Gelingt es uns jedoch nicht, eine brauchbare Erklärung für ein<br />

Phänomen zu finden, kann das für uns einen guten Grund darstellen,<br />

den entsprechenden Beobachtungsbericht als einen Beobachtungs- oder<br />

Erinnerungsfehler abzulehnen. Wissenschaftler werden von Esoterikern<br />

gern als engstirnig abgestempelt, wenn sie sich nur sehr schwer von<br />

übersinnlichen Phänomenen oder der Astrologie überzeugen lassen.<br />

Doch die Wissenschaftler verfahren damit nur nach völlig korrekten epistemischen<br />

Prinzipien, die auch die Esoteriker selbst in anderen Kontexten<br />

anwenden.<br />

Das ist auch der Kern von Humes (1979, 141ff) Argument gegen die<br />

Annahme von Wundern. Ein Wunder kann nur etwas sein, von dem wir<br />

sicher sind, daß es keine natürliche Erklärung besitzt. Geschehnisse von<br />

denen wir sicher sind, daß sie keine Erklärung besitzen, müssen aus dem<br />

Rahmen unserer Gesetze herausfallen und mit ihnen in irgendeiner Weise<br />

unverträglich sein. Damit wir etwas als Gesetz akzeptieren, hat es<br />

aber durch die Erfahrung bereits sehr gut bestätigt zu sein, und Berichte<br />

über Geschehnisse, die da nicht hineinpassen, sind ihrerseits immer viel<br />

schlechter bestätigt als die Gesetze. Sogar die Wunder, die wir selbst<br />

wahrzunehmen glauben, lassen daher in der Regel eine bessere Erklä-<br />

83 Beispiele dafür werden im 3. Teil diskutiert.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 185<br />

rung zu, als die, daß sich tatsächlich ein Wunder ereignet hat. Nämlich<br />

zumindest die, daß der Berichterstatter – im speziellen Fall auch wir<br />

selbst – uns geirrt haben. Humes Argument stützt sich an dieser Stelle<br />

auf den Schluß auf die beste Erklärung. Es wird die Glaubwürdigkeit alternativer<br />

Erklärungen für Wunderberichte oder eigene Wahrnehmungen<br />

vor unserem Hintergrundwissen eingeschätzt. Der Schluß, daß es<br />

sich um Berichte handelt, die tatsächlich auf ein Wunder zurückgehen,<br />

ist dabei nach Hume der Alternativerklärung, daß es sich um einen Irrtum<br />

der Wahrnehmung oder Überlieferung handelt, immer unterlegen,<br />

weil Wunder dem widersprechen müssen, was für uns einen ausgezeichneten<br />

epistemischen Status hat, nämlich Gesetzen. Seiner Meinung nach<br />

bevorzugt der Schluß auf die beste Erklärung daher immer die Annahme<br />

von Irrtümern gegenüber der von Wundern.<br />

Leider macht Hume es sich mit dieser apriorischen Argumentation<br />

gegen Wunder zu leicht. Wir werden in Abschnitt (IV. B) genauer erfahren,<br />

wie Wahrnehmungen in einer Kohärenztheorie behandelt werden,<br />

aber auf einen Punkt möchte ich schon jetzt hinweisen. Zu unseren<br />

Theorien über unsere Wahrnehmung gehört auch, daß wir uns nur unter<br />

bestimmten Bedingungen irren und dieser Irrtum ebenfalls einer konkreten<br />

Erklärung bedarf. In bestimmten Wahrnehmungssituationen sind wir<br />

uns ziemlich sicher, daß kein Irrtum vorliegt und keine Erklärung für einen<br />

Irrtum gegeben werden kann. Hier müßte der Irrtum selbst bereits<br />

als eine Art von Wunder erscheinen, das wir ebenfalls nicht zu akzeptieren<br />

bereit sind. Welches dann das größere Wunder ist, läßt sich nicht a<br />

priori entscheiden, und es ist jedenfalls nicht auszuschließen, daß wir<br />

uns in bestimmten Situationen dazu entschließen sollten, eher das beobachtete<br />

Ereignis als ein echtes Wunder zu akzeptieren, als es schlicht als<br />

Irrtum abzutun.<br />

Humes Argument weist freilich auf ein erkenntnistheoretisches Problem<br />

hin, mit dem angebliche Wunder immer zu kämpfen haben. Zum<br />

einen müssen ihre Befürworter zeigen, daß so etwas eigentlich nicht passieren<br />

kann, sonst wäre es kein Wunder; zum anderen müssen sie auch<br />

nachweisen, daß es doch passiert ist. So entsteht mit dem Akzeptieren eines<br />

Wunders jedesmal eine Inkohärenz in unseren Überzeugungen.<br />

Hume kann uns nur nicht überzeugen, daß es in allen derartigen Fällen<br />

die beste Auflösung dieser Inkohärenz ist, die Wunderberichte als Irrtümer<br />

abzutun, da wir uns auch damit eine Inkohärenz zu unseren Vorstellungen<br />

von unseren eigenen Wahrnehmungsfähigkeiten einhandeln. Nur<br />

wenn man diese Theorien über die eigenen Wahrnehmungsfähigkeiten<br />

ganz aus dem Spiel läßt – und an derartige Theorien über die Entste-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 186<br />

hung unserer Meinungen, also Theorien einer Metaebene, scheint Hume<br />

nicht gedacht zu haben –, wird sein Argument zwingend. Berücksichtigen<br />

wir sie, hängt die Frage, welche Inkohärenz letztlich größer ist, von<br />

den Einzelheiten des Falles und des Hintergrundwissens ab. Also erspart<br />

uns, so bedauerlich das sein mag, auch das Humesche Argument nicht<br />

die Untersuchung jedes Einzelfalls aufs Neue, bei dem wir mit „Wundern“<br />

in Berührung kommen. Das zeigt auch, was der Esoteriker leisten<br />

muß, will er uns von dem Vorhandensein bestimmter Phänomene überzeugen.<br />

Er muß Situationen herbeiführen, in denen die Annahme, wir<br />

wären getäuscht worden oder hätten einen Beobachtungs- oder Interpretationsirrtum<br />

begangen, weniger gut in unser Hintergrundwissen paßt,<br />

als die Annahme dieser Phänomene. Ein bekanntes probates Mittel dazu<br />

ist die Angabe von Anweisungen, nach denen jeder diese Phänomene reproduzieren<br />

kann. Gelingt das nicht, verhalten sich die Wissenschaftler<br />

nicht nur gegenüber Kaffeesatzlesern, sondern auch gegenüber ihren<br />

Kollegen skeptisch. Das belegt z. B. der Fall der kalten Fusion.<br />

Für Beispiele von epistemischer Stützung durch Erklärung müssen<br />

wir natürlich nicht gleich Wunder bemühen. Die rechtfertigende Funktion<br />

von Erklärungen kennen wir auch aus Alltagssituationen. Sie wird<br />

dort z. B. in den Fällen deutlich, in denen wir keine Erklärung produzieren<br />

können und etwas noch nicht in unser Überzeugungssystem eingebettet<br />

wurde. Dorothea berichtet uns, daß Hans 4000 DM in der Spielbank<br />

verloren hat. Da wir Hans als einen eher sparsamen und nicht besonders<br />

risikofreudigen Menschen kennen, haben wir dafür keine Erklärung,<br />

was uns zunächst an Dorotheas Erzählung zweifeln läßt. Wir fragen<br />

sie daher, wie es denn dazu kommen konnte und erwarten eine Erklärung<br />

von Hans Verhalten. Kann Dorothea nun eine glaubwürdige Erklärung<br />

produzieren, wird damit auch ihre Geschichte über Hans glaubwürdiger<br />

und zwar in dem Maße, in dem sie uns Hans Verhalten erklären<br />

kann. Sie könnte uns vielleicht erzählen, daß Hans dringend 20 000<br />

DM für ein Auto oder ein Geschäft benötigte und keine andere legale<br />

Möglichkeit sah, an diese Summe zu kommen, als sein Glück im Spiel zu<br />

versuchen. Dieses uns allen vertraute Phänomen, daß eine bestimmte Behauptung<br />

dadurch plausibler wird, daß man weitere Fakten nennt, obwohl<br />

diese weiteren Fakten selbst keineswegs bekannt oder sicher sein<br />

müssen, demonstriert noch einmal die große epistemische Bedeutung,<br />

die wir Erklärungen beilegen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 187<br />

Ein Bayesianist, 84 der Behauptungen anhand von Wahrscheinlichkeitsüberlegungen<br />

beurteilt, müßte sich über Beispiele dieser Art sehr erstaunt<br />

zeigen und eher in einer entgegengesetzten Richtung argumentieren.<br />

85 Dorotheas erste Behauptung war schon unwahrscheinlich, aber<br />

die Wahrscheinlichkeit für sie kann doch nicht anwachsen, wenn Dorothea<br />

ihre Geschichte durch weitere nicht sichere Behauptungen erweitert.<br />

Im Gegenteil hat die Gesamtgeschichte eine geringere Wahrscheinlichkeit,<br />

weil sie noch mehr Möglichkeiten besitzt, falsch zu sein, als Dorotheas<br />

ursprüngliche Behauptung. Der Bayesianist würde mit dieser<br />

Entgegnung aber meines Erachtens nur deutlich machen, daß wir Rechtfertigungen<br />

häufig nicht anhand einfacher Wahrscheinlichkeitseinschätzungen<br />

beurteilen.<br />

Thagard (1992, 90) nennt drei weitere Beispiele für eine bekannt<br />

rechtfertigende Wirkung von Erklärungen aus Bereichen, die er mit seinem<br />

Kohärenzprogramm namens ECHO genauer studiert hat. In einem<br />

Mordprozeß sucht man als Beweismaterial gegen den Angeklagten im<br />

allgemeinen nicht nur Indizien dafür, daß er die Tat begangen hat, sondern<br />

auch eine Erklärung, warum er die Tat begangen hat. Wenn wir<br />

nicht die geringsten Anzeichen eines Motivs erkennen können und den<br />

Angeklagten nicht für verrückt halten, läßt uns das an seiner Schuld<br />

zweifeln. Ähnlich sieht es mit der Diagnose eines Arztes aus. Sie wird<br />

glaubhafter, wenn er uns nicht nur sagen, kann, daß wir allem Anschein<br />

nach eine Leberzirrhose aufweisen, sondern er uns auch erklären kann,<br />

wie es dazu kam, und er etwa auf unseren übermäßigen Alkoholgenuß in<br />

Verbindung mit einer unbehandelten Gelbsucht verweisen kann. Das<br />

dritte Beispiel stammt aus der Wissenschaft. Die Erklärung, wie es zu einer<br />

bestimmten Entwicklung im Tierreich kommen konnte, etwa der<br />

Entwicklung der Lungen aus den Kiemen, erhöht für uns die Wahrscheinlichkeit,<br />

daß die Hypothese einer solchen Evolution wahr ist.<br />

All diese Beispiele beleuchten, wie wir mit den Berichten anderer<br />

Personen in epistemisch verantwortlicher Weise zu verfahren haben. In<br />

ähnlicher Form sollten wir dann auch die Informationen behandeln, die<br />

uns unsere Sinne vermitteln. Das heißt insbesondere, daß wir den Beob-<br />

84 Bayesianisten (wie z. B. Horwich 1982) arbeiten mit Glaubensgraden,<br />

die sich gemäß den Axiomen der Wahrscheinlichkeitstheorie verhalten sollen.<br />

Für (quantitative) Änderungen unserer Überzeugungen aufgrund neuer Daten<br />

verlassen sie sich auf das Gesetz von Bayes (daher der Name) (s. dazu den Anhang<br />

zu diesem Kapitel).<br />

85 Die tun das auch und sprechen etwa vom Simulationsirrtum. Das<br />

schnell Beiseiteschieben solcher Phänomene ist typisch für apriorische Begründungen<br />

von Methodologien.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 188<br />

achtungsüberzeugungen mißtrauen sollten, die wie Wunder eine Art von<br />

Fremdkörper in unserem Überzeugungssystem darstellen. Wenn ich<br />

mich längere Zeit in einer leeren Wüste glaubte und plötzlich eine Oase<br />

vor mir dort auftaucht, obwohl die Wüste gerade vorher noch leer war,<br />

so habe ich allen Grund, dieser Beobachtung zu mißtrauen. Nebenbei<br />

bemerkt zeigt sich auch hier wieder eine Anwendung des Schlusses auf<br />

die beste Erklärung, denn für solche Fälle scheint die beste Erklärung zu<br />

sein, daß ich gerade halluziniere oder eine Fata Morgana sehe. Diese Annahme<br />

erklärt das Auftreten meiner Wahrnehmungen mit einer von mir<br />

akzeptierten Theorie, nach der unter bestimmten Bedingungen Halluzinationen<br />

auftreten können, während meine Beobachtung sonst in Konflikt<br />

kommt mit der Annahme, daß Oasen und andere Objekte entsprechender<br />

Größe nicht von einer Minute zur anderen auftreten können,<br />

wenn sie vorher noch nicht da waren.<br />

Es ist hoffentlich durch die Beispiele deutlich geworden, daß die Verankerung<br />

einer Aussage durch eine Erklärung, die sie in unser Meinungssystem<br />

einbettet, diese Aussage in einem gewissen Grad epistemisch<br />

rechtfertigt. 86 In den Beispielen geht es dabei meist darum, bestimmten<br />

Aussagen ihre anfängliche Unplausibilität zu nehmen, die dadurch<br />

entstand, daß sie sich zunächst nicht kohärent in unser Modell<br />

unserer Welt einzufügen schienen. Der epistemische Gehalt von erklärenden<br />

inferentiellen Beziehungen erschöpfte sich aber nicht im Abbau<br />

negativer Gründe gegen eine Meinung, sondern trug in entsprechender<br />

Weise auch zur positiven Stützung bei. Eine Aussage, die im Zentrum<br />

unserer Theorien über die Welt steht, erfährt von all diesen Theorien<br />

eine gewisse Unterstützung. Wir erhalten ein System oder Netzwerk von<br />

Aussagen: Auf der einen Seite stehen die Beobachtungsüberzeugungen,<br />

die für sich allein noch völlig beziehungslos nebeneinander stehen. Auf<br />

der anderen Seite haben wir Theorien, die von den Beobachtungen mit<br />

Hilfe des Schlusses auf die beste Erklärung gestützt werden. Die Theorien<br />

können ihrerseits wieder andere Aussagen – unter anderem Beobachtungsaussagen<br />

– rechtfertigen, indem sie sie erklären. Sie stiften damit<br />

indirekte inferentielle Verbindungen unter den Beobachtungsüberzeugungen.<br />

Man könnte sagen, sie erzeugen die verbindenden Kanten in<br />

unserem Netz. Diese Metapher ist natürlich nicht auf die Auszeichnung<br />

einer festen theoriefreien Beobachtungssprache angewiesen. Es genügt,<br />

86 Nebenbei können die Beispiele auch erläutern, was wir in alltäglichen<br />

Situationen unter Erklärungen verstehen, und es wird sich im dritten Teil zeigen,<br />

daß wissenschaftlichen Erklärungen eine ähnliche Rolle auf einer anderen Ebene<br />

zukommt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 189<br />

wenn man die Vorstellung von recht speziellen Aussagen hat, die untereinander<br />

unverbunden sind, und die von allgemeineren, die solche Verbindungen<br />

herstellen können. Zu welcher Sorte ein Satz gehört, muß<br />

weder über einen bestimmten Kontext hinaus festgelegt sein, noch ist<br />

mit den Beobachtungsüberzeugungen ein Anspruch auf epistemische<br />

Priorität verbunden. Im Gegenteil wird dieser Anspruch sogar in (IV.B)<br />

explizit bestritten werden.<br />

Theorien sollen auch nicht nur „Daten“ vernetzen, sondern weisen<br />

gerade untereinander vielfältige inferentielle Beziehungen auf. Es werden<br />

singuläre Tatsachen durch Theorien erklärt, aber allgemeinere<br />

Theorien können genauso gut weniger allgemeine Theorien erklären<br />

und vernetzen. 87 Z. B. das Prinzip der Energieerhaltung ist auf einer sehr<br />

allgemeinen Stufe angesiedelt und fügt Theorien aus der Mechanik und<br />

der Elektrodynamik selbst über wissenschaftliche Revolutionen hinweg<br />

zusammen und erklärt bestimmte allgemeine Phänomene und Gesetze<br />

aus diesen Bereichen.<br />

6. Analogiebeziehungen<br />

Eine weitere verbindungsstiftende Beziehung in unserem System von<br />

Meinungen, die immer wieder in wissenschaftlichen wie außerwissenschaftlichen<br />

Kontexten genannt wird, ist die der Analogie. Auch durch<br />

Analogien findet eine Vernetzung unserer Überzeugungen statt. Salmon<br />

(1983, 197ff) spricht sogar vom Analogieschluß als einem sehr häufig<br />

angewandten Schlußverfahren. Er weiß dazu eine Reihe von Beispielen<br />

aus unterschiedlichen Bereichen anzugeben. Im Falle unerwünschter Nebenwirkungen<br />

eines Medikaments bei Ratten schließen wir auf zu erwartende<br />

unerwünschte Nebenwirkungen beim Menschen. Aus der Tatsache,<br />

daß große Verschuldung für private Haushalte keine guten Prognosen<br />

für deren Zukunft zuläßt, schließen wir, daß sie auch für den Staatshaushalt<br />

schädlich ist. Philosophen und Theologen haben argumentiert,<br />

daß man aus dem planvollen Aufbau des Menschen auf einen göttlichen<br />

Schöpfer schließen kann, wie man aus dem Fund einer Uhr auf einen<br />

Uhrmacher schließen darf, der die Uhr geplant und gebaut hat.<br />

Im Bereich der Wissenschaften hat Mary Hesse (1963) eine Reihe<br />

von Beispielen für Analogien untersucht. Etliche berühmte Fälle sind<br />

uns allen bekannt, aber an einige möchte ich trotzdem noch einmal erin-<br />

87 Im dritten Teil wird eine Konzeption dafür, was Theorien sind, vorgestellt,<br />

die auch präzisieren kann, wie Theorien verschiedene Anwendungen „in<br />

einen Zusammenhang bringen“.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 190<br />

nern, um anzudeuten, wie stark Analogien im Netz unserer wissenschaftlichen<br />

Überzeugungen präsent sind. Maxwell entwickelte seine Theorie<br />

der Elektrodynamik anhand einer fortschreitenden Reihe von mechanischen<br />

Analogiemodellen, die von einem einfachen Modell einer inkompressiblen<br />

Flüssigkeit bis hin zu seinem komplizierten Wirbelmodell<br />

reichten. Entsprechende mechanische Analogien, z. B. von Elektrizität<br />

als einer Art Flüssigkeit, prägen sicher auch heute noch unsere Vorstellungen<br />

von Elektrizität. Für das Bohrsche Atommodell haben in seinen<br />

verschiedenen Phasen unterschiedlich ausdifferenzierte Formulierungen<br />

des Planetensystems Pate gestanden. Die Modelle von Licht als Welle<br />

oder als Teilchen ziehen sich durch die Diskussion um die Natur des<br />

Lichts wie ein roter Faden. Auch die Materie wird mit Ansammlungen<br />

kleiner Punktpartikel oder einer Flüssigkeit verglichen. Insbesondere<br />

ideale Gase werden als elastische kleine Billiardkugeln betrachtet. Solche<br />

Analogien sind natürlich keineswegs auf die Physik beschränkt. Für Darwins<br />

Konzeption der Entstehung der Arten spielte die Analogie zwischen<br />

künstlicher und natürlicher Zuchtwahl eine entscheidende Rolle. Zur<br />

Erklärung von Intelligenz oder sinnesphysiologischen Leistungen werden<br />

immer wieder Analogien der verschiedensten Art zu Computermodellen<br />

eingesetzt. Einige Analogien sind sogar schon in unserem Vokabular<br />

verankert. So sprechen wir von „wissenschaftlichen Revolutionen“<br />

oder dem „Treibhauseffekt“ und stützen uns dabei auf Analogiemodelle<br />

in den entsprechenden Bereichen. Die Entwicklung und das Durchsetzen<br />

wissenschaftlicher Annahmen wird auch mit evolutionären Prozessen<br />

verglichen. Die Liste derartiger Beispiele ließe sich ohne weiteres verlängern.<br />

Daß in allen Zweigen unseres Wissens Analogien und Analogiemodelle<br />

eine wichtige Rolle spielen, dürfte also kaum zu bestreiten sein.<br />

Die strittige Frage ist eher, ob sie auch eine epistemische Funktion übernehmen<br />

können. Gibt die Bohrsche Analogie des Atoms mit einem Planetensystem<br />

uns einen Grund, eher an seine Theorie zu glauben, als wir<br />

es ohne diesen Vergleich getan hätten? Oder ist sie nur ein heuristisches<br />

Mittel gewesen, daß es Bohr erleichtert hat, seine Atomtheorie zu entwickeln<br />

und sie anderen Physikern zu vermitteln? Meines Erachtens haben<br />

Analogien neben heuristischen und didaktischen Funktionen, die<br />

eher in den Entdeckungskontext und die Vermittlung einer Theorie gehören,<br />

auch eine epistemische Funktion. Diese ist in den verschiedenen<br />

Beispielen allerdings recht unterschiedlich, je nachdem, wie weit die<br />

Analogie reicht, also wieviele positive Analogiebeziehungen und Disanalogien<br />

bestehen, je nachdem, ob es sich um eine eher formale oder stär-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 191<br />

ker materiale Analogie handelt. Analogien zwischen Licht- und Wasserwellen<br />

sind nicht so eng wie die zwischen zwei genau gleich konstruierten<br />

Motoren. Geht der eine kaputt, wenn man ihn mit einem bestimmten<br />

Öl laufen läßt, haben wir natürlich allen Grund anzunehmen, daß<br />

dasselbe bei dem anderen Motor passieren würde. Viele Analogiebeziehungen<br />

erbringen offensichtlich erkenntnistheoretische Leistungen. In<br />

den angegebenen Illustrationsbeispielen sorgten die Analogiebeziehungen<br />

jedenfalls in einem bestimmten Ausmaß für eine stärkere Vernetzung<br />

unseres Überzeugungssystems, die kohärenzstiftend wirkt. Zu diesem<br />

Punkt kann ich erst in der Untersuchung von Erklärungen und der Rolle,<br />

die Modelle in der Wissenschaft spielen, gehaltvollere Analysen anbieten.<br />

Analogien sollen dann als eine recht abstraktere Form von Erklärungen<br />

ausgewiesen werden.<br />

B. Eine Kohärenztheorie der Wahrnehmung<br />

Traditionell waren fundamentalistische Theorien wie die empiristischen<br />

dort zu Hause, wo es darum geht, dem Input für unser Überzeugungssystem<br />

in Form von Sinneswahrnehmungen einen angemessenen Platz einzuräumen.<br />

Dagegen wird kohärentistischen Theorien immer wieder vorgeworfen,<br />

sie könnten derartigen Input nicht in gebührender Weise berücksichtigen.<br />

Das sollte mit der BonJourschen Analyse von Wahrnehmungen<br />

anders geworden sein (BonJour 1987 und bes. 1985, II.6). Für<br />

die empiristischen Erkenntnistheorien beginnt alle Erkenntnis mit unseren<br />

Beobachtungen. Rechtfertigungen unserer Meinungen stützen sich<br />

immer mehr oder weniger direkt auf Beobachtungen. Dieses Bild von<br />

Erkenntnis kann zunächst trotz seiner Schlichtheit eine gewisse Plausibilität<br />

für sich in Anspruch nehmen. Sind nicht gerade Beobachtungsüberzeugungen<br />

als von außen kommend und nicht aus unseren anderen<br />

Überzeugungen abzuleiten anzusehen und damit paradigmatische Beispiele<br />

nichtinferentieller Meinungen? Hat nicht auch van Fraassen (in<br />

Churchland/ Hooker 1985, 286) Recht mit seiner Behauptung, daß unsere<br />

einzig legitime Informationsquelle über die Welt unsere Sinneswahrnehmungen<br />

sind und wir deshalb nicht umhin können, Empiristen zu<br />

sein? Sehen wir von den bekannten inhärenten Problemen, wie etwa der<br />

Theorienbeladenheit der Beobachtungssprache, ab, die in diesem Modell<br />

vom Wissenserwerb auftreten können, so erscheint uns diese Ansicht<br />

überzeugend. Dieses Modell beschreibt jedoch eigentlich nur die Genese<br />

unseres Wissens und hat somit keine direkten Implikationen für die


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 192<br />

Struktur unserer Erkenntnis. Diese Trennung, die wiederum die Unterscheidung<br />

von Genese und Rechtfertigung stark macht, findet bei Empiristen<br />

nicht immer genügend Beachtung.<br />

Außerdem gibt es für das einfache empiristische Bild unseres Erkenntniserwerbs<br />

eine ständige Quelle der Beunruhigung, nämlich Sinnestäuschungen<br />

und unsere Kenntnis von möglichen Irrtumsquellen. Beobachtungen<br />

sind bekanntlich nicht unter allen Umständen zuverlässig,<br />

sondern können uns in bestimmten Situationen in die Irre führen. Das<br />

gilt nicht nur für den im Wasser geknickt erscheinenden Stab oder extreme<br />

Beispiele wie Halluzinationen, sondern findet sich bereits in gewöhnlichen<br />

Alltagssituationen. Wir erkennen einen Bekannten nicht, obwohl<br />

wir ihn ansehen oder halten irrtümlich einen Unbekannten für einen<br />

Bekannten, z. B. wenn wir ihn nur von hinten sehen, unaufmerksam<br />

sind usw. Die vielen Beispiele solcher Irrtümer bei unseren Beobachtungsüberzeugungen<br />

haben empiristische Philosophen auf so fragwürdige<br />

Theorien wie die phänomenalistischen geführt. Sie versuchen auf der<br />

Ebene von sogenannten Sinnesdaten wieder eine sichere Basis für unsere<br />

Erkenntnis zu finden. Doch entscheidend ist: Irrtümer unterlaufen uns<br />

nicht nur in statistischer Weise, sagen wir zu 5%, sondern wir haben relativ<br />

konkrete Ansichten oder sogar Theorien darüber, unter welchen<br />

besonderen Umständen wir unseren Sinnen vertrauen dürfen und unter<br />

welchen Umständen wir es lieber lassen sollten.<br />

1. Vier Typen von Irrtumsquellen<br />

Um ein realistischeres Bild der Rechtfertigung von Wahrnehmungsüberzeugungen<br />

zu gewinnen, orientiere ich mich zunächst daran, wie andere<br />

meine Beobachtungen bewerten; man denke etwa an Situationen vor<br />

Gericht. Nehmen wir also an, ich sage in einem Mordprozeß aus, und<br />

man vermutet nicht, daß ich mit dem Angeklagten oder dem Staatsanwalt<br />

unter einer Decke stecke. Trotzdem wird das Gericht meine Angaben<br />

über meine Beobachtungen nicht einfach für bare Münze nehmen,<br />

sondern einer Bewertung im Hinblick auf ihre Zuverlässigkeit unterziehen,<br />

wozu zuerst eine Reihe von typischen Irrtumsquellen auszuschalten<br />

sind. Wenn ich von meinen Beobachtungen berichte, könnte mein Gedächtnis<br />

als eine Irrtumsquelle ins Spiel gebracht werden. Sehen wir davon<br />

vorläufig einmal ab und halten es für absolut vertrauenswürdig.<br />

Dann bleiben trotzdem eine Reihe anderer Faktoren übrig, die zu berücksichtigen<br />

sind.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 193<br />

Da sind als erstes die äußeren Beobachtungsbedingungen zu nennen,<br />

nach denen man fragen könnte: War es zum Zeitpunkt der Beobachtung<br />

noch hell genug? Hatten Sie Gegenlicht? Verfälschte das rote Abendlicht<br />

nicht die Farben? War der beobachtete Mann nicht viel zu weit weg?<br />

Konnte man durch die trübe Scheibe wirklich jemand erkennen? usw. Je<br />

nach der Situation, um die es in der Aussage geht, können durch die angesprochenen<br />

Bedingungen Fehlerquellen ins Spiel kommen, die meine<br />

Wahrnehmung unzuverlässig werden lassen. Wir haben auch zumindest<br />

Common-Sense-Theorien darüber, welche der äußeren Beobachtungsbedingungen<br />

in bestimmten Situationen eine relevante Beeinträchtigung<br />

darstellen können. Neben den äußeren Beobachtungsbedingungen wird<br />

man mich vielleicht nach inneren Beobachtungsbedingungen befragen,<br />

die mehr auf meiner Seite angesiedelt sind und die Zuverlässigkeit meiner<br />

Sinnesorgane betreffen: Sind Sie kurzsichtig/schwerhörig? Hatten<br />

Sie Alkohol oder andere Drogen genommen? Waren Sie zu erkältet, um<br />

das ausströmende Gas riechen zu können? Haben Sie vielleicht geträumt?<br />

usw. Jeder kann sich leicht Situationen vorstellen, in denen<br />

diese und ähnliche Fragen für eine epistemische Beurteilung meiner Beobachtungen<br />

bedeutsam sind.<br />

Für viele Beobachtungen reicht es aber nicht aus, die physikalischen<br />

oder physiologischen Bedingungen zu untersuchen, unter denen die<br />

Wahrnehmungen gemacht wurden, sondern zusätzlich zu den Beobachtungsbedingungen<br />

spielen auch das Hintergrundwissen des Beobachters<br />

oder seine kognitiven Einstellungen eine Rolle für die Zuverlässigkeit<br />

der Wahrnehmung. 88 Wenn ich berichte, einen roten Wagen gesehen zu<br />

haben, wird man vermutlich nicht allzuviel an Wissen auf meiner Seite<br />

verlangen, aber wenn ich berichte, einen roten Mazda 626 beobachtet<br />

zu haben, verlangt das schon bestimmte Kenntnisse, die etwa daran zu<br />

messen sind, wie viel ich über die Unterschiede dieses Fahrzeugs zu ähnlichen<br />

Typen weiß. Kenntnisse ganz anderer Art sind notwendig, wenn<br />

ich berichte, eine Gewinnstellung für Weiß auf einem Schachbrett gesehen<br />

zu haben. Wieder andere für die Beobachtung, daß mir ein Cockerspaniel<br />

über den Weg lief.<br />

Außer diesem rein kognitiven Hintergrundwissen, können ebenso<br />

bestimmte stärker emotional gefärbte Voreinstellungen meine Wahrnehmungen<br />

beeinträchtigen. Die Sozialpsychologie lehrt uns, daß bestimmte<br />

Annahmen, die wir über bestimmte Personengruppen haben, die man<br />

landläufig auch oft als Vorurteile bezeichnet, sogar unsere Wahrnehmun-<br />

88 An dieser Stelle sollte auch deutlich sein, daß ich unter Beobachtungsüberzeugungen<br />

nicht an so etwas wie theoriefreie Überzeugungen denke.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 194<br />

gen deutlich beeinträchtigen können – oft in erheblich größerem Umfang<br />

als das von uns selbst vermutet wird. So berichtete, nach Vorlage<br />

von Bildern mit einem Weißen mit einem Rasiermesser in der Hand und<br />

einem Farbigen ohne, die Hälfte der Versuchspersonen, der Farbige<br />

hätte das Messer gehalten (z.Z. Schäfer/Six 1978, 83). Das Gericht<br />

könnte mich fragen, ob ich Vorurteile gegen Farbige, Ausländer oder<br />

Frauen in bestimmten Berufen habe. Auch positive Voreinstellungen<br />

oder Wünsche können natürlich unsere Zuverlässigkeit in Form von<br />

Wunschdenken trüben. Wir erhalten damit eine erste und grobe Typisierung<br />

bekannter Irrtumsquellen.<br />

Typen von Irrtumsquellen:<br />

- äußere Beobachtungsbedingungen<br />

- innere Beobachtungsbedingungen<br />

- kognitives Hintergrundwissen<br />

- emotionale Voreinstellungen<br />

Dieser kurze Abstecher in mögliche empirische Untersuchungen der Zuverlässigkeit<br />

unserer Wahrnehmungen, sollte demonstrieren, wie weitgehend<br />

unsere Theorien über den Wahrnehmungsprozeß die Bewertung<br />

dieses Inputs ermöglichen und sogar in wichtigen Situationen, etwa vor<br />

Gericht, steuern können. Dabei wurde deutlich, daß Faktoren aus den<br />

vier genannten Bereichen die Zuverlässigkeit unserer Wahrnehmungen<br />

auf jeweils unterschiedliche Art beeinträchtigen können und daß wir<br />

über Theorien verfügen, um die Beeinträchtigungen abzuschätzen. Es<br />

geht mir natürlich hier nicht um die Details dieser Theorien und ihre<br />

Richtigkeit, sondern um das grundsätzliche Vorgehen bei der Beurteilung<br />

von Wahrnehmungen. Dabei suchen wir nach speziellen Irrtumsquellen<br />

und nehmen nicht etwa an, unsere Beobachtungen seien zu x%<br />

zuverlässig. Ausgangspunkt einer kohärentistischen Analyse einer bestimmten<br />

Sinneswahrnehmung ist also eine entsprechende Fehleranalyse.<br />

Zu ergänzen ist sie sicherlich um Kenntnisse über Besonderheiten des<br />

epistemischen Subjekts. Vielleicht wissen wir von ihm, daß er sich bei<br />

Automarken vorbeifahrender Fahrzeuge immer vertut, obwohl er eigentlich<br />

ein Fachmann auf diesem Gebiet ist und Augen wie ein Falke besitzt.<br />

Doch auch wenn all diese Bedingungen für die Zuverlässigkeit der<br />

Entstehung einer Beobachtungsüberzeugung sprechen, und wir damit<br />

über gute Gründe verfügen, sie zu akzeptieren, kann sie trotzdem falsch<br />

sein. Epistemische Rechtfertigung kann immer nur internalistisch sein<br />

und daher nur die Irrtumsmöglichkeiten ausschalten, die uns schon bekannt<br />

sind.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 195<br />

Neben einer Bewertung des Informationswegs, können wir eine Zeugenaussage<br />

auch anhand dessen überprüfen, wie gut sie zu unseren anderen<br />

Informationen über den Fall paßt. Manchmal wissen wir, daß eine<br />

Wahrnehmungsüberzeugung falsch sein muß, ohne eine Irrtumsquelle<br />

dafür namhaft machen zu können. Das ist etwa bei sich widersprechenden<br />

Zeugenaussagen der Fall, von denen nur eine wahr sein kann. Ähnliches<br />

kann auch passieren, wenn sich eine Zeugenaussage vor unserem<br />

Hintergrundwissen wie ein Wunderbericht ausnimmt. Der dann entstandene<br />

Zustand bleibt natürlich solange epistemisch unbefriedigend, wie<br />

wir nicht die Falschaussage plus einer Erklärung für sie namhaft machen<br />

können.<br />

Wenn wir epistemisch verantwortlich urteilen wollen, könne wir<br />

diese Bewertung von Beobachtungen nicht auf andere beschränken und<br />

uns selbst schlicht als unfehlbar einstufen, indem wir uns ganz auf unsere<br />

subjektive Sicherheit verlassen. Daß diese keine Wahrheitsgarantie<br />

und auch nicht immer einen guten Wahrheitsindikator bietet, wissen<br />

wir. Meine eigenen Beobachtungen muß ich daher ebenso anhand meiner<br />

Theorien über zuverlässige Wahrnehmungen und mögliche Irrtumsquellen<br />

von Wahrnehmungen bewerten, wie ich das bei anderen tue.<br />

Das geschieht in einigen Fällen auch. Wir sagen dann etwa, ich glaube,<br />

Michael gesehen zu haben, bin mir aber nicht sicher, weil er so weit weg<br />

war, oder der Stock sieht im Wasser für mich gebogen aus, aber ich glaube<br />

trotzdem, daß er gerade ist. Es paßt weit kohärenter in unser Meinungssystem<br />

hinein, den Stock als gerade einzuschätzen. Wir sahen vielleicht,<br />

daß er gerade war, bevor er ins Wasser gehalten wurde, haben<br />

(implizite) allgemeine Annahmen, daß Stöcke aus Holz beim Eintauchen<br />

ins Wasser nicht verbiegen, wissen, daß Wasseroberflächen durch Lichtbrechung<br />

scheinbare Krümmungseffekte hervorrufen können usw. All<br />

unsere Wahrnehmungen werden vor dem Hintergrund unseres Wissens<br />

um diese Phänomene daher am besten durch die Annahme erklärt, daß<br />

der Stock gerade und nicht gebogen ist. Besonders in den Fällen, in denen<br />

viel von unserer Beobachtungsüberzeugung abhängt, können wir<br />

nicht mehr völlig auf unsere Wahrnehmungen vertrauen, sobald einige<br />

der aufgezählten Irrtumsquellen für uns erkennbar sind. So verlockend,<br />

wenn nicht geradezu psychisch notwendig, ein allgemeines Vertrauen in<br />

unsere eigenen Wahrnehmungen auch erscheint, für begründete Meinungen<br />

sind wir auf weitere Annahmen über unsere Zuverlässigkeit in entsprechenden<br />

Situationen angewiesen.<br />

Das wird uns vor allem dann bewußt, wenn nicht mehr die einfachen<br />

Standardbedingungen gegeben sind, in denen wir uns für zuverlässi-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 196<br />

ge Beobachter halten. Da diese Standardbedingungen allerdings in unseren<br />

Alltagssituationen meistens vorliegen, scheinen uns Wahrnehmungen<br />

im allgemeinen zuverlässige Grundlagen für unsere Erkenntnis abzugeben.<br />

Wenn es uns um begründete Meinungen geht, sind wir trotzdem<br />

stets auf eine Rechtfertigung solcher Wahrnehmungen anhand unserer<br />

Einschätzungen unserer Zuverlässigkeit als Beobachter in ganz bestimmten<br />

Situationstypen angewiesen. Welche das sind, läßt sich wiederum<br />

nicht ein für allemal a priori entscheiden, sondern ist selbst wieder Bestandteil<br />

allgemeinerer empirischer Theorien über die Welt und unseren<br />

Wahrnehmungsapparat.<br />

Zusammengenommen: Wir sollten unsere Beobachtungsüberzeugungen<br />

einer zweifachen Bewertung vor unserem Hintergrundwissen unterwerfen:<br />

1. Wie zuverlässig war der Informationsweg? und 2. Wie kohärent<br />

fügen sie sich in unser Hintergrundwissen ein? Auch ein im allgemeinen<br />

zuverlässiger Informationsweg kann im Einzelfall zu falschen<br />

Annahmen führen. Um diese herausfiltern zu können, haben wir nur die<br />

Fehleranalyse zur Verfügung. Diese doppelte Überprüfung möchte ich<br />

noch am Beispiel eines Wahrnehmungstyps illustrieren, dem wir nicht so<br />

blind vertrauen wie unseren fünf Sinnen. Nehmen wir an, ich habe bei<br />

mir hellseherische Fähigkeiten entdeckt, und die sagen mir, daß in einigen<br />

Stunden Deutschland von einem riesigen Meteoriten getroffen und<br />

vernichtet wird. Bevor ich anfange, mir richtig Sorgen zu machen, überlege<br />

ich, wie zuverlässig ich als Hellseher bin. Nehmen wir an, meine<br />

bisherige Trefferquote liegt bei 90%. Das erscheint dann schon beunruhigend.<br />

Weiterhin überlege ich, ob meine Zuverlässigkeit von irgendwelchen<br />

speziellen Faktoren abhängt: meiner Konzentrationsfähigkeit, der<br />

Tageszeit, den Mondphasen, dem zuletzt gesehen Film, speziellen Inhalten<br />

der Vorahnung oder was sonst noch in Frage kommen mag. Dann<br />

muß ich überprüfen, ob diese Störfaktoren vorlagen und abschätzen,<br />

welche Beeinträchtigung sie zusammengenommen darstellen. Schließlich<br />

komme ich zu dem Ergebnis, daß die Zuverlässigkeit meiner hellseherischen<br />

Kräfte genug Anlaß zur Sorge bietet. Daher befrage ich nun einen<br />

befreundeten Astronomen dazu. Der kann mir zeigen, daß in der entsprechenden<br />

Richtung gar kein Meteorit im Anflug ist, der doch, sollte<br />

meine Vermutung wahr sein, sich längst zeigen müßte. Außerdem weiß<br />

er mir zu erklären, warum wir in nächster Zeit nicht mit einem derartigen<br />

Meteoriten zu rechnen haben. Obwohl das spezielle Verfahren zum<br />

Erkenntnisgewinn also zuverlässig ist, ist es durchaus sinnvoll, die Informationen<br />

aus dieser Quelle weiteren Kohärenztests gegen unser übriges<br />

Wissen zu unterwerfen. Eine sorgfältiges und erfolgloses Absuchen des


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 197<br />

Himmels sollte mich eigentlich wieder beruhigen. Ebenso gründlich sollten<br />

wir unsere anderen Wahrnehmungen beurteilen, auch wenn es uns<br />

sicher schwer fällt, ihnen gegenüber eine derart distanzierte Einstellung<br />

einzunehmen. Deshalb wird sich der Staatsanwalt auch nicht allein auf<br />

den guten Willen der Zeugen verlassen, sondern die genannten Punkte<br />

selber sorgfältig prüfen.<br />

2. Eine kohärentistische Rechtfertigung von Wahrnehmungen<br />

Eine kohärenztheoretische Behandlung der Wahrnehmung startet bei<br />

den Beobachtungsüberzeugungen, die sich für uns spontan einstellen,<br />

wenn wir bestimmte Wahrnehmungen machen. Schaue ich auf meinen<br />

Schreibtisch, kann ich mich nicht dafür entscheiden zu glauben, daß ein<br />

Notebook vor mir steht oder nicht. Diese Meinung stellt sich spontan<br />

und unabweisbar ein. Nach BonJour sind Wahrnehmungsüberzeugungen<br />

bestimmte spontane Meinungen, die etwa durch ihre Inhalte und ihren<br />

Zusammenhang zu anderen Meinungen ausgezeichnet sind. Anhand unserer<br />

Theorien über unsere Wahrnehmung und mögliche Irrtumsquellen<br />

werden diese dann bewertet und jene unter ihnen, die diesen Test bestehen,<br />

sind für uns begründete Beobachtungsüberzeugungen. Das Lehrersche<br />

Diktum vom Wissen als Metawissen mündet damit für eine<br />

Wahrnehmungsüberzeugung p in so etwas wie das folgende Rechtfertigungsschema<br />

(vergleiche dazu BonJour 1985, 118ff):<br />

Rechtfertigungsschema für Wahrnehmungen (RW)<br />

1) p ist spontan in mir aufgetreten.<br />

2) p ist als Wahrnehmungsüberzeugung einer bestimmten Art (z. B. visueller<br />

Art) zu klassifizieren.<br />

3) p entstand in mir unter der Bedingung B.<br />

4) Wahrnehmungsüberzeugungen, die in mir unter B entstehen, sind<br />

nach meinem Hintergrundwissen wahrscheinlich wahr. (Es liegt<br />

u.a. keine der vier Irrtumsquellen vor.)<br />

Also: p ist wahrscheinlich wahr.<br />

Die Bedingung (1) besagt, daß p nicht Ergebnis einer Überlegung oder<br />

sogar Ableitung ist und auch nicht einer bewußten Erinnerung an ein bestimmtes<br />

Erlebnis. Damit ist aber noch nicht sichergestellt, daß es sich<br />

um eine Beobachtungsüberzeugung handelt. Das ist in einem zweiten<br />

Schritt eigens zu vermuten, denn es können auch Meinungen spontan in<br />

uns auftauchen, wie die, daß 19 eine Primzahl ist, die wir üblicherweise


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 198<br />

nicht als Beobachtungen klassifizieren. P sollte darüber hinaus als Beobachtung<br />

einer bestimmten Art eingestuft werden, denn danach richtet es<br />

sich, welche Bedingungen B in (3) relevant sind. Im vierten Schritt bringe<br />

ich meine Kenntnisse der Wahrnehmungstheorie und der besonderen<br />

Bedingungen meines Wahrnehmungsapparats, die mir bekannt sind, in<br />

Anschlag, so daß ich dann eine erste Begründung für p angegeben habe.<br />

Ein einfaches Beispiel mag das Schema illustrieren. Ich schaue mich<br />

um und sehe eine Stehlampe. Die Überzeugung, daß eine Stehlampe hinter<br />

mir steht, kann man nun wie folgt rechtfertigen (wobei ich das Problem<br />

des Gedächtnisses weiterhin ausklammere): In mir entstand spontan<br />

die Überzeugung, daß hinter mir eine Stehlampe steht. Dabei handelt<br />

es sich um eine visuelle Wahrnehmung. Die Stehlampe ist ein Objekt<br />

mittlerer Größe mit einem geringen Abstand von mir, und meines<br />

Wissens liegt keine mir bekannte Fehlerquelle der Wahrnehmung vor.<br />

Unter diesen Umständen kann ich meinen Augen trauen. Sehr wahrscheinlich<br />

steht also eine Stehlampe hinter mir.<br />

Damit ist eine kohärentistische Analyse natürlich noch keineswegs<br />

abgeschlossen. BonJour hat damit nur den Informationsweg im Blick.<br />

Das vorgeschlagene Rechtfertigungsschema ist eingleisig und kann die<br />

vielfältigen Zusammenhänge einer Beobachtung zu unseren anderen<br />

Meinungen noch nicht erfassen. Die Auszeichnung von p als einer Beobachtung<br />

hängt z. B. ebenfalls davon ab, welche anderen Beobachtungen<br />

wir kurz vor und nach p machen. Wir erwarten für die meisten Situationen<br />

eine gewisse Kontinuität und wären ausgesprochen skeptisch, wenn<br />

wir auf Beobachtungen wie die im Beispiel des Superempiristen (s. A.1)<br />

stießen. Außerdem können auch Theorien darüber, welche Ereignisse<br />

überhaupt auftreten können und welche nicht, zur Zurückweisung von<br />

Beobachtungen führen, falls diese im Lichte der Theorie als ein Wunder<br />

erscheinen (s. IV.A.5). Zusätzlich zu den Bedingungen (1) (4) von RW<br />

sollten wir daher wenigstens noch eine Bedingung (5) aufnehmen:<br />

5) Die Annahme, daß p, fügt sich kohärent in unser Meinungssystem<br />

ein und erscheint uns insbesondere nicht als Wunder. 89<br />

Diese Bedingung mag als Hinweis genügen, daß neben der geradlinigen<br />

Rechtfertigung (1) (4) noch andere Elemente aus dem Netz unseres<br />

Überzeugungssystems für die epistemische Bewertung einer Wahrneh-<br />

89 Holistischen Aspekten schenkt BonJour an dieser Stelle nicht genügend<br />

Aufmerksamkeit. Sie können hier nur angedeutet werden, wobei von „Kohärenz“<br />

natürlich nur in einem intuitiven Sinn gesprochen werden kann, der erst in<br />

(IV.F) präzisiert wird.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 199<br />

mung bedeutsam werden können – was man von einer Kohärenztheorie<br />

wohl auch erwarten sollte. Trotz der Idealisierungen, die man vornehmen<br />

muß, um ein einfaches Schema RW zu bekommen, können die<br />

Überlegungen das eine zeigen, das wir festhalten sollten:<br />

Differenzierte Bewertung von Wahrnehmungen<br />

Wir können zwischen mehr oder weniger gut gerechtfertigten Beobachtungsüberzeugungen<br />

unterscheiden, die sich im allgemeinen anhand<br />

zahlreicher anderer Überzeugungen, die wir haben, rechtfertigen<br />

lassen, obwohl die Beobachtungsüberzeugungen spontan und<br />

nicht-inferentiell entstanden sind.<br />

Das bringt noch einmal den Unterschied zu empiristischen Konzeptionen<br />

von Erkenntnis zum Ausdruck, denn für sie sind die Beobachtungsüberzeugungen<br />

basal und lassen damit nach FU 1 keine derartigen inferentiellen<br />

Rechtfertigungen zu.<br />

BonJour (1985, 121ff) skizziert auch den Weg, auf dem sich negative<br />

Wahrnehmungsüberzeugungen begründen lassen. Etwa meine Überzeugung,<br />

daß keine Schreibmaschine vor mir steht. Auch diese Überzeugung<br />

sollte anhand meiner Beobachtungen gerechtfertigt werden. Das ist relativ<br />

analog zu dem Rechtfertigungsschema (RW) möglich und soll hier<br />

nur für das konkrete Beispiel angegeben werden:<br />

1) Ich habe keine Wahrnehmungsüberzeugung, daß eine Schreibmaschine<br />

vor mir steht.<br />

2) Es liegen bestimmte Bedingungen B für Beobachtungen visueller<br />

Art vor. (bestimmte Lichtverhältnisse, Augen auf, Brille auf, keine<br />

Drogen …)<br />

3) Unter den Bedingungen B würde wahrscheinlich eine spontane<br />

Wahrnehmungsüberzeugung, daß vor mir eine Schreibmaschine<br />

steht, auftreten, wenn vor mir eine Schreibmaschine stünde.<br />

Also: Vor mir steht wahrscheinlich keine Schreibmaschine. 90<br />

In beiden Fällen von Rechtfertigung positiver wie negativer Wahrnehmungen<br />

bin ich darauf angewiesen, meine Zuverlässigkeit als Beobachter<br />

angepaßt an die speziellen Umstände der Wahrnehmungssituation<br />

auf der Grundlage meiner Kenntnisse über meine Umgebung und mein<br />

Wahrnehmungsvermögen einzuschätzen. Das werden wir in der Praxis<br />

nur in außergewöhnlichen Situationen tatsächlich tun, aber wenn wir<br />

90 Auch dieses Schema sollte um eine Bedingung des Typs (5) ergänzt werden,<br />

also etwa durch: Die Annahme, daß keine Schreibmaschine vor mir steht,<br />

paßt auch kohärent zu meinen anderen Überzeugungen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 200<br />

aufgefordert werden, eine unserer Beobachtungen zu rechtfertigen, geben<br />

Rechtfertigungen des Typs (RW) die besten Antworten.<br />

BonJour schneidet noch eine andere Frage an, die kurz aufzugreifen<br />

sich an dieser Stelle lohnt. Wenn Beobachtungsüberzeugungen spontan<br />

und unabweisbar in uns auftreten und wir uns nicht wirklich entscheiden<br />

können, eine bestimmte Wahrnehmungsüberzeugung zu haben oder<br />

nicht zu haben, welche praktische Relevanz hat dann die Rechtfertigung<br />

von Beobachtungsüberzeugungen? Diese Frage BonJours ließe sich auch<br />

auf andere Überzeugungen erweitern, denn in den meisten Fällen können<br />

wir uns nicht einfach entscheiden, etwas zu glauben oder abzulehnen,<br />

sondern da sind kausale Vorgänge am Werk, die nicht unserem direkten<br />

Einfluß unterliegen (s. dazu auch Williams 1978). Ich möchte<br />

hier nur auf zwei Punkte verweisen: 1. Auch wenn eine bestimmte Beobachtungsüberzeugung<br />

unwillkürlich in mir auftritt, kann ich sehr wohl<br />

noch in einem gewissen Maß entscheiden, welche Rolle sie in meinem<br />

Räsonieren und in meinen Entscheidungen spielen soll. Dazu ein Beispiel:<br />

Wenn ich gestern abend meine Frau in den Armen eines anderen<br />

Mannes zu sehen glaubte und mich schrecklich darüber aufgeregt habe,<br />

kann ich gleichwohl heute noch einmal nüchtern darüber nachdenken,<br />

für wie gewichtig ich meine Beobachtung halte. Bevor ich die Scheidung<br />

einreiche, überlege ich mir vielleicht, daß ich sie nur in einer „verräucherten<br />

Kneipe“ auf größere Entfernung und von hinten sah und auch<br />

schon einige Gläser Wein getrunken hatte. Dann bin ich mir unsicher<br />

über die Zuverlässigkeit meiner Beobachtung und werde keine so gravierende<br />

Entscheidung wie ein Scheidungsverlangen allein auf diese eine<br />

Beobachtung stützen. 2. Ich könnte die Beobachtung im Nachhinein<br />

vielleicht sogar ganz aufgeben und zur gegenteiligen Ansicht gelangen.<br />

Mir könnte etwa einfallen, daß die Frau, die ich den Armen des Mannes<br />

sah, ein rotes Kleid trug, meine Frau aber rote Kleider haßt. Außerdem<br />

geht sie am Freitag doch immer zum Bowling, das sie niemals ausfallen<br />

lassen würde. Weitere Indizien können mir einfallen, die mich schließlich<br />

dazu veranlassen, meinen Verdacht gegen meine Frau vollkommen<br />

aufzugeben – ich bin schließlich auch nicht übertrieben eifersüchtig –<br />

und damit meine Überzeugung, daß ich meine Frau sah, nachträglich als<br />

Irrtum einzustufen. Erkenntnistheoretische Überlegungen, die meine Zuverlässigkeit<br />

als Beobachter betreffen und Kohärenztests, können also<br />

zumindest im Nachhinein eine wichtige Rolle für die Gestaltung meines<br />

Überzeugungssystems und die zu ziehenden Konsequenzen spielen,<br />

selbst wenn die Beobachtungsüberzeugungen zunächst unabweisbar sind.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 201<br />

3. Empiristische und rationalistische Wahrnehmungsauffassungen<br />

Kehren wir mit der kohärentistischen Analyse von Wahrnehmungen ausgerüstet<br />

noch einmal zu den empiristischen und rationalistischen Erkenntnistheorien<br />

zurück. Empiristen wie Rationalisten waren in ihrer<br />

Mehrzahl Fundamentalisten. Inwieweit unterscheiden sie sich von der<br />

kohärentistischen Sichtweise der Rechtfertigung von Wahrnehmungen?<br />

Für Empiristen gibt es Beobachtungsüberzeugungen, die keiner inferentiellen<br />

Rechtfertigung bedürfen, weil sie direkt beobachtbare Tatsachen<br />

wiedergeben. Diese Theorie scheint uns jedoch nur deshalb einigermaßen<br />

plausibel, weil wir in den meisten Fällen von Wahrnehmungen zuverlässig<br />

Wahrnehmende sind. Man könnte sagen, ihre Theorie wird<br />

durch unsere allgemeinen Annahmen über unsere Wahrnehmungen für<br />

die meisten normalen Anwendungsfälle gerechtfertigt. Der Kohärenztheoretiker<br />

hat gegen diese Art der Rechtfertigung vor allem drei Einwände<br />

zu erheben: 1. Die Empiristen sind damit auf bestimmte inhaltliche<br />

Annahmen (oder Theorien) über unsere Wahrnehmung festgelegt —<br />

besonders deutlich wird das etwa bei Humes Konzeption, daß alle<br />

„ideas“ letztlich auf „impressions“ zurückzuführen sind —, die, selbst<br />

wenn wir sie heute noch akzeptieren würden, sich doch schon morgen<br />

als falsch herausstellen könnten. Es gibt dabei keinen Spielraum für<br />

künftige Entwicklungen, wie ihn der Kohärenztheoretiker aufzeigt. Für<br />

den gibt es immer die Möglichkeit, neue Erkenntnisse über unsere<br />

Wahrnehmung etwa in Form immer differenzierterer Theorien und Bedingungen<br />

für Irrtumsquellen zu berücksichtigen, denn das Schema<br />

(RW) ist anhand unserer jeweils besten Theorien über unsere Wahrnehmung<br />

auszufüllen. 2. Doch selbst wenn die Empiristen für ihre basalen<br />

Meinungen keine Sicherheit, sondern z. B. nur eine gewisse Wahrscheinlichkeit<br />

postulierten, bliebe ihr Ansatz damit unbefriedigend. Sie könnten<br />

vielleicht behaupten, Wahrnehmungsannahmen seien zu 80% wahr,<br />

doch damit würden sie all die Differenzierungsmöglichkeiten verschenken,<br />

genauer zu sagen, in welchen Fällen unsere Wahrnehmungen fehlgehen<br />

können und woran es jeweils liegt. Warum sollten wir nur unsere<br />

recht allgemeinen Einschätzungen über die Zuverlässigkeit bestimmter<br />

Typen von Aussagen berücksichtigen und nicht gleichermaßen alle anderen<br />

Erkenntnisse, die wir über den Einzelfall besitzen? 3. Aber schlimmer<br />

ist fast noch, daß der Empirist all diese Annahmen über unsere<br />

Wahrnehmungen nicht als Bestandteil einer Rechtfertigung des epistemischen<br />

Subjekts S selbst ansieht, sondern als dem Subjekt möglicherweise<br />

externe Theorien, denn S benötigt keine kognitiv verfügbaren Rechtfer-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 202<br />

tigungen für seine Beobachtungsaussagen. Damit wird der Empirist zum<br />

Externalisten.<br />

Auf Seiten der Rationalisten sieht es nicht besser aus. Z. B. für Descartes<br />

sind alle Wahrnehmungen zuverlässig, die wir klar und deutlich<br />

haben. Irrtum kommt nur ins Spiel, wenn wir uns auf Urteile verlassen,<br />

die wir nicht klar und deutlich erfaßt haben. Sehen wir zugunsten Descartes<br />

zunächst davon ab, daß nicht so klar ist, in welchen Fällen wir<br />

klare und deutliche Wahrnehmungen haben und die Frage zu stellen<br />

bleibt, ob wir uns in dieser Einschätzung nicht auch wieder irren können.<br />

Dann ist es vor allem Descartes Rechtfertigung seines Kriteriums,<br />

die uns heutzutage nicht mehr attraktiv erscheint. Nach Descartes irren<br />

wir uns bei klaren und deutlichen Wahrnehmungen nicht, weil Gott kein<br />

Betrüger ist und uns in solchen Fällen nicht hintergehen würde. Zu viele<br />

Menschen sind heute jedoch Agnostiker oder schlimmeres, als daß eine<br />

Berufung auf Gottes Eigenschaften in einer Erkenntnistheorie noch auf<br />

breite Zustimmung hoffen könnte. Auch Descartes ist in seiner Erkenntnistheorie<br />

also auf bestimmte (empirische) Theorien über die Beschaffenheit<br />

der Welt festgelegt, damit sein Rechtfertigungsverfahren begründet<br />

ist, die uns zweifelhaft erscheinen.<br />

Wie im Fall der Empiristen kommt dann noch mindestens der zweite<br />

Einwand hinzu, daß Descartes Erkenntnistheorie nicht offen bleibt für<br />

empirische Einsichten über unsere Wahrnehmungsfähigkeiten und ihre<br />

Schwachstellen. Was wir klar und deutlich erkennen, ist für Descartes<br />

kaum eine Frage empirischer Forschungen, sondern a priori introspektiv<br />

zu ermitteln. Damit gibt er die Chancen für interessante Einsichten anhand<br />

differenzierter Wahrnehmungstheorien aus der Hand, und alle<br />

oben zur Wahrnehmung angestellten Überlegungen demonstrierten, wie<br />

diese Einsichten ins Spiel kommen, wenn wir ermitteln, ob eine Beobachtung<br />

zuverlässig ist oder nicht.<br />

Der dritte Einwand gegen die Empiristen kann gegen Descartes nicht<br />

ohne weiteres erhoben werden, denn man muß die Cartesische Theorie<br />

nicht unbedingt als externe Theorie der Rechtfertigung interpretieren.<br />

Man kann annehmen, der Cartesische Meditierende verfügt mit dem<br />

apriorisch geführten Gottesbeweis über eine interne Metarechtfertigung<br />

für sein Wahrheitskriterium der klaren und deutlichen Erkenntnis, und<br />

auch die Anwendung dieses Kriteriums auf seine speziellen Wahrnehmungen,<br />

erfolgt dann unabhängig von unbekannten äußeren Zusammenhängen.<br />

Wir können Descartes also durchaus als Internalisten verstehen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 203<br />

4. Erinnerung und Introspektion<br />

Zu den Wahrnehmungen zählt man üblicherweise auch noch die inneren<br />

Wahrnehmungen oder Introspektionen. Außerdem habe ich bisher immer<br />

die Erinnerungen und ihre Rechtfertigung ausgespart, obwohl diese<br />

in der Begründung, über die eine Person verfügt, eine wesentliche Rolle<br />

spielen werden. Zu diesen Themen möchte ich nun wenigstens einige<br />

Bemerkungen anfügen. Wenn ich mich bemühe, eine Begründung für<br />

eine Meinung p zu geben, bin ich an verschiedenen Stellen zumindest<br />

auf eine minimale Gedächtnisleistung angewiesen. Z. B. muß ich mich<br />

immer daran erinnern, welche Meinung ich rechtfertigen möchte. 91 Dazu<br />

muß ich mich auf gewisse Formen von Introspektion verlassen. Wenn<br />

ich mich frage, ob ich über eine Begründung für p verfüge, muß ich zumindest<br />

schon wissen, daß ich p glaube und welche Überzeugungen ich<br />

überhaupt habe, auf die ich mich in der Begründung von p stützen darf.<br />

In beiden Fällen sollte ich also zuverlässige Metameinungen darüber besitzen,<br />

welche Meinungen ich bisher (implizit) habe. Diese Metameinungen<br />

stellen jedoch selbst wiederum empirische Annahmen dar und man<br />

könnte auch für sie nach Begründungen fragen. In diesen Begründungen<br />

— sollen sie denn inferentiell sein — muß ich mich aber wiederum darauf<br />

stützen können, welche anderen Meinungen ich habe. Droht damit<br />

nicht ein fataler Regreß? Dieser Ansicht ist z. B. Moser (1991, 174ff).<br />

Zunächst einmal trifft das nur auf den Fall privater Begründungen<br />

im stillen Kämmerlein zu. Wissenschaftliches Wissen oder anderes explizit<br />

notiertes Wissen ist davon nur sehr indirekt betroffen, denn das relevante<br />

Hintergrundwissen ist, weil es schriftlich fixiert ist, auch ohne die<br />

Erinnerung oder Introspektion einer bestimmten Person jederzeit zugänglich.<br />

Wichtige Begründungen können auf diese Weise den Problemen<br />

von Erinnerung und Introspektion ausweichen.<br />

Im Falle der Frage, in welchen Meinungen wir sozusagen privat gerechtfertigt<br />

sind, sind wir allerdings letztlich auf Erinnerungen und Introspektionen<br />

angewiesen. Um die Zuverlässigkeit unseres Gedächtnisses<br />

in unseren Rechtfertigungen berücksichtigen zu können, stehen uns<br />

aus der Innenperspektive im Normalfall zwei Vorgehensweisen offen.<br />

Zum einen können wir, wie bei Beobachtungen, unsere eigene Zuverlässigkeit<br />

anhand von Daten aus der Vergangenheit und Aussagen anderer<br />

Personen einschätzen. Wir wissen dann über uns selbst vielleicht, daß<br />

91 Jeder Redner wird wahrscheinlich den Fall kennen, wo er beim Sprechen<br />

das Argumentationsziel aus den Augen verloren hat und sich erst erneut daran erinnern<br />

muß.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 204<br />

wir zwar zuverlässig Termine oder Zahlen behalten, aber nur selten einen<br />

Namen oder Gesichter. Dementsprechend zurückhaltend sollten wir<br />

sein, wenn wir jemanden als Herrn Müller zu erkennen glauben. Zum<br />

anderen können wir jede spezielle Erinnerung gegen andere Erinnerungen<br />

oder Daten, über die wir sonst noch verfügen, „checken“. Wenn ich<br />

mich erinnere, am letzten Montag abend im Theater gewesen zu sein,<br />

kann ich mich weiter fragen, was denn gegeben wurde und das mit dem<br />

Spielplan vergleichen; ich kann überlegen, daß ich nachmittags beim<br />

Zahnarzt war und über welche Zwischenstationen ich von dort letztlich<br />

bis ins Theater gelangt bin. Außerdem frage ich mich z. B., ob ich im<br />

Theater noch Zahnschmerzen von der Behandlung gehabt habe oder ob<br />

im Theater doch erst Sonntag war und ich mir statt dessen gerade Sorgen<br />

über den bevorstehenden Zahnarztbesuch gemacht habe. Schließlich<br />

kann ich in meinen Terminkalender schauen oder Freunde befragen, ob<br />

sie am Montag abend mit mir zusammen waren usf. 92 War ich tatsächlich<br />

im Theater und mein Gedächtnis ist gut, sollten alle Antworten auf<br />

diese Fragen ein zusammenhängendes Bild meines Tagesablaufs am Montag<br />

bieten, das zu allen anderen Informationen wie Spielplan, Terminkalender,<br />

Aussagen anderer usw. paßt. Gibt es dagegen Unstimmigkeiten,<br />

werde ich nach Erklärungen dafür suchen, die schließlich auch in der<br />

Annahme münden können, daß ich mich geirrt habe und am Montag<br />

doch zu Hause geblieben bin.<br />

Beide Verfahren sind typische Kohärenztests und in analoger Form<br />

vor Gericht einsetzbar, um die Genauigkeit von Erinnerungen zu überprüfen.<br />

Man wird z. B. den Erinnerungen von mehreren Zeugen besonders<br />

vertrauen, wenn sie im wesentlichen übereinstimmen. Die beste Erklärung<br />

für ihre Übereinstimmung wird unter gewissen Umständen sein,<br />

daß sie zuverlässig über dasselbe Ereignis Auskunft geben. Sollten ihre<br />

Aussagen allerdings zu exakt übereinstimmen, kann das bereits Evidenz<br />

für die Unzuverlässigkeit der Zeugen sein. Die beste Erklärung kann in<br />

diesem Fall darin bestehen, daß sie sich abgesprochen haben. Schließlich<br />

wissen wir auch, daß Menschen sich normalerweise nicht so gut erinnern<br />

und ihre Beobachtungen auf unterschiedliche Weise beschreiben.<br />

Hier finden wir wieder eine typische Instanz des Schlusses auf die beste<br />

Erklärung, die sich mit konservativ induktivem oder bayesianistischem<br />

Vorgehen nicht ohne Epizyklen erklären läßt.<br />

92 Dieses Verfahren gibt uns natürlich keine Antwort auf die Fragen des radikalen<br />

Skeptikers, der alle unsere Meinungen und Metameinungen zugleich in<br />

Frage stellt (s.dazu VI).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 205<br />

Noch schwieriger wird es für eine internalistische Rechtfertigungstheorie<br />

im Falle von Introspektionen, die für den Kohärenztest selbst bereits<br />

unentbehrlich sind. Sie hat mit dem obigen Zirkelvorwurf am<br />

schwersten zu kämpfen. BonJour (1985, 127f) beruft sich an dieser Stelle<br />

auf seine „Doxastic Presumption“ (1985, 101ff), wonach die Annahme,<br />

daß wir ein einigermaßen zutreffendes Bild unserer eigenen Überzeugungen<br />

besitzen, eine Voraussetzung des ganzen Rechtfertigungsspieles<br />

ist. Nur wenn wir wissen, daß wir p glauben und daß wir weiterhin<br />

ein bestimmtes Überzeugungssystem X haben, läßt sich überhaupt die<br />

Frage aufwerfen, ob p vor dem Hintergrundwissen X gerechtfertigt ist.<br />

Dann, so argumentiert BonJour, darf ich mich in der Beantwortung der<br />

Frage, aber ebenfalls auf die Voraussetzung berufen, die in der Frage gemacht<br />

wurde. Dafür spricht auch, daß selbst so radikale Skeptiker wie<br />

der Cartesische nicht so weit gehen, unsere Annahmen darüber, was wir<br />

glauben, in Frage zu stellen.<br />

Das wird kaum das letzte Wort in dieser Angelegenheit sein, denn es<br />

ist z. B. nicht selbstverständlich, daß die Frage nach einer Begründung<br />

für p bereits die Kenntnis von X voraussetzt, aber ich möchte noch zwei<br />

weitere Anmerkungen hinzufügen, die ebenfalls einen gewissen Anteil<br />

an der Entschärfung dieser Schwierigkeit für eine Kohärenztheorie der<br />

Rechtfertigung haben können. Erstens ist von diesem Problem nicht nur<br />

die kohärentistische Position betroffen, sondern z. B. ebenso die üblichen<br />

Spielarten des empiristischen Fundamentalismus. Für sie sind zwar<br />

Beobachtungsüberzeugungen basal und bedürfen daher keiner inferentiellen<br />

Rechtfertigung, aber Metaüberzeugungen über unser Überzeugungssystem<br />

werden im allgemeinen nicht unter diese basalen Überzeugungen<br />

gerechnet; insbesondere auch nicht Metaüberzeugungen darüber,<br />

welche basalen Überzeugungen jemand besitzt. Wenn der Empirist<br />

nun nichtbasale Meinungen anhand basaler Meinungen inferentiell<br />

rechtfertigen möchte, ist er genauso auf eine Kenntnis seines Überzeugungssystems<br />

und speziell seiner basalen Meinungen angewiesen, wie<br />

ein Kohärenztheoretiker. Es ist BonJours Verdienst, diese Schwierigkeit<br />

überhaupt deutlich gesehen und einen ersten Lösungsvorschlag präsentiert<br />

zu haben. Zweitens habe ich auch von begründeten Meinungen nur<br />

verlangt, daß sie implizite Begründungen besitzen. Diese müssen im<br />

Prinzip zu entwickeln sein, aber nicht in Form expliziter Metaüberzeugungen<br />

bereits vorliegen. Erst wenn ich eine Rechtfertigung meiner Meinungen<br />

explizit vornehmen möchte, ist man also auf etwas wie die Bon-<br />

Joursche „Doxastic Presumption“ angewiesen, aber da ergeht es den<br />

meisten Konkurrenten nicht besser.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 206<br />

Natürlich könnte der Externalist auch an dieser Stelle wieder einen<br />

einfachen Ausweg anbieten. Für ihn kann man sich darauf beschränken,<br />

daß unsere Metaüberzeugungen darüber, welche Überzeugungen wir haben,<br />

tatsächlich zutreffen. Man würde einfach die Frage, welche Indizien<br />

wir für dieses Zutreffen haben, nicht mehr stellen. So leicht dieser<br />

Ausweg ist, so bleibt doch wiederum das eigentliche Problem unberührt.<br />

Die Frage nach solchen Indizien bleibt weiterhin eine sinnvolle erkenntnistheoretische<br />

Frage, die wir aufwerfen sollten, und der Externalist<br />

kann diesen Ausweg nur aufgrund eines Themawechsels anbieten, den<br />

ich nicht mitmachen möchte (s. III.A.2).<br />

C. Lokale und Globale Aspekte von Rechtfertigung<br />

Auf den ersten Blick ist die Rechtfertigung einer Überzeugung eine Angelegenheit,<br />

die nur wenige Überzeugungen unseres Wissenssystems betrifft,<br />

nämlich die Prämissen der betreffenden Rechtfertigung. Das<br />

scheint insbesondere für unser Vorbild für Inferenzen, den logischen<br />

Schluß, zuzutreffen. Wenn eine Proposition p deduktiv aus einer Menge<br />

von M von Aussagen folgt, bedeutet das immer (selbst für unendliche<br />

Mengen M), daß es eine endliche Teilmenge von M gibt, aus der p folgt.<br />

Zur Überprüfung ob p folgt, genügt es außerdem, neben den Regeln der<br />

Logik ausschließlich p und M heranzuziehen. Die Inferenz bleibt in dem<br />

Sinne lokal. Sie ist nicht auf bestimmte Eigenschaften des ganzen Überzeugungssystems<br />

X angewiesen. Inferenzen, zu deren Beurteilung man<br />

sich auf Eigenschaften des ganzen Überzeugungssystems oder sehr große<br />

Teile davon stützen muß, nenne ich dagegen global.<br />

Epistemische Rechtfertigungen anhand von Kohärenz beinhalten sowohl<br />

lokale wie auch globale oder zumindest globalere Aspekte. Die Untersuchung<br />

einiger typischer Fälle kann das demonstrieren. Nehmen wir<br />

zunächst eine Beobachtungsüberzeugung, die durch eine Theorie erklärt<br />

wird. Die Erklärung selbst ist — wir werden das im letzten Teil der Arbeit<br />

präzisieren — eine bestimmte Beziehung zwischen Theorie und Beobachtung.<br />

Allein an der Theorie und der Beobachtungsüberzeugung<br />

läßt sich aber nicht ablesen, wie gut die Erklärung und damit die Rechtfertigung<br />

durch die Theorie ist. Eine astrologische Theorie oder eine<br />

Dämonentheorie kann in derselben strukturellen Beziehung zu einem<br />

Faktum stehen, wie die Newtonsche Mechanik zum Phänomen des freien<br />

Falls. Es kann in allen drei Fällen etwa eine Deduktion vorliegen. Einer<br />

Deduktion kann man nicht unmittelbar ansehen, ob es sich um eine


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 207<br />

gute Erklärung oder nur eine scheinbare und etwa empirisch leere Erklärung<br />

handelt. Wie gut die Erklärung ist, hängt unter anderem davon ab,<br />

wie gut die erklärende Theorie ist. Die epistemische Bewertung einer<br />

Theorie ist aber eine Sache, die nicht allein von der Beziehung zwischen<br />

Theorie und dem einen Datum abhängt, sondern vielmehr von der Beziehung<br />

zwischen der Theorie und vielen Fakten, die sie ebenfalls erklärt,<br />

und außerdem auch von vielen intertheoretischen Beziehungen zu<br />

anderen Theorien.<br />

Um an ein berühmtes Beispiel für eine Bewertung aufgrund intertheoretischer<br />

Zusammenhänge zu erinnern: Die Beurteilung der Newtonschen<br />

Mechanik, die über lange Zeit im wesentlichen unangefochten<br />

als die paradigmatische wissenschaftliche Theorie betrachtet wurde, änderte<br />

sich zusehends mit der Anerkennung der Maxwellschen Elektrodynamik.<br />

Unter anderem ihr unterschiedliches Invarianzverhalten war für<br />

Einstein das entscheidende Motiv, nach einer neuen Mechanik zu suchen.<br />

Einstein behauptete von sich selbst sogar, daß er den einzigen experimentellen<br />

Befund, der in den ersten Jahren für die spezielle Relativitätstheorie<br />

sprach, nämlich das Michelson-Morley Experiment, um<br />

1905 nicht gekannt hat. Auch wenn seine Erinnerung ihn darin vermutlich<br />

in die Irre führt (s. Pais 1982, 114ff), hat er recht, daß dieser Befund<br />

nicht den entscheidenden Anstoß zur Entwicklung der neuen Mechanik<br />

geben konnte (s. z. B. Holton 1981, 277ff). Das ist nur ein Beispiel<br />

für eine intertheoretische Abhängigkeit erkenntnistheoretischer Bewertungen,<br />

in dem zwei Theorien in einen erkenntnistheoretischen Zusammenhang<br />

gestellt werden, obwohl sie sogar über weitgehend getrennte<br />

Anwendungsbereiche verfügen. Das ist zugleich ein Hinweis, wie<br />

auf versteckte Weise intertheoretische Beziehungen epistemisch wirksam<br />

werden können. In der Debatte um holistische Strukturen in der Wissenschaft<br />

finden sich weitere Beispiele, auf die zum Teil schon Duhem hingewiesen<br />

hat.<br />

Ebenso gilt das für den Fall einer Theorie, die mittels Abduktion gestützt<br />

wird. Sie wird nicht nur von einer Anzahl von Daten gestützt, sondern<br />

die Bewertung, wie gut die sie stützenden Daten sind, bedarf wiederum<br />

einer Einschätzung der Zuverlässigkeit der Daten. Das geschieht<br />

mittels (anderer) Theorien wie Theorien der Wahrnehmung oder Theorien<br />

über die Kontinuität bestimmter Vorgänge etc. (vgl. IV.B.2). Dabei<br />

können auch Metaeinschätzungen etwa anhand epistemischer Überzeugungen<br />

über die Zuverlässigkeit bestimmter Wahrnehmungen in bestimmten<br />

Situationen eine Rolle spielen, z. B. über die Genauigkeit<br />

astronomischer Daten bei Fernrohrbeobachtungen zu einem bestimmten


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 208<br />

Stand der Fernrohrtechnik. Diese epistemischen Überzeugungen können<br />

ihrerseits erkenntnistheoretische Zusammenhänge zwischen vollkommen<br />

unterschiedlichen Theorien herstellen. Alle von mir diskutierten<br />

Beispiele für Begründungen mußten sich darauf beschränken, kleine<br />

Teile einer solchen Rechtfertigung herauszugreifen, weil die Analysen<br />

sonst zu umfangreich geworden wären, aber es gab in der Regel zusätzlich<br />

Hinweise, inwiefern weitere Zusammenhänge des Meinungssystems<br />

für diese idealisierten Rechtfertigungen erkenntnistheoretisch bedeutsam<br />

sind.<br />

Denken wir noch einmal an das Beispiel einer in der Hitze flüssig erscheinenden<br />

Straße aus Abschnitt (III.B.5.b) zurück, die sich beim Näherkommen<br />

als normale Asphaltstraße entpuppt. Um unsere Überzeugung<br />

zu begründen, daß sie das die ganze Zeit war und sich nicht erst<br />

beim Näherkommen von einer Flüssigkeit in Asphalt verwandelt hat,<br />

können wir uns auf zunehmend größere Teile unseres Hintergrundwissens<br />

beziehen; zunächst auf Wahrnehmungstheorien, die uns das Phänomen<br />

angefangen von der Lichtbrechung in der heißen Luft bis zu unserem<br />

Eindruck von Flüssigkeit erklären. Diese physikalischen und sinnesphysiologischen<br />

Theorien sollten ihrerseits nicht beliebige Theorien<br />

sein, sondern gut begründete Theorien, wenn sie eine gute Erklärung<br />

bieten sollen. Welche epistemische Kraft sie übertragen können, hängt<br />

von ihrer weiteren Verankerung in unserem Netz von Überzeugungen<br />

ab. Die Theorien des Lichts werden z. B. gestützt durch viele Phänomene<br />

der geometrischen Optik, der Interferenz, der Brechung etc., die<br />

sie erklären und durch ihre theoretische Einbettung in die Elektrodynamik<br />

als Theorie der elektromagnetischen Wellen und schließlich der<br />

Quantenoptik. Für all diese Theorien können wir wiederum fragen, wie<br />

sie epistemisch dastehen. Die Theorien der Sinnesphysiologie oder sogar<br />

neurologische Theorien unserer Wahrnehmungsverarbeitung stützen<br />

sich auf andere Daten und sind in andere theoretische Kontexte eingebettet;<br />

etwa in biologische Theorien über den Nervenaufbau und ihre<br />

Zusammenschaltung, die sich ihrerseits auf chemische und physikalische<br />

Gesetze stützen können usf. Außerdem dürfen wir unser Wissen über<br />

eine gewisse Kontinuität von Materie und speziell Asphalt unter gewissen<br />

Bedingungen in Anschlag bringen, die wir sowohl in unserem Alltagswissen<br />

wie in unserem wissenschaftlichen Wissen verankern können.<br />

Dahinter stehen noch allgemeinere Konzeptionen von Energieerhaltung,<br />

die ihrerseits in vielen spezielleren Theorien eine Bestätigung erfahren.<br />

Daneben können wir auch mögliche Fehlerquellen unserer Wahrnehmung<br />

ausschalten und uns darauf beziehen, wie zuverlässig wir ähnliche


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 209<br />

Wahrnehmungen in anderen Fällen vornehmen konnten. Dem Umfang<br />

einer solchen Analyse sind kaum Grenzen gesetzt, und ich kann an diesem<br />

Punkt natürlich nur einige Fingerzeige geben, auf welchen Wegen<br />

sie weitergehen kann. In einer Kontroverse mit jemandem, der eine meiner<br />

Meinungen in Frage stellt, kann ich nur hoffen, nicht so weit gehen<br />

zu müssen, indem ich gemeinsame Meinungen oder Theorien suche, die<br />

ich dann als Startpunkte meiner Begründung wählen kann.<br />

Im Prinzip kann sich die Zuverlässigkeitsanalyse einer Beobachtung<br />

also auf recht allgemeinem Niveau auf relativ globale Zusammenhänge<br />

unseres Meinungssystems beziehen aber ebenso auf spezielle Verästelungen,<br />

die wiederum allgemeine Ansichten wie die der Energieerhaltung<br />

stützen, und somit schließlich globalen, holistischen Charakter annehmen.<br />

Dem können wir in der Praxis nicht tatsächlich in allen Einzelheiten<br />

nachgehen, sondern wir können gegebenenfalls darauf verweisen,<br />

daß unser Meinungssystem so kohärent ist, daß es solchen Nachprüfungen<br />

standhalten würde, führte man sie weiter. Hier sind wir gezwungen,<br />

uns direkt auf die globale Kohärenz und Geschlossenheit unseres Wissens<br />

zu berufen. 93 Auch für deduktive Beziehungen gilt daher, daß sich zwar<br />

lokal feststellen läßt, ob sie bestehen, aber welche epistemische Kraft sie<br />

übertragen, kann letztlich nur im Rahmen einer Bestimmung der globalen<br />

Kohärenz des ganzen Überzeugungssystems bestimmt werden. Denn<br />

auch für sie müssen wir ermitteln. welchen epistemischen Stellenwert ihre<br />

Prämissen aufweisen.<br />

Williams (1991, 276ff) unterscheidet dazu zwischen zwei Formen<br />

von Kohärenz: relationaler und systematischer. Relationale Kohärenz einer<br />

Aussage mit einem Überzeugungssystem betrifft die Frage, wie kohärent<br />

sich die Aussage (lokal) in dieses System einfügt, während es in der<br />

systematischen Kohärenz eines Überzeugungssystems darum geht, wie<br />

kohärent dieses System als Ganzes ist. Eine Kohärenztheorie der Rechtfertigung<br />

wird sich im allgemeinen auf diese beiden Formen von Kohärenz<br />

stützen müssen, um den globalen Aspekten von Begründungen<br />

ebenso gerecht werden zu können wie den lokalen. Ein Überzeugungssystem<br />

hat dabei um so größere rechtfertigende Kraft, je größer die Kohärenz<br />

der Überzeugungen dieses Systems untereinander ist, während die<br />

spezielle Rechtfertigung einer bestimmten Aussage davon abhängt, wie<br />

sehr gerade sie von diesem System begründet wird, wie (relational) ko-<br />

93 Wir müssen uns etwa darauf berufen, daß wir uns nicht in einem Subsystem<br />

(s. (3b) von KTR in Abschnitt (IV.F) unseres Überzeugungssystems bewegen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 210<br />

härent sie also in das System hineinpaßt und zur (systematischen) Gesamtkohärenz<br />

beiträgt.<br />

Die beiden Formen von Kohärenz hängen natürlich in systematischer<br />

Weise zusammen, was in meiner Explikation von Kohärenz auch zum<br />

Ausdruck kommen wird. Bevor ich einen eigenen Vorschlag dafür vortrage,<br />

möchte ich aber noch einen Blick auf drei andere prominente Kohärenzkonzeptionen<br />

werfen und zusehen, wie es ihnen gelingt, die unterschiedlichen<br />

Aspekte von Kohärenz zusammenzufügen.<br />

Zur Vorsicht sei noch angemerkt, daß es natürlich falsch ist, den holistischen<br />

Aspekt von Rechtfertigungen und inferentiellen Zusammenhängen<br />

zu übertreiben und womöglich in einer Formel wie: „Alles hängt<br />

mit allem zusammen“ oder „Alles hängt von allem anderen ab“ zu formulieren.<br />

Auch hier finden sich Grade des Zusammenhängens und in<br />

vielen Fällen ist der Abstand von Aussagen so groß, daß man für viele<br />

Zwecke nicht mehr sinnvoll von einem Zusammenhang reden wird. Wie<br />

global bestimmte Zusammenhänge sind, kann auch nur für konkrete<br />

Fälle festgestellt werden. In der Wissenschaftstheorie finden sich einige<br />

Modelle und Untersuchungen zu diesem Thema, die anhand konkreter<br />

Fallstudien substantiellere Aussagen treffen können (s. z. B. Gähde 1983<br />

und 1989 oder Bartelborth 1993). Diesen Punkt werde ich für den wissenschaftlichen<br />

Bereich im späteren Teil der Arbeit erneut aufwerfen.<br />

D. Drei Kohärenzkonzeptionen<br />

In (IV.A) sind die wesentlichen Komponenten einer Kohärenztheorie der<br />

Rechtfertigung intuitiv besprochen worden, in (IV.B) habe ich dargestellt,<br />

wie sich eine wichtiger Bereich unserer Erkenntnis, nämlich die<br />

Beobachtungsüberzeugungen, in ihrem Rahmen unterbringen lassen und<br />

im vorigen Abschnitt wurde belegt, daß eine kohärentistische Rechtfertigung<br />

immer wesentlich holistische Aspekte zu berücksichtigen hat. Es ist<br />

nun an der Zeit, konkrete Vorschläge für Explikationen von „Kohärenz“<br />

daraufhin anzusehen, inwieweit sie diesen Anforderungen an Kohärenz<br />

gerecht werden. Zu diesem Zweck werde ich zuerst drei Konzeptionen<br />

von Kohärenz genauer untersuchen, um danach einen eigenen Explikationsvorschlag<br />

vorzustellen.<br />

Neben idealistischen Kohärenzvertretern wie Bradley oder Blanshard,<br />

für die sich Wahrheit durch Kohärenz definieren ließ (s. dazu Rescher<br />

1982, 31ff) und analytischen Philosophen wie Sellars und Rescher,<br />

die erste Vorschläge für Kohärenzkonzeptionen vorlegten (die hier aller-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 211<br />

dings nicht eigens betrachtet werden sollen), war es hauptsächlich Keith<br />

Lehrer, der die Kohärenztheorie in diesem Jahrhundert hoffähig gemacht<br />

hat.<br />

1. Lehrers Kohärenztheorie<br />

Lehrer hat seine Vorstellungen von Wissen und epistemischer Rechtfertigung<br />

im Rahmen einer Kohärenztheorie in zahlreichen Artikeln und einigen<br />

Büchern entwickelt. Im Vordergrund steht für ihn das Projekt einer<br />

Wissensexplikation, aber in diesem Zusammenhang entwirft er<br />

ebenfalls eine Theorie der Rechtfertigung. Diese enthält eine Reihe von<br />

externalistischen Elementen, die für mein Projekt nicht weiter beachtet<br />

werden sollen. Hier steht daher seine Explikation von „personally justified“,<br />

das sich ungefähr in mein „gerechtfertigt“ übersetzen läßt, im<br />

Zentrum. Damit eine Überzeugung für ein Subjekt S gerechtfertigt ist,<br />

muß sie nach Lehrer mit dem Überzeugungssystem X von S kohärent<br />

sein. Lehrer spricht in diesem Zusammenhang von einem „acceptance<br />

system“ statt von einem Überzeugungssystem (s. a. II.C.1), aber für unsere<br />

Zwecke können wir diese Unterscheidung vernachlässigen. Kohärenz<br />

ist für Lehrer überwiegend negativ bestimmt als Reduktion von Konflikten<br />

(s. z. B. Lehrer 1990a, 231). So hat eine Proposition p sich für Lehrer<br />

vor dem Hintergrundsystem X gegenüber allen Konkurrenten durchzusetzen<br />

und diese aus dem Felde zu schlagen, um aufgrund von X akzeptiert<br />

zu werden. In Lehrers Terminologie: p hat alle Konkurrenten<br />

auf der Grundlage von X aus dem Felde zu schlagen oder zumindest zu<br />

neutralisieren, um akzeptiert zu werden. Dabei wird ermittelt, welche<br />

von zwei konkurrierenden Annahmen relativ zu unserem Hintergrundwissen<br />

plausibler ist, und diese dann akzeptiert, während die aufgetretenen<br />

Konkurrenten, die Konflikte in unser Überzeugungssystem brächten,<br />

abgewiesen werden.<br />

Was damit in Lehrers Konzeption nicht auftritt, sind Anforderungen<br />

an die Kohärenz des Hintergrundwissens, die über Konsistenz oder Konfliktfreiheit<br />

für lokale Konkurrenten hinausgehen und positive Beziehungen<br />

zwischen den Meinungen verlangen. Gerade (IV.A.1) sollte zeigen,<br />

daß die Abwesenheit von Inkonsistenzen allein für Kohärenz bei weitem<br />

nicht ausreicht, und ebensowenig können in Lehrers lokaler Konzeption<br />

der Reduktion von Konflikten die holistischen Zusammenhänge, wie sie<br />

in (IV.C) angesprochen wurden, angemessen erfaßt werden. Lehrer verlangt<br />

nämlich nicht, daß jede Aussage p des Überzeugungssystems durch


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 212<br />

zahlreiche positive Verbindungen in X verankert wird, die die Grundlage<br />

für eine holistische Rechtfertigung von p bilden.<br />

Sehen wir uns dazu kurz die Einzelheiten der Lehrerschen Konzeption<br />

unter diesen Gesichtspunkten an. Eine semiformale Explikation von<br />

Lehrers Begriffen findet sich an unterschiedlichen Stellen seines Werks<br />

(z. B. 1988, 341ff; 1990a, 232; 1990b, 148). Die folgende stammt aus<br />

Lehrer (1990b, 148):<br />

D1. A system X is an acceptance system of S if and only if X contains<br />

just statements of the form, S accepts that p, attributing to S just<br />

those things that S accepts with the objective of accepting that p<br />

if and only if p.<br />

D2. S is justified in accepting p at t on the basis of system X of S at t<br />

if and only if p coheres with X of S at t.<br />

D3. p coheres with X of S at t if and only if all competitors of p are<br />

beaten or neutralized for S on X at t. 94<br />

D4. c competes with p for S on X at t if and only if it is more reasonable<br />

for S to accept that p on the assumption that c is false than<br />

on the assumption that c is true, on the basis of X at t.<br />

D5. p beats c for S on X at t if and only if c competes with p for S on<br />

X at t, and it is more reasonable for S to accept p than to accept<br />

c on X at t.<br />

D6. n neutralizes c as a competitor of p for S on X at t if and only if<br />

c competes with p for S on X at t, the conjunction of c and n<br />

does not compete with p for S on X at t, and it is as reasonable<br />

for S to accept the conjunction of c and n as to accept c alone on<br />

X at t.<br />

D7. S is personally justified in accepting that p if and only if S is justified<br />

in accepting that p on the basis of the acceptance system of S<br />

at t.<br />

Die erste Bestimmung beschreibt Lehrers Konzeption von „acceptance<br />

system“ als einem System von Aussagen, die man akzeptiert, weil man<br />

sie für wahr hält. Damit soll genau das für die Erkenntnistheorie relevante<br />

Merkmal von Überzeugungen herausgegriffen werden. In (D2) be-<br />

94 In Lehrer (1990, 148) beginnt dieser Punkt mit einem Schreibfehler, es<br />

wird das Definiendum von D2 wiederholt, den ich im Sinn von Lehrer (1988,<br />

341) korrigiert habe.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 213<br />

kennt sich Lehrer zur Kohärenztheorie in bezug auf epistemische Rechtfertigungen.<br />

(D3) ist die einzige Bedingung, die den Kohärenzbegriff<br />

selbst näher bestimmt, aber es wird nichts über die mögliche Kohärenz<br />

oder Inkohärenz des Hintergrundwissens X gesagt, sondern nur darüber,<br />

ob p seine Konkurrenten besiegen kann. Daß dem Kohärenzkonzept<br />

in dieser Theorie keine eigenständige Rolle zufällt, kann man daran<br />

erkennen, daß es in den restlichen Bestimmungen nicht mehr auftritt<br />

und relativ leicht zu eliminieren wäre. Wir müßten dazu nur die Bedingungen<br />

(D2) und (D3) zu einer neuen Bedingung zusammenziehen:<br />

(D2’) S ist justified in accepting p at t on the basis of system X of S at t<br />

if and only if all competitors of p are beaten or neutralized for S<br />

on X at t. 95<br />

Kohärenz kommt damit eigentlich nicht wesentlich in dieser Definition<br />

vor, sondern nur als im Prinzip überflüssiger Zwischenschritt von „justified“<br />

zu „beaten“ oder „neutralized“. Lehrers Vorstellung von Kohärenz<br />

erschöpft sich denn auch in der von relationaler Kohärenz von Aussagen<br />

zu einem System X. Globale oder systematische Kohärenz ist für Lehrer<br />

dagegen kein Thema.<br />

Eine Aussage ist gerechtfertigt, wenn sie vor unserem Hintergrundwissen<br />

vernünftiger ist als ihre möglichen Konkurrenten. Die eher technischen<br />

Einzelheiten der Neutralisierung oder dem Schlagen von Konkurrenten<br />

sollen hier nicht untersucht werden, aber überraschend bleibt,<br />

daß Lehrer sich grundlegend auf das Konzept „vernünftiger vor unserem<br />

Überzeugungssystem X“ stützt, ohne es weiter zu erläutern, obwohl das<br />

keineswegs aussichtslos erscheint. Derartige Bewertungen weiter aufzuschlüsseln<br />

ist gerade eine wesentliche Aufgabe, der Kohärenztheorie. Außer<br />

dem Hinweis, daß man „vernünftiger“ nicht mit „wahrscheinlicher“<br />

identifizieren dürfe, weiß Lehrer aber nicht viel zu diesem Konzept zu<br />

sagen und führt es als einen Grundbegriff ein. Der für Kohärenz sicher<br />

wichtige Begriff der Konkurrenz von Aussagen leidet dann auch darunter,<br />

anhand eines zu ihm eng benachbarten Grundbegriffs definiert zu<br />

werden.<br />

Lehrers Beschränkung auf relationale Kohärenz, die auch nur als ein<br />

im Prinzip überflüssiger Zwischenschritt auftritt, läßt erkennen, daß es<br />

sich überhaupt nicht um eine genuine Kohärenztheorie handelt. Die Konkurrenz<br />

von Aussagen in unserem Meinungssystem ist sicher ein Phäno-<br />

95 Böse Zungen könnten damit den ursprünglichen Schreibfehler bei Lehrer<br />

in (D3) erklären, denn die dort formulierte Bedingung entspricht gerade<br />

(D2').


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 214<br />

men, das die Kohärenz des Systems bedroht, aber dabei handelt es sich<br />

eben nur um einen Aspekt von Kohärenz. Die Vermeidung von Konflikten<br />

kann niemals auf positive Weise erschöpfend darstellen, worin Kohärenz<br />

besteht. Sehen wir uns als nächstes die Konzeption eines Konkurrenten<br />

von Lehrer an, der sich bemüht, die globalen Aspekte von Kohärenz<br />

zu berücksichtigen.<br />

2. BonJours Theorie der Rechtfertigung<br />

In den letzten Jahren stand zunehmend die Kohärenztheorie von Laurence<br />

BonJour im Interesse der Erkenntnistheoretiker. Neben der Tatsache,<br />

daß BonJour sich als einer von wenigen bemüht, eine originäre Kohärenztheorie<br />

in einem realistischen Rahmen zu entwickeln, scheint mir<br />

insbesondere seine recht überzeugende Behandlung von Wahrnehmungen<br />

(s. IV.B), die häufig eher eine Schwachstelle von Kohärenztheorien<br />

darstellte, der Grund für dieses Interesse zu sein. In BonJours Kohärenztheorie<br />

spielt die systematische Kohärenz (allerdings ohne dort diesen<br />

Namen zu tragen), eine wichtige Rolle. Für ihn (BonJour 1985, 92) 96<br />

hängt im Unterschied zu Lehrer die Rechtfertigung einer Überzeugung<br />

durch ein System von Überzeugungen wesentlich von der globalen Kohärenz<br />

dieses Systems ab. Er hat in (1985, 93ff) sein Konzept von Kohärenz<br />

vorgelegt, das er mit einer intuitiven Charakterisierung von Kohärenz<br />

einleitet, die noch einmal deutlich macht, in welcher Richtung er<br />

sucht.<br />

What then is coherence? Intuitively, coherence is a matter of how<br />

well a body of belief „hangs together“: how well its component beliefs<br />

fit together, agree or dovetail with each other, so as to produce<br />

an organized, tightly structured system of beliefs, rather than either<br />

a helter-skelter collection or a set of conflicting subsystems. It is reasonably<br />

clear that this „hanging together“ depends on the various<br />

sorts of inferential, evidential, and explanatory relations which obtain<br />

among the various members of a system of beliefs, and especially<br />

on the more holistic and systematic of these.<br />

So deutlich und klar BonJour seine Vorstellung von Kohärenz auch formuliert,<br />

so bleibt er doch in der Ausformulierung seiner Theorie an einigen<br />

Stellen enttäuschend. Schon daß er nicht klar zwischen relationalen<br />

und systematischen Aspekten der Kohärenz unterscheidet und viele Ko-<br />

96 Eine kürzere Vorfassung erschien 1976 und ist in 1987 ins Deutsche<br />

übersetzt worden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 215<br />

härenzforderungen ausgesprochen vage bleiben, da es die in ihnen verwendeten<br />

Grundbegriffe sind. BonJour (1985, 94) entschuldigt sich für<br />

diese Defizite seiner Theorie damit, daß sie nicht nur seine Erkenntnistheorie<br />

betreffen, sondern auch alle Konkurrenzprodukte, die seines<br />

Erachtens ebenfalls auf ein Kohärenzkonzept angewiesen sind. Das mag<br />

wohl stimmen, denn auch die fundamentalistischen Theorien kennen<br />

nicht nur basale Meinungen, sondern auch nichtbasale, die einer inferentiellen<br />

Rechtfertigung bedürfen. Aber erstens gibt es die Ausgestaltungen<br />

der Induktionslogik oder neueren epistemischen Logik, die mit<br />

sehr viel präziseren Konzeptionen aufwarten und außerdem bleibt natürlich<br />

gerade für eine Kohärenztheorie die berechtigte Forderung bestehen,<br />

genauer zu erfahren, was denn mit „Kohärenz“ gemeint ist. Bon-<br />

Jour (1985, 95ff) gibt uns dazu fünf Bedingungen für Kohärenz:<br />

1. A system of beliefs is coherent only if it is logically consistent.<br />

2. A system of beliefs is coherent in proportion to its degree of probabilistic<br />

consistency.<br />

3. The coherence of a system of beliefs is increased by the presence<br />

of inferential connections between its component beliefs and increased<br />

in proportion to the number and strength of such connections.<br />

4. The coherence of a system of beliefs is diminished to the extent<br />

to which it is divided into subsystems of beliefs which are relatively<br />

unconnected to each other by inferential connections.<br />

5. The coherence of a system of beliefs is decreased in proportion to<br />

the presence of unexplained anomalies in the believed content of<br />

the system.<br />

Die erste Forderung ist insoweit unproblematisch, wie sie nur die allseits<br />

anerkannte Forderung nach logischer Konsistenz für Kohärenz noch einmal<br />

beschwört. Allerdings ist sie so formuliert, daß Konsistenz für Kohärenz<br />

eine conditio sine qua non wird. Enthält unser Überzeugungssystem<br />

auch nur eine Inkonsistenz, können wir danach nicht mehr von Kohärenz<br />

sprechen. Diese Forderung an das ganze Überzeugungssystem gerichtet<br />

erscheint mir zu stark, denn solche Inkonsistenzen finden sich<br />

durchaus immer wieder in unseren Überzeugungen, und damit muß<br />

nicht das ganze System gleich vollkommen inkohärent sein. Wie sich Inkonsistenzen<br />

logisch auf bestimmte Bereiche begrenzen lassen, z. B. anhand<br />

parakonsistenter Logiken, ist jedoch ein kompliziertes technisches


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 216<br />

Problem, das entsprechenden Rekonstruktionen von Wissenssystemen in<br />

der epistemischen Logik vorbehalten bleibt. 97<br />

Man darf Inkonsistenzen allerdings auch nicht auf die leichte Schulter<br />

nehmen, wie das in der Wissenschaftsphilosophie manchmal befürwortet<br />

wird. Ich bin kein Vertreter der Lakatosschen These, daß auch genuin<br />

inkonsistente Theorien akzeptiert werden können. Lakatos Beispiel<br />

dafür ist das Bohrsche Atommodell, das nur bei einer unangemessenen<br />

Interpretation intrinsisch inkonsistent erscheint (s. dazu Bartelborth<br />

1989). Inkonsistenzen führen also wesentlich zu Inkohärenz, diese Inkonsistenzen<br />

sind trotzdem in vielen Fällen so zu begrenzen, daß sie<br />

nicht automatisch das ganze Meinungssystem infizieren.<br />

In der zweiten Bedingung möchte BonJour den Sonderfall von statistischen<br />

Aussagen behandeln, für den er Grade von Inkohärenz anerkennt.<br />

Er denkt dabei z. B. an Fälle, in denen wir glauben, daß p, und<br />

zugleich glauben, daß p sehr unwahrscheinlich ist. Es ist klar, daß auch<br />

solche Zusammenhänge eine gewisse Form von Inkohärenz in ein Aussagensystem<br />

bringen können. Die Besonderheiten statistischer Aussagen<br />

möchte ich aber hier nicht weiter verfolgen. 98<br />

In seiner 3. Bedingung geht es schließlich um allgemeinere inferentielle<br />

Zusammenhänge in unserem Überzeugungssystem. Es scheint einleuchtend,<br />

daß mit ihrer Vermehrung und Verstärkung die Kohärenz des<br />

Systems zunimmt. Relativ offen bleibt aber, an welche Inferenzen Bon-<br />

Jour hier denkt — jedenfalls wenn man von Erklärungsbeziehungen absieht.<br />

Ebenso offen bleibt, ob sich derartige Zusammenhänge einfach<br />

aufzählen lassen und was unter ihrer Stärke verstanden werden soll.<br />

Wenn man diese Vagheiten in Rechnung stellt, bietet die ganze Bedingung<br />

(3) nicht viel mehr als eine Umformulierung von BonJours intuitiver<br />

Position. BonJour nennt als einzig substantielle Form von Inferenz<br />

neben den logischen Beziehungen die Erklärungsbeziehung, die seiner<br />

Meinung nach aber nur einen Teil der inferentiellen Beziehungen ausmacht.<br />

In diesem Punkt, den ich in Abschnitt (IV.E.4) wieder aufgreife,<br />

schließt er sich Lehrer an.<br />

Auch BonJours Ausführungen zum Erklärungsbegriff fallen letztlich<br />

unbefriedigend aus, denn er weiß dazu nur auf das Hempelsche DN-<br />

Konzept der Erklärung zu verweisen, und Hempels Bemerkung, daß es<br />

sich bei Erklärungen um Deduktionen besonderer Art handelt, nämlich<br />

solche, die zur systematischen Vereinheitlichung beitragen. Hier sieht<br />

97 Schon Rescher (1982, 75ff) verweist auf die Notwendigkeit auch den<br />

Fall inkonsistenter Aussagensysteme zu behandeln.<br />

98 Siehe dazu auch den Anhang zu diesem Kapitel.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 217<br />

BonJour zwar zu Recht eine enge Verbindung zum Kohärenzkonzept,<br />

aber in der gegenwärtigen Formulierung bleibt die dritte Forderung zu<br />

inhaltsleer, solange nicht weiter expliziert ist, was unter den „inferentiellen<br />

Beziehungen“ und speziell der „Erklärung“ zu verstehen ist. Das gilt<br />

um so mehr, wenn man in Rechnung stellt, daß das Hempelsche Erklärungsschema<br />

keine adäquate Explikation von „Erklärung“ liefert. Bon-<br />

Jour hat daher auch keine besonders gehaltvolle Konzeption von Vereinheitlichung<br />

anzubieten.<br />

Zwar leidet die 4. Bedingung ebenfalls unter einer gewissen Vagheit,<br />

aber sie bringt immerhin einen hilfreichen und intuitiv verständlichen<br />

Begriff ins Spiel bringt, nämlich den des Subsystems. Ein Subsystem ist<br />

eine Teilmenge des Überzeugungssystems mit relativ wenigen inferentiellen<br />

Beziehungen zum Rest des System, so daß dadurch das ganze System<br />

nicht mehr zusammenhängend ist, sondern nahezu in Teilsysteme zerfällt.<br />

Damit nennt BonJour einen wesentlichen Punkt für die globale Kohärenz,<br />

denn es kommt dafür nicht nur darauf an, wieviele Erklärungsbeziehungen<br />

in dem System vorliegen, sondern auch, wie sie verteilt<br />

sind. Leider läßt uns BonJour hier im Stich, wie mögliche Beispiele aussehen<br />

könnten. Ohne mich auf die speziellen Beispiele festlegen zu wollen,<br />

könnte man an Theorien wie das Kaffeesatzlesen als Prognoseverfahren<br />

oder vielleicht Theorien über Kobolde denken, die nur wenige<br />

Verbindungen zu unserem übrigen Weltbild aufweisen. Unser Meinungssystem<br />

würde dadurch kohärenter werden, daß wir diese Theorien aufgeben,<br />

weil sie einen Fremdkörper in unseren Meinungssystemen darstellen,<br />

auch wenn sie in sich vielleicht so kohärent sind, daß jede einzelne<br />

Aussage des Subsystems einige inferentielle Rechtfertigungen aufweist.<br />

99<br />

Ein philosophisch interessantes Beispiel für ein Subsystem findet sich<br />

möglicherweise in der Philosophie des Geistes. Falls die eliminativen<br />

Materialisten Recht haben sollten, bilden unsere Überzeugungen über intentionale<br />

Zustände ein zunehmend isoliertes Subsystem, das nach entsprechenden<br />

Fortschritten der Neurophysiologie immer weniger Bezüge<br />

zu unserem wissenschaftlichen Weltbild aufweist. Aus Kohärenzgründen<br />

sollten wir es dann aus unserem Überzeugungssystem eliminieren. Davon<br />

sind wir tatsächlich natürlich noch sehr weit entfernt, aber das Bei-<br />

99 Es lassen sich sicher eine Reihe von interessanteren Beispielen aus verschiedenen<br />

Bereichen finden, aber die würden zugleich in kontroversere inhaltliche<br />

Diskussionen führen, die an dieser Stelle unnötig erscheinen. Für wissenschaftliche<br />

Theorien wird ihre Zerlegbarkeit in Subsysteme unter dem Stichwort<br />

der organischen Einheitlichkeit in (IX.E.8) noch einmal aufgegriffen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 218<br />

spiel offenbart, wie sich bestimmte wissenschaftliche Debatten in die Begrifflichkeit<br />

der Kohärenztheorie übersetzen lassen und damit die in ihnen<br />

enthaltene erkenntnistheoretische Fragestellung deutlicher wird.<br />

Das Konzept des Subsystems scheint mir ein wichtiges begriffliches<br />

Hilfsmittel zur Charakterisierung von Rechtfertigungsstrukturen unserer<br />

Meinungssysteme zu sein, aber auch für seine Explikation ist man darauf<br />

angewiesen, genauer zu bestimmen, welche inferentiellen Verbindungen<br />

für Kohärenz verlangt werden. Meines Erachtens handelt es sich neben<br />

der Forderung nach Konsistenz hauptsächlich um Erklärungsbeziehungen.<br />

Das paßt gut zur fünften BonJourschen Forderung, die Erklärungsanomalien<br />

für eine Abnahme von Kohärenz verantwortlich macht — leider<br />

auch ohne diesen Begriff inhaltlich stärker zu füllen. Natürlich ist nicht<br />

jede Aussage, die von einer Theorie nicht erklärt wird, damit schon eine<br />

Anomalie für diese Theorie. In den Debatten um Kuhn wird dieser Begriff<br />

verwandt und mit einigen Beispielen belegt, aber der inhaltliche<br />

Aspekt, der Anomalien zu Anomalien macht, ist meines Wissens auch<br />

dort nicht festgemacht worden. Das ist eine der vielen Aufgaben, die<br />

eine Erklärungstheorie zu übernehmen hat und wird daher im wissenschaftstheoretischen<br />

Teil der Arbeit behandelt (s. IX.H.1)<br />

Mein Resümee zu BonJours Theorie lautet daher: Die Explikation<br />

der zentralen Begriffe wie „probabilistische Konsistenz“, „Anzahl und<br />

Stärke“ inferentieller Beziehungen, „Erklärung“, „Subsystem“ und „Erklärungsanomalie“<br />

läßt noch zu viele Wünsche offen — ja zeigt nicht<br />

einmal, in welcher Richtung wir nach Präzisierungen suchen sollen —,<br />

um sich mit der BonJourschen Theorie zufriedengeben zu können. Neben<br />

den Bedingungen zur logischen oder probabilistischen Konsistenz<br />

spricht BonJour zwar von inferentiellen Beziehungen, er kann aber nur<br />

einen Typ solcher Zusammenhänge konkret benennen, nämlich die Erklärungsbeziehungen,<br />

die ihrerseits nur unbefriedigend expliziert werden.<br />

Außerdem machen sie nach BonJours Ansicht auch nur einen nicht<br />

näher bestimmten Teil der inferentiellen Zusammenhänge aus. Seine<br />

Konzeption von Kohärenz bleibt damit an relevanten Stellen zu vage,<br />

um abschließend beurteilt werden zu können. Außerdem wirkt die Zusammenstellung<br />

der Bedingungen nicht immer systematisch, und es fehlen<br />

Hinweise auf ihren Zusammenhang.<br />

Neben seiner Kohärenzkonzeption und seiner Vorstellung von nichtlinearer<br />

Rechtfertigung fügt BonJour seiner Rechtfertigungstheorie noch<br />

zwei weitere Bestimmungsstücke hinzu, seine „Doxastic Presumption“<br />

(1985, 101ff) und seine „Observation Requirement“ (1985, 141ff). Die


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 219<br />

„Doxastic Presumption“ habe ich in (IV.B.4) bereits besprochen. Es ist<br />

eine Metaannahme BonJours über internalistische Rechtfertigungen, wonach<br />

Rechtfertigungen immer Rechtfertigungen unter der Voraussetzung<br />

sind, daß wir zumindest eine approximativ korrekte Vorstellung davon<br />

besitzen, welche Meinungen wir haben. BonJours „Observation Requirement“<br />

ist ebenfalls eine Metaforderung an Kohärenztheorien, mit der<br />

sich BonJour gegen den Vorwurf zur Wehr setzen möchte, daß in seiner<br />

Kohärenztheorie der Input, den unser Überzeugungssystem mittels<br />

Wahrnehmungen von außen erhält, nicht ausreichend berücksichtigt<br />

wird. Er formuliert diese Forderung:<br />

(OR) Observation Requirement:<br />

[…] in order for the beliefs of a cognitive system to be even candidates<br />

for empirical justification that system must contain laws attributing<br />

a high degree of reliability to a reasonable variety of cognitively<br />

spontaneous beliefs […]. (BonJour 1985, 141)<br />

BonJour verlangt mit (OR) nicht, jedes kohärente System müsse auf empirischen<br />

Input bedacht sein. Aber er hält es für eine geradezu analytische<br />

Forderung, daß ein System, in dem man von empirischer Rechtfertigung<br />

durch Kohärenz spricht, bestimmte Wahrnehmungen als Input auszeichnen<br />

muß. Er läßt dabei jedoch offen, was von einem solchen System<br />

jeweils als Input betrachtet wird. Darüber haben die entsprechenden<br />

Theorien des betreffenden Systems anhand von Kohärenzüberlegungen<br />

zu befinden. Er sieht es – im Unterschied zu den Empiristen – nicht<br />

als eine Aufgabe einer Theorie der Rechtfertigung an, ein für allemal<br />

festzulegen, was als vertrauenswürdiger Input zu gelten hat und was<br />

nicht. Das paßt auch besser zu unserer differenzierteren Konzeption von<br />

Wahrnehmungen, die in unterschiedlichem Ausmaß zuverlässig sind, und<br />

unserer empirischen Forschung, die ermittelt, wie zuverlässig welche Beobachtungen<br />

sind. Unter entsprechenden Umständen könnten es sogar<br />

religiöse Erleuchtungserlebnisse sein, die uns Input von der Welt vermitteln.<br />

Auch das wird von (OR) nicht a priori ausgeschlossen. (OR)<br />

scheint damit eine plausible Metaforderung für empirische Rechtfertigung<br />

zu sein, die keine zu starken inhaltlichen Forderungen in die Erkenntnistheorie<br />

hineinträgt. Trotzdem werde ich mich einer anderen<br />

Metaforderung zuwenden, die meines Erachtens noch kanonischer in<br />

eine Kohärenztheorie paßt (s. V.A.3).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 220<br />

3. Thagards Theorie der Erklärungskohärenz<br />

Thagards Kohärenzkonzeption der Rechtfertigung (z. B. in 1989 und in<br />

einer Weiterentwicklung 1992, Kap. 4) ist die von unseren Beispielen<br />

am weitesten ausgearbeitete und wurde bereits in zahlreichen Anwendungen<br />

erprobt. Er nimmt den Begriff der Erklärung als Grundbegriff<br />

und bestimmt, wie sich daraus ein zumindest komparativer Begriff von<br />

Erklärungskohärenz ergibt, wenn man die Erklärungsbeziehungen eines<br />

Aussagensystems als bekannt voraussetzt. Diese Voraussetzung ist in der<br />

Praxis nicht unbedingt problematisch, weil wir oft relativ klare Vorstellungen<br />

davon haben – zumindest in den wissenschaftlichen Beispielen,<br />

die Thagard vorwiegend untersucht –, wo Erklärungsbeziehungen vorliegen.<br />

Für eine metatheoretische Explikation von epistemischer Rechtfertigung<br />

bleibt hingegen der Wunsch bestehen, ebenfalls über eine präzise<br />

Theorie zu verfügen, was man unter Erklärung verstehen soll, zumal<br />

Thagard selbst auf die vielen konkurrierenden Ansätze in der Diskussion<br />

um wissenschaftliche Erklärungen hinweist.<br />

Man muß bei Thagard zwischen zwei Formen unterscheiden, in denen<br />

er seine Theorie präsentiert. Die eine ist seine Theorie der Erklärungskohärenz,<br />

die in einer Reihe von semiformalen Prinzipien erläutert,<br />

worin Erklärungskohärenz besteht. Die andere ist sein auf der Grundlage<br />

dieser Theorie entworfenes konnektionistisches Computerprogramm<br />

namens ECHO, das die Prinzipien seiner Theorie in ein Programm umsetzt,<br />

mit dem sich die Kohärenz von Aussagenmengen bestimmen läßt.<br />

Mit Hilfe dieses Programms war es Thagard möglich, seine Kohärenztheorie<br />

auf eine Reihe konkreter Beispiele anzuwenden, für die sich<br />

plausible Ergebnisse einstellten (s. Thagard 1992). Hauptsächlich analysierte<br />

er mit ECHO und einer Theorie begrifflicher Revolutionen historische<br />

Fälle von wissenschaftlichen Revolutionen sowie die Beweisführung<br />

in verschiedenen Mordprozessen (Thagard 1989, 450ff). In beiden Typen<br />

von Anwendungen geht es darum, daß konkurrierende Theorien oder<br />

Hypothesen anhand von entsprechenden Daten gegeneinander abzuwägen<br />

sind. Nach Thagard läßt sich dieser Vorgang als ein Vergleich der internen<br />

Kohärenz des Komplexes aus Daten und Theorien auf der<br />

Grundlage der vorliegenden Erklärungsbeziehungen verstehen. Aus der<br />

Sicht der naturalistischen Methodologie sind die vielen erfolgreichen<br />

Anwendungen von ECHO eine Stützung der Sichtweise, daß Erklärungskohärenz<br />

unser entscheidender Wahrheitsindikator ist. Ich möchte mich<br />

hier aber ganz auf die Diskussion von Thagards Theorie und nicht die<br />

seines Programms konzentrieren. Er schlägt in seiner Theorie sieben<br />

Prinzipien vor, die angeben, wie Kohärenz aus Erklärungsbeziehungen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 221<br />

entsteht. Die Prinzipien für Aussagen P, Q und ein Aussagensystem S lauten:<br />

Principle 1. Symmetry.<br />

(a) If P and Q cohere, then Q and P cohere.<br />

(b) If P and Q incohere, then Q and P incohere.<br />

Principle 2. Explanation.<br />

If P1…Pn explain Q, then:<br />

(a) For each Pi in P1…Pn, Pi and Q cohere.<br />

(b) For each Pi and Pj in P1…Pn, Pi and Pj cohere.<br />

(c) In (a) and (b) the degree of coherence is inversely proportional<br />

to the number of propositions P1…Pn.<br />

Principle 3. Analogy.<br />

If P1 explains Q1, P2 explains Q2, P1 is analogous to P2, and Q1 is<br />

analogous to Q2, then P1 and P2 cohere, and Q1 and Q2 cohere.<br />

Principle 4. Data Priority.<br />

Propositions that describe the results of observation have a degree of<br />

acceptability of their own.<br />

Principle 5. Contradiction.<br />

If P contradicts Q, then P and Q incohere.<br />

Principle 6. Competition.<br />

If P and Q both explain a proposition Pi, and if P and Q are not explanatory<br />

connected, then P and Q incohere. Here P and Q are explanatory<br />

connected if any of the following conditions holds:<br />

(a) P is part of the explanation of Q.<br />

(b) Q is part of the explanation of P.<br />

(c) P and Q are together part of the explanation of some<br />

propositions Pj.<br />

Principle 7. Acceptability.<br />

(a) The acceptability of a proposition P in a system S depends on its<br />

coherence with the propositions in S.<br />

(b) If many results of relevant experimental observations are unexplained,<br />

then the acceptability of a proposition P that explains only a<br />

few of them is reduced.<br />

(Thagard 1992, 66; Vorgängerversion 1989).<br />

Zunächst fällt auf, daß Kohärenz für Thagard eine Relation zwischen<br />

einzelnen Aussagen darstellt und nicht eine Eigenschaft des ganzen Sy-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 222<br />

stems von Aussagen. Die quantitative Umsetzung seiner Theorie im Programm<br />

ECHO zeigt aber, wie dabei durchaus holistische Phänomene<br />

auftreten und berücksichtigt werden können. Billigen wir ihm diese Beschränkung<br />

auf einzelne Propositionen also zunächst einmal zu. Das erste<br />

Prinzip der Symmetrie ist wohl als Bedeutungspostulat für den Kohärenzbegriff<br />

zu verstehen und in dieser Form kaum kontrovers. Sein Einsatz<br />

in einer Theorie der Rechtfertigung bringt im Rahmen der Gesamttheorie<br />

die bereits erwähnte Reziprozität von Rechtfertigungsbeziehungen<br />

zum Ausdruck. Auffallend ist nur, daß auch die Inkohärenz eigens<br />

erwähnt wird. Würde er Inkohärenz mit der Abwesenheit von Kohärenz<br />

identifizieren, genügte eigentlich schon Bedingung (1a), da (1b) keine<br />

besonders interessanten zusätzlichen Informationen böte. Inkohärenz ist<br />

also für Thagard vermutlich ein eigenständiges Konzept, auch wenn er<br />

das nicht sehr explizit ausdrückt. Dieser Aufteilung in Kohärenz und Inkohärenz<br />

schließe ich mich später an. Umgekehrt läßt sich das auch so<br />

ausdrücken: Kohärenz ist nicht gleich Abwesenheit von Inkohärenz.<br />

Hier schien gerade Lehrers Fehler zu liegen, denn es geht ihm nur um<br />

die Beseitigung der Inkohärenzen eines Systems.<br />

In (2a) bringt Thagard die schon in (IV.A) untersuchte Überzeugung<br />

zum Ausdruck, daß eine Erklärungsbeziehung eine Beziehung zwischen<br />

Explanandum und Explanans darstellt, die rechtfertigend wirkt. (2b) ist<br />

dagegen neu. Danach kohärieren zwei Propositionen, wenn sie gemeinsam<br />

zu einem Explanans gehören. Thagard nennt sie „Kohypothesen“.<br />

Das läßt sich z. B. als eine eingeschränkte Form einer Transitivitätsforderung<br />

für Kohärenz verstehen, denn Pi kohäriert mit Q und Q mit Pj und<br />

es wird verlangt, daß im Falle, wo die Kohärenz aus einer entsprechenden<br />

Erklärungsbeziehung resultiert, auch Pi mit Pj kohäriert.<br />

Zunächst ist zu bemerken, daß diese Bedingung nur sinnvoll sein<br />

kann, wenn es gelingt, überflüssige Elemente aus Erklärungen zu eliminieren,<br />

weil sonst folgender Fall auftreten könnte. Nehmen wir an, H<br />

erklärt E. Gilt dann automatisch auch, daß H&F mit beliebigem F E erklärt,<br />

wie das z. B. für das DN-Schema der Erklärung der Fall ist, so<br />

wird damit Kohärenz für nahezu beliebige Aussagen behauptet. Unter<br />

anderem an diesem Punkt zeigt sich eine Abhängigkeit der Thagardschen<br />

Kohärenztheorie von einer speziellen Erklärungskonzeption. In<br />

der Erklärungsdebatte hat es sich bekanntlich als ein ernstzunehmendes<br />

Problem erwiesen, irrelevante Bestandteile in Erklärungen als solche zu<br />

brandmarken.<br />

Thagard (1992, 67) beruft sich auf die tatsächlich gegebenen Erklärungen,<br />

in denen solche überflüssigen Bestandteile nicht vorkommen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 223<br />

sollen. Das ist aber ein Schachzug, der für uns nicht in gehaltvoller Weise<br />

erhellt, warum bestimmte Aussagen in Erklärungen überflüssig sind<br />

und somit nicht mit anderen Aussagen des Explanans kohärieren. Eine<br />

allgemeine Transitivitätsbedingung mit einer gewissen Abschwächung<br />

der Kohärenz scheint auf den ersten Blick nicht unplausibel, aber die Beziehung<br />

von Kohypothesen und ihre Auszeichnung vor anderen transitiven<br />

Kohärenzbeziehungen verlangt nach einer weitergehenden Begründung.<br />

Hierzu wäre die Angabe von Beispielen hilfreich, zumal diese<br />

nicht immer die Thagardsche Behauptung zu bestätigen scheinen. Die<br />

Newtonsche Mechanik erklärt zusammen mit gewissen Anfangswerten<br />

warum die Sonne heute dort steht, wo sie steht. Wird dadurch aber eine<br />

Kohärenzbeziehung zwischen Newtonscher Mechanik und den Anfangswerten<br />

sichtbar? Das ist nicht unmittelbar einleuchtend, besonders da es<br />

sich um Aussagen ganz verschiedener Bereiche handelt, und Thagards<br />

Hinweis (1992, 67) auf die Duhem/Quine These hilft an dieser Stelle<br />

auch nicht weiter. Man könnte eher vermuten, daß Kohypothesen wohl<br />

nicht inkohärent sind, aber sollte nicht mehr erwarten.<br />

Die Bedingung (2c) gibt ein Kriterium zur Beurteilung der Güte einer<br />

Erklärung von Q an. Die Idee dahinter ist, daß eine Erklärung, die<br />

viele Hilfshypothesen eventuell mit ad hoc Charakter benötigt, schlechter<br />

ist, als eine Erklärung, die mit weniger Zusatzannahmen auskommt.<br />

Das ist intuitiv nachvollziehbar, setzt jedoch voraus, daß es möglich ist,<br />

Hilfshypothesen in geeigneter Weise zu zählen, was sich bei Explikationsversuchen<br />

(s. IX.A) als problematisch erwies. Ich möchte eine weitergehende<br />

Diskussion dieser Forderung auf den Teil der Arbeit vertagen,<br />

der mit der Ausarbeitung einer Erklärungstheorie befaßt ist. Der dritte<br />

Punkt betrifft schließlich die analogen Erklärungen, die ebenfalls in der<br />

Ausarbeitung der Erklärungstheorie auf dem Programm stehen und bereits<br />

in Abschnitt (IV.A.6) angesprochen wurden. Im Rahmen einer Erklärungstheorie<br />

und einer formalen Analyse von Analogiebeziehungen<br />

werde ich mich später der Thagardschen Ansicht, daß auch sie kohärenzstiftend<br />

sind, anschließen.<br />

Prinzip (4) ist eine Umsetzung von BonJours Metaforderung (OR) (s.<br />

voriger Abschnitt) auf der Objektebene. Diese Forderung ist besonders<br />

in der Thagardschen Formulierung nicht unproblematisch, wie die Überlegungen<br />

zu BonJours „Observation Requirement“ schon nahelegen.<br />

BonJour hat sich in seiner Erkenntnistheorie mit gutem Grund nicht auf<br />

Aussagen einer bestimmten Art als Input, der epistemisch auszuzeichnen<br />

ist, festgelegt. Thagard tut das aber in (4), denn unter „observation“<br />

muß man hier das verstehen, was wir üblicherweise mit „Beobachtung“


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 224<br />

meinen, weil (4) in unserer Sprache – der Metasprache, in der wir über<br />

das in Rede stehende Meinungssystem sprechen – formuliert ist. Damit<br />

bleibt nicht mehr der Spielraum für eine Auszeichnung von Beobachtungen<br />

oder Input unterschiedlicher Art innerhalb des Überzeugungssystems<br />

wie das bei BonJour der Fall ist. Welche Theorie der Wahrnehmung am<br />

besten ist, ist aber eine Frage der jeweiligen Objekttheorien und nicht einer<br />

Metatheorie wie der Erkenntnistheorie. Wollte Thagard diesen inneren<br />

Spielraum des Objektsystems mit seiner Formulierung auch zugestehen,<br />

müßte „Beobachtung“ in (4) zumindest wie in dem jeweiligen Überzeugungssystem<br />

verstanden werden. Das wäre allerdings eine unschöne<br />

Vermengung der Objektebene des Systems mit der Metaebene von der<br />

aus das betreffende Überzeugungssystem beschrieben wird und sollte anders<br />

formuliert werden. Statt die Forderung (4) unter die Regeln des Systems<br />

aufzunehmen, sollte Thagard daher besser den Weg von BonJour<br />

beschreiten, eine entsprechende Metaregel anzufügen. Allerdings besagt<br />

Thagards 4. Prinzip nicht, daß nicht auch Beobachtungen als irrtümlich<br />

zurückgewiesen werden können. Seine Anwendungen seiner Theorie anhand<br />

von ECHO zeigen das ganz deutlich.<br />

Wie schon beim 2. Prinzip fällt also für sein 4. Prinzip wieder eine<br />

gewisse Inhomogenität – um nicht zu sagen Inkohärenz – des Regelsystems<br />

von Thagard auf. Im Hinblick auf sein Ziel, die Regeln in einem<br />

Programm zu implementieren, ist das verständlich, denn dafür benötigt<br />

er Regeln erster Stufe, die sich möglichst direkt in entsprechende Programmanweisungen<br />

umsetzen lassen. Aber für eine Explikation von Kohärenz<br />

und einer Kohärenztheorie der Rechtfertigung wäre eine systematischere<br />

Anordnung der Prinzipien, die ihren Status und Zusammenhang<br />

erkennbarer macht, wünschenswert gewesen.<br />

Im 5. Prinzip gibt Thagard Inkonsistenz, worunter auch analytische<br />

Inkonsistenz zu verstehen ist, als Grund für die Inkohärenz zwischen<br />

zwei Aussagen an. Diese Bedingung dürfen wir wieder als einen versteckten<br />

Hinweis betrachten, die Bedingungen für Kohärenz von denen<br />

für Inkohärenz abzutrennen. Inkohärenz wird nicht einfach als Abwesenheit<br />

oder Negation von Kohärenz betrachtet wird, sondern als Phänomen<br />

mit eigenen Aspekten (s. dazu IV.F). Außerdem wird spätestens<br />

an dieser Stelle sichtbar, daß Thagards Konzeption, Kohärenz und Inkohärenz<br />

nur in bezug auf zwei Aussagen statt auf ganze Systeme zu beziehen,<br />

unzureichend ist. Z. B. die drei Aussagen a, ab und ba sind<br />

paarweise logisch konsistent, aber als System inkonsistent, da sich offensichtlich<br />

die Kontradiktion aa daraus ableiten läßt. Dieser einfache


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 225<br />

Fall eines inkonsistenten Systems von Aussagen findet in der Regel (5)<br />

noch keine Berücksichtigung.<br />

In (6) behauptet Thagard, daß Aussagen aus konkurrierenden Erklärungen<br />

inkohärent sind, falls nicht besondere Bedingungen vorliegen.<br />

Sein Beispiel dafür sind zwei konkurrierende Erklärungen für das Aussterben<br />

der Dinosaurier. Die eine führt es auf eine Kollision der Erde<br />

mit einem Meteoriten zurück, während die andere ein Absinken des<br />

Meeresspiegels dafür verantwortlich macht. Aber selbst in Thagards Beispiel<br />

wird nicht deutlich, weshalb diese beiden Annahmen inkohärent<br />

sein sollen. Zunächst einmal gibt es die Möglichkeit, daß beide Effekte<br />

zusammen wirksam waren, die durch die Erklärungen jeweils nicht ausgeschlossen<br />

wird. Aber auch wenn nur eine Erklärung richtig ist, können<br />

doch beide erklärenden Hypothesen friedlich nebeneinander bestehen<br />

bleiben. Nur die Erklärungen selbst können in diesem Fall nicht gleichzeitig<br />

akzeptiert werden. Die Inkohärenz besteht dann zwischen den<br />

Aussagen:<br />

(1) „Die Kollision mit einem Meteoriten erklärt das Aussterben der<br />

Dinosaurier“ und<br />

(2) „Das Absinken des Meeresspiegels erklärt das Aussterben der<br />

Dinosaurier“.<br />

Doch damit ist noch nicht begründet, daß auch die Aussagen<br />

(a) „Die Erde ist mit einem Meteoriten zusammengestoßen.“ und<br />

(b) „Der Meeresspiegel ist abgesunken.“<br />

nicht zusammenpassen. Nehmen wir an, (1) sei richtig und (2) falsch<br />

und wir hätten auch gute Gründe für diese Ansicht. Dann ist damit lediglich<br />

ein Hinweis auf die Wahrheit von (b) weggefallen, der in einem<br />

Schluß auf die beste Erklärung des Dinosauriersterbens bestanden hätte.<br />

D.h. noch nicht, daß wir nun über positive Gründe gegen (b) verfügten.<br />

Für (b) könnten Gründe anderer Art sprechen, die von unserer Entscheidung<br />

für Erklärung (1) nicht berührt werden. Der Wegfall einer Bestätigung<br />

von (b) auf dem Wege über (2) ist aber bereits mit Thagards Prinzip<br />

2 erfaßt worden. 100 Thagards Prinzip (6) ist also in seiner gegenwärtigen<br />

Form nicht plausibel zu vertreten, zumal in dem untersuchten Ge-<br />

100 Ein anderer Punkt mit dem Thagard sich an dieser Stelle auseinanderzusetzen<br />

hätte, der nicht in offensichtlicher Weise durch seine Bedingungen (6a)<br />

oder (6b) abgedeckt ist, ist der der äquivalenten Beschreibungen oder Erklärungen,<br />

die in bestimmten Fällen sogar ein und dieselbe Theorie nur auf verschiedenen<br />

Ebenen liefern. Für Beispiele s. Bartelborth (1993a).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 226<br />

genbeispiel keine Anhaltspunkte dafür vorliegen, daß eine seiner Ausnahmebedingungen<br />

(6a)-(6c) erfüllt ist. Nebenbei beruht die Bedingung<br />

(6c) auf Bedingung (2b), die ich bereits kritisiert hatte.<br />

An diesem Punkt zeigt sich wiederum, daß es sinnvoll sein kann, Bedingungen<br />

für Kohärenz und solche für Inkohärenz getrennt zu betrachten.<br />

Die Aussagen (1) und (2) erscheinen inkohärent, aber für die Aussagen<br />

(a) und (b) gilt das nicht, denn alles was passiert ist, daß (b) Schwächung<br />

seiner kohärenten Einbindung in S erfährt. Das allein kann man<br />

wohl kaum als Inkohärenz bezeichnen. Auf die Trennung von Bedingungen<br />

für Kohärenz und Inkohärenz werde ich deshalb in (IV.F) erneut eingehen.<br />

Thagard hat natürlich Recht mit folgender Behauptung: Es dürfte<br />

kaum zu bestreiten sein, daß wirklich konkurrierende Erklärungen eine<br />

Inkohärenz für ein Überzeugungssystem mit sich bringen, doch es ist<br />

auch nicht einfach, solche echten Konkurrenzen von friedlich koexistierenden<br />

Erklärungen zu unterscheiden, und es ist nicht ersichtlich, daß<br />

die Bedingungen (6a) - (6c) diese Abgrenzung leisten können. Es kann<br />

verschiedene Erklärungen für ein Ereignis aus verschiedenen Perspektiven<br />

geben, die nicht gegeneinander ums Wahrsein antreten. Lehrer versucht<br />

gerade diesen epistemisch entscheidenden Punkt, wann eine Konkurrenz<br />

ums Wahrsein vorliegt, ins Zentrum seiner Explikation von „c<br />

competes with q“ für Aussagen c und q zu stellen, doch Thagard scheint<br />

dazu noch keinen Verbesserungsvorschlag anbieten zu können.<br />

Ein Autounfall kann etwa vom Verkehrspolizisten anhand einer Geschwindigkeitsübertretung,<br />

vom Psychologen anhand von Ermüdung des<br />

Fahrers, vom Automechaniker aufgrund der abgenutzten Bremsbeläge<br />

usw. erklärt werden, ohne daß eine dieser Erklärungen einer anderen ihr<br />

Wahrsein streitig machen müßte. Viele Faktoren sind vielleicht zusammengekommen<br />

und jede kausale Erklärung greift nur bestimmte Ursachen<br />

heraus. Oder wir werden mit genetischen und synchronischen Erklärungen<br />

konfrontiert, die auch beide zusammen wahr sein können.<br />

Wenn wir einen Pazifisten fragen, warum er sich weigert, in der Armee<br />

zu dienen, kann er auf der einen Seite erzählen, wie seine Eltern ihn dazu<br />

erzogen haben, bis er ein entsprechendes Verhalten internalisiert<br />

hatte, was dann ganz natürlich in seine Verweigerung mündete. Oder er<br />

kann seine Überzeugungen anführen, daß es unter allen Umständen unmoralisch<br />

ist, einen anderen Menschen zu töten und man als Soldat<br />

prinzipiell zum Töten bereit sein sollte, was ihn zur Verweigerung veranlaßt<br />

hat. Beide Erklärungen können zusammen richtig sein. Thagards<br />

Bedingung (6) schafft es nicht, auf informative Weise epistemische Kon-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 227<br />

kurrenz zu charakterisieren. Eine Erklärungstheorie hat genauer zu bestimmen,<br />

wann tatsächlich konkurrierende Erklärungen in einem engeren<br />

Sinn vorliegen, der auch epistemische Konkurrenz der verschiedener<br />

Erklärungen beinhaltet. Für eine realistische Auffassung der Welt gehört<br />

auf jeden Fall dazu, daß die unterschiedlichen Erklärungsmodelle zusammenpassen,<br />

d.h. sich in ein übergeordnetes Modell einbetten lassen (s.<br />

dazu Bartelborth 1994a).<br />

Überhaupt kann man Thagards Zusammenstellung von Prinzipien<br />

nicht als homogen bezeichnen. So mischt er z. B. in (2) Forderungen, die<br />

angeben, wie sich Kohärenz aus Erklärungsbeziehungen ergibt, mit solchen,<br />

die eigentlich die Güte der Erklärungen betreffen, unter demselben<br />

Prinzip. Außerdem wird durch das Fehlen von Kohärenz als einer<br />

genuinen Eigenschaft eines ganzen Systems von Aussagen Thagards Kohärenzkonzeption<br />

unvollständig.<br />

Thagards Prinzip (7) ist nicht eine weitere Charakterisierung von<br />

Kohärenz, sondern drückt den intendierten Zusammenhang zwischen<br />

Kohärenz und Rechtfertigung oder in seinen Worten die Akzeptabilität<br />

einer Aussage P relativ zu einem System von Aussagen S aus. In (7b)<br />

wird dabei noch einmal – und wie mir scheint etwas unmotiviert – die<br />

Bedeutung von Beobachtungsdaten hervorgehoben. Das ist eigentlich<br />

überflüssig, weil Beobachtungen schon im 4. Prinzip eine besondere Bedeutung<br />

für die Kohärenz verliehen wurde. Auch (7b) vermittelt daher<br />

eher den Eindruck eines gewissen Mangels an Geschlossenheit und Einheitlichkeit<br />

der angeführten Prinzipien. Trotzdem bleibt Thagards Vorschlag<br />

als die bisher am weitesten ausgearbeitete Explikation von Kohärenz<br />

ein wesentlicher Maßstab für folgende Kohärenztheorien, insbesondere<br />

für die hier vorgelegte, zumal auch in Thagards Vorschlag neben<br />

rein logischen Beziehungen gerade Erklärungsbeziehungen als konstitutiv<br />

für Kohärenz betrachtet werden. Ehe ich einen eigenen Explikationsvorschlag<br />

vorstellen werde, der auch in dieser Richtung geht, möchte<br />

ich vorweg noch einige Einwände gegen diese Konzeption von Kohärenz,<br />

die Erklärungen ganz ins Zentrum stellt, entkräften.<br />

E. Einwände gegen Kohärenz als Erklärungskohärenz<br />

Die Besprechung verschiedener Kohärenzkonzeptionen hat ergeben, daß<br />

BonJour im Unterschied zu Lehrer eine genuine Kohärenztheorie verfolgt,<br />

in der wesentlich ist, wie unsere Meinungen im Ganzen zusammenhängen.<br />

Als einzige inhaltlich bestimmte Beziehung neben der Kon-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 228<br />

sistenz, die eher den Rahmen absteckt, in dem wir nach Kohärenz suchen<br />

können, weiß er aber nur Bedingungen zu nennen (4 und 5), die<br />

sich auf Erklärungsbeziehungen in dem System beziehen. Trotzdem<br />

stimmt er Lehrer zu, daß Erklärungsbeziehungen nur einen Teil der kohärenzstiftenden<br />

inferentiellen Beziehungen ausmachen. Wie groß und<br />

bedeutsam dieser Anteil ist, wird leider nicht weiter untersucht. Harman<br />

(1986, 75) kommt dagegen zu dem Resümee, für Kohärenz sei Erklärungskohärenz<br />

eine wichtige Form von Kohärenz, vielleicht sogar die<br />

einzige, aber auch dort wird dieser Punkt nicht gründlicher diskutiert.<br />

Das soll an dieser Stelle nachgeholt werden. Zunächst möchte ich einigen<br />

„Argumenten“ nachgehen, die besagen, daß Kohärenz nicht im wesentlichen<br />

in Erklärungskohärenz besteht. Lehrer hat dazu drei Hauptargumente<br />

vorgetragen.<br />

1. „Erklärung“ ist kein epistemischer Begriff<br />

Lehrer übt in (1990b, 97ff) und (1974, 165ff) Kritik an der Hempelschen<br />

Erklärungstheorie, nach der wissenschaftliche Erklärungen deduktive<br />

Ableitungen des Explanandums (des zu Erklärenden) aus einem Gesetz<br />

und geeigneten Randbedingungen sind. Diese Kritik ist, wie wir im<br />

Erklärungsteil der Arbeit noch sehen werden, berechtigt. Seine Schlußfolgerung,<br />

die sich hauptsächlich auf ältere fragetheoretische Analysen<br />

zur Erklärung von Sylvain Bromberger (1965) stützt, daß wir zur Explikation<br />

von „Erklärung“ wesentlich auf epistemische Konzepte angewiesen<br />

sind, ist es aber nicht, was der letzte Teil der Arbeit ebenfalls demonstrieren<br />

wird. Hätte er mit seiner Vermutung recht, könnten allerdings<br />

Probleme entstehen, wenn man – wie ich es hier vorschlage – den Begriff<br />

der Rechtfertigung als grundlegenden Begriff der Erkenntnistheorie<br />

betrachtet und ihn anhand von Kohärenz expliziert, aber den Kohärenzbegriff<br />

seinerseits anhand von „Erklärung“ genauer zu bestimmen sucht.<br />

Es wäre nicht besonders hilfreich, den Erklärungsbegriff selbst wieder<br />

mittels epistemischer Begriffe wie „Rechtfertigung“ klären zu wollen, da<br />

sonst ein Zirkel der Explikationen entstünde. Man könnte in diesem Fall<br />

sogar daran denken, ihn als nicht weiter erklärbaren Grundbegriff einzuführen,<br />

wie es Lehrer (1990b, 98) oder Thagard vorschlagen.<br />

Träfe Lehrers Schlußfolgerung für Erklärungen zu, erschiene dieser<br />

Gedanke plausibel, wäre aber auch keineswegs selbstverständlich. Häufig<br />

genug ist das Ziel philosophischer Bemühungen die Aufklärung<br />

wechselseitiger Beziehungen zwischen verschiedenen Konzepten. Eine<br />

Explikation, die komplexe analytische Verbindungen zwischen den Be-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 229<br />

griffen „Rechtfertigung“, „Kohärenz“ und „Erklärung“ aufzeigt, ist daher<br />

nicht einfach als zirkulär in einem fatalen Sinn einzustufen, sondern<br />

höchstens nicht so informativ, wie man es sich erhofft hat. Auch hier<br />

sucht man eher nach einer naturalistischen Reduktion, die diese Begriffe<br />

auf nicht-normative „unproblematische“ Konzepte zurückführt. Obwohl<br />

der von Lehrer angedeutete Zirkel also nicht so folgenschwer wäre, wie<br />

Lehrer annimmt, werde auch ich versuchen, eine informativere Konzeption<br />

von Erklärung vorzuschlagen, nach der die Güte von Erklärungen<br />

nicht selbst wieder anhand epistemischer Begriffe bestimmt wird. Dazu<br />

gibt es eine Reihe neuerer und ermutigender Vorschläge, so daß der Pessimismus<br />

Lehrers in diesem Punkt wenigstens voreilig ist.<br />

2. Sind Erklärungen interessenrelativ?<br />

Erklärungen spielen nicht nur in Kohärenztheorien der Erkenntnis eine<br />

wichtige Rolle, sondern auch in fundamentalistischen Theorien. Fundamentalisten<br />

sind wie Kohärenztheoretiker auf Schlußverfahren wie den<br />

Schluß auf die beste Erklärung angewiesen, wenn sie beschreiben wollen,<br />

wie sich unsere Theorien über die Welt anhand unserer basalen<br />

Überzeugungen begründen lassen. Im Falle Mosers (s. III.B.5.b) sind sogar<br />

die basalen Überzeugungen durch einen derartigen Schluß auf die<br />

beste Erklärung zu begründen. Daher sind die Fragen, was eine Erklärung<br />

ist und was eine bessere Erklärung vor einer schlechteren auszeichnet,<br />

von generellerer erkenntnistheoretischer Bedeutung als nur zu bestimmen,<br />

was unter Kohärenz zu verstehen ist. 101 Ein allgemeines Argument<br />

von Williams zur epistemischen Rolle, die Erklärungen übernehmen<br />

können, richtet sich dann auch gegen alle nicht kontextualistischen<br />

(objektiven) Vorstellungen von epistemischer Rechtfertigung.<br />

Williams (1991, 279ff) gesteht der Erklärungskohärenz zwar ebenfalls<br />

große Bedeutung für die Rechtfertigung zu, aber er glaubt, sie<br />

könne sie nur in einer kontextualistischen Theorie der Rechtfertigung<br />

übernehmen, weil Erklärungen niemals Erklärungen per se, sondern nur<br />

Erklärungen in einem bestimmten Kontext sind. Das ist eine weitere<br />

wichtige Stelle, an der die Erkenntnistheorie eine grundlegende Abhängigkeit<br />

von unserer Erklärungstheorie aufweist. Ausgangspunkt der Williamschen<br />

Überlegung ist – wie schon für Lehrers Zirkelvorwurf im letzten<br />

Abschnitt – eine Kritik am Hempelschen Erklärungsparadigma. Sie<br />

zum Angriffsobjekt zu ernennen, erscheint gerechtfertigt, berufen sich<br />

101 In der wissenschaftsphilosophischen Erklärungsdebatte wird dieser<br />

Punkt wieder zur Sprache kommen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 230<br />

doch Kohärenztheoretiker wie BonJour ganz unverblümt auf das DN-<br />

Schema. Williams gibt ein Beispiel vom Putnamschen Typ für seine Ansicht<br />

an, daß Erklärungen interessenrelativ sind:<br />

I am in my office at exactly two o’clock one afternoon. This can be<br />

deduced from the fact that I was here a fraction of an instant before<br />

together with the impossibility of my exceeding the speed of light.<br />

But does this deduction explain my presence in my office? We are inclined<br />

to say not, because it is hard to see how the deduction could<br />

respond to any question anyone would normally ask. But strictly<br />

speaking, the question has no answer when put so baldly. Whether a<br />

deduction gives an explanation depends on our interests and background<br />

knowledge: it depends on what we don’t know already and<br />

what, in particular, we want to know about the fact in question. An<br />

explanation is a response to a definite „why question.“ These contextual<br />

considerations are not just pragmatic extras. Take them away<br />

and there is no fact of the matter as to whether one proposition explains<br />

another. (Williams 1991, 281)<br />

Für Williams bestehen Erklärungsbeziehungen immer nur relativ auf ein<br />

Hintergrundwissen und bestimmte Interessen, die mit einer Warum-Frage<br />

verknüpft sind. Die Relativierung auf ein bestimmtes Hintergrundwissen<br />

ist zunächst kein Problem, denn auch Rechtfertigungen haben immer<br />

nur Bestand relativ zu dem Hintergrundwissen des epistemischen<br />

Subjekts. Problematischer wäre schon eine vollständige Relativierung auf<br />

bestimmte Interessen, die mit einer Warum Frage verbunden sind. Hätte<br />

Williams in diesem Punkte Recht, ließe sich die Erklärungskohärenz eines<br />

Überzeugungssystems nicht als ein gegebener Wert betrachten, sondern<br />

wäre stark davon abhängig, welche Interessen man in einer bestimmten<br />

Situation hat. Damit hätte Williams zugleich recht, daß auch<br />

Rechtfertigungen wesentlich von den kontextuellen, pragmatischen Bedingungen<br />

abhingen, in deren Kontext sie gegeben würden. Einen derartigen<br />

Relativismus möchte ich nicht ohne Not akzeptieren und im letzten<br />

Teil der Arbeit werde ich daher eine Theorie der Erklärung ausarbeiten,<br />

nach der Erklärungen nicht in diesem Sinn wesentlich interessenrelativ<br />

sind.<br />

Dazu werden wir später sehen, daß für die Frage, nach welchen Erklärungen<br />

jemand sucht und welche Erklärungen ihn zufriedenstellen,<br />

natürlich die Frage, woran er Interesse hat und welches Hintergrundwissen<br />

er hat, einschlägig sind. Damit ist aber noch keineswegs gezeigt, daß<br />

Erklärungen wesentlich interessenrelativ in einem interessanten Sinn des


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 231<br />

Wortes sind, obwohl diese Annahme inzwischen weit verbreitet ist. Eine<br />

Überlegung sei dazu vorweggenommen. Logische Beziehungen sind sicher<br />

das Paradigma für Zusammenhänge, die nicht in einem wesentlichen<br />

Sinn von pragmatischen Faktoren abhängig sind. Wenn p aus q logisch<br />

folgt, so gilt das unabhängig davon, in welcher Situation ich mich<br />

gerade befinde, oder wen ich gerade auf diesen Zusammenhang aufmerksam<br />

machen möchte. Trotzdem bleibt natürlich die Frage, welche<br />

logischen Schlüsse ich aus meinen Überzeugungen ziehe, von meiner Situation<br />

und meinen jeweiligen Interessen abhängig. So könnte mich der<br />

Beweis des Gödelschen Satzes kalt lassen, weil ich zur Zeit an anderen<br />

Dingen interessiert bin. Das beeinträchtigt jedoch nicht seine Gültigkeit.<br />

Oder jemand beweist mir, daß sich aus meinen Überzeugungen zwingend<br />

ergibt, daß 2+2=4 gilt. Natürlich antworte ich ihm: Das ist für<br />

mich uninteressant, denn das weiß ich schon. Doch wann ein Schluß<br />

eine Deduktion ist, hängt trotz der beschriebenen Phänomene nicht von<br />

den Interessen irgendwelcher Personen ab. Es ist in diesem Sinn nicht<br />

subjektiv.<br />

Ähnlich sieht das für Erklärungen aus. Es gibt einen objektiven harten<br />

Kern der Erklärungsbeziehung, dessen Bestehen unabhängig von unseren<br />

Interessen bleibt. Im Unterschied zu logischen Schlüssen kommt<br />

hier allerdings zunächst noch hinzu, daß es mehr oder weniger gute Erklärungen<br />

gibt, aber darüber hinaus gibt es, wie für Deduktionen, das<br />

Phänomen, das uns manche Erklärungen schlicht nicht interessieren.<br />

Wenn der Pfarrer den Bankräuber fragt, warum er Banken ausraube –<br />

dies ist ein anderes Beispiel Putnams –, und jener antwortet, weil dort<br />

das meiste Geld sei, so könnte der Pfarrer ihm erwidern: „Damit hast<br />

Du nicht meine Frage beantwortet, sondern eher die eines Deiner Kollegen.<br />

Ich wollte dagegen wissen, warum Du nicht ein gottesfürchtiges Leben<br />

geführt hast.“ Der Bankräuber lenkte vom Thema ab. Er hätte genauso<br />

gut – wenn auch mit weniger Witz – erklären können, warum die<br />

Rotverschiebung vorliegt. In beiden Fällen hat er nicht auf die Frage des<br />

Pfarrers geantwortet und die produzierten Erklärungen mögen zwar<br />

gute Erklärungen auf andere Fragen sein, aber sie interessieren den Pfarrer<br />

eben nicht. Dabei ist wieder nicht die Erklärungsgüte oder das Bestehen<br />

einer Erklärungsbeziehung von unseren Interessen abhängig, sondern<br />

nur, nach welchen Erklärungen ich gerade suche, ist interessenabhängig.<br />

Der Bankräuber tut so, als ob er die Frage des Pfarrers nicht verstanden<br />

hätte und antwortet auf eine andere Frage, obwohl sich die Art<br />

der Frage, aus dem Kontext und den offensichtlichen Interessen des<br />

Pfarrers unschwer ermitteln ließ. Natürlich ist eine Antwort auf eine an-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 232<br />

dere Frage als die gestellte unbefriedigend, aber das hat nichts mit einer<br />

angeblichen Interessenrelativität der Erklärungsbeziehung zu tun (Genaueres<br />

s. VIII.C.1).<br />

3. Der Trivialitätsvorwurf<br />

Ein anderes Problem, das Lehrer für die Erklärungskohärenz sieht, ist<br />

das der trivialen Immunisierung (1990b, 98f). Wenn wir erst einmal<br />

über eine Theorie und einige Daten verfügen, die zusammen ein erklärungskohärentes<br />

System bilden, können wir es immer auf einfache Weise<br />

dadurch erklärungskohärent behalten, daß wir neue auftauchende Daten,<br />

also spontane Meinungen, die Beobachtungen wiedergeben, schlicht<br />

als falsch zurückweisen.<br />

Obwohl Lehrer dieses Argument speziell gegen die Konzeption von<br />

Kohärenz als Erklärungskohärenz wendet, möchte ich zunächst erwähnen,<br />

daß es sich in analoger Form selbstverständlich auch gegen andere<br />

Kohärenzkonzeptionen wenden läßt. Auch ihnen ließe sich vorwerfen,<br />

sie seien zu konservativ und in ihnen könnte man auf einfache Weise Kohärenz<br />

beibehalten, indem man widerspenstige Aussagen, welcher Art<br />

auch immer, schlicht aufgibt. Sie könnten sich doch einfach mit einer<br />

schön zurechtgelegten Geschichte begnügen und alle anderen Meinungen<br />

einfach abweisen. Mit diesem Vorwurf hätte sich dann natürlich<br />

auch Lehrer in seiner eigenen Kohärenzkonzeption auseinanderzusetzen.<br />

Das Argument gehört daher genaugenommen nicht an diese Stelle, weil<br />

es sich nicht speziell gegen Kohärenz als Erklärungskohärenz richtet,<br />

sondern generell gegen Kohärenztheorien. Trotzdem möchte ich mich<br />

schon hier damit beschäftigen, weil Lehrer es vor allem als einen Einwand<br />

gegen Erklärungskohärenz formuliert. Dieser Einwand erscheint<br />

mir weiterhin besonders interessant zu sein, weil er ein viel zu eingeschränktes<br />

Verständnis davon offenbart, was Kohärenz eines Überzeugungssystems<br />

bedeutet. Antworten auf diesen Einwand können daher als<br />

sinnvolle zusätzliche Erläuterungen des Kohärenzbegriffs und seiner Anwendung<br />

verstanden werden.<br />

Der Kohärenztheoretiker kann auf zwei Punkte hinweisen. Der erste,<br />

den Lehrer für seine eigene Kohärenztheorie nicht genügend beachtet,<br />

bezieht sich auf die Gesamtkohärenz eines Überzeugungssystems. Es<br />

mag zwar sein, daß sich auf die beschriebene triviale Weise ein kohärentes<br />

System von Meinungen aufrechterhalten läßt, aber das zeigt noch<br />

nicht, daß die Kohärenzkonzeption nicht Änderungen in unserem Überzeugungssystem<br />

gebietet. Es könnte nämlich sein, daß es eine alternative


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 233<br />

Theorie zu unserer Theorie gibt, die dieselben Beobachtungen und auch<br />

noch die neuen widerspenstigen Beobachtungen besser erklärt als die alte.<br />

Diese neue Theorie würde damit zu größerer Gesamtkohärenz führen,<br />

die wesentlich für Rechtfertigungen ist, und daher in einer genuinen Kohärenztheorie<br />

besser gerechtfertigt sein als die alte. Wir müßten in diesem<br />

Fall die alte Theorie zugunsten der neuen verwerfen. Der Trivialitätseinwand<br />

läßt sich daher nicht in seiner bisherigen Form aufrechterhalten.<br />

Allerdings könnte das eben beschriebene Verfahren immer noch zu<br />

konservativ sein. Wenn wir solange Beobachtungen einfach verwerfen<br />

dürften, bis wir eine neue Theorie gefunden hätten, die sie auch zu erklären<br />

gestattet, müßten wir unsere Rechtfertigungspraxis wohl merklich<br />

umstellen. Kohärenz und insbesondere Erklärungskohärenz bezieht<br />

sich aber nicht nur auf die einfachen Verhältnisse zwischen Daten und<br />

Theorien, sondern bezieht sich auf eine Reihe anderer Überzeugungen<br />

und Metaüberzeugungen (s. II.C.5.b) die gegen das triviale Verfahren<br />

sprechen. Da sind vor allem die epistemischen Metaüberzeugungen zu<br />

nennen, die einen recht zentralen Status in unseren Überzeugungssystemen<br />

einnehmen, die die spontan auftauchenden Beobachtungsaussagen<br />

als überwiegend verläßlichen Input in unser Überzeugungssystem einstufen.<br />

Viele epistemische Subjekte werden sogar sagen, daß sie die einzig<br />

gehaltvolle Informationsquelle über die Welt sind. Beobachtungsüberzeugungen<br />

zurückzuweisen steht daher im Widerspruch zu diesen Metaüberzeugungen<br />

und bedarf spezieller Erklärungen, die uns sagen, warum<br />

wir in bestimmten Fällen unseren Wahrnehmungen nicht vertrauen<br />

sollten. Das wird in diesen Ausnahmefällen durch viele Theorien über<br />

unseren Wahrnehmungsapparat und unsere kausale Stellung in der Welt<br />

gedeckt. Erst wenn wir all diese Theorien aufgeben könnten und zu völlig<br />

anderen Ansichten über unsere Stellung in der Welt und die Entstehung<br />

der laufend auftretenden Wahrnehmungsüberzeugungen kämen,<br />

ließe sich das genannte Immunisierungsverfahren anwenden. Dabei<br />

müßten wir aber an ausgesprochen seltsame Personen denken, damit<br />

sich interne Kohärenz einstellte.<br />

Neben dem Superempiristen könnte man sich vielleicht eine vollkommen<br />

autistische Person vorstellen, die sich von ihrer Umwelt völlig<br />

abgewandt hat und möglicherweise auf diese Weise sehr seltsame Auffassungen<br />

von ihrer Stellung in der Welt entwickelt hat. Nur sie könnte ein<br />

solch schlichtes Immunisierungsverfahren einsetzen. Sie könnte gegebenenfalls<br />

den Standpunkt des Solipsismus vertreten und jede Außenwelt<br />

leugnen. Wenn es für sie aber überhaupt noch einen sinnlichen Kontakt


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 234<br />

zur Außenwelt gibt, treten weiterhin spontane Meinungen über Gegenstände<br />

in ihr auf, die die interne Kohärenz ihrer Meinungen gefährden.<br />

Hat sie allerdings einen solchen Kontakt nicht mehr, kann Kohärenz tatsächlich<br />

kein Wegweiser auf dem Weg zur Wahrheit mehr sein. Doch<br />

wer mit solch katastrophalen Startbedingungen anfängt, hat auch mit<br />

anderen Erkenntnistheorien keine Chance zu begründeten empirischen<br />

Erkenntnissen zu gelangen. Auf derartige Fälle komme ich bei der Besprechung<br />

der skeptischen Hypothesen wieder zurück. Komplette Abschottungen<br />

in unserem kausalen Kontakt zur Welt bei einer kohärenten<br />

Innenperspektive können wir mit Hilfe einer Kohärenztheorie der Erkenntnis<br />

also tatsächlich nicht aufdecken, ebensowenig wie uns andere<br />

(internalistische) Erkenntnistheorien dagegen versichern können. Mit<br />

derartig radikalen skeptischen Möglichkeiten kann man sich nicht auf<br />

dieser Ebene auseinandersetzen (s. dazu VI. B).<br />

Es bleibt jedoch noch ein Aspekt des Lehrerschen Einwands zu besprechen.<br />

Die Kohärenztheorie funktioniert am plausibelsten für vollentwickelte,<br />

normale und komplexe Überzeugungssysteme. Was bisher noch<br />

nicht angesprochen wurde, ist, ob sie auch deren Entstehung erklären<br />

kann oder wenigstens damit verträglich ist. Diese Frage geht sicher über<br />

das hinaus, was eine Erkenntnistheorie leisten muß, spielt aber dafür,<br />

wie kohärent sie sich in unsere metatheoretischen Modelle vom Erkenntniserwerb<br />

einpassen läßt, eine Rolle. Einige Bemerkungen möchte<br />

ich immerhin dazu machen. Natürlich geht es nicht in erster Linie darum,<br />

eine empirische Theorie vorzuschlagen, wie der Ausbau eines Überzeugungssystems<br />

beim Menschen tatsächlich vonstatten geht, sondern<br />

eher darum, ein Modell anzugeben, wie ein solcher Aufbau mit Hilfe<br />

von Kohärenz überhaupt denkbar ist.<br />

Das könnte ganz grob so aussehen: Wenn wir eine rudimentäre Sprache<br />

erlernt haben, haben wir auch Beobachtungsüberzeugungen, die<br />

spontan in uns entstehen. Dazu entwickeln wir, zu Beginn sicher sehr<br />

implizit, – vielleicht als eine Form von eingebautem Induktionsschluß –<br />

einige allgemeinere Hypothesen, die damit die Kohärenz erhöhen. Unsere<br />

Theorien über die Welt werden dann langsam komplexer und die Datenmenge<br />

nimmt gleichzeitig zu. Thagard versucht in (1992, Kap. 10) einige<br />

Hinweise zu geben, daß für die begriffliche Entwicklung des Kindes<br />

in einigen Punkten ähnliche Mechanismen der Kohärenzkonstitution am<br />

Werke sind wie für die von Wissenschaftlern, die er genauer studiert hat.<br />

Dazu bespricht er eine ganze Reihe neuerer Arbeiten aus der Entwicklungspsychologie,<br />

die ermutigende Ansätze in dieser Richtung zu bieten<br />

haben. Diese Ansätze in der Entwicklungspsychologie sollen nur ver-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 235<br />

deutlichen, daß es für Kohärenzkonzeptionen keineswegs unverständlich<br />

erscheinen muß, wie solche reichhaltigen Meinungssysteme überhaupt<br />

entstehen konnten. Wie die Entwicklungsgeschichten tatsächlich am besten<br />

zu charakterisieren sind, fällt allerdings in den Zuständigkeitsbereich<br />

der empirischen Psychologie.<br />

4. Rechtfertigungen ohne Erklärung<br />

Meine Vorstellung von Kohärenz schließt an die von Sellars und Harman<br />

an, die vermuten, daß Kohärenz ausschließlich in Erklärungsbeziehungen<br />

zu sehen ist. Dazu kommen für mich allerdings noch Forderungen<br />

nach logischer oder probabilistischer Konsistenz und entsprechenden<br />

inferentiellen Zusammenhängen hinzu. Gegen diese Konzeption<br />

sind die Einwände am schwerwiegendsten, die auf Fälle verweisen, in<br />

denen andere inferentielle Beziehungen Kohärenz stiften. Lehrer<br />

(1990b, 105f) diskutiert zwei Beispiele solcher Fälle.<br />

Beispiel 1: Eine Eule sitzt auf einem Flaggenmast und eine Maus vor<br />

mir am Boden. Wenn ich bestimmte Randbedingungen kenne, wie<br />

die Höhe des Mastes und seine Entfernung von der Maus, kann ich<br />

mit Hilfe des Satzes von Pythagoras und den Randbedingungen die<br />

Entfernung der Maus von der Eule als drei Meter betragend ableiten.<br />

Die Überzeugung, daß die Maus drei Meter von der Eule entfernt<br />

ist, ist damit zwar perfekt gerechtfertigt, aber es handelt sich<br />

dabei trotzdem nicht um eine Erklärungsbeziehung.<br />

Beispiel 2: Im zweiten Beispiel sieht David Hume eine männliche<br />

Leiche. Er kann dann schließen, daß dieser Mann geschlechtlich gezeugt<br />

wurde. Zu Humes Zeiten, wo es noch keine künstlich Befruchtung<br />

gab, war dieser Schluß sicher begründet. Auch hierbei handelt<br />

es sich nicht um eine Erklärungsbeziehung, denn die geschlechtliche<br />

Zeugung erklärt nicht, wieso der Mann tot auf der Straße liegt.<br />

Auch BonJour (1985, 100) schließt sich Lehrers Ansicht an, daß es weitere<br />

inferentielle Beziehungen neben Erklärungsbeziehungen geben<br />

müsse, die Kohärenz stiften und nennt zur Unterstützung dieser Ansicht<br />

Lehrers erstes Beispiel.<br />

Doch wie überzeugend sind diese Beispiele? Mit dem ersten Beispiel<br />

habe ich zunächst schon deshalb keine Probleme, weil es sich um einen<br />

logischen Schluß anhand von mathematischen Gesetzen handelt. Neben<br />

erklärenden Beziehungen hatte ich deduktive Zusammenhänge als einen<br />

grundlegenden Aspekt von Kohärenz akzeptiert und nur dafür plädiert,


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 236<br />

daß Kohärenz nicht ausschließlich in Konsistenz oder logischer Ableitbarkeit<br />

zu suchen ist. Für Kohärenz sind wir darüber hinaus auf Theorien<br />

angewiesen, die ihrerseits mit Hilfe von Abduktionen und Beobachtungen<br />

begründet werden müssen. Es handelt sich in diesem Beispiel um<br />

einen eher mathematisch zu nennenden Schluß, auch wenn Lehrer<br />

(1990b, 97) den Satz des Pythagoras kurzerhand zu einem empirischen<br />

Gesetz deklariert, und es ist eine grundsätzlichere Frage, ob man sagen<br />

sollte, daß auch mathematische Theorien erklären können. Diese Frage<br />

möchte ich später bejahen, aber an dieser Stelle noch verschieben, zumal<br />

das Beispiel kein Gegenbeispiel gegen meine Kohärenzkonzeption darstellt.<br />

Damit Lehrers Beispiel zur vorliegenden Frage also überhaupt etwas<br />

beisteuern kann, muß man den bei ihm eingesetzten Satz des Pythagoras<br />

im Rahmen einer Theorie der physikalischen Geometrie betrachten. In<br />

diesem Rahmen kann man ihn aber auch als Teil einer Erklärung dafür<br />

betrachten, warum der Abstand zwischen Maus und Eule gerade 3 Meter<br />

beträgt. Je nachdem in welchen größeren Zusammenhang die physikalische<br />

Geometrie gestellt wird, könnte die etwa folgendermaßen aussehen:<br />

In dem untersuchten System liegen keine sehr großen Massen<br />

vor, so daß wir von möglichen Abweichungen von einer euklidischen<br />

Geometrie absehen können. Damit gilt auch das Theorem des Pythagoras<br />

approximativ, so daß sich aus den anderen Abständen gerade der Abstand<br />

3 Meter für Katze und Eule ergibt. Wenn wir die Raumkrümmung<br />

oder die Behauptung, daß sie nicht vorliegt, als ein kausales Phänomen<br />

betrachten und nicht mehr nur als rein mathematischen Zusammenhang,<br />

erhalten wir also eine einfache Form von kausaler Erklärung, die die<br />

Randbedingungen mit dem gesuchten Abstand verknüpft. Für die empirische<br />

Theorie ist die Berufung auf den Satz des Pythagoras dann nur<br />

eine Abkürzung für die Aussage, daß keine (oder vernachlässigbar<br />

kleine) Raumkrümmung in diesem Raum-Zeit Gebiet vorliegt.<br />

Etwas spannender sind da schon Beispiele des zweiten Typs. Allerdings<br />

handelt es sich in einer normalen Ausgestaltung der Geschichte<br />

auch hierbei zunächst um eine einfache Konsistenzfrage. Hume hatte zu<br />

seiner Zeit sicher die allgemeine Überzeugung, daß alle Menschen irgendwann<br />

geschlechtlich gezeugt worden sind. Aus Konsistenzgründen<br />

muß er das dann auch von dem toten Menschen in der Straße annehmen.<br />

Daß diese Annahme sich auf eine empirische Hypothese gründet,<br />

was Lehrer (1990b, 105) überraschenderweise sehr betont, tut dem deduktiven<br />

Zusammenhang zwischen der allgemeineren Hypothese und<br />

ihrer Anwendung auf das spezielle Beispiel natürlich keinen Abbruch.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 237<br />

Komplikationen kommen erst ins Spiel, wenn wir die Situation in<br />

die heutige Zeit versetzen. Da wir heutzutage angesichts der Möglichkeit<br />

künstlicher Befruchtung nur noch behaupten würden, daß die allermeisten<br />

Menschen geschlechtlich gezeugt wurden, könnte man zwar immer<br />

noch mit guten Gründen darauf schließen, daß eine Leiche vermutlich<br />

irgendwann einmal geschlechtlich gezeugt wurde, aber das ist dann<br />

kein logischer Schluß mehr. Allerdings geht es hier immer noch um probabilistische<br />

Konsistenz, die ich ebenfalls als eine Erweiterung der Konsistenz<br />

auf den Fall statistischer Aussagen mit zulasse, und nur deshalb<br />

nicht genauer untersuche, weil ich mich hier nicht mit dem speziellen<br />

Problembereich der Wahrscheinlichkeitsaussagen beschäftigen möchte.<br />

Neben dieser Auskunft, daß die vermeintlichen Gegenbeispiele keine<br />

wirklichen Gegenbeispiele gegen eine Kohärenztheorie sind, für die Kohärenz<br />

durch logische Beziehungen und Erklärungsbeziehungen erzeugt<br />

wird, drängt sich die Frage auf, welchen Stellenwert in einem größeren<br />

Erklärungsrahmen die angesprochenen Schlüsse besitzen. Im Humeschen<br />

Fall ist die geschlechtliche Zeugung ein Ereignis einer langen Kausalkette<br />

von Ereignissen, die letztlich zu der Leiche auf der Straße geführt haben.<br />

Wir werden es normalerweise nicht als eine Ursache oder sogar Erklärung<br />

für die Leiche betrachten, weil in derartigen Fällen eine erklärungsheischende<br />

Warum-Frage meist eine Frage nach den Todesursachen<br />

sein dürfte. Unter geeigneten Rahmenbedingungen offenbart aber auch<br />

der Hinweis auf die geschlechtliche Zeugung einen gewissen Erklärungswert.<br />

Z. B. wenn künstlich gezeugte Menschen unsterblich wären, könnte<br />

der Schluß darauf, daß die Leiche geschlechtlich gezeugt wurde, ein<br />

Schluß auf einen Teil der besten Erklärung sein. Natürlich bliebe die geschlechtliche<br />

Zeugung immer nur eine partielle Erklärung für die Leiche,<br />

weil nur ein Teil der Ursache damit genannt würde. Trotzdem mag<br />

der Hinweis genügen, daß auch diese Beziehung einen gewissen Erklärungswert<br />

hat, wenn man entsprechende Fragestellungen vor sich hat.<br />

Das wird nur dadurch verborgen, daß wir die Annahme der geschlechtlichen<br />

Zeugung in unserem Hintergrundwissen als selbstverständlich voraussetzen.<br />

Das macht diese Schlüsse aber zugleich auch weniger spannend,<br />

denn sie ergeben sich deduktiv aus anderen Überzeugungen.<br />

Lehrer (1990b, 105f) deutet aber schon selbst einen weiteren Kommentar<br />

an, den ein Verteidiger einer Erklärungskohärenztheorie zu diesen<br />

Beispielen außerdem abgeben sollte. Auch wenn in diesen Beispielen<br />

keine direkten Erklärungszusammenhänge auftreten, sondern nur Konsistenzforderungen<br />

zum Tragen kommen, stehen bestimmte Erklärungsbeziehungen<br />

im Hintergrund, die die genannten Überzeugungen in einen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 238<br />

größeren Rahmen einbetten. Die allgemeinere Aussage, daß alle Menschen<br />

geschlechtlich gezeugt wurden, ist ein Bestandteil eines allgemeineren<br />

Erklärungszusammenhangs in den Überzeugungen, die wir bei<br />

Hume vermuten. Auf dieses Hintergrundwissen stützt sich Hume bei seiner<br />

Behauptung, daß die Leiche vor ihm früher einmal geschlechtlich gezeugt<br />

wurde. Da Hume Mary Shelleys Frankenstein noch nicht kennen<br />

konnte, konnte er sich vermutlich die Person, die tot vor ihm lag, nur als<br />

auf geschlechtlichem Wege gezeugt denken. Die geschlechtliche Zeugung<br />

ist daher ein wesentlicher Teil seiner einzigen Erklärung für die<br />

Existenz der Person, die wiederum Teil einer Erklärung dafür sein kann,<br />

daß die Leiche vor ihm liegt. Auch in diesem Beispiel liegen vielfältige<br />

Erklärungsbeziehungen zwischen dem Vorliegen der Leiche und der<br />

Zeugung der Person vor, die diese beide in eine längere Erklärungskette<br />

stellen. Die Annahme, daß der Mensch geschlechtlich gezeugt wurden,<br />

mag Hume dabei so selbstverständlich erschienen sein, daß er normalerweise<br />

über keine Begründung dafür nachgedacht haben dürfte. Aber stellen<br />

wir ihn fiktiv vor die Frage, wie er sie denn rechtfertigen könnte,<br />

sollte er meines Erachtens in der genannten Richtung antworten.<br />

Gegen die letzte Überlegung führt Lehrer (1990b, 106) seine „Anti-<br />

Erklärer“ ins Feld, die ein wenig meinen Superempiristen ähneln. Diese<br />

seltsame Gruppe von Menschen fragt aus religiösen Gründen nie danach,<br />

warum oder wie bestimmte Dinge sich ereignen. Lehrer beschreibt<br />

ihr Wirken wie folgt:<br />

Anti-explanationists ask not why or how things happen but are content<br />

to observe the way things happen and rely on such observations<br />

without seeking explanations. They pride themselves in their intellectual<br />

humility. Such people might arrive at the pythagorean theorem<br />

from observation. They may not inquire as to why it is true and<br />

they may not have deduced it from more general axioms. Nonetheless,<br />

they might be completely justified in accepting what they derive<br />

from it, for example, that the mouse is five feet from the owl,<br />

whether or not the theorem or the conclusion derived from it contributes<br />

to the explanatory coherence of some overall system of beliefs.<br />

(Lehrer 1990b, 106; kursiv von mir)<br />

Gerade Lehrers Behauptung, daß die Anti-Erklärer vollständig in ihrer<br />

Annahme, daß die Maus fünf Fuß von der Eule entfernt ist, gerechtfertigt<br />

sind, steht hier zur Diskussion. Daß Lehrer das voraussetzt, ist eine<br />

Form von „question begging“. Das Beispiel leidet in seiner Klarheit wiederum<br />

darunter, daß der Satz des Pythagoras für sich genommen nur ein


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 239<br />

mathematischer Satz ist, der natürlich nicht ohne weiteres auf Beziehungen<br />

in der physischen Welt angewandt werden darf. Verstehen wir ihn<br />

aber wieder als Bestandteil einer empirischen Theorie, erkennen wir<br />

bald, daß Lehrers Anti-Erklärer eben gerade über keine Begründung für<br />

ihre Annahme des Abstandes von Maus und Eule verfügen. Die Anti-Erklärer<br />

bemerkten nur, daß in einer Reihe von konkreten Einzelfällen bestimmte<br />

geometrische Zusammenhänge vorlagen. Wie sollen sie aber aus<br />

diesen Wahrnehmungen in der Vergangenheit für den jetzt vorliegenden<br />

Fall von Maus und Eule einen Gewinn ziehen, wenn sie nicht irgendeine<br />

allgemeine Annahme der Art machen, daß für alle Fälle eines bestimmten<br />

Typs entsprechende geometrische Verhältnisse vorliegen? Diese Annahme<br />

ist in ihrer Allgemeinheit aber wie jede andere empirische Theorie<br />

zu behandeln und zu rechtfertigen; etwa durch einen Induktionsschluß,<br />

der besagt, daß diese Annahme (auch in der empirischen Welt<br />

gelte überall die euklidische Geometrie) unsere beste Erklärung für die<br />

festgestellten Zusammenhänge darstellt. Wie Lehrer ohne solch allgemeinere<br />

Annahmen im Eule-Beispiel von vollständiger Rechtfertigung<br />

oder bei solchen allgemeinen Annahmen ohne einen Induktionsschluß<br />

von vollständig gerechtfertigt sprechen kann, bleibt unverständlich. Ich<br />

kann ihm darin nicht folgen. Die bloße Beobachtung und Nachmessung<br />

von Abständen in bestimmten Einzelfällen sagt ohne verallgemeinernde<br />

Annahmen nichts über andere Fälle aus, die noch nicht untersucht wurden.<br />

Für eine Begründung der speziellen Eule-Maus Entfernung sind die<br />

Anti-Erklärer also auch auf allgemeinere Theorien und deren Rechtfertigung<br />

angewiesen.<br />

Lehrers Beispiele sind daher keine überzeugenden Gegenbeispiele<br />

gegen die hier entwickelte Kohärenzkonzeption, die Konsistenz als einen<br />

logischen Rahmen beinhaltet und wesentlich Erklärungsbeziehungen für<br />

Kohärenz verantwortlich macht. Gerade die spannenderen Induktionsschlüsse<br />

stützen sich meist auf Erklärungsbeziehungen. Nur das wird die<br />

Botschaft sein. Trotzdem können all diese Überlegungen natürlich nicht<br />

völlig ausschließen, daß wir auf inferentielle Zusammenhänge in unserem<br />

Wissen stoßen, die weder deduktiver Art noch erklärend sind. Auch<br />

sie würden allerdings im Normalfall die vorliegende Kohärenzkonzeption<br />

nicht gefährden, sondern könnten als sinnvolle Ergänzungen der vorliegenden<br />

Konzeption betrachtet werden; denn die Annahme, daß weiterhin<br />

Erklärungsbeziehungen für Kohärenz in unserem Meinungssystem<br />

wesentlich bleiben, ist durch die vorangehenden Überlegungen schon<br />

hinreichend demonstriert worden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 240<br />

F. Eine diachronische Theorie der Erklärungskohärenz<br />

In der Tradition von Sellars (1963, Kap. 11 Abschn. 85) und Harman<br />

(1986) scheint mir die Kohärenz eines Überzeugungssystems im wesentlichen<br />

in seinen Erklärungsbeziehungen zu bestehen, was in den vorangegangenen<br />

Abschnitten begründet wurde. Mein eigener Vorschlag für<br />

eine Kohärenztheorie der Rechtfertigung knüpft an die Diskussion positiver<br />

wie negativer Art der Vorschläge von Lehrer, BonJour und Thagard<br />

an, und soll ein Verbesserungsvorschlag sein. Insbesondere möchte ich<br />

die verschiedenen Aspekte von Kohärenz in systematischer Weise auseinanderhalten.<br />

Zu diesem Zweck unterscheide ich zwischen relationaler<br />

und systematischer Kohärenz und denke auch, daß es sich lohnt, einen<br />

eigenständigen Begriff von Inkohärenz zu präzisieren. Die leitende Idee<br />

der Explikation von Kohärenz ist die von BonJour genannte, daß ein System<br />

von Meinungen um so kohärenter ist, um so größer seine Vernetzung<br />

ist. Zunehmende Vernetzung wird durch mehr, aber auch durch<br />

bessere Verbindungen zwischen den Meinungen eines Netzes bewirkt.<br />

Sie ist zum einen durch logische Beziehungen gegeben und zum anderen<br />

durch Erklärungsbeziehungen. 102 Erklärungsbeziehungen können dabei,<br />

müssen aber nicht, ebenfalls logische Beziehungen einer bestimmten Art<br />

sein. Hier sind also Überschneidungen zugelassen, aber weder ist jede logische<br />

Ableitung eine Erklärung, noch ist jede Erklärung deduktiv. Tatsächlich<br />

bedeutsamer und interessanter scheinen mir die Erklärungsbeziehungen<br />

für die Vernetzung zu sein, da nur sie uns zu gehaltsvermehrenden<br />

Schritten befähigen, mit denen wir den bisherigen Kreis unserer<br />

Erkenntnis erweitern können. Für sie ist neben der Anzahl ihre Stärke<br />

wesentlich, denn die Bewertung wie gut Erklärungen sind, erlaubt graduelle<br />

Abstufungen. Wir können nun angeben, wie eine Aussage oder<br />

Meinung p für ein epistemisches Subjekt S zu einem bestimmten Zeitpunkt,<br />

wo S das Überzeugungssystem X hat, gerechtfertigt ist. Dabei bekommen<br />

alle Bedingugen noch einen Namen, um sie später besser in Erinnerung<br />

rufen zu können.<br />

102 Die Konzeption von Kohärenz als Vernetzung findet sich auch schon bei<br />

den idealistischen Kohärenztheoretikern, etwa bei Blanshard (1939, 264) oder<br />

bei Ewing (1934, 229f), die beide für eine kohärente Vernetzung fordern, daß<br />

sich jede Aussage des Systems aus dem Restsystem ableiten läßt. Rescher (1982,<br />

43f) hat die traditionellen Anforderungen an eine Kohärenztheorie in sechs Bedingungen<br />

zusammengestellt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 241<br />

Eine Kohärenztheorie der Rechtfertigung (KTR)<br />

(1) Rechtfertigung<br />

p ist für S in dem Maße gerechtfertigt,<br />

(a) wie sein Überzeugungssystem X kohärent ist<br />

[systematische Kohärenz]<br />

(b) wie p kohärent in X hineinpaßt [relationale Kohärenz]<br />

(c) wie p zur Kohärenz von X beiträgt [Kohärenzerhöhung]<br />

(d) wie p Inkohärenzen von X vermeiden hilft<br />

[Inkohärenzvermeidung]<br />

(2) Systematische Kohärenz<br />

X ist um so kohärenter,<br />

(a) je mehr inferentielle Beziehungen (logische und<br />

Erklärungsbeziehungen) die Propositionen in X vernetzen<br />

[Vernetzungsgrad]<br />

(b) je besser die Erklärungen sind, die X vernetzen<br />

[Erklärungsstärke]<br />

(c) je weniger Inkohärenzen in X vorliegen [Inkohärenzgrad]<br />

(d) je bewährter X ist [Stabilitätsbedingung]<br />

(3) Inkohärenz<br />

X ist um so inkohärenter,<br />

(a) je mehr Inkonsistenzen in X auftreten (auch probabilistische)<br />

[Inkonsistenzbedingung]<br />

(b) in je mehr Subsysteme X zerfällt, die untereinander relativ wenig<br />

vernetzt sind, [Subsystembedingung]<br />

(c) je mehr Erklärungsanomalien in X auftreten<br />

[Anomalienbedingung]<br />

(d) je mehr konkurrierende Erklärungen in X vorliegen<br />

[Konkurrenzbedingung]<br />

(4) Relationale Kohärenz<br />

p paßt um so kohärenter in das System X,<br />

(a) [Abduktionsbedingung]<br />

(i) je mehr Propositionen aus X p erklärt oder abzuleiten<br />

gestattet und<br />

(ii) um so besser es sie erklärt,<br />

(b) [Einbettungsbedingung]<br />

(i) je öfter p aus X abzuleiten ist und<br />

(ii) je öfter und besser p von den Propositionen aus X<br />

erklärt wird,


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 242<br />

Diese Explikation bedarf einiger Erläuterungen. Für den Normalfall gehe<br />

ich davon aus, daß p selbst ein Element von X ist, aber das ist nicht<br />

zwingend erforderlich. In (1) soll zum Ausdruck kommen, wie Rechtfertigungen<br />

durch Kohärenz bestimmt sind. Dabei werden die verschiedenen<br />

Aspekte von Kohärenz gesondert berücksichtigt. Als rechtfertigend<br />

für p soll das ganze Überzeugungssystem X angesehen werden. (Wem<br />

das Schwierigkeiten macht, weil p selbst ein Element von X ist, der kann<br />

sich an dieser Stelle auch Y = X\{p} denken). Da X zur Rechtfertigung<br />

von p herangezogen werden soll, wird in der Forderung (1a) nach systematischer<br />

Kohärenz verlangt, daß X selbst möglichst kohärent ist. Das<br />

entspricht dem globalen Aspekt von Kohärenz (s. IV.C) im Hinblick auf<br />

die Vorstellung, daß X selbst kohärent sein sollte, um p rechtfertigen zu<br />

können, weil X nur dann eine Verankerung der Rechtfertigung zu bieten<br />

hat, die weiteren Nachforschungen über den epistemischen Status der<br />

Prämissen standhält. Man könnte sagen, daß hier festgestellt wird, wie<br />

groß die gesamte rechtfertigende Kraft von X ist.<br />

Dagegen gibt (1b) an, inwieweit gerade p durch X gerechtfertigt ist.<br />

Das bemißt sich an der relationalen Kohärenz von p und X. Unter (1b)<br />

sind daher eher die lokalen Aspekte einer kohärenten Einbettung gemeint.<br />

(Auch hier mag es einfacher sein, sich die relationale Kohärenz<br />

als eine Beziehung zwischen p und Y vorzustellen.)<br />

Schließlich soll in (1c) thematisiert werden, welchen Beitrag p in X<br />

zur systematischen Kohärenz von X leistet, inwieweit es die systematischen<br />

Kohärenz von X wirklich vergrößert. Ein simples schematisches<br />

Beispiel kann verdeutlichen, daß dieser Punkt noch nicht durch die relationale<br />

Kohärenz von X und p abgedeckt ist. Es sei X gegeben durch die<br />

Aussagen p, q, r und s. Betrachten wir zwei Möglichkeiten von inferentiellen<br />

Zusammenhängen in X:<br />

a) Alle Aussagen in X sind mit allen anderen inferentiell verbunden.<br />

b) q, r und s sind untereinander isoliert, aber alle mit p inferentiell<br />

verbunden.<br />

Die relationale Kohärenz von p und X ist in beiden Fällen dieselbe,<br />

denn in beiden Fällen bestehen zwischen p und den anderen drei Aussagen<br />

dieselben inferentiellen Zusammenhänge. Aber der Beitrag, den p<br />

zur Gesamtkohärenz leistet, ist in (a) und (b) recht unterschiedlich. Im<br />

ersten Fall geht er über die relationale Kohärenz eigentlich nicht hinaus,<br />

denn die Aussagen von X sind bereits alle direkt untereinander verbunden.<br />

In (b) hingegen, stehen q, r und s ohne die Anwesenheit von p völlig<br />

isoliert da, während durch p immerhin zumindest indirekte Verbin-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 243<br />

dungen zwischen q, r und s geschaffen werden. X erhält in diesem Fall<br />

nur durch p einen Zusammenhalt in einer Netzstruktur.<br />

Im Beispiel (b) könnten q, r und s z. B. die Beobachtungsüberzeugungen<br />

eines Superempiristen sein, die isoliert nebeneinander stehen<br />

und durch eine Theorie p gemeinsam erklärt und damit auch in einen<br />

indirekten Zusammenhang gebracht werden. Oder q, r und s sind die<br />

Tatsachen aus der Erzählung von Conan Doyles „A Case of Identity“,<br />

die zunächst recht unzusammenhängend wirkten, während p gerade<br />

Sherlock Holmes erklärende Hypothese der Identität von Stiefvater und<br />

Bräutigam darstellt, die nun Verbindungen zwischen diesen Tatsachen<br />

schafft, wo vorher noch keine erkennbar waren. Wenn lebensechte Fälle<br />

auch häufig nicht so durchschaubare Beispiele bieten, dürfte doch klar<br />

geworden sein, daß die Einschätzung der Bedeutung von p für die systematische<br />

Kohärenz von X nicht allein von der relationalen Kohärenz abhängt,<br />

sondern ebenfalls von der speziellen Beschaffenheit von X. Im<br />

Falle (a) liegt bereits mit X\{p} ein hochkohärentes System Y vor, zu<br />

dem die indirekten Verbindungen, die p stiftet, nicht viel beizutragen haben,<br />

während in (b) X ohne p wenig kohärent ist und erst durch die indirekten<br />

Verbindungen, die p hineinträgt, ein gewisses Maß an systematischer<br />

Kohärenz in X entsteht.<br />

Ein anderes interessantes Beispiel, in dem die Beiträge zur relationalen<br />

und systematischen Kohärenz auseinanderklaffen, stellen ad hoc Hypothesen<br />

dar. Sie selbst besitzen, und das macht gerade ihren ad hoc<br />

Charakter aus, nur wenig relationale Kohärenz zu X. Aber sie können<br />

trotzdem die systematische Kohärenz von X entscheidend verbessern, indem<br />

sie als Brückenthesen zum Abbau von Inkohärenzen beitragen.<br />

Dazu ein konkreter Fall aus der Geschichte der Astronomie: Bei dem<br />

Vergleich der Bahn des Merkur mit den Berechnungen anhand der Newtonschen<br />

Gravitationstheorie bemerkte Leverrier 1845, daß der Perihel<br />

(dem sonnennächsten Punkt auf seiner elliptischen Bahn) des Merkur<br />

sich schneller bewegte, als es die gravitativen Einflüsse der anderen bekannten<br />

Planeten erwarten ließen. Damit entstand eine Inkohärenz zwischen<br />

Beobachtungen und der Newtonschen Theorie. Um Theorie und<br />

Beobachtung zu versöhnen, nahm Leverrier an, daß es einen kleineren<br />

Planeten, noch näher an der Sonne gab, der für diese Abweichung verantwortlich<br />

wäre, und taufte ihn Vulcanus, nach dem römischen Gott<br />

des Feuers. Die Annahme des Vulcanus konnte die entstandene Inkohärenz<br />

zunächst beseitigen und trug somit entscheidend zur systematischen<br />

Kohärenz des wissenschaftlichen Wissens der damaligen Zeit bei.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 244<br />

Allerdings war es um die relationale Kohärenz dieser Annahme nicht<br />

so gut bestellt. Der Planet war noch nicht beobachtet worden und neben<br />

der Bahnanomalie des Merkur gab es nur eine metatheoretische Analogie,<br />

die für ihn sprach, nämlich das entsprechende Vorgehen im Fall der<br />

Bahnabweichung des Uranus, wo die Astronomen – ebenfalls unter wesentlicher<br />

Mitarbeit von Leverrier – den später entdeckten Planeten<br />

Neptun vermuteten. Die Annahme des Vulcanus ist somit ein Beispiel,<br />

wie eine Aussage über ihre relationale Kohärenz hinaus, die in diesem<br />

Fall nicht sehr groß war, zur systematischen Kohärenz beitragen kann.<br />

Die epistemische Funktion von ad hoc Annahmen, wie sie in diesem Beispiel<br />

sichtbar wird, entspricht auch den Lakatosschen Überlegungen, die<br />

man als ein Plädoyer betrachten kann, ad hoc Annahmen in den Wissenschaften<br />

erkenntnistheoretisch ernster zu nehmen, als daß früher der<br />

Fall war. Das genannte Beispiel belegt, wie fruchtbar sie sein können.<br />

Wenn sich auch die Vulcanus Hypothese als falsch herausstellte, hat sich<br />

die entsprechende Neptun-Vermutung doch schon bald bewahrheitet.<br />

Die KTR gibt uns das geeignete Rüstzeug an die Hand, die epistemischen<br />

Vorzüge und Nachteile von ad hoc Hypothesen detaillierter zu beschreiben<br />

und in einen Zusammenhang zu anderen Begründungen von<br />

Aussagen zu stellen.<br />

Wie sich das Konzept der systematischen Kohärenz, auf das sich (1a)<br />

und (1c) beziehen, seinerseits explizieren läßt, wird in (2) vorgeführt.<br />

Die systematische Kohärenz hängt entscheidend vom Grad der Vernetzung<br />

im System X ab. Die Vernetzung wird durch inferentielle Beziehungen<br />

hergestellt, die in erster Linie in logischen und Erklärungsbeziehungen<br />

bestehen. Während die logischen Beziehungen keine Abstufungen<br />

zulassen, sind Erklärungsbeziehungen noch nach besseren und weniger<br />

starken Erklärungszusammenhängen zu unterscheiden. Zu der Forderung<br />

nach möglichst vielen inferentiellen Verbindungen in (2a) kommt<br />

daher die Forderung der Erklärungsstärke nach möglichst guten Erklärungen<br />

in (2b). Was dabei unter „besserer Erklärung“ zu verstehen ist,<br />

wird in der Erklärungsdebatte genauer bestimmt.<br />

In (2c) wird als eigenständiges Konzept, das der Inkohärenz genannt,<br />

auf das schon (1d) bezug nimmt. Das ist dadurch gerechtfertigt, daß es<br />

in (3) in sinnvoller Weise durch eigenständige Bedingungen definiert<br />

wird, nach denen ein nicht-kohärentes System X noch keineswegs inkohärent<br />

sein muß. Es könnte sich z. B. bei X um ein System von lauter<br />

isolierten Überzeugungen wie denen des Superempiristen handeln, dann<br />

wäre X zwar hochgradig nicht-kohärent, aber nicht unbedingt im selben


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 245<br />

Ausmaß inkohärent. Eine Eigenständigkeit von „Inkohärenz“ wird auch<br />

in ihrer Explikation unter (3) deutlich werden.<br />

Bisher kam die Stabilitätsbedingung (2d) noch nicht zur Sprache, die<br />

eher den dynamischen Aspekt von Rechtfertigungen und Wissen betrifft,<br />

statt die statischen, auf die ich mich in den anderen Bestimmungen bezogen<br />

habe. In (2d) wird von X verlangt, daß es über längere Zeit hinweg<br />

stabil kohärent geblieben ist, d.h., daß es in dieser Zeit trotz möglichst<br />

zahlreichen Inputs keine revolutionären Änderungen erfahren hat. Die<br />

Stabilität ist für uns ein wichtiges Indiz dafür, daß unsere Weltsicht zutreffend<br />

ist. Sie zeigt, daß unsere bisherigen Theorien sich auch bei auftretenden<br />

neuen Beobachtungen bewährt haben. Die Theorien sind<br />

keine ad-hoc-Justierungen, sondern fruchtbare Forschungsprogramme.<br />

Wann man dabei von konservativen Entwicklungen und wann von revolutionären<br />

Änderungen sprechen kann, läßt sich hier nicht en passant<br />

aufklären. Aber es gibt jedenfalls Lösungsvorschläge, die bereits auf zahlreiche<br />

Beispiele erfolgreich angewandt wurden und zudem in den Rahmen<br />

der Kohärenztheorie passen, wie der von Thagard (1992), der wissenschaftliche<br />

Revolutionen anhand ihrer begrifflichen Revolutionen zu<br />

identifizieren sucht. Vor allem Änderungen in den begrifflichen Hierarchien<br />

und Teil-Ganzes Beziehungen von Theorien sind für Thagard entscheidende<br />

Hinweise auf das Vorliegen begrifflicher Revolutionen.<br />

Zum zweiten Punkt der neuen Evidenzen möchte ich kurz ein Beispiel<br />

von Lipton (1991) aufgreifen und erweitern. Wenn wir über eine<br />

Karte für ein uns weitgehend unbekanntes Gelände verfügen und nicht<br />

wissen, ob sie dieses Gelände zutreffend darstellt oder nicht, so ist es sicherlich<br />

ein gutes Indiz für die Zuverlässigkeit der Karte, wenn wir sie an<br />

etlichen Stellen überprüft haben und sie dort jeweils stimmte. Das gilt<br />

um so mehr, wenn die Karte nicht speziell entworfen wurde, um gerade<br />

an diesen Stellen zu passen, sondern wenn sie auch für alle zufällig und<br />

eventuell unvorhersehbar herausgegriffenen Bereiche gilt. Ähnliches läßt<br />

sich für Theorien sagen. Sie werden besonders dadurch bestätigt, daß sie<br />

auch für solche Ereignisse eine gute Erklärung anbieten können, die bei<br />

ihrer Entwicklung noch nicht bekannt waren. Der Schluß auf die beste<br />

Erklärung – hier auf einer Metaebene eingesetzt – begründet, wieso<br />

neue Evidenzen erkenntnistheoretisch so besonders kostbar erscheinen.<br />

Kann eine Theorie nur die bereits bekannten Daten erklären, bleibt immer<br />

die Hypothese, daß sie gerade dafür notdürftig zurechtgeschneidert<br />

wurde, eine brauchbare metatheoretische Erklärung für dieses Faktum.<br />

Erklärt sie zunehmend aber auch neue bei ihrer Entstehung unbekannte<br />

Daten, verliert diese metatheoretische Hypothese an Gewicht, denn da-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 246<br />

für hat sie keine Erklärung mehr. Die bietet uns dann eher die metatheoretische<br />

Annahme die Theorie sei zumindest approximativ wahr. Das<br />

weist speziell die neuen Daten als triftige Tests für die Wahrheit einer<br />

Theorie aus.<br />

Die Stabilitätsbedingung wird im Zusammenhang des methodologischen<br />

Konservatismus (s. V.A.3) noch ausführlicher besprochen. Auch<br />

BonJour (1985, 169ff) stützt sich auf eine entsprechende Annahme in<br />

seiner Argumentation gegen den Skeptiker.<br />

Analogiebeziehungen, die Thagard außerdem noch für Kohärenz<br />

nennt, müssen nicht eigens aufgeführt werden, weil sie im Rahmen meiner<br />

Erklärungstheorie als Spezialfälle von Erklärungen betrachtet werden<br />

können.<br />

Das Konzept der Inkohärenz, die der systematischen Kohärenz entgegenarbeitet,<br />

beinhaltet in (3a) zunächst die logischen Inkonsistenzen,<br />

von denen hier angenommen wird, daß sie sich in unseren Überzeugungssystemen<br />

lokal begrenzen lassen. Daneben rechne ich wie BonJour<br />

auch Aussagen, wie „p“ und „p ist unwahrscheinlich“ zu den Inkohärenzen,<br />

die zwar nicht wiedersprüchlich im streng logischen Sinn sind, aber<br />

doch offensichtlich eine Störung für den harmonischen Zusammenhang<br />

unseres Meinungssystems bedeuten.<br />

Falls sich echte Subsysteme in X identifizieren lassen, so ist auch das<br />

eine Verletzung eines einheitlichen Wissens, wie es für ideal kohärente<br />

Meinungssysteme wünschenswert ist. Subsysteme sind die Elemente einer<br />

Aufspaltung von X in Teilmengen mit der Eigenschaft, daß innerhalb<br />

jeder Teilmenge deutlich mehr Verbindungen unter den Elementen bestehen<br />

als zu den Elementen anderer Teilmengen. Dieses Phänomen ist<br />

ein Teil einer Abwesenheit von Kohärenz, weil hier weniger Verbindungen<br />

als möglich vorliegen, aber es ist eine ganz spezielle Form der Abwesenheit<br />

von Kohärenz, nämlich eine die die Verteilung von inferentiellen<br />

Zusammenhängen betrifft. Falls X mehrere Subsysteme aufweist, kann<br />

X zwar noch eine relative hohe durchschnittliche Vernetzung besitzen,<br />

die ihm zunächst ein gewisses epistemisches Gewicht sichert, aber X ist<br />

eigentlich aus verschiedenen Teilen zusammengefügt, die ihrerseits nicht<br />

gut zusammenpassen. In gewisser Weise zerfällt X in unzusammenhängende<br />

oder wenig zusammenhängende Komponenten, die sich gegenseitig<br />

epistemisch kaum stützen. Das Ausmaß, in dem das der Fall ist, ist<br />

natürlich Abstufungen fähig, so daß auch das Identifizieren und Einteilen<br />

von Subsystemen eine Sache des Grades ist. Die scheint mir allerdings<br />

sehr hilfreich für die Beschreibung globaler Eigenschaften von<br />

Überzeugungssystemen zu sein, weil sich die Diskussion um bestimmte


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 247<br />

Beispiele in unserem Wissen anhand dieses Konzepts leiten läßt. Daher<br />

wird Subsystembedingung (3b) als eigene Forderung in (3) aufgenommen.<br />

Man könnte die Subsysteme (in einer schwachen Analogie) mit getrennten<br />

Teillandkarten vergleichen, die nur wenige Berührungspunkte<br />

untereinander aufweisen. Wenn sich eine dieser Landkarten als zuverlässig<br />

für ihr Gebiet erwiesen hat, gibt uns das nur wenige Hinweise auf die<br />

Zuverlässigkeit der anderen. Bei einer umfassenden zusammenhängenden<br />

Landkarte haben wir hingegen mehr Anlaß, von einem Passen<br />

der Landkarte in einem Gebiet auf ihre allgemeine Brauchbarkeit<br />

und damit auf andere Gebiete zu schließen.<br />

Der in (3c) genannte Fall der Erklärungsanomalie läßt sich auch als<br />

ein Spezialfall eines kleinen isolierten Subsystems deuten, besitzt aber<br />

auch ausgeprägte eigenständige Charakteristika. Eine Aussage wird – im<br />

Unterschied zu Subsystemen – nicht allein dadurch schon zur Erklärungsanomalie<br />

von X, daß sie innerhalb von X nicht erklärt wird. Erklärungsanomalien<br />

sind spezifisch für bestimmte Theorien. Die Perihelanomalie<br />

des Merkur ist keine Anomalie für den psychologischen Behaviorismus<br />

– der hat seine eigenen – und auch nicht für die Maxwellsche<br />

Elektrodynamik, obwohl sie auch dort nicht erklärt wird, sondern für<br />

die Newtonsche Gravitationstheorie. Erklärungsanomalien sind Tatsachen,<br />

die zwar zum intendierten Anwendungsbereich einer Theorie T<br />

gehören, aber sich trotzdem dagegen widersetzen, von T erklärt zu werden.<br />

Dieser Punkt kann in der Erklärungsdebatte in (IX.H.1) angemessener<br />

behandelt werden. Daß Erklärungsanomalien in der Wissenschaftsdynamik<br />

eine große Bedeutung zukommt, ist spätestens durch die Kuhnschen<br />

wissenschaftshistorischen Untersuchungen bekannt.<br />

In (3d) ist die Rede von Konkurrenzerklärungen. Das sind Erklärungen,<br />

von denen wir annehmen müssen, daß sie nicht beide wahr sein<br />

können. In konkreten Fällen dürfte es meist intuitiv nicht schwer bestimmbar<br />

sein, ob tatsächlich konkurrierende Erklärungen oder koexistierende<br />

vorliegen. Schwieriger ist es schon, dafür ein einfaches Kriterium<br />

zu formulieren, aber es mag zunächst genügen, sich auf unser intuitives<br />

Verständnis von konkurrierenden Erklärungen zu stützen, da es mir<br />

in dieser Arbeit kaum möglich ist, schon alle Teile des hier vorgelegten<br />

Forschungsprogramms vollständig zu explizieren (s. Bartelborth 1994a).<br />

Im 4. Teil von KTR wird dann schließlich, die relationale Kohärenz<br />

diskutiert, auf die sich die Bedingung (1b) bezieht. Sie besteht in den inferentiellen<br />

Beziehungen, die zwischen p und dem Rest von X vorliegen.<br />

Dabei ist analog den Bedingungen (2a) und (2b) wieder in logische und<br />

Erklärungsbeziehungen zu unterscheiden und für die zweiteren eine


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 248<br />

möglichst hohe Erklärungskraft zu verlangen. Außerdem können diese<br />

inferentiellen Zusammenhänge in der einen wie der anderen Richtung<br />

vorliegen. Dabei lassen sie sich einmal als Abduktionsschlüsse und in der<br />

anderen Richtung als Einbettungen deuten. Daß die relationale Kohärenz<br />

nicht einfach mit der systematischen Kohärenz zu identifizieren ist,<br />

wurde bereits durch die Beispiele in der Diskussion von Bedingung (1c)<br />

belegt. Man könnte nun auch noch die relationale Inkohärenz eigens berücksichtigen.<br />

Aus Gründen der Übersichtlichkeit verzichte ich darauf,<br />

zumal sie auch schon in den Beitrag, den p zur Kohärenz von X leistet<br />

mit eingeht, denn als einen Aspekt der systematischen Gesamtkohärenz<br />

finden wir die Inkohärenz.<br />

Die in KTR vorgestellte Kohärenztheorie der Rechtfertigung erlaubt<br />

Vergleiche zwischen bestimmten Aussagen oder Theorien daraufhin, wie<br />

gut sie sich in unser Meinungssystem einfügen lassen. Sie ist in erster Linie<br />

als eine partiell komparative Theorie der Rechtfertigung zu verstehen.<br />

Komparativ ist sie, weil sie in manchen Fällen direkte Vergleiche gestattet,<br />

welche von zwei Aussagen vor unserem Hintergrundwissen besser<br />

begründet ist. Partiell bleibt sie, weil sie diesen Vergleich nicht für beliebige<br />

Aussagen gestattet. Für zwei Theorien T1 und T2 kann man anhand<br />

von KTR erwägen, wie sie zur Kohärenz unseres Überzeugungssystems<br />

X beitragen würden und wie gut sie daher vor X gerechtfertigt wären.<br />

Ist T1 in allen Punkten der KTR besser oder zumindest genauso gut wie<br />

T2, so ist T1 besser gerechtfertigt vor dem Hintergrund X. Liegen allerdings<br />

die Stärken von T1 und die von T2 in jeweils verschiedenen Punkten<br />

von KTR, gibt KTR allein noch keine Auskunft darüber, welche<br />

Theorie epistemisch zu bevorzugen sei. Eine solche Abwägung z. B. von<br />

Erklärungsleistungen auf der einen Seite gegen die Vermeidung von Inkohärenzen<br />

auf der anderen Seite läßt sich zumindest bisher nicht allgemein<br />

treffen, sondern nur in konkreten Einzelfällen. Allerdings stellt<br />

KTR auch in diesen Fällen die Begrifflichkeit und die Beurteilungsdimensionen<br />

zur Verfügung, an denen eine entsprechende Abwägung auszurichten<br />

ist.<br />

Um diesen letzten Aspekt einer Bewertung anhand von (KTR) zu illustrieren,<br />

soll ein Beispiel skizziert werden. Eine solche Abwägung<br />

mußte für das Bohrsche Atommodell vorgenommen werden, das auf der<br />

einen Seite die Spektrallinien von Atomen erklären konnte, aber auf der<br />

anderen Seite in Konflikt mit der klassischen Elektrodynamik stand. Es<br />

hatte eine Reihe unbekannterer Konkurrenten wie das Plumpuddingmodell<br />

von J.J. Thomson (s. Pais 1986; 166, 185), die alle gewisse Erklärungsleistungen<br />

erbrachten, aber in dieser Hinsicht dem Bohrschen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 249<br />

Atommodell eindeutig unterlegen waren. Insbesondere steht ihm natürlich<br />

auch der Konkurrent der theoretischen Enthaltsamkeit gegenüber,<br />

der sagt, wir haben einfach noch keine gute Atomtheorie, und die Linienspektren<br />

der Atome (insbesondere des Wasserstoffatoms) sind als<br />

bisher unerklärte Tatsachen zu akzeptieren. Lakatos hat in (1974) einige<br />

Faktoren genannt, die für diese Abwägung berücksichtigt werden können,<br />

die in Bartelborth (1989) weiter diskutiert werden. Dabei geht es<br />

um eine Abwägung der systematischen Kohärenz, die durch die Bohrsche<br />

Theorie gefördert wird, in dem sie die Linienspektren stärker in unser<br />

wissenschaftliches Wissen integriert, gegen eine Inkaufnahme einer Inkohärenz,<br />

die durch die Bohrsche Theorie entsteht, weil sie sich in Widerspruch<br />

zur klassischen Elektrodynamik setzt.<br />

An vielen Stellen stützt sich die Explikation der KTR auf den Erklärungsbegriff<br />

und artverwandte Begriffe wie den der Erklärungsanomalie<br />

oder den von konkurrierenden Erklärungen. Bisher konnte ich mich an<br />

diesen Stellen allerdings nur auf ein intuitives, und wie die philosophische<br />

Erklärungsdebatte zeigen konnte, keineswegs einheitliches Verständnis<br />

des Erklärungskonzepts stützen. Ein wesentlicher Schritt, um<br />

für KTR einen Substanzgewinn zu erzielen, bleibt daher die Ausgestaltung<br />

einer Erklärungstheorie, die im letzten Teil der Arbeit angesiedelt<br />

ist.<br />

G. Die Vereinheitlichung unseres Wissens<br />

Es ergibt sich schließlich eine Art von Gesamtbild der Rechtfertigung<br />

durch Kohärenz, zu dessen Darstellung ich mich zunächst noch einmal<br />

dem Superempiristen zuwenden möchte, der kognitiv so bescheiden<br />

bleibt, sich ganz auf das Sammeln von Beobachtungsaussagen zu beschränken.<br />

Er gleicht einem eifrigen Käfersammler, der es dabei bewenden<br />

läßt, die Käfer in der zeitlichen Reihenfolge ihres Auftretens zu sammeln,<br />

ohne je den Versuch zu unternehmen, sie nach irgendwelchen<br />

Ähnlichkeitsmaßstäben zu klassifizieren oder sogar Theorien über ihr<br />

Verhalten aufzustellen. Er stellt auch keine Vermutungen an, auf welche<br />

Käfer er noch stoßen wird und wie diese aussehen könnten. Auch die<br />

Funde noch so seltsamer Käfer können ihn nicht überraschen, da er<br />

keine Erwartungen über Käfer entwickelt. Obwohl er sich so intensiv<br />

mit Käfern beschäftigt, können wir ihn eigentlich nicht als Käferexperten<br />

bezeichnen. Er kann uns nicht viel Informatives über Käfer erzählen<br />

– nur, welche er gesammelt hat. Er kann uns auch nicht helfen zu verste-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 250<br />

hen, was für Käferarten es gibt oder warum sich Käfer in einer bestimmten<br />

Weise verhalten.<br />

Für den Superempiristen ist es sogar noch schlimmer, denn er sammelt<br />

nicht nur Gegenstände einer bestimmten Art, sondern unterschiedslos<br />

alles, was ihm begegnet, ohne vorher irgendwelche Annahmen darüber<br />

zu haben. In Abschnitt (IV.A.2) hatte ich schon darauf hingewiesen,<br />

daß dieses Bild bereits in sich nicht stimmig ist. Damit die Wahrnehmungen<br />

des Superempiristen überhaupt in Form von Überzeugungen mit<br />

propositionaler Struktur repräsentiert sein können, muß er Begriffe verwenden,<br />

wie z. B. in „Vor mir liegt ein schwarzer Ball“. Klassifizierungen<br />

dieser Art beinhalten längst gewisse Behauptungen über Ähnlichkeiten<br />

und wie Putnam erläutert, zumindest implizite Annahmen bestimmter<br />

Minitheorien, die Putnam Stereotype nennt, wenn man überhaupt davon<br />

sprechen will, daß der Superempirist Meinungen hat, die er auch versteht.<br />

Sobald wir Überzeugungen über die Welt entwickeln, entwickeln<br />

wir auch bereits kleine Theorien über sie. Der Superempirist ist also<br />

nicht wirklich vorstellbar. Denken wir ihn uns aber so weit wie möglich<br />

verwirklicht. Er enthält sich jeder Ansicht über die Welt über die notwendigen<br />

Stereotypen hinaus. Für ihn gilt wieder, was wir auch für den<br />

Käfersammler feststellten, er ist kein Experte für die Welt und kann uns<br />

nur wenig Interessantes über sie mitteilen. Er kann die Ereignisse seiner<br />

Umwelt nicht erklären, er ist notgedrungen ein Anti-Erklärer, kann auch<br />

keine begründeten Retrognosen über die Vergangenheit seiner Gesellschaft<br />

oder über Geschehnisse abgeben, an denen er nicht selbst teilgenommen<br />

hat, weil auch dazu Theorien notwendig sind. Nur die gestatten<br />

es uns, anhand bestimmter Indizien auf Vergangenes zu schließen.<br />

Ich will nicht behaupten, er sei nicht lebensfähig, wie es manchmal radikalen<br />

Skeptikern vorgeworfen wird, sondern nur, daß sein kognitives<br />

Leben ausgesprochen ärmlich ist. Er versteht seine Umwelt eigentlich<br />

nicht und kann bestenfalls durch unbewußt erworbene Tropismen auf<br />

sie reagieren.<br />

Diese Vorstellung vom geistig verarmten Superempiristen soll noch<br />

einmal erläutern, wieso ontologische Sparappelle etwa von Empiristen,<br />

die immer wieder auf theoretische Enthaltsamkeit drängen, in die falsche<br />

Richtung weisen. Der Kohärenztheoretiker entwickelt seine Konzeption<br />

fast in der entgegengesetzten Richtung. Für ihn ist die Entwicklung<br />

von Theorien über die Welt auf vielen Ebenen das wichtigste<br />

erkenntnistheoretische Erfordernis. Nur durch allgemeine Hypothesen<br />

und Theorien entstehen Verbindungen zwischen unseren Beobachtungen,<br />

nur durch sie kann es zu einem wirklichen System von Meinungen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 251<br />

kommen. Eine derartige Vernetzung unseres Wissens ist für begründete<br />

Meinungen unerläßlich. Die kohärenztheoretische Behandlung von Beobachtungen<br />

zeigt ebenso, daß den Beobachtungen noch nicht einmal<br />

epistemische Priorität eingeräumt werden sollte, denn zu ihrer Rechtfertigung<br />

stützen wir uns bereits auf Theorien unterschiedlicher Herkunft.<br />

Trotzdem wird der Kohärenztheoretiker nicht zum theoretischen Phantasten,<br />

denn nur die Theorien sind für ihn hilfreich, die tatsächlich erklärende<br />

und damit vereinheitlichende Kraft in bezug auf unsere Beobachtungsüberzeugungen<br />

besitzen. Je einheitlicher unser Modell der Welt<br />

beschaffen ist, desto besser sind für den Kohärenztheoretiker die Begründungen<br />

unserer Meinungen. Jede Uneinheitlichkeit in unserem Modell,<br />

etwa durch eine Aufspaltung in Subsysteme oder durch konkurrierende<br />

Ansichten, gebietet geradezu die Suche nach einer einheitlicheren<br />

Theorie. Die KTR hat damit eine gute metatheoretische Erklärung anzubieten,<br />

wieso wir in den Wissenschaften de facto an vielen Stellen auf<br />

diese Suche nach einheitlicheren Theorien stoßen 103 und wieso viele Philosophen<br />

die Vereinheitlichung unseres Wissens für unsere Erkenntnis für<br />

wichtig halten.<br />

Für ein Verständnis der Welt in einem möglichst zutreffenden und<br />

umfassenden Modell sind wir auf kohärente Beschreibungen angewiesen.<br />

Auf der Suche nach wahren Meinungen über die Welt benötigen wir<br />

Indikatoren für Wahrheit. Diese können uns nur kohärente Überzeugungssysteme<br />

geben, denn jede Begründung einer unserer Meinungen ist<br />

wiederum indirekt von der Kohärenz des ganzen Systems abhängig. Der<br />

Kohärenztheoretiker sieht die Suche nach Wissen als eine Art von großem<br />

Puzzle, in dem wir erst dann annehmen können, ein richtiges Bild<br />

der Welt entwickelt zu haben, wenn alle Steine gut zusammenpassen und<br />

ein Gesamtbild entstanden ist. Ein Gesamtbild kann aber erst entstehen,<br />

wenn zusätzlich zu den Steinchen des Superempiristen, die keine Paßstellen<br />

untereinander aufweisen, größere Steine eingefügt werden, die einen<br />

Zusammenhang herstellen können. Dabei ist allerdings die Vorstellung<br />

des Empiristen, nach der wir immer mit lauter kleinen Puzzlesteinchen<br />

beginnen und dann erst nach den größeren Verbindungsstücken suchen,<br />

irreführend, denn auch die großen Steine entscheiden wiederum<br />

mit darüber, welche kleineren Steine in unser Gesamtbild passen und<br />

welche nicht. Unsere Suche richtet sich immer zugleich auf kleinere und<br />

größere Puzzlesteine.<br />

103 In der wissenschaftsphilosophischen Erklärungsdebatte wird dieser<br />

Punkt wieder zur Sprache kommen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 252<br />

Der Kohärenztheoretiker muß damit natürlich noch nicht behaupten,<br />

daß es immer eine einheitliche Beschreibung der Welt gibt, sondern<br />

nur, daß wir ein großes erkenntnistheoretisches Interesse daran haben<br />

müssen, so kohärente Beschreibungen wie irgend möglich aufzusuchen.<br />

Gelingt uns das nicht einmal in geringem Umfang, sehen wir uns – nur<br />

dann ohne es zu wollen – in die epistemische Situation des Superempiristen<br />

gestellt. Im extremsten Fall läßt sich dann keine unserer Meinungen<br />

mehr begründen. Wir verfügen über keine Erklärungen des Geschehens<br />

unserer Umwelt mehr und können unsere Welt nicht mehr im kognitiven<br />

Sinn verstehen. Wir verbleiben mit lauter unzusammenhängenden<br />

Puzzlesteinchen, die wir nicht zusammensetzen können und sehen kein<br />

Bild der Welt mehr, das handlungsleitend sein könnte (s. a. IX.H.5).<br />

Hier trifft der Kohärenztheoretiker mit dem Sprachphilosophen zusammen,<br />

der uns sagt, daß wir zumindest auf Minitheorien bereits dann angewiesen<br />

sind, wenn unsere Äußerungen semantischen Gehalt besitzen<br />

sollen. Die Maxime des Kohärenztheoretikers könnte man in dem<br />

Schlagwort zusammenfassen: Ohne ein einigermaßen kohärentes, wenigstens<br />

in Teilen vereinheitlichtes Weltbild können wir kein Wissen und<br />

kein Verständnis der Welt erwerben.<br />

Auch die theoretische Unterbestimmtheit und sogar relativistische<br />

Konzeptionen der Wissenschaft werden durch das entworfene Bild vom<br />

Erkenntniserwerb nicht a priori ausgeschlossen. Ob es alternative Puzzlesteine<br />

gibt, die die Beobachtungen in einem Gesamtbild zusammenfügen<br />

oder nur ein einziges, hängt natürlich nicht zuletzt von den Wahrnehmungen<br />

ab, die wir tatsächlich machen. Ob sich die wissenschaftliche<br />

Entwicklung letztlich besser als eine langsame nicht immer geradlinige<br />

Annäherung an die Wahrheit oder eher als ein bloß auf bestimmte<br />

Gesellschaften zugeschnittenes Unternehmen verstehen läßt, bleibt internen<br />

Analysen der Wissenschaftsdynamik überlassen. Die müssen untersuchen,<br />

wie stabil oder revolutionär sich unser Wissen tatsächlich entwickelt.<br />

H. Einige Konsequenzen der KTR<br />

In der Einleitung hatte ich schon auf den engen Zusammenhang zwischen<br />

epistemischen Rechtfertigungen und Argumenten hingewiesen, die<br />

letzteren aber zunächst aus dem Spiel gelassen. Wenigstens in Form einer<br />

Bemerkung möchte ich an dieser Stelle über mögliche Auswirkungen der<br />

vorgelegten Rechtfertigungstheorie auf unsere Konzeption von Argu-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 253<br />

mentationen zu sprechen kommen. Ein gutes Argument sollte meines Erachtens<br />

den Diskussionspartner nicht nur kurzfristig überreden können,<br />

etwas zu glauben, sondern auch längerfristig stabile Begründungen beinhalten.<br />

Für derartige Begründungen offenbart die Kohärenztheorie der<br />

Rechtfertigung (KTR) einen langwierigen Weg, zeigt sie doch, daß epistemische<br />

Rechtfertigungen wesentlich holistischen Charakter haben<br />

und vom Zusammenhalt und der engen Verknüpfung aller unserer Meinungen<br />

abhängen. Wie gut eine bestimmte Überzeugung gerechtfertigt<br />

ist, bestimmt sich natürlich in erster Linie anhand ihrer relationalen Kohärenz,<br />

d.h. ihrer Einbettung in unser Meinungssystem durch möglichst<br />

viele gegenseitige inferentielle Verbindungen mit dem übrigen System.<br />

Das erklärt, wieso eine gute Begründung einer Meinung im allgemeinen<br />

nicht in einer einzelnen Herleitung oder „Deduktion“ besteht, sondern<br />

einen weitaus beschwerlicheren Weg über die Analyse zahlreicher Erklärungszusammenhänge<br />

zu gehen hat.<br />

Viele philosophische Arbeiten – insbesondere die größeren, die sich<br />

nicht auf einen einzelnen Punkt einer Diskussion konzentrieren, sondern<br />

umfassend für eine ausgewachsene These argumentieren möchten – sind<br />

beredte Zeugnisse dieser Konsequenz aus KTR. Ebenso wird damit die<br />

Fruchtlosigkeit vieler mündlicher Argumentationen selbst bei gutwilligsten<br />

Diskussionspartnern verständlich, offenbart KTR doch, welche<br />

Herkulesarbeit zu leisten ist, soll auch nur eine der vertretenen Positionen<br />

gründlich begründet werden. Jede Seite wird zunächst einigen Rückhalt<br />

für ihre Ansicht in unseren Überzeugungssystemen für sich geltend<br />

machen können, so daß erst die Zusammenschau aller einzelnen Punkte<br />

sowie einer Analyse, wie gut sie jeweils in unserem Hintergrundwissen<br />

verankert sind, eine Entscheidung ermöglicht. Die Überprüfung der Verankerung<br />

erfordert ihrerseits eine Untersuchung, in welchen Erklärungsbeziehungen<br />

sie zu finden sind, welche Theorien daran beteiligt sind<br />

und wie gut diese Theorien und Erklärungen sind, was wiederum nach<br />

eine Analyse ihrer vereinheitlichenden Kraft verlangt.<br />

Das alles macht Begründungen natürlich nicht unmöglich, sondern<br />

zeigt nur, wie komplex und aufwendig sie letztlich sein können. Wir<br />

werden uns in den meisten Fällen wohl mit elliptischen Argumentationen<br />

zunächst zufrieden geben müssen und nur in besonders wichtigen<br />

Fällen in einer längeren Debatte die fehlenden Überlegungen nachliefern<br />

können.<br />

Zu den möglichen Anwendungsfällen kohärentistischer Begründungen<br />

gehören neben den hier diskutierten empirischen Aussagen auch<br />

normative Fragen etwa aus der Ethik. Für dieses Gebiet gilt Ähnliches


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 254<br />

wie für Diskussionen im empirischen Bereich. Diese Behauptung kann<br />

ich an dieser Stelle natürlich nicht ausführlich begründen, aber ich<br />

möchte anhand einer kurze Beispielskizze wenigstens eine Plausibilitätsbetrachtung<br />

dazu angeben, die erste Hinweise auf die Einbettung dieser<br />

These in unsere Hintergrundannahmen zu moralischen Fragen bieten<br />

kann.<br />

Nehmen wir eine moralische Frage wie die nach der Zulässigkeit von<br />

Abtreibungen. Wenn die öffentliche Debatte sich nicht um vorrangig juristische<br />

Probleme – etwa der Vereinbarkeit mit dem Grundgesetz – geht,<br />

gerät sie oft relativ schnell in eine Sackgasse. Die Vertreter liberaler Lösungen<br />

verweisen etwa auf die schlechten psycho-sozialen und oft auch<br />

medizinischen Folgen der Strafbarkeit und behaupten, daß es sich bei einem<br />

Fötus nicht um menschliches Leben handelt, so daß unsere üblichen<br />

Normen, solches nicht zu töten, hier nicht anwendbar sind. Die<br />

Gegner einer Liberalisierung setzen dem entgegen, daß es sich sehr wohl<br />

um menschliches Leben – zumindest der Möglichkeit nach – handelt<br />

und daß es daher auch entsprechenden Schutz und Vorrang gegenüber<br />

anderen Werten verdient. Viel weiter als zu einem Aufeinanderprallen<br />

dieser gegensätzlichen Standpunkte kommt es dabei vielfach nicht mehr.<br />

Das ist auch verständlich, wenn man die Debatte nicht erweitert und<br />

„holistischer“ führt. An dieser einen Stelle können wir nur unsere Meinungsdifferenzen<br />

konstatieren, ohne zu einem nennenswerten Fortschritt<br />

zu gelangen. Einen Weg auf dem ein Fortschritt zu erreichen sein<br />

könnte, möchte ich nun skizzieren. Wir müssen allgemeinere Prinzipien<br />

in Anschlag bringen und ihrerseits diskutieren, die unsere Entscheidung<br />

unterstützen. Z. B.: „Daß man keinen Menschen töten darf, außer aus<br />

Notwehr oder Nothilfe und daß jeder, der zu unserer tierischen Art gehört<br />

ein Mensch ist, ganz gleich in welchem Entwicklungsstadium.“ Dieses<br />

Prinzip läßt sich auf vielfache Weise kritisieren und muß sicherlich<br />

eine Reihe von Modifikationen durchlaufen, ehe es von beiden Seiten<br />

als glaubwürdiges Prinzip, nach dem man sich in anderen Fällen auch<br />

tatsächlich richten sollte, gelten darf. In jedem Fall benötigen wir solche<br />

„ethischen Theorien“, um die Diskussion von dem einen Fall auch auf<br />

andere Beispiele, die uns ähnlich gelagert erscheinen, ausdehnen zu können.<br />

Die Annehmbarkeit dieser Theorie läßt sich dann daran testen, wie<br />

gut sie unsere gemeinsamen moralischen Überzeugungen und Urteile in<br />

vielen anderen Fällen erklären kann. Akzeptieren wir diese Theorie in<br />

vielen anderen Fällen als die beste Erklärung dafür, daß wir das Verhalten<br />

x für falsch halten, so gibt uns das einige prima facie Gründe, sie


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 255<br />

auch im Falle des Paragraphen 218 anzuwenden. Zumindest trägt die jeweilige<br />

Gegenseite die Beweislast zu erläutern, warum wir uns hier anders<br />

verhalten sollten. Auch hier werden Verbindungen zwischen Einzelfällen<br />

anhand von Theorien und Konsistenzüberlegungen notwendig,<br />

um wenigstens eine Chance für eine begründete Entscheidung zu erhalten.<br />

Das ist natürlich eine stark idealisierte Darstellung derartiger Diskussionen.<br />

Im allgemeinen werden nicht nur eine allgemeinere Annahme<br />

zu überprüfen haben, sondern eine Vielzahl. Einen guten Einblick in die<br />

Vielschichtigkeit dieser speziellen moralphilosphischen Debatte bietet<br />

Hoerster (1991).<br />

Ein Hilfsmittel um bestimmte Annahmen auf ihre Kohärenz in unserem<br />

Hintergrundwissen zu überprüfen, das auch in der Ethik vielfach<br />

Anwendung findet, möchte ich nun noch kurz vorstellen, nämlich Gedankenexperimente.<br />

Die KTR erklärt uns, wieso Gedankenexperimente<br />

nicht nur in der Philosophie, sondern auch in den empirischen Wissenschaften<br />

eine so große Bedeutung besitzen. 104 Das wohl berühmteste von<br />

ihnen, das Gegenstand einer Reihe von Konferenzen und schließlich<br />

auch von tatsächlichen Experimenten war, ist das sogenannte Paradox<br />

von Einstein, Podolsky und Rosen (EPR-Paradox), aber es gibt daneben<br />

noch eine Vielzahl von Gedankenexperimenten in den empirischen Wissenschaften.<br />

Einige berühmte haben einen Namen bekommen, wie Carnots<br />

Kreisprozeß, das Zwillingsparadoxon oder Maxwells Dämon, aber<br />

sehr viele andere finden sich in den Textbüchern, bei denen es dazu<br />

nicht gereicht hat. Man erinnere sich nur an die vielen Gedankenexperimente,<br />

auf die wir allein im Zusammenhang mit der Relativitätstheorie<br />

bereits stoßen. Doch warum schenkt man in den Naturwissenschaften<br />

Gedankenexperimenten eine so große Aufmerksamkeit? Der Empirist<br />

sagt uns immer, daß dort nur der Vergleich von Theorien mit den Beobachtungsdaten<br />

zählt. Sind die Gedankenexperimente demnach eher ein<br />

Hobby der Naturwissenschaftler ohne erkenntnistheoretischen Wert?<br />

Dem ist natürlich nicht so, und KTR gibt uns die Möglichkeit, dieses<br />

Phänomen der Gedankenexperimente in den Naturwissenschaften zu<br />

verstehen. Es handelt sich dabei um eine Form von Kohärenztests.<br />

Ein recht einfaches historisches Beispiel, das Popper (1984, 397ff) in<br />

einem Zusatz (*XI) zur Logik der Forschung schildert, soll erläutern, wie<br />

Gedankenexperimente als Kohärenztests dienen können. Galilei macht<br />

damit auf eine Inkohärenz in der Aristotelischen Theorie aufmerksam,<br />

nach der die natürliche Geschwindigkeit eines schweren Körpers größer<br />

104 Zum folgenden siehe auch die Besprechung von Gedankenexperimenten<br />

in Bartelborth (1991).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 256<br />

als die eines leichten ist. Wenn wir zwei ungleich schwere Körper nehmen,<br />

so argumentiert Galilei, wird der schwerere sich gemäß dieser<br />

Theorie schneller bewegen als der leichtere. Wenn wir die beiden Körper<br />

nun zusammenbinden, wird der schnellere den langsameren beschleunigen<br />

und der langsamere den schnelleren verlangsamen. Somit<br />

sollte der zusammengesetzte Körper in seiner Geschwindigkeit zwischen<br />

dem langsameren und dem schnelleren liegen. Da er aber schwerer ist<br />

als jeder einzelne der Körper, sollte er nach Aristoteles Theorie eigentlich<br />

schneller als sie sein. In diesem Gedankenexperiment hat Galilei<br />

Schlußfolgerungen aus der Aristotelischen Theorie unter Zuhilfenahme<br />

bestimmter Hintergrundannahmen gezogen, wobei sich ein Widerspruch<br />

in den zentralen Aussagen der Theorie aufdecken ließ. Neben der Theorie<br />

selbst mußte er sich auf die Annahmen stützen, daß man das Gewicht<br />

der Verbindung zwischen den Körpern vernachlässigen kann und daß<br />

sich das Verhalten des Gesamtkörpers aus dem Verhalten der beiden einzelnen<br />

Körper zumindest qualitativ bestimmt. Zur Begründung dieser<br />

Annahmen wurde – z. B. von Mach – das intuitiv plausible Prinzip der<br />

kontinuierlichen Variation zitiert.<br />

Galileis Gedankenexperiment demonstriert, daß etwas nicht stimmen<br />

kann in der Aristotelischen Theorie der Bewegung. Wenn wir sie<br />

vor einigen einfachen Annahmen unseres Hintergrundwissens beurteilen,<br />

stoßen wir auf eine schwerwiegende Inkohärenz in der Theorie, die<br />

wir in dieser Form nicht akzeptieren können. Obwohl sich diese Inkohärenz<br />

immer schon in der Aristotelischen Theorie „versteckt“ hielt, hat<br />

doch erst das Gedankenexperiment sie deutlich herausgestellt. In ähnlicher<br />

Form können wir auch die epistemische Funktion anderer Gedankenexperimente<br />

in den Naturwissenschaften als Kohärenztests interner<br />

Art gegen unser übriges Hintergrundwissen verstehen.<br />

Diese Funktion können sie natürlich nicht nur für empirische Theorien<br />

übernehmen, sondern ebenso für philosophische Theorien, die in einem<br />

noch stärkeren Maße auf interne „Kohärenzchecks“ angewiesen<br />

sind, als das für empirische Theorien der Fall ist. In dieser Arbeit stützte<br />

sich unter anderem ein Argument gegen den Externalisten auf ein Gedankenexperiment,<br />

nämlich das von Norman dem Hellseher, der zwar<br />

auf zuverlässigem Wege zu wahren Meinungen gelangt, die wir aber<br />

trotzdem nicht als Wissen bezeichnen möchten, weil Norman selbst der<br />

Ansicht war, daß Hellseherei Unsinn ist. Das Beispiel sollte aufdecken,<br />

daß die externalistische Konzeption von Wissen nicht zu unseren üblichen<br />

Annahmen über Wissen paßt, daß sie also nicht wirklich kohärent<br />

in unser Meinungssystem zu integrieren ist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 257<br />

Die KTR erlaubt uns aber nicht nur eine Erklärung der Bedeutung<br />

von Gedankenexperimenten, sondern gibt uns zusätzlich auch Hinweise,<br />

wie diese „Experimente“ zu bewerten sind. So sollten sie sich als Kohärenztests<br />

vor unserem Hintergrundwissen nach Möglichkeit nur auf solche<br />

Annahmen unseres Hintergrundwissens stützen, die selbst nicht kritisch<br />

beurteilt werden. Je besser die im Gedankenexperiment vorgestellte<br />

Situation mit unserem Hintergrundwissen verträglich ist, um so<br />

ernster müssen wir das Gedankenexperiment nehmen; je utopischer und<br />

unwahrscheinlicher die Situation aber ist, um so weniger bedeutsam ist<br />

es, denn natürlich beziehen sich unsere Meinungen überwiegend auf den<br />

Bereich möglicher Welten, den wir für wahrscheinlich halten. Daran hat<br />

sich auch unsere Metabeurteilung entsprechender Inkohärenzen zu<br />

orientieren, schließlich wollen wir in erster Linie gut begründete Meinungen<br />

über unsere tatsächliche Welt erhalten.<br />

Diese zunächst abstrakten Betrachtungen kann ein Beispiel unterstützen,<br />

an dem ich exemplarisch vorführen möchte, wie man mit Hilfe von<br />

metatheoretischen Überlegungen gegen Gedankenexperimente vorgehen<br />

kann. Derek Parfit (1984) argumentiert in Reasons and Persons für eine<br />

reduktionistische Sichtweise personaler Identität, nach der unsere Identität<br />

in der Zeit im wesentlichen auf physikalischen und psychologischen<br />

Kontinuitäten und Zusammenhängen zwischen den verschiedenen Stadien<br />

unseren Existenz beruht. Diese Konzeption testet er (1984, 199ff)<br />

unter anderem an unterschiedlichen Varianten eines Gedankenexperiments,<br />

das er „Teletransportation“ nennt. Dabei wird im einfachen Fall<br />

der Körper eines Menschen im Teletransporter auf der Erde zerstört,<br />

aber gleichzeitig auf dem Mars in exakter Kopie neu zusammengefügt.<br />

Für Parfit als Reduktionisten ist das genauso gut, wie gewöhnliches<br />

Überleben. Probleme macht ihm aber der „branch line case“, in dem der<br />

Teletransporter das Original nicht zerstört und es daher eine Person<br />

zweimal (?) gibt.<br />

Wie der Reduktionist darauf reagieren kann, akzeptiert er erst einmal<br />

dieses Gedankenexperiment, möchte ich hier natürlich nicht besprechen,<br />

sondern auf ein externes Argument gegen das Parfitsche Gedankenexperiment<br />

eingehen. Die Teletransportation erscheint zunächst utopisch,<br />

aber andererseits ist es sicherlich eine logische Möglichkeit, die<br />

durchaus in unser Hintergrundwissen zu passen scheint. Doch dieser<br />

Schein trügt. Um wirklich als Fortsetzung meiner Person gelten zu können,<br />

muß die Kopie mir nicht nur oberflächlich ähnlich sein, sondern<br />

eine exakte Kopie bis in die atomare Struktur darstellen, und so beschreibt<br />

Parfit (1984, 199) den Fall auch. Insbesondere muß natürlich


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 258<br />

meine Gehirnstruktur ganz akkurat dupliziert werden. Doch bei dieser<br />

Anforderung paßt zumindest der Verzweigungsfall – aber vermutlich<br />

auch die „normale“ Teletransportation – nicht tatsächlich in unser Hintergrundwissen.<br />

So erläutert Penrose (1989, 269f), daß es nach der besten<br />

wissenschaftlichen Theorie, die wir jemals hatten, der Quantenmechanik<br />

nämlich, unmöglich ist, eine solche Kopie bis in die Mikrostruktur<br />

vorzunehmen. Penrose weist explizit darauf hin, daß derartige Teletransportationen<br />

physikalisch unmöglich sind. 105 Diese physikalische Unmöglichkeit<br />

„erledigt“ einen Verzeigungseinwand natürlich nicht endgültig,<br />

aber sie kann ihn doch zumindest erheblich abschwächen, zeigt sie<br />

doch, wie inkohärent sich die Teletransportation mit Verzweigung sich<br />

in unserem Hintergrundwissen ausnimmt. Auf diese Weise kann KTR<br />

hilfreiche Hinweise für die Beurteilung von Argumentationen bieten.<br />

I. Resümee<br />

Ziel dieses Kapitels war die Entwicklung einer Kohärenzkonzeption von<br />

epistemischer Rechtfertigung. Zu diesem Zweck wurden zunächst die<br />

wichtigsten möglichen Bestandteile von Kohärenz auf einer intuitiven<br />

Ebene erörtert, wobei sich neben logischen Zusammenhängen vor allem<br />

Erklärungsbeziehungen als kohärenzstiftend erwiesen haben. Andere<br />

Schlußformen wie der konservative Induktionsschluß können dagegen<br />

als Spezialfälle der Abduktion betrachtet werden. Eines der vielleicht<br />

größten intuitiven Hindernisse für Kohärenztheorien der Rechtfertigung<br />

stellen Beobachtungsüberzeugungen dar, die aufgrund ihrer Entstehung<br />

für inferentielle Begründungen zunächst ungeeignet erscheinen. Doch<br />

die Genese einer Meinung kann nicht ihre Rechtfertigung festlegen, und<br />

eine kohärentistische Analyse von Wahrnehmungen und ihren Irrtumsmöglichkeiten<br />

ergab letztlich eine realistischere Bewertung von Beobachtungsüberzeugungen,<br />

als es für Empiristen möglich ist. Mit dem Fallen<br />

dieser letzten Hürde ist der Weg zu einer Kohärenztheorie frei, der<br />

in einer semiformalen Explikation des Kohärenzbegriffs gipfelte. Dieser<br />

setzt sich zusammen aus relationaler und systematischer Kohärenz, sowie<br />

einem relativ eigenständigen Konzept von Inkohärenz, die alle zusammen<br />

bestimmen, wann sich eine Aussage kohärent in ein Meinungs-<br />

105 Wenn sich Mikrozustände duplizieren ließen, könnten wir das so oft<br />

wiederholen, bis makroskopische Ausmaße erreichten würden. Dann ließen sich<br />

plötzlich Größen messen, die nach der Quantenmechanik nicht meßbar seien<br />

können, weil sie keine bestimmten Werte aufweisen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 259<br />

system einfügt. Für die Qualität dieser Einbettung sind holistische Zusammenhänge,<br />

die nach einer möglichst großen Vernetzung und Vereinheitlichung<br />

unserer Überzeugungen fragen, die ausschlaggebenden Faktoren.<br />

Anhang: Bayesianistische Schlüsse<br />

Es ist hier nicht der Ort, sich ausführlicher mit dem Bayesianismus zu<br />

beschäftigen, zumal man dabei auch in die formalen Untiefen dieses Ansatzes<br />

einsteigen müßte. Trotzdem möchte ich kurz erläutern, inwiefern<br />

auch dieser Ansatz abduktive Charakteristika aufweist. Bayesianisten beschreiben<br />

unser Meinungssystem mit Hilfe von Glaubensgraden. Jede<br />

Überzeugung wird mit einer reellen Zahl zwischen 0 und 1 versehen, die<br />

den Grad angibt, mit dem wir sie akzeptieren. Dieser Grad wird im allgemeinen<br />

mit der Bereitschaft einer Person assoziiert, bestimmte Wettquoten<br />

auf die Überzeugung zu akzeptieren,. Will die Person rational<br />

bleiben, sollten ihre Glaubensgrade den Wahrscheinlichkeitsaxiomen gehorchen.<br />

Anderenfalls läßt sich zeigen, daß sie sich auf Systeme von<br />

Wetten einlassen würde, bei denen sie bestenfalls verlieren kann. Statt<br />

von Glaubensgraden spreche ich daher ab jetzt einfach von Wahrscheinlichkeiten<br />

p(A), die die Person ihrer Meinung A beimißt. Sie benötigt<br />

aber nicht nur einfache Wahrscheinlichkeiten für ihre Meinungen, sondern<br />

zusätzlich noch bedingte Wahrscheinlichkeiten p(A,B), die angeben,<br />

wie hoch die Person die Wahrscheinlichkeit von A einschätzt, wenn sie<br />

voraussetzt (bzw. erfährt), daß B der Fall ist. Bayesianisten sprechen<br />

dann darüber, wie jemand seine einfachen Wahrscheinlichkeitsschätzungen<br />

revidieren sollte, wenn er neue Beobachtungen E macht. Nur für die<br />

Überzeugungsänderungen hoffen sie substantielle Aussagen treffen zu<br />

können. Dazu stützen sie sich auf die folgende Konditionalisierungsregel:<br />

(K)<br />

D.h., wir sollten A in dem Grade glauben, wie wir, bevor wir E erfahren<br />

haben, an A unter der Annahme, daß E vorliegt, tatsächlich geglaubt haben.<br />

Ob das vernünftig ist, hängt natürlich ganz davon ab, ob dieser bedingte<br />

Glaube an A vernünftig war. Der sollte das Theorem von Bayes<br />

erfüllen:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 260<br />

(B)<br />

Das verankert ihn zumindest ein wenig innerhalb der anderen Überzeugungen.<br />

Er hängt nun auf einfach kalkulierbare Weise mit dem unbedingten<br />

Glauben an A und dem an E, sowie dem bedingten an E unter<br />

der Voraussetzung A zusammen. Der Zusammenhang (B) gibt tatsächlich<br />

einige Aspekte derartiger Abschätzungen auf plausible Weise wieder.<br />

Nehmen wir an, daß A eine Hypothese ist, die wir durch die Beobachtungsüberzeugung<br />

E (evidence) stützen wollen. Dann ist die neue<br />

Wahrscheinlichkeit für A zunächst um so größer, je größer die alte Wahrscheinlichkeit<br />

für A war. Das scheint ziemlich unkontrovers. Sie ist aber<br />

auch um so größer, je eher E zu erwarten war, wenn A wahr ist. Das ist<br />

eine Art von abduktivem Schluß, denn die höhere Wahrscheinlichkeit ist<br />

zumindest ein Indikator, daß A eine Form von statistischer Erklärung für<br />

E bietet. Außerdem wächst nach (B) unser Glaube an A besonders, wenn<br />

E vorher recht unwahrscheinlich war. Das ist intuitiv und läßt sich in<br />

KTR so deuten, daß E zunächst nicht kohärent in unser Meinungssystem<br />

hineinpaßte, jedenfalls wenn wir von A einmal absehen. Nehmen wir<br />

aber A an, wird E gleich besser in unser Meinungssystem eingebettet,<br />

denn A verleiht E ja eine hohe Wahrscheinlichkeit. Damit steigert E in<br />

diesem Fall die relationale Kohärenz von A, indem sich dessen inkohärent<br />

erscheinende Konsequenzen als wahr erwiesen haben.<br />

Der Zusammenhang zu abduktiven Schlüssen wird noch deutlicher,<br />

wenn wir die versteckte Bezugnahme auf unser Hintergrundwissen K<br />

herausstellen und die Bayes-Formel (B) für den Fall mehrerer konkurrierender<br />

Hypothesen betrachten. Zunächst berücksichtigen wir K:<br />

(BK)<br />

Damit sind alle Wahrscheinlichkeiten bedingte Wahrscheinlichkeiten geworden.<br />

Die früheren einfachen oder a priori Wahrscheinlichkeiten erweisen<br />

sich als abhängig von unserem Hintergrundwissen, wie wir das<br />

für Schlüsse auf die beste Erklärung auch kennen. Wenn wir nun noch<br />

davon ausgehen, daß wir nicht nur eine Meinung A, sondern eine Menge<br />

von konkurrierenden Hypothesen {H1,…,Hn} untersuchen, die eine<br />

disjunkte und erschöpfende Zerlegung der möglichen Erklärungen darstellen,<br />

erhalten wir mit einer kleinen wahrscheinlichkeitstheoretischen<br />

Umrechnung:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 261<br />

(BZ)<br />

Mit (BZ) könnten wir nun auf die Hypothese Hi schließen, die E am besten<br />

erklärt und damit die höchste Wahrscheinlichkeit aller Hypothesen<br />

erhält.<br />

Man könnte deshalb versucht sein, (BZ) als ein quantitatives Buchhaltungsverfahren<br />

für Abduktionen einzusetzen. Doch darauf möchte<br />

ich mich so schnell nicht einlassen. Schon die Quantifizierung von Glaubensgraden<br />

ist nicht unproblematisch. Für viele unserer Überzeugungen<br />

können wir bestenfalls sehr vage Schätzungen abgeben. Fragen Sie sich<br />

doch bitte einmal ernsthaft, für wie wahrscheinlich Sie die Quantenmechanik<br />

halten. Das wirft gleich eine Vielzahl von Fragen auf. Auch sind<br />

die wahrscheinlichkeitstheoretischen Berechnungsverfahren für Glaubensgrade<br />

keineswegs immer so plausibel, wie uns die Bayesianisten<br />

weismachen wollen. Das belegt schon das Beispiel meiner kleinen Geschichte<br />

in Abschnitt (A.5) (s. a. Cohen 1989, 17ff). Noch unrealistischer<br />

wird es, wenn man von uns nicht nur einfache Wahrscheinlichkeiten,<br />

sondern auch noch bedingte verlangt. Und das für alle nur denkbaren<br />

Beobachtungen, die wir irgendwann einmal machen könnten.<br />

Dieser extrem hohe „Rechenaufwand“ erbringt trotzdem nur relativ<br />

geringe Erfolge, wenn man die erkenntnistheoretische Frage im Auge<br />

hat, was wir glauben sollen. Alle Forderungen des Bayesianismus an unsere<br />

Glaubensgrade sind bloß Konsistenzforderungen. Zunächst wird verlangt,<br />

daß sich die Glaubensgrade im Sinne der Wahrscheinlichkeitsaxiome<br />

nicht widersprechen. Wir dürfen also nicht gleichzeitig<br />

p(A)=0,9 und p(¬A)=0,9 akzeptieren. Im nächsten Schritt erwartet der<br />

Bayesianismus von uns, daß unsere Glaubensänderungen zu unseren vorherigen<br />

bedingten Wahrscheinlichkeiten und dem Bayesschen Gesetz<br />

passen. Das ist schon alles. Diese Glaubensgrade oder subjektiven Wahrscheinlichkeiten<br />

können ansonsten so verrückt sein, wie man nur will.<br />

Die Berechnung der Glaubensgrade hat daher mehr buchhalterische<br />

Funktion, als daß sie normativ wirkt.<br />

Schlimmer ist allerdings noch, daß der Ansatz erstens fundamentalistisch<br />

ausgerichtet ist und zweitens Änderungen unserer Überzeugungen<br />

anhand neuer Begriffe und Theorien nicht nachzeichnen kann. Typischerweise<br />

unterscheidet der Bayesianist zwischen Daten und Hypothesen.<br />

Und in der Formel (K) werden die Daten schlicht als gegeben akzep-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 262<br />

tiert. Diese Unkorrigierbarkeit der Basis können wir zwar durch den<br />

Übergang zur Jeffrey- Konditionalisierung<br />

(J)<br />

(wobei die Ei wiederum eine vollständige Zerlegung unseres Wahrscheinlichkeitsraumes<br />

darstellen sollen) beheben, aber der fundamentalistische<br />

Charakter bleibt erhalten. Wahrscheinlichkeitsänderungen nehmen<br />

ihren Ausgang bei den „Daten“ und verändern unsere Glaubensgrade<br />

für Hypothesen. Die Rechtfertigungsstruktur ist gerichtet und nicht<br />

reziprok.<br />

Das könnte vielleicht wenigstens ein approximatives Modell für die<br />

Wissenschaften darstellen. Doch hier kommt ein anderes gravierendes<br />

Problem ins Spiel. Wir wissen nicht auf welche neuen Theorien mit neuen<br />

Begriffen Wissenschaftler noch verfallen werden. Wie sollen wir daher<br />

für diese Fälle bereits jetzt bedingte Wahrscheinlichkeiten angeben?<br />

D.h., wir verfügen auch nicht über vollständige Hypothesenmengen. Die<br />

größten Fortschritte und Revolutionen in der Wissenschaftsgeschichte<br />

erfolgten durch Einführung neuer Theorien, die die Einführung neuer<br />

Begriffe beinhalten. Für diesen entscheidenden Schritt weiß uns der<br />

Bayesianismus keine Hilfe mehr anzubieten.<br />

Auch das, was Theorien und ihre Erklärungskraft auszeichnet, was<br />

Theorien oft so spannend für uns macht, wie ihr hoher empirischer Gehalt<br />

und ihre Erklärungskraft, tauchen im Bayesianistischen Rahmen<br />

nicht in geeigneter Weise auf. Doch dazu mehr in Kapitel IX.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 263<br />

V Einwände gegen eine Kohärenztheorie<br />

Auch gegen Kohärenztheorien der Rechtfertigung gibt es natürlich eine<br />

Reihe von Einwänden, von denen ich wenigstens die prominentesten<br />

Vertreter in diesem Kapitel besprechen möchte. Wir wissen spätestens<br />

seit den Arbeiten Kuhns zur Wissenschaftsgeschichte, daß jedes noch so<br />

erfolgreiche Forschungsprogramm an einigen Stellen mit Anomalien zu<br />

leben hat, meist in der Hoffnung, diese später durch kleinere Revisionen<br />

beheben zu können. Allerdings liegt die Front, an der sich Theorien zu<br />

bewähren haben, auch nicht allein in der Auseinandersetzung mit den<br />

Daten (das waren in unserem Fall unsere reflektierten Beispiele für epistemische<br />

Begründungen und allgemeineren Vorstellungen darüber, wie<br />

derartige Begründungen auszusehen haben), sondern wesentlich in einem<br />

Sieg über die konkurrierenden Forschungsprogramme. Die KTR<br />

hat sich vor allem gegenüber fundamentalistischen Positionen zu behaupten.<br />

Ein Vergleich zu anderen Kohärenztheorien und anderen Ansätzen<br />

hat zum großen Teil bereits in den vorangegangenen Kapiteln<br />

stattgefunden, doch im Zusammenhang einiger klassischer Einwände gegen<br />

Kohärenztheorien werden weitere Vergleiche mit den Leistungen<br />

anderer Erkenntnistheorien zu ziehen sein.<br />

A. Das Regreßproblem<br />

Fundamentalisten führen als wichtigstes Argument für ihre Position das<br />

Regreßargument an. Das bezieht sich darauf, daß man von rechtfertigenden<br />

Überzeugungen erwarten kann, sie seien selbst bereits gerechtfertigt.<br />

Dem hier lauernden Regreß oder Zirkel kann man ihrer Meinung nach<br />

nur entkommen, indem man an irgendeiner Stelle das Zurückgreifen auf<br />

andere Meinungen abbricht und diese ersten Meinungen für epistemisch<br />

grundlegend erklärt. Basale Meinungen müssen dann selbst gerechtfertigt<br />

sein, ohne dazu auf andere Meinungen angewiesen zu sein. Der fundamentalistische<br />

Lösungsvorschlag hatte sich aber als nichtrealisierbare<br />

Wunschvorstellung erwiesen. Sobald die Fundamentalisten in die Pflicht<br />

genommen wurden, die basalen Überzeugungen und die Art ihrer Recht-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 264<br />

fertigung konkret anzugeben, war es um die Plausibilität ihrer Positionen<br />

geschehen. Die wohl prominentesten und erfolgversprechendsten<br />

Vorschläge fundamentalistischer Erkenntnistheorien sind sicher die empiristischen,<br />

wonach Beobachtungsüberzeugungen grundlegend für unsere<br />

Erkenntnis sind. Daß sie aber auch nicht überzeugen können, wurde<br />

spätestens durch die kohärentistische Analyse der Begründung von Beobachtungsüberzeugungen<br />

ersichtlich, denn die zeigte, wie auch in deren<br />

Rechtfertigung wesentlich unser Hintergrundwissen eingeht. Steht<br />

nun die Kohärenztheorie vis-à-vis dem Regreßproblem besser da? Hat<br />

sie eine Antwort auf dieses Problem anzubieten, die überzeugender ist<br />

als die des Fundamentalismus? In diesem Abschnitt möchte ich untersuchen,<br />

was sie zu unserer Intuition beitragen kann, daß rechtfertigende<br />

Aussagen immer schon gerechtfertigt sein müssen. Aber vorher soll noch<br />

kurz ein anderer Weg, sich gegen den Regreßeinwand zu verteidigen, zu<br />

Zwecken der Abgrenzung Erwähnung finden.<br />

1. Pragmatischer Kontextualismus<br />

Eine Antwort auf das Regreßproblem und überdies auch auf weitergehende<br />

skeptische Einwürfe, die schon Wittgenstein ausprobiert hat, zielt<br />

auf den konkreten Einsatz und Kontext von Begründungen. In allen realistischen<br />

Beispielen von Rechtfertigungen steht die Frage nach einer Begründung<br />

in einem vorgegebenen Kontext. Je nach Kontext werden dabei<br />

jeweils bestimmte Meinungen nicht in Frage gestellt und können als<br />

eine Art von unkontroversem Hintergrundwissen vorausgesetzt werden.<br />

Wenn mich jemand fragt, wieso ich glaube, daß Fritz nicht gut auf mich<br />

zu sprechen ist, und ich antworte ihm, daß er direkt vor mir stehend<br />

„Idiot“ zu mir gesagt hat, wird man natürlich in normalen Kontexten<br />

die Frage, ob man sich denn auch sicher sei, kein Gehirn in einem Topf<br />

zu sein – was ja eine andere Interpretation der Wahrnehmung erforderte<br />

– als bloße Zumutung, aber nicht als ernstzunehmende Frage verstehen.<br />

Auch in wissenschaftlichen Kontexten sind jeweils bestimmte Annahmen<br />

als unproblematisches Hintergrundwissen zu betrachten. Den Historiker,<br />

der eine Vermutung über Hitlers Einstellung zu Frauen äußert, frage<br />

ich nicht, welche Beweise er denn hätte, daß die Welt nicht erst vor drei<br />

Minuten entstanden sei, wobei uns ein böser Dämon mit falschen Erinnerungen<br />

über unsere Vergangenheit an der Nase herumführt, und Hitler<br />

daher nie existiert hat. Die Fragen enden in der Regel nicht erst bei<br />

skeptischen Hypothesen, sondern schon erheblich früher, weil wir unsere<br />

Begründungen auf einen weit größeren Bereich von gemeinsamem


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 265<br />

Hintergrundwissen aufbauen dürfen als die bloße Ablehnung skeptischer<br />

Hypothesen. Ein unendlicher Regreß ist daher ein Phänomen, dem wir<br />

in der Rechtfertigungspraxis nicht tatsächlich begegnen. Können wir<br />

diese Erkenntnis nicht zu einem Einwand gegen den Regreß ausbauen?<br />

Eine Position, die den Regreß auf diesem Weg als unbedeutend zurückweist,<br />

können wir als pragmatischen Kontextualismus bezeichnen. Sie<br />

studiert Begründungen in ihren praktischen Zusammenhängen, in denen<br />

der jeweilige Kontext festlegt, welches die Prämissen einer Rechtfertigung<br />

sind, auf die man sich beziehen darf. 106 Das Regreßproblem tritt<br />

dann nicht mehr auf, weil wir immer ein Hintergrundwissen voraussetzen,<br />

auf das wir für die Rechtfertigung zurückgreifen dürfen.<br />

Diese Zurückweisung des Regreßproblems kann zeigen, daß es sich<br />

auch lohnen würde, eine Theorie der Rechtfertigung auszuarbeiten,<br />

wenn es nicht gelänge, eine Antwort auf das Regreßproblem zu geben.<br />

Aber natürlich zeigt sie nicht, daß es damit obsolet geworden ist und<br />

man für eine Theorie der Rechtfertigung dieses Problem nicht mehr<br />

sinnvoll aufwerfen kann. Als Erkenntnistheoretiker kann ich durchaus<br />

zugestehen, daß in praktischen Begründungen das Regreßproblem nicht<br />

in Erscheinung tritt, weil sich die Gesprächspartner meist auf ein unkontroverses<br />

Hintergrundwissen beziehen können, aber niemand kann mir<br />

verbieten nachzufragen, ob dieses Hintergrundwissen auch gut begründbar<br />

ist. Dafür muß mir der Hinweis, die Diskussionspartner hätten sich<br />

darauf geeinigt, keineswegs ausreichen. Die Einigung sagt noch nichts<br />

darüber, ob dieses Hintergrundwissen wahr ist. Eine Rechtfertigung, die<br />

sich auf lauter unbegründete Meinungen stützt, die genauso gut falsch<br />

wie wahr sein können, ist aber kein Wahrheitsindikator mehr. Sie dient<br />

in diesem Zusammenhang nur dem praktischen Zweck, sich in einer<br />

Diskussion schnell auf eine Ansicht zu einigen.<br />

Der pragmatische Kontextualismus soll trotzdem an dieser Stelle als<br />

mögliche Antwort erwähnt werden, weil er eine immer wieder vorgebrachte<br />

Argumentationsform gegen skeptische Einwände aller Art darstellt.<br />

Es handelt sich außerdem weder um eine fundamentalistische Position,<br />

so wie wir sie gekennzeichnet hatten, noch um eine kohärentistische.<br />

Ein Kontextualist zeichnet keine Klasse von basalen Aussagen nur<br />

durch ihren Inhalt aus, sondern wählt jeweils nur in Abhängigkeit vom<br />

Kontext eines speziellen Rechtfertigungsprojekts bestimmte Überzeugungen<br />

als für diesen Kontext unproblematisch aus und unterschreibt damit<br />

106 Sogar die Standards für Rechtfertigungen können dabei vom Kontext<br />

mit festgelegt werden. Wissenschaftliche Dispute verlangen natürlich andere als<br />

Stammtischreden oder Politikeransprachen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 266<br />

nicht (FU 3) (s. Kap. III.B.1). Er verlangt auch von diesem Hintergrundwissen<br />

nicht, daß es kohärent sein muß, sondern nur, daß es für die beteiligten<br />

Diskussionspartner selbstverständlich erscheint.<br />

Von Williams (1991) wurde der interessante Versuch unternommen,<br />

aus diesen praktischen Überlegungen ein erkenntnistheoretisches Argument<br />

zu entwickeln und somit auch den Skeptiker anhand eines theoretisch<br />

fundierten Kontextualismus zurückzuweisen. Williams behauptet,<br />

daß die Fragestellungen des radikalen Skeptikers auf einen Fundamentalismus<br />

als theoretische Voraussetzung angewiesen sind und somit auf einer<br />

falschen erkenntnistheoretischen Annahme beruhen. Dadurch tritt<br />

der Kontextualismus aus dem von Erkenntnistheoretikern oft nicht so<br />

recht ernstgenommenen rein pragmatischen Kontext heraus und gewinnt<br />

auch theoretische Bedeutung. Um diesen Schritt durchführen zu<br />

können, ist Williams jedoch auf eine subtile Analyse der skeptischen Positionen<br />

angewiesen, die er bekämpfen möchte, die sehr viele angreifbare<br />

Einzelschritte enthält und sicher nicht als unkontrovers betrachtet<br />

werden kann. Der Kohärenztheoretiker ist zum Glück nicht auf eine<br />

derartig komplizierte Diagnose des Regreßproblem-Skeptizismus angewiesen,<br />

in der dem Skeptiker falsche theoretische Voraussetzungen vorgeworfen<br />

werden, sondern bemüht sich, eine direkte Antwort auf die<br />

Frage nach den Rechtfertigungen der Prämissen unserer Rechtfertigungen<br />

zu geben. Er beruft sich nicht auf kontextuelle Aspekte von Rechtfertigungen,<br />

sondern zeigt auf, wo die gesuchten Rechtfertigungen zu suchen<br />

sind.<br />

2. Lineare Rechtfertigungsstrukturen?<br />

Der Kohärenztheoretiker hat auf das Regreßproblem die schlichte Antwort<br />

parat: Denken wir uns ein annähernd ideal kohärentes oder wenigstens<br />

hochkohärentes System X von Aussagen. Dann sind alle Aussagen<br />

dieses Systems auch optimal begründet. Für jede Aussage in dem System<br />

X gibt es sogar gleich mehrere inferentielle Begründungen, wenn X<br />

wirklich hochkohärent ist. Sobald ich mich also bei der Rechtfertigung<br />

einer Aussage p aus X auf andere Aussagen von X stütze, sind diese<br />

selbst gleichfalls gerechtfertigt. An diesem Punkt wird wieder ein holistischer<br />

Zug von Rechtfertigungen offenkundig. Bei Vorliegen systematischer,<br />

globaler Kohärenz hält unser Überzeugungssystem allen weiteren<br />

Nachfragen stand, und gestattet es, zu jeder Meinung aus X eine Rechtfertigung<br />

zu produzieren. Damit ist die Kohärenzkonzeption an keiner


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 267<br />

Stelle auf die Zurückweisung „In diesem Zusammenhang darf man nicht<br />

nach rechtfertigenden Meinungen fragen.“ angewiesen.<br />

Ein naheliegender Einwand von fundamentalistischer Seite scheint<br />

demgegenüber zu sein: Aber ist das denn möglich, müssen denn nicht<br />

bestimmte Überzeugungen vor anderen begründet werden? Es ist wichtig,<br />

zunächst noch einmal einem Mißverständnis in bezug auf Rechtfertigungszusammenhänge<br />

vorzubeugen, das sich hinter diesem Einwand<br />

häufig verbirgt. Begründungszusammenhänge sind nicht zeitlich zu verstehen<br />

oder als ein tatsächlicher Prozeß von Rechtfertigungen, auch<br />

wenn eine ganze Reihe von Formulierungen das nahelegen. 107 Rechtfertigungsbeziehungen<br />

sind zeitlose inferentielle Zusammenhänge in der Art<br />

von logischen Zusammenhängen, während dagegen jeder Vorgang der<br />

Rechtfertigung, den ich vornehme, ein zeitlich ablaufender Prozeß ist;<br />

wie auch die Durchführung einer logischen Deduktion einen zeitlichen<br />

Prozeß darstellt. Man darf das Regreßargument daher nicht als ein Argument<br />

beschreiben, daß nach dem Vorgang des Begründens von Meinungen<br />

fragt, denn damit begibt man sich aus der Debatte um Rechtfertigungszusammenhänge<br />

in die der Genese von Meinungen. Explizite<br />

Rechtfertigungsketten kann man selbstverständlich nur endlich viele<br />

Schritte weit tatsächlich durchlaufen. Das sagt aber noch nicht, daß man<br />

nicht im Prinzip und implizit über weitere Rechtfertigungen potentiell<br />

sogar ohne Ende verfügt. Eine Analogie von Lehrer (1990b, 88f) kann<br />

diesen Punkt etwas erhellen. Die Addition von drei zu einer gegebenen<br />

Zahl kann ich aufgrund biologischer Beschränkungen, die wir alle bedauern,<br />

nur endlich oft vornehmen. Das heißt aber nicht, daß es eine<br />

größte Zahl geben muß, zu der ich drei nicht addieren könnte. Die<br />

Rechtfertigungsketten des Regreßarguments sind also nicht als Ketten<br />

von tatsächlich anzugebenden Rechtfertigungen, die wir nicht tatsächlich<br />

durchlaufen können, zu deuten, sondern nur als Problem der logischen<br />

Struktur von Rechtfertigungsbeziehungen. Die Begründungsstruktur<br />

kennt diese zeitlichen Relationen nicht, sondern ist zeitlos (vgl.<br />

III.B.2).<br />

Hat man die Vorstellung zeitlicher Beziehungen zwischen Argumenten<br />

für p und p selbst erst einmal aufgegeben, wird auch verständlicher,<br />

wie die Antwort der Kohärenztheoretiker auf das Regreßproblem zu ver-<br />

107 Diese Formulierungen finden sich meist dort, wo man Genese und<br />

Rechtfertigungen nicht sauber trennt (etwa Musgrave 1993, 61). Beim Erwerb<br />

von Überzeugungen oder ihrer expliziten Rechtfertigung müssen wir natürlich irgendwo<br />

anfangen. Diese genetische Beschreibung wird häufig zu schnell als eine<br />

Beschreibung der epistemischen Struktur ins Spiel gebracht.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 268<br />

stehen ist. Ich gehe nicht von p zu anderen Aussagen q, die ich zuerst<br />

rechtfertigen muß, um p rechtfertigen zu können, und von dort zu Aussagen<br />

r, die wiederum vorher zu rechtfertigen sind usw., sondern p ist gerechtfertigt<br />

aufgrund von q und q aufgrund von r usf. Der zunächst erweckte<br />

Eindruck, hier müßte eine unendliche Kette tatsächlich durchlaufen<br />

werden, war irreführend. Da in einem kohärenten Überzeugungssystem<br />

aber alle einzelnen Überzeugungen inferentiell gerechtfertigt sind,<br />

hat der Kohärenztheoretiker die im Regreßproblem gestellte Aufgabe beantwortet.<br />

Der weitergehende Einwand, das ganze Überzeugungssytem<br />

sei dann wohl nicht begründet, mündet bereits in eine radikalere Version<br />

des Skeptizismus, auf die ich erst im Kapitel (VI) eingehen möchte. Der<br />

Kritiker der Kohärenztheorie ist daher an dieser Stelle aufgerufen, sein<br />

Regreßargument so zu formulieren, daß es befreit ist von allen Vorstellungen<br />

zeitlichen Vorhergehens, aber auch nicht die Falschheit der kohärentistischen<br />

Position zur Voraussetzung erhebt.<br />

Überdies erhält man im kohärentistischen Bild unseres Überzeugungssystems<br />

keine einfache Kette von Überzeugungen der im Regreßargument<br />

angegebenen Art, sondern ein kompliziertes Netzwerk von Meinungen.<br />

BonJour formuliert diese Einsicht der Kohärenztheorie so, daß<br />

hier eine falsche Voraussetzung des Regreßarguments aufgedeckt wird,<br />

nämlich, daß Rechtfertigungen linear verlaufen. Damit ist zunächst darauf<br />

hingewiesen, daß ich nicht für eine Aussage immer nur eine andere<br />

zur Begründung heranziehe und dann wieder eine weitere usf. Die Begründungen<br />

fächern sich auf und in diesem großen Fächer, darf auch p<br />

selbst wieder eine kleine rechtfertigende Rolle übernehmen, was schon<br />

daran liegt, daß Rechtfertigungsbeziehungen reziprok sind. Ein idealisiertes<br />

Beispiel soll den Punkt illustrieren: Eine Beobachtungsaussage p<br />

eines kohärenten Systems X sei durch die Erklärung mit Hilfe einer<br />

Theorie T in X zum Teil gerechtfertigt. Die Theorie stützt sich epistemisch<br />

unter anderem auf ihre große Erklärungsleistung, nach der sie<br />

viele Beobachtungen auf zufriedenstellende Weise erklärt. Eine unter<br />

den vielen Beobachtungen, die die Theorie mittels Abduktion stützen, ist<br />

dabei wiederum p, das damit einen kleinen Beitrag leistet, die Erklärungsbreite<br />

und Leistungsfähigkeit der Theorie T aufzuzeigen. Natürlich<br />

sollte T nicht nur durch p zu rechtfertigen sein, denn dann hätten wir es<br />

mit einer ausgesprochenen ad hoc Theorie zur Erklärung von p zu tun,<br />

die eine Form von Inkohärenz, etwa gemäß dem Punkt des isolierten<br />

Subsystems, in X darstellte (s. KTR 3.b). Weiterhin gibt es eine Einbettung<br />

von T in ein umfangreicheres Netzwerk von anderen Theorien und<br />

Annahmen höherer Stufe, die T epistemische Unterstützung leisten. Für


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 269<br />

manche Theorien gab oder gibt es praktisch nur solche theoretischen<br />

Gründe und keine Beobachtungen, auf die sie sich berufen können. Das<br />

war etwa für die allgemeine Relativitätstheorie zu Beginn ihrer Karriere<br />

der Fall und ist heute für einige sehr moderne Theorien wie Twistortheorien<br />

oder ähnlich abstrakte Theorien wohl nicht viel anders. Schon<br />

Einsteins Gründe für seine Entwicklung der speziellen Relativitätstheorie<br />

waren zunächst rein theoretischer Art und bezogen sich auf das unterschiedliche<br />

Invarianzverhalten von Elektrodynamik und klassischer<br />

Mechanik und nicht die Beobachtung relativistischer Phänomene. Diese<br />

Zusammenhänge offenbaren, daß die Vorstellung von linearen Rechtfertigungen,<br />

die sich in unendliche Ketten oder Zirkel zurückverfolgen lassen,<br />

tatsächlich irreführend ist.<br />

Auch die Beobachtungsüberzeugung p selbst wird nicht nur durch T<br />

und die von T geleistete Einbettung von p in unser Hintergrundwissen<br />

gestützt, sondern ist ihrerseits in viele empirische Zusammenhänge eingebettet.<br />

Einen hatten wir schon im Beispiel des Superempiristen erwähnt,<br />

nämlich die Kontinuität in unseren beobachtbaren Bereichen.<br />

Wird die wesentlich verletzt, spricht das gegen die Brauchbarkeit unserer<br />

Wahrnehmungen als Information über die Außenwelt, während ihr<br />

Vorliegen ein Grund ist, ihr zu vertrauen. Ähnlich sieht es für unsere Erwartungen<br />

aus. Mitten in einer menschenleeren Wüste erwarten wir keinen<br />

Eisstand oder eine Tankstelle, wenn noch nicht einmal eine Straße<br />

vorhanden ist, sondern befürchten beim Auftauchen eines Eisstands vielmehr,<br />

einer Halluzination zu unterliegen. Stimmen unsere Beobachtungen<br />

mit unseren Erwartungen überein, geben die Erwartungen, die ja ihrerseits<br />

auch begründbar sind, uns ebenfalls Grund, unseren Sinnen zu<br />

vertrauen. Darüber hinaus ist p vielleicht in einer Situation, für die wir<br />

uns selbst als zuverlässige Beobachter einstufen, spontan in uns entstanden,<br />

so daß auch unsere epistemischen Überzeugungen einen Grund bieten,<br />

an p zu glauben. Diese werden ebenfalls durch p bestätigt, wenn<br />

sich p bewährt und nicht später als falsch herausstellt, denn für sie ist p<br />

eine Instanz, die sie gut erklären können. Die genannten Zusammenhänge<br />

geben einen kleinen Ausschnitt aus dem vielfältigen Geflecht von<br />

Meinungen, in das p eingeordnet wird und die p epistemisch stützen, für<br />

die aber auch p wiederum einen Wahrheitsindikator darstellt.<br />

Hier drängt es sich auf einzuwenden, diese Beschreibung könne<br />

gleichwohl so nicht stimmen, denn eins müsse doch zuerst gerechtfertigt<br />

sein, p oder die anderen Aussagen, die p stützen sollen. Aber so vorgetragen<br />

versteckt sich dahinter wiederum nur die falsche Auffassung einer<br />

zeitlichen Beziehung, die bei Fundamentalisten in eine Asymmetrie der


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 270<br />

Rechtfertigungsbeziehung umgedeutet wird. Für Fundamentalisten sind<br />

Rechtfertigungen neben ihrer Eingleisigkeit auch noch gerichtet. Es kann<br />

immer nur p eine epistemische Unterstützung für q darstellen oder umgekehrt,<br />

aber es kann nicht sein, daß beide eine epistemische Stützung<br />

für den jeweils anderen abgeben. Doch welche Gründe, neben der zugegeben<br />

intuitiv wirksamen Vorstellung von Rechtfertigung als einem zeitlichen<br />

Vorgang, sprechen für diese einseitige Gerichtetheit? Hier ist der<br />

Fundamentalist aufgerufen, solche Gründe zu nennen, wenn er sich gegen<br />

Kohärenzkonzeptionen wenden möchte, denn der Kohärenztheoretiker<br />

hat zunächst ein plausibles Bild der Rechtfertigungszusammenhänge<br />

anzubieten – das des Netzes von Überzeugungen –, die sich in komplizierten<br />

Erklärungsbeziehungen gegenseitig stützen. In einem kohärenten<br />

Netz lassen sich für alle Elemente intuitiv überzeugende Rechtfertigungen<br />

anbieten. Damit sind natürlich auch alle Aussagen des Netzes, die<br />

zur Rechtfertigung herangezogen werden, selbst wieder gerechtfertigt.<br />

Unserer Intuition, daß nur begründete Meinungen rechtfertigende Wirkung<br />

haben können, ist damit entsprochen.<br />

Es gibt selbstverständlich auch Versuche von raffinierten Fundamentalisten,<br />

das Regreßargument ohne Anklang an zeitliche Beziehungen zu<br />

formulieren. Moser (1991, 56ff) stellt etwa einen solchen Fall dar, der<br />

alle Antworttypen auf das Regreßargument daraufhin genauer untersucht.<br />

Für Rechtfertigungen anhand von kohärenten Netzen macht er<br />

z. B. geltend:<br />

At most such coherence makes the members possibly true. But if coherence<br />

by itself is not probability-providing, a coherent system is<br />

not automatically probability providing. Thus Probability Coherentism<br />

does not provide an adequate evidence basis for evidential probability.<br />

(Moser 1991, 62)<br />

Und für seine Behauptung, daß Kohärenz noch nicht von sich aus „probability<br />

providing“ ist, beruft er sich wesentlich auf den „mehrere Systeme“-Einwand:<br />

There are comprehensive coherent systems of obviously false, evidentially<br />

gratuitous propositions, such as propositions in science fiction.<br />

And for virtually any coherent system of propositions, we can<br />

imagine an alternative system mainly of the denials of the propositions<br />

in the first system. (Moser 1991, 62)<br />

Davon einmal abgesehen, daß kaum zu erwarten ist, die Negationen unserer<br />

Meinungen könnten ebenfalls ein kohärentes System bilden, sind


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 271<br />

die von Kohärenztheorien wie KTR erlaubten Überzeugungssysteme keineswegs<br />

so beliebig, daß jede kohärente Geschichte zulässig ist. Mosers<br />

Überlegungen zum Regreßproblem münden an dieser Stelle aber schon<br />

in einen anderen klassischen Einwand gegen Kohärenztheorien, so daß<br />

schließlich das Regreßproblem hier keine eigenständige Bedeutung mehr<br />

besitzt, sondern im Rahmen des mehrere-Systeme Einwands (s. V.C) zu<br />

behandeln ist.<br />

Die kohärentistische Vorstellung von der Struktur der Begründung einer<br />

Aussage p ist also nicht die einer Kette von Rechtfertigungen, die<br />

man für p namhaft machen kann, sondern eher die, daß das ganze kohärente<br />

System X p auf vielen Wegen rechtfertigt. Dabei bezieht X seine<br />

eigene Rechtfertigung daraus, daß es sich um ein kohärentes System<br />

handelt, daß trotz ständigen Auftretens neuer spontaner Meinungen, die<br />

als Beobachtungsinput zu deuten sind, stabil bleibt. Die KTR beschreibt<br />

ein dynamisches Modell der Welt, das einen ständigen Strom von Informationen<br />

auf der Grundlage des jeweiligen Systems X kognitiv verarbeitet<br />

und seine langsame Anpassung zu einem immer geschlosseneren und<br />

informativeren Bild der Welt vorantreibt. Genau dieses Verfahren gibt<br />

uns einen Grund, daran zu glauben, daß es eine zunehmend korrektere<br />

Beschreibung der Welt oder bestimmter Teil der Welt darstellt. Darüber,<br />

wie gut X allgemein mit dem Beobachtungsinput fertig wird, gibt seine<br />

systematische Kohärenz Auskunft, während die relationale Kohärenz<br />

von p in X eher die spezielle Bestätigung von p durch X bestimmt.<br />

Natürlich kann man auch an dieser Stelle weiter fragen: Aber wie ist<br />

diese Vorgehensweise als Ganzes zu rechtfertigen? Da das Netz all unsere<br />

Überzeugungen erster wie auch höherer Stufen umfaßt, ist das bereits<br />

eine radikal skeptische Frage, die all unsere Meinungen gleichzeitig in<br />

Frage stellt. Hier meldet sich nicht mehr der Erkenntnistheoretiker, der<br />

eine andere Rechtfertigungstheorie gegen KTR stark machen möchte,<br />

sondern der externe Skeptiker (wie ich ihn in Kapitel (VI) nennen werde)<br />

zu Wort, mit dem ich mich erst dort beschäftigen werde. In diesem Kapitel<br />

wird immer noch eine Art von internem Standpunkt eingenommen.<br />

Es bleibt damit gegen den Regreßeinwand die Frage offen, wie er neben<br />

den klassischen Einwänden oder radikalen skeptischen Positionen einen<br />

neuen Aspekt ins Spiel bringen kann, der zwischen fundamentalistischen<br />

und kohärentistischen <strong>Begründungsstrategien</strong> diskriminieren kann, ohne<br />

den Kohärenzvertreter auf falsche Annahmen über zeitliche Beziehungen<br />

oder lineare Rechtfertigungsstrukturen festzulegen. Dazu muß man natürlich<br />

ebenfalls im Auge behalten, wie überzeugend die Auskunft der<br />

Fundamentalisten zur Frage des Begründungsregresses ist. KTR hat zum


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 272<br />

Regreßproblem deutlich mehr zu sagen als der Fundamentalist, der sich<br />

für basale Meinungen z. B. auf ihre Selbstevidenz beruft, was einem ausgesprochen<br />

kleinen Zirkel gleichkommt. Eine weitergehende und zugleich<br />

ergänzende Antwort möchte ich nun diskutieren, weil sie eine<br />

sinnvolle Ergänzung von KTR um eine Metaregel darstellt.<br />

3. Epistemologischer Konservatismus<br />

Den Kohärenztheorien wird verschiedentlich vorgeworfen (s. Kap.<br />

IV.E.3), zu konservativ auf neue Informationen zu reagieren. Dieser Vorwurf<br />

scheint auf einem zu engen Verständnis dessen, was alles in Kohärenzüberlegungen<br />

mit einbezogen werden muß, zu beruhen. In diesem<br />

Abschnitt möchte ich nicht die Kohärenztheorie gegen den Vorwurf des<br />

Konservatismus, sondern den Konservatismus selbst verteidigen und sogar<br />

für einen entsprechenden Zusatz zu KTR plädieren. Der Konservatismus<br />

soll als eine wünschenswerte metatheoretische Ergänzung von<br />

KTR betrachtet werden, die ein realistischeres Bild von Erkenntnis<br />

zeichnet, das auch die Entstehung von Meinungssystemen in Ansätzen<br />

modellieren hilft und darüber hinaus wünschenswerte epistemische Eigenschaften<br />

aufweist.<br />

Zunächst muß für die Diskussion geklärt werden, was unter einem<br />

Konservatismus in der Erkenntnistheorie im weiteren Verlauf verstanden<br />

werden soll. Es sind dazu recht unterschiedlich starke konservative Positionen<br />

etwa von Sklar (1975) formuliert worden. Im folgenden meine<br />

ich damit immer nur das relativ schwache Prinzip (MK):<br />

(MK) (Methodologischer) Epistemologischer Konservatismus<br />

Das Haben einer bestimmten Überzeugung in einem kohärenten und<br />

stabilen Überzeugungssystem stellt für sich bereits einen wenn auch<br />

schwachen Grund dar, an dieser Überzeugung festzuhalten. In den<br />

Fällen, in denen alle anderen Gründe zwischen zwei Hypothesen<br />

gleich sind, kann es einen Grund bieten, die zuerst gehabte Überzeugung<br />

beizubehalten.<br />

Das ist meines Erachtens die einzig vertretbare Form des erkenntnistheoretischen<br />

Konservatismus, in der z. B. nicht angenommen wird, daß die<br />

konservative Verankerung von Überzeugungen gegen andere epistemische<br />

Stützungen aufgerechnet werden kann. Ergeben sich gute (kohärentistische)<br />

Gründe gegen eine Meinung, sollten wir sie aufgeben, auch<br />

wenn wir sie bisher schon lange akzeptiert haben. Die Tradition soll der<br />

Vernunft nicht im Wege stehen, sondern ihr nur dort helfen, wo unsere


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 273<br />

anderen Gründe nicht ausreichend erscheinen. Etwa wenn wir zwischen<br />

zwei Hypothesen keine epistemischen Gründe angeben können, um die<br />

eine vorzuziehen, aber die eine bisher akzeptiert haben und die andere<br />

nicht, soll das als Grund anzusehen sein, sie der neu aufgetauchten Alternative<br />

erkenntnistheoretisch vorzuziehen.<br />

Es dürfte dabei auf der Hand liegen, daß das bloße Haben einer<br />

Überzeugung nur als ausgesprochen schwacher erster Grund für diese<br />

Überzeugung anzusehen ist. Das gilt vor allem dann, wenn das Überzeugungssystem<br />

hinreichend verrückt ist. Ein Überzeugungssystem wie das<br />

eines Superempiristen (vgl. IV.A.1) gibt uns kaum Anhaltspunkte, um an<br />

die einzelnen Meinungen des Superempiristen zu glauben. Die Forderung,<br />

nach Kohärenz und damit einem im Sinne von KTR einigermaßen<br />

„vernünftigen“ System von Meinungen ist daher ein wichtiger Bestandteil<br />

von (MK), den Proponenten des Konservatismus allerdings meist<br />

nicht erwähnen. Außerdem sollte deutlich sein, auch wenn ich auf diesen<br />

Punkt aus Gründen der Vereinfachung nicht immer explizit hinweise,<br />

daß Überzeugungen eine Sache des Grades sind und (MK) bietet<br />

nur Gründe für einen Glauben einer geringen Stärke. Ohne hier ein formales<br />

Modell von verschiedenen Glaubensgraden favorisieren zu wollen,<br />

möchte ich noch einmal darauf verweisen, daß unser Überzeugungssystem<br />

verschiedene Metaebenen hat, auf denen sich zumindest implizit<br />

auch Überzeugungen über die Sicherheit unserer Überzeugungen finden<br />

lassen. In der Frage, ob morgen die Sonne wieder aufgehen wird, sind<br />

wir uns – von Bewölkungen einmal abgesehen – wohl meist sehr sicher,<br />

während das z. B. nicht gilt im Hinblick auf das Alter, daß wir erreichen<br />

werden. Das Haben und Einschätzen auch schwacher Gründe ist ein Bestandteil<br />

unserer epistemischen Theorie und auch diese Metaüberzeugungen<br />

sind selbst wieder Gegenstand von Bewertungen.<br />

Doch was spricht für Überzeugungen, die wir bereits aufweisen, im<br />

Unterschied zu denen, die man statt dessen akzeptieren könnte, für die<br />

wir über keine schlechteren Gründe verfügen? Zunächst einmal sind es<br />

implizite Tests, die diese gehabten Meinungen durchlaufen haben, die<br />

die Alternativen nicht aufweisen. Diese Meinungen haben sich – und<br />

hier kommen wesentlich dynamische Aspekte ins Spiel – in ihrem bisherigen<br />

Einsatz bewährt. Jonathan Adler (1990) spricht in diesem Zusammenhang<br />

von „tacit confirmation“. Wir können vermutlich nicht genau<br />

sagen, an welchen Stellen das der Fall war, aber sie haben als Bestandteile<br />

eines kohärenten Systems nicht zu auffälligen Widersprüchlichkeiten<br />

geführt. Bei jeder Aufnahme von Informationen und internen Kohärenztests<br />

einer Theorie steht natürlich nicht nur die eine Theorie zur


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 274<br />

Diskussion, sondern auch unser Hintergrundwissen, das wir zur Beurteilung<br />

heranziehen. Das ist schon eine Folge der Reziprozität von Rechtfertigungen.<br />

Dabei können in schwacher Form auch Teile betroffen sein,<br />

die wir nicht explizit testen, die sich aber stillschweigend bewährt haben,<br />

wenn die Kohärenz unseres Überzeugungssystems erhalten bleibt. Der<br />

Duhem-Quinesche Holismus besagt, daß wir in extremen Situationen sogar<br />

die Regeln unserer Logik aufgeben könnten, um mit bestimmten Beobachtungen<br />

fertig zu werden. Solange wir diese Notwendigkeit nicht<br />

verspüren, scheinen unsere Wahrnehmungen auch diese Regeln weiter<br />

zu bestätigen. Die Logik bewährt sich als wichtiges Metaprinzip für die<br />

Kohärenz unseres Meinungssystems, ohne direkten Tests unterworfen zu<br />

sein. Unsere bisherigen Überzeugungen haben also gegenüber neuen<br />

Vorschlägen den epistemischen Vorteil, sich bereits stillschweigend bewährt<br />

zu haben, wenn sie Teil eines stabil kohärenten Überzeugungssystems<br />

sind.<br />

Es scheint auch kaum durchführbar, ihnen keinen Vertrauensvorschuß<br />

einzuräumen. Würden wir ständig offen dafür sein, zu ihren Alternativen<br />

zu wechseln und willkürlich wieder zurück, hätten wir an dieser<br />

Stelle eigentlich keine Meinungen mehr. Ohne (MK) wären diese Wechsel<br />

erkenntnistheoretisch aber rational. Wir wären indifferent gegenüber<br />

einer ganzen Familie von Aussagen. Da sich an jeder Stelle Alternativen<br />

finden lassen, beträfe das letztlich all unsere Meinungen. Im Nu stünden<br />

wir ohne Meinungen da und hätten dadurch nicht mehr die Möglichkeit,<br />

eingehende Informationen anhand unseres Hintergrundwissens zu<br />

bewerten. Realistischerweise kommt daher keine internalistische Erkenntnistheorie<br />

ohne einen entsprechenden Vertrauensvorschuß aus. Er<br />

ist geradezu eine Art Grundbedingung für das erkenntnistheoretische<br />

Räsonieren eines epistemischen Subjekts. Um uns fragen zu können, welche<br />

unserer Meinungen durch andere gestützt werden, müssen wir erst<br />

einmal (stabile) Meinungen aufweisen. Das ist auch nicht weiter problematisch,<br />

solange wir mit (MK) nur verbinden, daß es uns einen Start unserer<br />

Überlegungen gestattet und nicht gegen kohärentistische Gründe<br />

ausgespielt wird. Wir sind durchaus bereit, jede „konservative“ Meinung<br />

aufzugeben, sobald sich Gründe gegen sie finden. Das unterscheidet<br />

(MK) in der zuletzt gegebenen transzendental anmutenden Verteidigung<br />

gegenüber den synthetischen Urteilen a priori des deutschen Idealismus.<br />

Dort glaubte man mit transzendentalen Argumenten eine starke Waffe in<br />

der Hand zu haben, um ganz bestimmte Meinungen zu begründen.<br />

(MK) tritt dagegen viel bescheidener auf. Es ist eher ein methodologisches<br />

Prinzip, ohne das wir nicht auskommen, das aber bloß einen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 275<br />

schwachen Anfangsgrund etabliert. Dabei ist es auch nicht auf bestimmte<br />

Meinungen bezogen – es soll etwa kein Kausalprinzip rechtfertigen<br />

–, sondern bloß einen allgemeinen Startpunkt für weitere Überlegungen<br />

bereitstellen.<br />

Wie wichtig (MK) für unsere Fähigkeit ist, überhaupt Meinungen zu<br />

besitzen, können wir schließlich am Beispiel von jemand erläutern, der<br />

sich nach einer Art Anti-(MK) verhält und immer zu einer alternativen<br />

Meinung (etwa im Stile von Goodmans „grue“-Beispiel) übergeht. Epistemisch<br />

würden diese Überzeugungsänderungen von Anti-(MK) geboten.<br />

Verlaufen sie hinreichend rasch, erscheint es unmöglich, ihm eine<br />

Meinung zuzuschreiben. Antworte ich etwa im Stundenrhythmus (oder<br />

sogar noch viel kürzeren Abständen) unterschiedlich auf die Frage, ob<br />

ich die Person X mag, ohne daß sich meine Kenntnisse dieser Person jeweils<br />

geändert hätten, kann man eigentlich kaum noch davon sprechen,<br />

ich hätte eine Meinung in dieser Frage. 108 Zum Haben einer Meinung<br />

gehören neben der Disposition, mich in einer bestimmten Weise zu äußern,<br />

auch andere Verhaltensdispositionen, die sich erst im Laufe der<br />

Zeit zeigen und längerfristigen Charakter haben, der mit vollkommen<br />

revolutionären Meinungssystemen unvereinbar erscheint. Damit derartige<br />

Probleme nicht auftreten, sind wir auf eine gewisse Stabilität in unserem<br />

Überzeugungssystem zwingend angewiesen, die über reine Kohärenzüberlegungen<br />

hinausgeht. Diese Stabilität wird auch notwendig in<br />

der Diskussion mit dem Skeptiker in der Antwort auf seine Frage, warum<br />

wir an die Wahrheit unserer Meinungen glauben sollten. Nur ein relativ<br />

stabiles Weltmodell kann für ihn eine echte Herausforderung darstellen<br />

(s. VI.B.4), denn nur dort, wo unsere Meinungen eine innere<br />

Konvergenz aufweisen, haben wir einen Grund anzunehmen, daß sie gegen<br />

die Wahrheit konvergieren. Innere Konvergenz ist dabei ähnlich wie<br />

der Begriff der Cauchy-Folgen in der Mathematik zu verstehen. Es bedeutet,<br />

daß die Änderungen unserer Meinungen zumindest in bestimmten<br />

Bereichen immer kleiner werden, geradezu gegen Null konvergieren.<br />

Wenn die aufgrund neuer Daten notwendigen Änderungen einer Theorie<br />

mit der Zeit immer kleiner werden, obwohl weiterhin neue Beobachtungen<br />

vorgenommen werden und die Theorie dabei möglichst harten<br />

Tests unterworfen wird, ist das ein erklärungsbedürftiges Faktum, für<br />

das die Annahme, es handele sich um approximativ wahre Theorien, am<br />

natürlichsten erscheint.<br />

108 Wir erhalten übrigens schon deshalb keinen stabilen Zustand, weil<br />

durch einen Wechsel von Meinung A zu Meinung B nun wiederum A zu der<br />

neuen Meinung würde. Wir müßten also sofort wieder zu A zurückwechseln usf.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 276<br />

Für diesen „Limes“ unserer Meinungen haben wir dann Grund anzunehmen,<br />

daß es sich um wahre Theorien handelt. Nicht indem wir wie<br />

Putnam diesen Limes einfach als die Wahrheit definieren, sondern das<br />

Limesverhalten unserer Überzeugungen bietet einen Indikator, daß es<br />

sich dabei um die Wahrheit handeln könnte. Würde unsere Beschreibung<br />

der Welt an wesentlichen Stellen falsch sein, dürften wir erwarten<br />

(zumindest wenn die ganz radikalen skeptischen Hypothesen nicht zutreffen,<br />

die uns das Bild eines vollständigen systematischen Irrtums<br />

zeichnen), daß das falsche Bild an bestimmten Stellen zu Erklärungsanomalien<br />

führt, die uns Hinweise auf eine Unstimmigkeit geben würden.<br />

Das ist ein Verhalten, wie wir es für die Theorien, die wir bisher als<br />

falsch erkennen konnten, erlebt haben. Ohne innere Konvergenz erscheinen<br />

unsere Weltbilder dagegen wie wechselnde Moden ohne Ziel.<br />

Eine gewisse innere Stabilität ist also zumindest eine notwendige Bedingung<br />

für die Hoffnung auf Wahrheitsannäherung, aber auch ein wichtiges<br />

Indiz dafür, denn der Realist kann mit seiner realistischen Hypothese,<br />

daß die Welt in etwa so beschaffen ist, wie sie in unserem<br />

Überzeugungssystem beschrieben wird, eine gute Erklärung für die Bewährung<br />

des Überzeugungssystems trotz ständig neu eingehender Informationen<br />

anbieten.<br />

Damit ist natürlich noch nicht die Frage beantwortet, ob unsere<br />

Überzeugungen denn wenigstens für gewisse Bereiche tatsächlich ein<br />

entsprechendes Konvergenzverhalten aufweisen. Um das zu ermitteln,<br />

sind letztlich detaillierte Fallstudien notwendig, und ich möchte meine<br />

Ansichten dazu nur erwähnen. Ein Bereich, den man hier nennen könnte,<br />

ist der der Alltagsüberzeugungen, für den wir eine ziemliche Konstanz<br />

in ihren wesentlichen Anwendungen, etwa Alltagsgegenstände<br />

mittlerer Größe feststellen können. Natürlich sind viele Gegenstände<br />

und Erkenntnisse neu hinzugekommen, aber einfache Ansichten, wie<br />

daß bestimmte Gegenstände, die eben noch schwer waren, es auch jetzt<br />

sind, daß sie ihre Form und Farbe unter gewissen Bedingungen beibehalten,<br />

wie sie sich anfühlen werden usw., haben sich kaum verändert. Meines<br />

Erachtens ist auch für bestimmte Branchen der Wissenschaften ein<br />

Konvergenzverhalten zu bemerken. Dazu könnte man zählen: weite Bereiche<br />

der Chemie und Physik, aber auch die grundlegenden Annahmen<br />

der Evolutionstheorie oder gewisser technischer Bereiche und einiges<br />

mehr. An diesem Punkt der epistemischen Bewertung unseres eigenen<br />

Wissens sind Fragen wie die Kuhnschen nach der Inkommensurabilität<br />

aufeinanderfolgender wissenschaftlichen Theorien angesiedelt, die die<br />

Entwicklung unseres wissenschaftlichen Wissens als von Revolutionen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 277<br />

durchbrochen bewerten. Ob Kuhn mit seiner Inkommensurabilitätsvermutung<br />

Recht hat, läßt sich nur durch historische Fallstudien endgültig<br />

entscheiden, was zu untersuchen eine Aufgabe anderer Arbeiten ist.<br />

Außerdem stellt (MK) die epistemisch rationalere Strategie im Vergleich<br />

zu ihren Alternativen im Umgang mit der theoretischen Unterbestimmtheit<br />

dar. Betrachten wir dazu den Fall von zwei anscheinend<br />

gleich gut bestätigten Hypothesen H1 und H2, von denen wir bisher an<br />

H1 glauben. Wie können wir verfahren? Wir könnten H1 einfach aufgeben,<br />

ohne an H2 zu glauben, aber das wäre nicht sehr plausibel, denn<br />

wir würden ohne Gegenevidenzen und ohne Ersatz eine Meinung aufgeben,<br />

für die wir gute Gründe haben (s. dazu VI.B.5). Wir könnten auch<br />

die neue Hypothese H2 wählen, da wir nach Voraussetzung für sie ebenfalls<br />

über gute Gründe verfügen. Was würde es aber gerade in wissenschaftlichen<br />

Kontexten bedeuten, immer oder meistens die neue Hypothese<br />

zu wählen? Zunächst einmal scheint es im Rahmen einer Kohärenztheorie<br />

mit globalen Kohärenzforderungen kaum plausibel anzunehmen,<br />

daß sich rein lokale Alternativhypothesen finden lassen, die nur<br />

nach der Änderung einzelner Meinungen verlangen. Gerade die Fälle,<br />

die wir kennen, wie z. B. die Goodmanschen Hypothesen, erfordern bei<br />

genauer Betrachtung globalere Umbauten, damit das neue Überzeugungssystem<br />

dieselbe Kohärenz aufweist wie das alte. Da wir dabei nur<br />

eine Hypothese erhalten, die epistemisch nicht besser ist, als unsere bisherige,<br />

steht dem Aufwand, den wir beim Umbau unseres Überzeugungssystems<br />

übernehmen, keine epistemischer Gewinn gegenüber. Außerdem<br />

geraten wir mit diesem Vorgehen in die bereits geschilderten Probleme<br />

eines anti-konservativen Induktionsverfahrens. Als rationale Strategie<br />

für die Dynamik unseres Meinungssystems ist daher (MK) eindeutig vorzuziehen.<br />

Daß wir irgendeiner Art von Input gegenüber ein gewisses Vertrauen<br />

mitbringen müssen, hatte schon BonJour als eine analytische Bedingung<br />

für empirische Erkenntnis angegeben; aber wenn BonJour in seiner „observation<br />

requirement“ (s. IV.D.2 (OR)) davon spricht, daß wir unter<br />

den spontanen Meinungen einige als Beobachtungsüberzeugungen auszeichnen<br />

und sie bis zu einem gewissen Grad als zuverlässig akzeptieren<br />

sollten, setzt diese Konzeption bereits ein Hintergrundwissen voraus,<br />

das anhand eines Modells unserer Stellung in der Welt bestimmte Meinungen<br />

als Beobachtungen auszusondern gestattet. Einige Meinungen<br />

über Zahlen, die etwa im Verlaufe einer Berechnung auftauchen, werden<br />

nicht als Beobachtungen interpretiert, obwohl sie vielleicht genauso<br />

spontan auftreten wie Beobachtungen. Andererseits erwarten wir auch


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 278<br />

bestimmte Beobachtungen, so daß Beobachtungen uns nicht unbedingt<br />

spontan erscheinen müssen. Die Einordnung der Inhalte von Überzeugungen<br />

als beobachtbar oder nicht, setzt daher gleichfalls einen Hintergrund<br />

voraus, der sie als von außen kommend beschreibt. Damit wir die<br />

BonJoursche Bedingung (OR) überhaupt sinngemäß anwenden können,<br />

müssen wir schon anderen Teilen unseres Hintergrundwissens prima facie<br />

vertrauen; etwa Annahmen über den kausalen Ursprung bestimmter<br />

Meinungen. Damit die entsprechende Wirkung erzielt wird, benötigen<br />

wir daher eine Bedingung der Form (MK). Die impliziert unter anderem<br />

(OR) in einer schwachen Form und schafft für (OR) erst sinnvolle Startund<br />

Anwendungsbedingungen. Wenn wir nämlich gemäß (MK) all unseren<br />

Meinungen ein gewisses Vertrauen entgegenbringen, trifft das speziell<br />

für die Beobachtungsüberzeugungen zu, die sich spontan einstellen.<br />

Dabei kann die Art, wie (MK) mit dem Regreßproblem umzugehen gestattet,<br />

zeigen, wie gut (MK) an unsere Vorstellung von lokalen Rechtfertigungen<br />

angepaßt ist, die BonJour in seiner Bedingung (OR) noch<br />

außer Acht läßt. Daneben wird mit (MK) ganz im Sinne der Kohärenztheorie<br />

das Dogma der epistemischen Priorität von Beobachtungen auch<br />

auf der Metaebene aufgegeben. Wir gewähren nicht nur unseren Wahrnehmungsüberzeugungen<br />

einen kleinen Vertrauensvorschuß, sondern allen<br />

unseren Überzeugungen.<br />

(MK) wird somit zu einer Voraussetzung für empirische Erkenntnis,<br />

aber auch allgemeiner für begründete Meinungen. Man könnte geradezu<br />

sagen, daß (MK) eine transzendentale Voraussetzung für das Rechtfertigungsgeschäft<br />

darstellt, denn jede konkrete Begründung unserer Meinungen,<br />

die wir vornehmen, muß mit bestimmten Vorgaben irgendwelcher<br />

Art über die rechtfertigenden Meinungen starten; etwa Annahmen<br />

über die Bedeutung bestimmter Wörter, Metaannahmen darüber, welche<br />

und woher wir diese Überzeugungen haben oder wieso sie gerechtfertigt<br />

sind; Überzeugungen verschiedener Herkunft, auf die wir uns in unseren<br />

Begründungen stützen können. Selbst Descartes war in seiner „prima<br />

philosophia“ für sein „Cogito“ darauf angewiesen. Er mußte wissen, was<br />

„ich“, „existieren“ und „denken“ bedeuten. In seiner Antwort auf die 6.<br />

Einwände beruft er sich darauf, daß diese Begriffe angeboren sind (Descartes<br />

365f). Aber wie können wir wissen, wie sie korrekt zu gebrauchen<br />

sind, wenn wir nicht bestimmte Annahmen mit ihnen verknüpfen? Diese<br />

sind nicht rein apriorischer Art, da es keine so strikte Trennung zwischen<br />

analytischen und synthetischen Annahmen gibt. Der Hintergrund<br />

aller Vorgehensweisen und ihrer Rechtfertigung muß immer in einer Berufung<br />

auf bestimmte Teile unseres bisherigen Hintergrundwissens be-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 279<br />

stehen. Ziehen wir diesen Wissenshintergrund immer schon in Zweifel,<br />

läßt sich unser Vorgehen und der Entstehungsprozeß für unsere Meinungssystem<br />

nicht mehr verstehen. Jede Begründung von Meinungen<br />

beinhaltet daher eine Form von epistemologischen Konservatismus. Die<br />

von BonJour vorgeschlagene Beschränkung des Konservatismus auf Beobachtungsüberzeugungen<br />

bedarf selbst einer Begründung, die er uns<br />

schuldig bleibt. Das meines Erachtens einzig plausible und nicht willkürliche<br />

Verfahren dafür, wird durch (MK) angemessen ausgedrückt. Dieses<br />

Vorgehen entspricht noch weitergehend dem Neurathschen Bild von<br />

Schiffern, die ihr Schiff auf hoher See umbauen müssen, als das für Bon-<br />

Jours Konzeption der Fall ist. Der Umbau kann nur anhand einer konservativen<br />

Strategie immer auf dem aufbauen, was wir schon vorfinden,<br />

und wird nie freischwebend im leeren Raum durchgeführt. Meine internalistische<br />

Position, nach der jede Rechtfertigung selbst wieder Meinungen<br />

zu zitieren hat, harmoniert vorzüglich mit der konservativen Forderung,<br />

unseren bisherigen Meinungen zunächst zu vertrauen.<br />

Insgesamt beschreibt (MK) den rationalen Teil der stark konservativen<br />

Tendenzen unserer tatsächliche Rechtfertigungspraxis und findet<br />

sich in weit stärkerer Form ebenfalls in heute vielfach akzeptierten wissenschaftlichen<br />

Methodologien wieder. Die KTR setzt allerdings dem<br />

Prinzip (MK) enge Grenzen für seine Anwendbarkeit, so daß Wissenschaftler,<br />

die mit den Scheuklappen eines Paradigmas auf neue Daten<br />

und Theorien reagieren, sich nicht auf (MK) berufen können.<br />

Die Bedingungen von KTR sind zunächst überwiegend synchronisch<br />

formuliert, aber nicht nur synchronisch zu verstehen. Mit (2d) findet<br />

sich bereits ein wichtiger Hinweis auf eine diachronische Bedingung, die<br />

im Effekt besagt, daß ein kohärentes System um so bessere Rechtfertigungen<br />

liefert, um so längere Zeit es stabil kohärent geblieben ist. Es hat<br />

sich bei ständig neu eingehenden Informationen bewährt. Das waren erste<br />

Hinweise auf die Bedeutung eines Konservatismus für KTR. Da die<br />

konservative Vorgehensweise tatsächlich einen unverzichtbaren Bestandteil<br />

für jedes Rechtfertigungsverfahren darstellt, ergänze ich die Kohärenztheorie<br />

der Rechtfertigung nun noch explizit um das metatheoretische<br />

Prinzip (MK) des epistemologischen Konservatismus, das neben<br />

den synchronischen Bedingungen für Rechtfertigungen wieder stärker<br />

den dynamischen Aspekt von Überzeugungssystemen betont.<br />

(MK) wird jedenfalls durch erfolgreiche Anwendungen in der Wissenschaftsphilosophie<br />

gestützt. Ein methodologischer Naturalist sollte<br />

diese Leistungen von (MK) ernst nehmen. Er wird zumindest die Frage<br />

aufwerfen: Welche andere Erkenntnistheorie hätte hier bessere Erklä-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 280<br />

rungen anzubieten? Doch schauen wir noch etwas genauer zu, an welchen<br />

Stellen zeitgenössische Wissenschaftsphilosophen konservativen<br />

Strategien das Wort reden.<br />

a) Anwendungen des epistemischen Konservatismus<br />

In der erkenntnistheoretischen Debatte sind eine ganze Reihe konservativer<br />

methodologischer Prinzipien vorgeschlagen worden, die oft sogar<br />

deutlich über (MK) hinausgehen und trotzdem als plausibel akzeptiert<br />

wurden. Ihr gemeinsamer methodologischer Hintergrund als konservativer<br />

methodologischer Regeln war den betreffenden Autoren dabei allerdings<br />

nicht immer bewußt. Zunächst ist (MK) nicht so stark, wie bestimmte<br />

konservative methodologische Forderungen, die bei Lakatos<br />

oder Kuhn zu finden sind. Kuhns Struktur wissenschaftlicher Revolutionen<br />

hält das Festhalten an Paradigmata trotz Anomalien, solange keine<br />

neuen Paradigmata gefunden sind, für durchaus rational. Und Lakatos<br />

(1974, 137ff) plädiert in seiner Methodologie wissenschaftlicher Forschungsprogramme<br />

schon in Reaktion auf Kuhn und Feyerabend, dafür,<br />

daß wir selbst bei auftretenden Inkonsistenzen an einer Theorie festhalten<br />

sollten, solange sie sich in Erklärungen bewährt, also – in unserer<br />

Redeweise – im übrigen kohärenzstiftend verhält. 109 Da eine innere Inkonsistenz<br />

eines Forschungsprogramms an zentraler Stelle eine schwere<br />

Schädigung der Kohärenz darstellt, kann sie sicher nicht allein durch ihre<br />

Erklärungserfolge ausgeglichen werden. Auch Lakatos scheint hier<br />

der konservativen Verankerung von Theorien großes Gewicht beizulegen<br />

und sie sogar gegen andere epistemische Gründe aufzurechnen. Daß<br />

er damit allerdings schon zu weit geht und seine Position nicht wirklich<br />

plausibel ist, habe ich an anderer Stelle (Bartelborth 1989) belegt.<br />

Ebenfalls konservative Lösungsvorschläge für epistemische Probleme<br />

hält Nelson Goodman (1988) für sein „grue“-Paradox bereit. Goodman<br />

kann dort bekanntlich demonstrieren, daß wir zu unseren gewöhnlichen<br />

Verallgemeinerungen aus der Erfahrung immer alternative Verallgemeinerungen<br />

konstruieren können, die durch unsere Erfahrungen genauso<br />

gut gedeckt sind, die aber mit „seltsamen Prädikaten“ wie „grue“ formuliert<br />

wurden. Dabei werden diese Prädikate letztlich als seltsam zurück-<br />

109 Feyerabend (1986, 240) stimmt dem emphatisch zu. Er unterscheidet<br />

dabei nicht (1986, 39ff), an welcher Stelle die Inkonsistenzen auftreten. Natürlich<br />

dürfen neue Theorien oder Daten alten Hypothesen widersprechen, aber<br />

der problematische Fall, den Lakatos diskutiert, ist der von Inkonsistenzen innerhalb<br />

der Grundlagen einer Theorie selbst, die ich in (1988) als genuine Inkonsistenzen<br />

bezeichne.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 281<br />

gewiesen, weil sie nicht so gut in unserem bisherigen Überzeugungssystem<br />

verankert sind wie unsere gewöhnlichen Prädikate, was bedeutet,<br />

daß sie bisher in unseren Überzeugungen nicht auftraten. Das Vorkommen<br />

in unseren bisherigen Überzeugungen wird also auch bei Goodman<br />

zu einem epistemischen Wert anhand dessen wir zwischen konkurrierenden<br />

Hypothesen entscheiden können. Goodman stellt dabei noch nicht<br />

einmal Anforderungen an die Vernünftigkeit der bisherigen Überzeugungen,<br />

wie sie in (MK) verlangt werden.<br />

Intuitiv sinnvoll scheint die Anwendung von (MK) auch für Fragen<br />

der theoretischen Unterbestimmtheit von Hypothesen durch die Beobachtungsdaten<br />

zu sein (s. a. Sklar 1975, 379ff). Selbst wenn man nicht<br />

an prinzipiell unterbestimmte Hypothesen durch die Erfahrung glaubt,<br />

scheint doch der Fall, daß zwei Hypothesen H1 und H2 durch die bisher<br />

tatsächlich erhobenen Daten als gleich gut bestätigt zu gelten haben, ein<br />

Fall der wissenschaftlichen Praxis zu sein, für den sich genügend Beispiele<br />

in der Wissenschaftsgeschichte finden lassen. Das Prinzip (MK)<br />

spricht dann für die Hypothese, die wir de facto schon akzeptiert haben<br />

und stellt diese nicht schon deshalb in Frage, weil wir nun weitere Hypothesen<br />

mit der gleichen Erklärungsleistung gefunden haben. Damit ist<br />

natürlich noch nicht der Fall von gleichzeitig auftretenden Alternativen<br />

entschieden. Für den kann (MK) nur dann etwas besagen, wenn die eine<br />

zu bereits vorliegenden Überzeugungen besser paßt als die andere, die<br />

nach einer Revision schon vorliegender Meinungen verlangt. Nur in diesen<br />

Fällen gibt (MK) der Hypothese den epistemischen Vorzug, die zu<br />

größerer Stabilität für unser Meinungssystem führt. Damit gestattet es<br />

(MK), Skeptiker, etwa instrumentalistischen Typs wie van Fraassen, zurückzuweisen,<br />

die die Existenz von empirisch gleich guten Theorien bereits<br />

zum Anlaß nehmen, unsere realistische Deutung von wissenschaftlichen<br />

Theorien als epistemisch unbegründet zurückzuweisen. 110<br />

Weiterhin kann (MK) auch eine Aufgabe gegen übermäßig erscheinende<br />

Ansprüche nach Begründungen übernehmen, wie sie im infiniten<br />

Regreßvorwurf zu Tage treten. Wann immer wir eine bestimmte Meinung<br />

p begründen, müssen wir andere Meinungen zitieren, die selbst<br />

wieder begründet sein sollten. Für eine vollständige Rechtfertigung verlangte<br />

der Vertreter des Regreßarguments von uns, die gesamte Kette<br />

von Begründungen, die hinter p steht, parat zu haben. Das ist zweifellos<br />

psychologisch unrealistisch und führt Rechtfertigungen ins Reich der Fa-<br />

110 Gegen van Fraassen kann man auch direkt anhand von KTR argumentieren,<br />

was ich an anderer Stelle ausführen werde. Aber (MK) betont noch einmal<br />

explizit meine Zurückweisung derartiger Methodologien.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 282<br />

bel, weshalb wir implizite Begründungen akzeptierten. Nun stellt die<br />

konservative Strategie eine weitere Antwortmöglichkeit bereit. Ein erster<br />

rechtfertigender Grund für die rechtfertigenden Meinungen findet<br />

sich schon darin, daß wir in einem kohärenten System an sie glauben.<br />

Wir berufen uns auf Meinungen aus unserem kohärenten Überzeugungssystem<br />

und sehen diese als prima facie begründet an. Damit zitieren wir<br />

nicht einfach willkürlich irgendwelche Meinungen in unserer Rechtfertigung,<br />

sondern nur Meinungen, die längst einen epistemischen Ausleseprozeß<br />

durchlaufen haben und damit ein gewisses epistemisches Gewicht<br />

mitbringen. Darauf können wir mit (MK) bauen, ohne lange<br />

Rechtfertigungsketten tatsächlich durchlaufen zu müssen. Das kann auch<br />

unsere gewöhnliche Praxis des Begründens besser erklären, für Rechtfertigungen<br />

keine derartigen Ketten oder große Teile unseres Netzes auszubreiten,<br />

aber dennoch davon auszugehen, daß die zu Zwecken der<br />

Rechtfertigung genannten Meinungen keineswegs willkürlich und unbegründet<br />

gewählt wurden. Den Regreß stoppen wir also, indem wir uns<br />

schlicht auf andere unserer Meinungen stützen, die nach (MK) bereits<br />

eine erste Rechtfertigung mitbringen.<br />

b) Ist die konservative Strategie irrational?<br />

Die Beispiele der Anwendung von (MK) zeigen schon, daß der epistemologische<br />

Konservatismus ein durchaus intuitives Prinzip der Entwicklung<br />

unseres Meinungssystems und unserer Begründungspraxis verkörpert.<br />

Bereits gegen Ende von Platons Menon (98a) verweist Sokrates auf<br />

einen Zusammenhang zwischen Begründung und Stabilität unserer Erkenntnis,<br />

wenn er sagt, daß es geradezu ein charakteristisches Merkmal<br />

begründeter Erkenntnis sei, stabiler zu sein, als bloße wahre Meinung.<br />

Trotzdem wird (MK) empiristischen Erkenntnistheoretikern, mit ihrer<br />

besonderen Präferenz zugunsten der Beobachtungen, als „schauderhaft“<br />

erscheinen. Sklar (1975, 383ff) nennt einen Einwand von Goldstick<br />

(1971, 186ff), der in typischer Weise ihr Unbehagen zum Ausdruck<br />

bringt. Goldstick, der sich allerdings gegen eine stärkere Version des<br />

Konservatismus als (MK) wendet, führt folgende Analogie an: Wenn in<br />

zwei Gesellschaften andere soziale Regelungen auf gleich gute Weise ihre<br />

Dienste tun, ist es rational für diese Gesellschaften, diese Regeln zu verteidigen<br />

und nur zu einem anderen System zu wechseln, wenn dieses<br />

eindeutig bessere Erfüllung der sozialen Ziele verspricht. Solange das<br />

nicht erkennbar ist, kann jede der beiden Gesellschaften schon zur Aufrechterhaltung<br />

der inneren Stabilität mit Recht für sich in Anspruch nehmen,<br />

das beste System für ihre Gesellschaft zu besitzen. Das klingt fast


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 283<br />

schon wie eine Verteidigung von (MK). Doch Entsprechendes kann man<br />

nach Goldstick nicht für die Rationalität von Meinungen sagen, denn<br />

hier geht es um ihre Wahrheit, und es können nicht inkompatible Meinungen<br />

gleichzeitig wahr sein. Der Konservatismus kann nach Goldstick<br />

jedoch gerade dazu führen, daß zwei Personen A und B bei gleichen empirischen<br />

Evidenzen andere Aussagen für wahr halten, weil sie eine andere<br />

Geschichte durchlaufen haben. Das paßt seiner Meinung nach nicht<br />

zusammen und zeigt eine Inkohärenz im epistemischen Konservatismus.<br />

Natürlich liegt Goldstick richtig, daß nicht beide Personen Recht in<br />

dem Sinn haben können, daß ihre Meinungen wahr sind, aber das bedeutet<br />

noch nicht, daß sie nicht beide über gerechtfertigte Meinungen<br />

verfügen können. Rechtfertigungen sind keine unfehlbaren Wahrheitsindikatoren,<br />

und wir waren uns schon einig, daß man noch keineswegs<br />

epistemisch irrational sein muß, wenn man falsche Meinungen akzeptiert.<br />

Daß inkompatible Meinungen bei verschiedenem epistemischem<br />

Hintergrundwissen gleichzeitig begründet sein können, erscheint daher<br />

unproblematisch. Neu kommt in Goldsticks Beispiel nur hinzu, daß der<br />

momentane epistemische Hintergrund in beiden Fällen genau der Gleiche<br />

sein soll. Doch für Rechtfertigungen auf der Grundlage eines bestimmten<br />

Hintergrundwissens können wir auch keine Forderung erkennen,<br />

daß dieses Hintergundwissen nicht auch unterschiedliche Meinungen<br />

begründen helfen dürfte, denn Wahrheitsindikatoren müssen nicht<br />

unbedingt eindeutige Indikatoren sein. Wie das für KTR faktisch passieren<br />

könnte, hätte allerdings Goldstick zu belegen. Jedenfalls verliert sich<br />

Goldsticks Behauptung der Inkohärenz, wenn wir nicht auf die Wahrheit<br />

der beiden Meinungen schauen, sondern auf ihre Wahrheitsindikatoren,<br />

auf die sich die Unverträglichkeit nicht in derselben Weise überträgt.<br />

Und natürlich müssen wir außerdem im Auge behalten, daß es sich um<br />

zwei Personen handelt, denn für eine Person ist es zugegebenermaßen inkohärent,<br />

zwei miteinander unverträgliche Meinungen zu akzeptieren.<br />

Obendrein macht sich Goldstick einer „petitio“ schuldig, wenn er<br />

schon voraussetzt, daß die epistemischen Belege für beide Meinungen jeweils<br />

gleich sind. Das gerade bestreitet der Proponent einer konservativen<br />

Strategie, die eine diachronische Rechtfertigungstheorie darstellt, in<br />

der die Vorgeschichte des jetzigen Überzeugungssystems zu berücksichtigen<br />

ist. Die empirischen Belege mögen zu einem bestimmten Zeitpunkt<br />

dieselben gewesen sein, aber die Rechtfertigungssgeschichten müssen<br />

verschieden sein. Wenn man annimmt, das könne keinen epistemischen<br />

Unterschied bedeuten, lehnt man damit den Konservatismus bereits ab.<br />

Der epistemisch Konservative hat eine dynamische Vorstellung von einer


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 284<br />

rationalen Entwicklung unseres Überzeugungssystems und fragt, wie es<br />

zu der beschriebenen epistemischen Situation kam. Damit (MK) zu dem<br />

von Goldstick beschriebenen Fall führen kann, müssen die epistemischen<br />

Zustände von A und B früher unterschiedlich gewesen sein, weil<br />

historische Symmetrie jedenfalls keine Entscheidung nach (MK) zuläßt.<br />

A hat z. B. irgendwann p akzeptiert und B das dazu inkompatible q auf<br />

der Grundlage unterschiedlichen Hintergrundwissens. Das hat sich erst<br />

später in irgendeiner Form angeglichen. Beim Akzeptieren von p und q<br />

waren für A und B die Alternativen noch nicht einmal für den Empiristen<br />

epistemisch gleichwertig. Muß man ihnen dann jetzt Irrationalität<br />

vorwerfen, wenn sie beim Auftauchen neuer Alternativen, die intern genauso<br />

gut bestätigt erscheinen, ihre ursprünglichen Meinungen nicht<br />

verwerfen? Auf mich macht eher letzteres Verhalten einen unvernünftigen<br />

Eindruck, und es paßt jedenfalls nicht zu unserer Praxis von Meinungsänderungen.<br />

Der von Goldstick geschilderte Fall von zwei Personen mit exakt<br />

gleicher epistemischer Stützung für verschiedene Aussagen scheint mir in<br />

dieser Beschreibung auf dem Hintergrund von KTR auch eher unwahrscheinlich<br />

zu sein. Wenn A und B zunächst ein wesentlich anderes Hintergrundwissen<br />

aufweisen, so bewerten sie alle eingehenden Informationen<br />

vor diesem unterschiedlichen Hintergrund. Selbst wenn sie also<br />

letztlich dieselben Beobachtungen machen, werden sie diese jeweils anders<br />

in ihre Meinungssysteme einordnen, ihnen einen anderen Platz im<br />

Rahmen ihrer Theorien zuweisen, so daß spätere Beobachtungsüberzeugungen<br />

für sie nicht wirklich epistemisch gleichwertig sind. Das wären<br />

sie nur auf einer tabula rasa, auf der einfach „reine“ Daten gesammelt<br />

werden. Doch bereits die Vorstellung von Bedeutungen als kleinen Minitheorien<br />

zeigte, daß dieses von Empiristen favorisierte Bild der Erkenntnis<br />

nicht haltbar ist. Besonders deutlich wird das auch für tiefgreifende<br />

Umwälzungen unseres Überzeugungssystems, die meist mit Änderungen<br />

in der begrifflichen Struktur verbunden sind, was wir aus der Geschichte<br />

wissenschaftlicher Revolutionen lernen können. Daher sind die epistemischen<br />

Zustände, die sich danach anhand von bestimmten Beobachtungen<br />

ergeben, schwerlich als vollkommen äquivalent anzusehen. Statt<br />

von im übrigen gleichen epistemischen Zuständen sollte man also lieber<br />

von gleichen Wahrnehmungen sprechen, die nur für einen Empiristen einen<br />

Schluß auf eine gleich gute Bestätigung derselben Theorie erlauben.<br />

Es ist in dieser Geschichte nicht der Konservatismus allein, der zu anderen<br />

Überzeugungen geführt hat, sondern ein unterschiedlicher epistemischer<br />

Hintergrund bei der Bewertung von Beobachtungen, der in jeder


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 285<br />

internalistischen Theorie der Wahrnehmung bedeutsam sein sollte. Das<br />

führt auch keineswegs dazu, daß unsere Rechtfertigungen in unplausibler<br />

Weise wesentlich auf historische Zufälligkeiten zu relativieren sind.<br />

Welche Beobachtungen wir machen und zu welcher Zeit wir sie machen,<br />

ist natürlich für die Frage, was wir jeweils begründen können, von Belang.<br />

Was sich jedoch in einem bestimmten Meinungssystem zu einem<br />

bestimmten Zeitpunkt rechtfertigen läßt und was nicht, ist jeweils eine<br />

Frage von Kohärenzüberlegungen. Der jeweilige Zustand unseres Meinungssystems<br />

ist also wegabhängig. Er kann davon abhängen, in welcher<br />

Reihenfolge wir unsere Beobachtungen machen. Das scheint mir nur für<br />

jemanden inakzeptabel zu sein, der Rechtfertigungen für eine rein statische<br />

Angelegenheit ohne dynamische Aspekte hält. Doch eine rein synchrone<br />

Metatheorie würde das Verhalten realer epistemischer Subjekte<br />

nicht angemessen beschreiben können.<br />

Harman (1986, 35ff) verweist in diesem Zusammenhang noch auf<br />

die Arbeit von Ross und Anderson (1982), die Hinweise darauf gibt, wie<br />

ausgesprochen konservativ wir uns in unserem Überzeugungswandel tatsächlich<br />

verhalten. Das zeigte sich unter anderem in psychologischen Experimenten,<br />

bei denen den Versuchspersonen vorgetäuscht wurde, sie<br />

hätten besondere Fähigkeiten im Lösen von Logikaufgaben oder im Unterscheiden<br />

von fiktiven und tatsächlichen Geschichten etc. Als man sie<br />

nachträglich über das Experiment aufgeklärt hat, so daß die guten Gründe<br />

für ihre Annahme, sie verfügten über derartige Fähigkeiten, entfielen,<br />

führte das in vielen Fällen nicht dazu, daß diese Annahme ebenfalls aufgegeben<br />

wurde. Sogar wichtige Entscheidungen wurden weiterhin auf<br />

der Grundlage einer Selbstzuschreibung dieser Fähigkeit getroffen. Dieses<br />

Verhalten ist durch (MK) natürlich bei weitem nicht mehr gedeckt,<br />

denn in den geschilderten Situationen liegen Gründe vor, daß die Annahme<br />

tatsächlich falsch ist. Aufgrund von KTR zusammen mit (MK)<br />

wäre dieses Verhalten also bereits als irrational einzustufen. Kohärenzüberlegungen<br />

sprechen in dem Beispiel nämlich eher dafür, daß die eigenen<br />

Fähigkeiten in den genannten Bereichen nicht über durchschnittliche<br />

Leistungen hinausgehen. (MK) ist damit nur der schwache rationale<br />

Kern eines derartigen Verhaltens und sollte somit aus Sicht des methodologischen<br />

Naturalismus als angemessener Ausgangspunkt weiterer erkenntnistheoretischer<br />

Überlegungen dienen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 286<br />

B. Der Isolationseinwand<br />

Ein alter Vorwurf gegen Kohärenztheorien, der sich früher allerdings gegen<br />

Kohärenztheorien der Wahrheit richtete und nicht immer sehr explizit<br />

formuliert wurde, ist der sogenannte Isolationseinwand. Man findet<br />

ihn unter anderem bei Schlick (1934, 85f), der den Zusammenhang von<br />

Meinungen zur Wirklichkeit anmahnt. Bei diesem Typ von Einwand<br />

handelt es sich eigentlich um ein Bündel von Einwänden mit einer gemeinsamen<br />

Stoßrichtung, die sich ungefähr in folgender Weise formulieren<br />

läßt: Wenn unser Überzeugungssystem allein anhand von internen<br />

Kohärenzüberlegungen bestimmt wird, wie kann es da zu einer Erkenntnis<br />

einer von unseren Überzeugungen unabhängigen Außenwelt kommen?<br />

Wo bleibt in diesem Bild unserer Erkenntnis der Kontakt zur Welt,<br />

der empirische Input von Informationen, der doch für empirische Erkenntnisse<br />

unerläßlich ist und den der Empirist deshalb auch ganz in<br />

den Vordergrund stellt? Kann die Kohärenz unseres Überzeugungssystems<br />

dabei nicht die einer rein fiktiven Geschichte sein? Eine Spezifizierung<br />

dieses Einwandes hatte ich schon untersucht (IV.E.3). Sie besagt,<br />

daß ein Meinungssystem einfach dadurch seine einmal gewonnene Kohärenz<br />

aufrechterhalten kann, daß es nicht hineinpassende Erfahrungen<br />

als falsch zurückweist. Dieser Einwand übersah die zahlreichen epistemischen<br />

Überzeugungen, die gerade innerhalb unseres Überzeugungssystems<br />

bestimmten Beobachtungen den Status wichtiger Informationen<br />

über die Welt zusprechen. Tatsächlich ist unser Meinungssystem im Normalfall<br />

nicht von der Welt isoliert, sondern kausal eng mit ihm verknüpft.<br />

Dieser Zusammenhang, der in unseren Ansichten über unsere<br />

kausalen Stellung in der Welt repräsentiert ist, läßt uns auch andere Varianten<br />

des Isolationseinwands als wirkungslos zurückweisen.<br />

Die Behandlung von Wahrnehmungsüberzeugungen (IV.B) sollte<br />

deutlich machen: Wenn keine der radikalen skeptischen Hypothesen<br />

wahr ist, verfügen wir über einen ständigen Input von Informationen anhand<br />

spontan auftretender Beobachtungsüberzeugungen, die vermittels<br />

der Sinne einen kausalen Kontakt zu unserer Umgebung herstellen.<br />

Diese sind nicht schlicht abzuweisen, was durch das Metaprinzip des<br />

epistemologischen Konservatismus noch einmal unterstrichen wurde,<br />

denn jede auftretende Überzeugung ist zunächst ernst zu nehmen. Den<br />

Beobachtungen wird in normalen Überzeugungssystemen außerdem ein<br />

besonderer Status als zuverlässiger Input eingeräumt, so daß ein solches<br />

System nicht durch einfache Ablehnung auf sie reagieren kann, wenn es


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 287<br />

KTR genügen will. 111 Selbstverständlich können wir Beobachtungen unter<br />

besonderen Umständen auch zurückweisen, wenn wir etwa Gründe<br />

haben anzunehmen, daß sie auf kausal unzuverlässigem Wege entstanden<br />

sind. Aber zunächst bieten sie genau den gesuchten Kontakt zur Welt,<br />

und der Isolationseinwand zielt aus tatsächlichen Gründen ins Leere. Er<br />

ist auf die empirisch falsche Annahme angewiesen, daß wir nicht kausal<br />

mit der Welt verbunden sind. Soll er mit der zusätzlichen Behauptung<br />

verknüpft werden, es gäbe keinen solchen kausalen Kontakt, richtet sich<br />

der Isolationseinwand natürlich nicht mehr speziell gegen eine Kohärenzkonzeption<br />

von Rechtfertigung, sondern gegen alle Erkenntnistheorien.<br />

Dann ginge er aber auch in eine radikal skeptische Position über,<br />

deren Diskussion ich auf das nächste Kapitel verschieben möchte.<br />

C. Der mehrere-Systeme Einwand<br />

Ein anderer klassischer Einwand gegen die Kohärenztheorie, der allerdings<br />

nicht immer streng vom ersten getrennt wird, führt die Möglichkeit<br />

mehrerer gleich kohärenter Systeme ins Feld. Eine gut erdachte Geschichte<br />

kann genauso kohärent sein wie unser ausformuliertes Weltbild.<br />

Wieso sollte dann dieses eher wahr sein, als irgendeine der anderen kohärenten<br />

Geschichten? Schlick geht so weit zu behaupten, daß damit Kohärenz<br />

als Wahrheitskriterium logisch unmöglich wird:<br />

Damit zeigt sich die logische Unmöglichkeit der Kohärenzlehre; sie<br />

gibt überhaupt kein eindeutiges Kriterium der Wahrheit, denn ich<br />

kann mit ihr zu beliebig vielen in sich widerspruchsfreien Satzsystemen<br />

gelangen, die aber unter sich unverträglich sind. (Schlick 1934,<br />

87) 112<br />

Doch dieser Einwand trifft nur Kohärenztheorien der Wahrheitsdefinition<br />

und nicht Kohärenztheorien der Rechtfertigung oder Wahrheitsindikation.<br />

Für Definitionen der Wahrheit sollten wir allerdings verlangen, daß sie<br />

111 Was in hinreichend verückten Meinungssystemen passieren kann, für<br />

die das epistemische Subjekt etwa fest an Überzeugungen wie die der Skeptiker<br />

glaubt oder ein rein magisches Weltbild hat, vermag ich nicht zu sagen. Wenn<br />

man keine Wahrnehmungen als Input deutet und ihnen auch nicht im geringsten<br />

vertraut, kann man auch nicht mehr erwarten, sich auf internem Wege der<br />

Wahrheit zu nähern. Allerdings dürfte ein solches System auch nicht durch<br />

strikte Anwendung von KTR entstanden sein.<br />

112 Für weitere Vertreter dieses Arguments s. a. Rescher (1982, 48ff).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 288<br />

nicht zueinander inkompatible Aussagen gleichzeitig als wahr zulassen,<br />

aber von Indikatoren für Wahrheit können wir – wie schon mehrfach<br />

ausgeführt wurde – nicht verlangen, daß sie uns eine eindeutige Kennzeichnung<br />

der Wahrheit liefern. Gegenüber reinen Phantasiegeschichten<br />

ist unser Überzeugungssystem schon durch den im letzten Kapitel beschriebenen<br />

kausalen Kontakt zur Welt ausgezeichnet. Welchen Stellenwert<br />

besitzt darüber hinaus der Einwand, daß mehrere Überzeugungssysteme<br />

in gleicher Weise durch KTR zugelassen sein können?<br />

Das entspricht dem bekannten erkenntnistheoretischen Phänomen<br />

der Unterbestimmtheit, nach dem unsere Informationen manchmal nicht<br />

ausreichen, um alle alternativen Hypothesen über die Welt bis auf eine<br />

auszuschließen. Die Unterbestimmtheit ist ein Phänomen, mit dem alle<br />

Erkenntnistheorien zu kämpfen haben, das sich also nicht speziell gegen<br />

die Kohärenztheorie richtet. Im Gegenteil bietet gerade die Kohärenztheorie<br />

eine Reihe von Anhaltspunkten bei der Auswahl von (theoretischen)<br />

Hypothesen, die einem eingefleischten Empiristen nicht zur Verfügung<br />

stehen. Für den Kohärenztheoretiker ist die Gesamtkohärenz<br />

oder der Systemcharakter von Überzeugungssystemen ein zulässiger Hinweis<br />

auf ihre Wahrheit, während für den Empiristen ausschließlich die<br />

Berufung auf Beobachtungen zählen darf. Van Fraassen (1980, 87f) ist<br />

deshalb nur konsequent, wenn er Merkmale von empirischen Theorien<br />

wie Einfachheit, Vereinheitlichung und auch Erklärungskraft als rein<br />

pragmatische Tugenden von Theorien einstuft, die zwar für unseren Einsatz<br />

dieser Theorien sehr hilfreich sein können, die aber keinen Hinweis<br />

auf ihre Wahrheit abgeben: „They provide reasons to prefer the theory<br />

independently of the question of truth.“ Welchen Wert diese Tugenden<br />

von Theorien für uns haben, erklärt van Fraassen dann auch anhand<br />

pragmatischer Überlegungen. Für einen Empiristen muß es unbegründbare<br />

Metaphysik sein, wenn wir eine einfachere Theorie einer komplizierteren<br />

mit derselben Bestätigung durch Beobachtungen als begründeter<br />

vorziehen, denn warum sollten unter den einfachen Theorien eher<br />

wahre zu finden sein als unter den komplizierteren? Dieses Phänomen<br />

finden wir auch für die Erklärungstheorie, für die van Fraassen (z. B.<br />

1980, Kap.5) eine rein pragmatische Explikation vorschlägt, die wir später<br />

(VIII.C.1) noch kennenlernen werden. Nicht einmal die höhere Erklärungskraft<br />

einer Theorie kann der lupenreine Empirist also als Wahrheitsindikator<br />

zulassen. Daß diese Erkenntnistheorie an verschiedenen<br />

Stellen unplausibel erscheinen muß, ist wohl nicht mehr völlig überraschend.<br />

Vor allem läßt sie auch größere Spielräume der Unterbestimmtheit<br />

zu als KTR, was van Fraassen – wiederum konsequent – zu einer in-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 289<br />

strumentalistischen Auffassung wissenschaftlicher Theorien geführt hat.<br />

Damit ist sie viel stärker als die hier vertretene Rechtfertigungstheorie<br />

von Schwierigkeiten der Unterbestimmtheit betroffen, zumal neben KTR<br />

der epistemologische Konservatismus weitere Anhaltspunkte für eine<br />

Verringerung der Unterbestimmtheit liefert.<br />

D. Resümee<br />

Zentraler Streitpunkt zwischen fundamentalistischen und kohärentistischen<br />

Ansätzen in der Rechtfertigungstheorie ist das klassische Regreßproblem<br />

der Begründung. In (III.B) hatte ich nachgewiesen, daß der<br />

Fundamentalist keine gute Antwort auf den von ihm bemühten Regreßeinwand<br />

anzubieten weiß. Der Kohärenztheoretiker kann dagegen darauf<br />

verweisen, daß in einem hochkohärenten Überzeugungssystem jede<br />

Meinung gerechtfertigt ist, wodurch der Regreßvorwurf, wenn er nicht<br />

im Sinne radikaler skeptischer Hypothesen gemeint ist, zurückzuweisen<br />

ist. Unterstützt wird diese Zurückweisung durch die Aufnahme eines<br />

schwachen epistemologischen Konservatismus in Form des metatheoretischen<br />

Prinzips (MK), daß zu einer realistischeren Sicht der Entstehung<br />

und Dynamik von Überzeugungssystemen führt und außerdem notwendig<br />

erscheint, um die für Erkenntnis und Wahrheitsannäherung erforderliche<br />

Stabilität zu gewährleisten. KTR ohne eine diachronische Bedingung<br />

(2c) allein ist nämlich auch mit revolutionären epistemischen Strategien<br />

wie Anti-(MK) verträglich, die uns kein Bild einer schrittweisen<br />

Annäherung an die Wahrheit mit immer kleiner werdenden Änderungen<br />

gestatten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 290<br />

VI Metarechtfertigung<br />

Die bisherigen Kapitel der Arbeit waren allesamt auf eine Ausgestaltung<br />

einer Theorie der Rechtfertigung hin ausgerichtet. Dabei wurden die<br />

Einwände des Skeptikers zunächst beiseite geschoben, zumal eine meiner<br />

Thesen zur Entwicklung der Erkenntnistheorie besagte, daß die Fixierung<br />

auf die Debatte mit dem Skeptiker die Entfaltung von erkenntnistheoretischen<br />

Ansätzen nicht nur gefördert, sondern auch behindert hat.<br />

So haben Erkenntnistheoretiker zwar oft über die Bedeutung von Kohärenz<br />

für Rechtfertigungen gesprochen, aber dann vor allem darüber<br />

nachgedacht, wie man in dieser Konzeption auf die Einwände eines<br />

Skeptikers reagieren könnte. Die Klärung, was unter Kohärenz genau zu<br />

verstehen ist, kam dabei meist zu kurz. Das war ein Grund für mich, die<br />

Diskussion mit dem Skeptiker in dieser Arbeit eben nicht in den Vordergrund<br />

zu stellen. Trotzdem möchte ich sie natürlich keineswegs aufgeben.<br />

Wie man dem Skeptiker gegenübertreten kann, soll in diesem letzten<br />

Kapitel des zweiten Teils mein Thema sein. Den Skeptiker können<br />

wir als eine Art imaginären Gegenspieler verstehen, der unsere Erkenntnistheorien<br />

in Frage stellt. Eine Antwort auf den Skeptiker ist zugleich<br />

eine Rechtfertigung der eigenen Position. Weil es sich dabei um eine<br />

Rechtfertigung einer Rechtfertigungstheorie handelt, ist diese auf einer<br />

Metaebene angesiedelt und trägt daher den Namen „Metarechtfertigung“.<br />

Der Skeptizismus ist allerdings keine einheitliche Position und tritt in<br />

vielen Gewändern mit jeweils unterschiedlichen Spielregeln auf. Das ist<br />

einer der Gründe, warum er so schwer zu besiegen ist. Die skeptischen<br />

Positionen lassen sich etwa danach einteilen, auf welche Überzeugungen<br />

wir uns in einer Antwort stützen dürfen und welche Schlußverfahren uns<br />

der jeweilige Skeptikers zugesteht. Der Cartesianische Skeptiker ist besonders<br />

radikal und stellt letztlich sogar die mathematischen Wahrheiten<br />

und die Logik in Frage, aber z. B. nicht unsere Überzeugungen darüber,<br />

welche Überzeugungen wir haben. Der Humesche Skeptiker nimmt dagegen<br />

die Mathematik und deduktiven Schlüsse von seinem Zweifel aus<br />

und gestattet sogar eine Berufung auf Wahrnehmungserlebnisse. Für ihn<br />

sind es „nur“ die sich darauf stützenden Überzeugungen über Gegenstände<br />

der Außenwelt, die problematisch erscheinen (s. Watkins 1984,


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 291<br />

3ff). Es ist daher auch kein Zufall, daß sich die empiristisch gesinnten<br />

Erkenntnistheoretiker 113 immer wieder mit dieser speziellen Form des<br />

Skeptizismus beschäftigen, geht sie doch besonders gnädig mit den Sinnesdaten<br />

oder sinnlichen Erfahrungen um, die der Empirist in der einen<br />

oder anderen Form dem Aufbau der Erkenntnis zugrunde legen möchte.<br />

Aber eigentlich sind die Spielregeln für eine Auseinandersetzung mit<br />

dem Skeptiker nicht geklärt und außer gewissen empiristischen Vorlieben<br />

spricht nichts dafür, nicht auch die Erfahrungen und insbesondere<br />

unsere Erinnerungen an vergangene Erfahrungen (die Hume zuzulassen<br />

scheint) in Ungnade fallen zu lassen. Daß sie irrtumsgefährdet sind,<br />

hatte ich bereits belegt (III.B.5.a). Da ich die empiristische Vorliebe für<br />

Sinneserfahrungen aus erkenntnistheoretischer Sicht nicht teilen kann,<br />

gibt es für mich auch keinen Grund, den Humeschen Skeptizismus besonders<br />

hervorzuheben.<br />

Neben den radikalen und moderateren Formen des umfassenden<br />

Skeptizismus gibt es auch noch bereichsspezifische Formen, die ihre skeptische<br />

Haltung etwa auf unser theoretisches Wissen über unbeobachtbare<br />

Objekte oder Aussagen über die Vergangenheit oder die Zukunft, moralische<br />

Annahmen, mathematische Behauptungen, die Existenz von<br />

„other minds“ und andere Dinge beziehen. Da ich an dieser Stelle jedoch<br />

weder den Raum für eine ausführliche Diskussion aller noch eine<br />

Diskussion vieler skeptischer Positionen habe, möchte ich mich nur zwei<br />

Formen von Skeptizismus gegenüber Rechtfertigungen zuwenden, denen<br />

man auf ganz unterschiedliche Art gegenübertreten muß.<br />

Die zwei Formen des Skeptizismus, aus einem Kontinuum von möglichen<br />

Positionen mit graduellen Übergängen, nenne ich die interne und<br />

die externe Skepsis, oder man könnte auch von einer radikalen und einer<br />

moderaten Skepsis sprechen. Der interne Skeptiker stimmt mit mir wenigstens<br />

in einigen Teilen meines Hintergrundwissens überein, insbesondere<br />

in allgemeinen Ansichten über meine kausale Stellung in der Welt<br />

und in Teilen meiner epistemischen Metaüberzeugungen. Er richtet z. B.<br />

die Frage an mich, wieso ich gerade Kohärenz und nicht eine phänomenalistische<br />

Reduktion für epistemische Rechtfertigungen für wesentlich<br />

halte; oder warum ich unter Kohärenz genau das verstehe, was in KTR<br />

niedergelegt ist, und nicht etwas anderes, wie z. B. Kohärenz im Sinne<br />

des Lehrerschen Vorschlags. In meiner Antwort auf den internen Skeptiker<br />

kann ich mich daher auf relativ viele Intuitionen zur Rechtfertigung<br />

und paradigmatische Beispiele von Begründungen berufen, die er genau-<br />

113 Auch Watkins konzentriert sich in (1984) ganz darauf, dem Humeschen<br />

Skeptiker Paroli zu bieten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 292<br />

so akzeptiert wie ich. Er muß natürlich nicht gleich alle meine erkenntnistheoretischen<br />

Ansichten teilen, sonst käme wohl auch keine fruchtbare<br />

Diskussion mit ihm zustande, aber doch zumindest einige von denen,<br />

die relativ allgemein akzeptiert werden. Der interne Skeptiker ist also<br />

eher ein recht kritischer Diskussionspartner, als ein umfassender Skeptiker<br />

im klassischen Sinn. Er ist deshalb in den meisten Fällen auch der<br />

fruchtbarere Diskussionsgegner, denn seine Einwände führen jeweils zu<br />

kritischen Untersuchungen der Kohärenz meiner Metaüberzeugungen.<br />

Anders sieht es schon für die Diskussion mit dem externen oder radikalen<br />

Skeptiker aus, der meine Theorie von einem externen Standpunkt<br />

angreift und daneben eine Berufung auch auf solche Annahmen nicht<br />

mehr zuläßt, die uns normalerweise als selbstverständlich erscheinen.<br />

Die Auseinandersetzung mit externen skeptischen Einwänden muß notgedrungen<br />

vollkommen anders geführt werden als die gegen Einwände<br />

von einem internen Standpunkt aus. Sie ist erheblich schwieriger und<br />

wohl letztlich auch erfolgloser, was durch die vielen gescheiterten Versuche<br />

der Philosophiegeschichte, dem radikalen Skeptiker Paroli zu bieten,<br />

dokumentiert wird. Viele Erwiderungen auf „den Skeptiker“ treffen bestenfalls<br />

den internen und beziehen daraus ihre intuitive Kraft, sind gegen<br />

den externen aber als eine petitio principii zu betrachten.<br />

Wir kennen die Unterscheidung in die zwei Ausgangspunkte übrigens<br />

ebenso in anderen Bereichen unseres Wissens. Einen Evolutionstheoretiker<br />

können wir aus interner Sicht fragen, wieso er trotz der großen<br />

Ähnlichkeiten annimmt, daß der Beutelwolf (oder tasmanische<br />

Wolf) und die westeuropäischen Hunde schon seit ca. 100 Millionen<br />

Jahren getrennte Wege in der Evolution gehen. Ein externer Kritiker der<br />

Evolutionstheorie würde dagegen vielleicht fragen, wieso man nicht annimmt,<br />

Gott hätte die Tiere so geschaffen, wie sie heute sind. Was als intern<br />

und was als extern zu gelten hat, ist dabei relativ zu dem jeweiligen<br />

Fachgebiet zu bestimmen und außerdem natürlich gradueller Abstufungen<br />

und Vermischungen fähig. Der radikale Skeptiker nimmt die externsten<br />

Standpunkte ein, die überhaupt denkbar sind, und ist damit für alle<br />

Wissensbereiche ein externer Kritiker. Er würde den Evolutionstheoretiker<br />

vielleicht fragen, wieso er überhaupt an die Existenz einer Außenwelt<br />

glaubt oder daran, daß die Welt älter als drei Minuten ist. Auch der<br />

interne Skeptiker, den ich bekämpfen möchte, kann ein externer Skeptiker<br />

in bezug auf jedes beliebige Wissensgebiet sein, er darf nur nicht alle<br />

grundlegenden Annahmen über unsere kausale Stellung in der Welt auf<br />

einmal bezweifeln.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 293<br />

Ein Indiz für eine externe Frage ist, daß ihre Beantwortung dem<br />

Fachwissenschaftler im allgemeinen keine akademischen Lorbeeren in<br />

seinem Fach einbringt. Einen Evolutionstheoretiker, der sich in seiner<br />

Forschung mit dem Problem der Existenz einer Außenwelt beschäftigt,<br />

würden wir nicht schon deshalb für einen besonders gründlichen Evolutionstheoretiker<br />

halten, sondern eher für einen Biologen, der in die Philosophie<br />

übergelaufen ist. Die Fachwissenschaftler haben das Glück,<br />

über den externen Skeptiker milde lächeln zu dürfen, von einem Philosophen<br />

wird dagegen erwartet, daß er auch auf die Einwände der radikalen<br />

Skeptiker eingeht und möglichst eine Antwort weiß. Beginnen<br />

möchte ich jedoch mit einer Erwiderung auf die interne Skepsis.<br />

A. Interne Skepsis<br />

Die Entwicklung einer Kohärenztheorie der Rechtfertigung erfolgte bereits<br />

immer in Diskussion mit verschiedenen internen Skeptikern, die<br />

mal die eine mal eine andere meiner Überlegungen in Frage stellten. Daher<br />

bleibt an dieser Stelle eigentlich nichts Neues zu sagen. Ich möchte<br />

trotzdem die wichtigsten Stationen der Argumentation für KTR nun<br />

noch einmal Revue passieren lassen, um ihren Argumentationszusammenhang<br />

noch deutlicher zu machen.<br />

Ausgangspunkt der Untersuchung war eine intuitive Bestimmung des<br />

Ziels der Arbeit, das in einer Theorie der epistemischen Rechtfertigung<br />

von empirischen Überzeugungen besteht. Ein erster Schritt legte eine Explikation<br />

von epistemischer Rechtfertigung und einer Abgrenzung von<br />

anderen Rechtfertigungen wie z. B. moralischen vor. Epistemische<br />

Rechtfertigungen wurden als Wahrheitsindikatoren für unsere Meinungen<br />

charakterisiert, die uns Hinweise darauf geben, daß eine Meinung<br />

wahr ist.<br />

Dieses Unternehmen ist sowohl deskriptiv wie auch normativ zu verstehen,<br />

was erklärt, wieso es sich dabei nicht um eine Aufgabe für eine<br />

Naturwissenschaft handeln kann, die sich eher auf deskriptive Behauptungen<br />

versteht und für die Begründung von Bewertungen nicht zuständig<br />

ist. Diese Aufgabenteilung wurde betont, um gegen eine weitgehende<br />

Naturalisierung der Erkenntnistheorie zu argumentieren. Gegen radikale<br />

Naturalisten wie Quine, die die Erkenntnistheorie ganz den Naturwissenschaften<br />

überlassen möchten, habe ich noch einmal die Unterscheidung<br />

zwischen Genese und Rechtfertigung von Meinungen hervorgehoben,<br />

und eine eigene Vorgehensweise unter dem Namen methodolo-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 294<br />

gischer Naturalismus skizziert. Sie strebt ein Überlegungsgleichgewichts<br />

zwischen vorgefundenen epistemischen Überzeugungen über Rechtfertigung<br />

und kritischer Theorienbildung (auf einer Metaebene) an.<br />

Nach dieser Einordnung des Vorhabens, wurde es im Hinblick auf<br />

seine relevanten Voraussetzungen ausgeführt. Der metaphysische Hintergrund,<br />

vor dem die Untersuchung stattfinden soll, ist eine Korrespondenztheorie<br />

der Wahrheit mit einer realistischen Vorstellung von der<br />

Welt. Das ist wohl für die meisten klassischen Erkenntnistheoretiker der<br />

Rahmen gewesen, in dem die Auseinandersetzung mit dem Skeptiker<br />

stattfand. Erst wenn wir diesen Rahmen akzeptieren, stellen wir uns der<br />

Herausforderung des Skeptikers in vollem Umfang, denn er betont immer<br />

wieder die Kluft zwischen dem Vorliegen subjektiver Indizien für<br />

bestimmte Tatsachen und ihrem objektiven, von unseren Ansichten unabhängigem<br />

Vorliegen. Um zu zeigen, daß dieser metaphysische Hintergrund<br />

nicht bereits in sich inkonsistent ist und damit das ganze Unternehmen<br />

von vornherein zum Scheitern verurteilt, wurde er gegen einige<br />

relativistische Einwände und Vorwürfe der Unverständlichkeit verteidigt.<br />

Der Abschnitt (II.C) wandte sich dann erstmals direkt den epistemischen<br />

Rechtfertigungen zu und versuchte einige grundsätzliche Bestimmungsstücke<br />

ihrer Struktur darzulegen. Der erste ist, daß das Gerechtfertigtsein<br />

einer Meinung oder Aussage keine intrinsische Eigenschaft<br />

einzelner Aussagen ist, sondern immer eine zweistellige Relation zwischen<br />

einer Meinung und dem entsprechenden Hintergrundwissen eines<br />

epistemischen Subjekts, um dessen epistemischen Zustand es geht. Von<br />

welchen unserer Meinungen wir sagen können, sie seien begründet,<br />

hängt also entscheidend davon ab, was wir sonst noch wissen. Jede Begründung<br />

einer Meinung muß sich wieder auf andere Meinungen stützen.<br />

Hier finden wir schon den Grund für unsere Schwierigkeiten, dem<br />

radikalen Skeptiker zu antworten, denn er stellt alle unsere Überzeugungen<br />

zugleich in Frage und läßt uns damit keinen epistemischen Hintergrund,<br />

auf den wir unsere Überlegungen stützen können. Trotz dieser<br />

Problematik ist die Zweistelligkeit der Rechtfertigungsbeziehung ein essentieller<br />

Faktor gewöhnlicher Rechtfertigungen, der im Verlauf der Arbeit<br />

immer wieder gegen unterschiedliche Angriffe verteidigt wird.<br />

Von den zu rechtfertigenden Entitäten wurde verlangt, daß sie die<br />

Struktur von Aussagen, also wahrheitswertfähigen Gebilden, aufweisen,<br />

denn nur für sie können wir sinnvoll nach epistemischen Rechtfertigungen<br />

fragen – man denke daran, daß ich epistemische Rechtfertigungen<br />

als Wahrheitsindikatoren definiert hatte. Aber es wurden dabei durchaus


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 295<br />

Meinungen zugelassen, die wir nur implizit vertreten und die uns nicht<br />

immer bewußt sein müssen. Ähnlich liberal möchte ich mit den Begründungen<br />

selbst verfahren. Nicht nur derjenige soll als gerechtfertigt in seinen<br />

Meinungen gelten, der die im Prinzip zur Verfügung stehenden Begründungen<br />

schon explizit durchlaufen hat, sondern auch der, der dazu<br />

in der Lage ist, sie innerhalb kurzer Zeit selbst zu entwickeln. Eine weitere<br />

Liberalisierung in Form der epistemischen Arbeitsteilung besteht<br />

darin, für Begründungen auch Wissen zuzulassen, das uns nur indirekt<br />

über entsprechende Experten oder andere Mitglieder unserer Gesellschaft<br />

zugänglich ist. Diese Liberalität kann manche intuitiven Probleme,<br />

die sich daraus ergeben, daß bestimmte übliche Anforderungen an<br />

Rechtfertigungen sonst kaum noch von realistischen epistemischen Subjekten<br />

erfüllt werden, vermeiden oder zumindest abmildern helfen.<br />

Erst nach diesen notwendigen Vorarbeiten und Begriffsklärungen begann<br />

der Hauptteil der Argumentation für eine bestimmte Theorie der<br />

Rechtfertigung. Dazu wurden zuerst unterschiedliche <strong>Begründungsstrategien</strong><br />

auf ihre erkenntnistheoretische Überzeugungskraft hin untersucht.<br />

Eine heutzutage vielfach anzutreffende Herausforderung der Konzeption<br />

von Rechtfertigung als einer zweistelligen Relation zwischen<br />

Aussagenmengen findet sich in den externalistischen Erkenntnistheorien.<br />

Sie versuchen den Begriff der Rechtfertigung aus dem Bereich der kognitiv<br />

zugänglichen Meinungen herauszunehmen und auf externe Zusammenhänge<br />

– etwa kausale zwischen einer Meinung und einer sie verursachende<br />

Tatsache – zu reduzieren. Rechtfertigung würde damit eine Relation<br />

zwischen einer Meinung und externen Faktoren wie dem kausalen<br />

Prozeß der Entstehung der Meinung oder der Zuverlässigkeit dieses Prozesses.<br />

Wenn diese externen Faktoren eine zuverlässige Meinungsbildung<br />

garantieren, soll das ausreichen, um die Meinung als begründet anzusehen,<br />

auch wenn das epistemische Subjekt selbst nichts von der Existenz<br />

dieser externen Faktoren weiß. Der erste Teil von Kapitel (III) war<br />

der Argumentation gewidmet, daß dieser Weg, so wünschenswert er<br />

auch sein mag, um etwa den skeptischen Fragen auszuweichen, keine<br />

Antwort auf das ursprüngliche epistemische Problem oder den Skeptiker<br />

darstellt, sondern einen Themenwechsel. Der Erkenntnistheoretiker<br />

fragte genaugenommen nicht, welche Gründe es überhaupt gibt, anzunehmen,<br />

eine bestimmte Meinung sei wahr, sondern, welche Gründe es<br />

für das epistemische Subjekt S gibt, anzunehmen, die Meinung sei wahr.<br />

Die genannten externen Faktoren können aber nur als Gründe für S betrachtet<br />

werden, wenn S sie auch kennt. Nur in dieser Interpretation


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 296<br />

versucht der Erkenntnistheoretiker auch auf die klassische Frage zu antworten:<br />

Was soll ich glauben?<br />

Und gerade diese Frage liegt uns in bezug auf die Praxis von Rechtfertigungen<br />

als erstes auf der Zunge. Wenn ich eine Begründung einer<br />

Meinung als ein Hilfsmittel einsetzen möchte, um zu erkennen, ob die<br />

Meinung wahr ist, sind mir natürlich nur die Rechtfertigungen dabei tatsächlich<br />

behilflich, über die ich auch kognitiv verfüge. Entsprechendes<br />

gilt, wenn ich eine Rechtfertigung als Grundlage für eine Argumentation<br />

hernehmen möchte. Ohne Kenntnis der Rechtfertigung bin ich dann<br />

noch keinen Schritt weitergekommen.<br />

Der nächste Argumentationsschritt widmete sich der Frage, wie<br />

denn die allgemeine Struktur von Rechtfertigungen auszusehen hat. Sind<br />

wir gezwungen, für bestimmte Aussagen auf eine weitere inferentielle<br />

Rechtfertigung, also das Zitieren anderer Aussagen zur Begründung,<br />

ganz zu verzichten? Das ist zumindest die Ansicht der Fundamentalisten,<br />

für die es basale Meinungen gibt, die einer inferentiellen Rechtfertigung<br />

nicht bedürfen. Diese basalen Überzeugungen sind selbstrechtfertigend<br />

oder sie werden durch eine nicht-inferentielle Bezugnahme auf nicht-begriffliche<br />

Wahrnehmungszustände gerechtfertigt. In Kapitel (III.B) wurde<br />

gezeigt, daß Aussagen im allgemeinen nicht selbstrechtfertigend sind,<br />

sondern einer anderen Begründung bedürfen. Nur wenn sie in einem gewissen<br />

Sinn inhaltsleer sind, also z. B. analytisch wahre Aussagen, kann<br />

man nicht mehr von einem Irrtumsrisiko sprechen, womit die Frage<br />

nach einer (empirischen) Begründung überflüssig erscheint. Beinhaltet<br />

die Aussage hingegen eine empirische Behauptung, gibt es die realistische<br />

Möglichkeit, daß die Aussage falsch sein kann, und wir sind selbstverständlich<br />

dann auch berechtigt, nach Gründen für sie zu fragen. Bon-<br />

Jour hat dazu den Einwand des Kriteriums entwickelt, der zeigt, warum<br />

es eigentlich keine basalen empirischen Meinungen geben kann. Um<br />

diese theoretische Überlegung zur Struktur von Begründungen zu untermauern,<br />

wurden zusätzlich konkrete empiristische Positionen aus der<br />

Philosophiegeschichte und auch neueren Datums untersucht, für die sich<br />

noch weitere Schwächen aufzeigen ließen.<br />

Nachdem somit einige grundsätzlich andere Zugangsweisen zu epistemischen<br />

Rechtfertigungen als untauglich zurückgewiesen wurden,<br />

ging es im folgenden darum, den einzig verbliebenen Weg auszugestalten:<br />

Rechtfertigungen sind immer inferentieller Natur und haben sich jeweils<br />

auf andere Aussagen zu stützen. Allerdings ist zu diesem Zeitpunkt<br />

noch offen, wie diese inferentiellen Beziehungen beschaffen sein sollen.<br />

Natürlich sind zunächst die deduktiven Schlüsse geeignete Kandidaten,


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 297<br />

um Begründungen zu liefern. Ihre Reichweite ist aber bekanntlich sehr<br />

beschränkt und auch in Fällen, in denen wir umgangssprachlich häufig<br />

so reden, als ob es sich um logische Schlüsse handelt, stoßen wir bei genauerem<br />

Hinsehen auf eine Inferenz eines anderen Typs, nämlich auf<br />

Schlüsse auf die beste Erklärung. Anhand einer ganzen Reihe von Beispielen<br />

aus den unterschiedlichsten Bereichen unseres Wissens konnte<br />

ich demonstrieren, wie weit verbreitet die Abduktion ist und daß auch<br />

andere bekannte Schlußformen wie die konservative Induktion sich am<br />

besten als Unterarten der Abduktion verstehen lassen. Da der Schluß auf<br />

die beste Erklärung intuitiv eine große rechtfertigende Wirkung besitzt<br />

und Erklärungen auch in der anderen Richtung begründend wirken,<br />

übernehmen Erklärungsbeziehungen eine zentrale Rolle in meiner<br />

Rechtfertigungstheorie als Kohärenzstifter. Einige unangenehme Eigenschaften,<br />

die Erklärungen für gewöhnlich unterstellt werden, wie daß sie<br />

auf unsere jeweiligen Interessen zu relativieren seien und damit subjektiv<br />

in einem vitiösen Sinn des Wortes wären oder daß sie selbst wiederum<br />

nur anhand des Begriffs der Rechtfertigung zu definieren seien, konnten<br />

zurückgewiesen werden. Wie die logischen Beziehungen sind damit die<br />

Erklärungsbeziehungen objektive Beziehungen zwischen unseren Meinungen<br />

und fügen diese zu einem komplizierten Netz von Überzeugungen,<br />

einem System, zusammen.<br />

Sowohl für Rechtfertigungen wie auch für Erklärungsbeziehungen<br />

wissen wir, daß sie nicht nur lokal zu beurteilen sind, sondern daneben<br />

globale Bezüge aufweisen, die in einer Kohärenztheorie der Rechtfertigungen<br />

ebenfalls zu berücksichtigen sind. Mein eigenes Modell von Kohärenz<br />

versucht gerade die verschiedenen Aspekte von Kohärenz sauber<br />

auseinanderzuhalten, aber auch die wechselseitigen Abhängigkeiten darzustellen.<br />

Für diese Kohärenztheorie der Rechtfertigung läßt sich dann zeigen,<br />

daß sie eine Reihe grundlegender epistemischer Aufgaben besser erfüllen<br />

kann als ihre Konkurrenten. Zunächst kann sie in die Domäne der empiristischen<br />

Erkenntnistheoretiker einbrechen und sowohl die Rechtfertigung<br />

wie auch die Zurückweisung von Beobachtungsüberzeugungen in<br />

natürlicherer Weise beschreiben als empiristische Fundamentalisten. Die<br />

haben Schwierigkeiten, die zuverlässigen von den unzuverlässigen Wahrnehmungen<br />

zu trennen. Diese beiden Klassen von Wahrnehmungen lassen<br />

sich nämlich nicht in einfacher Weise nach inhaltlichen Aspekten unterscheiden,<br />

sondern, wohin eine Meinung gehört, variiert insbesondere<br />

in Abhängigkeit von äußeren Situationsbedingungen und unserem Hintergrundwissen<br />

darüber. Der Kohärenztheoretiker kann für die Beurtei-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 298<br />

lung einer Beobachtungsüberzeugung all unser Wissen über Wahrnehmungen<br />

und die jeweilige Situation in Anschlag bringen, wodurch er viel<br />

flexibler auf die verschiedenen Fälle und Wissensentwicklungen eingehen<br />

kann, als das einem Empiristen möglich ist.<br />

Auch zum Regreßproblem hat der Kohärenztheoretiker eine zufriedenstellende<br />

Antwort anzubieten, die jedenfalls plausibler ausfällt, als<br />

die des Fundamentalisten. Während es für letzteren eine Gruppe von<br />

Meinungen gibt, die in dem anspruchsvollen Sinn, der hier zur Debatte<br />

steht, letztlich nicht zu rechtfertigen sind, sind in einem hochkohärenten<br />

Überzeugungssystem alle Elemente durch verschiedene inferentielle Verbindungen<br />

der Überzeugungen untereinander gerechtfertigt. Dabei sprechen<br />

wir nicht mehr von linearen Rechtfertigungen, die in unendliche<br />

Ketten von Aussagen münden oder sich zu einfachen Zirkeln zusammenschließen,<br />

sondern von einer holistischen Rechtfertigung in einem Netz<br />

von sich wechselseitig stützenden Meinungen. Das Zusammenpassen unserer<br />

Meinungen zu einem Gesamtbild bietet für uns einen guten Grund,<br />

davon überzeugt zu sein, daß es wesentliche Aspekte der Welt richtig beschreibt.<br />

Unsere Weltsicht ist vergleichbar mit der Vorlage für ein Puzzle.<br />

Ob wir dabei die richtige Vorlage ausgewählt haben, ergibt sich daraus,<br />

ob die Puzzlesteinchen, die wir schon haben und die, die wir noch finden,<br />

in dieser Vorlage unterzubringen sind. Je mehr Steinchen wir tatsächlich<br />

einfügen können, um so mehr spricht das für unsere Vorlage.<br />

Wenn diese Steine noch zu ganz unterschiedlichen Gebieten der Vorlage<br />

gehören, um so besser. Das deutet darauf hin, daß die Vorlage und unsere<br />

Puzzlesteinchen nicht nur in bestimmten Teilbereichen zusammenpassen,<br />

sondern auch im Großen einander entsprechen. Das Passen der<br />

Steinchen zur Vorlage an einer bestimmten Stelle ist dabei schon als indirekter<br />

Hinweis zu werten, daß unsere Vorlage wohl auch an anderer<br />

Stelle stimmen wird. Diese Analogie soll noch einmal den intuitiven<br />

Aspekt von holistischer Rechtfertigung und speziell der Rechtfertigung<br />

einzelner Meinungen anhand des guten Zusammenpassens der vielen<br />

kleineren Bestimmungsstücke anhand umfassender Theorien vorführen.<br />

114 Den internen Skeptiker können wir also auf die hohe Kohärenz<br />

114 Haack (1993, 84ff) erläutert diesen holistischen Zusammenhang anhand<br />

der Lösung eines Kreuzworträtsels, bei der die Richtigkeit jeder Eintragung<br />

aufgrund ihres Zusammenpassens mit den anderen Eintragungen ermittelt wird.<br />

Lipton (1991, 159f) gibt uns das Beispiel einer Landkarte, von der wir zunächst<br />

nicht wissen, ob sie ein bestimmtes Gebiet korrekt wiedergibt. Aber je mehr Teilgebiete<br />

sich als zutreffend herausstellen, desto mehr Grund haben wir anzunehmen,<br />

daß die ganze Landkarte stimmt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 299<br />

und Stabilität des Netzes trotz zahlreichen Beobachtungsinputs über einen<br />

längeren Zeitraum verweisen, der dafür spricht, das ganze Netz als<br />

eine angemessene Repräsentation der Wirklichkeit zu betrachten. Nur<br />

der radikale Skeptiker, der alle unsere gewöhnlichen Überzeugungen zunächst<br />

beiseite schieben möchte, kann dann noch nach einer externen<br />

Rechtfertigung des Netzes als Ganzem fragen.<br />

Sobald uns ein Skeptiker zugesteht, daß die Beobachtungsüberzeugungen<br />

zum überwiegenden Teil wichtige Informationen über unsere<br />

Umwelt verkörpern, haben wir damit eine gewisse Handhabe, um seine<br />

Einwände zurückzuweisen. Wir verfügen über eine gute Erklärung für<br />

ihr Auftreten, die diese in ein komplexes Gesamtbild der Welt einbettet,<br />

zu dem er keine gleichwertige Alternative anzubieten weiß. Das Netz unserer<br />

Meinungen dient dabei als eine Art von globaler Theorie, die unsere<br />

Tatsachen, die alten und die neu hinzukommenden, sehr gut assimiliert,<br />

was intern eine weitere Bewährung der Theorie bedeutet.<br />

Auch den anderen naheliegenden und häufig gegen Kohärenztheorien<br />

ins Feld geführten Einwänden kann man begegnen. Die Befürchtung,<br />

daß das Netz sich kausal isoliert von der Welt entwickeln könnte,<br />

ließ sich mit dem Hinweis zerstreuen, daß die spontanen Meinungen genau<br />

den gesuchten kausalen Input verkörpern, der diese Isolation verhindert.<br />

Dem Einwand, es könne verschiedene gleichkohärente Netze<br />

geben, muß die Kohärenztheorie insoweit zustimmen, daß sie – wie andere<br />

Erkenntnistheorien auch – das Auftreten theoretischer Unterbestimmtheit<br />

nicht völlig ausschließen kann, ihm jedoch weit mehr entgegenzusetzen<br />

hat, als das z. B. für fundamentalistische Rechtfertigungstheorien<br />

der Fall ist. Das gilt besonders dann, wenn sie wie in der vorliegenden<br />

Theorie noch mit einer konservativen Metaregel kombiniert<br />

wird, die die Stabilität eines Überzeugungssystems unterstützt. Damit<br />

kann die KTR insgesamt als eine sinnvolle und begründete Fortentwicklung<br />

der Theorie der epistemischen Rechtfertigung betrachtet werden,<br />

in der ein vorläufiges reflektives Gleichgewicht zwischen theoretischen<br />

Anforderungen, typischen Beispielen von Rechtfertigungen und intuitiven<br />

Vorstellungen von Rechtfertigung erreicht wurde. Die größere Herausforderung<br />

findet sich dann wohl nur noch in den radikaleren Formen<br />

der Skepsis, denen ich den größeren Teil des Kapitels gewidmet habe.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 300<br />

B. Externe Skepsis<br />

Die antike Skepsis etwa eines Sextus Empiricus verfolgte noch durchaus<br />

praktische Absichten und hoffte mit ihren Argumenten eine bestimmte<br />

Geisteshaltung fördern zu können, die aus einem sich Enthalten von allen<br />

Urteilen besteht, von der sie annahm, daß sie zu innerer Ruhe und<br />

damit letztlich zum Glücklichsein führt. Die modernen Skeptiker finden<br />

dagegen ihren geistigen Urvater in Descartes und insbesondere in seiner<br />

ersten Meditation. Ihre Ziele sind eher theoretischer Natur. Sie wollen<br />

eine bestimmte Position in der Erkenntnistheorie beziehen, nach der<br />

z. B. Wissen unmöglich ist. Der Gesprächspartner in diesem Kapitel ist<br />

naheliegender Weise ein Skeptiker des zweiten Typs, da nur er als Kontrahent<br />

zur hier vertretenen Theorie der Rechtfertigung anzusehen ist.<br />

Trotzdem möchte ich vorab noch kurz auf eine vermeintlich praktische<br />

Konsequenz des Skeptizismus eingehen, die schon Russell für den<br />

Skeptiker einnahm und in neuerer Zeit von Popperianern wie Musgrave<br />

(1993, 25ff) wiederum aufgegriffen wird. Danach sind Skeptiker die<br />

besseren Menschen, denn sie verschreiben sich nicht mit Leib und Seele<br />

Institutionen wie z. B. der Inquisition. Das ist nur von einem Dogmatiker<br />

– so nennt Musgrave etwas irreführend den Gegner des Skeptikers –<br />

zu erwarten. Musgrave zitiert dazu Montaigne, der gegenüber den Praktiken<br />

der Inquisition anmerkt: „Es heißt unsere Vermutungen sehr hoch<br />

einzuschätzen, wenn man auf ihrer Grundlage Leute röstet.“ Doch sowenig<br />

sich ein wirklicher Skeptiker von Überlegungen der Kirche zum<br />

Seelenheil der Befragten beeindrucken und in seinem Handeln leiten ließe,<br />

sowenig würden ihn auch moralische Appelle vom Foltern seiner<br />

Mitmenschen abhalten können, wenn er dazu gerade einmal Lust hätte.<br />

Er würde auf Vorhaltungen entgegnen, wir hätten keinen Grund anzunehmen,<br />

unsere moralischen Überzeugungen wären richtiger als beliebige<br />

andere Verhaltensregeln. Außerdem wären sie schon dadurch unbegründet,<br />

daß unsere Annahme, es gäbe eine Person, die dabei Schmerzen<br />

empfindet, von ihm nicht mitgetragen würde.<br />

Musgrave (1993, 23ff) selbst weist auf Anekdoten aus der Antike<br />

hin, die praktische Konsequenzen aus einer skeptischen Haltung in dieser<br />

Richtung erkennen lassen. So erzählt Pyrrho, daß er an seinem alten<br />

Philosophielehrer vorbeigegangen sei, als der in einer äußerst mißlichen<br />

Lage im Graben feststeckte, ohne ihm zu helfen. Für ihn läge nämlich<br />

kein ausreichender Grund vor zu glauben, er täte etwas Gutes, wenn er<br />

ihm geholfen hätte. Natürlich lobte ihn sein Lehrer ob seiner konsequenten<br />

Haltung.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 301<br />

Tatsächlich geht es in Fällen wie der Inquisition auf der einen Seite<br />

um eine gewisse Toleranz gegenüber Andersdenkenden, die vermutlich<br />

durch einen Fallibilismus gefördert wird. Er macht uns klar, daß unsere<br />

eigenen Meinungen fehlbar sind und wir daher nach Möglichkeit keine<br />

Konsequenzen aus ihnen ziehen sollten, die schreckliche Folgen für andere<br />

Menschen haben können. Auf der anderen Seite ist der umfassende<br />

Skeptizismus wiederum zu tolerant, wenn es um die Beurteilung sozial<br />

schädlichen menschlichen Verhaltens geht. Für ihn lassen sich nämlich<br />

keine Gründe auch gegen die schlimmsten Auswüchse menschlichen Verhaltens<br />

geltend machen. Ein konsequenter Skeptizismus würde also<br />

höchstens dazu führen, daß sich Menschen vollkommen nach ihren momentanen<br />

Neigungen verhalten und keine motivierenden Vernunftgründe<br />

für eine Änderung ihres Verhaltens akzeptieren. Er würde die Welt<br />

nur dann zu einem „glücklicheren Platz machen“ (Musgrave 1993, 28),<br />

wenn sie bereits von besonders sanftmütigen Menschen bewohnt würde.<br />

Doch daran zu zweifeln haben wir gewiß gute Gründe.<br />

Doch nun zurück zu den theoretischen Konsequenzen des Skeptizismus.<br />

Im Unterschied zum internen Skeptiker geht der externe Skeptiker<br />

einen Schritt weiter und greift nicht nur bestimmte Teile oder Bereiche<br />

unserer Annahmen an, sondern stellt alle auf einmal in Frage. Er verlangt<br />

nach einer unvoreingenommenen Sicht von einem zu unseren Meinungen<br />

externen Standpunkt auf unser gesamtes Überzeugungssystem.<br />

Der externe Skeptizismus scheint damit auf den ersten Blick nur eine<br />

konsequente und etwas weitergehende Fortführung der internen Skepsis<br />

darzustellen – aber dieser Schritt erweist sich letztlich doch als schwerwiegender.<br />

Ein erster Schritt in der Auseinandersetzung mit dem externen<br />

Skeptiker wird in der Klärung bestehen, wie folgenschwer dieser<br />

Schritt tatsächlich ist. Erst diese Präzisierung ermöglicht eine Untersuchung<br />

verschiedener Erwiderungen. So ist der radikale Skeptizismus zunächst<br />

von der Position des Fallibilismus zu unterscheiden, gegen die ich<br />

mich keineswegs wenden möchte, die aber in ungenauen Formulierungen<br />

dem Skeptizismus sehr ähnlich scheint. Verfällt man jedoch einer<br />

Konfusion von Fallibilismus und radikalem Skeptizismus gewinnt der<br />

letztere erheblich an Attraktivität, gehört doch eine fallibilistische Haltung<br />

geradezu zum modernen wissenschaftlichen Weltbild dazu.<br />

1. Fallibilismus und Skeptizismus<br />

Das wohl klarste Plädoyer gegen jede Form von Dogmatismus und speziell<br />

gegen eine dogmatische Auffassung wissenschaftlicher Erkenntnisse


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 302<br />

stellt Poppers Logik der Forschung dar. Aber als Vorläufer Poppers sind<br />

aus Gründen der Gerechtigkeit zumindest Whewell und Peirce zu nennen.<br />

Sie haben demonstriert, daß wir für jede unserer Überzeugungen<br />

für Kritik offen bleiben müssen und sie immer nur als vorläufige Hypothese<br />

gelten darf, die im Prinzip falsch sein kann. Es gibt gemäß dieser<br />

fallibilistischen Ansicht von unserer Erkenntnis keinen Königsweg von<br />

sicheren Beobachtungssätzen – etwa mit Hilfe einer induktiven Logik –<br />

zu sicheren wissenschaftlichen Theorien. Nach Popper sollten wir unsere<br />

Theorien solange akzeptieren, wie sich keine widersprüchlichen Beobachtungen<br />

gefunden haben, die zu einer Falsifikation führen, dabei jedoch<br />

immer die metatheoretische Einschätzung unseres Wissens als hypothetisch<br />

im Hinterkopf behalten. Von der realen Möglichkeit falsch<br />

zu sein, sind dabei nicht nur unsere Theorien betroffen, sondern sie ist<br />

durchgängig und betrifft genauso unsere Wahrnehmungsüberzeugungen<br />

verschiedenster Herkunft. Dieser Fallibilismus auf der Metaebene kann<br />

mit einem festen Glauben an bestimmte Theorien auf der Objektebene<br />

einhergehen, der allerdings mit der Bereitschaft zu einer Revision für<br />

den Fall verknüpft sein muß, daß Falsifikationsinstanzen auftreten. Auch<br />

wenn Poppers Konzeption der Wissensdynamik inzwischen zu Recht<br />

kontrovers betrachtet wird (s. II.A.3.b), bleibt doch der Fallibilismus als<br />

wesentliche Einsicht Poppers erhalten.<br />

An dieser Stelle kann der Skeptiker einbringen, ein Fallibilist sei<br />

doch im Grunde seines Herzens auch ein radikaler Skeptiker, erwägt er<br />

doch für all unser Wissen die Möglichkeit, daß es falsch sein könnte.<br />

Das vorläufige Festhalten des Fallibilisten an unseren bisherigen Theorien<br />

läßt sich dabei als eine bloß pragmatische Einstellung interpretieren,<br />

um für praktische Entscheidungen gerüstet zu bleiben. Seine epistemische<br />

Überzeugung, daß im Prinzip alle unsere Meinungen unzutreffend<br />

sein könnten, deckt sich dagegen mit den erkenntnistheoretischen Ansichten<br />

des Skeptikers.<br />

Um Fallibilist bleiben zu können, ohne sich damit dem radikalen<br />

Skeptizismus verschreiben zu müssen, ist eine deutlichere Abgrenzung<br />

dieser Positionen notwendig geworden. Die ist nicht unproblematisch<br />

und wird in der Regel nicht explizit thematisiert. In hauptsächlich zwei<br />

Aspekten möchte ich diese Unterscheidung vornehmen. 115 Da ist zunächst<br />

der epistemologische Konservatismus, den ich als Bestandteil meiner<br />

fallibilistischen Metatheorie verstehe. Die vorläufige Beibehaltung<br />

meiner bisherigen Überzeugungen wird damit nicht als bloß pragmati-<br />

115 Die folgenden Bedingungen sollen mein Verständnis des Fallibilismus<br />

erläutern und nicht etwa Poppers Erkenntnistheorie darstellen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 303<br />

scher Natur eingestuft, sondern hat durchaus epistemischen Wert. Das<br />

bisherige Haben einer Überzeugung wird als ein, wenn auch schwacher,<br />

aber doch epistemischer Grund für diese Überzeugungen betrachtet. Das<br />

paßt zur wissenschaftlichen Praxis, in der Theorien nicht zunächst aus<br />

einer bloßen Laune heraus akzeptiert und dann erst Falsifikationsversuchen<br />

ausgesetzt werden, die als erste epistemische Tests gelten können.<br />

Sie entstehen bereits in einem bestimmten Umfeld, das diese Theorien<br />

mit (eventuell theoretischen) Gründen nahelegt, selbst wenn noch keine<br />

konkreten empirischen Tests angegeben werden können. Dafür sprechen<br />

unter anderem die vielen gleichzeitigen Entdeckungen der Wissenschaftsgeschichte<br />

und die Entwicklung von Theorien wie z. B. den Relativitätstheorien,<br />

für die es zu Beginn praktisch keine direkten Belege<br />

gab, die aber deshalb nicht von ihren Vertretern aus rein pragmatischen<br />

Erwägungen vorgeschlagen wurden. Die frisch akzeptierten Theorien<br />

sind trotz ihres Hypothesencharakters bereits durch einige im Anfang<br />

meist noch schwache Kohärenzüberlegungen zu begründen. Im Unterschied<br />

zur Position des radikalen Skeptikers sind also nicht alle denkbaren<br />

Theorien epistemisch gleichwertig, sondern einige sind besser begründet<br />

als andere. Der Fallibilist muß ihnen gegenüber keine radikal<br />

skeptische Haltung einnehmen.<br />

Ein anderer Aspekt für eine Unterscheidung ist der des Umfangs von<br />

Meinungen, die gleichzeitig falsch sein können. Auch wenn das im Fallibilismus<br />

nicht explizit angesprochen wird, denkt man doch eher an den<br />

Fall, in dem jeweils nur kleinere Teile unseres Wissens gleichzeitig betroffen<br />

sind – selbst wenn keine bestimmten Teile von der Möglichkeit,<br />

falsch zu sein, auszunehmen sind. Sonst wäre auch nicht verständlich,<br />

wie Popper erwarten könnte, daß sich bestimmte Theorien widerlegen<br />

lassen oder anhand ernsthafter Falsifikationsversuche bewähren können,<br />

denn in diesen Falsifikationsversuchen sind wir darauf angewiesen, uns<br />

anderer Überzeugungen und Theorien zu bedienen. Der Fallibilist<br />

gleicht hier eher dem internen Skeptiker als dem externen.<br />

Gegen diesen zweiten Aspekt kann der radikale Skeptiker allerdings<br />

geltend machen, daß in der ursprünglichen Einsicht des Fallibilisten,<br />

nach der wir uns in keiner Überzeugung völlig sicher sein können, eigentlich<br />

kein Platz für eine Beschränkung des Umfangs vorgesehen ist.<br />

Wenn wir zustimmen, daß im Prinzip alle unsere Meinungen auf der Objekt-<br />

und auch auf der Metaebene betroffen sein können, warum sollte<br />

der Irrtum dann etwa bei einem Anteil von 30% oder irgendeinem anderen<br />

Prozentsatz stehenbleiben? Der Fallibilismus allein gibt für eine Be-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 304<br />

schränkung noch keine Handhabe, aber er soll im folgenden hier immer<br />

so verstanden werden.<br />

Die Unterscheidung des radikalen Skeptikers von einem Fallibilisten<br />

sollte klären, wogegen ich nicht argumentieren möchte, nämlich die<br />

Idee des Fallibilismus, wonach wir keine irrtumssichere Erkenntnis haben.<br />

Daraus muß natürlich noch keineswegs folgen, daß es kein Wissen<br />

oder keine Rechtfertigungen geben kann. Diese weitergehenden skeptischen<br />

Behauptungen sind erst noch zu untersuchen. Zur Debatte stehen<br />

dabei nur die Annahmen des Skeptikers, die über den Fallibilismus, dem<br />

ich zustimme, hinausgehen.<br />

2. Wissensskeptizismus und Rechtfertigungsskeptizismus<br />

Um die Behauptung des radikalen Skeptikers in bezug auf mein Projekt<br />

einer Theorie der Rechtfertigung zu bestimmen, ist wiederum die Unterscheidung<br />

in verschiedene erkenntnistheoretische Unternehmungen<br />

sinnvoll. Vis-à-vis dem Wissensbegriff stehen ihm andere Schachzüge zur<br />

Verfügung als gegenüber epistemischen Rechtfertigungen. Der Wissensbegriff<br />

enthält z. B. einige spezielle inhaltliche Aspekte, die als Ansatzpunkte<br />

für den Skeptiker geeignet erscheinen.<br />

Da findet sich zunächst für den Wissensbegriff – wenigstens in einigen<br />

Kontexten – die Forderung nach Gewißheit. Wenn ich eines von einer<br />

Million Lose gekauft habe, von denen nur eines gewinnt, steht<br />

meine Chance zu gewinnen, außerordentlich schlecht. Trotzdem kann<br />

ich kaum mit Recht behaupten, ich wüßte schon, daß mein Los verliert.<br />

Es gibt immer noch eine klar erkennbare Möglichkeit, doch zu gewinnen.<br />

Würde ich diese Möglichkeit nicht zur Kenntnis nehmen, hätte ich<br />

mir auch kaum ein Los gekauft. Dieser Aspekt der für Wissen erforderlichen<br />

Gewißheit gibt dem radikalen Skeptiker die Möglichkeit seine<br />

Skepsis ins Spiel zu bringen, denn im allgemeinen verfügen wir nicht<br />

über diese Gewißheit, oder sie ist jedenfalls unbegründet. 116 Das besagt<br />

gerade die metatheoretische Ansicht des Fallibilismus. Können wir dann<br />

also niemals Wissen erlangen?<br />

116 Diese Komponente stellt auch ein tieferliegendes Problem für eine Explikation<br />

von „Wissen“ dar, denn in anderen umgangssprachlichen Verwendungen<br />

des Begriffs sprechen wir auch von Wissen, ohne daß eine entsprechende<br />

Gewißheit vorliegt. Der Wissenstheoretiker möchte sich deshalb und aus theoretischen<br />

Gründen gern von der Gewißheitsforderung befreien. Es ist aber schwer<br />

zu sehen, wie er dann auf der anderen Seite mit den skizzierten Intuitionen, daß<br />

Wissen Gewißheit impliziert, umgehen soll.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 305<br />

Für den Rechtfertigungsbegriff ist dieser Schachzug des Skeptikers<br />

glücklicherweise nicht in derselben Weise möglich. In unserem Beispiel<br />

kann ich durchaus behaupten, sehr gute Gründe für meine Annahme zu<br />

haben, daß ich nicht gewinnen werde. Dem steht auch die kleine Chance,<br />

daß mein Los doch gezogen wird, nicht im Wege. Diese Gründe sind<br />

auch nicht durch den Zusammenhang von epistemischen Rechtfertigungen<br />

und Rationalität gefährdet. Es kann rational sein, sich ein Los zu<br />

kaufen, obwohl wir gute Gründe haben anzunehmen, daß wir nicht gewinnen.<br />

Zwar ist es prima facie nicht rational, auf eine sehr kleine<br />

Chance, Erfolg zu haben, ein Los zu kaufen, aber ich muß neben den<br />

Wahrscheinlichkeiten für das Eintreten von Gewinn und Verlust für eine<br />

Kalkulation der rationalen Handlungsweise ebenso ihre jeweilige Höhe<br />

mit einberechnen. Hier steht bei Lotterien einem relativ kleinen Einsatz<br />

ein großer Gewinn gegenüber, der Defizite bei den Wahrscheinlichkeiten<br />

ausgleichen kann.<br />

Außerdem hat das Lottospielen Spielcharakter, wobei man den Gewinn<br />

nicht nur aus dem materiellen Gewinn, sondern auch aus dem Vergnügen<br />

am Spiel bezieht. Würde man davon absehen, wäre es vielleicht<br />

nüchtern betrachtet nicht rational, Lotto zu spielen. Daß wir gute Gründe<br />

haben, von einem Verlust auszugehen, zeigt sich dann eher für unser<br />

Verhalten nach dem Loskauf. Wir würden denjenigen, der sich auf ein<br />

Los hin mit entsprechend teuren Gegenständen eindeckt, als irrational<br />

bezeichnen. Bis zum tatsächlichen Gewinn besteht eine rationale Strategie<br />

nur darin, von einem Verlust auszugehen und keine Investitionen auf<br />

einen zu erwartenden Lottogewinn zu tätigen. Der Ankauf des Loses<br />

selbst kann aber deswegen noch nicht als irrational bezeichnet werden.<br />

Das erklärt, wie wir darin gerechtfertigt sein können, einen Verlust zu<br />

erwarten, obwohl es vernünftig sein kann, sich ein Los zu kaufen. Wir<br />

können uns unseres Verlustes eben noch nicht sicher sein. Rechtfertigung<br />

ist eine Sache des Grades, und erst bei „vollkommener“ Rechtfertigung<br />

oder Wissen bleibt dieser Spielraum für rationales Verhalten nicht<br />

mehr übrig.<br />

Ein weiterer Punkt für eine Unterscheidung ist die Notwendigkeit,<br />

radikale skeptische Hypothesen definitiv zurückzuweisen. Unter anderem<br />

Stroud (1984, 29) weist darauf hin, daß wir für Wissen auch alle die<br />

Hypothesen widerlegen können müssen, die dem Wissen im Wege stehen,<br />

ja sogar wissen müssen, daß sie falsch sind. Wir können das als<br />

Prinzip (Z) für Zurückweisung formulieren:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 306<br />

Zurückweisung skeptischer Hypothesen (Z)<br />

Wenn S weiß, daß p, so weiß S, daß nicht-H, für alle skeptischen Hypothesen<br />

H, die mit dem Wissen, daß p für S inkompatibel sind.<br />

Das Prinzip (Z) scheint für Wissen recht plausibel, weil für Wissen das<br />

bereits (in III.A.1.c) genannte Prinzip der logischen Abgeschlossenheit<br />

naheliegt. Zusammen mit unserem Wissen um die skeptischen Hypothesen<br />

führt es nach Stroud (1984, 30) unausweichlich in den Wissensskeptizismus.<br />

Eine entsprechende Forderung ist jedoch für Rechtfertigungen<br />

kaum vertretbar. Um über eine Rechtfertigung für meine Annahme zu<br />

verfügen, daß die Erde um die Sonne kreist, muß ich noch keine Rechtfertigungen<br />

besitzen, daß ich kein Gehirn im Topf bin. Unser Rechtfertigungsbegriff<br />

ist in diesem Punkt schwächer und läßt es sogar zu, gute<br />

Gründe für inkompatible Meinungen haben. Um nicht inkonsistent zu<br />

sein, werden wir nicht zwei inkompatible Meinungen gleichzeitig akzeptieren,<br />

aber wir können Gründe für beide Meinungen besitzen, denn<br />

Gründe sind nur Wahrheitsindikatoren und implizieren nicht bereits<br />

Wahrheit, wie das für Wissen der Fall ist. Damit wir dann eine der beiden<br />

Meinungen begründet akzeptieren können, müssen unsere Gründe<br />

allerdings für eine Seite deutlich überwiegen. Der Skeptiker muß gegen<br />

Rechtfertigungen seine skeptischen Einwände also anders formulieren<br />

als gegen Wissensbehauptungen. 117<br />

Ein zusätzlicher Punkt, wo der Skeptiker gegen Wissensansprüche<br />

Ansatzpunkte für plausible Einwendungen finden kann, den er für<br />

Rechtfertigungen so nicht vorfindet, ist die Mischung von externen und<br />

internen Aspekten im Wissensbegriffs. Auf der externen Seite wird von<br />

Wissen unter anderem verlangt, daß es sich um wahre Überzeugungen<br />

handelt und auf der internen Seite, daß man über entsprechende Begründungen<br />

für die Überzeugungen verfügt. Damit diese Begründungen<br />

aber nicht nur Beiwerk bleiben, müssen sie an die externen Forderungen<br />

heranreichen und Begründungen sein, die tatsächlich die „richtigen“<br />

Gründe für die Annahme der jeweiligen Überzeugung darstellen und<br />

nicht bloß Gründe, die mit der Wahrheit der Überzeugung nur zufällig<br />

zusammentreffen. Das können wir aus der Diskussion der Gettier-Beispiele<br />

lernen. Damit ist die interne Komponente des Wissensbegriffs<br />

aber überfordert, so daß man häufig versucht, auch sie durch externe<br />

Komponenten abzustützen, die Rechtfertigungen eigentlich fremd sind.<br />

117 Audi (1993, 356ff) belegt anhand von Beispielen, daß ein entsprechendes<br />

Prinzip der deduktiven Abgeschlossenheit für Rechtfertigungen nicht gilt.<br />

Eine derartiges Prinzip müßte sich übrigens auch wieder auf die schon abgelehnte<br />

lineare Vorstellung von Rechtfertigungen stützen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 307<br />

Z. B. Moser (1991, 242ff) verlangte von den Rechtfertigungen, die zu<br />

Wissen führen, sie müßten wahrheitsresistent („truth resistant“) sein;<br />

d.h. daß die Rechtfertigungen mit allen wahren Aussagen – auch solchen,<br />

von denen das epistemische Subjekt nichts weiß – verträglich sind.<br />

Dem Skeptiker gibt das Gelegenheit einzuwenden, Wissen sei nicht möglich,<br />

weil wir nie wirklich über Begründungen verfügen, die solch hohen<br />

Anforderungen genügen können, wie sie von der Wahrheitsresistenzforderung<br />

ins Spiel gebracht werden.<br />

Das Konzept der allgemeinen epistemischen Rechtfertigung ist dagegen<br />

rein intern. Was eine Rechtfertigung ist, läßt sich allein aus der Innenperspektive<br />

beurteilen. Da die selbst von Skeptikern wie dem Cartesischen<br />

meist als unproblematisch zugestanden wird, hat der Skeptiker<br />

dann keine Möglichkeit sich einzuschalten mit einer Bemerkung wie: Du<br />

glaubst nur, über eine Rechtfertigung zu verfügen, aber es ist in Wirklichkeit<br />

keine. Wir könnten ihm entgegenhalten: Wenn alle internen<br />

Merkmale einer Rechtfertigung vorliegen, können wir zu Recht behaupten<br />

– anders als beim Wissensbegriff, bei dem eine entsprechende Rechtfertigung<br />

externe Anforderungen zu erfüllen hat –, es sich auch um<br />

wirklich eine Rechtfertigung handelt.<br />

Den Skeptiker, der diese Erwiderung nicht zu akzeptieren gedenkt,<br />

möchte ich auf ein Beispiel verweisen, das in ähnlicher Form Stroud<br />

(1984, 41) diskutiert. Jemand stellt die ungewöhnliche Behauptung auf,<br />

es gäbe keine Ärzte in Berlin, die unserem Wissen massiv zu widersprechen<br />

scheint. Er begründet sie dann damit, daß er unter „Arzt“ nur jemand<br />

mit einem „Dr. med.“ und der Fähigkeit, jede Krankheit in zwei<br />

Minuten zu heilen, versteht. Diese Definition von „Arzt“ erlaubt es ihm<br />

nun tatsächlich, seine ursprüngliche Behauptung aufrecht zu erhalten,<br />

aber sie steht auch nicht mehr im Widerspruch zu unserer Überzeugung,<br />

daß es sehr viele Ärzte – im gewöhnlichen Sinn des Wortes – in Berlin<br />

gibt. Wenn der radikale Skeptiker in bezug auf Rechtfertigungen nur<br />

eine Art von „Ärzte-Skeptiker“ wie in unserem Beispiel sein möchte,<br />

kann er sich weigern, das, was wir üblicherweise als Rechtfertigungen<br />

anerkennen, ebenfalls anzuerkennen. Aber er äußert dann keine Behauptung,<br />

die unserer widerspricht, und wir können auf seinen Einwand mit<br />

einem Achselzucken reagieren.<br />

So leicht wird sich der Skeptiker natürlich nicht geschlagen geben.<br />

Er kann uns mit einem entsprechenden Problem auf einer anderen Ebene<br />

erneut konfrontieren. Epistemische Rechtfertigungen werden von uns<br />

intern als solche eingestuft – soweit so gut. Auf der Metaebene der epistemischen<br />

Überzeugungen erwarten wir jedoch auch von gewöhnlichen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 308<br />

epistemischen Rechtfertigungen, daß sie eine externe Eigenschaft aufweisen.<br />

Rechtfertigungen müssen zwar keine Wahrheitsgaranten sein,<br />

denn das ist keineswegs schon im Rechtfertigungsbegriff angelegt, aber<br />

um ihre Funktion als epistemische Rechtfertigungen erfüllen zu können,<br />

müssen sie immerhin Wahrheitsindikatoren sein. Neben den internen Bedingungen<br />

für Rechtfertigungen, die etwa in entsprechenden Kohärenzforderungen<br />

bestehen können, bleibt also noch die Metaforderung, daß<br />

sie wahrheitsdienlich sein sollen. Das zeigt einen Ansatzpunkt auf, den<br />

der Skeptiker für einen Einwand von einem externen Standpunkt aus<br />

nutzen kann. Er fragt nun: Wie kannst du begründen, daß deine internen<br />

Rechtfertigungen auch tatsächlich wahrheitsdienlich sind? Darauf<br />

können wir ihm wieder nur interne Gründe entgegenhalten, wobei wir<br />

uns auf unsere gewöhnlichen epistemischen Überzeugungen zu berufen<br />

haben. Diese Antwort wird den radikalen Skeptiker natürlich nicht zufriedenstellen,<br />

denn für all diese internen Gründe stellt er ja gerade in<br />

Frage, daß sie wahrheitsdienlich sind. Damit stürzt der Skeptiker einen<br />

Internalisten in ein Dilemma, hat der Internalist doch darauf bestanden,<br />

für Begründungen nur das zu zählen, was uns kognitiv zugänglich ist.<br />

Das jedoch stellt der Skeptiker komplett in Frage. Er verlangt gerade<br />

nicht nach internen Gründen, sondern nach einem davon unabhängigen<br />

externen Standpunkt von dem aus sich die internen Rechtfertigungen als<br />

wahrheitsdienlich erweisen lassen. Stützen wir uns in unserer Argumentation<br />

gegen den Skeptiker z. B. auf den Schluß auf die beste Erklärung<br />

– indem wir etwa argumentieren, eine realistische Position in bezug auf<br />

die Außenwelt sei die beste Erklärung unserer Wahrnehmungen –, so<br />

kann der Skeptiker erwidern: Gerade für dieses Verfahren haben wir<br />

noch keinen unabhängigen Grund erhalten, warum wir es als Wegweiser<br />

zur Wahrheit einsetzen sollten.<br />

Über eine schnelle Antwort auf den Skeptiker der Metaebene verfügt<br />

natürlich wieder der Externalist, der auch an dieser Stelle erwidern<br />

könnte, die Frage nach der Wahrheitsdienlichkeit interner Begründungen<br />

sei nur eine Tatsachenfrage. Die könne man zwar nicht schlüssig entscheiden,<br />

aber wenn es eben der Fall ist, daß wir zuverlässige Informationsverarbeiter<br />

sind, deren Weltmodell einigermaßen zutreffend ist, so<br />

sind auch unsere gewöhnlichen Rechtfertigungsverfahren (insbesondere<br />

die Abduktion) wahrheitsdienlich und damit epistemische Rechtfertigungen<br />

– Schluß. Es ist dann nicht noch zusätzlich erforderlich, auch dafür<br />

wieder über Argumente zu verfügen. Der Skeptiker weist demnach nur<br />

noch auf eine Möglichkeit hin, die wir nicht ausschließen können, deren


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 309<br />

Möglichkeit allein aber Wissen und vor allem Rechtfertigungen noch<br />

nicht bedroht.<br />

Als Internalisten können wir uns nicht so einfach aus der Schlinge<br />

ziehen. Uns wird der Skeptiker in die Pflicht nehmen, doch bitte auch<br />

auf der Metaebene Internalist zu bleiben und mit Argumenten aufzuwarten,<br />

die gegen die skeptischen Hypothesen sprechen. Solange das nicht<br />

geschehen ist, hätten wir auch keine Rechtfertigungen von denen wir<br />

mit guten Gründen sagen könnten, daß es sich um Wahrheitsindikatoren<br />

handelt. Der skeptische Einwand gegen Rechtfertigungen kann kurz so<br />

zusammengefaßt werden:<br />

Rechtfertigungsskeptizismus<br />

Wir verfügen über keine (überzeugenden) Gründe für die erkenntnistheoretische<br />

Annahme, daß unsere (internen) Rechtfertigungen tatsächlich<br />

auf Wahrheit abzielen, solange wir keine Gründe dafür anführen<br />

können, daß die skeptischen Hypothesen falsch und unsere<br />

realistische Sicht der Welt richtig ist.<br />

Der radikale Skeptiker kann also zugestehen, intern seien unsere Rechtfertigungen<br />

als Rechtfertigungen anzuerkennen, wird aber unsere epistemische<br />

Überzeugung, daß solche Rechtfertigungen auch die Wahrscheinlichkeit<br />

des Gerechtfertigten erhöhen, bestreiten. Als radikaler<br />

Skeptiker wird er sogar für alle unsere Rechtfertigungen bezweifeln, daß<br />

sie der Wahrheitsfindung dienen. Um das zu erläutern und plausibel erscheinen<br />

zu lassen, kann er seine skeptischen Hypothesen ins Spiel bringen.<br />

Wenn wir nur Gehirne im Topf sind, ist aller Input, den wir erhalten,<br />

als Hinweis auf die Beschaffenheit der Außenwelt ungeeignet. Wir<br />

mögen auch als Gehirn in einer Nährlösung noch in bestimmten Annahmen<br />

im gewöhnlichen Sinn des Wortes gerechtfertigt sein, weil Rechtfertigung<br />

eine Angelegenheit interner Kohärenz ist, aber unsere Metaüberzeugung,<br />

diese Rechtfertigungen könnten uns helfen, die Wahrheit über<br />

die Außenwelt zu entdecken, ist in diesen Fällen falsch. Welchen Grund<br />

haben wir dann noch, so fragt der Skeptiker, die realistische Sicht der<br />

Welt gegenüber der des Skeptikers zu bevorzugen?<br />

Von der Frage des Skeptikers, welche Argumente wir gegen seine<br />

kausalen skeptischen Modelle von unserer Stellung in der Welt anführen<br />

können, sind auch unsere anderen epistemischen Überzeugungen betroffen.<br />

Auch sie stützen sich im Rahmen einer naturalistisch begründeten<br />

Kohärenztheorie auf unsere Konzeption von spontanen Beobachtungsüberzeugungen<br />

als wenigstens in gewissen Grenzen zuverlässigem Input<br />

von der Außenwelt, mit dessen Hilfe wir die Wahrheitsdienlichkeit unse-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 310<br />

rer Schlußverfahren überprüfen können. Daher dürfen wir uns gegen<br />

den Skeptiker seiner Ansicht nach auch nicht auf sie berufen, ohne eine<br />

petitio principii zu begehen. 118 Das läßt uns nur wenig Spielraum für<br />

eine Antwort, denn die hätte sich ganz im Sinne von KTR wiederum auf<br />

andere Annahmen zu stützen. Insbesondere können wir uns daher gegen<br />

den Skeptiker nicht auf den epistemologischen Konservatismus berufen,<br />

da sich unsere Begründungen für diese Metaregel auf wesentliche Teile<br />

unseres Weltbildes stützen und nicht völlig apriorischen Charakter haben.<br />

119<br />

Was läßt sich dann noch seinen Argumenten entgegenhalten? Jedes<br />

Argument gegen den Skeptiker muß sich auf andere Überzeugungen berufen<br />

und dabei etwa auf epistemische Überzeugungen oder Überzeugungen<br />

über unsere kausale Einbettung in die Außenwelt zurückgreifen.<br />

Die sind selbst zumindest zum Teil auch empirische Behauptungen oder<br />

auf solche angewiesen, auf die zu berufen uns der radikale Skeptiker untersagt<br />

hat, solange wir sie nicht vorher anderweitig gerechtfertigt haben.<br />

Der Skeptiker läßt somit unsere normalen Argumentationsverfahren<br />

nicht zu und gibt uns keine Chancen zur Verteidigung. Betrachten<br />

wir dazu kurz einige Vorschläge, auf ihn zu reagieren, um diese pessimistische<br />

Ansicht zu untermauern. Die Antwortmöglichkeiten lassen sich<br />

grob in einteilen in Zurückweisungen der skeptischen Frage, denen ich<br />

im nächsten Abschnitt exemplarisch nachgehe, und Versuchen, eine Antwort<br />

auf sie zu geben, die im übernächsten Abschnitt zu Wort kommen<br />

werden.<br />

118 Auch diesen Punkt kann man eventuell gegen den Skeptiker wenden.<br />

Williams „Unnatural Doubts“ kann als ein längeres Argument gelesen werden,<br />

daß der Skeptiker an dieser Stelle einen Fundamentalismus voraussetzt und somit<br />

schon in seiner Frage eine falsche theoretische Annahme macht, die es uns<br />

gestattet, die Frage schließlich zurückzuweisen. Der Skeptiker kann sich aber unter<br />

anderem mit der Ansicht wehren, daß man ihn nicht zu Recht auf eine antifundamentalistische<br />

Erkenntnistheorie festlegen könne.<br />

119 Lipton (1991, 158ff) gibt zu, daß wir uns mit Hilfe der Abduktion nicht<br />

gegen den Skeptiker wenden dürfen, da wir dann einen Zirkelschluß begehen,<br />

aber er versucht zu zeigen, daß sie aus interner Sicht trotzdem eine wichtige Bestätigung<br />

unserer realistischen Auffassung der Außenwelt darstellt. Das ist intuitiv<br />

für ihn ähnlich überzeugend, wie der Hinweis, daß sich ein Vorgehen nach<br />

konservativen Induktionsprinzipien bisher sehr bewährt hat. Den Induktionsskeptiker<br />

läßt das natürlich kalt, aber uns „gewöhnlichen Menschen“ erscheint<br />

das dennoch als plausible Stützung unserer Ansicht. Es ist ein weiterer interner<br />

„Kohärenzcheck“.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 311<br />

3. Unnatürliche Zweifel?<br />

Ein erstaunliches Merkmal der skeptischen Positionen, das Hume schon<br />

thematisierte, ist ihre starke Kontextabhängigkeit. So natürlich die skeptischen<br />

Hypothesen, daß wir uns in unserem Weltbild komplett irren<br />

können, auch aus unserer fallibilistischen Ansicht erwachsen, wenn wir<br />

theoretisch darüber nachdenken, so wenig kann uns diese Erkenntnis in<br />

praktischen Zusammenhängen tatsächlich beunruhigen. Ohne über eine<br />

erkenntnistheoretische Antwort auf den Skeptiker zu verfügen, konnte<br />

sich Hume mit dieser Einsicht beruhigen und dafür plädieren, den Skeptizismus<br />

auf sich beruhen zu lassen, weil er sowieso praktisch unwirksam<br />

sei. Eine Reihe späterer Autoren hat versucht, mehr theoretisches Kapital<br />

aus dieser Einsicht zu schlagen, zeigt sie doch, daß die skeptischen<br />

Einwände und Fragen nach weiteren Rechtfertigungen in irgendeiner<br />

Weise unnatürlich sind.<br />

Relativ leichtes Spiel haben wir mit dem Skeptiker, der seine Position<br />

unachtsam formuliert, also z. B. behauptet: „Ich weiß, daß ich nichts<br />

weiß.“ Das sieht schon auf den ersten Blick widersprüchlich aus. Ein radikaler<br />

Rechtfertigungsskeptiker sollte seine Auffassung auch nicht mit<br />

einer direkten Begründung versehen, denn sonst müßte er seine eigene<br />

Begründung von dieser Skepsis ausnehmen, was keinen überzeugenden<br />

Eindruck hinterläßt. Am ehesten kann er seine Überlegungen in Form einer<br />

„reductio ad absurdum“ vortragen. Er zeigt, daß seine skeptischen<br />

Hypothesen – wie die, ein Gehirn im Topf zu sein – kohärent in unser<br />

normales Hintergrundwissen einzupassen sind; jedenfalls wenn wir einmal<br />

von unserer üblichen (Meta-) Annahme absehen, daß Beobachtungsüberzeugungen<br />

uns zuverlässige Informationen über die Welt vermitteln.<br />

Wenn der Skeptiker darin Recht hat, daß wir gemäß unseren gewöhnlichen<br />

Standards ebensogut Skeptiker wie Realisten sein könnten, weil als<br />

(Meta-) Annahme eine skeptische Hypothese ein ebenso kohärentes Bild<br />

ergibt wie die realistische, dann hat er uns darauf hingewiesen, daß sich<br />

in unserem Hintergrundwissen keine guten Gründe für die realistische<br />

Metaannahme finden lassen. Wie sollen wir ihm dann noch begegnen?<br />

An dieser Stelle kann keine ausführliche Erörterung einsetzen, wie<br />

die verschiedenen anti-skeptischen Strategien, die Unnatürlichkeit der<br />

Zweifel gegen den Skeptiker ins Feld zu führen, im Detail zu beschreiben<br />

sind und welche Antworten dem Skeptiker offenstehen; das ist auch<br />

schon an anderen Stellen geschehen (z. B. Stroud 1984 oder Williams<br />

1991). Aber ich möchte noch einmal auf einige Punkte hinweisen, die<br />

mich pessimistisch stimmen. Meistens ist der radikale Skeptiker zunächst<br />

noch relativ großzügig zu uns. Er gesteht uns z. B. zu, wir wüßten, wel-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 312<br />

che Überzeugungen und welche subjektiven Empfindungen wir haben,<br />

wobei er uns oft noch nicht einmal nur auf die momentan bewußten einschränkt,<br />

was de facto wohl eine Beschränkung auf eine einzige bedeuten<br />

würde. Weiterhin akzeptiert er, daß wir auf der Metaebene bestimmte<br />

plausible Begründungsformen benutzen, deren Anwendung wiederum<br />

Erinnerung und korrekte Ausführung und nicht zuletzt ihre<br />

Wahrheitsdienlichkeit voraussetzt. Diese Großzügigkeit kann er uns natürlich<br />

jederzeit wieder entziehen und etwa als Rechtfertigungsskeptiker<br />

einwenden: Warum sollte ich den Induktionsschluß auf der Metaebene<br />

als guten Wahrheitsindikator akzeptieren, wenn ich ihn auf der Objektebene<br />

in seiner Anwendung in wissenschaftlichen Kontexten gerade in<br />

Frage stelle? Er kann sogar logische Schlußregeln in Frage stellen. Die<br />

Spielregeln für die Auseinandersetzung mit dem Skeptiker sind also – zu<br />

seinen Gunsten – nicht so weit geklärt, daß wir ihm irgendwann epistemische<br />

Unfairness vorwerfen könnten. Das können sie auch nicht<br />

sein, denn warum sollte der radikale Skeptiker überhaupt auf irgendwelche<br />

bestimmten Metaüberzeugungen oder Schlußformen festgelegt sein?<br />

Das entspricht nicht seinem wahren Naturell. Kutschera (1982, 61) hat<br />

daher Recht mit seiner Ansicht zum Skeptizismus, daß man nicht gegen<br />

eine Position argumentieren kann, die keine Argumente zuläßt. Aber dieser<br />

Vorwurf an die Adresse des Skeptikers hat eher moralischen als erkenntnistheoretischen<br />

Charakter. Er entscheidet nicht die Frage von<br />

Wahrheit und Falschheit der skeptischen Hypothesen, sondern ist eher<br />

ein neuer Ausdruck der Humeschen Resignation gegenüber dem Skeptizismus.<br />

Wir können uns über seine Gnadenlosigkeit beklagen, doch unbeantwortet<br />

zurückweisen dürfen seine Fragen deshalb noch nicht.<br />

Neben dem Vorwurf der Unfairness läßt sich noch weitergehend gegen<br />

den Skeptiker einwenden, daß seine Worte irgendwann jeden Sinn<br />

verlieren, wenn er zu viele Überzeugungen in Frage stellt. In Kapitel<br />

(IV.A.2) hatte ich schon darauf hingewiesen, daß für das Verfügen über<br />

Begriffe bestimmte Stereotype oder Minitheorien notwendig sind, wonach<br />

der radikale Skeptiker, sollte er keine Meinungen mehr akzeptieren,<br />

auch keine Begriffe mehr verwenden kann. Damit, so könnte man<br />

denken, fällt es ihm schwer, sein Anliegen sinnvoll vorzutragen. Das ist<br />

vielleicht die weitgehendste Form, den Einwand der Unnatürlichkeit gegen<br />

die skeptischen Zweifel stark zu machen.<br />

Doch auch dagegen kann sich der Skeptiker wehren, indem er seinen<br />

Ausführungen die Form einer „reductio“ gibt, die von unseren gewöhnlichen<br />

Meinungen ausgehend diese letztlich als unbegründet erweist. Außerdem<br />

ist gerade der oben beschriebene Rechtfertigungsskeptiker mit


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 313<br />

diesem Einwand nur schwer zu erwischen. Er kann in den meisten Überzeugungen<br />

erster Stufe und unseren Rechtfertigungen für sie sogar mit<br />

uns übereinstimmen. Anders als wir, ist er aber der epistemischen<br />

(Meta-)Überzeugung, daß wir für all die überzeugenden Rechtfertigungen,<br />

über die wir heute verfügen, keinen guten Grund anführen können,<br />

daß sie tatsächlich epistemische Rechtfertigungen also Wahrheitsindikatoren<br />

in einem anspruchsvollen Sinn des Wortes sind. Angesichts der vielen<br />

Überzeugungen erster Stufe über die Außenwelt, die wir in diesem<br />

Fall mit ihm teilen, können wir dann kaum noch behaupten, seine Worte<br />

wären sinnlos, weil er etwa über die notwendigen Putnamschen Stereotypen<br />

nicht verfüge.<br />

Es fällt mir ebenso schwer, einen ähnlichen Standpunkt zu vertreten,<br />

wonach ich den Skeptiker nicht verstehen könne, denn sein Skeptizismus<br />

verlange, daß ich einen zu meiner Perspektive externen Standpunkt einnehmen<br />

muß, eine Art von Gottesperspektive, die mir fremd ist, weil ich<br />

meine eigene Perspektive nicht wirklich verlassen könne. Doch reicht<br />

der Hinweis auf die Ungewöhnlichkeit der externen Sichtweise kaum,<br />

um bereits ein Verständnis auszuschließen; zumal ich mir die vom Skeptiker<br />

genannten skeptischen Hypothesen, nach denen ich etwa ein Gehirn<br />

im Topf sein könnte, wiederum zumindest in Analogie denken<br />

kann. Z. B. indem ich mir zunächst vorstelle, entsprechende Experimente<br />

vielleicht eines (nicht allzu fernen) Tages mit Ratten durchzuführen,<br />

deren Gehirne ich an einen Computer anschließe. Warum sollte ich<br />

dann nicht auch umgekehrt in eine entsprechende Situation als Versuchsperson<br />

geraten können? Diese einfache Analogie, die nur einen Wechsel<br />

der Perspektive in meinem Rattenexperiment verlangt, ist mir leider nur<br />

allzu gut vorstellbar. Das skeptische Gedankenexperiment scheint mir<br />

auch verständlich, ohne großen theoretischen Aufwand betreiben zu<br />

müssen. Es ist noch nicht einmal so utopisch oder sogar physikalisch unmöglich,<br />

daß wir es deshalb in unserem realistischen Rahmen nicht<br />

mehr zur Kenntnis zu nehmen hätten.<br />

Trotzdem ist dieser Weg, dem Skeptiker Unverständlichkeit vorzuwerfen,<br />

von Anti-skeptikern gern mit einigen Variationen beschritten<br />

worden. In dieser Richtung war schon Carnaps (1956) Kritik angesiedelt,<br />

daß bestimmte Fragen des Skeptikers nach der Existenz von Dingen<br />

der Außenwelt sinnlos seien, weil ontologische Fragen nach der Existenz<br />

von Gegenständen immer nur relativ zu einem bestimmten sprachlichen<br />

Rahmen bedeutungsvoll wären. Für Carnap sind nur die „internen Fragen“,<br />

die in einem solchen Rahmen aufgeworfen werden, sinnvoll, weil<br />

wir nur für sie Verifikationsbedingungen kennen. „Externe Fragen“, wie


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 314<br />

die, in welcher Sprache wir reden wollen, ob z. B. in einer Dingsprache<br />

oder einer phänomenalistischen, sind dagegen keine theoretischen Fragen<br />

nach Wahrheit oder Falschheit mehr, sondern eine Angelegenheit<br />

der Konvention ohne kognitiven Gehalt. Für Carnap wird damit wie für<br />

Putnam Wahrheit ein interner Begriff, der an unsere Verifikationsbedingungen<br />

gekoppelt ist. Hier ist kaum der Ort, die Verifikationstheorie der<br />

Bedeutung zu diskutieren, aber sie ist sicher eine Schwachstelle in Carnaps<br />

Reaktion auf den Skeptiker. Die Kopplung des Wahrheitsbegriffs an<br />

den der Verifizierbarkeit ist außerdem eine Schachzug, der dem Skeptiker<br />

bereits viel zu weit entgegenkommt, gibt er doch unser ursprüngliches<br />

Projekt der Erkenntnis einer von uns unabhängigen Außenwelt<br />

preis. Wenn wir dazu gewillt sind, lassen sich allerdings Antworten auf<br />

den Skeptiker finden. Der Skeptiker weist gerade an solchen Stellen auf<br />

Lücken in unserer Erkenntnis hin, an denen externe Gesichtspunkte ins<br />

Spiel kommen, die durch das intern Zugängliche nicht voll erfaßt werden;<br />

also für Rechtfertigungen dort, wo wir verlangen, daß sie wahrheitsdienlich<br />

in einem anspruchsvollen korrespondenztheoretischen Sinn<br />

des Wortes sind. Gibt man daher die Unterscheidung von externen und<br />

internen Ebenen auf, verliert er seinen wichtigsten Angriffspunkt. Auch<br />

transzendental idealistische Ansätze kommen dem Skeptiker in ähnlicher<br />

Form entgegen, wenn sie Wahrheit auf der Ebene der Erscheinungen ansiedeln,<br />

die zumindest nicht völlig unabhängig von uns ist, sondern zu<br />

einem Teil von uns konstruiert wird. In der vorliegenden Arbeit habe ich<br />

mich für einen anspruchsvolleren Wahrheitsbegriff mit einer realistischen<br />

Konzeption der Außenwelt entschieden, der eher unserer Vorstellung<br />

von objektiver Erkenntnis entspricht, und kann daher keine Zurückweisung<br />

der skeptischen Einwände auf diesem Wege mittragen.<br />

Es gibt eine Reihe anderer Versuche, die skeptischen Einwände zurückzuweisen,<br />

weil sie zu unnatürlich sind. Man könnte hier Wittgenstein,<br />

Ayer, Stanley Cavell oder Crispin Wright nennen, aber für mich<br />

bleibt das Fazit all dieser Versuche: Die skeptischen Einwände mögen<br />

zwar praktisch irrelevant erscheinen, unnatürlich wirken und nur in<br />

theoretischen philosophischen Kontexten auftreten oder sogar unfair abgefaßt<br />

sein, denn sie verletzen die üblichen Regeln für die Frage nach<br />

Begründungen, aber damit ist noch nicht erwiesen, daß sie erkenntnistheoretisch<br />

unzulässig oder sogar falsch sind.<br />

Deshalb gibt es auch eine Reihe von Autoren, die die Herausforderung<br />

des Skeptikers annehmen und versuchen, ihm eine direkte Erwiderung<br />

entgegenzubringen. Das reicht von Descartes, der Schlüsse aus ersten<br />

unbezweifelbaren Gewißheiten zieht, die keine Lücke zwischen un-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 315<br />

serer Erkenntnis der Welt und der Welt zulassen sollen, bis hin zu Moore,<br />

der in seinem bekannten „Beweis der Außenwelt“ unsere Gewißheiten<br />

erster Ordnung gegen die eher theoretischen Einwände des Skeptikers<br />

auszuspielen versucht. Einen solchen Widerlegungsversuch möchte<br />

ich nun noch genauer unter die Lupe nehmen, weil gerade er die konsequente<br />

Anwendung der wichtigsten internen Schlußform auf die metatheoretischen<br />

externen Fragen verkörpert.<br />

4. Realismus als beste Erklärung?<br />

Immer wieder versuchen Philosophen mit dem Schluß auf die beste Erklärung<br />

– nun eingesetzt auf der Metaebene – den Skeptiker zu bekämpfen.<br />

Ansätze hierfür sind schon bei Hume zu finden, der die Kohärenz<br />

bestimmter Wahrnehmungen als Indiz für die Existenz einer entsprechenden<br />

Außenwelt erwägt. Ihm reichte dieser Schluß nicht aus, aber einigen<br />

heutigen Autoren, u.a. Devitt (1991, 73ff), Moser (1989, 158ff)<br />

und BonJour (1985, Kap. 8), scheint er stärker zu sein, als Hume noch<br />

annahm. Sie argumentieren, die beste Erklärung für unsere Beobachtungsüberzeugungen<br />

und ihre Konstanz sei in der Annahme zu finden,<br />

daß die Außenwelt in vielen Eigenschaften so ist, wie sie uns erscheint.<br />

Dieser Weg wirkt besonders auf dem Hintergrund von KTR zunächst<br />

plausibel, weil ich auf der Objektebene von KTR den Schluß auf die beste<br />

Erklärung als das zentrale Schlußverfahren für gehaltvermehrende<br />

Schlüsse bezeichnet habe; außerdem erwies er sich als ein wichtiges Instrument<br />

gegen den internen Skeptiker. Betrachten wir anhand der Argumentation<br />

von BonJour, die ebenfalls auf der Grundlage einer Kohärenztheorie<br />

abgegeben wird, ob er sich auch gegen den radikalen Skeptiker<br />

wirksam anwenden läßt.<br />

BonJour (1985, 169ff) versucht den Schluß auf die beste Erklärung<br />

sowohl gegen einen internen wie gegen einen externen Skeptiker einzusetzen.<br />

Er vertritt dazu zwei Thesen (1985, 171), die ich in abgekürzter<br />

Form wiedergebe:<br />

(B1) Wenn ein Überzeugungssystem über einen längeren Zeitraum kohärent<br />

und stabil bleibt, obwohl es gleichzeitig BonJours „observation<br />

requirement“ erfüllt, so gibt es wahrscheinlich eine Erklärung<br />

dafür.<br />

(B2) Die beste Erklärung dafür ist, daß (a) die Beobachtungsüberzeugungen<br />

auf approximativ zuverlässige Weise von entsprechenden<br />

Situationen verursacht sind und (b) das ganze Überzeugungssy-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 316<br />

stem eine unabhängige Realität approximativ zutreffend beschreibt.<br />

Die erste Forderung ist vorerst nicht besonders kontrovers, da beide Seiten,<br />

sowohl der Skeptiker wie auch sein Gegner, der erkenntnistheoretische<br />

Realist, Erklärungen für die stabile Kohärenz anbieten. Sie scheinen<br />

damit implizit zu akzeptieren, daß es sich um ein erklärungsbedürftiges<br />

Faktum handelt, für das wir nach Erklärungsmodellen suchen sollten.<br />

(Diese Zustimmung kann der Skeptiker natürlich, wie oben schon erwähnt,<br />

jederzeit auch wieder zurückziehen, wenn ihm die Suche nach<br />

Erklärungen zu brenzlig wird.) Wirklich spannend wird es demnach erst<br />

für die zweite These (B2), in der die realistische Erklärung als die beste<br />

ausgewiesen werden soll. Hier muß man unterscheiden, ob man sich gegen<br />

den internen oder den externen Skeptiker wenden möchte.<br />

Fangen wir wiederum mit dem internen an, um den Unterschied zwischen<br />

den beiden Formen von Skeptizismus noch einmal zu beleuchten.<br />

Auch für ihn lassen sich weitere Unterscheidungen treffen. Als interner<br />

Skeptiker wird er der Konzeption von Schlüssen auf die beste Erklärung<br />

als Wahrheitsindikatoren prinzipiell zustimmen, weil diese Intuition ein<br />

zentraler Aspekt unserer epistemischen Überzeugungen ist, aber er könnte<br />

Einwände bezüglich ihres Anwendungsbereich erheben. Als einen internen<br />

Skeptizismus dieser Art kann man z. B. van Fraassens konstruktiven<br />

Empirismus (s. z. B. van Fraassen 1980) beschreiben. Van Fraassen<br />

versucht eine Kluft zwischen beobachtbaren und unbeobachtbaren Dingen<br />

in der Erkenntnistheorie stark zu machen. Während seiner Meinung<br />

nach Schlüsse auf Beobachtbares, auch wenn es nicht beobachtet wird,<br />

epistemisch zulässig sind, sind entsprechende Schlüsse auf Unbeobachtbares<br />

für ihn erkenntnistheoretisch nicht statthaft. BonJour versucht die<br />

Argumente solcher wissenschaftlichen Antirealisten durch eine Reihe<br />

kleinerer Einwände gegen ihre Position zu entschärfen, aber er wird damit<br />

der umfangreicheren Debatte um den wissenschaftlichen Realismus<br />

kaum gerecht. Insbesondere müßte er sich noch einer anderen Diskussion<br />

stellen, die durch Wissenschaftshistoriker wie Kuhn und Feyerabend<br />

ausgelöst wurde. Die bestreiten, daß sich eine stabile Kohärenz, wie sie<br />

in (B1) von BonJour behauptet wird, in den Wissenschaften tatsächlich<br />

feststellen läßt. Wenn die Vertreter einer Inkommensurabilitätsthese<br />

Recht behalten und aufeinanderfolgende Theorien in der Wissenschaft<br />

miteinander inkommensurabel sind, und sich weiterhin daraus ergibt,<br />

daß sie auch nicht in bezug auf einen epistemischen Fortschritt im Sinne<br />

einer Vermehrung von Wissen verglichen werden können, entfällt be-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 317<br />

reits ein Teil von BonJours Prämisse (B1) eines entsprechenden erklärungsbedürftigen<br />

Faktums.<br />

Die diachronische Kohärenztheorie der Rechtfertigung erklärt an<br />

dieser Stelle sehr schön, wieso der Inkommensurabilitätsdebatte eine so<br />

große erkenntnistheoretische Bedeutung zukommt. Ihr Ausgang hat<br />

nämlich auch wichtige Auswirkungen auf die Beurteilung unserer nichtwissenschaftlichen<br />

Erkenntnis, denn diese ist – nicht zuletzt durch die<br />

epistemische Arbeitsteilung – für Rechtfertigungsfragen eng mit unserem<br />

wissenschaftlichen Wissen verknüpft. Außerdem stellen die Wissenschaften<br />

einen wesentlichen Teil unseres Wissens dar, dessen Stabilität und<br />

Kohärenz einen paradigmatischer Testfall für die Stabilitätsbehauptung<br />

ausmacht. Für eine rein synchronisch verfahrende Rechtfertigungskonzeption<br />

erschiene dagegen die Vorgeschichte unseres Meinungssystems<br />

bedeutungslos. Zur Inkommensurabilitätsfrage und auch zur Diskussion<br />

um den wissenschaftlichen Realismus werde ich in einem wissenschaftstheoretischen<br />

Kontext Stellung beziehen. Dabei werde ich für eine realistische<br />

Deutung der Wissenschaften und gegen relativistische Deutungen<br />

der Wissenschaftsgeschichte plädieren. Das begründet dann (B1) und liefert<br />

die Voraussetzungen, sich mit (B2) zumindest gegen den internen<br />

Skeptiker zu wehren. Vor dem Hintergrund, daß gehaltreichere Theorien<br />

die besseren Erklärungen anbieten können, 120 scheint die realistische<br />

Behauptung (B2) dann gegenüber den skeptischen Erklärungen zu<br />

favorisieren sein. Doch dieser Punkt bedarf umfangreicherer Analysen<br />

von Beispielen aus den Wissenschaften, die in dem jetzigen Kontext<br />

nicht zu leisten sind.<br />

Gegen den internen Skeptiker können wir also vermutlich mit Hilfe<br />

des Schlusses auf die beste Erklärung etwas erreichen, wenn wir uns auf<br />

die entsprechenden wissenschaftsphilosophischen Debatten einlassen.<br />

BonJour macht es sich dabei allerdings viel zu leicht. Dieser Erfolg ist<br />

für meine Theorie der Rechtfertigung auch nicht unbedingt erstaunlich,<br />

weil der Schluß auf die beste Erklärung von ihnen bereits als wahrheitsdienlich<br />

auf der Objektebene akzeptiert wird. Warum sollten sie ihn<br />

dann auf der Metaebene nicht als Wahrheitsindikator akzeptieren? Zusätzlich<br />

tragen die internen Skeptiker die Beweislast für Einschränkungen<br />

des Abduktionsschlusses auf bestimmte Bereiche.<br />

Weit schwieriger ist wiederum der Umgang mit dem radikalen Skeptiker.<br />

Noch einmal: Der könnte zunächst auf der Metaebene den Schluß<br />

auf die beste Erklärung als nicht wahrheitsdienlich zurückweisen. Dann<br />

bleibt uns auf der Metaebene nichts anderes übrig, als an die Plausibili-<br />

120 Diese Behauptung wird im 3. Teil erläutert und begründet.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 318<br />

tät der Abduktion appellieren, haben aber keine wirkliche Handhabe gegen<br />

den Skeptiker, weil unsere zahlreichen intuitiven Beispiele für erfolgreiche<br />

Schlüsse auf die beste Erklärung allesamt seinem radikalen<br />

Skeptizismus zum Opfer fallen. Der Skeptiker erscheint damit wieder als<br />

unfairer Diskussionspartner, weil er uns auf der Metaebene keine reelle<br />

Chance für eine Erwiderung gibt, denn irgendeiner Argumentform müssen<br />

wir uns zur Begründung unserer anti-skeptischen Haltung ja schließlich<br />

bedienen. Doch leider läßt uns dieser moralische Einwand noch<br />

keine erkenntnistheoretischen Pluspunkte sammeln.<br />

Überraschenderweise wird der Skeptiker meist nicht ganz so skrupellos<br />

dargestellt, sondern er versucht selbst alternative Erklärungen für unsere<br />

Wahrnehmungen zu entwerfen, wie daß sie von einem Dämon<br />

stammen oder uns von einem Supercomputer eingeflüstert werden.<br />

Wenn er sich erst auf das Erklärungsgeschäft eingelassen hat, wird er allerdings<br />

prinzipiell anfällig für die BonJoursche Argumentation, und wir<br />

wollen nun untersuchen wie groß diese Anfälligkeit tatsächlich ist. Wir<br />

können fragen, wer die bessere Erklärung anzubieten hat. BonJour<br />

(1985, 179ff) hält die realistische Hypothese für den klaren Sieger, aber<br />

auch der Skeptiker hat für die stabile Kohärenz eine Erklärung vorzuschlagen,<br />

nämlich, daß uns der Dämon hinters Licht führen will, und<br />

das geschieht natürlich am besten anhand einer derartig stabilen illusionären<br />

Umgebung. Auf welcher Grundlage können wir dann noch skeptische<br />

oder idealistische Hypothesen als minderwertige Erklärungen gegenüber<br />

der realistischen zurückweisen? Akzeptiert der Skeptiker auch<br />

nur einige unserer gewöhnlichen Annahmen über die Welt dürfte seine<br />

Hypothese schnell unterliegen, aber gerade das dürfen wir vom radikalen<br />

Skeptiker unglücklicherweise nicht erwarten, weil er diese Annahmen<br />

allesamt ablehnt. In dieser skeptischen Situation verbleiben wir<br />

meines Erachtens ohne den erforderlichen epistemischen Hintergrund,<br />

vor dem wir die eine oder andere Erklärung als die bessere bevorzugen<br />

könnten. Gegen den Skeptiker sind wir womöglich in einer noch<br />

schlechteren Situation als es Moser war (s. III.B.5.b), der mit dem<br />

Schluß auf die beste Erklärung auf einer Art von Sinnesdatenbasis basale<br />

Überzeugungen begründen wollte. Er scheiterte daran, daß die Beurteilung<br />

von Erklärungen nur auf der Grundlage eines umfangreicheren<br />

Hintergrundwissens möglich ist. Die Sinnesdaten ohne semantischen Gehalt<br />

reichten als Basis für eine Entscheidung nicht aus. Gegen den radikalen<br />

Skeptiker haben wir noch weniger in der Hand, auf das wir uns<br />

stützen könnten. Wie sollen wir uns dann per Abduktion gegen den<br />

Skeptiker wenden? Die Erklärungstheorie, die ich in Kapitel 9 präsentie-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 319<br />

ren werde, gibt zwar auch einige Anhaltspunkte, die realistische Erklärung<br />

wegen ihres weit größeren Gehalts zu bevorzugen, doch wiederum<br />

ist unklar, wie ich einen radikalen Skeptiker zu dieser speziellen Erklärungstheorie<br />

bekehren soll. Sie wird wesentlich durch eine Analyse von<br />

Beispielen mitbegründet und stützt sich auf andere epistemische Intuitionen,<br />

die der radikale Skeptiker als illusionär einstufen wird.<br />

BonJour (1985, 181ff) bringt deshalb an dieser Stelle a priori Wahrscheinlichkeiten<br />

ins Spiel und meint grob gesagt, eine Ausarbeitung der<br />

Dämonenhypothese würde ihre apriorische Unwahrscheinlichkeit ans<br />

Licht bringen, denn warum sollte der Dämon gerade die vom Skeptiker<br />

genannten Ziele haben und nicht eines von den vielen anderen, die ihm<br />

als allmächtigen Dämon doch offenstehen?<br />

Diese Überlegung wirkt recht gewagt und scheint mir wenigstens aus<br />

zwei Gründen fehlerhaft zu sein. Erstens knüpfen diese Überlegungen<br />

stark an das an, was wir bereits über die normalen Interessen und Vielgestaltigkeit<br />

von intelligenten Lebewesen wissen und sind daher nicht<br />

auf der Grundlage einer tabula rasa zu haben. Hier gerät der Einwand in<br />

den Verdacht einer petitio principii. Außerdem ist der Einwand auch für<br />

sich nicht überzeugend, wissen wir doch, daß es manchen „Lebewesen“<br />

– und ganz besonders Dämonen – Spaß macht, Experimente mit anderen<br />

Lebewesen auszuführen. Das muß für ihn nicht zu einseitig werden,<br />

denn in der Regel wird dieses Experiment nicht sein ganzer Lebensinhalt<br />

sein, sondern nur ein kleiner Teil seiner Vergnügungen, von denen der<br />

Dämon noch viele andere hat. Zweitens, und hier wird es ernsthafter,<br />

zieht BonJour hier einen bekannten und populär erfolgreichen, aber<br />

nichtsdestoweniger fehlerhaften statistischen Schluß.<br />

Betrachten wir diesen Schluß an einem anderen bekannten Beispiel,<br />

in dem er für die Lösung einer anderen Fragestellung mißbraucht wird.<br />

Es wird manchmal mit der Unwahrscheinlichkeit, der „zufälligen“ Entstehung<br />

von Leben für die Existenz eines Schöpfers argumentiert. Der<br />

Biologe Monod (1971) unterstützt solche Ansichten unfreiwillig, indem<br />

er die Entstehung des Lebens als ein Ereignis mit astronomischer Unwahrscheinlichkeit<br />

bezeichnet. Solche Unwahrscheinlichkeiten ergeben<br />

sich aber eigentlich immer, wenn wir im nachhinein Wahrscheinlichkeiten<br />

für das Vorliegen des gegenwärtigen Zustands berechnen. Wenn wir<br />

mit einem Würfel 10 000 mal würfeln, wird irgendeine Ziffernfolge herauskommen.<br />

Dafür ist die Wahrscheinlichkeit 1. Wie groß war aber die<br />

Wahrscheinlichkeit für gerade diese Folge? Nun genau: (1/6) 10 000 . Das<br />

ist eine extrem kleine Zahl. Wir waren also im Sinn des betrachteten<br />

Schlußverfahrens wieder Zeuge eines astronomisch unwahrscheinlichen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 320<br />

Ereignisses, ohne daß es uns so bedeutsam vorkommt (s. dazu Stegmüller<br />

1987 III, 206). Doch tatsächlich wäre es das nur gewesen, wenn wir<br />

gerade dieses Ereignis vorhergesagt hätten. Derartige nachträgliche Kalkulationen<br />

von Wahrscheinlichkeiten bleiben wertlos, solange man sich<br />

nicht auf bestimmte vorher festgelegte Referenzklassen bezieht. Daß irgendeine<br />

Folge von Würfelziffern dabei herauskommen würde, war von<br />

Anfang an alles andere als erstaunlich. Ähnlich wenig hilfreich sind die<br />

nachträglichen Unwahrscheinlichkeitsvermutungen von BonJour für die<br />

Interessen des Dämons. Gerade für unsere Kenntnis der Situation, die<br />

uns der Skeptiker läßt, sind wir nicht in der Lage, Referenzklassen zu bestimmen,<br />

die uns relevante Wahrscheinlichkeitseinschätzungen ermöglichen<br />

würden. Eine apriorische Beurteilung von Wahrscheinlichkeiten<br />

könnte in dieser Situation eigentlich nur alle aufgezählten Möglichkeiten<br />

aus Mangel an weiteren Informationen als gleichwahrscheinlich einschätzen,<br />

woraus kein Argument gegen den Skeptiker erwächst. Er kann<br />

sich mit zahlreichen skeptischen Möglichkeiten zufrieden zeigen, während<br />

wir auf der einen realistischen Deutung bestehen möchten. Der<br />

Schluß auf die beste Erklärung ist daher kaum als Waffe gegen den radikalen<br />

Skeptiker einzusetzen, weil er nur bei vorliegendem Hintergrundwissen<br />

anhand dessen sich eine Beurteilung von Erklärungen vornehmen<br />

läßt, eine vergleichende Bewertung erlaubt. Doch die läßt der radikale<br />

Skeptiker gerade nicht zu.<br />

Unsere Chancen, den Skeptiker tatsächlich zu widerlegen, beurteile<br />

ich deshalb trotz der zahlreichen interessanten Überlegungen, die bisher<br />

von Philosophen vorgetragen wurden, ähnlich pessimistisch wie Hume<br />

(1978, 218):<br />

This skeptical doubt, both with respect to reason and the senses, is a<br />

malady, which can never be radically cur’d, but must return upon us<br />

every moment, however we chace it away, and sometimes seem entirely<br />

free from it. ‘Tis impossible upon any system to defend either<br />

our understanding or senses;<br />

Allerdings ist es nicht in erster Linie mein Ziel, die Gegner des Skeptizismus<br />

zu kritisieren, sondern die Skeptiker selbst. Es war nur meine Absicht,<br />

die Ausgangslage für meine Haltung gegenüber dem Skeptiker zu<br />

erläutern und einzugestehen, daß der von mir so geschätzte Schluß auf<br />

die beste Erklärung hier versagen muß. Findet sich entgegen dieser Erwartung<br />

doch eine geeignete Widerlegung der skeptischen Bedrohung,<br />

bin ich natürlich nur zu gerne bereit, mich ihr anzuschließen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 321<br />

5. Erkenntnistheoretische Ziele<br />

Ehe ich genauer bestimmen möchte, was sich nach dieser pessimistischen<br />

Beurteilung noch Sinnvolles vis-à-vis dem Skeptiker sagen läßt,<br />

möchte ich einen Schritt zurücktreten und die Ziele etwas genauer klären,<br />

die wir mit der Erkenntnistheorie verfolgen. Wir fahnden, so könnte<br />

man dieses Gebiet charakterisieren, nach einem Verfahren zur Wahrheitssuche.<br />

Dieses Verfahren besteht aus einem Abwägen von Begründungen<br />

für eine Meinung. Da wir keinen direkten Zugang zur Wahrheit<br />

unserer Meinungen besitzen, sind wir auf derartige Wahrheitsindikatoren<br />

angewiesen. Der erhoffte Erkenntnisgewinn beinhaltet dabei zwei<br />

Ziele: Zum ersten unser Meinungssystem so zu gestalten, daß es möglichst<br />

viele wahre und begründete Meinungen enthält, und zum zweiten<br />

falsche Meinungen möglichst zurückzuweisen. Wir versuchen, möglichst<br />

viele Erkenntnisse über die Welt zu erwerben und dabei Irrtümer, so gut<br />

es eben geht, zu vermeiden.<br />

Ideal wäre es natürlich, überhaupt keine falschen Meinungen zu akzeptieren,<br />

aber dieses Ideal ist offensichtlich kaum erreichbar, und wir<br />

können uns nicht sicher vor Irrtum schützen. Wir müssen uns daher auf<br />

die bescheidenere fallibilistische Position zurückziehen, daß es Irrtümer<br />

unter unseren Überzeugungen geben kann, und wir versuchen sollten,<br />

ihren Umfang so gering wie möglich zu halten. Als Fallibilisten müssen<br />

wir aber anerkennen, daß im Prinzip jede einzelne unserer Überzeugungen<br />

falsch sein könnte und schwören damit der Cartesischen Forderung<br />

nach Sicherheit für unsere Meinungen ab. Die beiden Ziele, die wir<br />

beim Erkenntnisgewinn verfolgen, die schon William James (1956, Kap.<br />

VII) explizit als zwei getrennte Ziele beschrieben hat, lassen sich daher<br />

darstellen als Suche nach möglichst vielen Informationen über die Welt<br />

und gleichzeitig nach möglichst großer Irrtumsfreiheit.<br />

Epistemische Ziele<br />

Information<br />

Möglichst viele, möglichst empirisch gehaltvolle und epistemisch<br />

wertvolle Meinungen über die Welt zu besitzen.<br />

Irrtumsfreiheit<br />

Möglichst wenige falsche Meinungen über die Welt zu akzeptieren.<br />

Das erste Ziel ist selbstverständlich nicht nur so zu lesen, daß man einfach<br />

möglichst viele wahre Meinungen zu sammeln braucht, denn wir<br />

wollen in der Regel nicht beliebige Erkenntnisse über die Welt, sondern


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 322<br />

solche, die uns wichtig und gehaltvoll erscheinen. Meinungssammlungen<br />

wie:<br />

- Zwei Liter Wasser sind mehr als ein Liter Wasser.<br />

- Drei Liter Wasser sind mehr als zwei Liter Wasser.<br />

- ...<br />

können zwar zu potentiell unendlich vielen wahren Überzeugungen führen,<br />

aber sie sind kaum besonders informativ. Wie sich der Informationsgehalt<br />

von Meinungen bestimmen läßt, ist sicher keine einfache Frage,<br />

aber es gibt etwa in der Informationstheorie und auch der Wissenschaftstheorie<br />

einige interessante Vorschläge dazu. Die Falsifikationisten<br />

z. B. haben das Ziel möglichst riskanter Theorien (möglichst viele potentielle<br />

Falsifikationsinstanzen) auf ihre Fahnen geschrieben, was eng damit<br />

zusammenhängt, daß diese Theorien informationsreich sind. An dieser<br />

Stelle genügt ein intuitives Verständnis von „Informationsgehalt“,<br />

um einzusehen, daß die bloße Anzahl an Überzeugungen kein geeignetes<br />

Maß für unser erstes epistemisches Ziel ist. Für wissenschaftliche Theorien<br />

läßt sich der empirische Gehalt in präziser Weise bestimmen, womit<br />

ich mich im letzten Teil der Arbeit beschäftigen werde (s. VII.C.9). Mit<br />

„epistemisch wertvoll“ sind natürlich insbesondere die Meinungen angesprochen,<br />

die wesentlich zur Kohärenz unseres Überzeugungssystems im<br />

Sinne von KTR beitragen. Diese Forderung überschneidet sich ein wenig<br />

mit der nach hohem Informationsgehalt, ist aber spezifischer für ein bestimmtes<br />

Überzeugungssystem als diese.<br />

Auf der anderen Seite streben wir nicht einfach nach vielen informativen<br />

Annahmen über die Welt, sondern möchten dabei möglichst nur<br />

wahre oder jedenfalls so wenig falsche Annahmen wie möglich unter unseren<br />

Meinungen wissen. Auch für dieses zweite Ziel ist eigentlich wiederum<br />

eine Gewichtung erforderlich. Einige Irrtümer sind für uns<br />

schwerwiegender als andere. Das ist nicht nur auf Personen relativiert zu<br />

verstehen, wonach für jeden bestimmte Überzeugungen wichtig sind,<br />

sondern hat auch eine stärker theoretische Komponente, wonach bestimmte<br />

Meinungen, etwa aufgrund ihres Allgemeinheitsgrads, eine zentralere<br />

Position in unserem Überzeugungssystem einnehmen und stärkere<br />

Auswirkungen auf andere Überzeugungen haben. So führt die Annahme<br />

eines radikalen Skeptikers, wir wären Gehirne in einer Nährflüssigkeit<br />

und würden unseren Input von einem Computer erhalten, zu einer<br />

Umdeutung nahezu aller unserer Ansichten über die Welt. Die praktischen<br />

Folgen sind vermutlich nur deshalb nicht so bedeutend, weil wir<br />

die skeptischen Annahmen nicht wirklich glauben, während ein Irrtum


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 323<br />

bezüglich der Vornamen von Cicero im allgemeinen nicht derartig weitreichende<br />

Schlußfolgerungen auf andere Teile unseres Meinungssystems<br />

zuläßt.<br />

Erst diese Qualifizierungen der epistemischen Ziele machen letztlich<br />

deutlich, worum es uns beim Erkenntniserwerb geht. Wie auch immer<br />

sie ausgestaltet werden, dürfte erkennbar sein, daß die beiden Ziele in<br />

einem Spannungsverhältnis zueinander stehen. Da es uns nicht gelingt,<br />

sicheres Wissen über die Welt zu erlangen, sind wir mit jeder Meinung,<br />

die wir zusätzlich akzeptieren, gezwungen, ein höheres Irrtumsrisiko<br />

einzugehen, das um so höher liegt, je informativer die jeweilige Meinung<br />

ist. Je konkretere Aussagen der Wetterbericht über das Wetter von<br />

morgen macht, desto größer ist ceteris paribus auch die Wahrscheinlichkeit,<br />

daß sie nicht zutreffen. Sobald man eines der beiden Ziele völlig<br />

vernachlässigt, wird die Erfüllung des anderen trivial. Um möglichst<br />

viele Überzeugungen zu akzeptieren, könnte ich, wenn ich vom Problem<br />

der falschen Meinungen absehe, einfach alle möglichen Aussagen akzeptieren.<br />

Das zweite Ziel läßt sich hingegen optimal erreichen, indem ich<br />

mich jeder Meinung enthalte.<br />

Genau für diesen zweiten Vorschlag macht sich der Skeptiker stark.<br />

Seiner Meinung nach verfügen wir für keine unserer Meinungen tatsächlich<br />

über epistemische Gründe und sollten uns daher aller Annahmen<br />

über die Realität enthalten. Der Skeptiker gewichtet dabei das zweite<br />

Ziel so hoch, daß er für die Erfüllung des ersten keinen Raum mehr<br />

läßt. Das muß jedenfalls unsere Konklusion sein, wenn wir die bekannten<br />

Erwiderungen auf den Skeptiker und Diagnosen des Skeptizismus<br />

nicht für erfolgreich halten.<br />

6. Eine Entscheidung gegen den Skeptiker<br />

Wenn wir über keine epistemischen Gründe für eine Zurückweisung des<br />

Skeptikers – allerdings auch nicht des Realisten – verfügen, müssen wir<br />

uns mittels anderer Überlegungen zwischen Skeptizismus und Anti-skeptizismus<br />

entscheiden. Das beinhaltet eine Gewichtung zwischen den beiden<br />

genannten epistemischen Zielen. Eine solche Entscheidung soll<br />

keine bloß pragmatische Entscheidung sein, da sie nicht primär an praktischen<br />

Zielen oder Bedürfnissen orientiert ist, sondern auf einer theoretischen<br />

Ebene stattfinden, denn die beiden genannten Ziele sind die<br />

theoretischen Ziele der Erkenntnistheorie selbst; trotzdem handelt es<br />

sich nichtsdestoweniger um eine Wertentscheidung.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 324<br />

Gegen den Skeptiker möchte ich die Bedeutung des ersten Ziels stärker<br />

betonen. Die Suche nach informativen Erkenntnissen über die Welt<br />

ist für die Erkenntnistheorie zu wichtig, als daß wir sie dem zweiten Ziel<br />

ganz opfern dürften. Nur eine Ablehnung der radikalen skeptischen Haltung<br />

kann zu einem fruchtbaren Forschungsprogramm führen, in dem<br />

wir ein gehaltvolles Bild unserer Welt erhalten, das nicht vollkommen<br />

willkürlich ist. Der Skeptiker kann seine Hypothesen dagegen nur auf<br />

willkürliche Weise ausbauen, weil er die einzigen Indizien, die wir für<br />

die Beschaffenheit der Welt zu besitzen scheinen, unsere sich spontan<br />

einstellenden Beobachtungsüberzeugungen, nicht ernst nimmt. Für jede<br />

Vermutung, wie sich seine skeptische Hypothese entfalten läßt, welche<br />

Eigenschaften wir etwa dem Dämon und seiner Umwelt zuschreiben, hat<br />

er in der skeptischen Situation keine überprüfbaren Anhaltspunkte mehr<br />

anzubieten, sondern nur noch seine Phantasie.<br />

Der hier beschriebene Kohärenztheoretiker läßt sich demgegenüber<br />

von gewissen spontanen Meinungen, die sich als Beobachtungsinput<br />

deuten lassen, inhaltlich leiten und versucht sein Bild der Welt aus seiner<br />

Innenperspektive zu entwickeln. Dabei knüpft er im Sinne des epistemologischen<br />

Konservatismus immer an das an, was er bisher schon<br />

glaubte. Doch er vertraut seinen Meinungen keineswegs blind. Es ist<br />

ihm klar, daß er nicht über sicheres Wissen und auch nicht über eine sichere<br />

Basis für Wissen verfügt. Jede eingehende Information wird anhand<br />

von Kohärenztests auf ihre Glaubwürdigkeit geprüft, und auch das<br />

dafür eingesetzte Hintergrundwissen wird ständigen Prüfungen unterworfen.<br />

Der Skeptiker wird ebenso mit spontan auftauchenden Meinungen<br />

konfrontiert werden. Er steht aber auf der Ebene seiner epistemischen<br />

Überzeugungen nicht dazu, sondern verwirft sie als Vorspiegelungen eines<br />

Dämons. Nur der Anti-Skeptiker steht auch auf der Ebene der Metaüberzeugungen<br />

hinter seinen Überzeugungen erster Stufe und fällt sich<br />

dort nicht selbst immer wieder in den Rücken mit der epistemischen<br />

Vermutung, alle seine Meinungen erster Stufe seien falsch. Der radikale<br />

Skeptiker muß seine spontan auftauchenden Beobachtungsüberzeugungen<br />

tatsächlich jedesmal bekämpfen, ohne besondere Anhaltspunkte dafür<br />

zu haben. Schon das scheint mir eine recht paradoxe Situation für<br />

die Entwicklung unseres Meinungssystems zu sein.<br />

Das zweite epistemische Ziel der möglichst wenigen Irrtümer soll im<br />

Rahmen der Kohärenztheorie dadurch berücksichtigt werden, daß man<br />

immer den internen Skeptiker zu Wort kommen läßt, der anhand interner<br />

Kohärenzüberlegungen jede unserer Meinungen in Frage stellen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 325<br />

kann. Die interne Skepsis bietet daher eine wertvolle Hilfe für eine Abwägung<br />

zwischen den beiden erkenntnistheoretischen Zielen, die der externe<br />

Skeptiker nicht vornehmen kann. Er rät uns schlicht, alle unsere<br />

Meinungen aufzugeben, und das ohne uns irgendeinen Ersatz für die<br />

Aufgabe all unserer Meinungen im Hinblick auf das erste epistemische<br />

Ziel anzubieten. Wir sollten uns daher gegen radikale skeptische Hypothesen<br />

entscheiden zugunsten einer stärkeren Betonung des 1. Ziels der<br />

Erkenntnistheorie und damit das einzige interessante Forschungsprogramm<br />

ergreifen, das sich uns bietet.<br />

Da die skeptischen Hypothesen in der Regel kausale Hypothesen<br />

über den Ursprung unserer Meinungen sind, können wir die Entscheidung<br />

gegen den radikalen Skeptizismus auch in positiver Form vornehmen,<br />

als eine Entscheidung für die Überzeugung zweiter Stufe, daß unsere<br />

spontanen Meinungen im allgemeinen zuverlässige Informationen<br />

über unsere Umgebung liefern, oder anders ausgedrückt, daß wir in einem<br />

geeigneten kausalen Kontakt zur Welt stehen. Das läßt sich in erster<br />

Näherung so beschreiben:<br />

Kausaler Kontakt (KK)<br />

Mein kausaler Kontakt zur Außenwelt ist so beschaffen, daß meine<br />

spontanen Beobachtungsüberzeugungen in vielen Fällen in relativ zuverlässiger<br />

Weise über die Welt um mich herum Auskunft geben.<br />

Sollte die Annahme (KK) wesentlich falsch sein, wird es uns wohl mit<br />

keiner noch so phantasievoll ersonnenen Erkenntnistheorie gelingen, zuverlässige<br />

Erkenntnisse über die Welt zu gewinnen. Diese Behauptung ist<br />

meines Erachtens der wahre Kern der empiristischen Erkenntnistheorie,<br />

den wir beibehalten sollten. Nicht in Form apriorischen Wissens, sondern<br />

als metatheoretische Hypothese, die notwendig ist, um uns zu den<br />

Einwänden des radikalen Skeptikers zu verhalten. Dabei kommt dem<br />

Wort „kausal“ eigentlich keine wichtige Rolle außer einer didaktischen<br />

zu, aber das wird erst in dem Kapitel über eine deflationäre Theorie der<br />

Kausalität deutlicher werden (s. VIII.C.2.e).<br />

Die Annahme (KK) kann natürlich intern auch begründet werden<br />

und ist eine empirische Annahme, gegen die intern tatsächlich empirische<br />

Gründe sprechen können, die letztlich sogar zu ihrer Aufgabe führen<br />

könnten. Im Fall von Träumen entscheiden wir uns dafür – wenn<br />

auch meist nicht zur gleichen Zeit wie wir träumen – unsere „Wahrnehmungen“<br />

nicht als geeignete Informationen über unsere Umwelt zu akzeptieren.<br />

Ulises Moulines (1993) beschreibt zu diesem Zweck nach der<br />

Geschichte von Pedro Calderón de la Barca „Das Leben ein Traum“ den


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 326<br />

Fall des Königssohns Sigismund, der in Ketten in einem Turm aufwachsen<br />

muß, weil sein Vater ihn aufgrund einer astrologischen Prophezeiung<br />

fürchtet. Zu Probezwecken wird er aber gelegentlich in tiefem Schlaf in<br />

den Palast gebracht, in dem er als Prinz aufwacht. Weil sich die Prophezeiungen<br />

jedoch zu erfüllen scheinen, muß er dann doch immer wieder –<br />

jeweils im Schlaf – in seinen Turm zurückgebracht werden. Daher glaubt<br />

er auch später, nachdem er durch eine Revolution befreit wurde, immer<br />

noch zu träumen. Für ihn muß mindestens eine der beiden für ihn unverbundenen<br />

Welten als bloße Illusion erscheinen. Diese Fällen lassen<br />

sich natürlich beliebig ausbauen – dafür sind aber Science Fiction Autoren<br />

wohl findiger –, so daß es uns schließlich nicht mehr gelingt, ein kohärentes<br />

Bild unserer Außenwelt zu erstellen. Dann würde wir uns letztlich<br />

dazu genötigt sehen, die Annahme einer Außenwelt als Verursacher<br />

unserer Meinungen aufzugeben. Die Existenz der Außenwelt ist daher<br />

eine empirische Hypothese, die durch die Erfahrung zu Fall gebracht<br />

werden kann – und das sogar in Fällen wie dem von Sigismund, wo sie<br />

eigentlich zutreffend ist.<br />

Wir können entsprechende Überlegungen wie die, die meine Entscheidung<br />

gegen den Skeptiker tragen, auch als ein entscheidungstheoretisches<br />

Problem formulieren. Gehen wir der Einfachheit halber von zwei<br />

Möglichkeiten aus, obwohl sich natürlich auch Zwischenstufen formulieren<br />

ließen:<br />

(H1) Eine der radikalen skeptischen Hypothesen ist wahr.<br />

(H2) Alle radikalen skeptischen Hypothesen sind falsch und bedeutende<br />

Teile unseres Überzeugungssystems wahr.<br />

Um den „erkenntnistheoretischen Erwartungswert“ dieser konkurrierenden<br />

epistemischen Forschungsprogramme zu bestimmen, überlegen wir<br />

uns, welcher Gewinn oder Verlust (orientiert an den beiden Zielen der<br />

Erkenntnistheorie) in beiden Fällen zu verzeichnen ist. Beginnen wir mit<br />

(H1). Im Fall von (H1) haben sowohl der Skeptiker wie auch Vertreter<br />

von KTR kaum wahre Meinungen über die Welt aufzuweisen. Der Skeptiker<br />

kann die eine metatheoretische Überzeugung für sich verbuchen,<br />

daß er so etwas befürchtet hatte. Er wird aber kaum unter den vielen<br />

denkbaren skeptischen Hypothesen die zutreffende ermitteln können<br />

und sie schon gar nicht informativ ausgestalten können, indem er uns etwa<br />

Interessantes über den Dämon und dessen Leben zu berichten wüßte.<br />

Er hat also ebensowenig wie der Realist von dieser Möglichkeit größere<br />

erkenntnistheoretische Gewinne zu erwarten. Der Vertreter von KTR<br />

hat darüber hinaus allerdings noch einige Verluste zu verzeichnen, näm-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 327<br />

lich eine Reihe von falschen Überzeugungen, eben alle unsere gewöhnlichen<br />

Meinungen über die Welt. Das ist für den Skeptiker nicht so klar.<br />

Wenn er ehrlich ist, muß er eigentlich zugeben, daß er die meisten unserer<br />

Überzeugungen erster Stufe auch geteilt hat und er nur auf der Metaebene<br />

den bereits genannten Pluspunkt verbuchen kann. Anderenfalls,<br />

wenn er sich in völliger Enthaltsamkeit bezüglich aller Meinungen übt,<br />

kann, wie oben bereits vermerkt, eingewandt werden, daß er dadurch<br />

unverständlich wird; denn damit seine Meinungen überhaupt eine Bedeutung<br />

besitzen können, müssen seine Begriffe anhand einiger Meinungen,<br />

wenigstens den entsprechenden Stereotypen dieser Begriffe, gedeckt<br />

sein. Für (H1) sieht die Bilanz dann wie folgt aus: Der Skeptiker<br />

hat praktisch keine Gewinne und fast genauso wie der Vertreter von<br />

KTR etliche Verluste aufzuweisen.<br />

Anders ist es im Fall (H2). Der Skeptiker hat wieder weder große<br />

Verluste noch irgendwelche Gewinne aufzuweisen, während jetzt der<br />

KTR Proponent immense Gewinne bei nur kleinen Verlusten verbuchen<br />

kann. Der Anti-Skeptiker setzt also auf eine risikoreichere Strategie, bei<br />

der man viel gewinnen und auch einiges verlieren kann, während der<br />

Skeptiker fast jedem Risiko aus dem Wege geht, aber auch nichts zu gewinnen<br />

hat. Mir scheint es dabei fraglich, ob man den möglicherweise<br />

größeren „Verlusten“ des Realisten im Falle von (H1) große Bedeutung<br />

beilegen sollte. Wenn eine der radikalen skeptischen Hypothesen wahr<br />

ist, sind praktisch alle unsere Meinungen falsch, ob wir nun Skeptiker<br />

sind oder nicht, und keine Erkenntnistheorie kann für diesen Fall hilfreiche<br />

Anmerkungen abgeben. Wichtiger scheint mir der zweite Fall zu<br />

sein, und auf den müssen wir uns mit unserer Erkenntnistheorie vorbereiten,<br />

um uns die dort möglichen Gewinne nicht entgehen zu lassen.<br />

Da wir über keine Wahrscheinlichkeitsschätzungen für (H1) und<br />

(H2) verfügen, können wir keine Entscheidung anhand eines Erwartungswerts<br />

treffen, sondern nur eine unter Unsicherheit. Dafür gibt es<br />

bekanntlich nicht nur eine rationale Strategie, sondern ein Kontinuum<br />

von möglichen Strategien. Es ist auch nicht klar, welches Ergebnis etwa<br />

die Regel Maximin, nach der man sich für die Option entscheiden sollte,<br />

bei der der kleinste mögliche Nutzen maximal ist, zeitigen würde. Das<br />

hängt davon ab, wie man die entgangenen Möglichkeiten für wahre<br />

Meinungen im Fall (H2) und die Möglichkeit von falschen Meinungen<br />

in (H1) epistemisch gegeneinander abwägt. Die Entscheidung für oder<br />

gegen den radikalen Skeptiker kann aus erkenntnistheoretischer Perspektive<br />

also nicht anhand einfacher Regeln als rational oder irrational<br />

bezeichnet werden. Ich plädiere für die risikofreudigere Variante des An-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 328<br />

ti-Skeptikers (mit den Vorbehalten des Fallibilisten), da nur so Erkenntnisse<br />

über die Welt zu erhalten sind und die Verluste des Anti-Skeptikers<br />

für (H1) mir relativ unbedeutend scheinen. Die Entscheidung für Erkenntnisse<br />

mit Risiko und gegen den Skeptiker ist aber auch in dieser<br />

Darstellung eine Wertentscheidung zugunsten einer optimistischeren<br />

Strategie gegenüber der pessimistischen. Daß man vor eine derartige<br />

Wahl gestellt wird, ist nicht untypisch für Entscheidungen unter Unsicherheit.<br />

Vor dieser Wahl stehen z. B. auch die Rawlsschen Entscheidungsträger<br />

im Urzustand ohne Lüftung ihres Schleiers des Nichtwissens.<br />

Sie würden sich nach Rawls mit Maximin für die vorsichtigere<br />

Strategie entscheiden, aber auch das ist nicht unkontrovers und natürlich<br />

nicht auf unseren Fall übertragbar, weil die im Urzustand auftretenden<br />

Risiken eine ganz andere Bedeutung für unser Leben besitzen, als<br />

die epistemischen Risiken unserer Entscheidung für eine erkenntnistheoretische<br />

Vorgehensweise.<br />

Wenn sich also auch aus rein epistemischer Perspektive keine zwingenden<br />

Gründe für oder gegen den radikalen Skeptiker angeben lassen,<br />

sondern eine Entscheidung unter Unsicherheit notwendig wird, so sind<br />

doch die Gründe pragmatischer Art gegen den Skeptiker sofort offensichtlich,<br />

und ich möchte sie noch einmal erwähnen. Für den Fall (H1)<br />

kann es uns ziemlich gleichgültig sein, ob wir uns aller Meinungen enthalten<br />

oder lauter falsche haben, denn in diesem Fall ist für unser Leben<br />

auch durch falsche Überzeugungen nicht viel zu verlieren; wir werden<br />

als uns Anti-Skeptiker vermutlich sogar besser fühlen. Im Fall (H2) hingegen,<br />

führt die Strategie des Skeptikers zu einem kognitiv armseligen<br />

wenn nicht sogar recht kurzen Leben, weil er nicht auf der Grundlage<br />

von Meinungen über die Welt entscheiden und handeln kann. In diesem<br />

für uns bedeutsamen Fall ermöglicht allein eine anti-skeptische Strategie<br />

ein interessanteres und besseres Leben, in dem wir uns bewußt und mit<br />

Gründen in unserer Umwelt entscheiden und danach handeln können.<br />

In modernerer Terminologie könnte man auch sagen: Der Skeptiker<br />

möchte uns auf ein Forschungsprogramm festlegen, von dem wir schon<br />

wissen, daß es zu keinen Erkenntnissen führen wird, während der Anti-<br />

Skeptiker ein Forschungsprogramm favorisiert, das uns ein reichhaltiges<br />

Bild der Welt verspricht, aber nicht ausschließen kann, daß wir dabei einer<br />

Chimäre nachjagen.<br />

Die Strategie des Skeptikers läßt sich mit einer Wettervorhersage vergleichen,<br />

die um keinen Preis falsche Vorhersagen machen möchte, und<br />

weil bei jeder nicht gehaltsleeren Aussage bekanntlich eine Irrtumsmöglichkeit<br />

besteht, sich einfach entschließt, gar keine Vorhersagen mehr zu


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 329<br />

geben, außer solchen wie: Morgen regnet es oder es regnet nicht. Das<br />

Ziel der Irrtumsvermeidung wird dabei überbewertet und das der Wettervorhersage<br />

kommt zu kurz.<br />

Unser Motto sollte also nicht das des Skeptikers sein, lieber keine<br />

Aussage zu glauben, als auch nur eine falsche, sondern im Vordergrund<br />

sollte das Ziel stehen, auch unter Risiken, Erkenntnisse über die Welt zu<br />

sammeln. Damit das nicht unmäßig oder willkürlich wird, bietet KTR<br />

dafür Beschränkungen an. Es tauchen spontane Meinungen auf, die in<br />

unser Überzeugungssystem in vielfältiger Weise kohärent integriert werden<br />

müssen. Das betrifft sowohl ihre Entstehung wie auch ihren Inhalt.<br />

Dazu kommen interne Kohärenzchecks, die etwa durch interne Kritiken,<br />

aber auch unsere Wissenschafts- und Erkenntnistheorie motiviert werden<br />

können. Die Kohärenzforderungen in KTR verhindern den allzu<br />

leichtfertigen Einbau neuer Annahmen in unser Überzeugungssystem.<br />

Z. B. Überzeugungen über Ufos und Dämonen haben einen schweren<br />

Stand, wenn sie in unsere Meinungssysteme gemäß KTR aufgenommen<br />

werden möchten, weil sie meist ein isoliertes Subsystem bilden, das<br />

die Gesamtkohärenz des Systems herabsetzt. Auf der anderen Seite bringen<br />

allein die Berichte über Ufos schon eine Inkohärenz in unser System,<br />

die nach einer Kohärenzerhöhung durch Erklärungen, wie es dazu kommen<br />

konnte, verlangt. Gelingt es nicht, diese Inkohärenz auf andere<br />

Weise zu beseitigen, so kann das letztlich auch zur Anerkennung der Existenz<br />

von Ufos führen. Das Überzeugungssystem schottet sich unter KTR<br />

also nicht dogmatisch ab, sondern weist höchstens eine gewisse generelle<br />

Trägheit auf, was die Aufnahme von Fremdkörpern betrifft, die nicht gut<br />

hineinpassen. Sollte z. B. geklärt werden, daß die bekannten magischen<br />

Kreise in Kornfeldern von Witzbolden angelegt wurden, um uns an der<br />

Nase herumzuführen, ist damit die Kohärenz wiederhergestellt, ohne<br />

daß es großer Revisionen des bisherigen Systems bedurft hätte. Daher ist<br />

diese Option sicher eine zunächst naheliegende Vermutung, die ohne<br />

weitere Informationen von unserem Überzeugungssystem am ehesten gedeckt<br />

ist. Gelingt es dagegen nicht, entsprechende Erklärungen kohärent<br />

in unsere Meinungen einzupassen, oder können sie sogar ausgeschlossen<br />

werden, kommen in KTR letztlich auch unbekannte Kräfte und schließlich<br />

sogar die Annahme der Existenz Außerirdischer in Frage.<br />

Zum Schluß möchte ich noch kurz auf einige bekannte Einwände gegen<br />

verwandte Vorgehensweisen eingehen. Schon William James tritt in<br />

The Will to Believe (1956) für Entscheidungen in epistemischen Fragen<br />

ein, für die wir keine hinreichenden erkenntnistheoretischen Entscheidungsgründe<br />

besitzen. Sein Vorgehen unterscheidet sich aber dennoch in


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 330<br />

wesentlichen Aspekten von meinem. James wendet die Möglichkeit, sich<br />

für bestimmte Meinungen zu entscheiden, viel freizügiger und vor allem<br />

in moralischen und religiösen Fragen an. Ihm geht es nicht nur um eine<br />

erste grundsätzliche Entscheidung zwischen totalem Skeptizismus und<br />

einer anti-skeptischen Haltung in einer Frage, in der wir der Natur der<br />

Sache nach für keine Seite über epistemische Entscheidungsgründe verfügen,<br />

sondern auch um Entscheidungen in vielen weiteren Fällen wie<br />

etwa religiösen Fragen. Russell (1978, 823f) versucht an einigen Beispielen<br />

zu erläutern, zu welch willkürlichen Annahmen und relativistischen<br />

Ansichten dieser freizügige Umgang mit Entscheidungen in der Erkenntnistheorie<br />

führen kann. Mit der Entscheidung für die Annahme (KK) ist<br />

ein solcher Relativismus natürlich nicht impliziert, denn für alle weitergehenden<br />

Annahmen sind in KTR keine Entscheidungen für Überzeugungen<br />

ohne epistemische Gründe mehr vorgesehen, sondern nur noch<br />

solche, auf der Grundlage von Kohärenz. Dabei wird selbstverständlich<br />

nicht ausgeschlossen, daß wir in manchen Fällen für Aussagen p keine<br />

epistemische Entscheidung zwischen p und non-p treffen können, und<br />

uns der Übernahme beider Möglichkeiten enthalten, weil gerade das angesichts<br />

der epistemisch gleichwertigen Alternative am ehesten zu Kohärenz<br />

in unserem Meinungssystem führt.<br />

Auch Russells (1980, 67f) Vorwurf gegen James, eine entsprechende<br />

Entscheidung könnte die Wissenschaft behindern, weil man nicht bereit<br />

sei, sie wie eine Arbeitshypothese in der Wissenschaft zu revidieren, paßt<br />

auf die hier getroffene Entscheidung nicht. Erstens ermöglicht sie erst<br />

die Wissenschaft und zweitens wird sie als Arbeitshypothese aufgefaßt,<br />

die dann aufgegeben wird, wenn unsere spontanen Meinungen kein kohärentes<br />

Weltbild mehr erlauben.<br />

Entsprechendes gilt für Vergleiche mit der berühmten Pascalschen<br />

Wette, wie sie Watkins (1984, 36ff) für eine verwandte pragmatische<br />

Vorgehensweise zieht. Im Fall der Pascalschen Wette, ist man darauf angewiesen,<br />

den jeweiligen praktischen Nutzen der unterschiedlichen Optionen<br />

(an Gott glauben oder nicht) zu ermitteln. Dazu benötigt man natürlich<br />

eine Menge an Hintergrundwissen etwa über Gottes Vorlieben,<br />

über die wir angesichts der Unbegreiflichkeit Gottes dort nicht verfügen.<br />

So könnte Gott z. B. die aufrechte Art des Atheisten der kleinkrämerischen<br />

und berechnenden Entscheidung Pascals vorziehen. Auf derartige<br />

inhaltliche Annahmen bin ich an dieser Stelle natürlich nicht angewiesen,<br />

weil ich keine praktischen Konsequenzen zu berechnen habe. Die<br />

Alternativen liegen bereits in Form der ausgearbeiteten Meinungssy-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 331<br />

steme auf dem Tisch, und der Maßstab der Beurteilung sind die genannten<br />

epistemischen Ziele.<br />

C. Resümee<br />

Der radikale Skeptiker, der unsere Meinungen als Ganzes in Frage stellt<br />

und ihre Rechtfertigung von einem externen Standpunkt aus verlangt,<br />

stellt damit Anforderungen an uns, denen wir nicht genügen können. In<br />

jedweder Begründung müssen wir uns immer wieder auf einige andere<br />

unserer Meinungen stützen. Von einem solch externen Standpunkt aus,<br />

verfügen wir daher über keine epistemischen Entscheidungsgründe<br />

mehr, die uns den Weg weisen können, sondern sind auf eine Wertentscheidung<br />

und Gewichtung zwischen den zwei epistemischen Zielen des<br />

möglichst umfassenden Informationsgewinns und der weitgehenden Vermeidung<br />

von Irrtümern angewiesen. Der Skeptiker betont ganz das letztere<br />

und nimmt dafür in Kauf, daß wir uns für den Fall, daß unsere realistische<br />

Sicht der Welt und unserer kausalen Kontakte zu ihr im wesentlichen<br />

richtig sind, aller Informationsmöglichkeiten begeben. Gerade für<br />

diesen Fall sind aber Erkenntnistheorien für uns interessant. Sind wir<br />

nur die Spielbälle eines bösen Dämons, können wir von keiner Vorgehensweise<br />

zur Pflege unseres Meinungssystems Erkenntnisse erwarten.<br />

Wir sollten uns daher gegen den Skeptizismus entscheiden, weil wir nur<br />

so hoffen können, ein gehaltvolles Bild der Welt zu gewinnen.<br />

Diese Form der Entscheidung gegen den Skeptiker, für die ich hier<br />

eintrete, ist auch der ehrlichere Weg gegenüber etwa dem der Externalisten,<br />

dem unangenehmen Skeptiker durch einen Themawechsel entkommen<br />

zu wollen. Der stellt natürlich auch eine Entscheidung dar, nämlich<br />

gegen die klassischen Fragestellungen. Ebenso unredlich erscheint es<br />

mir, sich den skeptischen Fragen als unsinnigen Fragen schlicht zu verschließen.<br />

Statt dessen werden die skeptischen Einwände als durchaus<br />

verständlich akzeptiert und erkannt, daß es in der radikalen skeptischen<br />

Situation eigentlich keine überzeugende Widerlegung des Skeptikers geben<br />

kann. Man ist gezwungen, sich für ein erkenntnistheoretisches Programm<br />

anhand der zwei obersten Ziele der Erkenntnistheorie zu entscheiden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 332<br />

VII Wissenschaftliche Theorien<br />

Menschliche Erkenntnisse sind in dem bisher skizzierten epistemischen<br />

Bild zunächst in bezug auf ihre Allgemeinheit hierarchisch geordnet. Dazu<br />

kommt eine Einordnung in Metaebenen und darüber hinaus sind sie<br />

in einem komplexen Netz erkenntnistheoretischer Beziehungen vielfältig<br />

miteinander verknüpft. Für den Empiristen, der den Aufbau nach Allgemeinheitsgraden<br />

im wesentlichen mit einer erkenntnistheoretischen Einstufung<br />

identifiziert, bilden die Beobachtungsaussagen als Grundlage aller<br />

Erkenntnisse den natürlichen Ausgangspunkt für eine erkenntnistheoretische<br />

Analyse. Für die höheren Stufen stellt sich dann in bezug<br />

auf ihre Begründung „nur“ noch die Frage, inwieweit sie durch die Beobachtungsaussagen<br />

gedeckt sind. Für den Kohärenztheoretiker gibt es<br />

dagegen nicht mehr einen Typ epistemisch primärer Aussagen, dem eine<br />

ähnliche Stellung zukäme und vor allem auch keine Entsprechung von<br />

Begründungsebenen und Allgemeinheitsgraden. Eine ausgezeichnete epistemische<br />

Stellung nehmen für ihn sogar eher die allgemeineren Aussagen<br />

oder Theorien ein, denn ihnen verdanken wir schließlich die Verknüpfung<br />

unserer Überzeugungen zu einem Netz von rechtfertigenden<br />

Zusammenhängen. Es ist deshalb nur naheliegend, daß ein Kohärenztheoretiker<br />

anders als ein Empirist eine Analyse von Theorien ins Zentrum<br />

seiner Erkenntnistheorie stellt. Die dafür erforderlichen Hilfsmittel<br />

möchte ich in diesem Kapitel bereitstellen, wobei ich mich auf ausgearbeitete<br />

wissenschaftliche Theorien konzentrieren werde, da sie im Unterschied<br />

zu Alltagstheorien explizit vorgegeben sind.<br />

Die vielleicht wichtigste Frage für den Kohärenztheoretiker ist dabei:<br />

Wie können unsere Theorien die ihnen auferlegte Systematisierungsleistung<br />

überhaupt erbringen? Sind sie einfach Klassen von Allsätzen, aus<br />

denen sich die spezielleren Aussagen deduzieren lassen, wie z. B. Popper<br />

und andere Wissenschaftstheoretiker es annehmen? Beginnen möchte<br />

ich die Untersuchung mit einer einfachen Beobachtung, die mir leider<br />

typisch für die philosophische Beschäftigung mit den Naturwissenschaften<br />

zu sein scheint. Schaut man in ein Physiklehrbuch (ein echtes, nicht<br />

ein populärwissenschaftliches) oder noch besser entsprechende Fachzeitschriften,<br />

wird man von einer großen Fülle von Fakten geradezu „erschlagen“.<br />

Da sind zahllose Meßwerte, Gleichungen und Zusammenhän-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 333<br />

ge zwischen Gleichungen, Ableitungen und viele andere Überlegungen<br />

in einem bunten Gemisch zu finden. Wie soll man zu zuverlässigen metatheoretischen<br />

Aussagen über eine solch scheinbar amorphe und unübersichtliche<br />

Menge von Aussagen kommen? Es verwundert angesichts<br />

dieses Problems nicht, daß Wissenschaftstheoretiker und auch Wissenschaftshistoriker<br />

Theorien häufig stark vereinfacht darstellen. Oft begnügen<br />

sie sich mit nur wenigen Verweisen auf bestimmte Grundgleichungen,<br />

oder kaprizieren sich in ihrer Darstellung auf ein bestimmtes<br />

Phänomen, das die Theorie beschreibt und das sie für charakteristisch<br />

halten, wie z. B.: „Die Lichtgeschwindigkeit im Vakuum begrenzt in der<br />

Relativitätstheorie alle Geschwindigkeiten für Massen“. Doch dabei gehen<br />

wichtige Aspekte dieser Theorien verloren. Um die Theorien nun in<br />

einer für wissenschaftstheoretische Analysen geeigneten Form überschaubar<br />

zu präsentieren, ist sicherlich eine Rekonstruktion notwendig,<br />

die eine logische Ordnung in die Formulierung der Theorien bringt. Andererseits<br />

benötigen wir jedoch auch eine Darstellung, die alle wesentlichen<br />

Aspekte der Theorie berücksichtigt, um ein einigermaßen realistisches<br />

Bild wissenschaftlicher Theorien zu zeichnen.<br />

Um nur eine Gefahr für wissenschaftstheoretische Untersuchungen<br />

beispielhaft zu nennen: In zu stark vereinfachenden Betrachtungen geht<br />

ein für Kohärenztheorien bedeutsames Merkmal der naturwissenschaftlichen<br />

Erkenntnis verloren, nämlich ihr hoher Vernetzungsgrad. Die vielen<br />

Fakten bilden ein sehr komplexes Netz von sich gegenseitig stützenden<br />

Aussagen, wobei sich Aussagen von unterschiedlichem Status, mit unterschiedlichen<br />

Funktionen und Gewicht identifizieren lassen. Wenn diese<br />

Zusammenhänge außer acht bleiben, erliegen wir z. B. leichter relativistischen<br />

Einwänden. Ohne die Komplexität des Netzes mit den vielen<br />

gegenseitigen Absicherungen sind schnell alternative Theorien zu finden,<br />

die uns epistemisch gleichwertig erscheinen. Für das tatsächliche hochkomplexe<br />

Netzwerk von wissenschaftlichen Hypothesen und Begründungen<br />

erscheint es dagegen weit utopischer, daß sich solche Alternativen<br />

konstruieren lassen. 121 Eine Metatheorie der Wissenschaften steht<br />

daher im Spannungsfeld zwischen den beiden entgegengerichteten Anforderungen,<br />

Ordnung in der amorph erscheinenden Vielfalt wissenschaftlicher<br />

Äußerungen sichtbar werden zu lassen und zugleich die innere<br />

Komplexität nicht durch willkürliche Beschränkung auf wenige<br />

Aspekte einfach über Bord zu werfen.<br />

121 Das gilt zumindest, wenn wir an „lokale“ Alternativen denken und<br />

nicht an vollständig andere Überzeugungssysteme wie etwa die skeptischen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 334<br />

A. Die Entscheidung für den Strukturalismus<br />

Aus den verschiedenen Ansätzen, um unser wissenschaftliches Wissen<br />

metatheoretisch zu repräsentieren, habe ich mich aus unterschiedlichen<br />

Gründen, von denen ich nur einige in diesem Abschnitt erläutern<br />

möchte, für die sogenannte strukturalistische Auffassung wissenschaftlicher<br />

Theorien entschieden. Sie geht auf den modelltheoretischen Ansatz<br />

von Suppes und Sneed zurück und wurde in den letzten Jahren von Stegmüller<br />

und anderen weiterentwickelt. Die Gründe für meine Entscheidung<br />

zerfallen in zwei Klassen: die pragmatischen und die inhaltlichen;<br />

zunächst zu einigen pragmatischen Gründen.<br />

Im Unterschied zu Auffassungen der logischen Empiristen beschränkt<br />

sich der Strukturalismus nicht auf die logisch unproblematische<br />

Sprache der Prädikatenlogik erster Stufe zur Darstellung von Theorien,<br />

sondern wählt die informelle Mengenlehre als Instrumentarium, wie sie<br />

auch in der Mathematik eingesetzt wird. Die ist zwar „unsauberer“, aber<br />

weit flexibler und ermöglicht eine Rekonstruktion von Theorien nahe<br />

an den Formulierungen der Naturwissenschaftler selbst; jedenfalls weit<br />

näher als Formulierungen im strengen Rahmen der Prädikatenlogik, die<br />

ausgesprochen unhandlich und kompliziert wirken, so daß auch bis<br />

heute noch keine komplexeren physikalischen Theorien in dieser Strenge<br />

umfassend axiomatisiert wurden. Das Motto des Strukturalismus ist<br />

in dieser Frage: Keine überzogenen Forderungen – etwa im Sinne der<br />

Metamathematik – an den formalen Apparat zur Darstellung von Theorien<br />

zu stellen, dessen eigene Komplexität von den eigentlichen wissenschaftsphilosophischen<br />

Fragestellungen ablenken würde. Vielmehr soll<br />

nur der formale Aufwand betrieben werden, der unbedingt erforderlich<br />

ist, wenn man die heutigen Theorien noch angemessen darstellen<br />

möchte. Da viele modernen Theorien im Rahmen einer aufwendigen<br />

Mathematik formuliert sind, kommt man allerdings um den Einsatz zumindest<br />

der Mengenlehre nicht umhin, wenn man diese Theorien noch<br />

adäquat rekonstruieren möchte. Doch ihr Einsatz sollte eigentlich kein<br />

ernsthaftes Hindernis für eine Kommunikation mit Philosophen und<br />

auch mit Fachwissenschaftlern darstellen, zumal sie nur in informeller<br />

Form eingesetzt wird.<br />

Ein weiterer praktischer Vorteil des Strukturalismus gegenüber anderen<br />

metatheoretischen Auffassungen ist, daß er schon für eine Reihe von<br />

logischen Rekonstruktionen für Theorien aus unterschiedlichen Bereichen<br />

eingesetzt wurde und seine Begrifflichkeit anhand dieser Beispielanalysen<br />

systematisch weiterentwickelt wird. Dabei bemüht man sich


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 335<br />

vor allem, die innere Struktur von Theorien besser zu verstehen. Daher<br />

muß ich nicht nahezu bei Null anfangen, wenn ich für bestimmte Komponenten<br />

in naturwissenschaftlichen Theorien eintrete, sondern kann<br />

mich auf wertvolle Vorarbeiten aus den unterschiedlichsten Bereichen<br />

der Wissenschaft stützen.<br />

Nun komme ich auch schon zu einigen stärker inhaltlichen Gründen,<br />

die für meine Wahl sprechen. An dieser Stelle werde ich nur einige<br />

allgemeine nennen, während die konkreteren Punkte sinnvollerweise im<br />

Rahmen der Entfaltung der Konzeption angesprochen werden. Der erste<br />

ist – und das ist für mich ein wesentlicher Aspekt des Wortes „Strukturalismus“<br />

–, daß Theorien nicht als amorphe Satzklassen betrachtet werden,<br />

sondern als Gegenstände mit einer reichhaltigen inneren Struktur,<br />

deren Zusammenspiel zu untersuchen für viele wissenschaftsphilosophische<br />

Fragestellungen lohnend ist. Für die logischen Empiristen sind<br />

Theorien Satzklassen, die gerade noch eine Unterscheidung in Beobachtungsaussagen,<br />

theoretische Aussagen und Brückenprinzipien erlauben,<br />

wobei selbst diese Unterscheidungen eher kritisch zu beurteilen sind;<br />

weitere innere Komponenten treten in Theorien dann jedoch nicht mehr<br />

auf. Das wird der hohen Komplexität moderner Theorien jedoch nicht<br />

gerecht.<br />

Wichtig ist in diesem Zusammenhang außerdem eine erste grundsätzliche<br />

Unterscheidung zwischen den sogenannten syntaktischen und<br />

den semantischen Auffassungen von Theorien. Die letzteren gerieten erst<br />

in den letzten zwei Jahrzehnten in den Blick der Wissenschaftsphilosophen<br />

und erfreuen sich seither einer zunehmenden Zahl von Proponenten.<br />

In der syntaktischen Sichtweise sind Theorien durch Mengen von<br />

Sätzen (ev. deduktiv abgeschlossen und effektiv entscheidbar) repräsentiert,<br />

während sie in der semantischen Auffassung – zu der auch der<br />

Strukturalismus zählt – als Mengen von Modellen verstanden werden.<br />

Es gibt natürlich viele Entsprechungen zwischen diesen beiden Vorgehensweisen,<br />

aber an einigen Stellen erweist die semantische Sichtweise<br />

sich doch als die geeignetere.<br />

Der Modellbegriff wird dabei wie folgt verstanden: Modelle sind<br />

Relationsstrukturen , die aus bestimmten Grundmengen D =<br />

und Relationen R = auf den Grundmengen<br />

bestehen. Intuitiv ist das so gemeint, daß die Grundmengen die Objekte<br />

enthalten, über die eine Theorie spricht – wobei es verschiedene Typen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 336<br />

von Objekten geben kann – und die Relationen geben die Beziehungen<br />

wieder, die die Theorie zwischen diesen Objekten behauptet. 122<br />

Eine wesentliche Absicht der Hervorhebung von Modellen gegenüber<br />

Aussagen war, die Abhängigkeit von der jeweiligen sprachlichen<br />

Darstellung einer Theorie zu verringern. Dadurch bleiben Umformulierungen<br />

einer Theorie als dieselbe Theorie erkennbar, solange sie noch<br />

immer dieselben Modelle auszeichnen. Van Fraassen (1991, 5) vergleicht<br />

den Übergang von syntaktischen zu semantischen Darstellungen von<br />

Theorien mit dem von Koordinatendarstellungen zu entsprechenden koordinatenfreien<br />

Formulierungen innerhalb der Physik selbst. Wörter sind<br />

dabei die Koordinaten, mit deren Hilfe wir die Theorien wiedergeben,<br />

aber sie stellen eine überflüssige Relativierung auf ein bestimmtes Bezugssystem<br />

dar, das eigentlich keinen bevorzugten Status für die Theorie<br />

besitzt. Ein anderer Aspekt, der der semantischen Auffassung eigentümlich<br />

ist und in dieser Arbeit noch an mehreren Stellen zum Tragen kommen<br />

wird, ist die Einbettung von Modellen. Ihr kommt eine wichtige intuitive<br />

Bedeutung zu (s. dazu van Fraassen 1980, 41ff), aber sie läßt sich<br />

auf der syntaktischen Ebene der Sätze nicht angemessen darstellen.<br />

Spätestens um Approximationen und Unschärfen in Theorien in unsere<br />

Untersuchungen einzubeziehen sind wir gezwungen, auf die semantische<br />

Ebene zu wechseln. Für approximative Zusammenhänge – man<br />

denke z. B. an approximative Reduktionen, die den Großteil von Reduktionen<br />

ausmachen – stehen die einander entsprechenden Komponenten<br />

der Modelle und nicht die Formulierungen, mit denen wir die Theorien<br />

beschreiben, ganz im Vordergrund. Bei einem Vergleich zwischen vorrelativistischen<br />

Theorien und speziell relativistischen Theorien, der die enge<br />

Beziehung zwischen beiden Theorien aufzeigen soll, ist es nur wenig<br />

hilfreich, sich auf die Gestalt der Gesetze zu beziehen und etwa darauf<br />

zu verweisen, daß sie ineinander übergehen, wenn wir c gegen unendlich<br />

gehen lassen. Günther Ludwig (1974 II, 369) spricht in diesem Zusammenhang<br />

von unerlaubten „Limes-Tricks“, die die Situation eher verschleiern<br />

als aufhellen können. Sie sind unerlaubt, weil es gerade eine<br />

zentrale Aussage der Relativitätstheorie ist, daß die Lichtgeschwindigkeit<br />

c eine endliche Konstante ist, und solange sie das bleibt, sind die Gesetze<br />

der beiden Theorien verschieden. Es ist daher fraglich, welchen erkenntnistheoretischen<br />

Wert eine derartige Limesbetrachtung für das Verhältnis<br />

von relativistischen und vorrelativistischen Theorien überhaupt haben<br />

soll. Allerdings sind die Lösungen der Differentialgleichungen beider<br />

122 Beispiele werden im folgenden deutlicher machen, wie solche Modelle<br />

auszusehen haben.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 337<br />

Theorien für weite Bereiche eng benachbart, und das gibt uns auf der semantischen<br />

Ebene eine Möglichkeit, den engen Zusammenhang der<br />

Theorien angemessen zu analysieren. 123 Zumindest an dieser Stelle der<br />

metatheoretischen Darstellung von Theorien scheint mir die Überlegenheit<br />

eines semantischen gegenüber einem syntaktischen Ansatz offensichtlich.<br />

B. Mehrdeutigkeiten des Theoriekonzepts<br />

Im Zentrum unseres Wissens steht, wie schon bemerkt, das wissenschaftliche<br />

Wissen und dieses Wissen ist konzentriert in Theorien, wobei hier<br />

der Begriff „Theorie“ zunächst in einem relativ weiten Sinn verstanden<br />

werden soll, so daß auch „kleine Theorien“, für die man manchmal eher<br />

von Hypothesen oder Modellvorstellungen spricht, darunter mitgemeint<br />

sind. Doch was sind „Theorien“? Der Sprachgebrauch ist an dieser Stelle<br />

alles andere als einheitlich. Was als eine Theorie anzusehen ist, wechselt<br />

häufig mit dem Kontext. So spricht man z. B. von „der Newtonschen<br />

Mechanik“ oder auch von der „Newtonschen Gravitationstheorie“. Ist<br />

nun die zweite Theorie als eine Teiltheorie der ersten zu verstehen?<br />

Oder wie ist das Verhältnis von Elektrodynamik zu Elektrostatik oder<br />

zur Ohmschen Theorie etc.? Man spricht sogar von „der Relativitätstheorie“<br />

oder „der Quantenmechanik“, obwohl wir unter diesem Begriff<br />

auf relativistisch formulierte Mechaniken, die Elektrodynamik und eine<br />

relativistische Thermodynamik stoßen, die man in vielen anderen Kontexten<br />

als mindestens drei Theorien betrachten würde. Der Theoriebegriff<br />

wird also auf recht unterschiedlich große Einheiten gleichermaßen<br />

angewandt.<br />

Ein erster Schritt, um für größere terminologische Klarheit zu sorgen,<br />

ist die begriffliche Unterscheidung dieser Einheiten. Der Strukturalismus<br />

unterscheidet Theorien zunächst in Theorien-Holons, Theorien-<br />

Netze und Theorie-Elemente, den kleinsten selbständigen Einheiten von<br />

Theorien. Die größten wissenschaftlichen Einheiten mit einheitlicher Begrifflichkeit<br />

wie die „Newtonsche Partikelmechanik“ oder die „Maxwellsche<br />

Elektrodynamik“ werden „Theorien-Netze“ genannt. Diese Netze<br />

setzen sich in Form von Baumstrukturen aus den sogenannten Theorie-<br />

Elementen zusammen, die durch „Spezialisierungsbeziehungen“ verknüpft<br />

sind. Holons sind darüber hinaus Gruppierungen größerer Teile<br />

123 Für das genannte Beispiel siehe etwa Bartelborth (1988, 143ff).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 338<br />

einer wissenschaftlichen Disziplin, die in einem bestimmten Sinn zusammengehören<br />

und durch eine Reihe intertheoretischer Beziehungen verknüpft<br />

sind, aber mit unterschiedlichen Begriffen operieren können. 124<br />

All diese Konzepte möchte ich anhand eines etwas ausführlicher betrachteten<br />

Fallbeispiels erläutern, nämlich der Klassischen Partikelmechanik<br />

(KPM) oder manchmal sage ich auch der „Newtonschen Partikelmechanik“.<br />

Daneben skizziere ich immer wieder Beispiele aus anderen<br />

Bereichen, erstens um die Konzepte weiter zu erläutern und zweitens<br />

um der Vermutung entgegenzutreten, der metatheoretische Apparat des<br />

Strukturalismus sei speziell auf die Mechanik zugeschnitten, was allerdings<br />

auch durch die zahlreichen strukturalistischen Rekonstruktionen<br />

aus anderen Bereichen widerlegt wird. Die klassische Partikelmechanik<br />

bietet sich für Illustrationszwecke an, weil sie auf der einen Seite bereits<br />

eine hinreichend komplexe Theorie ist, um alle Komponenten, die<br />

Strukturalisten bisher in Theorien identifizieren konnten, zu beinhalten<br />

und weil sie auf der anderen Seite eine relativ einfache und noch gut zugängliche<br />

Theorie darstellt.<br />

C. Das Netz einer Theorie am Beispiel der klassischen<br />

Partikelmechanik<br />

Beginnen möchte ich meine Skizze der klassischen Partikelmechanik, mit<br />

einem kurzen Überblick über das grobe Gerüst dieser Theorie. 125 Neben<br />

den grundlegenden Newtonschen Axiomen, die im Zentrum der Theorie<br />

stehen, finden sich eine Reihe von spezielleren Gesetzen, die für bestimmte<br />

Anwendungen zugeschnitten sind, wie das Gravitationsgesetz,<br />

das Hookesche Gesetz, Reibungsgesetze, etc. Jedes dieser „Spezialgesetze“<br />

beschreibt eine sogenannte Spezialisierung der Theorie, die eine Spezialisierung<br />

der Basisaxiome darstellt. Jede Spezialisierung wird im<br />

124 Für weitere Erläuterungen zu diesen Aspekten der strukturalistischen<br />

Auffassung möchte ich hauptsächlich auf Balzer/Moulines/Sneed (1987) im folgenden<br />

kurz (BMS) verweisen und auf die Beispiele, die noch folgen werden.<br />

125 Dabei stütze ich mich auf strukturalistische Rekonstruktionen sowohl<br />

der historischen Entwicklung der Theorie (Moulines 1979; BMS 1987, 223ff)<br />

wie auch auf synchronische Axiomatisierungen (Balzer/Moulines 1981; BMS<br />

1987, 180ff), weiche aber u.a. aus Gründen der verständlicheren Darstellung gelegentlich<br />

von ihnen ab. Die Komponenten der Theorien, die ich im folgenden<br />

vorstelle, sind ebenfalls in BMS (1987) zu finden und dort ausführlicher erläutert.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 339<br />

baumartigen Netz der Theorie durch ein eigenes Theorie-Element repräsentiert,<br />

wobei die Newtonschen Axiome gerade das Basis-Theorie-Element<br />

definieren. Die Theorie-Elemente weisen ihrerseits eine innere<br />

Struktur mit einer Reihe von Komponenten auf.<br />

1. Die begriffliche Struktur und die Gesetze von Theorie-Elementen<br />

Jede Theorie T beschreibt die Systeme, über die sie Aussagen machen<br />

möchte, in einer bestimmten ihr eigentümlichen Begrifflichkeit. Die<br />

klassische Partikelmechanik spricht etwa von Massenpunkten und Kräften<br />

zwischen diesen. Die Elektrodynamik spricht von elektrischen Ladungen<br />

und elektromagnetischen Feldern, die Evolutionstheorie von Arten,<br />

Selektionsdruck, Migration, genetischer Drift etc. und die Psychoanalyse<br />

z. B. von Neurosen, Über-Ich, Ich und Es. Diese Begrifflichkeiten<br />

der jeweiligen Theorien geben den konzeptuellen Rahmen ab, innerhalb<br />

dessen die Gesetze der Theorie formuliert werden, wobei dieser<br />

Rahmen für alle Theorie-Elemente eines Netzes derselbe bleibt. Um ihn<br />

zu beschreiben, werden zunächst alle Relationsstrukturen unter<br />

dem Stichwort „potentielle Modelle“ von T [Mp(T)] versammelt, die die<br />

gewünschte begriffliche Struktur aufweisen. Das geschieht durch die Angabe<br />

eines mengentheoretischen Prädikats, das die Menge der potentiellen<br />

Modelle definiert.<br />

In unserem konkreten Beispiel der klassischen Partikelmechanik<br />

(KPM) benötigen wir als Grundmenge: Eine Menge von Partikeln P, einen<br />

Zeitraum T, über den hinweg die Bahnen der Partikel beschrieben<br />

werden, und einen Ortsraum S, in dem die Partikel sich bewegen. Um<br />

die Rekonstruktion einfach zu halten, sehe ich von der Einführung unterschiedlicher<br />

Koordinatisierungen ab und identifiziere T mit einem reellen<br />

Intervall und S mit dem R 3 , wobei ich mir bewußt bin, daß die<br />

KPM damit nicht vollständig erfaßt werden kann. 126 Außerdem sind wir<br />

in der KPM zur Bestimmung der Kraftfunktion immer wieder gezwungen,<br />

auf bestimmte Materialkonstanten zurückzugreifen, wie Federkonstanten,<br />

Reibungswerte und andere mechanische Parameter, die in einer<br />

Menge Z zusammengefaßt werden.<br />

Neben den Grundmengen finden wir drei Grundgrößen der Theorie:<br />

Da ist als erstes die Weg-Zeit-Funktion s(p,t), die jedem Partikel p zu je-<br />

126 In Bartelborth (1988) und (1993) wird im Rahmen der speziellen und<br />

der allgemeinen Relativitätstheorie ausgeführt, wie man Koordinatisierungen<br />

einzubringen hat und wie man der Lokalitätsbedingung an strukturalistische Modelle<br />

(s.u.) genügen kann.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 340<br />

der Zeit t T einen Ort s S zuordnet. Außerdem die Massenfunktion<br />

m(p), die für jeden Partikel seine Masse angibt, und schließlich die<br />

Kraftfunktion f, der eine zentrale Rolle innerhalb von KPM zufällt, die<br />

daher aber auch mit f(p, i, t, z) die komplizierteste Struktur aufweist. Sie<br />

bestimmt Kräfte für die Partikel p, gibt aber möglicherweise nicht nur<br />

eine Kraftkomponente an, sondern gleich mehrere, die durch den zweiten<br />

Parameter i ℕ durchgezählt werden sollen. Das wird der Tatsache<br />

Rechnung tragen, daß mehrere Kräfte wie Gravitationskräfte von verschiedenen<br />

Planeten, dazu Reibungskräfte bei einer Bewegung durch die<br />

Atmosphäre usw. gleichzeitig auf einen Partikel wirken können. Die<br />

Kräfte können darüber hinaus im Laufe der Zeit t variieren und möglicherweise<br />

von bestimmten mechanischen Parametern z Z abhängen. 127<br />

Mit diesen Bestimmungen ergibt sich folgendes Prädikat zur Definition<br />

der Menge der potentiellen Modelle:<br />

x ist ein potentielles Modell der KPM [x Mp(KPM)] gdw:<br />

1) x = <br />

2) P ist eine nichtleere Partikelmenge.<br />

3) T ist ein zusammenhängendes, offenes Intervall in ℝ und S eine<br />

offene, einfach zusammenhängende Teilmenge des ℝ 3 .<br />

4) Z ist eine Zusammenstellung mechanischer Parameter.<br />

5) s: PT S ist eine differenzierbare Funktion. 128<br />

6) m: P ℝ + .<br />

7) f: Pℕ n TZ ℝ 3 .<br />

Unter den so definierten potentiellen Modellen bilden die aktualen Modelle<br />

jedes Theorie-Elements jeweils eine Teilmenge, nämlich die Menge<br />

der zugelassenen Relationsstrukturen, die die jeweiligen Gesetze und<br />

Spezialgesetze des Theorie-Elements erfüllen. Betrachten wir als Beispiel<br />

das Basis-Theorie-Element der KPM, das das erste und zweite Newtonschen<br />

Gesetz beinhalten soll. Diesen Gesetzen gibt man üblicherweise die<br />

bekannte Form „f=ma“, was unter Berücksichtigung der Kraftkomponenten<br />

allerdings noch etwas komplizierter zu formulieren ist, da über<br />

diese aufsummiert wird:<br />

x ist ein Modell der KPM [x M(KPM)] gdw:<br />

1) x = <br />

127 z wird dabei als ein Vektor von solchen Parametern angesehen, auf dessen<br />

innere Struktur ich aber nicht weiter eingehen möchte.<br />

128 Unter „differenzierbar“ verstehe ich hier aus Gründen der Vereinfachung<br />

immer „unendlich oft differenzierbar“.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 341<br />

2) x Mp(KPM)<br />

3) Für alle p P und t T gilt:<br />

In (3) werden nun die Teilkräfte zu einer Gesamtkraft vereinigt, die anhand<br />

des zweiten Newtonschen Axioms über die Beschleunigung von<br />

Partikeln Auskunft gibt. Vergißt man die Aufspaltung der Gesamtkraft in<br />

Teilkräfte, hat das mindestens zwei negative Folgen: Erstens erhält das<br />

zweite Newtonsche Axiom die Gestalt einer Definition für die Kraftfunktion,<br />

was zu etlichen wissenschaftsphilosophischen Diskussionen<br />

Anlaß gab. Zweitens ist die dabei entstehende Theorie nur noch auf die<br />

Spezialfälle anwendbar, in denen auf einen Partikel nicht mehrere Kräfte<br />

gleichzeitig wirken.<br />

Mit den aktualen Modellen haben wir die Modellmenge bestimmt,<br />

die die Gesetze und später in den Spezialisierungen auch die Spezialgesetze<br />

einer Theorie repräsentieren soll. Doch mit dem konzeptuellen<br />

Rahmen und den Gesetzen ist natürlich noch nicht die gesamte innere<br />

theoretische Struktur eines Theorie-Elements erfaßt.<br />

2. Innertheoretische Querverbindungen: Constraints<br />

Ein Punkt, der bisher noch nicht explizit zur Sprache kam, sondern nur<br />

stillschweigend angenommen wurde, ist die lokale Konzeption von Modellen,<br />

die vom Strukturalismus vertreten wird; im Unterschied etwa zur<br />

semantischen Konzeption von van Fraassen (z. B. in 1980), die globale<br />

Modelle zum Gegenstand hat. Im Strukturalismus beabsichtigt man, jedes<br />

physikalische System – etwa ein bestimmtes Experiment –, das man<br />

mit einer Theorie behandeln möchte, durch ein eigenes Modell darzustellen.<br />

Die Beschreibung der Welt durch eine Theorie gibt damit nicht<br />

nur ein globales Modell für das ganze Universum an, sondern beinhaltet<br />

eine Vielzahl lokaler Modelle für viele lokale Anwendungen der Theorie.<br />

129 Das entspricht zunächst der Vorgehensweise von Physikern, die<br />

auch in jedem Experiment immer nur ein bestimmtes System behandeln<br />

und die Größen der Theorie für dieses System bestimmen.<br />

Ein anderer Vorteil der lokalen Konzeption von Modellen einer<br />

Theorie besteht darin, daß sie eine differenziertere Behandlung intertheoretischer<br />

Approximationsbeziehungen ermöglichen, als das für glo-<br />

129 Natürlich kann eine lokale Anwendung entsprechender Theorien auch<br />

eine kosmologische sein.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 342<br />

bale Modelle gelingt. Wenn etwa vorrelativistische und relativistische<br />

Theorien miteinander verglichen werden sollen, nimmt man – im allgemeinen<br />

ohne das explizit zu machen – auf lokale Modelle bezug, denn<br />

nur für diese wird der enge Zusammenhang der Theorien sichtbar (vgl.<br />

dazu Bartelborth 1988, 143ff und Bartelborth 1993). Globale relativistische<br />

und vorrelativistische Modelle passen nicht zusammen, weil erstens<br />

für unbeschränkte Raum-Zeiten keine approximative Beziehung zwischen<br />

den Theorien besteht und zweitens Tensoren in der klassischen<br />

Theorie auch Werte für beliebig große Überlichtgeschwindigkeiten beinhalten,<br />

die in der relativistischen Theorie keine Entsprechung mehr besitzen.<br />

Dagegen weisen zumindest entsprechende Teilklassen lokaler<br />

Modelle beider Theorien enge approximative Beziehungen auf. So<br />

kommt gerade lokalen Modellen auch für die intertheoretischen Relationen<br />

eines Theorien-Holons große Bedeutung zu. In Bartelborth (1993)<br />

wird gezeigt, wie die lokale Auffassung von Modellen in der allgemeinen<br />

Relativitätstheorie eine Einschränkung eines sonst unmäßig erscheinenden<br />

Holismus gestattet.<br />

Die lokale Konzeption von Modellen macht allerdings die Angabe<br />

von Querverbindungen, sogenannten „Constraints“, zwischen den lokalen<br />

Modellen erforderlich. Lokale Modelle können z. B. „überlappen“<br />

indem ein Partikel in verschiedenen Systemen auftritt. So kann ein Modell<br />

das System Erde-Mond und ein anderes Sonne-Erde darstellen, wobei<br />

die Erde in beiden Systemen vertreten ist. Dann muß unter anderem<br />

gewährleistet werden, daß ihr keine unterschiedlichen Massenwerte in<br />

den beiden Modellen zugeordnet werden. Oder eine Feder wird in mehreren<br />

Anwendungen eingesetzt, dann erwarten wir, daß sie dieselbe Federkonstante<br />

in allen Anwendungen aufweist. 130 Solche innertheoretischen<br />

Forderungen nach konsistenter Zuweisung von Werten zu unseren<br />

physikalischen Größen werden als „Constraints“ umgesetzt. Constraints<br />

oder innertheoretische Querverbindungen, manchmal auch „Brückenstrukturen“<br />

genannt, werden dargestellt durch Mengensysteme von potentiellen<br />

Modellen, deren Mengen (die Elemente des Constraints) uns<br />

alle Kombinationen zusammenpassender potentieller Modelle angeben.<br />

Allgemein hat ein Constraint C(T) für eine Theorie T die folgenden formalen<br />

Anforderungen zu erfüllen:<br />

130 Für weitere Beispiele siehe BMS (1987, 41ff) und für einen Constraint,<br />

der raumzeitliche Invarianzen beschreibt, Bartelborth (1993).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 343<br />

C(T) ist ein Constraint für T gdw.:<br />

1) C Pot(Mp(T)) 131<br />

2) x Mp(T): {x} C(T)<br />

3) C(T)<br />

Derartige Brückenstrukturen werden in Lehrbuchdarstellungen von<br />

Theorien entweder nur implizit mitgedacht, oder sie werden auf derselben<br />

Ebene wie ihre Gesetze behandelt. Sie haben aber eine etwas andere<br />

Funktion als diese, nämlich einen Informationstransfer zwischen verschiedenen<br />

Anwendungen zu bewirken.<br />

Es gibt inzwischen einige rekonstruierte Fälle aus der Wissenschaftsgeschichte,<br />

in denen sie ihre Eigenständigkeit offenbaren und in denen<br />

ihre Bedeutung gerade für theoriendynamische Zusammenhänge deutlich<br />

wird. Ein besonders schönes Beispiel aus der astronomischen Theorie<br />

der Cepheiden untersuchte Ulrich Gähde (1989, 166ff). Darin konnten<br />

Anomalien der Cepheidentheorie durch eine Veränderung von Brükkenstrukturen<br />

beseitigt werden. Die Cepheiden sind Sterne, die Helligkeitsveränderungen<br />

mit regelmäßiger Frequenz unterliegen, wobei die<br />

Veränderungen in systematischer Weise mit ihrer absoluten Helligkeit<br />

zusammenhängen. Das führte zu der Annahme einer Konstante für den<br />

Zusammenhang zwischen Perioden und Helligkeit, die man für alle<br />

Sterne des Cepheiden Typs annahm. Aus bestimmten Fällen, in denen<br />

man die Entfernung kannte, ließ sich die gesuchte Konstante bestimmen<br />

und dann diese Information für andere Cepheiden nutzbar machen, so<br />

daß für sie ihre Entfernung anhand der Konstante und ihrer Veränderungsfrequenz<br />

bestimmt werden konnte. Dieses Verfahren ließ sich auch<br />

auf weit entfernte Galaxien ausdehnen und war daher von großer Bedeutung<br />

für die Vermessung des Weltalls. Unter anderem konnte man<br />

dadurch erstmals die Kantische Vermutung beweisen, daß es andere Galaxien<br />

gibt. Eine Reihe von Anomalien führten fast 40 Jahre nach der<br />

Entdeckung eines konstanten Perioden-Leuchtkraft Zusammenhangs<br />

schließlich zur Aufgabe des skizzierten Constraints – der dieselbe Konstante<br />

für alle Cepheiden verlangt – durch den amerikanischen Astronomen<br />

Baade. Tatsächlich müssen wir zwischen zwei Populationen von Cepheiden<br />

unterscheiden, für die zwar beide ein entsprechender Zusammenhang<br />

gilt, aber mit jeweils einer anderen Konstante. 132 Diese Einsicht<br />

führte zu revolutionären Änderungen unserer Ansichten über extragalaktische<br />

Entfernungen.<br />

131 Mit Pot(A) bezeichne ich die Potenzmenge von A.<br />

132 Die Darstellung ist sehr vereinfacht und für die detaillierte Geschichte<br />

s. Gähde (1989, 166ff) oder auch Gähde (1989b) in etwas kürzerer Form.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 344<br />

Das Gähdesche Beispiel illustriert recht eindrucksvoll, wie groß die<br />

Bedeutung von Constraints sein kann, die zunächst nicht einmal explizit<br />

formuliert wurden, sondern als nahezu selbstverständliche implizite Prämisse<br />

auftraten. Außerdem demonstriert es, wie Constraints den Informationstransfer<br />

zwischen einzelnen Anwendungen einer Theorie bewerkstelligen,<br />

so daß damit Größen bestimmt werden können – hier die<br />

Entfernung von Galaxien –, die wir bei isolierten Betrachtungen einzelner<br />

Systeme nicht bestimmen konnten. Dabei stellt es auch ein weiteres<br />

Beispiel gegen Poppers rigide Auffassung von wissenschaftlicher Rationalität<br />

dar. Ihm hätte es als eine ad hoc Hilfsannahme zur Rettung der<br />

Theorie erscheinen müssen, daß wir zwei Cepheiden Populationen einführen,<br />

um den Zusammenhang zwischen Helligkeitsperioden und absoluter<br />

Helligkeit zu retten. Das wirkt besonders dann ad hoc, wenn uns<br />

nicht klar ist, daß wir an dieser Stelle vorher eine recht starke Behauptung<br />

aufgestellt hatten, die wir nun abschwächen.<br />

Weiterhin ist das alte Problem, wie die Beschreibungen eines physikalischen<br />

Systems aus unterschiedlichen Bezugssystemen heraus untereinander<br />

zusammenhängen, eine Frage nach Querverbindungen zwischen<br />

lokalen Modellen. Jede derartige Beschreibung bietet – entsprechend<br />

der lokalen Auffassung von Modellen – ein anderes potentielles<br />

Modell und Konsistenzbetrachtungen gestatten natürlich nicht, beliebige<br />

solcher Modelle gleichzeitig zu akzeptieren. Welche Kombinationen in<br />

diesen Fällen zulässig sind, hängt wesentlich von den Invarianz- bzw. Kovarianzforderungen<br />

einer Theorie ab. Für galilei-invariante und lorentzinvariante<br />

Theorieformulierungen finden sich die entsprechenden Invarianzconstraints<br />

in Bartelborth (1988, 46ff und 103ff) und für den Bereich<br />

der allgemeinen Relativitätstheorie sind die entsprechenden Kovarianzconstraints<br />

in Bartelborth (1993) formuliert worden.<br />

Für die KPM in der hier angegeben Form benötigen wir keine Invarianzconstraints,<br />

da ich sie der Einfachheit halber auf ein feststehendes<br />

Koordinatensystem bezogen habe. Es bleibt aber noch, den Identitätsund<br />

Extensivitätsconstraints für die Massenfunktion zu formulieren. 133<br />

Der Identitätsconstraint verlangt, daß Partikel, die in verschiedenen potentiellen<br />

Modellen auftreten, dort dieselben Massenwerte annehmen,<br />

während der Extensivitätsconstraint die Fälle abdecken soll, in denen<br />

zwei Partikel, die wir aus anderen Systemen „kennen“, nun zu einem<br />

neuen Partikel eines dritten potentiellen Modells zusammengefügt wer-<br />

133 Auf den in BMS (1987, 106) zusätzlich formulierten Identitätsconstraint<br />

für die Kraft verzichte ich an dieser Stelle, da es einen etwas höheren formalen<br />

Aufwand erfordert, einzelne Kraftkomponenten zu identifizieren.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 345<br />

den. Seine Masse muß dann (jedenfalls im Rahmen von KPM) natürlich<br />

genau der Summe der Einzelmassen entsprechen. Das Zusammenfügen<br />

wird dabei durch eine Konkatenationsfunktion ausgedrückt, die eine<br />

Funktion von PP nach P sein soll.<br />

Identitätsconstraint für KPM<br />

Cid(KPM) := {X Mp(KPM); X & x, y X, p Px Py:<br />

mx(p) = my(p)} 134<br />

Extensivitätsconstraint für KPM<br />

Cext(KPM) := {X Mp(KPM); X & x X, p, p’ Px:<br />

mx(p p’) = mx(p) + mx(p’)} 135<br />

Um die Anforderungen, die durch die einzelnen Constraints einer Theorie<br />

eingebracht werden, zu vereinen, bilden wir den allgemeinen Constraint<br />

C(T) einer Theorie als Durchschnitt aller Einzelconstraints:<br />

C(KPM) := Cid(KPM) Cext(KPM)<br />

In C(KPM) werden nur noch die Kombinationen von Modellen erlaubt,<br />

die sowohl den Identitäts- wie auch den Extensitivitätsconstraint erfüllen,<br />

d.h. C(KPM) drückt nun alle innertheoretischen Konsistenzforderungen<br />

aus.<br />

3. Intertheoretische Querverbindungen: Links<br />

Konsistenzforderungen gibt es natürlich nicht nur innerhalb von Theorien,<br />

sondern auch in vielfältiger Weise zwischen Theorien. Solche intertheoretischen<br />

Brückenstrukturen haben im strukturalistischen Theorienkonzept<br />

den Namen „Links“ bekommen. Sie können in verschiedenen<br />

Funktionen auftreten, aber als eine Gemeinsamkeit verbindet sie die<br />

Aufgabe, Informationen aus einer Theorie an eine andere zu übergeben.<br />

Am deutlichsten wird das für die sogenannten „presupposition links“. Ihre<br />

Aufgabe ist es, für eine Theorie bestimmte Terme aus einer „Vortheorie“<br />

bereitzustellen. Für die KPM sind das etwa räumliche und zeitliche<br />

Entfernungskonzepte, die aus einer physikalischen Geometrie und entsprechenden<br />

chronometrischen Theorien stammen. Die KPM stellt ihrerseits<br />

z. B. der Elektrodynamik den Kraftbegriff zur Verfügung. Sie<br />

gibt jedenfalls seine grundlegenden theoretischen Zusammenhänge und<br />

134 Wobei mit Px und mx jeweils die Partikelmenge bzw. die Massenfunktion<br />

des potentiellen Modells x gemeint ist.<br />

135 Siehe dazu BMS 105f.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 346<br />

auch grundlegende Meßverfahren für ihn an. „Stellt zur Verfügung“ ist<br />

hierbei allerdings nicht im Sinne einer expliziten Definition zu verstehen,<br />

sondern bestenfalls gibt die Vortheorie ein Bestimmungsverfahren<br />

für eine Größe an und auch das meist nur für bestimmte Anwendungen<br />

der Theorie und nicht gleich für alle Situationen.<br />

Das soeben skizzierte Bild von Vortheorien, auf die sich eine Theorie<br />

anhand von „presupposition links“ stützt, ist natürlich im günstigsten<br />

Fall eine Idealisierung und soll nicht dazu verführen, von einer einfachen<br />

Hierarchie unter Theorien auszugehen. Allerspätestens in der allgemeinen<br />

Relativitätstheorie stößt die hierarchische Konzeption an offensichtliche<br />

Grenzen (vgl. Bartelborth 1995).<br />

Die der hierarchischen Konzeption zugrundeliegende Vorstellung,<br />

nach der etwa Raum-Zeit Theorien in der Schichtung relativ weit unten<br />

angesiedelt sind und in den oberen Schichten als eine Art vorgegebener<br />

Behälter dienen können, in dem sich das Geschehen, das etwa von den<br />

Maxwellschen Gleichungen beschrieben wird, abspielt, ist spätestens für<br />

die Allgemeine Relativitätstheorie nicht mehr aufrechtzuerhalten. Die<br />

Struktur der allgemein-relativistischen Raum-Zeit ist nämlich abhängig<br />

vom Energie-Impuls-Tensor, der seinerseits von allen Größen aus Mechanik,<br />

Thermodynamik und Elektrodynamik abhängt, also von Größen,<br />

die laut der Schichtenkonzeption eigentlich weiter oben angesiedelt<br />

sein sollten. 136 Als einfacher Ausweg, der allerdings methodologisch unbefriedigend<br />

erscheint, bleibt die Flucht in einen Holismus, der Raum-<br />

Zeit-Theorie, Mechanik, Thermodynamik und Elektrodynamik als eine<br />

große Einheit betrachtet, die in sich keiner hierarchischen Struktur fähig<br />

ist. Gelingt es dagegen, eine wenn auch schwache Schichtenstruktur dieses<br />

Theorie-Holons aufzuzeigen, die näher an der Praxis von Physikern<br />

liegt, ergibt sich ungefähr das nebenstehende Bild der allgemeinen Relativitätstheorie<br />

(s. Bartelborth 1993). Die dicken Pfeile stehen für approximative<br />

„presupposition links“, während die dünnen die Spezialisierungszusammenhänge<br />

in den jeweiligen Netzen darstellen sollen, die nur<br />

angedeutet sind. 137<br />

136 In Bartelborth (1993) findet sich eine Rekonstruktion dieses Theorienkomplexes,<br />

die zeigt wie sich hierarchische versus holistische Ansichten in diesem<br />

Fall verhalten. Ein Vorschlag, wenigstens eine approximative Hierarchie<br />

aufrechtzuerhalten, stützt sich schließlich wesentlich auf die Konzeption lokaler<br />

Modelle.<br />

137 Die Spezialisierungsbeziehung wird später noch präzisiert.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 347<br />

Theorien-Holon: Allgemeine Relativitätstheorie<br />

Neben den intertheoretischen Beziehungen zwischen Vortheorien und<br />

Theorien, in denen die Vortheorien gewisse Begriffe bereitzustellen haben,<br />

gibt es natürlich zahlreiche andere intertheoretische Beziehungen,<br />

die durch Links auszudrücken sind. Auch intertheoretische Beziehungen<br />

werden nicht immer explizit in den Textbüchern der Fachwissenschaften<br />

erwähnt, obwohl sie von grundlegender Bedeutung sein können. Dazu<br />

ein prominentes Beispiel: Es ist üblich, die Theorien Mechanik, Thermodynamik<br />

und Elektrodynamik auseinanderzuhalten und ihre jeweiligen<br />

Beiträge zur Bewegungsgleichung, etwa einer Flüssigkeit in einem<br />

elektromagnetischen Feld, getrennt zu bestimmen. Das ist sicher auch<br />

sinnvoll, aber es sollte nicht darüber hinwegtäuschen, daß die Bewegungsgleichung<br />

einer Flüssigkeit letztlich nur anhand der Energie- und<br />

Impulsbilanzen aus allen drei Theorien zusammengenommen ermittelt<br />

werden kann. Nur für diese Gesamtsumme gilt eine Erhaltungsgleichung,<br />

die damit wesentlich intertheoretischen Charakter hat. 138 In Bartelborth<br />

(1988) wird dieser Zusammenhang für vorrelativistische Theorien<br />

und speziell relativistische Theorien untersucht, in Bartelborth (1993) auch<br />

noch für den allgemeinrelativistischen Fall. In den genannten Beispielen läßt<br />

sich die Bewegungsgleichung so ausdrücken:<br />

(*) div(Tmech+Ttherm+Telektro) = 0,<br />

wobei die drei Terme, von deren Summe dann die Divergenz zu bilden<br />

ist, jeweils die Energie-Impuls-Tensoren der drei Theorien darstellen sollen.<br />

Der intertheoretische Charakter dieser Gleichung wird augenfällig,<br />

138 Eine innerphysikalische Diskussion, die diesen intertheoretischen Charakter<br />

der Bewegungsgleichung des öfteren aus den Augen verloren hat und dadurch<br />

einige unnötige Wellen schlug, war die um die korrekte Gestalt des elektromagnetischen<br />

Energie-Impuls-Tensors, die u.a. in Bartelborth (1988, Kap. II)<br />

analysiert wird.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 348<br />

wenn man sie ausführlich formuliert, und ebenso, daß es sich um eine<br />

intertheoretische Beziehung zwischen drei Theorien handelt, was eine<br />

kanonische Erweiterung des bisherigen Linkkonzepts des Strukturalismus<br />

erforderlich macht, das nur Links zwischen zwei Theorien kannte.<br />

Entsprechendes gilt um so mehr für die Einsteinsche Gravitationsgleichung,<br />

die einen Zusammenhang zwischen dem gesamten Energie-Impuls-Tensor<br />

und der Raum-Zeit darstellt. Hier werden sogar vier Theorien<br />

durch einen Link zusammengebunden. Im Fall der Gleichung (*) besagt<br />

der Link, daß nur solche Modelle der drei Theorien zusammenpassen,<br />

deren Energie-Impuls-Tensoren aufaddiert eine verschwindende Divergenz<br />

besitzen. Abstrakt läßt sich ein Link ℒ als eine Relation zwischen<br />

den potentiellen Modellen von n-Theorien T1,,Tn verstehen:<br />

ℒ(T1,,Tn) Mp(T1) Mp(Tn),<br />

aber für konkrete Beispiele lassen sich die Links auch als Beziehungen<br />

bestimmter Terme der jeweiligen Theorien betrachten. 139 Dem möchte<br />

ich nicht weiter nachgehen, sondern nur noch den Effekt eines Links<br />

ℒ(T1,,Tn) auf die einzelne Theorie, nehmen wir T1, bestimmen.<br />

ℒ(T1,,Tn) sondert in T1 eine Teilmenge von potentiellen Modellen<br />

aus, nämlich gerade die, die mit entsprechenden potentiellen Modellen<br />

aus T2,,Tn so „gelinkt“ werden können, daß die Bestimmungen des<br />

Links – z. B. die Bewegungsgleichung (*) – erfüllt werden. Mengentheoretisch<br />

läßt sich der Link L(T1) für T1 damit, wie auch die Modellmenge<br />

von T1, als eine Teilmenge von Mp(T1) formulieren:<br />

L(T1) := {x Mp(T1); x2 Mp(T2) xn Mp(Tn) mit:<br />

ℒ(T1,,Tn)}<br />

Mit den Links sind die Theoriekomponenten, die sich auf den potentiellen<br />

Modellen einer Theorie formulieren lassen, bis auf die Einbeziehung<br />

von Approximationen abgeschlossen. Nun wird die begriffliche Struktur<br />

der Theorie noch um eine Komponente erweitert, nämlich die Auszeichnung<br />

von Submodellen einer bestimmten Art.<br />

4. Die „empirische“ Ebene einer Theorie<br />

In der syntaktischen Sichtweise von Theorien wurden die Terme einer<br />

Theorie in zwei Klassen eingeteilt: die Beobachtungsterme und die theoretischen<br />

Terme. Damit vermengte man zwei unterschiedliche Kategori-<br />

139 Zur formalen Präzisierung von abstrakten und konkreten Links s. BMS<br />

(1987, 61).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 349<br />

sierungen, nämlich die in theoretisch/nichttheoretische Terme und die in<br />

Ausdrücke für beobachtbare und nichtbeobachtbare Größen einer Theorie<br />

(s. dazu van Fraassen 1980, 14ff), von denen keineswegs klar ist, daß<br />

es sich um deckungsgleiche Taxonomien handeln muß. Van Fraassen<br />

(1980, 45ff) wendet sich der zweiten zu und führt in seinem semantischen<br />

Theorienkonzept eine Unterscheidung zwischen den empirischen<br />

Substrukturen, die nur Beobachtbares repräsentieren sollen und den<br />

übrigen Anteilen des vollständigen Modells ein, die unbeobachtbar<br />

sind. 140 Mit Hilfe dieser „empirischen Substrukturen“ gedenkt van Fraassen<br />

(1980, 45), den empirischen Gehalt von Theorien wiederzugeben,<br />

wonach eine Theorie genau dann empirisch adäquat ist, wenn es ein<br />

Modell der Theorie gibt, so daß sich alle Phänomene, die die Theorie zu<br />

erklären beabsichtigt, isomorph in die empirische Substruktur dieses<br />

Modells einbetten lassen.<br />

Auch der Strukturalismus kennt derartige Substrukturen von potentiellen<br />

Modellen, die er in anschaulicher Weise „partielle Modelle“<br />

nennt. Doch dabei stützt er sich anders als van Fraassen auf die theoretisch/nichttheoretisch<br />

Unterscheidung. Statt von einer grundlegenden<br />

Beobachtungsebene auszugehen – was sich als recht problematisch erwiesen<br />

hat – und alle anderen Teile als „theoretisch“ zu klassifizieren,<br />

werden bestimmte Theoriekomponenten einer Theorie T als theoretisch<br />

bezüglich T oder T-theoretisch eingestuft. Für diese Einstufung ist wesentlich<br />

ihre Stellung in der Theorie T selbst verantwortlich, unabhängig<br />

von Fragen ihrer Beobachtbarkeit.<br />

Dahinter steht die Vorstellung, daß Theorien oft bestimmte neue<br />

Terme einführen, aber daneben auch auf Terme aus anderen Theorien<br />

zurückgreifen. Die ersteren Terme sollen dann die T-theoretischen sein,<br />

während die zweite Sorte als T-nichttheoretisch bezeichnet wird. Diese<br />

Unterscheidung hat verschiedene Präzisierungen erfahren, von denen ich<br />

nur zwei nennen möchte. Die meßtheoretische, die auf Balzer/Moulines<br />

(1980) zurückgeht, nennt einen Term t T-theoretisch, wenn alle Meßverfahren<br />

für t sich letztlich als Anwendungen der Theorie T erweisen oder<br />

anders gesagt, wenn es für t keine Meßverfahren gibt, die unabhängig<br />

von T die Werte von t bestimmen können. Meßverfahren sind aber (s.<br />

Forge 1984a) vielfach hochgradig intertheoretische Gebilde, die nur<br />

schwer zu beschreiben sind, und in der Praxis erweist es sich meist als<br />

problematisch, sich einen Überblick über die tatsächlichen Meßverfahren<br />

und ihren theoretischen Hintergrund zu verschaffen.<br />

140 Auch Friedman spricht in (1983) von Submodellen, wobei er manchmal<br />

ähnliche Unterscheidungen im Auge hat.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 350<br />

Deshalb hat Ulrich Gähde (1980) einen rein innertheoretischen Abgrenzungsvorschlag<br />

entwickelt, der als Ausgangspunkt die möglichen<br />

Zerlegungen der Terme einer Theorie in zwei Klassen nimmt. Die theoretischen<br />

Terme gehören dabei zu einer Klasse von Termen, die in dem<br />

Basis-Theorie-Element einer Theorie noch nicht eindeutig durch die andere<br />

Klasse festgelegt wird, also insbesondere nicht im strengen Sinn definierbar<br />

ist, die aber trotzdem in einigen Anwendungen der Theorie anhand<br />

von Spezialgesetzen und den nichttheoretischen Termen eindeutig<br />

bestimmbar ist. Auch dieser Ansatz weist einige Probleme in der Anwendbarkeit<br />

auf. Zum einen sind die mathematischen Zusammenhänge<br />

für komplexere Theorien noch nicht weit genug aufgeklärt, um das Kriterium<br />

immer anwenden zu können (s. dazu Bartelborth 1988, 95ff),<br />

und zum anderen kann es mehrere Zerlegungen mit den genannten Eigenschaften<br />

geben, so daß das Kriterium allein keine eindeutige Einteilung<br />

zuläßt. Es scheint dann zwar als notwendige, aber nicht als hinreichende<br />

Bedingung geeignet zu sein (s. dazu Schurz 1990 und Gähde<br />

1990).<br />

An dieser Stelle mag es genügen, den intuitiven Gehalt der T-theoretisch/T-nichttheoretisch<br />

Unterscheidung im Auge zu behalten. Bestimmte<br />

Terme werden von Vortheorien über „presupposition links“ zur Verfügung<br />

gestellt, während andere „vor“ der Theorie nicht vorkommen. Abstandsbegriffe<br />

und den Kraftbegriff bezieht die Elektrodynamik aus anderen<br />

Theorien, während sie selbst das Konzept der elektromagnetischen<br />

Felder einführt. Um sie zu messen, sind wir auf Gleichungen<br />

aus der Elektrodynamik, wie dem Lorentzschen Kraftgesetz, angewiesen.<br />

Für viele Theorien und Terme lassen sich derartige Unterscheidungen<br />

in hinreichend präziser Form vornehmen, um damit die Menge<br />

der partiellen Modelle zu definieren. Für die klassische Partikelmechanik<br />

ergibt sich etwa, daß Masse und Kraft KPM-theoretisch sind (s. Gähde<br />

1983 oder BMS 47ff). Damit erhalten wir in unserem Beispiel als<br />

Menge der partiellen Modelle:<br />

x ist ein partielles Modell der KPM [x Mp(KPM)] gdw:<br />

1) x = <br />

2) P ist eine nichtleere Partikelmenge.<br />

3) T ist ein zusammenhängendes, offenes Intervall in ℝ.<br />

4) Z ist eine Zusammenstellung mechanischer Parameter.<br />

5) s: PT S ist eine differenzierbare Funktion. 141<br />

141 Unter „differenzierbar“ verstehe ich immer unendlich oft differenzierbar.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 351<br />

Um auf die Zusammenhänge zwischen Modellen und ihren partiellen<br />

Modellen leichter Bezug nehmen zu können, definieren wir die „Abschneidefunktion“<br />

r:Mp Mpp durch r() =<br />

, die uns zu jedem potentiellen Modell das entsprechende<br />

„gekürzte“ partielle Modell liefert.<br />

Von früheren Konzeptionen theoretischer Terme in anderen metatheoretischen<br />

Ansätzen unterscheidet sich die strukturalistische Auffassung<br />

nicht nur durch die theorienbezogene oder sogar theorienimmanente<br />

Auszeichnung der theoretischen Ebene, sondern ebenfalls durch<br />

die Schichtung von immer neuen Ebenen von theoretischen Begriffen,<br />

die über das alte Zweistufenmodell der Wissenschaftssprache, aber auch<br />

über die semantische Zweistufenkonzeption van Fraassens hinausgeht<br />

und im Prinzip beliebig viele Theoretisierungsstufen zuläßt. Außerdem<br />

gibt es keine Verpflichtung auf eine klare Hierarchie solcher Stufen<br />

mehr, sondern man ist offen für eine vorurteilslose Untersuchung holistischer<br />

Phänomene.<br />

5. Der Anwendungsbereich einer Theorie<br />

Eigentlich ist es eine Selbstverständlichkeit, aber trotzdem wird sie oft<br />

genug nicht zur Kenntnis genommen, daß jede Theorie nur auf ganz bestimmte<br />

natürliche Systeme, beschrieben in einer bestimmten Weise, angewendet<br />

wird und nicht etwa auf alle Phänomene in der Welt. Mit der<br />

Evolutionstheorie oder anderen biologischen Theorien erklären wir<br />

nicht das Verhalten mechanischer Systeme, etwa des Planetensystems,<br />

und mit mechanischen Theorien, wie der Newtonschen Partikelmechanik,<br />

versuchen wir nicht evolutionäre Vorgänge zu beschreiben. Die<br />

Menge von Systemen, die mit einer Theorie beschrieben werden sollen,<br />

soll Menge der „intendierten Anwendungen“ (formal: I(T)) der Theorie<br />

heißen. Sie wird für empirische Theorien im Unterschied zu mathematischen<br />

nicht bereits durch die Gesetze einer Theorie bestimmt, sondern<br />

muß zusätzlich explizit angegeben werden, um die Theorie vollständig<br />

darzustellen. Mathematische Theorien wie z. B. Theorien aus dem Bereich<br />

der Zahlentheorie gelten für alle Systeme, die sich als Systeme natürlicher<br />

Zahlen auffassen lassen, also etwa alle Peanosysteme. Es ist allein<br />

die allgemeine Struktur eines Objekts, die darüber bestimmt, ob es<br />

zum Anwendungsbereich einer mathematischen Theorie gehört. Für empirische<br />

Theorien ist das ganz anders. Nicht jedes natürliche System, das<br />

sich mit den Ausdrücken der Partikelmechanik beschreiben läßt, wird


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 352<br />

dadurch schon zu ihrem Gegenstand. 142 Ihre intendierten Anwendungen<br />

sind eigens als solche zu kennzeichnen, und das kann auf unterschiedliche<br />

Weise geschehen; z. B. durch die Angabe einzelner konkreter Systeme<br />

wie {Sonne, Erde, Mond} aber häufig werden die Anwendungen<br />

durch typische Exemplare, also auf paradigmatischem Wege, beschrieben.<br />

Für die Newtonsche Partikelmechanik läßt sich die Menge der intendierten<br />

Anwendungen in erster Näherung vielleicht folgendermaßen<br />

charakterisieren:<br />

I(KPM) = {Planetensysteme, schiefe Würfe, zusammenstoßende<br />

Partikel (Billiardbälle), Pendel, }.<br />

Diese Menge steht nicht für alle Zeiten fest, sondern kann sich ändern,<br />

je nachdem, auf welche Bereiche man die Partikelmechanik anzuwenden<br />

gedenkt. Newton hoffte noch, optische und chemische Phänomene mit<br />

seiner Theorie behandeln zu können, doch diese Hoffnung wurde nie<br />

eingelöst, so daß spätere Physiker diese Phänomene wieder aus dem intendierten<br />

Anwendungsbereich herausgenommen haben.<br />

Diese erste Bestimmung der intendierten Anwendungen greift allerdings<br />

noch zu kurz, denn als intendierte Anwendungen der Mechanik<br />

kommen natürlich nicht einfach Partikel sondern Partikel und ihre Bahnen<br />

über einen gewissen Zeitraum hinweg in Frage. Die intendierten<br />

Anwendungen sollen daher als Modelle der KPM mit den entsprechenden<br />

Komponenten verstanden werden, wobei sie zunächst noch als<br />

KPM-nichttheoretisch also als partielle Modelle von KPM beschrieben<br />

werden. 143 Die Menge der partiellen Modelle charakterisiert größere<br />

Klassen derartiger Bahnstücke für die betreffenden Partikel. Weitgehend<br />

unerforscht ist im strukturalistischen Theorienkonzept allerdings der<br />

Aufstieg von einzelnen Meßwerten für Partikel zu ganzen Bahnen, der<br />

schon einen ersten wichtigen Schritt in der theoretischen Beschreibung<br />

des Systems darstellt. Hier sind Lücken der metatheoretischen Aufarbei-<br />

142 Nichts hindert uns daran, nichtmechanische Systeme mit der Begrifflichkeit<br />

der Mechanik zu beschreiben. Von Kräften spricht man z.B. in Kontexten<br />

wie „den Kräften des Marktes“ usw. Die so beschriebenen Systeme werden<br />

aber natürlich damit noch nicht zu intendierten Anwendungen der klassischen<br />

Partikelmechanik.<br />

143 Auch an dieser Stelle gibt es einen wichtigen Unterschied zur Anwendung<br />

mathematischer Theorien. Da es für rein mathematische Größen keine empirischen<br />

Meßverfahren und damit auch keine analoge theoretisch/nichttheoretisch<br />

Unterscheidung gibt, können wir ihre Anwendungen nicht auf einer vortheoretischen<br />

Ebene beschreiben. Derartige Differenzierungen entfallen dort.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 353<br />

tung empirischer Theorien zu konstatieren, die im Rahmen zukünftiger<br />

Fallstudien und entsprechender Erweiterungen der Metatheorie zu<br />

schließen sind.<br />

Aber schauen wir uns die intendierten Anwendungen nun im ganzen<br />

Netz einer Theorie am Beispiel der Newtonschen Partikelmechanik konkret<br />

an.<br />

6. Das Theorien-Netz der Newtonschen Partikelmechanik<br />

Wir haben schon längere Zeit von Theorien-Netzen und ihren Spezialisierungen<br />

gesprochen, uns aber bisher ausschließlich der Ausgestaltung<br />

einzelner Theorie-Elemente T gewidmet. Für die haben wir die folgende<br />

Struktur erhalten:<br />

T = ,<br />

wobei die folgenden mengentheoretischen Beziehungen gelten:<br />

(a) M Mp<br />

(b) Mpp ist eine Menge von Substrukturen zu Mp<br />

(c) C Pot(Mp)<br />

(d) L Mp<br />

(e) I Mpp<br />

Das Netz der KPM besteht nun aus solchen Theorie-Elementen, die als<br />

Spezialisierungen aus dem oben definierten Basis-Theorie-Element hervorgehen,<br />

wie das schon informell beschrieben wurde. Dabei werden für<br />

kleinere Bereiche von intendierten Anwendungen jeweils stärkere Behauptungen<br />

anhand von Spezialgesetzen aufgestellt, die zusätzlich zu<br />

den Basisaxiomen eingebracht werden. Für eine Spezialisierung T’ eines<br />

Theorie-Elements T gilt daher:<br />

T’ ist ein Spezialisierung von T (T’ T) gdw:<br />

i) Mp’ = Mp<br />

ii) Mpp’ = Mpp<br />

iii) M’ M<br />

iv) C’ C<br />

v) L’ L<br />

vi) I’ I,<br />

wobei die beiden ersten Bedingungen zum Ausdruck bringen, daß die<br />

begriffliche Struktur für alle Elemente eines Netzes gleich ist, während<br />

die weiteren Bedingungen die Verstärkung der inhaltlichen Anforderung


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 354<br />

durch die Theorie für ein eingeschränktes Anwendungsgebiet I’ angeben.<br />

Für ein ganzes Theorien-Netz N = (Ti)iJ (J ℕ) mit einem Basis-<br />

Theorie-Element T0, dessen Elemente durch die Spezialisierungsbeziehung<br />

partiell geordnet sind, ergibt sich: 144<br />

N = (Ti)iJ ist ein (baumartiges) Theorien-Netz gdw:<br />

(a) Für alle i J: Ti ist ein Theorie-Element.<br />

(b) Für alle i J: Ti T0.<br />

So erhält man für die Newtonsche Partikelmechanik in ihrer heutigen<br />

Gestalt z. B. ein Netz (s. Balzer/Moulines 1981, BMS 180ff), das ich nur<br />

in Ausschnitten und in informeller Form wiedergeben möchte.<br />

Das Netz der KPM<br />

Die einzelnen Theorie-Elemente des Netzes entstehen alle durch Spezialisierung,<br />

d.h. genauere Bestimmung des Kraftgesetzes, das im Ausgangselement<br />

des Netzes noch relativ unbestimmt gelassen worden war. Das<br />

Basis-Theorie-Element wird einfach mit „KPM“ bezeichnet. Es enthält<br />

noch nicht das Impulserhaltungs- oder „actio-reactio“-Gesetz, weil es<br />

Theorie-Elemente der KPM gibt, die nicht-abgeschlossene Systeme behandeln.<br />

NKPM entsteht gerade durch Hinzunahme des Impulserhaltungssatzes<br />

und soll alle abgeschlossenen mechanischen Systeme beschreiben.<br />

Eine andere Spezialisierung ist die auf konservative Kräfte, also<br />

Kräfte, die sich als Gradienten einer Potentialfunktion beschreiben<br />

lassen. Dazu gibt es wiederum eine Reihe von weitergehenden Speziali-<br />

144 Neben den strikten Spezialisierungen stoßen wir auch manchmal auf approximative<br />

Spezialisierungen, so etwa im Falle der Elektrodynamik (s. Bartelborth<br />

1988).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 355<br />

sierungen, deren berühmteste das Newtonsche Gravitationsgesetz darstellt.<br />

Ein weiteres Beispiel finden wir in Galileos Gesetz vom freien Fall<br />

und ein anderes im Hookeschen Gesetz für harmonische Oszillatoren.<br />

Ein dritter Zweig des Netzes, der noch kurz angedeutet werden soll,<br />

nimmt Spezialisierungen des Kraftgesetzes vor, die hauptsächlich geschwindigkeitsabhängig<br />

sind. Prominente Beispiele dafür sind zunächst<br />

die Reibungsgesetze, aber auch Kräfte wie die Lorentzkraft. 145<br />

Ein wesentlicher Aspekt dieses Netzes soll noch kurz zur Sprache<br />

kommen. Natürlich kann ein und dasselbe mechanische System eine intendierte<br />

Anwendung mehrerer Theorie-Elemente sein, die noch dazu<br />

auf unterschiedlichen Ästen liegen können; etwa wenn wir es als abgeschlossenes<br />

System von gravitierenden Körpern beschreiben, so daß es<br />

sowohl das Impulserhaltungsgesetz erfüllen soll wie auch das Gravitationsgesetz.<br />

Bei der Formulierung der empirischen Behauptung der KPM<br />

wird deshalb eine Konsistenzforderung zu erheben sein, nach der die<br />

Kraftfunktionen und Massenfunktionen, die den Partikeln dieses Systems<br />

in den unterschiedlichen Theorie-Elementen zugeordnet werden,<br />

zusammenpassen. Das kann anhand einzelner explizit formulierter Links<br />

geschehen, die das für spezielle Partikel sichern, aber auch – wie hier –<br />

durch eine allgemeine Verträglichkeitsbedingung in der empirischen Behauptung<br />

für ein ganzes Netz.<br />

Eine Ausgestaltungsmöglichkeit von Theorien-Netzen ist bisher noch<br />

nicht erwähnt worden: Sie lassen sich im Prinzip an den Enden der Äste<br />

immer weiter ausdehnen bis in Bereiche des technischen Wissens hinein.<br />

Für das Hookesche Gesetz ließen sich z. B. weitere Spezialisierungen anführen,<br />

die angeben, welche Federkonstanten für welche Materialien<br />

und welche Federformen bei bestimmten Temperaturen vorliegen. Das<br />

wird man i.a. nicht mehr zum engeren Bereich der klassischen Partikelmechanik<br />

zählen, aber es zeigt, wie die hierarchische Anordnung von<br />

wissenschaftlichen Erkenntnissen in Baumstrukturen auch für außerwissenschaftliche<br />

Bereiche Ordnung schaffen hilft.<br />

7. Theoriendynamik<br />

Das bisher angegebene Instrumentarium des Strukturalismus stammt zunächst<br />

aus der synchronischen Untersuchung von Theorien und ihrer inneren<br />

Struktur, doch das sollte nicht darüber hinwegtäuschen, daß alle<br />

145 In diesem Punkt beziehe ich mich einfach auf die Darstellung der KPM<br />

in (BMS, 189f), um auch die Flexibilität des strukturalistischen Instrumentariums<br />

zu zeigen, ohne sie inhaltlich weiter zu diskutieren.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 356<br />

genannten Komponenten von Theorien gerade auch zur Aufklärung<br />

theoriendynamischer Vorgänge eine wesentliche Rolle spielen. Ein Beispiel<br />

dafür bot bereits die Studie von Ulrich Gähde über die Cepheiden<br />

Anomalien, die ich im Abschnitt (C.2) skizziert hatte. Ein weiteres schönes<br />

Beispiel bietet ebenfalls Gähde (1989, 236ff), wo er beschreibt, wie<br />

die Anomalie des Merkurperihels zu einer Folge von Korrekturversuchen<br />

an der Newtonschen Gravitationstheorie geführt hat, die sich sukzessive<br />

von der Peripherie des Newtonschen Netzes auf sein Basis-Theorie-Element<br />

hinbewegt, bis schließlich auch dieses aufgegeben wird.<br />

Eine solche diachronische Analyse der Wissenschaftsgeschichte war<br />

natürlich erst anhand der Kenntnis der reichhaltigen inneren Struktur<br />

von Theorien möglich, die zahlreiche Ansatzpunkte für Veränderungen<br />

sowie ihre gegenseitige Gewichtung aufzeigt. Mit diesem komplexeren<br />

Bild wissenschaftlicher Theorien lassen sich Metaphern wie die vom<br />

Netz unserer Erkenntnisse und daß wir versuchen, unsere Theorien mit<br />

möglichst geringfügigen Änderungen gegen widerspenstige Experimente<br />

beizubehalten, endlich mit Inhalt füllen. Grob gesagt sind die Theorieteile<br />

peripherer, die weiter unten im Netz und weiter hinten in den Tupeln<br />

der Theorie-Elemente auftreten.<br />

Um in unserer Fallstudie der klassischen Partikelmechanik (KPM) zu<br />

bleiben, möchte ich kurz auf eine grundlegende Arbeit von Moulines<br />

(1979) (s. a. BMS 205ff) eingehen, in der das metatheoretische Instrumentarium<br />

des Strukturalismus nebenbei auch noch um eine ganze Reihe<br />

von pragmatischen und systematischen Begriffen erweitert wurde, die<br />

ebenfalls aufzeigen können, wie der synchronische Apparat für diachronische<br />

Fallstudien eingesetzt werden kann. Im Zentrum dieser Arbeit<br />

steht die Konzeption von sogenannten Theorie-Entwicklungen, die die<br />

Entwicklung einer Theorie als Abfolge von Theorien-Netzen begreift,<br />

die untereinander in engen Zusammenhängen stehen. Sie repräsentieren<br />

jeweils den Zustand der Theorie für einen gewissen Zeitraum. Je nachdem,<br />

wie diese Theorie-Entwicklungen beschaffen sind, können wir<br />

dann von progressiven Entwicklungen im Sinne von Lakatos oder etwa<br />

von Kuhnschen Theorie-Entwicklungen sprechen (s. BMS 221ff).<br />

An dieser Stelle kann ich nicht den Details dieser Erweiterung des<br />

Begriffsapparats folgen, sondern werde mich auf einige Aspekte beschränken.<br />

Als erstes werden pragmatische Konzepte eingeführt, die helfen<br />

sollen, eine Struktur in den historischen Geschehnissen zu identifizieren.<br />

146 Dazu gehört zunächst der Begriff einer historischen Periode h,<br />

innerhalb derer die Theorie einigermaßen unverändert geblieben ist. Au-<br />

146 Für eine ausführlicher Darstellung s. BMS (205ff).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 357<br />

ßerdem ist dann die „scientific community“ (SC) zu erwähnen, die dadurch<br />

gekennzeichnet ist, daß sie in dieser Zeit die Theorie – das jeweilige<br />

Theorien-Netz – akzeptiert hat oder ihr gegenüber eine ähnliche epistemische<br />

Einstellung eingenommen hat. Besondere Aufmerksamkeit ist<br />

in solchen Theorie-Entwicklungen auf die Frage zu richten, welche Spezialisierungen<br />

des Netzes neu hinzugekommen sind (oder auch aufgegeben<br />

wurden) und wie sich dabei die Menge der intendierten Anwendungen<br />

eines Netzes gegenüber dem Vorgängernetz geändert hat. Kontinuitäten<br />

in diesen beiden Bereichen während der Theorie-Entwicklung sind<br />

ein wesentlicher Aspekt der Identität einer Theorie. So sollten die neuen<br />

Spezialisierungen sich als Spezialisierungen der Theorie-Elemente des<br />

Vorgängernetzes zeigen und eine größere Überschneidung mit den intendierten<br />

Anwendungen des Vorgängernetzes gegeben sein, damit wir von<br />

unterschiedlichen Stadien einer Theorie sprechen können. Die größte<br />

Bedeutung für die Identität einer Theorie besitzt dabei sicherlich das Basis-Theorie-Element,<br />

das für eine Theorie unverändert bleiben sollte.<br />

Die Menge der intendierten Anwendungen können wir auch nach<br />

verschiedenen epistemischen Einstellungen der „scientific community“,<br />

die die Theorie akzeptiert, unterscheiden, z. B. in die Menge der als gesichert<br />

angenommenen Anwendungen und die der nur vermuteten Anwendungen<br />

der Theorie. Es dürfte gewiß sein, daß man gesichert geglaubte<br />

Anwendungen der Theorie nicht ohne größere Not aufzugeben bereit<br />

ist. Die nur vermuteten Anwendungen sind jedenfalls peripherer als die<br />

gesicherten. Wissenschaftler sind sehr wohl in der Lage, solche erkenntnistheoretischen<br />

Unterscheidungen für ihre eigenen Theorien zu treffen.<br />

Sie haben nicht unbedingt Kuhnsche Scheuklappen, die sie nicht nach alternativen<br />

Theorien und deren Qualitäten schielen lassen. Man muß allerdings<br />

bedenken, daß sie oft als Anwälte ihrer Theorien auftreten müssen<br />

und dann natürlich nicht gerne bereit sind, bestimmte Anwendungen<br />

als weniger sicher oder sogar noch recht spekulativ einzustufen. Auf der<br />

Grundlage solcher Unterscheidungen lassen sich schließlich auch Bewertungsmaßstäbe<br />

für ganze Theorien vorschlagen. Für progressive Theorie-Entwicklungen<br />

im Sinne von Lakatos erwarten wir etwa, daß sich<br />

der Anteil der als gesichert geltenden Anwendungen erhöht hat. Für<br />

Kuhnsche Theorie-Entwicklungen erwarten wir dagegen vor allem, daß<br />

es ein paradigmatisches Basis-Theorie-Element und eine Menge von paradigmatischen<br />

Anwendungen der Theorie gibt, die sich durch alle<br />

Theorien-Netze der Entwicklung ziehen.<br />

Um ein gewisses Gefühl dafür zu bekommen, wie derartige Theorie-<br />

Entwicklungen konkret aussehen, verweise ich auf die anfängliche Ent-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 358<br />

wicklung der klassischen Partikelmechanik, wie sie von Moulines (1979)<br />

rekonstruiert wurde und auch in BMS (223ff) wiedergegeben ist.<br />

8. Die empirische Behauptung einer Theorie<br />

Nun haben wir alle wesentlichen Komponenten von Theorien beisammen,<br />

die notwendig sind, um die empirische Behauptung, die man mit einer<br />

Theorie T aufstellt, präzisieren zu können. Beginnen wir dazu mit<br />

dem Fall eines einzelnen Theorie-Elements ehe wir zu den Behauptungen<br />

ganzer Theorien-Netze übergehen. Wir haben gesehen, daß die Daten,<br />

auf die wir eine Theorie T stützen möchten oder die wir mit ihr erklären<br />

möchten, in Form eines partiellen Modells als Instanzen eines<br />

Phänomens in der T-nicht-theoretischen Begrifflichkeit beschrieben werden.<br />

Von jedem derartigen System aus der Menge der intendierten Anwendungen<br />

können wir sagen, daß es die Gesetze der Theorie erfüllt,<br />

wenn es sich so um theoretische Komponenten erweitern läßt, daß die<br />

vollständige Beschreibung des Systems ein Modell der Theorie darstellt.<br />

Verschieben wir die möglicherweise noch einzubeziehenden Approximationen<br />

zunächst einmal auf den nächsten Abschnitt, sind trotzdem noch<br />

zwei andere Theoriekomponenten für die mit einer Theorie verknüpfte<br />

Behauptung zu berücksichtigen: Nämlich erstens die intertheoretischen<br />

Anforderungen, die aus Verbindungen zu anderen Theorien herrühren<br />

und durch Links wiedergegeben werden – unser Modell sollte also auch<br />

Element des globalen Links sein, d.h. in L(T) liegen. Zweitens ist die holistische<br />

Komponente, die uns die Constraints angeben, zu berücksichtigen,<br />

denn es geht nie nur darum, ein einzelnes partielles System zu einem<br />

Modell zu erweitern, sondern immer darum, mehrere Systeme<br />

gleichzeitig und in konsistenter Weise als Modelle der Theorie zu erweisen.<br />

Deshalb betrachten wir immer gleich Mengen von Modellen. Die<br />

Modellmenge, die auf der theoretischen Ebene damit anvisiert wird, ist<br />

der theoretische Gehalt TG von T:<br />

TG(T) := Pot(M) C Pot(L)<br />

r gibt uns alle theoretischen Anforderungen die die Theorie T an die<br />

Strukturen stellt, auf die sie angewandt werden soll. Durch die Projektionsfunktion<br />

r, die die theoretischen Größen „abschneidet“, erhalten wir<br />

ein entsprechendes Mengensystem auf der nicht-theoretischen Ebene,<br />

das man auch den empirischen Gehalt EG von T nennt:<br />

EG(T) := r[Pot(M) C Pot(L)] = r[TG(T)]


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 359<br />

Die empirische Behauptung von T = läßt sich dann schreiben:<br />

Empirische Behauptung von T: I EG(T),<br />

d.h. die intendierten Anwendungen lassen sich gemeinsam in den empirischen<br />

Gehalt der Theorie einbetten, der wiederum nur solche Mengen<br />

enthält, die sich als Ganzes zu Modellen erweitern lassen, die im theoretischen<br />

Gehalt der Theorie liegen, also alle Anforderungen der Theorie<br />

(Grundgesetze, Spezialgesetze, innertheoretische Konsistenzforderungen<br />

und intertheoretische Beziehungen) erfüllen.<br />

Auf Theorien-Netze läßt sich diese Formulierung nicht in ähnlich<br />

einfacher Weise übertragen, denn die empirische Behauptung von ganzen<br />

Netzen ist auf verschiedenen Ebenen angesiedelt und läßt sich auch<br />

nicht als bloße Konjunktion der empirischen Behauptungen der Elemente<br />

des Netzes verstehen. Eine solche Konjunktion könnte nämlich nicht<br />

sicherstellen, daß dasselbe partielle Modell aus I0, wenn es in verschiedenen<br />

Spezialisierungen des Netzes auftritt, auch in gleicher oder zumindest<br />

konsistenter Weise zu einem vollständigen Modell erweitert wird (s.<br />

dazu Gähde 1989, 66ff).<br />

Um eine Formulierung zu gewinnen, die es gestattet, Theorien-Netze<br />

in ähnlicher Weise wie Theorie-Elemente zu behandeln und die formale<br />

Darstellung außerdem verständlicher zu gestalten, führe ich Einbettungsfunktionen<br />

ℰ ein, die die Faserbündelstruktur von respektieren:<br />

ℰ(T) := {e:Mpp Mp; mit r ∘ e = idMpp}<br />

Eine Einbettungsfunktion ordnet also jedem partiellen Modell x ein potentielles<br />

y zu, das in dem Sinne „über“ ihm liegt (in der Faser von x<br />

bzgl. r), daß das „Abschneiden“ der theoretischen Funktionen wieder zu<br />

x zurückführt. Sie bettet, anders ausgedrückt, ein partielles Modell x in<br />

eine theoretische Erweiterung y zu x ein. Diese Einbettungsfunktionen<br />

(oder Erweiterungsfunktionen) drücken so anschaulicher aus, worum es<br />

in der empirischen Behauptung von T geht, nämlich die Einbettung eines<br />

Phänomens in ein Modell der Theorie. Damit ergibt sich für die empirische<br />

Behauptung von T:<br />

Empirische Behauptung von T<br />

e ℰ(T) mit: e(I) TG(T)<br />

D.h., es gibt eine gemeinsame Einbettung der intendierten Anwendungen,<br />

die die theoretischen Anforderungen von T erfüllt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 360<br />

Diese Einbettung läßt sich in dem nebenstehenden Diagramm, in<br />

dem die erlaubten Erweiterungen zu jedem Punkt x Mpp (oder anders<br />

ausgedrückt: die Fasern zu x bzgl. r) jeweils senkrecht über x angeordnet<br />

sind, auf einfache Weise geometrisch veranschaulichen. Die Modellmenge<br />

wird hier als ovales Gebiet in der Menge der begrifflichen Strukturen<br />

Mp (dem Totalraum des Bündels) und die Constraints werden durch Linien<br />

repräsentiert. Die Linien sollen die Verträglichkeit potentieller Modelle<br />

untereinander etwa im Rahmen eines Identitätsconstraints repräsentieren.<br />

Sie fügen jeweils die erlaubten Kombinationen von Modellen<br />

zusammen. Die Einbettungsfunktion e hat dann die Aufgabe, „oberhalb“<br />

von I (in den potentiellen Modellen) einen Constraintabschnitt e(I) herauszugreifen,<br />

der dazu noch in der Modellmenge liegt (und natürlich<br />

auch noch L erfüllt, auf dessen Darstellung ich aber hier verzichte). Gibt<br />

es eine derartige Einbettungsfunktion, so liegt natürlich auch I im empirischen<br />

Gehalt von T und umgekehrt. 147<br />

Nun sind wir auch gerüstet, die empirische Behauptung eines Theorien-Netzes<br />

N = (Ti)iJ mit einer endlichen Indexmenge J = {0,…,n},<br />

das durch die Spezialisierungsbeziehung geordnet ist und als Basis-<br />

Theorie-Element T0 enthält, zu bestimmen. Die Lösung zu diesem Problem<br />

stammt von Ulrich Gähde, der in seiner Arbeit (1989) den folgenden<br />

Vorschlag begründet hat. 148 Betrachten wir als erstes ein kleines<br />

Netz mit nur zwei Theorie-Elementen T0 und T1. Unzureichend ist zunächst<br />

die schlichte Konjunktion der empirischen Behauptungen der beiden<br />

Theorie-Elemente, denn dabei kann eine netzinterne Konsistenzforderung<br />

im Stile der Identitätsconstraints verletzt werden. Konkreter ausgedrückt:<br />

Dasselbe partielle Modell kann in T0 anders eingebettet werden<br />

als in T1. Damit wird ein und dieselbe Situation in einer auf zwei<br />

womöglich inkonsistente Weisen beschrieben. Um das zu verhindern, bezieht<br />

sich Gähde (1989, 66ff) explizit auf die jeweiligen gesuchten Erweiterungsmengen<br />

X0 und X1:<br />

Empirische Behauptung des kleinen Netzes<br />

X0 X1 [r(X0) = I0 X0 TG(T0) r(X1) =<br />

I1 X1 TG(T1) X1 X0] 149<br />

147 Denn I = r[e(I)] und da e(I) TG(T) gilt, ist I r[TG(T)].<br />

148 Außerdem hat er (1989, 120ff) gezeigt, daß die Vorschläge von Balzer/Sneed<br />

(1977/78), Zandvoort (1982) und Stegmüller (1986) nicht ausreichend<br />

sind.<br />

149 In der Notation sind schon einige Abkürzungen gegenüber Gähde<br />

(1989, 97) vorgenommen worden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 361<br />

Daß die beiden theoretischen Ergänzungen X0 und X1 nicht unterschiedliche<br />

Zuschreibungen für die theoretischen Größen vornehmen wird<br />

durch die Inklusionsbeziehung am Ende ausgedrückt. Mit Hilfe der Einbettungsbeziehungen<br />

läßt sich das etwas einfacher angeben für ℰ(N) :=<br />

ℰ(T0):<br />

(*) e ℰ(N) [e(I0) TG(T0) e(I1) TG(T1)]<br />

Die Konsistenzforderung wird in (*) dadurch ausgedrückt, daß beide<br />

Mengen intendierter Anwendungen durch dieselbe Einbettungsfunktion<br />

zu Modellmengen erweitert werden, was verhindert, daß es dabei zu unterschiedlichen<br />

theoretischen Erweiterungen für ein partielles Modell<br />

kommen kann.<br />

Die Äquivalenz der beiden Formulierungen läßt sich leicht anhand<br />

der Identifizierung Xi = e(Ii) erkennen. In der einen Richtung erhält<br />

man damit schnell eine der gesuchten Einbettungsfunktionen, die man<br />

in willkürlicher Weise auf den Rest von Mpp ausdehnen kann. Von (*)<br />

zur Gähde Formulierung: Es folgt r(Xi) = Ii, weil e eine Einbettungsfunktion<br />

ist und X1 X0 aus I1 I0, also aus der Spezialisierungsbeziehung.<br />

In (*) wird für die gesuchte Einbettungsfunktion nicht nur gefordert,<br />

daß sie eingeschränkt auf I0 in den theoretischen Gehalt von T0 führen<br />

und dabei auf einem Constraint liegen muß, sondern für den kleineren<br />

Bereich I1 muß sie darüber hinaus den kleineren Bereich des theoretischen<br />

Gehalts von T1 treffen.<br />

Wie Spezialisierungen so zu einer Verstärkung der empirischen Behauptung<br />

führen, läßt sich am leichtesten graphisch verstehen. Das erste<br />

Theorie-Element T definiert die große Ellipse im Bereich der potentiellen<br />

Modelle der Theorie, der das Bild von I unter e enthalten muß (s.<br />

Pfeile), während T’ ein noch kleineres Oval M’ bestimmt, das für die<br />

kleinere Teilmenge I’ von I das Bild unter e zu umfassen hat (s. Pfeile),<br />

wodurch eine neue Anforderung an e hinzukommt. Das zeigt auch bereits,<br />

wie die Konzeption für ein umfangreicheres Netz erweitert werden<br />

kann, nämlich indem die zusätzlichen Bereiche intendierter Anwendungen<br />

und die entsprechenden Modellmengen aufgetragen werden und an<br />

e analoge zusätzliche Einbettungsaufgaben wie für die ersten beiden<br />

Theorie-Elemente formuliert werden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 362<br />

Einbettung von 2 Theorie-Elementen<br />

Komplizierter wird die Gähdesche Formulierung schon für drei-elementige<br />

Netze, weil die Netzstruktur entweder linear (Gähde 1989, 100)<br />

oder eine Verzweigung (Gähde 1989, 102) sein kann, wonach sich die<br />

Inklusionsbeziehungen in der Gähdeschen Formulierung jeweils zu richten<br />

haben. Für allgemeine Netze N = (Ti)iJ wird die Formulierung der<br />

empirischen Behauptung (EB) dann noch komplizierter (s. Gähde 1989,<br />

119). 150 Hier erweisen sich die Einbettungsfunktionen als hilfreich, mit<br />

denen sich (EB) als gradlinige Verallgemeinerung von (*) abfassen läßt:<br />

Empirische Behauptung von N<br />

(EB) e ℰ(N) j J [e(Ij) TG(Tj)]<br />

Im Faserbündeldiagramm für zwei Theorie-Elemente könnten wir nun<br />

im Prinzip die neuerlichen Anforderungen in kanonischer Weise ergänzen,<br />

wodurch die sukzessive Verstärkung der empirischen Behauptung<br />

anschaulich wird.<br />

9. Approximationen und erlaubte Unschärfemengen<br />

Es ist eine offensichtliche Tatsache, daß in quantitativen empirischen<br />

Theorien Approximationen und Unschärfen an den unterschiedlichsten<br />

Stellen eine Rolle spielen. Weniger offensichtlich ist dagegen, warum die<br />

Wissenschaftstheorie diese Tatsache überwiegend kaum zur Kenntnis genommen<br />

hat. Jede quantitative empirische Theorie, die ihre Werte im<br />

Bereich der reellen Werte ansiedelt, wäre längst falsifiziert, würden wir<br />

150 Dabei hat die Forderung nach einer bijektiven Abbildung von I0 nach<br />

X0 für unendliche Mengen auch nicht ganz den erwünschten Effekt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 363<br />

die im Experiment ermittelten Werte und die von der Theorie vorhergesagten<br />

als absolut exakte Werte ernstnehmen. 151 Physiker arbeiten daher<br />

immer mit bestimmten Unschärfemengen (statt einzelnen Meßwerten etwa<br />

mit „Balken“ oder Intervallen von reellen Zahlen) innerhalb derer<br />

sie noch von Übereinstimmung sprechen. 152 Doch wie beschreibt man<br />

metatheoretisch diese Unschärfen? Oft werden sie nicht als ein Problem<br />

des Verhältnisses von Theorie und Erfahrung betrachtet, sondern man<br />

handelt sie mehr oder weniger unter „Beobachtungsfehler“ oder „Meßfehler“<br />

ab, als ob der beobachtende Wissenschaftler beim Ablesen irgendwelcher<br />

Instrumente eines Experiments nicht genau genug hingeschaut<br />

hätte. Doch das trifft das Phänomen kaum, um das es beim Thema<br />

Unschärfen in quantitativen empirischen Theorien geht, denn erstens<br />

gibt es digitale Anzeigeinstrumente und zweitens wissen wir, daß wir<br />

viele Abweichungen zwischen Theorien und Meßwerten nicht dem Experimentator<br />

in die Schuhe schieben können. Damit kommen wir nicht<br />

mehr umhin, an dieser Stelle ein Problem der Beziehung zwischen Theorie<br />

und Empirie zu konstatieren, auf das wir in einer metatheoretischen<br />

Behandlung wissenschaftlicher Theorien zu reagieren haben.<br />

Sind die Meßgeräte dafür verantwortlich? Beschreibt eine exakte<br />

Theorie eine exakte Wirklichkeit, aber die Ungenauigkeit der Meßinstrumente<br />

verhindert, daß diese exakte Übereinstimmung jemals deutlich<br />

wird? Ein derartiger Vorschlag übersieht meines Erachtens zunächst, daß<br />

auch das Verhalten der Meßinstrumente, z. B. in der Physik, gerade<br />

durch die Theorien beschrieben wird, um deren Exaktheit es uns geht.<br />

Zumindest für die Meßgeräte scheinen die Theorien dann keine zutreffende<br />

Beschreibung abzugeben, sondern wir müßten Unschärfen in unsere<br />

Darstellung mit einbeziehen. Daß man die auf Meßverfahren beschränken<br />

sollte, ist natürlich keine plausible Annahme. Daher möchte<br />

ich den Vorschlag machen, Approximationen in der metatheoretischen<br />

Behandlung von Theorien endlich ernst zu nehmen und explizit in unser<br />

Bild quantitativer Theorien einzubauen, um so ein realistischeres Bild<br />

quantitativer Theorien zu zeichnen.<br />

Das scheint mir auch für die diachronische Wissenschaftstheorie speziell<br />

zur Beurteilung eines eventuellen Fortschritts in den Wissenschaften<br />

unerläßlich zu sein. Die Wissenschaftsgeschichte zeigt überdeutlich, daß<br />

151 Für eine Reihe von Beispielen einschließlich einer Klassifikation für approximative<br />

Zusammenhänge siehe BMS 323ff.<br />

152 Eine perfekte Übereinstimmung zwischen Daten und Theorie würden<br />

wir nicht als Indiz für eine besonders gute Theorie, sondern für „gefilterte“ oder<br />

„getürkte“ Daten betrachten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 364<br />

das Fortschreiten der empirischen Wissenschaften nicht als einfache Kumulation<br />

von Erkenntnissen betrachtet werden kann, sondern viele alte<br />

Positionen wie das heliozentrische Weltbild oder die Phlogistontheorie<br />

ganz aufgegeben wurden. In anderen Fällen bauen dagegen Theorien in<br />

einem stärkeren Maße auf den Einsichten ihrer Vorgängertheorien auf,<br />

als das in den eben genannten Beispielen der Fall ist. Trotz gewisser Veränderungen<br />

(oder auch „Revolutionen“) gibt es z. B. in der Mechanik<br />

eine relativ kontinuierliche Entwicklung von Newton bis zur speziellen<br />

Relativitätstheorie, die in einer wissenschaftstheoretischen Darstellung<br />

nicht ignoriert werden sollte und in vielen formalen Untersuchungen<br />

präzisiert wurde. Dabei knüpft die Nachfolgertheorie sowohl begrifflich<br />

wie auch in ihren Gesetzen direkt an ihre Vorgängerin an. In diesem Fall<br />

spricht man davon, daß sich die alte Theorie auf die neue reduzieren<br />

läßt, um die engen Beziehungen der Theorien und die Fortschrittlichkeit<br />

der neueren Theorie wiederzugeben. Doch nahezu alle interessanten<br />

Beispiele derartiger Reduktionen erwiesen sich nicht als strikte Reduktionen<br />

der alten auf die neue Theorie, sondern es waren Approximationen<br />

nötig, um den reduktiven Zusammenhang zu etablieren.<br />

Das ist auch nicht erstaunlich, bringt doch die neue Theorie meist<br />

neue Einsichten mit sich, die aufdecken, in welchen Bereichen die alte<br />

Theorie noch nicht gut genug war. Sie enthält daher die alte Theorie<br />

nicht in unveränderter Form, sondern nur noch ungefähr, d.h. sie enthält<br />

eine zur alten Theorie ähnliche „Teiltheorie“. Diese approximative<br />

Einbettung der alten Theorie in die neue ist daher die zentrale Beziehung<br />

für eine Explikation von wissenschaftlichem Fortschritt, der nicht<br />

nur auf der empirischen Ebene stattfindet, sondern auch mit einer gewissen<br />

theoretischen Kontinuität einhergeht. Für einige Übergänge ist es gerade<br />

die Verkleinerung der Unschärfen, in der sich die Fortschrittlichkeit<br />

der neuen Theorie ausdrückt, die man nicht nachzeichnen könnte, würden<br />

wir uns ganz auf die logisch strikten Zusammenhänge beschränken.<br />

Unsere Auffassung von Theorien und ihren Beziehungen wird durch die<br />

Einbeziehung von Unschärfen grundlegend verändert; man könnte fast<br />

von einer metatheoretischen „Revolution“ sprechen. Gehören „Verschmierungen“<br />

von Theorien nämlich wesentlich zu ihrer Darstellung<br />

der Welt und sind nicht bloß „Meßfehler“, so sind Theorien wie die relativistischen<br />

und die vorrelativistischen nicht nur eng benachbart, sondern<br />

in großen Anwendungsbereichen ununterscheidbar. Sie überlappen<br />

in systematischer Weise, so daß wir damit zumindest für die Extensionen<br />

ihrer Begriffe konstatieren können, daß sie enge Beziehungen aufweisen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 365<br />

Theorien geben uns (mathematische) Modelle der Welt, die in einer<br />

Art von Isomorphiebeziehung bestimmte Aspekte der Wirklichkeit repräsentieren<br />

sollen, doch diese Beziehung wird nicht als vollkommen betrachtet.<br />

Genauso wie es viele Aspekte der Welt gibt, die in diesen Modellen<br />

nicht auftauchen – in der KPM wird die Welt schließlich auf<br />

Punkte mit Weg-Zeit Bahnen, Massen und Kräften reduziert –, gibt es<br />

immer Bestandteile der Modelle, mit denen man nicht gedenkt, Aspekte<br />

der Wirklichkeit abzubilden; man denke nur an die Phasenräume einer<br />

Partikelmechanik (s. dazu auch Friedman 1981, 4 und Bartelborth<br />

1994a). Entsprechendes gilt auch für bestimmte Aspekte der Komponenten.<br />

Die reellen Zahlenräume, die wir in quantitativen Theorien tatsächlich<br />

vorfinden, besitzen Einiges an Struktur, für das wir keine isomorphe<br />

Abbildung mehr postulieren können.<br />

Diese Bemerkung scheint mir auch auf die Kontinuumsannahme dieser<br />

Räume zuzutreffen. Physiker beweisen für diesen Punkt schon seit<br />

langem ein Problembewußtsein, das sich in vielen Äußerungen von Hilbert<br />

bis heute gezeigt hat. So resümiert Günther Ludwig (1978, 52)<br />

seine Überlegungen zu dem Thema: „Die kontinuierliche Struktur von X<br />

in MT [der mathematischen Theorie] ist also kein Bild der Wirklichkeit,<br />

sondern ein Ausweg aus einer Unkenntnis durch Idealisierung“. Auch<br />

Penrose weist (1989, 86) darauf hin, daß wir Entfernungen, die etwa ein<br />

10 20 -tel der Größe eines subatomaren Partikels entsprechen, in physikalischen<br />

Theorien überhaupt keine Bedeutung mehr geben können (ausf.<br />

Bartelborth 1994a). Insbesondere gestattet die Kontinuitätsannahme sogar<br />

Grenzwertprozesse, die noch zu viel kleineren (bis zu unendlich kleinen)<br />

Abständen übergehen.<br />

Über welche Gründe verfügen wir aber für die Kontinuumsannahme<br />

im mathematischen Bild unserer Theorien? Da sind meines Wissens nur<br />

zwei zu nennen. Der erste ist, daß wir keine bestimmte untere Schranke<br />

für räumliche Abstände kennen, der andere ist, daß wir unsere Differential-<br />

und Integralrechnung für kontinuierliche Räume entwickelt haben<br />

– sie läßt sich natürlich auch auf diskrete Räume übertragen –, und es<br />

einfach mathematisch bequemer erscheint, mit kontinuierlichen Räumen<br />

zu arbeiten. Doch das sind beides keine erkenntnistheoretisch stichhaltigen<br />

Gründe dafür, daß die Kontinuitätsannahme ein wichtiges Merkmal<br />

der Beschaffenheit unserer Welt wiedergibt. 153<br />

Um die Konflikte zwischen Theorie und Erfahrung, die durch die genannten<br />

Abweichungen der Werte entstehen, in der metatheoretischen<br />

153 In Bartelborth (1994a) verweise ich auch noch auf Gründe, die gegen<br />

eine solche Interpretation kontinuierlicher Räume sprechen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 366<br />

Behandlung von Theorien angemessen berücksichtigen zu können, wurden<br />

im strukturalistischen Theorienkonzept verschiedene Topologien<br />

auf der Menge der potentiellen Modelle eingeführt, die unsere intuitiven<br />

Vorstellungen der Nachbarschaft von Modellen präzisieren sollen.<br />

Moulines (1976, 1980 und 1981) hat dazu – wie schon Günther Ludwig<br />

(1978, 49ff) – die topologische Konzeption uniformer Strukturen für<br />

sehr allgemeine Fälle von Approximationen eingesetzt. In Bartelborth<br />

(1988, 125ff) bevorzuge ich das einfachere Konzept der Quasimetrik für<br />

eine Rekonstruktion approximativer Zusammenhänge innerhalb der<br />

Elektrodynamik, das mir ebenso für die meisten quantitativen Theorien<br />

einsetzbar zu sein scheint. Eine Quasi- oder Pseudometrik wird definiert<br />

auf einer Menge M durch eine Distanzfunktion d:<br />

d:MM [0,] ist eine Quasimetrik gdw: x,y,z M gilt:<br />

1) d(x,x) = 0<br />

2) d(x,y) = d(y,x)<br />

3) d(x,y) + d(y,z) d(x,z)<br />

Wie sich mit Hilfe einer solchen Quasimetrik intuitive Abstandsbegriffe<br />

präzisieren lassen, möchte ich an einem Beispiel skizzieren. Beschreiben<br />

wir in der Mechanik z. B. zwei Einteilchensysteme x und y mit den Partikeln<br />

px und py über denselben Zeitraum T, können wir zunächst mit<br />

den Supremumsnormen der Weg-Zeit-Funktionen als Abstandsfunktionen<br />

beginnen:<br />

a) d(x,y) = suptT s(px,t) - s(py,t) 154<br />

Das wird allerdings unsere Intuitionen zur Distanz solcher physikalischen<br />

Systeme allein kaum abdecken können, bedeutet es doch, das zwei<br />

Systeme ähnlich sind, für die der eine Partikel in Spiralen um den anderen<br />

herumfliegt, also ganz andere Geschwindigkeiten und Beschleunigungen<br />

aufweist. Diese weiteren Parameter könnte man beide mit einbauen<br />

und erhielte dann z. B.:<br />

b) d(x,y) = suptT s(px,t) - s(py,t) + suptT s'(px,t) - s'(py,t) +<br />

suptT s"(px,t) - s"(py,t),<br />

wobei „s'“ und „s"“ jeweils die erste und zweite Ableitung von s nach der<br />

Zeit bezeichnen soll. Das ergäbe zunächst eine relativ feine Ordnung<br />

von Nachbarschaftsbeziehungen, die man auch je nach Absicht wieder li-<br />

154 Dabei bezeichne ich die Weg-Zeit-Funktionen aus beiden Modellen der<br />

Einfachheit halber mit s, zumal sie sich auf dieselbe Koordinatisierung beziehen<br />

sollen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 367<br />

beralisieren könnte. Um etwa eine galileiinvariante Quasimetrik zu erhalten,<br />

würde es sich anbieten, von der speziellen Koordinatisierung und<br />

auch davon, wo sich der Partikel bewegt, abzusehen und zum Beispiel<br />

nur nach den auftretenden Beschleunigungen zu fragen. Je nachdem,<br />

wie unsere Abstandsintuitionen sich für verschiedene Untersuchungen<br />

gestalten, wird man die angemessene Quasimetrik wählen. Kann man<br />

zwei Modelle nicht miteinander vergleichen, weil sie über ganz unterschiedliche<br />

Systeme – x mit einem Partikel, y mit 20 – sprechen, hat<br />

man die Möglichkeit, den Abstand mit unendlich anzugeben. Sind mehrere<br />

Partikel zu berücksichtigen, können wir etwa das Maximum der<br />

entsprechenden Supremumsnormen wählen etc. Enthält ein Modell<br />

mehrere Funktionen wird auch über deren Supremumsnormen entweder<br />

(gewichtet) aufzusummieren sein oder schlicht ein Maximum davon gewählt,<br />

je nachdem, was unsere Vorstellungen von Abständen im speziellen<br />

Fall besser wiedergibt. 155<br />

Auf eine Besonderheit und einen Vorzug der Abstandsdefinition anhand<br />

einer Quasimetrik gegenüber allgemeineren topologischen Konzepten<br />

möchte ich noch hinweisen. Da man nicht nur auf der theoretischen<br />

Ebene der potentiellen Modelle mit Approximationen arbeiten<br />

möchte, sondern ebenso auf der „empirischen“ der partiellen Modelle,<br />

hat man in BMS (334ff) versucht, aus den Uniformitäten auf Mp Uniformitäten<br />

auf Mpp zu gewinnen. Das gelang jedoch nur dadurch daß man<br />

sich „oben“ auf sogenannte „empirische Uniformitäten“ beschränkt hat,<br />

die jedoch ungeeignet sind, um Abstände im Bereich der theoretischen<br />

Größen wiederzugeben (s. dazu Bartelborth 1988, 119ff). Für Quasimetriken<br />

d auf Mp erhalten wir dagegen auf natürliche Weise Quasimetriken<br />

d’ auf Mpp. Dazu wählen wir auf Mpp die induzierte Quasimetrik, die<br />

sich wie folgt definieren läßt:<br />

d’: MppMpp [0,] und für x, y sei:<br />

d’(x,y) := inf {d(z,w); z Fx w Fy},<br />

wobei mit Fx := {z Mp; r(z) = x} die Faser von x unter r gemeint<br />

ist.<br />

Daß auch d’ eine Quasimetrik ist, läßt sich dann allgemein beweisen:<br />

Daß d’ die ersten beiden Bedingungen für Quasimetriken erfüllt, ist offensichtlich,<br />

so bleibt nur die Dreiecksungleichung nachzuweisen. Dazu ist zu<br />

155 In Bartelborth (1988, 125ff) wird erläutert, wie sich eine Quasimetrik<br />

für Kontinuumstheorien einführen läßt und wie fruchtbar sie für einen Vergleich<br />

zwischen vorrelativistischen und relativistischen Theorien ist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 368<br />

zeigen: Für alle r,s,t Mpp gilt: d’(r,s) + d’(s,t) d’(r,t) oder dementsprechend<br />

(in etwas abgekürzter Schreibweise):<br />

(*) inf {d(x,y)} + inf {d(y’,z’)} inf {d(x’’,z’’)},<br />

wobei die Infima jeweils immer über alle x, x’’ Fr, y, y’ Fs, z’, z’’ Ft<br />

zu nehmen sind. Im folgenden seien alle Größen ebenfalls immer aus den<br />

entsprechenden Fasern gewählt. Dann erhalten wir für alle x’’, z’’ und y:<br />

d(x’’,z’’) d(x’’,y) + d(y,z’’) inf {d(x,y)} + inf {d(y’,z’)}.<br />

Da das für alle x’’ und alle z’’ gilt, folgt daraus (*).<br />

Diese induzierte Quasimetrik ist auch in der Praxis – man denke nur an<br />

unser Beispiel – leicht anzugeben, resultiert sie doch einfach aus der<br />

Kombination der Supremumsnormen für die nichttheoretischen Größen.<br />

Anhand der Abstandsfunktion d können wir dann festlegen, welche<br />

Abweichungen wir in welchen Bereichen noch tolerieren wollen. Das<br />

soll in eine (symmetrische) Relation der Verschmierung „~“ einfließen.<br />

Zwei potentielle Modelle gelten als zulässige „Verschmierungen“ voneinander,<br />

wenn z. B. d(x,y) < 0,01 in bestimmten Einheiten ist, oder<br />

wenn d(x,y) kleiner ist als 1% vom räumlichen Durchmesser des betrachteten<br />

Raumgebiets (bezogen auf entsprechende Einheiten) oder<br />

ähnliche Bedingungen gelten, die natürlich auch bereichsspezifisch erklärt<br />

werden können, so daß für Pendel andere Maßstäbe gelten als für<br />

Planeten usw. Die erlaubten Verschmierungen sind eventuell von technischen<br />

Faktoren einzelner intendierter Anwendungen abhängig, also etwa<br />

von den zur Verfügung stehenden Meßinstrumenten und der Zugänglichkeit<br />

des Systeme. Entscheidend für den Gehalt einer Theorie ist dabei<br />

hauptsächlich die Funktion „~“ für die erlaubten Unschärfen, die<br />

uns angibt, welche Abweichungen zwischen Theorie und Empirie jeweils<br />

noch tolerierbar sind. Damit läßt sich nun auf naheliegende Weise die<br />

empirische Behauptung eines Theorien-Netzes N = (Ti)iJ in approximativer<br />

Form formulieren:<br />

Approximative Empirische Behauptung von N<br />

(AEB) e ℰ(N) j J [e(Ij) ̃ TG(Tj)],<br />

wobei mit „̃“ das approximative Enthaltensein für Mengen auf der<br />

Grundlage der Verschmierungsfunktion ~ gemeint ist. 156 Das heißt, es<br />

156 Für zwei Mengen A und B gilt A ̃ B gdw: Es gibt eine Menge C, so<br />

daß A ~ C und C B gilt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 369<br />

gibt eine Menge Aj, die eine Verschmierung von e(Ij) darstellt und in<br />

TG(Tj) enthalten ist.<br />

Die Verschmierungsbeziehung „~“ ist aber ebenso zur Untersuchung<br />

und Interpretation anderer Beziehungen erforderlich, von denen die<br />

wichtigste wohl die der approximativen Reduktion ist, weil sie für unser<br />

Verständnis von Fortschritt in den Wissenschaften von grundlegender<br />

Bedeutung ist.<br />

10. Zusammenfassung der strukturalistischen Theorienauffassung<br />

Als Kurzübersicht möchte ich alle bisher eingeführten Konzepte der<br />

strukturalistischen Auffassung noch einmal zusammenstellen. Theorien<br />

in einem gebräuchlichen Sinn des Wortes bestehen meist aus zahlreichen<br />

Theorie-Elementen Ti, die zu einem baumartigen Theorien-Netz N =<br />

(Ti)iJ mit einem Basis-Theorie-Element T0 zusammengefügt sind. Weiterhin<br />

können mehrere Netze verbunden in einem Theorien-Holon wie im<br />

Beispiel der allgemeinen Relativitätstheorie eine größere Einheit bilden.<br />

Theorie-Elemente<br />

Jedes Theorie-Element T ist eine Struktur der Form:<br />

T = ,<br />

wobei die folgenden mengentheoretischen Beziehungen gelten:<br />

(a) M Mp<br />

(b) Mpp ist eine Menge von Substrukturen zu Mp<br />

(c) C Pot(Mp)<br />

(d) L Mp<br />

(e) I Mpp<br />

(f) ~ Mp Mp<br />

Die potentiellen Modelle sollen all die Systeme beschreiben, die für die<br />

Theorie von der begrifflichen Struktur her überhaupt als Anwendungsfälle<br />

in Frage kommen, dabei ist jedes potentielle Modell x Mp eine<br />

Relationsstruktur bestehend aus den Grundmengen D =<br />

und den Relationen R = darauf, wobei die<br />

Modelle die Teilmenge von Strukturen darstellen, die die Gesetze des<br />

Theorie-Elements erfüllen. Die partiellen Modelle sind Substrukturen<br />

der potentiellen Modelle, die nur die nicht-T-theoretischen Komponenten<br />

enthalten. Sie bilden die vortheoretische Ebene von T, die man mit<br />

der Abschneidefunktion r:Mp Mpp aus den potentiellen Modellen er-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 370<br />

hält. Die Constraints sollen dagegen die innere Konsistenz von T sicherstellen<br />

und sind daher Mengen von solchen Modellen, die zusammenpassen<br />

und folgende Bedingungen erfüllen:<br />

C(T) ist ein Constraint für T gdw.:<br />

1) C Pot(Mp(T))<br />

2) x Mp(T): {x} C(T)<br />

3) C(T)<br />

Außerdem gibt es auch Konsistenzforderungen zwischen verschiedenen<br />

Theorie-Elementen, die sogenannten Links, die zwischen n-Theorie-Elementen<br />

vermitteln sollen.<br />

ℒ(T1,,Tn) Mp(T1) Mp(Tn),<br />

Dabei wird der Effekt auf die empirische Behauptung eines einzelnen<br />

Theorie-Elements wie z. B. T1 wird durch die folgende Teilmenge der<br />

potentiellen Modelle von T1 ausgedrückt:<br />

L(T1) := {x Mp(T1); x2 Mp(T2) xn Mp(Tn) mit:<br />

(T1,,Tn)}<br />

Die beiden Ebenen und ihre wichtigsten Komponenten und Zusammenhänge<br />

für ein Theorie-Element sind noch einmal im nebenstehenden<br />

Mengendiagramm zusammengestellt. Den Zusammenhang dieser Theoriekomponenten<br />

kann man in einem Bild veranschaulichen, das darüber<br />

hinaus noch den theoretischen Gehalt TG und den entsprechenden empirischen<br />

Gehalt EG kennzeichnet.<br />

Theorien-Netze<br />

Aus den eben beschriebenen Theorie-Elementen setzen sich die Theorien-Netze<br />

zusammen, wobei alle Elemente sich als Spezialisierungen eines<br />

Basis-Theorie-Elements ergeben. Sie geben uns spezielle Gesetze für<br />

einen eingeschränkten Teilbereich der intendierten Anwendungen. Die<br />

Spezialisierungsbeziehung läßt sich daher mengentheoretisch folgendermaßen<br />

beschreiben:<br />

T’ ist ein Spezialisierung von T (T’ T) gdw:<br />

i) Mp’ = Mp<br />

ii) Mpp’ = Mpp<br />

iii) M’ M<br />

iv) C’ C<br />

v) L’ L<br />

vi) I’ I,


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 371<br />

Für ein baumartiges Netz N mit dem Basis-Theorie-Element T0 partiell<br />

geordnet durch die Spezialisierungsbeziehung und J = {0,…,n}ergibt<br />

sich: 157<br />

N = (Ti)iJ ist ein (baumartiges) Theorien-Netz gdw:<br />

(a) Für alle i J: Ti ist ein Theorie-Element.<br />

(b) Für alle i J: Ti T0.<br />

Empirische Behauptung von Theorien<br />

Für die Bestimmung der empirischen Behauptung von Theorie-Elementen<br />

und Theorien-Netzen benötigen wir einige Hilfsbegriffe, wie den<br />

theoretischen Gehalt von T:<br />

TG(T) := Pot(M) C Pot(L)<br />

Durch die Projektionsfunktion r erhalten wir ein entsprechendes Mengensystem<br />

auf der nicht-theoretischen Ebene, das man auch den empirischen<br />

Gehalt von T nennt:<br />

EG(T) := r[Pot(M) C Pot(L)]<br />

Die empirische Behauptung von T = , die besagt, daß alle intendierten<br />

Anwendungen der Theorie (zusammengefaßt in I) sich in gleichzeitig<br />

und in konsistenter Weise um theoretische Komponenten zu aktualen<br />

Modellen erweitern lassen, läßt sich dann schreiben:<br />

I EG(T),<br />

oder auch mit Hilfe der Einbettungsfunktionen ℰ von T:<br />

ℰ(T) := {e:Mpp Mp; mit r ∘ e = idMpp}<br />

wird daraus schließlich:<br />

Empirische Behauptung von T:<br />

e ℰ(T) mit: e(I) TG(T)<br />

Das läßt sich ausdehnen auf Einbettungsfunktionen für ganze Netze N =<br />

(Ti)iJ von Theorie-Elementen, und es ergibt sich dann für die empirische<br />

Behauptung ganzer Netze N:<br />

Empirische Behauptung von N<br />

(EB) e ℰ(N) j J [e(Ij) TG(Tj)]<br />

157 Neben den strikten Spezialisierungen stoßen wir auch manchmal auf approximative<br />

Spezialisierungen, so etwa im Falle der Elektrodynamik (s. Bartelborth<br />

1988).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 372<br />

Wenn man nun noch die Approximationen berücksichtigt, die jede empirische<br />

Behauptung begleiten, erhalten wir anhand der tolerierbaren Verschmierungen<br />

die:<br />

Approximative Empirische Behauptung von N<br />

(AEB) e ℰ(N) j J [e(Ij) ̃ TG(Tj)],<br />

die den Gehalt des gesamten Theorien-Netzes zum Ausdruck bringt und<br />

dabei alle Komponenten von Theorien berücksichtigt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 373<br />

VIII Wissenschaftliche Erklärungen<br />

A. Erkenntnistheoretische Funktionen von Erklärungen<br />

In früheren Kapiteln der Arbeit besonders in (IV) hatte ich argumentiert,<br />

daß wir für begründete Meinungen immer auf ein kohärentes Netz von<br />

Überzeugungen angewiesen sind, in dem Theorien oder zumindest allgemeine<br />

Überzeugungen eine verbindende Rolle zu übernehmen haben.<br />

Mit Hilfe der durch sie verfügbaren Erklärungen konnten Beobachtungen<br />

und andere Bestimmungsstücke unseres Wissens in einen indirekten<br />

Bestätigungszusammenhang gebracht werden, der gerade Kohärenz ausmacht.<br />

Theorien erwiesen sich dabei insbesondere in den Wissenschaften<br />

als Gebilde mit einer komplizierten inneren Struktur, die sich am<br />

leichtesten durch Tupel von Modellmengen darstellen läßt (s. VII). Was<br />

Erklärungen sind, wurde bisher allerdings noch nicht beantwortet. Doch<br />

immerhin verfügen wir über viele klare Beispiele für gute und schlechte<br />

Erklärungen und besitzen überdies allgemeine Vorstellungen von Erklärungen,<br />

die uns nun für eine Präzisierung des Erklärungsbegriffs anleiten<br />

werden. Dabei soll die kohärenzstiftende Funktion von Erklärungen<br />

zum Maßstab erhoben werden, um die geeigneten Explikationen des Erklärungsbegriffs<br />

von weniger angemessenen zu trennen. Die Erkenntnistheorie<br />

steckt somit den Rahmen ab, den Erklärungen mit Inhalt zu füllen<br />

haben.<br />

Natürlich verlangen wir von der gesuchten Explikation paradigmatische<br />

Beispiele von Erklärungen aus dem Alltag und den Wissenschaften<br />

zu erfassen. Zwar kann man sich in bestimmten Fällen dazu entschließen,<br />

einige Zusammenhänge, die wir bisher für erklärend hielten, nun<br />

als solche zurückzuweisen, aber man kann das nicht unbegrenzt tun,<br />

ohne den Anspruch aufzugeben, eine Explikation von „Erklärung“ vorzulegen.<br />

Der Test einer Erklärungstheorie an Beispielen von Erklärungen<br />

wird also eine bedeutsame Rolle spielen. Aber er ist in der bisherigen Erklärungsdebatte<br />

zu stark in den Vordergrund getreten. Die Diskussionen<br />

um eine angemessene Erklärungstheorie haben sich fast ausschließlich an<br />

einzelnen meist noch nicht einmal realistischen Beispielen orientiert. Da-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 374<br />

mit ließ man größere wissenschaftsphilosophische oder erkenntnistheoretische<br />

Zusammenhänge einfach außer Acht.<br />

Ein anderer Aspekt für eine moderne Erklärungstheorie, der in den<br />

letzten Jahren immer stärker in den Blick genommen wurde, ist der Zusammenhang<br />

von Erklärungen und Verstehen. Ein wesentliches Ziel wissenschaftlichen<br />

Erkenntnisstrebens ist es, Einblicke in die Welt und ihr<br />

Funktionieren zu geben, die es gestatten, unsere Umwelt zu verstehen.<br />

Das beinhaltet dann meist auch, daß wir sie beeinflussen oder sogar beherrschen<br />

können, wofür die technische Entwicklung unseres Jahrhunderts<br />

ein beredtes – wenn auch nicht immer wünschenswertes – Zeugnis<br />

ablegt.<br />

Da die Explikation von Erklärung im wissenschaftlichen Bereich ihren<br />

Schwerpunkt haben soll – denn hier finden sich die typischen und<br />

expliziten Exemplare von Erklärungen –, geht es mir in erster Linie um<br />

ein wissenschaftliches Verstehen von Vorgängen oder Tatsachen. Wissenschaftliche<br />

Erklärungen sollten also in der Lage sein, wissenschaftliches<br />

Verstehen zu befördern. Eine typische Frage könnte in diesem Zusammenhang<br />

etwa lauten: Ich verstehe nicht, warum in Lebewesen nur die<br />

sogenannten L-Aminosäuren zu finden sind und nicht die chemisch<br />

gleichwertigen D-Formen. Kannst Du mir das erklären? Oder: Warum<br />

laufen die Planeten auf Ellipsenbahnen um die Sonne? Das verstehe ich<br />

nicht. In all diesen Fällen versprechen wir uns von Erklärungsepisoden,<br />

daß sie das Verstehen eines wissenschaftlichen Sachverhalts zur Folge haben.<br />

Die Erklärungen, um die es dabei geht, sind typischerweise – aber<br />

nicht ausschließlich, wie wir noch sehen werden – Antworten auf Warum-Fragen.<br />

B. Wissenschaftliches Verstehen<br />

Was aber ist mit wissenschaftlichem Verstehen gemeint? Schon Hempel<br />

(1977, 148ff) untersuchte diese Frage und beschäftigte sich mit der oft<br />

dazu geäußerten Ansicht, daß eine Erklärung die Verwirrung des Fragestellers<br />

beseitigen soll, indem sie ein Phänomen, das er nicht versteht,<br />

auf uns Vertrautes zurückführt. 158 Diese Ansicht, die insbesondere von<br />

Bridgeman vertreten wurde, hat eine ganze Reihe von Beispielen auf ihrer<br />

Seite. Etwa die in der Physik häufig anzutreffenden Versuche, mechanische<br />

Modelle für physikalische Vorgänge zu finden. Das reicht von<br />

158 Siehe auch die entsprechende Diskussion bei Friedman (1988, 177ff).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 375<br />

Analogien zwischen Licht und Wasserwellen über Maxwells mechanische<br />

Modelle des Äthers und Bohrs Atommodell als einem kleinen Planetensystem<br />

bis hin in die Thermodynamik, die man durch einen Vergleich<br />

mit sich elastisch stoßenden Billiardbällen zu verstehen hofft. Gerade<br />

für den Bereich der wissenschaftlichen Erklärungen besitzt die Zurückführung<br />

auf Vertrautes aber auch mindestens genauso viele Gegenbeispiele.<br />

Viele Phänomene unseres Alltags vom Sonnenaufgang und hellen<br />

Strahlen der Sonne, über den Regenbogen, dem Wachsen der Pflanzen<br />

und Tiere bis hin zu dem Funktionieren unserer elektrischen Geräte<br />

sind uns sehr vertraut. Wir können aber deshalb noch nicht sagen, wir<br />

hätten sie auf einem wissenschaftlichen Niveau verstanden. Außerdem<br />

werden gerade diese relativ vertrauten Phänomene häufig durch uns viel<br />

unvertrautere Theorien erklärt, wobei insbesondere die Quantenmechanik<br />

an prominenter Stelle zu nennen ist, die in der heutigen Physik einen<br />

ausgezeichneten Platz einnimmt.<br />

Statt Zurückführung auf Vertrautes möchte ich daher eher kohärente<br />

Einbettung in unser Überzeugungssystem als charakteristisch für wissenschaftliches<br />

Verstehen vorschlagen. Die Zurückführung auf Vertrautes<br />

bestand in der Regel in dem Verbinden zweier Vorgänge, die vorher isoliert<br />

nebeneinander standen. Wir zeigen für Wellenvorgänge im Wasser<br />

und bei elektromagnetischen Phänomenen, daß sich viele Phänomene<br />

wie Interferenz oder Beugung in beiden Bereichen strukturell gleich verhalten.<br />

Das Entscheidende daran ist, daß wir sie unter eine gemeinsame<br />

Theorie der Wellenphänomene subsumieren. Hempel (1977, 162) nennt<br />

dazu das Beispiel von Gauß, der eine explizite Theorie der Potentialkräfte<br />

für Gravitations-, elektrische und magnetische Kräfte entwickelt<br />

hat. Diese Verknüpfung erhöht für die verschiedenen beteiligten Bereiche<br />

ihre Kohärenz in unserem Überzeugungssystem. Alle bekannten Eigenschaften<br />

solcher konservativen Kräfte, wie die Wegunabhängigkeit<br />

der Energiebilanz, können nun durch die abstraktere allgemeine Theorie<br />

konservativer Kräfte erklärt werden. Diese Erklärung auf recht abstraktem<br />

Niveau erhöht eindeutig die Anzahl der inferentiellen Zusammenhänge<br />

zwischen Überzeugungen, die zunächst unverbunden nebeneinander<br />

standen. Dabei kann eines der Phänomene vertrauter und damit bereits<br />

in unserem Meinungssystem besser verankert sein, so daß die epistemische<br />

Stützung stärker das andere betrifft, dessen kohärente Einbettung<br />

noch zu wünschen übrig läßt. Die Überlagerung von Wasserwellen<br />

ist uns wahrscheinlich so vertraut, daß wir für das Vorliegen und die Beschreibung<br />

dieses Phänomens durch ihren Zusammenhang zur Überlagerung<br />

elektromagnetischer Wellen keinen erkenntnistheoretischen Ge-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 376<br />

winn erwarten, während das für das Verständnis der elektromagnetischen<br />

Phänomene durchaus der Fall ist.<br />

Natürlich erfolgt eine Verstärkung der Einbindung in unsere Überzeugungssyteme<br />

aber auch in der anderen Richtung von den weniger<br />

vertrauten zu den vertrauteren Vorgängen. Insbesondere ist der Vertrautheitsgrad<br />

kein zuverlässiger Maßstab für die Kohärenz der Einbettung.<br />

Das Strahlen der Sonne ist uns zwar durch alltägliche Wahrnehmungen<br />

sehr vertraut, aber ein wissenschaftliches Verständnis erfordert daneben<br />

auch eine theoretische Einordnung, die in diesem Fall in einer kausalen<br />

Erklärung zu suchen ist. Die liefert uns erst die Quantenmechanik mit<br />

ihrer Beschreibung des „Wasserstoffbrennens“ der Sonne. Die Quantenmechanik<br />

ist uns zwar im Alltag nicht vertraut, aber sie ist nichtsdestoweniger<br />

erkenntnistheoretisch hervorragend in unser wissenschaftliches<br />

Wissen eingebettet und besitzt daher die Kraft, auch die wissenschaftliche<br />

Einbettung der Sonnenvorgänge wesentlich zu befördern. Die Beschreibung<br />

vom Verstehen als kohärenter Einbettung in unser Überzeugungssystem<br />

kann damit beide Klassen von Beispielen abdecken und unterstreicht<br />

noch einmal die Bedeutung des allgegenwärtigen Kohärenzgedankens.<br />

Außerdem paßt die Konzeption von kohärenter Einbettung als Verstehen<br />

auch gut zur Ansicht von Lambert (1988, 304ff), für den wissenschaftliches<br />

Verstehen einer Tatsache E darin besteht, zu zeigen, wie E in<br />

eine Theorie T hineinpaßt. Das Einbetten einer Tatsache in eine Theorie<br />

ist ein wesentlicher Spezialfall wissenschaftlichen Verstehens im Sinne<br />

der kohärenten Einbettung in unser ganzes Überzeugungssystem. In einigen<br />

Fällen, so z. B. beim Verstehen historischer Daten, können wir allerdings<br />

auch von Verstehen sprechen, ohne daß wir eine bestimmte Theorie<br />

zitiert hätten oder auch nur zitieren könnten, in die sich diese Daten<br />

einpassen ließen. Dabei stehen zwar oft allgemeine Modelle menschlichen<br />

Verhaltens im Hintergrund, die lassen sich aber wohl nicht in geradliniger<br />

Weise zu einer bewährten wissenschaftlichen Theorie ausbauen.<br />

Ein Argument von Hempel (1977, 149) gegen die Vorstellung, daß<br />

Erklärungen eine Zurückführung auf Vertrautes anzubieten hätten, soll<br />

noch erwähnt werden, weil es sich vielleicht auch gegen die Konzeption<br />

der kohärenten Einbettung wenden ließe. Hempel weist darauf hin, daß<br />

nach dieser Konzeption Erklärungen auf Personen zu relativieren sind,<br />

während wissenschaftliche Erklärungen sich für ihn als objektive Beziehungen<br />

darstellen. Dieser Einwand trifft meines Erachtens die angegriffene<br />

Position nicht wirklich. Welche Erklärungen uns offenstehen, hängt


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 377<br />

natürlich immer davon ab, über welche Theorien wir bereits verfügen,<br />

und ist daher auch in diesem harmlosen Sinn personenrelativ, weil verschiedene<br />

Personen zu verschiedenen Zeiten unterschiedliche Theorien<br />

akzeptieren. Doch damit werden Erklärungen selbst noch nicht eine personenrelative<br />

und subjektive Angelegenheit. Entsprechendes läßt sich etwa<br />

von den sicher objektiven logischen Schlüssen sagen. Welche ich tatsächlich<br />

ziehen kann, hängt von meiner Prämissenmenge ab und wie einfallsreich<br />

ich im Durchführen logischer Beweise bin. Davon bleibt unberührt,<br />

daß deduktive Zusammenhänge eine objektive Beziehung zwischen<br />

Aussagenmengen sind. Entsprechendes gilt auch für den objektiven<br />

Teil in Erklärungen, wie wir später sehen werden. Nur über welche<br />

wir verfügen, ist von der jeweiligen Person abhängig. Für wissenschaftliche<br />

Erklärungen tritt dieses Phänomen der Personenrelativität schon deshalb<br />

nicht so stark in Erscheinung wie für Alltagserklärungen, weil es einen<br />

großen Bereich wissenschaftlich akzeptierten Standardwissens gibt,<br />

so daß beträchtlich abweichende Meinungen und Erklärungen oft nicht<br />

mehr als wissenschaftlich zu betrachten sind. Durch diese gemeinsame<br />

Basis für Ansichten der Wissenschaftlergemeinschaft (auch auf der Ebene<br />

der wissenschaftlichen Methodologie) herrscht eine relativ große Einigkeit,<br />

was als wissenschaftliche Erklärung zu gelten hat und was nicht.<br />

Dieses Phänomen mag Hempel über den Punkt der Abhängigkeit vom<br />

jeweiligen Wissenstand hinwegtäuschen, aber er liegt natürlich auch hier<br />

vor. Zumindest für meine Einbettungskonzeption von Verstehen haben<br />

wir jedenfalls keinen Grund anzunehmen, daß die Personenrelativität<br />

über dieses harmlose Maß hinausgeht.<br />

C. Die klassische Erklärungskonzeption<br />

Ausgangspunkt nahezu aller heutigen Debatten um Erklärungen ist die<br />

klassische Konzeption wissenschaftlicher Erklärungen von Hempel und<br />

Oppenheim (1948): das deduktiv-nomologischen Modells (kurz: DN-<br />

Schema) von Erklärung. 159 Auch wenn hier die Idee zum erstenmal mit<br />

der gebotenen Klarheit ausgedrückt wurde, findet sie sich schon vorher<br />

bei Carnap oder auch bei Popper. Der Grundgedanke Hempels ist recht<br />

elementar: Eine Erklärung ist demnach ein Argument, das uns angibt,<br />

159 Der klassische Aufsatz von 1948 wurde in den Band „Aspekte wissenschaftlicher<br />

Erklärungen“ (1977) integriert, auf den ich mich im folgenden stützen<br />

werde.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 378<br />

warum ein zu erklärendes Ereignis zu erwarten war. Natürlich ist nicht<br />

jedes beliebige Argument schon eine wissenschaftliche Erklärung, weshalb<br />

dieser Gedanke weiter spezifiziert werden muß. Die erste zusätzliche<br />

Anforderung Hempels ist die nach einem Naturgesetz unter den Prämissen<br />

des Arguments, was geradezu dokumentieren soll, daß es sich um<br />

eine wissenschaftliche Erklärung handelt. Ein weiterer grundlegender<br />

Punkt ist die Forderung, der Schluß im Argument müsse ein deduktiver<br />

Schluß sein. Für alltägliche Argumentationen lassen sich nur schwer entsprechend<br />

präzise Standards für eine Beziehung zwischen Prämissen und<br />

Konklusion finden, aber für wissenschaftliche Erklärungen verlangt das<br />

DN-Schema den strengstmöglichen, nämlich den des logisch gültigen<br />

Schlusses. Wissenschaftliche Erklärungen eines Ereignisses sind folglich<br />

logische Subsumptionen unter Naturgesetze.<br />

Im allgemeinen reichen Naturgesetze allein natürlich nicht aus, um<br />

ein konkretes Ereignis abzuleiten, weil sie nur angeben, welche Weltverläufe<br />

möglich sind und nicht, welche tatsächlich realisiert werden. Hempels<br />

erstes Beispiel (1977, 5ff), das ein uns vertrautes Phänomen zum<br />

Gegenstand hat, soll diesen Aspekt von Erklärungen deutlich machen.<br />

Wenn ich ein Wasserglas aus dem heißen Seifenwasser herausnehme und<br />

umgekehrt auf den Tisch stelle, kommen unterhalb des Glasrandes Seifenblasen<br />

hervor, die zunächst größer werden und sich später wieder zurückziehen.<br />

Schon John Dewey hatte eine Erklärung für dieses Phänomen<br />

anzubieten: Die anfangs noch kalte Luft wird von dem warmen<br />

Glas erwärmt, dehnt sich aus und quillt unter dem Glasrand hervor, wodurch<br />

der zwischen Glas und Tisch befindliche Seifenfilm Blasen bildet.<br />

Später kühlen Glas und Luft darin ab, die Luft zieht sich zusammen und<br />

die Blasen schrumpfen wieder. Implizit bezieht man sich in dieser Erklärung<br />

auf Naturgesetze etwa über die Ausdehnung von Gasen bei Erwärmung<br />

und den Wärmeaustausch von Körpern mit unterschiedlicher<br />

Temperatur. Daneben werden aber genauso Angaben über die Startbedingungen<br />

des Vorgangs benötigt, wie die Ausgangstemperatur des Glases<br />

und der in ihr befindlichen Luft, sowie das Vorhandensein von Seifenwasser.<br />

Diese werden als Antezedenzbedingungen neben den Gesetzen<br />

stehen, um das Explanandumphänomen abzuleiten. Das DN-Schema erhält<br />

damit nach Hempel (1977, 6) die folgende Gestalt:<br />

DN-Schema der wissenschaftlichen Erklärung<br />

A1,…, An<br />

Explanans<br />

G1,…, Gk<br />

E Explanandum-Satz


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 379<br />

Hierbei stehen die Ai für singuläre Antezendenzsätze und die Gi für die<br />

verwendeten Gesetze. Neben den eher formalen Anforderungen an die<br />

Struktur von Erklärungen gibt Hempel noch zwei inhaltliche Adäquatheitsbedingungen<br />

an. Die Sätze des Explanans sollen empirischen Gehalt<br />

besitzen, denn es geht Hempel um naturwissenschaftliche Erklärungen<br />

empirischer Phänomene. Außerdem sollen die Sätze wahr sein. Dann<br />

spricht Hempel (1977, 7) von einer wahren Erklärung und anderenfalls<br />

von einer bloß potentiellen DN-Erklärung.<br />

Mir geht es im Unterschied zu Hempel natürlich in erster Linie um<br />

eine Explikation der potentiellen Erklärung, denn die (potentiellen) Erklärungen<br />

sollen im Rahmen dieser Arbeit erst als Indikatoren dienen,<br />

mit denen wir der Wahrheit auf die Schliche kommen wollen. Darunter<br />

fallen dann auch Wie-möglich-Erklärungen, die neben den Antworten<br />

auf Warum-Fragen einen Großteil der Erklärungen stellen. Auch Salmon<br />

(s. 1989, 137ff) und andere Wissenschaftstheoretiker glauben inzwischen<br />

nicht mehr, daß sich im Prinzip alle Erklärungen als Antworten<br />

auf Warum-Fragen darstellen lassen.<br />

Für eine große Zahl wissenschaftlicher Erklärungen konnten Hempel<br />

und seine Nachfolger zeigen, daß sie recht genau dem DN-Schema<br />

der Erklärung entsprechen. Trotzdem ergaben sich von Beginn an zahlreiche<br />

Schwierigkeiten für das Hempelsche Modell, von denen ich einige,<br />

die von Bedeutung für den Fortgang der Debatte um eine Explikation<br />

von „wissenschaftlicher Erklärung“ sind, nun besprechen möchte. 160<br />

1. Erste Probleme des DN-Schemas<br />

a) Das Problem der Gesetzesartigkeit<br />

Ein erstes und offensichtliches wissenschaftstheoretisches Problem des<br />

DN-Schemas ist es, genauer zu bestimmen, was unter einem Naturgesetz<br />

zu verstehen ist. Bekanntlich ist nicht jede Allaussage wie<br />

(*) Alle Münzen in der Tasche von Fritz sind aus Silber.<br />

schon ein Naturgesetz. Auf das Problem, Bedingungen für Gesetzesartigkeit<br />

zu formulieren, hat sich schon Hempel (1977) eingelassen, aber<br />

seine Hinweise (1977, 10), daß sie eine wesentlich generelle Form haben<br />

160 Eine ausführliche systematische Darstellung der verschiedenen Debatten<br />

zu diesem Thema findet sich in Stegmüller (1969) und eine Darstellung der verschiedenen<br />

historisch-systematischen Phasen der Erklärungsdebatte in Salmon<br />

(1989) mit einigen Ergänzungen durch Fetzer (1990).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 380<br />

sollen, nicht aus logischen Gründen auf eine endliche Menge beschränkt<br />

sein dürfen und ebensowenig auf spezielle Individuen (1977,12) bezug<br />

nehmen dürfen, reichen aus heutiger Kenntnis des Problemfeldes Gesetzesartigkeit<br />

für eine Lösung kaum aus. Da die Forderung nach einem<br />

Gesetz in den Explanansbedingungen jedoch eine der wenigen substantiellen<br />

Klauseln des DN-Schemas darstellt, ist ihre Explikation ein unerläßliches<br />

Erfordernis für die DN-Konzeption.<br />

Die akzidentelle Allausage (*) ist offensichtlich ungeeignet, zu erklären,<br />

warum bestimmte Münzen in der Tasche von Fritz aus Silber sind.<br />

Ein weiterer Hinweis auf ihre Unbrauchbarkeit findet sich in ihrer Unfähigkeit,<br />

Voraussagen oder irreale Konditionalsätze zu stützen, was gesetzesartigen<br />

Aussagen dagegen gelingt. So wird man auf der Grundlage<br />

von (*) kaum schließen dürfen, daß auch in Zukunft die Münzen in der<br />

Tasche von Fritz alle aus Silber sein werden oder sogar, daß eine bestimmte<br />

Münze, wäre sie in Fritz Tasche gewesen, auch aus Silber gewesen<br />

wäre. Entsprechende Schlüsse sind auf der Grundlage von Naturgesetzen<br />

dagegen typischerweise möglich. Das Newtonsche Gravitationsgesetz<br />

gestattet uns zu bestimmen, mit welcher Kraft ein Körper angezogen<br />

würde, würde man ihn im Schwerefeld der Erde deponieren. Leider<br />

erlaubt diese Eigenschaft von Gesetzen, irreale Konditionalaussagen zu<br />

bestätigen, ebenfalls keine einfache Charakterisierung von Gesetzesartigkeit,<br />

da irreale Konditionalsätze sich ihrerseits hartnäckig einer Analyse<br />

zumindest mit logisch unbedenklichen Mitteln widersetzen. Quine äußert<br />

sogar Zweifel, ob sie überhaupt wahrheitswertfähig sind, und weiß<br />

das mit einem simplen Beispiel zu untermauern. Welcher von den folgenden<br />

beiden Sätzen hätte denn eher Anspruch darauf, wahr zu sein?<br />

1) Wenn Bizet und Verdi Landsleute gewesen wären, dann wären sie<br />

Franzosen gewesen.<br />

2) Wenn Bizet und Verdi Landsleute gewesen wären, dann wären<br />

sie Italiener gewesen.<br />

Dabei scheint es sich nicht um eine Tatsachenfrage zu handeln, wodurch<br />

die irrealen Konditionalsätze weiter ins Zwielicht geraten. Auch andere<br />

Vorgehensweisen zur Bestimmung von Gesetzesartigkeit werden kontrovers<br />

diskutiert, zumal beispielsweise die schon erwähnten Goodmanschen<br />

Pseudogesetze alle syntaktischen Merkmale von echten Gesetzen<br />

haben und trotzdem intuitiv nicht als Naturgesetze gelten können. Ungeachtet<br />

aller Fortschritte in diesem Gebiet, denen ich an dieser Stelle<br />

nicht weiter nachgehen möchte, bleibt hier ein Bedenken gegen das DN-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 381<br />

Schema zurück, denn es gibt immer noch keine zufriedenstellende Lösung<br />

für das Problem der Gesetzesartigkeit.<br />

b) Sind Gesetze für Erklärungen notwendig?<br />

Hempel kann auf das Problem der Gesetzesartigkeit zumindest mit dem<br />

Hinweis reagieren, daß, wenn wir auch nicht über ein Kriterium für Gesetzesartigkeit<br />

verfügen, wir doch in konkreten Fällen meist entscheiden<br />

können, ob es sich um ein Gesetz handelt oder nur eine akzidentelle<br />

Verallgemeinerung. Das mag uns zunächst für eine Explikation von wissenschaftlichen<br />

Erklärungen genügen. Doch wie essentiell sind Naturgesetze<br />

wirklich für wissenschaftliche Erklärungen? Tatsächlich stoßen wir<br />

im Alltag und in der Wissenschaft auf eine ganze Reihe von Erklärungen,<br />

die auf den ersten Blick ohne Gesetze auszukommen scheinen.<br />

Hempel (1977,170ff) geht selbst auf derartige Fälle ein. Er untersucht<br />

etwa die Erklärung des Historikers Gottlob, wie es zur Sitte des Ablaßverkaufs<br />

kam. Zusammengefaßt stellt Gottlob diese Institution als eine<br />

Maßnahme der Päpste im Kampf gegen den Islam und knappe Kassen<br />

dar: Während den mohammedanischen Kriegern zugesagt war, daß sie<br />

nach einem Tod in der Schlacht in den Himmel gelangen würden, mußten<br />

die Kreuzritter ewige Verdammnis befürchten, wenn sie nicht regelmäßig<br />

Buße für ihre Sünden taten. Um sie hier zu entlasten, versprach<br />

Johannes VIII im Jahr 877 den Kreuzrittern für den Fall ihres Ablebens<br />

in der Schlacht die Absolution ihrer Sünden. Dieser Kreuzablaß wurde<br />

dann auch auf die ausgedehnt, die zwar nicht an den Kreuzzügen teilnehmen<br />

konnten, aber sie mit Geld unterstützten. Auch nach einem Abflauen<br />

der Kreuzzüge wollte die Kirche diese zusätzliche Möglichkeit<br />

der Geldschöpfung nicht aufgeben und da die Gläubigen ebenfalls sehr<br />

an der Sitte des käuflichen Sündenerlasses interessiert waren – war dieser<br />

Weg für viele doch erfreulicher, als die unangenehmen kirchlichen<br />

Bußstrafen auf sich zu nehmen, ganz zu schweigen vom drohenden Fegefeuer<br />

nach dem Tode –, kam es letztlich zu einer weiteren Verbreitung<br />

des Ablasses.<br />

i. Unvollständige Erklärungen<br />

Hempel (1977, 172) gesteht sehr wohl zu – und das ist auch offensichtlich<br />

–, daß diese Schilderung das Verständnis eines geschichtlichen Phänomens<br />

durchaus erweitern kann und eine Form von Erklärung dafür<br />

bietet, obwohl sie nicht dem DN-Schema genügt. Zunächst sind solche<br />

genetischen Erklärungen Schilderungen, wie in einer Abfolge von Zu-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 382<br />

ständen jeweils einer zum nächsten führt (was man auch für physikalische<br />

Prozesse kennt), aber es werden für die Übergänge keine Gesetze<br />

bemüht, sondern nur dargestellt, daß der Übergang verständlich und<br />

plausibel ist. Hempel gibt eine Reihe von Möglichkeiten an, wie derartige<br />

Beispiele mit seinem DN-Schema zu harmonisieren sein könnten. Die<br />

erste ist die der elliptischen Erklärung (Hempel 1977, 128). Man verzichtet<br />

in einigen Fällen darauf, explizit bestimmte Gesetze anzugeben,<br />

über die wir aber im Prinzip verfügen und die in der elliptischen Formulierung<br />

der Erklärung implizit mitgedacht werden. 161 Dieser Ausweg<br />

scheint uns jedoch in vielen Fällen, wie auch dem Hempelschen Beispiel,<br />

für eine genetische Erklärung nicht offen zu stehen, weil wir nicht über<br />

entsprechende historische Gesetze verfügen, um die wir die Einzelerklärungen<br />

der genetischen Erklärung so ergänzen könnten, daß jeweils deduktiv-nomologische<br />

Erklärungen entstünden.<br />

Die zweite Rückzugsmöglichkeit sucht Hempel (1977, 128ff) in der<br />

partiellen Erklärung. Zur Erläuterung dieses Konzepts gibt uns Hempel<br />

ein Beispiel für eine Erklärung Freuds aus seiner Psychopathologie des<br />

Alltagslebens, in der uns Freud schildert, wieso es seiner Theorie nach zu<br />

dem Fehler kam, daß er inmitten seiner geschäftlichen Aufzeichnungen<br />

mit Daten des Septembers eine mit dem Datum „Donnerstag, den 20.<br />

Oktober“ notiert hat. Freud schreibt dazu:<br />

Es ist nicht schwierig, diese Antizipation aufzuklären und zwar als<br />

Ausdruck eines Wunsches. Ich bin wenige Tage vorher frisch von<br />

der Ferienreise zurückgekehrt und fühle mich bereit für ausgiebige<br />

ärztliche Beschäftigung, aber die Anzahl der Patienten ist noch gering.<br />

Bei meiner Ankunft fand ich einen Brief von einer Kranken<br />

vor, die sich für den 20. Oktober ankündigte. Als ich die gleiche Tageszahl<br />

im September niederschrieb, kann ich wohl gedacht haben:<br />

Die X. sollte doch schon da sein; wie schade um den vollen Monat!<br />

und in diesem Gedanken rückte ich das Datum vor.<br />

Zunächst ist diese Erklärung elliptisch, weil kein Gesetz genannt wird,<br />

obwohl eine Art von Gesetz Freud dabei vorschwebt, das Hempel charakterisiert:<br />

Wenn jemand einen starken, vielleicht auch unterbewußten Wunsch<br />

hat und einen Schreib-, Sprech-, oder Erinnerungsfehler begeht,<br />

161 Ein typisches Beispiel dafür stellt Hempels erster Fall der quellenden<br />

Seifenblasen dar.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 383<br />

dann nimmt dieser Fehler eine Gestalt an, in der der Wunsch ausgedrückt<br />

und eventuell symbolisch erfüllt wird. (Hempel 1977, 129)<br />

Doch darüber hinaus kann das Gesetz nach Hempel nicht erklären, warum<br />

der Fehler zu einer bestimmten Zeit auftrat oder warum er gerade<br />

diese Gestalt annimmt und nicht eine der vielen anderen Möglichkeiten.<br />

Damit ist die Freudsche Erklärung nur partiell, denn sie erklärt eigentlich<br />

weniger als das konkrete Ereignis, zu dessen Erklärung Freud sich<br />

aufgemacht hatte. Da jede Erklärung eines bestimmten Ereignisses wohl<br />

nicht alle Aspekte dieses Ereignisses abzuleiten vermag, vertritt Hempel<br />

(1977, 136ff) die Ansicht, daß wir nicht für ein konkretes Ereignis in allen<br />

seinen Aspekten und Einzelheiten eine Erklärung verlangen dürfen,<br />

sondern nur für die Aspekte eines Ereignisses, die im Explanandum Satz<br />

beschrieben sind. Damit ist aber nicht gemeint, wogegen sich Hempel<br />

(1977, 139) explizit wendet, daß ein bestimmter Typ von Ereignis erklärt<br />

wird, sondern nur daß bestimmte Aspekte eines konkreten Einzelereignisses<br />

in einer wissenschaftlichen Erklärung erklärt werden.<br />

ii. Statistische Erklärungen<br />

Doch auch der Fall der partiellen Erklärung liegt für historische Erklärungen<br />

wie dem oben beschriebenen Beispiel nicht vor, denn es wurden<br />

keine impliziten wissenschaftlichen Gesetze mitgedacht, die zumindest<br />

bestimmte Aspekte der mittelalterlichen Ablaßpraxis deduktiv erklären,<br />

und auch im Fall der Freudschen Erklärung müßte man das Gesetz vermutlich<br />

vorsichtiger formulieren, was Hempel (1977, 173) schließlich<br />

zu seinem dritten und gewichtigsten Ausweg führt. Hempel spricht davon,<br />

wir hätten in diesen Fällen implizite statistische Gesetze, die uns die<br />

Erklärungen liefern, und ergänzt das DN-Schema für Erklärungen um<br />

die induktiv-statistischen Erklärungen (Hempel 1977, 60ff), die von ihrer<br />

Gestalt her dem DN-Schema sehr nahe kommen. Freud würde vermutlich<br />

nicht behaupten wollen, daß die unterbewußten Wünsche immer<br />

zu Fehlleistungen führen müssen, sondern nur, daß sie es häufig<br />

oder mit einer gewissen Wahrscheinlichkeit tun. Das IS-Schema erhält<br />

dann die Gestalt:<br />

Induktiv-Statistische Erklärung (IS-Schema)<br />

W(G/H) > p<br />

Ga<br />

Ha (mit Wahrscheinlichkeit > p)


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 384<br />

Dabei soll W(G/H) > p bedeuten, daß die Wahrscheinlichkeit für das<br />

Vorliegen von G bei Vorliegen von H größer als p ist und p sollte nach<br />

Hempel nahe bei 1 liegen. Der Schluß auf Ha mit Hilfe der Antezendenzbedingung<br />

Ga ist dann natürlich auch nur noch mit der Wahrscheinlichkeit<br />

p zu ziehen.<br />

Jedoch auch dieses dritte Ausweichmanöver ist nicht unproblematisch.<br />

Zunächst ist es strenggenommen schon eine wesentliche Aufweichung<br />

des DN-Schemas, weil man die Forderung nach logischer Gültigkeit<br />

für den Schluß aufgegeben hat. Aber darüber hinaus ist das IS-Schema<br />

für Erklärungen mit einer Reihe von Problemen behaftet, die ich nur<br />

skizzieren kann, da die statistischen Erklärungen hier nur am Rande behandelt<br />

werden sollen.<br />

Ein Problem, das Hempel selbst sehr lange beschäftigt hat und das<br />

auch heute noch virulent ist, ist das der Erklärungsmehrdeutigkeit von<br />

IS-Erklärungen. Danach ist das, was in einer solchen Erklärung erklärt<br />

werden kann, stark abhängig davon, auf welche Informationen man sich<br />

jeweils stützt. Hempel (1977, 76ff) erläutert sie an folgendem Beispiel.<br />

Beziehe ich mich darauf, daß die Streptokokkeninfektion von Herrn<br />

Müller mit Penicillin behandelt wird, kann ich seine Genesung dadurch<br />

probabilistisch erklären, daß ein sehr hoher Prozentsatz der Streptokokkenerkrankten<br />

durch Penicillin geheilt werden kann. Hat Herr Müller<br />

aber das Pech von einem penicillinresistenten Streptokokkenstamm<br />

heimgesucht zu werden, wo die Heilungschancen durch Penicillin minimal<br />

sind, wirft diese zusätzliche Information den bisherigen inferentiellen<br />

Zusammenhang über den Haufen. Das Explanans von IS-Erklärungen<br />

ist nicht stabil unter zusätzlichen Informationen und spricht für verschiedene<br />

Explananda, je nachdem wieviele Informationen wir jeweils<br />

berücksichtigen. Der einzige Ausweg aus diesem Problem, der in nicht<br />

willkürlicher Weise einen bestimmten Informationsstand vorschreibt,<br />

scheint Hempels Forderung (1977, 76ff) nach maximaler Spezifizierung<br />

im Explanans zu sein, wonach alle zur Verfügung stehenden Informationen<br />

zu berücksichtigen sind. Damit sind IS-Erklärungen allerdings immer<br />

in einer Form auf den jeweiligen Informationsstand zu relativieren,<br />

wie das für DN-Erklärungen nicht der Fall ist.<br />

Noch problematischer ist für das IS-Modell jedoch ein Aspekt auf<br />

den Salmon schon Anfang der 70er Jahre aufmerksam gemacht hat. Es<br />

wird zwar gefordert, daß die statistischen Gesetze hohe Wahrscheinlichkeiten<br />

für das Explanandum aussagen, aber nicht, daß sie die Wahrscheinlichkeit<br />

des Explanandums überhaupt erhöhen. So sind statistische<br />

„Erklärungen“ der folgenden Form durch das IS-Schema gedeckt:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 385<br />

(G) Menschen, die erkältet sind, erholen sich mit hoher<br />

Wahrscheinlichkeit innerhalb<br />

von 14 Tagen, wenn sie Vitamin C nehmen.<br />

(A) Franz war erkältet und nahm Vitamin C.<br />

(E) Franz erholte sich von seiner Erkältung in 14 Tagen.<br />

(s. Salmon 1984, 30)<br />

Dieses Beispiel hat zwar die Form einer IS-Erklärung, aber ob es sich dabei<br />

tatsächlich um eine Erklärung handelt, ist von Gegebenheiten abhängig,<br />

die überhaupt nicht angesprochen wurden, nämlich davon, ob die<br />

Gabe von Vitamin C tatsächlich Einfluß auf die Dauer der Erkältung<br />

hat. Sollte das nicht der Fall sein und fast jeder erholt sich mit hoher<br />

Wahrscheinlichkeit nach 14 Tagen von einer Erkältung, können wir in<br />

diesem Beispiel nicht von einer Erklärung der Genesung von Franz sprechen.<br />

Wir müßten zusätzlich fordern, daß die eingesetzte gesetzesartige<br />

Aussage für das Explanandum relevant ist, d.h. die Wahrscheinlichkeit<br />

des Explanandum-Ereignisses erhöht.<br />

Für Salmons Erklärungsmodell der statistischen Relevanz (SR-Modell)<br />

ist daher gerade diese Forderung die entscheidende, während die<br />

Hempelsche der hohen Wahrscheinlichkeit, die das IS-Schema der deduktiv-nomologischen<br />

Erklärung angleichen sollte, nach Salmon überflüssig<br />

wird. Das trifft auch bestimmte Teile unserer Erklärungspraxis<br />

besser als der Hempelsche Ansatz, denn typischerweise erklären wir einen<br />

Lungenkrebs z. B. durch das vorgängige Rauchverhalten des Erkrankten,<br />

selbst wenn die Erkrankung nicht mit 95%-iger Wahrscheinlichkeit,<br />

sondern nur mit relativ geringen Werten auftritt. Auf Einzelheiten<br />

des SR-Ansatzes von Salmon möchte ich hier nicht eingehen (s. dazu<br />

etwa Salmon 1984, 36ff oder 1989, 62ff), aber bemerkenswert ist ein<br />

Vergleich Salmons (s. dazu 1984, 45) zwischen IS-Konzeption und SR-<br />

Konzeption, in dem er noch einmal die grundlegenden Ideen der beiden<br />

Erklärungsstrategien zusammenfaßt:<br />

IS-model: an explanation is an argument that renders the explanandum<br />

highly probable.<br />

SR-model: an explanation is an assembly of facts statistically relevant<br />

to the explanandum, regardless of the degree of probability that<br />

results.<br />

Für die momentane Diskussion ist vor allem bedeutsam, daß das Salmonsche<br />

SR-Erklärungskonzept eine Verbesserung gegenüber dem Hempelschen<br />

Vorschlag der IS-Erklärung darstellt und dabei gerade ohne Gesetze<br />

auskommt und sich außerdem noch weiter von der Vorstellung ei-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 386<br />

ner Erklärung als Deduktion des Explanandums entfernt hat, als es<br />

schon für das IS-Schema der Fall ist. Damit ist der dritte Ausweg Hempels<br />

aus dem Vorwurf, daß sein DN-Modell der Erklärung viele tatsächliche<br />

Erklärungen nicht angemessen beschreibt, der auf statistische Erklärungen<br />

hinauslief, letztlich in einen Vorschlag für statistische Erklärungen<br />

gemündet, der auf keine Gesetze im Hempelschen Sinn mehr angewiesen<br />

ist. Auf die Ausgangsfrage, ob Gesetze für Erklärungen immer<br />

notwendig sind, müssen wir an dieser Stelle daher mit einem „Nein“<br />

antworten.<br />

Außerdem ist ebenfalls fraglich, wie weit das IS-Schema trägt, denn<br />

in vielen Fällen, wie den beiden obigen Beispielen aus der Geschichtswissenschaft<br />

und der Psychologie, aber auch z. B. in der Evolutionstheorie<br />

oder den Sozialwissenschaften verfügen wir nicht über statistische<br />

Gesetze, in denen wir Wahrscheinlichkeiten nennen oder auch nur begründet<br />

abschätzen könnten. Wie hoch ist denn bitte schön die Wahrscheinlichkeit,<br />

daß eine Organisation vom Typus der Kirche in Situationen<br />

des entsprechenden Typs so etwas wie den Ablaß von den direkt betroffenen<br />

auf weitere Bevölkerungskreise ausdehnt? Schon wenn man<br />

versucht eine gesetzesartige Aussage entsprechenden Inhalts zu formulieren,<br />

die sich nicht nur auf konkrete Individuen bzw. Institutionen zu einem<br />

historischen Zeitpunkt bezieht, gerät man in ernste Schwierigkeiten,<br />

die aber nicht kleiner werden, wenn man auch noch Wahrscheinlichkeiten<br />

für derartige Vorgänge abschätzen möchte. Es gibt nur wenige<br />

Anhaltspunkte, in diesen Fällen guter Hoffnung zu sein, daß wir noch zu<br />

entsprechenden statistischen Gesetzen kommen werden. Aber selbst<br />

wenn Schurz (1983, 128) mit seinem Optimismus Recht haben sollte,<br />

daß die methodologischen Besonderheiten der Geschichtswissenschaft es<br />

zwar erschweren, historische Gesetze zu gewinnen, das aber keineswegs<br />

prinzipiell unmöglich ist, und wir daher auch in diesem Zweig der Wissenschaften<br />

hoffen dürfen, Gesetze zu finden, mit denen sich DN-Erklärungen<br />

erstellen lassen, bleibt die offene Frage doch: Sind die angegebenen<br />

Erklärungen in den Geschichtswissenschaften, solange wir keine Gesetze<br />

angeben können, überhaupt keine Erklärungen oder nur nicht so<br />

gute Erklärungen wie wir sie mit historischen Gesetzen hätten? Da das<br />

DN-Schema inzwischen umstritten ist, kann es aufgrund seiner eigenen<br />

epistemischen Stellung kaum als guter Grund dafür dienen, die zweite<br />

Vermutung zurückzuweisen.<br />

Diese entspricht auch besser unserer Vorstellung von Erklärungen als<br />

gradueller Abstufungen fähig, nach der nicht alle Erklärungen gleich gut<br />

sind. Die Allgemeine Relativitätstheorie liefert bessere Erklärungen der


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 387<br />

Planetenbewegungen als die Newtonsche Theorie und die wiederum<br />

bessere Erklärungen als die Keplersche Theorie usw. Jeder kann sicher<br />

eine Reihe von Beispielen auch aus dem Alltag für bessere und schlechtere<br />

Erklärungen geben. Trotzdem liefern alle diese Theorien zumindest<br />

potentielle Erklärungen und zumindest die Newtonsche Theorie auch<br />

heute noch aktuelle Erklärungen, die für die meisten mechanischen Phänomene<br />

Geltung haben. Für solche Einschätzungen und Abstufungen<br />

gibt das DN-Schema freilich keine Anhaltspunkte, denn es kennt nur das<br />

Vorliegen von Gesetzen und das Bestehen einer deduktiven Beziehung<br />

zwischen Explanans und Explanandum oder das Nichtvorliegen.<br />

iii. Erklärungen in der Evolutionstheorie<br />

Auch Erklärungen im Bereich der Evolutionstheorie haben neben Erklärungen<br />

in der Geschichtswissenschaft oder der Psychologie häufig nicht<br />

die von Hempel verlangte DN-Struktur. Trotzdem scheinen sie brauchbare<br />

Erklärungen darzustellen, die z. B. erklären können, wie es zu der<br />

Entstehung von bestimmten Arten durch natürliche Auslese kam. Die Erklärungen,<br />

die die Theorie erbringen kann und die Erklärungszusammenhänge,<br />

in die sie eingebettet ist, sind dabei so vielfältig, daß<br />

ich nur auf einen sehr kleinen Teil davon hinweisen kann. Da sind die<br />

zahlreichen Erklärungen für die Entstehung bestimmter Organe als Anpassung<br />

an die speziellen Umweltgegebenheiten. Schon Darwins Werk<br />

Die Entstehung der Arten durch natürliche Zuchtwahl bietet eine Fülle<br />

von Beispielen dafür:<br />

Die Augen der Maulwürfe und einiger wühlender Nagetiere sind rudimentär,<br />

zuweilen ganz von Haut und Pelz bedeckt. Das rührt<br />

wahrscheinlich vom Nichtgebrauch her, der vielleicht von der natürlichen<br />

Zuchtwahl unterstützt worden ist. Ein südamerikanisches Nagetier,<br />

der Tukutuko oder Ctenomys, lebt noch ausschließlicher unter<br />

der Erde als der Maulwurf, und ein Spanier, der häufig solche<br />

Tiere fing, versicherte mir, daß sie häufig blind seien. Ein Tukutuko,<br />

den ich lebend erhielt, war es tatsächlich; wie sich bei der Sektion ergab,<br />

war eine Entzündung der Nickhaut die Ursache. Da häufige Augenentzündungen<br />

jedem Tier schädlich sein müssen und da ferner<br />

Tiere mit unterirdischer Lebensweise die Augen nicht brauchen, so<br />

wird deren verminderte Größe, das Verwachsen der Augenlider und<br />

das Überwachsen mit Pelz ihnen vorteilhaft sein; ist dies aber der<br />

Fall, so wird die natürliche Zuchtwahl die Wirkungen des Nichtgebrauchs<br />

unterstützen. (Darwin 1990, 159f)


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 388<br />

Auch die Abhängigkeit der Ausbreitung bestimmter Arten von Bedingungen<br />

ihrer Umwelt wird zwanglos durch Darwins Ansichten vom Überlebenskampf<br />

erklärt. Darwin (1990, 83ff) gibt etwa an, wie sich die Vegetation<br />

eines Heidegebietes von mehreren hundert Hektar in Staffordshire<br />

geändert hat, das sich von seiner Umgebung nur dadurch unterschied,<br />

daß es vor 25 Jahren eingezäunt wurde. Die angepflanzten schottischen<br />

Kiefern, konnten sich ausbreiten, während sie in den nichteingezäunten<br />

Heidegebieten nicht Fuß fassen können, weil ihre Sämlinge und kleinen<br />

Bäumchen sofort vom Vieh abgeweidet werden. In diesem Beispiel sind<br />

die kausalen Mechanismen, die hier am Werk waren, nahezu direkt beobachtbar,<br />

und es kann somit der Darwinschen Vorstellung von dem<br />

Einfluß des Konkurrenzkampfs auf die Verbreitung von Arten epistemische<br />

Unterstützung verleihen.<br />

In ähnlicher Weise kann Darwin eine Reihe von Aspekten der geographischen<br />

Verbreitung von Arten erklären, das Auftreten bestimmter<br />

Verhaltensweisen von Tieren, das Vorkommen von rudimentären Organen<br />

früherer Arten, morphologische Ähnlichkeiten, die Zusammenhänge<br />

der zahlreichen Fossilienfunde, das Aussterben von Arten und vieles<br />

mehr. Dazu sind inzwischen die zahlreichen Zusammenhänge zur Genetik<br />

und viele weitere z.T. singuläre Fakten bekanntgeworden, wie z. B.<br />

das Razematproblem, daß in Lebewesen nur die L-Aminosäuren und<br />

nicht auch die chemisch gleichen D-Formen vorkommen (s. Jeßberger<br />

1990, 78ff). Eine präzise Darstellung der Erklärungskraft der heutigen<br />

Evolutionstheorie könnte nur anhand einer ausführlicheren Rekonstruktion<br />

der Theorie vorgenommen werden, die ich in dieser Arbeit natürlich<br />

nicht leisten kann.<br />

Klar dürfte aber sein, daß wir trotz der offensichtlichen Erklärungsleistungen<br />

der Evolutionstheorie in keinem der genannten Beispiele über<br />

Gesetze verfügen, die eine wirkliche Deduktion (selbst keine statistische)<br />

der heute zu beobachtenden Arten und ihrer Eigenschaften gestatten.<br />

Das scheitert zunächst natürlich schon daran, daß wir die Ausgangssituationen<br />

nicht hinreichend genau kennen, was es in vielen Fällen nur erlaubt,<br />

wie-möglich-Erklärungen anzubieten. Sie sagen uns, wie es zu bestimmten<br />

Arten und Eigenschaften kommen konnte, wenn die und die<br />

vermuteten Bedingungen vorgelegen haben. Daneben haben die evolutionären<br />

Erklärungen aber auch nicht die Gestalt der Subsumption unter<br />

Gesetze und gehen auch bei exakter Kenntnis der Ausgangsbedingungen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 389<br />

nicht in DN-Erklärungen oder IS-Erklärungen über. 162 Welche der Erklärungen<br />

tatsächlich zutreffen, ist wegen der genannten epistemischen<br />

Schwierigkeiten nicht immer leicht zu ermitteln, aber Fazit der Diskussion<br />

bleibt doch, daß wir in vielen Bereichen Erklärungen akzeptieren, die<br />

keine Gesetze benutzen und damit nicht die Struktur des DN-Schemas<br />

besitzen, und es gibt keine metatheoretisch überzeugenden Gründe,<br />

diese von vornherein als nichterklärend zurückzuweisen. Von diesen Beispielerklärungen<br />

ohne Gesetzesprämisse sind vermutlich alle deduktivistischen<br />

Konzeptionen von Erklärung betroffen, denn ohne strikte Gesetze<br />

können wir nicht erwarten, die Explanandumereignisse logisch ableiten<br />

zu können. Auf diesen Punkt werde ich später wieder zurückgreifen,<br />

denn er ist ein Kritikpunkt auch an einigen moderneren Ansätzen in<br />

der Erklärungsdebatte.<br />

2. Asymmetrie und Irrelevanz<br />

Im Zusammenhang mit der IS-Erklärung hatten wir schon das Problem<br />

irrelevanter Bestandteile in Erklärungen kennengelernt. Doch das bleibt<br />

nicht auf statistische Erklärungen beschränkt, sondern findet sich ebenfalls<br />

für deterministische Erklärungen. Ein für diese Diskussion klassisches<br />

Beispiel, das auf Kyburg zurückgeht, ist das des verzauberten Tafelsalzes.<br />

Auf die Frage, warum sich ein bestimmtes Stück Salz in Wasser<br />

auflöst, scheint die Antwort, es sei eine verzauberte Probe Salz und verzaubertes<br />

Salz löse sich in Wasser auf, keine brauchbare Erklärung zu<br />

bieten. Auch die Erklärung eines Mannes, daß er nicht schwanger werde,<br />

weil er die Antibabypille nehme und Männer, die die Antibabypille<br />

nehmen, nicht schwanger werden, erscheint uns mehr als ein Irrweg<br />

denn eine Erklärung. Beispiele dieser Art lassen sich zahlreiche konstruieren,<br />

die sogar die Bedingungen des DN-Schemas erfüllen können, die<br />

aber offensichtlich trotzdem keine Erklärungen darstellen. 163 Das DN-<br />

Schema gibt uns für diese Fälle keine Anhaltspunkte, warum bestimmte<br />

Gesetze relevant erscheinen und andere nicht und kann die Pseudoerklärungen<br />

mit irrelevanter Gesetzesprämisse nicht abweisen. Es ist daher in<br />

diesem Punkt mindestens unvollständig.<br />

162 Einen interessanten Vorschlag, wie evolutionäre Erklärungen besser zu<br />

beschreiben sind, finden wir in Sober (1983), den ich in Abschnitt (C.2.a.1)<br />

schildere.<br />

163 Schurz (1983, 254ff) bietet eine Typisiserung derartiger Fälle mit Beispielen<br />

an.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 390<br />

Salmon (z. B. 1984, 89ff) geht noch weiter in seiner Kritik des DN-<br />

Schemas und stellt die Frage, wieso solche Irrelevanzen sich zwar für Erklärungen<br />

als desaströs erweisen, nicht aber für Argumentationen. Das<br />

ist für ihn ein klarer Hinweis, daß die ganze Hempelsche Konzeption,<br />

die Erklärungen als eine Form von Argumenten rekonstruiert, verfehlt<br />

sein muß. Dem möchte ich nicht weiter folgen, belegt es doch nur, was<br />

inzwischen klar geworden sein sollte, nämlich daß das DN-Modell bei<br />

weitem nicht ausreicht, um den Erklärungsbegriff angemessen zu explizieren.<br />

Ein anderes Phänomen, das Erklärungen aufweisen, ist das der<br />

Asymmetrien. Das inzwischen klassische Beispiel ist das vom Fahnenmast,<br />

dessen Höhe die Länge seines Schattens anhand einiger geometrischer<br />

Überlegungen erklären hilft, während umgekehrt zwar die Höhe<br />

des Mastes sich anhand derselben geometrischen Überlegungen und der<br />

Länge das Schattens berechnen läßt, wir aber in diesem Fall nicht von einer<br />

Erklärung für die Höhe des Mastes reden möchten. 164 Ähnliche Beispiele<br />

lassen sich natürlich auch im wissenschaftlichen Bereich finden, so<br />

läßt die von Hubble entdeckte Rotverschiebung der Spektrallinien zwar<br />

anhand der Theorie von Doppler einen Schluß auf eine Expansion des<br />

Weltalls zu, aber wir würden nicht behaupten, daß sie diese Expansion<br />

erklärt. Umgekehrt kann die Ausdehnung des Universums die zu beobachtende<br />

Rotverschiebung als Auswirkungen des optischen Dopplereffekts<br />

erklären. Kennzeichnend für alle Beispiele solcher Asymmetrien ist,<br />

daß – um es in der Terminologie des DN-Schemas auszudrücken – bestimmte<br />

Gesetze G zusammen mit einer Antezendensbedingung A ein<br />

Explanandum E erklären, während umgekehrt A zwar aus G und E herleitbar<br />

ist, aber wir diese Herleitung nicht als Erklärung betrachten würden.<br />

Doch Hempels DN-Schema gibt uns wiederum keine Anhaltspunkte,<br />

weshalb diese beiden Ableitungen in bezug auf ihre Erklärungskraft<br />

überhaupt zu unterscheiden sind, und kann daher dieses Phänomen<br />

nicht erklären.<br />

Die beiden genannten metatheoretischen Beobachtungen – das der<br />

Erklärungsirrelevanz bestimmter DN-Herleitungen wie auch das der Erklärungsasymmetrien<br />

– stellen Anomalien für Hempels Erklärungskonzeption<br />

dar, denen mit den Mitteln seines Ansatzes nicht wirklich zu be-<br />

164 Auch van Fraassens Versuch (1980, 132ff) dieses Phänomen anhand einer<br />

netten Geschichte als ein Problem des Kontextes auszuweisen, war nicht erfolgreich,<br />

weil die beiden Erklärungen, die er einander gegenüberstellte, nicht<br />

wirklich symmetrisch gebildet wurden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 391<br />

gegnen ist. Spätere Erklärungskonzeptionen können auch daran gemessen<br />

werden, ob sie zu diesen Problemen Lösungen anzubieten haben.<br />

3. Grade von Erklärungen<br />

In Hempels DN-Schema, aber auch in vielen späteren Ansätzen, gibt es<br />

eigentlich keinen Platz für eine graduelle Bewertung von Erklärungen.<br />

Einige Fälle geben uns aber eindeutig bessere Erklärungen als andere,<br />

die wir ihrerseits durchaus noch als Erklärungen akzeptieren würden.<br />

Das Spektrum reicht von naiven Alltagserklärungen über fortgeschrittene<br />

Alltagserklärungen bis hin zu hochentwickelten wissenschaftlichen<br />

Erklärungen. Im DN-Schema gibt es jedoch nur Platz für alles-odernichts<br />

Forderungen, so daß demnach etwas eine Erklärung ist oder<br />

nicht.<br />

Eine Mißachtung dieses Punkts der Abstufungen von Erklärungen<br />

hat auch wissenschaftstheoretische Konsequenzen. So nutzt van Fraassen<br />

(1980, 98ff) sie in einem Argument für seine (instrumentalistische) Position<br />

des konstruktiven Empirismus. Er verweist darauf, daß auch die<br />

Newtonsche Theorie uns die Bewegung einiger Planeten erklärt, obwohl<br />

wir inzwischen wissen, daß sie genaugenommen falsch ist. Die Redeweise<br />

von einer Erklärung durch die Newtonsche Theorie scheint mir<br />

zunächst tatsächlich unseren Vorstellungen von wissenschaftlichen Erklärung<br />

zu entsprechen. Nur die Konsequenz, die van Fraassen daraus<br />

zieht, ist fehlerhaft, denn für ihn zeigt dieses Beispiel allgemein, daß<br />

auch falsche Theorien erklären können. Eine angemessenere Beschreibung<br />

ist dagegen, daß die Newtonsche Theorie den Großteil der Planetenbewegungen<br />

erklärt, weil sie für diese Fälle approximativ zutreffende<br />

Modelle bereithält. 165 Ob man auch von einer Theorie über Klabautermänner,<br />

die man für gänzlich falsch hält, sagen kann, daß sie für uns<br />

heute das Auftreten bestimmter Erscheinungen auf Schiffen erklären<br />

kann, ist dagegen mehr als zweifelhaft. Die Newtonsche Theorie erklärt<br />

somit zwar eine Reihe von Planetenbewegungen, aber die Allgemeine<br />

Relativitätstheorie erklärt einige dieser Bewegungen nach heutiger Ansicht<br />

noch besser, schon weil sie kleinere Unschärfemengen benötigt als<br />

die Newtonsche Theorie. Die Abstufung von Erklärungsgüte entkräftet<br />

so van Fraassens Beispiel, denn etwas unvorsichtig ausgedrückt, ist die<br />

Newtonsche Theorie nicht falsch, sondern approximativ wahr und pro-<br />

165 Siehe dazu auch (VII.C.9), wo ich schon auf die wissenschaftsphilosophische<br />

Bedeutung der Berücksichtigung von Approximationen hingewiesen habe.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 392<br />

duziert daher auch entsprechend approximativ wahre Erklärungen mit<br />

etwas größeren Unschärfemengen als die Allgemeine Relativitätstheorie.<br />

Die Klabautermann Theorie bietet dagegen immer nur falsche Erklärungen,<br />

weil sie nicht einmal ein approximativ zutreffendes Bild der Welt<br />

zeichnet.<br />

Ein anderes Beispiel sind zweifellos die statistischen Erklärungen, bei<br />

denen es naheliegt, von unterschiedlich guten Erklärungen zu sprechen.<br />

Im IS-Modell kann das Explanandum verschieden stark durch das Explanans<br />

gestützt werden, und es scheint natürlich, entsprechend von unterschiedlichen<br />

Graden der Erklärung zu sprechen. Noch deutlicher<br />

wird das im SR-Konzept, wo die Bandbreite von Wahrscheinlichkeiten<br />

größer ist und auch sehr kleine Wahrscheinlichkeiten als erklärend zugelassen<br />

sind. Die Erklärungen, die uns für ein Ereignis weit höhere Wahrscheinlichkeitszuwächse<br />

anbieten können, sind dann auch als besser zu<br />

bezeichnen, als andere, die uns nur 10%-ige zusätzliche Wahrscheinlichkeiten<br />

geben. Vermutlich hat Sober (1987, 245) Recht, daß deterministische<br />

Erklärungen dabei weiterhin als das Ideal für Erklärungen gelten<br />

können und Erklärungen um so besser sind, je mehr sie sich diesem Ideal<br />

nähern. Eine adäquate Erklärungstheorie muß neben der Beschreibung<br />

des Ideals aber zumindest Raum für eine metatheoretische Beschreibung<br />

der graduellen Abstufungen von Erklärung lassen, was für<br />

das DN-Schema zunächst nicht der Fall ist.<br />

D. Neue Ansätze in der Erklärungstheorie<br />

Trotz der über 500 Aufsätze, die Salmon (1989) in seiner Bibliographie<br />

der Erklärungsdebatte zu nennen weiß, gibt es nur wenige systematisch<br />

neue Ansätze mit ausformulierten Erklärungstheorien. Einige der interessanteren<br />

und prominenteren Ansätze möchte ich nun besprechen. Eine<br />

wichtige Ergänzung des DN-Schemas sah schon Hempel in der Berücksichtigung<br />

von pragmatischen Aspekten.<br />

1. Zur Pragmatik von Erklärungen<br />

Mit Erklärungen verfolgt man im allgemeinen nicht nur theoretische<br />

Ziele des Erkenntnisgewinns, sondern auch praktische. Wir suchen z. B.<br />

nach Erklärungen für Unfälle oder Krankheiten, um diese in Zukunft<br />

vermeiden zu können. Spätestens an dieser Stelle sind pragmatische<br />

Aspekte, etwa Fragen danach, wofür ich mich jeweils interessiere, oder


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 393<br />

andere Aspekte des Kontexts der nach einer Erklärung verlangenden<br />

Warum-Frage bedeutsam für die Einschätzung, was für uns eine gute Erklärung<br />

darstellt und was nicht. Einige Wissenschaftsphilosophen sind<br />

sogar der Meinung, daß die pragmatischen Aspekte von Erklärungen immer<br />

von grundlegender Bedeutung für die Erklärungsgüte sind und sogar<br />

alle wesentlichen Probleme der Erklärungstheorie durch eine geeignet<br />

gewählte Pragmatik von Erklärungen erledigt werden können. Um<br />

einen Einstieg in diese Ansätze zur Erklärungsdebatte zu bekommen,<br />

möchte ich exemplarisch die recht einflußreiche Theorie von Bas van<br />

Fraassen diskutieren, die er unter anderem in The Scientific Image<br />

(1980, Kap. 5) präsentiert hat.<br />

Van Fraassen richtet sein Augenmerk zunächst auf die Warum-Fragen,<br />

mit denen wir um eine Erklärung nachsuchen. Sein Beispiel dazu<br />

ist:<br />

(1) Warum aß Adam den Apfel?<br />

So unschuldig dieser Warum-Fragesatz auch erscheint, so weist er doch<br />

eine wesentliche Mehrdeutigkeit auf, die durch unterschiedliche Betonungen<br />

zum Ausdruck gebracht werden kann.<br />

(1a) Warum aß Adam den Apfel?<br />

(1b) Warum aß Adam den Apfel?<br />

(1c) Warum aß Adam den Apfel?<br />

(1d) Warum aß Adam den Apfel?<br />

In (1a) fragt man etwa, warum gerade Adam und nicht jemand anderes<br />

den Apfel aß. In (1b) fragt man dagegen, warum Adam einen Apfel aß<br />

und nicht eine Birne oder etwas anderes, in (1c), warum er den Apfel gegessen<br />

hat und ihn nicht statt dessen weggeworfen oder zu Apfelmus<br />

verarbeitet hat und schließlich in (1d), warum er diesen Apfel und nicht<br />

einen anderen gegessen hat. Mit dem Fragesatz (1) können somit mindestens<br />

vier unterschiedliche Fragen gemeint sein, die zunächst auseinandergehalten<br />

werden müssen, denn auf jede der vier Fragen sind natürlich<br />

andere Antworten erforderlich. Um diese unterschiedlichen Betonungen<br />

und damit unterschiedliche Lesarten der Frage in einer Rekonstruktion<br />

deutlich machen zu können, führt van Fraassen die Kontrastklasse<br />

X von Antwortalternativen ein, unter denen jeweils nach einer<br />

Antwort gesucht wird. Erst sie charakterisieren die Frage hinreichend. In<br />

unserem Beispiel kann sich in Abhängigkeit vom jeweiligen Kontext der<br />

Frage z. B. folgendes ergeben:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 394<br />

(1a) X = {Adam, Eva}<br />

(1b) X = {Apfel, Birne, Kiwi, Butterbrot}<br />

(1c) X = {Essen, Wegwerfen, Einkochen, am Baum hängenlassen}<br />

(1d) X = {dieser Apfel, jener Apfel}<br />

Jede dieser verkürzt angegebenen Kontrastklassen 166 kann zusammen<br />

mit dem Thema der Frage (hier: Adam aß den Apfel) klären, welche Frage<br />

genau gemeint ist. Die Angabe einer Kontrastklasse spezifiziert die<br />

Frage dabei mehr als die Angabe der Betonung, denn z. B. der genaue<br />

Umfang von X wird durch die Betonung allein noch nicht festgelegt. Bei<br />

der Bestimmung der Frage können noch andere Aspekte des Kontextes<br />

eingehen, wie die Situation, in der die Frage gestellt wird.<br />

Eine Antwort auf die Frage (1a) könnte angesichts der angegebenen<br />

Kontrastklasse die folgende Gestalt annehmen:<br />

(A) Adam aß den Apfel und nicht Eva, weil Adam neugieriger<br />

war als Eva.<br />

Wenn wir das Thema (wie van Fraassen) mit T bezeichnen und die Kontrastklasse<br />

mit X = {P1,...,T,..}, so läßt sich eine Antwort allgemein charakterisieren<br />

durch:<br />

(*) T im Unterschied zu den Alternativen aus X, weil A.<br />

Man fragt nicht mehr direkt „Warum trat T ein?“, sondern stellt vielmehr<br />

eine kontrastierende Warum-Frage „Warum T und nicht...?“ Lipton<br />

(1991, 35ff) argumentiert sogar dafür, daß eigentlich alle Warum-<br />

Fragen von dieser Art sind. In unserer Antwort (*) gibt A den Grund an,<br />

warum gerade T und nicht eine der Alternativen aus der Kontrastklasse<br />

verwirklicht wurde. Was als Grund zu akzeptieren ist, ob z. B. in unserem<br />

Fall Adams Neugier überhaupt als Grund betrachtet werden kann<br />

oder nicht, ist für van Fraassen in einem weiteren kontextabhängigen<br />

Bestandteil der Frage zu sehen, der Relevanzbeziehung R. Sie besagt,<br />

wann das „weil“ in (*) zu Recht steht. Damit erhält man insgesamt (s.<br />

van Fraassen 1980, 143ff), daß die Frage Q = drei Komponenten<br />

aufweist, die zusammengenommen festlegen, um welche Frage es<br />

sich handelt. Dann gilt: A ist der Kern einer Antwort auf Q, wenn A in<br />

der Beziehung R zu steht.<br />

Mit dieser Analyse von Warum-Fragen, die van Fraassen schlicht mit<br />

einer Analyse von Erklärungen identifiziert, versucht er im wesentlichen<br />

166 Die Elemente von Kontrastklassen sind eigentlich vollständige Aussagen,<br />

aber diese werden hier immer durch Stichworte abgekürzt, die sich leicht zu<br />

ganzen Sätzen ergänzen lassen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 395<br />

zwei Probleme der Erklärungsproblematik zu behandeln. Das ist zum einen<br />

das Asymmetrieproblem und zum anderen das der Zurückweisungen<br />

von Fragen nach Erklärungen. Für das zweite weiß er eine relativ naheliegende<br />

Analyse anzubieten. Aus der Fragelogik wissen wir bereits, daß<br />

Fragen im allgemeinen neben ihrer fragenden Funktion auch bestimmte<br />

Behauptungen aufstellen. Das klassische Beispiel „Schlagen Sie immer<br />

noch ihre Frau?“ macht etwa die Präsupposition, daß dieses schändliche<br />

Verhalten zumindest früher schon des öfteren beim Gefragten vorgekommen<br />

sein muß. Warum-Fragen haben eine Reihe spezieller Präsuppositionen,<br />

die van Fraassen (1980, 144f) auflistet:<br />

(a) Das Thema ist wahr.<br />

(b) In der Kontrastklasse ist nur das Thema war.<br />

(c) Es gibt zumindest eine wahre Aussage A, die in der Beziehung R<br />

zu steht.<br />

Haben wir im Lichte unseres Hintergrundwissens Grund zu der Annahme,<br />

daß eine dieser Präsuppositionen nicht erfüllt ist, so stellt das auch<br />

einen guten Grund dar, die Forderung nach einer entsprechenden Erklärung<br />

zurückzuweisen. Hat Adam keinen Apfel gegessen, kann ich natürlich<br />

die Frage nicht beantworten, warum er es tat; haben sich sowohl<br />

Adam wie auch Eva als Obstfreunde erwiesen und einen Apfel verspeist,<br />

ist die Frage (1b), warum gerade Adam und nicht Eva den Apfel gegessen<br />

hat, unsinnig; und schließlich, wenn es schon aufgrund der Frage<br />

kein relevantes Faktum geben kann, daß unser Thema erklärt, ist der<br />

Anspruch, nun doch eine Antwort zu finden, nicht zumutbar. Die fragelogische<br />

Theorie der Präsuppositionen von Warum-Fragen kann also genauer<br />

klären, unter welchen Bedingungen wir eine Erklärungsforderung<br />

sinnvollerweise zurückweisen dürfen.<br />

Nicht so günstig steht es um van Fraassens Vorschlag zur Lösung des<br />

Asymmetrieproblems, das er mit Hilfe seiner Fabel „The Tower and the<br />

Shadow“ (van Fraassen 1980, 132ff) zu behandeln gedenkt. In dieser<br />

Ausschmückung des Flaggenmastbeispiels wollte er zeigen, daß, wenn<br />

die Höhe des Stabes zur Erklärung der Länge seines Schattens herangezogen<br />

werden kann, es ebenso Kontexte gibt, in denen dazu symmetrisch<br />

die Länge des Schattens die Höhe des Stabes erklärt. In seiner<br />

phantasievollen Fabel wird die Höhe eines Turmes dadurch erklärt, daß<br />

ihn jemand mit der Absicht gebaut hat, zu einer bestimmten Zeit einen<br />

Schatten an einen bestimmten Ort zu werfen, an dem ein Mord geschah.<br />

Doch damit wird die Symmetrie verletzt. Es ist nicht mehr dieselbe Geschichte<br />

von Lichtstrahlen und dem Satz von Euklid, die zur Erklärung


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 396<br />

der Schattenlänge herangezogen wurde, die nun umgekehrt zur Erklärung<br />

der Turmhöhe erzählt wird, sondern in van Fraassens Fabel ist es<br />

wesentlich die Intention des Erbauers, den Turm so zu erbauen, daß er<br />

an den Mord erinnert, die zum Explanans gehört, die in der ursprünglichen<br />

Erklärung nicht erforderlich war. Damit haben wir in diesem Beispiel<br />

keinen echten Fall von symmetrischen Erklärungen, sondern die<br />

Asymmetrie der Erklärung bleibt auch bei Änderung der pragmatischen<br />

Faktoren bestehen.<br />

Das faszinierende an van Fraassens Analyse ist die Reduktion der<br />

zahllosen Aspekte eines Kontextes, die darüber mitbestimmen können,<br />

welche Frage man mit der Äußerung eines Fragesatzes meint, auf nur<br />

drei Komponenten (Thema, Kontrastklasse, Relevanzrelation) für das<br />

Ergebnis der Interpretation. Mit diesem Instrumentarium möchte ich<br />

noch einmal die schon in (IV.E.2) gestellte Frage aufwerfen, ob Erklärungen<br />

wesentlich interessenrelativ sind. Williams (1991, 279ff) hatte<br />

das gerade unter Berufung auf die Fragetheorie der Erklärung behauptet<br />

und damit Konzeptionen von Kohärenz als Erklärungskohärenz zurückgewiesen,<br />

weil sie keine objektive Beziehung zwischen unseren einzelnen<br />

Meinungen und unserem Hintergrundwissen etablieren könnten. Betrachten<br />

wir noch einmal die beiden in (IV.E.2) diskutierten Beispiele<br />

von Williams. Zunächst den Pfarrer, der den Bankräuber fragt: „Warum<br />

raubst Du Banken aus?“ Auch diese Frage ist mehrdeutig. Der Pfarrer<br />

wird sie vermutlich mit einer Kontrastklasse gemeint haben, die ehrliche<br />

Formen des Gelderwerbs im Auge hat, wie z. B. X1 = {Banken ausrauben,<br />

ehrlicher Beruf, Sozialhilfe kassieren}. Der Bankräuber antwortet<br />

ihm: „Weil dort das meiste Geld zu holen ist.“ Diese Antwort ist gar<br />

keine Antwort auf die Frage des Pfarrers, sondern eine Antwort auf eine<br />

Frage etwa eines Kollegen mit der Kontrastklasse X2 = {Banken ausrauben,<br />

Supermärkte ausrauben, alte Damen überfallen}. Entsprechendes<br />

zeigt auch die Analyse der anderen Frage aus (IV.E.2), warum Williams<br />

um zwei Uhr in seinem Büro war. Auch diese Frage ist mehrdeutig, und<br />

wir müssen zunächst verstehen, wie sie gemeint ist, also ihre Kontrastklasse<br />

kennenlernen, wenn wir seine Frage beantworten wollen. Wird<br />

ihm diese Frage in den Ferien gestellt, könnte die lauten X1 = {Büro, zu<br />

Hause, Palm Beach}. Als Besonderheit nennt Williams für dieses Beispiel<br />

eine Antwort, die zwar dem DN-Schema genügt, aber trotzdem nach<br />

Williams auf keine Frage antworten können soll, nämlich: Er war einen<br />

kurzen Moment vor zwei Uhr in seinem Büro und niemand kann sich<br />

schneller als mit Lichtgeschwindigkeit bewegen, woraus folgt, daß er<br />

auch noch um zwei Uhr in seinem Büro sein mußte. Daß Williams keine


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 397<br />

Warum-Frage findet, auf die diese Deduktion antwortet, ist übrigens<br />

eher ein bedauerlicher Mangel an Phantasie, als ein zwingender Einwand<br />

gegen Hempels Erklärungstheorie. Denken wir z. B. an einen kleinen<br />

Fan der Serie Raumschiff Enterprise, der glaubt, Williams könne sich<br />

jederzeit aus seinem Büro „wegbeamen“ und kurz vor zwei wäre in seinem<br />

Büro eine Gefahr aufgetreten, die es jedem hätte ratsam erscheinen<br />

lassen, von dieser Fähigkeit Gebrauch zu machen. Das Kind fragt Williams<br />

also, warum er sich nicht kurz vor zwei Uhr schnellstens aus dem<br />

Büro „gebeamt“ hat, wenn es ihn fragt, warum er um zwei Uhr noch in<br />

seinem Büro war (X´={Büro,weggebeamt}). Der Hinweis, daß sich aber<br />

tatsächlich niemand schneller als mit Lichtgeschwindigkeit bewegen<br />

kann, so etwas wie „beamen“ also nur in schlechten Science Fiction Serien<br />

möglich ist, bietet dann eine geeignete Erklärung. 167<br />

Doch zurück zur Frage der Interessenrelativität von Erklärungen.<br />

Zeigen die Beispiele, daß es von unseren Interessen abhängt, was eine<br />

gute Erklärung ist? Betrachten wir dazu noch ein krasseres Beispiel. Auf<br />

meine Frage, warum wir eine Rotverschiebung beobachten können, erklärt<br />

mir jemand, warum es zur Februarrevolution von 1917 in der Sowjetunion<br />

gekommen ist. Selbst wenn seine Erläuterungen nun deduktiv-nomologische<br />

Struktur hätten, würde ich diese als Erklärung auf<br />

meine Frage zurückweisen. Danach hatte ich nun einmal nicht gefragt.<br />

Wieso sollte das aber zeigen, daß Erklärungen interessenrelativ sind?<br />

Seine Erklärung kann für andere Fragen eine brauchbare Erklärung bieten.<br />

Sie verweist eventuell auf andere objektive und an anderer Stelle unseres<br />

Meinungssystems bedeutsame Zusammenhänge, die nur im Moment<br />

nicht zur Debatte stehen. Das macht Erklärungen nicht mehr interessenrelativ<br />

als mathematische Beweise. Wenn ich nach einem Beweis<br />

des Fermatschen Satzes frage und man präsentiert mir einen Beweis für<br />

den Satz von Stokes, weise ich diese Antwort auch zurück, 168 aber niemand<br />

käme deshalb auf die Idee, was ein guter mathematischer Beweis<br />

sei, sei pragmatisch zu relativieren. Genauso sieht meine jetzige Analyse<br />

der Beispiele von Williams aus. Hier werden bestimmte Erklärungen<br />

nicht deshalb zurückgewiesen, weil unsere Interessen gerade so sind, daß<br />

diese Erklärungen in diesem Fall uns schlecht erscheinen, sie aber in anderen<br />

Kontexten gut wären, sondern weil sie auf eine ganz andere Fra-<br />

167 Das Beispiel belegt wiederum, daß die meisten Warum-Fragen kontrastierende<br />

Fragen sind.<br />

168 Wenn man mir einen Beweis präsentiert, der keinen interessanten Satz<br />

beweist, sondern nur eine beliebige mathematische Aussage, rüttelt das natürlich<br />

auch nicht an der Ansicht, daß Deduktionen gute Beweise sind.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 398<br />

ge, mit einer völlig anderen Kontrastklasse, antworten. Auf die tatsächlich<br />

gestellte Frage sind die genannten Antworten jedoch immer<br />

schlecht. Nur wenn durch den Kontext geklärt wird, daß es sich um eine<br />

ganz andere Frage handelt, kommen sie als gute Antworten in Frage.<br />

Was überhaupt auf meine Warum-Frage eine Erklärung ist, hängt also<br />

ganz sicher davon ab, wonach ich frage, und das kann sehr wohl von<br />

meinen Interessen abhängen, aber welche Antwort auf eine ganz bestimmte<br />

Frage gut ist, wird dadurch noch nicht interessenrelativ. Es erschien<br />

uns nur auf den ersten Blick so, daß die Antwort des Bankräubers<br />

auf die Frage des Pfarrers zwar eine Antwort auf seine Frage, aber deshalb<br />

keine gute Erklärung sei, weil der Pfarrer andere Interessen verfolgte.<br />

Die Analyse der Frage mit fragelogischen Mitteln, die die Kontrastklasse<br />

als identifizierenden Bestandteil von Warum-Fragen ausweist,<br />

offenbart jedoch, daß der Bankräuber mit seiner Antwort überhaupt<br />

nicht auf die gestellte Frage antwortet, sondern im Gegenteil so tut, als<br />

ob er sie nicht richtig verstanden hätte. Er unterstellt dem Pfarrer die<br />

unlauteren Interessen eines Berufskollegen. So war es nur die mögliche<br />

Mehrdeutigkeit des Fragesatzes „Warum hast du eine Bank ausgeraubt?“,<br />

die uns dazu verführte, an eine Interessenabhängigkeit der Güte von Erklärungen<br />

zu glauben. 169<br />

Mit dieser Erörterung der Interessenrelativität von Erklärungen können<br />

wir auch auf die Frage antworten, ob „Erklärung“ ein wesentlich<br />

pragmatischer Begriff ist. Die Antwort lautet, das hängt davon ab, was<br />

wir unter „pragmatisch“ verstehen wollen. Friedman (1988, 174ff) unterscheidet<br />

zwei Bedeutungen von „pragmatisch“. Erstens kann damit<br />

gemeint sein, daß der Begriff etwas mit den jeweiligen Meinungen einer<br />

Person zu tun hat und davon abhängt. Das trifft für Erklärungen weitgehend<br />

in dem Sinn zu, daß jede Erklärung und auch jede logische Ableitung<br />

von dem jeweiligen Wissensstand eines epistemischen Subjekts abhängig<br />

sind, denn der bestimmt, über welche Prämissen für logische<br />

Schlüsse bzw. erklärende Theorien wir verfügen. In diesem Sinn verstanden<br />

ist „pragmatisch zu sein“ relativ unproblematisch für Erklärungen.<br />

Es offenbart sich damit nur eine Abhängigkeit von unseren Meinungen,<br />

wie wir sie auch für logische Schlüsse kennen. Wann eine Erklärung vorliegt,<br />

unterliegt aber weiterhin einer objektiven Beurteilung, weil die Beziehung<br />

der logischen Ableitung oder Erklärungsbeziehung davon nicht<br />

169 Für van Fraassen ist auch die Relevanzbeziehung R, die darüber entscheidet,<br />

was gute Antworten auf meine Frage sind, eine kontextabhängige Größe.<br />

Doch das geben die bisherigen Beispiele nicht her. Daß wir van Fraassen<br />

hierin nicht mehr folgen sollten, zeigen entsprechende Beispiele weiter unten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 399<br />

betroffen ist, sondern nur die Frage, über welche Erklärung oder Ableitung<br />

ein epistemisches Subjekt verfügt. Die Konzepte der logischen Ableitung<br />

und der Erklärung sind in diesem Fall für verschiedene Personen<br />

dieselben. Zweitens ist mit „Interessenrelativität“ aber wohl häufig gemeint,<br />

daß der Erklärungsbegriff selbst „launenhaft“ von Person zu Person<br />

variiert, je nach dessen Geschmack oder momentanen Interessen. In<br />

diesem zweiten Sinn würde „Erklärung“ ein subjektiver Begriff, für den<br />

es keine objektive Bewertung mehr gibt, sondern nur noch die subjektiven<br />

Einschätzungen verschiedener Personen. Wie Friedman richtet sich<br />

meine Kritik nur gegen den zweiten Sinn von „pragmatisch“ und ich<br />

versuche eine objektive Erklärungstheorie zu konzipieren, die gleichwohl<br />

im ersten Sinn pragmatisch genannt werden kann.<br />

Die Frage nach einer Bewertung von Erklärungen ist wohl die größte<br />

Schwachstelle der van Fraassenschen Erklärungstheorie. Sie wurde in<br />

der bisher ausgeführten Theorie noch nicht erhellt. Es wurde einfach<br />

nur verlangt, daß es eine Relevanzbeziehung R gibt, die den Antwortkern<br />

A als relevant für ausweist. Der objektive Aspekt einer Erklärungstheorie<br />

ist aber genau in den Bedingungen zu suchen, die R zu<br />

erfüllen hat. Doch was hat van Fraassen dafür anzubieten? Van Fraassen<br />

(1980, 146ff) nennt einige Bedingungen, wie daß:<br />

1. A wahrscheinlich wahr sein sollte<br />

2. A gerade das Thema T gegenüber seinen Konkurrenten in der<br />

Kontrastklasse favorisieren muß<br />

3. A anderen Weil-Antworten überlegen sein muß. 170<br />

Van Fraassens Bedingungen lassen sich auf sehr unterschiedliche Weise<br />

präzisieren, aber ich möchte wenigstens einen ersten wahrscheinlichkeitstheoretischen<br />

Vorschlag unterbreiten, dessen subjektive Lesart van<br />

Fraassen im Sinn haben könnte. Die erste Bedingung besagt schlicht, daß<br />

die Wahrscheinlichkeit von A groß sein sollte:<br />

1’) p(A) 1- mit sehr klein<br />

Die zweite Bedingung ist etwas schwieriger zu explizieren, weil „favorisieren“<br />

unterschiedlich gedeutet werden kann. Eine möglichst einfache<br />

Variante erhalten wir durch:<br />

2’) Für van Fraassen steht die Umverteilung von Wahrscheinlichkeiten<br />

im Vordergrund. Dazu müssen wir die Wahrscheinlichkeits-<br />

170 Van Fraassen spezifiziert insbesondere die dritte Bedingung weiter, aber<br />

auch diese Klärungen der Bedingungen können die Schwächen seiner Erklärungstheorie<br />

nicht beheben.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 400<br />

differenzen vorher und hinterher betrachten und die von T muß<br />

gegenüber den Konkurrenten in der Kontrastklasse X =<br />

{T,B1,..,Bn} angehoben worden sein, d.h. für alle i sollte die Ungleichung<br />

gelten:<br />

p(T)-p(Bi) p(T,A)-p(Bi,A) und für mindestens ein i sollte eine<br />

echte Ungleichung gelten.<br />

Um die dritte Bedingung zu präzisieren, könnten wir den Unterschied<br />

der Differenzen als Maß MA für die Erhöhung der Erklärung durch A<br />

bezeichnen:<br />

Damit läßt sich dann der Vergleich zu alternativen Erklärungen präzisieren:<br />

3’) MA ist größer als MA’ für alle alternativen Erklärungen A’, die<br />

ebenfalls die Bedingungen (1’) und (2’) erfüllen. 171<br />

Damit van Fraassens Theorie plausibel bleibt, müssen wir uns ganz auf<br />

die kontrastierenden Erklärungen beschränken, denn die Konzeption erlaubt<br />

auch, daß A ein Thema T erklärt, indem A die Wahrscheinlichkeit<br />

von T senkt. Haben wir etwa einen Patienten mit Röteln und fragen,<br />

warum er die bekommen hat, so ist es bestimmt keine gute Antwort zu<br />

sagen: „Er bekam Kranckofit und das verringert zwar die Wahrscheinlichkeit<br />

für Röteln, aber macht etwa Masern noch viel unwahrscheinlicher.“<br />

Erst wenn jemand fragt: „Warum bekam er Röteln (was doch<br />

recht unwahrscheinlich ist) und nicht Masern (wie alle anderen in seiner<br />

Klasse)?“, wird die Antwort wieder plausibel. Relativ zur Ausgangswahrscheinlichkeit<br />

(bei der er wahrscheinlich auch Masern bekommen hätte)<br />

wurde die Wahrscheinlichkeit für Röteln gegenüber der von Masern<br />

durch Kranckofit sehr erhöht. 172 Das scheint als Antwort auf die kontrastierende<br />

Warum-Frage und entsprechende Erklärung zunächst<br />

brauchbar.<br />

Diese Vorgehensweise – eine Explikation mit Hilfe subjektiver bedingter<br />

Wahrscheinlichkeiten zu geben, erinnert an Erklärungskonzeptionen<br />

aus der epistemischen Logik wie z. B. die von Gärdenfors (1988).<br />

Sie hat aber auch in der subjektivistischen Lesart der Wahrscheinlichkei-<br />

171 Eine weitergehende Analyse anhand von Beispielen zeigt leider schnell,<br />

daß wir die Bedingungen noch koplexer gestalten müssen, wenn wir eine vertretbare<br />

Konzeption erhalten wollen.<br />

172 Das Beispiel stammt von Gerrit Imsieke.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 401<br />

ten mit denselben Schwierigkeiten zu kämpfen wie diese Ansätze. Wenn<br />

wir – und das ist ein Normalfall für Erklärungen – bereits wissen, daß T<br />

und A vorliegen, d.h. alle unsere Wahrscheinlichkeitseinschätzungen bereits<br />

unter der Annahme T und A erfolgen, wie groß ist dann p(T) oder<br />

p(Bi) vor der Annahme von T und A? Hier werden gewagte kontrafaktische<br />

Konstruktionen nötig, bei denen wir unser Wissen etwa um A kontrahieren<br />

sollen, also die „kleinste Änderung“ unseres Meinungssystems<br />

suchen, bei der wir A nicht annehmen, oder Ähnliches. Außerdem bleibt<br />

natürlich die spannende Frage offen, welche Bedingungen wir an die<br />

Wahrscheinlichkeiten richten können, um sicherzustellen, daß sie nicht<br />

willkürlich und unwissenschaftlich sind. Von einer tatsächlichen und<br />

nicht nur vermuteten Erklärung würden wir etwa verlangen, daß Kranckofit<br />

die Umverteilung der Wahrscheinlichkeiten in einem objektiven<br />

Sinn bewirkt, wir uns also auf objektive Wahrscheinlichkeiten in unseren<br />

Bedingungen beziehen. Wie wenig diese Bedingungen leisten, wenn wir<br />

keine objektiven Anforderungen an R richten, zeigen die folgenden Beispiele<br />

von Kitcher und Salmon (1987).<br />

Sie betrachten die Frage, warum John F. Kennedy am 22.11.1963<br />

starb, und verstehen die Frage Q = wie folgt:<br />

T = JFK starb am 22.11.63<br />

X = {am 1.1.63, am 2.1.63, ..., 31.12.63, er überlebte 1963}<br />

R = astrale Einflüsse<br />

Jemand, der an eine astrologische Theorie glaubt, nach der die Konfiguration<br />

der Planeten und Sterne zum 22.11.63 zur Ermordung Kennedys<br />

an diesem Datum führt, erfüllt dann mit seiner Antwort die van Fraassenschen<br />

Bedingungen:<br />

JFK starb am 22.11.63, weil die Konfiguration der Sterne und Planeten<br />

so und so ist.<br />

Nehmen wir an, wir wüßten den Kern A der Antwort, nämlich die Konfiguration<br />

der Sterne und Planeten mit beliebiger Genauigkeit und Gewißheit,<br />

so ist A beliebig wahrscheinlich vor unserem Hintergrundwissen.<br />

173 Damit ist van Fraassens erste Anforderung vollends erfüllt. Für<br />

die zweite Bedingung für gute Erklärungen muß der Erklärende über<br />

eine astrologische Theorie verfügen, die den entsprechenden Zusammenhang<br />

behauptet. Nehmen wir an, daß JFKs Todestag sogar deduktiv<br />

173 Zur Erläuterung von „wahrscheinlich vor unserem Hintergrundwissen“<br />

muß van Fraassen allerdings schon auf andere Induktionsschlüsse als die Abduktion<br />

setzen, denn sonst gerät er in einen Zirkel.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 402<br />

aus dieser Theorie folgt und auch die dritte Bedingung erfüllt ist. Damit<br />

ist die angegebene Antwort für van Fraassen unwiderruflich eine Erklärung.<br />

Andererseits denken wir, in solchen Fällen eine falsche Erklärung,<br />

ja sogar eine Pseudoerklärung vor uns zu haben, und eine Erklärungstheorie,<br />

die wir zur Wahrheitsfindung einsetzen möchten, sollte in der<br />

Lage sein, objektive Anhaltspunkte zur Überprüfung der Erklärung und<br />

der erklärenden Theorie anzubieten. In der rein pragmatischen Erklärungstheorie<br />

kommen dagegen keine Ansatzpunkte mehr vor, die zwischen<br />

tatsächlichen Erklärungen und Pseudoerklärungen zu differenzieren<br />

helfen. Wir dürften in diesem Fall nicht sagen, der Astrologiegläubige<br />

glaubte nur, eine Erklärung für die Ermordung von JFK zu besitzen,<br />

hat aber in Wirklichkeit keine, sondern wir müßten sagen: Er hat tatsächlich<br />

eine (sogar ziemlich ideale) Erklärung von JFKs Ermordung gegeben,<br />

auch wenn wir sie nicht akzeptieren können. Kitcher und Salmon<br />

konnten sogar zeigen, daß jede wahre Aussage A in der rein pragmatischen<br />

Erklärungskonzeption von van Fraassen wesentlicher Bestandteil<br />

jedes Themas T mit beliebiger Kontrastklasse sein kann. Um plausibel zu<br />

bleiben, müßte van Fraassen nach ihrer Meinung ergänzend eigentlich<br />

eine Bedingung der Art:<br />

(*) R ist eine objektive Relevanzbeziehung<br />

aufnehmen. Um diese Forderung explizieren zu können, stoßen wir aber<br />

(s. Salmon 1989, 143ff) auf all die aus der Erklärungsdebatte altbekannten<br />

Probleme, so daß wir in diesem Punkt eigentlich noch keinen wesentlichen<br />

Fortschritt erzielt haben.<br />

Das intuitive Problem des Ansatzes von van Fraassen ist, daß es sich<br />

auch in den metatheoretischen Beurteilungen ausschließlich auf die<br />

Überzeugungen des betrachteten epistemischen Subjekts stützt. Was eine<br />

gute Antwort auf die Warum-Frage darstellt wird nur nach dessen Ansichten<br />

beurteilt, und van Fraassen läßt keinen Raum für metatheoretische<br />

Hinweise darauf, was eine Erklärung objektiv als solche auszeichnen<br />

kann. Im DN-Schema gibt Hempel dem Erklärenden zumindest einige<br />

Hinweise, mit deren Überprüfung er feststellen soll, ob es sich um<br />

eine echte Erklärung handelt, nämlich die Forderung nach dem wesentlichen<br />

Einsatz eines Naturgesetzes und die Forderung nach einem deduktiven<br />

Zusammenhang zwischen Explanans und Explanandum. Es ist daher<br />

auch kein Wunder, daß van Fraassen seine Erklärungstheorie als einen<br />

wichtigen Bestandteil seiner instrumentalistischen Sichtweise der<br />

Wissenschaften entwickelt hat, denn nur vor einem antirealistischen<br />

Hintergrund kann sie als die ganze Geschichte, die es zu Erklärungen zu


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 403<br />

erzählen gibt, Plausibilität beanspruchen. Eine ähnliche Kritik wie gegen<br />

van Fraassens Erklärungstheorie läßt sich auch gegen andere erotetische<br />

Ansätze wie den von Achinstein (1983) richten, denn auch bei ihm<br />

bleibt die Beziehung zwischen Explanans und Explanandum unterbestimmt,<br />

was etwa Salmon (1989, 146ff) ausführt.<br />

Viele Aspekte des Kontextes einer Warum-Frage bestimmen, wonach<br />

wir genau fragen und welcher Typ von Antwort uns gerade interessiert.<br />

Das gilt insbesondere, wenn ich aus praktischen Motiven um eine Erklärung<br />

bitte. Der Pfarrer fragt deshalb den Bankräuber nach seinen Motiven,<br />

weil er seelsorgerisch auf ihn einwirken möchte. Das ist sicher eine<br />

richtige Beobachtung und sollte auch weiter in die Erklärungsdebatte<br />

eingebracht werden, aber damit ist noch nicht belegt, daß die Güte von<br />

Erklärungen nicht darüber hinaus einen harten Kern besitzt, der einer<br />

objektiven Beurteilung zugänglich ist – insbesondere im Falle der wissenschaftlichen<br />

Erklärungen –, und dessen Erforschung möchte ich mich<br />

widmen. Das dabei bestimmende Interesse ist ein theoretisches Interesse<br />

daran, einen bestimmten Vorgang oder Zusammenhang besser zu verstehen.<br />

Gegen die Annahme von van Fraassen, daß über die Pragmatik hinaus<br />

nichts zu entdecken ist, was Erklärungen zu solchen macht, versuche<br />

ich eine Konzeption von objektiver Erklärungskraft zu setzen. Pragmatische<br />

Theorien der Erklärung bieten sicher eine sinnvolle Ergänzung dazu,<br />

aber sie können sie nicht völlig ersetzen.<br />

2. Kausale Erklärungen<br />

Ein wichtiges Desiderat, das ich aus der Debatte um pragmatische Erklärungstheorien<br />

mitgenommen habe, ist also die Suche nach einer Explikation<br />

einer objektiven Relevanzbeziehung zwischen Explanandum und Explanans.<br />

Zwei prominente Ansätze der Erklärungsdebatte, die sich demselben<br />

Ziel verschrieben haben, sollen in diesem und dem nächsten Kapitel<br />

weiterverfolgt werden. Der eine besagt, daß Erklärungen die Ursachen<br />

eines Ereignisses aufzudecken haben und aufzeigen sollten, wie dieses<br />

in die kausale Struktur unserer Welt einzubetten ist. Der andere stellt<br />

mehr die vereinheitlichende und systematisierende Funktion von wissenschaftlichen<br />

Erklärungen in den Vordergrund. Wissenschaftliche Erklärungen<br />

zeigen uns demnach, wie sich eine Vielzahl von Tatsachen auf<br />

wenige allgemeine Zusammenhänge zurückführen läßt. Diese beiden<br />

Ansätze möchte ich in ihren neueren Versionen eine Weile verfolgen, um<br />

abzuschätzen, welche Perspektiven und Probleme sie meines Erachtens<br />

bieten, und werde innerhalb des zweiten eine eigene Konzeption von Er-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 404<br />

klärung anbieten und präzisieren. Beginnen möchte ich mit der Vorstellung,<br />

jede Erklärung sei eine kausale Erklärung.<br />

a) Kausale Prozesse<br />

Insbesondere das obengenannte (B.2) Asymmetrieproblem verweist auf<br />

die zugrundeliegende kausale Struktur zu seiner Lösung. Das Zurückweichen<br />

der Sterne verursacht die Rotverschiebung ihres Spektrums und<br />

kann sie deshalb erklären, während das Umgekehrte nicht gilt. Ähnliche<br />

Auflösungen von Erklärungsasymmetrien anhand der Asymmetrie von<br />

Kausalbeziehungen lassen sich auch in den anderen Fällen finden, wenn<br />

sie auch nicht immer so glatt erscheinen wie die der Rotverschiebung.<br />

Theorien oder Konzeptionen von Kausalität gibt es allerdings zahlreiche<br />

und nicht alle eignen sich gleichermaßen für eine Erklärungstheorie. Außerdem<br />

hat sich jede heutige Kausalitätstheorie zum einen der Humeschen<br />

Kritik an der Kausalitätsvorstellung zu stellen und sollte andererseits<br />

mit unseren gegenwärtigen naturwissenschaftlichen Ansichten kompatibel<br />

sein, was die Auswahl schon erheblich einschränkt. Trotzdem<br />

bleiben verschiedene Theorien übrig, die alle zu diskutieren, den Rahmen<br />

des Buches sprengen würde. Daher möchte ich mich einem besonders<br />

namhaften Ansatz in der kausalen Erklärungstheorie zuwenden und<br />

diesen ausführlicher besprechen, was in den kritischen Aspekten aber sicher<br />

auch für andere Kausalitätskonzeptionen Ansatzpunkte für kritische<br />

Einwendungen liefert. Darüber hinaus werde ich anhand allgemeinerer<br />

Überlegungen nahelegen, daß unsere Kausalitätsvorstellungen keinen<br />

sehr informativen Beitrag zu unserem Verständnis der Welt leisten können,<br />

der zugleich ein wichtiger Beitrag zum Verständnis von Erklärungen<br />

sein könnte.<br />

Es war insbesondere Wesley Salmon, der in neuerer Zeit mit seinem<br />

Werk Scientific Explanation and the Causal Structure of the World<br />

(1984) und einer Reihe anderer Arbeiten die kausale Erklärungstheorie<br />

belebt und vor allem detailliert ausgearbeitet hat. Etwas unklar bleibt in<br />

Salmons kausaler Konzeption, inwiefern sie eine Ergänzung seiner älteren<br />

bereits kurz vorgestellten SR-Konzeption (s. B.1.b.2) darstellt oder<br />

mit dieser zusammenhängt, doch es gibt zumindest auch eine probabilistische<br />

Version für die kausale Theorie. Zunächst stellt sich Salmon allerdings<br />

der Aufgabe, zu erklären, was denn unter einer Kausalbeziehung<br />

zu verstehen sei. Dabei versucht er der Kritik Humes und Russells<br />

Warnungen vor der Kausalität zu begegnen. So hält er die Ansätze, die<br />

Kausalität mit Hilfe von Begriffen wie „notwendiger“ und „hinreichender<br />

Bedingung“ explizieren wollen, für grundsätzlich falsch (Salmon


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 405<br />

1984, 138), wobei ihm auch die INUS-Bedingung von Mackie (1974,<br />

62) (nach der eine Ursache ein nicht-hinreichender, aber notwendiger<br />

Teil einer nicht notwendigen, aber hinreichenden Bedingung ist), die<br />

wohl den prominentesten Vertreter dieser Auffassung verkörpert, als<br />

nicht akzeptabel erscheint.<br />

Grundlegend in Salmons Erörterung von Kausalität sind Prozesse<br />

(processes) und nicht wie sonst häufig üblich Ereignisse. Prozesse sind<br />

raumzeitlich weiter ausgedehnt als Ereignisse. Wenn man Ereignisse im<br />

Raum-Zeit-Diagramm als Punkte darstellt, so können Prozesse als Linien<br />

repräsentiert werden. Ein Gegenstand wird etwa in seiner Bewegung<br />

eine Zeit lang verfolgt. Das intuitive Problem, das Salmon mit dem<br />

Übergang zu Prozessen zu lösen versucht, beschreibt Kitcher (1989,<br />

461ff): Ein Ereignis U ist dann eine Ursache eines anderen Ereignisses<br />

W (Wirkung), wenn von E ein kausaler Prozeß abläuft, der zu W führt,<br />

die Ereignisse also in geeigneter Weise kausal verbunden sind. Die abgefeuerte<br />

Kugel ist z. B. die Ursache für die durch die auftreffende Kugel<br />

entstehenden Schäden, wenn der „kausale Weg“ von der Kugel zu den<br />

Schäden nachzuzeichnen ist. Zwischen zwei Ereignissen (die nicht raumoder<br />

lichtartig zueinander liegen) gibt es aber eine Vielzahl von Weltlinien,<br />

die sie miteinander verbinden und das größte Problem einer Analyse<br />

von Kausalität ist es, genau die wesentlichen und geeigneten von<br />

den irrelevanten oder Pseudoverbindungen zu trennen. Genau dazu soll<br />

Salmons Explikation von „kausaler Prozeß“ dienen, die er auf dem naturwissenschaftlichen<br />

Hintergrund der speziellen Relativitätstheorie entwirft,<br />

die für Salmon immer wieder leitende Funktion für seine Theoriebildung<br />

besitzt.<br />

Auch die Relativitätstheorie macht eine Unterscheidung der Prozesse<br />

in kausale Prozesse und Pseudoprozesse erforderlich. In wirklichen kausalen<br />

Prozessen im Sinne der speziellen Relativitätstheorie können z. B.<br />

keine höheren Geschwindigkeiten als die Vakuumlichtgeschwindigkeit c<br />

auftreten, während das für Pseudoprozesse nicht der Fall ist; in ihnen<br />

können sogar beliebig hohe Geschwindigkeiten vorkommen. Salmons<br />

Beispiele für Pseudoprozesse mögen diesen Unterschied verdeutlichen.<br />

Stellen wir uns einen dunklen, runden Raum vor, der in der Mitte einen<br />

rotierenden Lichtstrahl enthält. Der von dem Lichtstrahl erzeugte, sich<br />

über die Wand bewegende Lichtfleck ist ein solcher Pseudoprozess, der<br />

beliebige Geschwindigkeiten erreichen kann, je nachdem, wie schnell<br />

sich die Lichtquelle dreht und wie groß der Raum ist. Ebenso ist auch<br />

der Schatten eines fahrenden Autos ein Pseudoprozeß. Es handelt sich<br />

bei diesen Pseudoprozessen um Vorgänge, bei denen vorhergehende Zu-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 406<br />

stände die späteren nicht verursachen und daher auch nicht direkt beeinflussen<br />

können. Der Schatten des Autos zu einer früheren Zeit kommt<br />

nicht als Ursache für den Schatten des Autos zu einer späteren Zeit in<br />

Betracht. Sober (1987, 252) hat das Verhältnis von kausalen Prozessen<br />

und Pseudoprozessen in einem Diagramm veranschaulicht:<br />

Die schwarzen ausgefüllten Pfeile stellen kausale Zusammenhänge dar<br />

und die schmalen nicht-kausale. Damit gibt uns die obere Reihe die<br />

Ereignisse an, die kausal auseinander hervorgehen, also etwa die verschiedenen<br />

Phasen der Fahrt eines Autos, während uns die untere Reihe<br />

einen Pseudoprozeß darstellt, wie den sich bewegende Schatten des Autos.<br />

Nur zwischen den Zuständen des kausalen Prozesses gibt es kausale<br />

Beziehungen, während die Zustände des Pseudoprozesses kausal untereinander<br />

unverbunden sind. Dieser Zusammenhang hat Salmon dazu angeregt,<br />

für eine Präzisierung der Abgrenzung das folgende ursprünglich<br />

von Reichenbach stammende Kriterium einzusetzen: Kausale Prozesse<br />

können Informationen übertragen und Pseudoprozesse nicht. Diese Idee<br />

hat Salmon anhand der Übertragung von Zeichen (transmitting of a<br />

mark) in seinem „principle of mark transmission“ (Salmon 1984, 148)<br />

zu präzisieren versucht. Dieses Prinzip besagt informell ausgedrückt:<br />

A genuine causal process is one that can transmit a mark: if the process<br />

is modified at one stage the modification persists beyond that<br />

point without any additional intervention. (Salmon 1989, 108)<br />

A „process“ that can be marked at one place, but without having any<br />

such modification persist beyond the point at which the mark is<br />

made, cannot transmit marks. Such „processes“ are pseudoprocesses.<br />

(Salmon 1989, 109)<br />

Ein Pferd, das über eine Wiese läuft, ist ein genuin kausaler Vorgang,<br />

aber nicht so der sich bewegende Schatten oder das laufende Pferd im<br />

Film auf einer Leinwand. Natürlich ist der Projektionsvorgang im Kino<br />

ein kausaler Prozeß, aber die Bewegung des Pferdes im Bild ist ein Pseudoprozeß.<br />

Wenn man dem Bild des Pferdes einen roten Punkt verpaßt,<br />

indem man mit einem roten Licht auf die Leinwand strahlt, verschwindet<br />

dieser rote Punkt sofort wieder, wenn wir das Licht ausschalten und<br />

das Bild des Pferdes gibt dieses Zeichen nicht weiter.<br />

Dieses Beispiel von Salmon (1989, 109) zeigt aber auch schon erste<br />

Probleme dieses Ansatzes, denn auch das Pferd selbst behält einen roten<br />

Punkt, den man ihm mit einem roten Lichtstrahl zufügt, nicht bei. Allerdings<br />

behält es, wenn man es genau nimmt, eine kleine Erwärmung an


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 407<br />

dieser Stelle, die es weiter transportiert. Deutlicher wird Salmons Unterscheidung<br />

im Beispiel eines Autos, dem wir eine Beule zufügen. Die<br />

bleibt dauerhafter, während das Einbeulen der Leinwand an einer Stelle<br />

keine dauerhaften Zeichen auf dem Bild des Pferdes hinterläßt – höchstens<br />

auf der Leinwand. Trotz dieser recht einleuchtenden Zusammenhänge<br />

läßt einen die Definition von kausalen Prozessen mit intuitiven<br />

Problemen zurück, von denen ich nur einige von allgemeinerer Bedeutung<br />

aufgreifen möchte. 174<br />

Ein notorisches Problem vieler Explikationsvorschläge von Kausalität<br />

ist der Einsatz modaler Begriffe. 175 Kausale Prozesse sind für Salmon<br />

die Mittel, durch die kausale Einflüsse weitergeleitet werden (s. Salmon<br />

1984, 170). Diese Mittel sind dadurch ausgezeichnet, daß sie Zeichen<br />

weitergeben können. Das müssen sie natürlich nicht in jedem Fall tatsächlich<br />

tun, was Salmon auch deutlich macht (z. B. Salmon 1989, 110).<br />

Dazu erläutert Sober (1987, 254f) an einem leichtverständlichen Beispiel<br />

ein Problem dieser Definition: Wenn eine elektrische Lampe durch<br />

verschiedene elektrische Leitungen mit Schaltern an das Stromnetz angeschlossen<br />

ist, sind sie alle im Sinne Salmons „kausale Prozesse“, da sie<br />

Zeichen weitergeben können. Ein Schalter wird aber schließlich nur eingeschaltet<br />

und transportiert tatsächlich ein „Zeichen“ und nur diese Leitung<br />

gibt uns die tatsächliche Ursache des aufleuchtenden Lichts. Wie<br />

kann Salmon in seiner Theorie der Kausalität jedoch von den bloß möglichen<br />

Ursachen zu den tatsächlichen übergehen? Salmon (1984, 171)<br />

gibt uns dazu ein Prinzip für die kausale Wechselwirkung (causal interaction)<br />

von Prozessen an, wonach eine tatsächliche Wechselwirkung dann<br />

vorliegt, wenn die Zustände der Prozesse nach der Wechselwirkung andere<br />

sind als vorher. Doch auch diese Vorgehensweise bleibt unbefriedigend,<br />

wie weitere Überlegungen und Beispiele Sobers (1987, 255f) zeigen<br />

können. Ursachen müssen nämlich nicht immer zu Veränderungen<br />

führen. Sie können etwa durch entsprechende Gegenkräfte aufgehoben<br />

werden. So kann ein Partikel in der Newtonschen Mechanik einer Vielzahl<br />

von Kräften unterliegen, die seine geradlinig gleichförmige Bewe-<br />

174 Zu den Schwierigkeiten, echte Zeichen etwa von Pseudozeichen zu unterscheiden,<br />

bei denen sich auf einer anderen Ebene das Problem der Abgrenzung<br />

von Prozessen und Pseudoprozessen erneut stellt, siehe Kitcher (1989,<br />

463).<br />

175 Er findet sich schon in Humes Untersuchung über den menschlichen<br />

Verstand und wurde von Lewis (1981) innerhalb seiner Analyse im Rahmen einer<br />

mögliche-Welten Semantik wieder aufgegriffen. Der Aspekt von Kausalität,<br />

der hier verfolgt wird, ist folgender: Wäre das ursächliche Ereignis U nicht gewesen,<br />

so hätte auch die Wirkung W nicht stattgefunden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 408<br />

gung trotzdem nicht stören, weil sie sich gegenseitig aufheben. Obwohl<br />

hier also Ursachen am Werk sind, kann es vielleicht an entsprechenden<br />

Wirkungen im Sinne einer Veränderung des Vorgangs fehlen.<br />

Die Salmonsche Charakterisierung macht darüber hinaus einige Annahmen<br />

über die Beschaffenheit der Welt, die Sober (1987, 255f) aufdeckt,<br />

die aber auch nicht verwundern können, wenn man bedenkt, daß<br />

Salmons Explikationsvorschlag auf dem Hintergrund der speziellen Relativitätstheorie<br />

entwickelt wurde. Doch ich möchte nicht weiter die fast<br />

schon technischen Details und Probleme dieses Ansatzes besprechen,<br />

sondern mich nun stärker der Frage zuwenden, was wir vom kausalen<br />

Ansatz zur Charakterisierung von Erklärungen generell erwarten können.<br />

Die dabei anzutreffenden Probleme sind nicht spezifisch für die Salmonsche<br />

Explikation von Kausalität, sondern treffen in ähnlicher Weise<br />

auf andere Kausalitätskonzeptionen zu.<br />

b) Sind alle Erklärungen kausale Erklärungen?<br />

Es war mir nicht möglich, verschiedene Vorschläge zur Explikation von<br />

Kausalität im Detail zu besprechen. Ich hatte mich deshalb auf den Salmonschen<br />

konzentriert, weil dieser explizit zu einer prominenten Erklärungstheorie<br />

ausgearbeitet wurde, aber einige allgemeinere Überlegungen<br />

mögen meine Skepsis begründen, daß sich mit Hilfe des Kausalitätskonzepts<br />

überhaupt eine gehaltvolle Konzeption von Erklärung finden<br />

läßt. Die kausale Erklärungstheorie wurde primär entwickelt, um singuläre<br />

Tatsachen oder Ereignisse zu erklären. Aber sind in all diesen Fällen<br />

kausale Erklärungen möglich und auch die naheliegendsten Erklärungen?<br />

Tatsächlich scheint mir das nicht der Fall zu sein, und um diese Vermutung<br />

zu belegen, werde ich einige Beispiele und Überlegungen anführen.<br />

Ein erster Punkt, auf den uns Kitcher (1989, 423ff) hinweist, sind<br />

Erklärungen in der Mathematik. So können uns Sätze wie der Zwischenwertsatz<br />

erklären, wieso eine stetige reellwertige Funktion f auf einem<br />

Intervall [a, b] eine Nullstelle haben muß, wenn f(a) < 0 und f(b) > 0<br />

ist. Kitcher weiß dazu Beispiele anzugeben, die insbesondere auf der<br />

Grundlage seiner Anschauungen von Mathematik nicht aus der Erklärungsdebatte<br />

ausgeschlossen werden sollten. Auch mir geht es darum, einen<br />

möglichst breiten Erklärungsbegriff vor Augen zu haben, der viele<br />

Beispiele von Erklärungen abzudecken gestattet, und ich bin darum mit<br />

Kitcher bereit, geeignete Beispiele aus der Mathematik zu akzeptieren.<br />

Außerdem ist es zumindest ein methodologischer Vorteil einer Erklä-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 409<br />

rungskonzeption, wenn sie einen großen Anwendungsbereich besitzt. 176<br />

Da aber die Einbeziehung mathematischer Erklärungen in die Erklärungsdebatte<br />

vielen Philosophen wahrscheinlich intuitive Schwierigkeiten<br />

bereiten wird, möchte ich diese Beispiele hier nicht zu sehr strapazieren,<br />

sondern mich gleich anderen Typen von Fällen zuwenden.<br />

Ein schönes Beispiel in dieser Richtung ist Kitchers (1989, 426)<br />

„Party Trick“ mit wissenschaftlich ernstzunehmendem Hintergrund. In<br />

diesem Trick (man kann auch an einen Entfesselungskünstler denken)<br />

wird ein Knoten so um eine Schere geschlungen, daß er sofort aufgeht,<br />

wenn man zu Beginn die richtigen Entschlingungen vornimmt, aber man<br />

kann sich stundenlang damit abquälen, wenn man sie nicht findet. Was<br />

erklärt dann den Mißerfolg? Natürlich kann man in so einem Fall mit<br />

den kausalen Zusammenhängen der einzelnen Verschlingungen argumentieren,<br />

doch dabei verkennt man den wesentlichen Punkt, um den es<br />

geht, nämlich die topologischen Zusammenhänge, die zwischen den unterschiedlichen<br />

Fehlversuchen bestehen. Bestimmte Entwirrungsversuche<br />

müssen aus topologischen Gründen fehlschlagen, während andere gelingen<br />

werden. Die kausalen Details der Versuche wie die Kräfte und Materialeigenschaften<br />

etc. sind dabei eigentlich ganz unerheblich.<br />

Auf das dabei erkennbare Phänomen stoßen wir in vielen Erklärungen.<br />

Es sind nicht die individuellen kausalen Beziehungen, die etwas erklären,<br />

sondern abstraktere Zusammenhänge, die auf einer anderen Ebene<br />

angesiedelt sind. Will ich etwa erklären, warum ein Holzpflock mit<br />

quadratischer Grundfläche und einer Kantenlänge von 1 m nicht durch<br />

ein rundes Loch mit einem Durchmesser von 1,2 m paßt, so ist eine einfache<br />

geometrische Erklärung angemessen: Bei einer Kantenlänge von 1<br />

m weist die Diagonale eine Länge von 2 1/2 auf, und das ist größer als 1,2<br />

m. Also kann der Pflock nicht durch das Loch gehen. Natürlich ließe<br />

sich dazu im Prinzip auch eine „tolle“ kausale Erklärung geben, die statt<br />

dessen die möglichen Trajektorien der einzelnen Moleküle des Pflocks<br />

unter gewissen Randbedingungen verfolgt. Doch käme uns jemand mit<br />

dieser „Erklärung“, würden wir sie als ziemlich uninformativ zurückweisen.<br />

Es wäre eine furchtbar lange Geschichte, die uns schließlich nicht<br />

mehr die wesentliche Information bieten würde. Die geometrische Erklärung<br />

ist eindeutig die viel bessere und informativere. Und Entsprechendes<br />

gilt auch für andere typisch wissenschaftliche Erklärungen. Et-<br />

176 Die jeweilige Einschränkung des Erklärungsbegriff auf gerade die Fälle,<br />

die zu einem bestimmten Erklärungskonzept passen, ist natürlich außerdem eine<br />

Immunisierungsstrategie, die einem immer offensteht und damit die Gefahr der<br />

Trivialisierung in sich trägt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 410<br />

wa die Erklärung des Zwillingsparadoxon ist keine kausale Erklärung,<br />

sondern eine geometrische anhand der Raum-Zeit-Geometrie der speziellen<br />

Relativitätstheorie (s. Ray 1991, 36ff).<br />

Ein weiteres solches Beispiel von nicht-kausaler Erklärung stammt<br />

von Sober (1983) und wird von Kitcher (1989, 426) wieder aufgegriffen.<br />

Sober beschreibt die Evolutionstheorie in Analogie zum Aufbau der<br />

Newtonschen Mechanik. Das Hardy-Weinberg Gesetz gibt uns demnach<br />

einen „kräftefreien“ Gleichgewichtszustand für die Häufigkeiten verschiedener<br />

Genkombinationen an. Abweichungen davon können durch<br />

das Wirken von „Evolutionskräften“ wie Migration, Selektion, Mutation<br />

und Zufallsdrift erklärt werden. Fragen wir uns dann, wie sich ein Geschlechterverhältnis<br />

aller Geburten einer Stadt von 1,04 zu 1 (Männer-<br />

Frauen) erklären läßt, könnte man eine sehr komplizierte kausale Geschichte<br />

über Spermien und Eier etc. erzählen, 177 aber die meisten dieser<br />

kausalen Details sind eigentlich für unser Erklärungsvorhaben nicht interessant<br />

oder sogar hinderlich. Eine bessere wenn auch recht abstrakte<br />

Antwort zitiert den Selektionsdruck, der zunächst zu einem annähernden<br />

1 zu 1 Verhältnis geführt hat, weil sich dabei die höchsten Reproduktionsraten<br />

erzielen lassen, gibt aber zusätzlich die etwas höhere<br />

Sterblichkeit der Männer in der Zeitspanne von der Geburt bis zur Vermehrung<br />

zu berücksichtigen, so daß sich bei dem erwähnten Verhältnis<br />

von 1,04 zu 1 ein Gleichgewicht der Evolutionskräfte einstellt. 178 Sowohl<br />

Sober wie auch Kitcher halten diese Erklärung nicht für eine kausale Erklärung<br />

im üblichen Sinn des Worts, denn es geht in der Erklärung wiederum<br />

primär um einen strukturellen Zusammenhang, ein Gleichgewicht<br />

bestimmter Größen, aber nicht um eine Beschreibung der kausalen<br />

Prozesse, die zu diesem Gleichgewicht geführt haben.<br />

Daß viele Erklärungen singulärer Tatsachen nicht nach kausalen Erklärungen<br />

mit Angabe der speziellen kausalen Vorgeschichte verlangen,<br />

liegt unter anderem daran, daß man in diesen Beispielen nicht an der Erklärung<br />

eines speziellen Ereignisses interessiert ist, sondern an der Erklärung<br />

allgemeinerer Regularitäten. Friedman (1988) geht sogar noch weiter<br />

und behauptet, daß eigentlich immer Regelmäßigkeiten oder Gesetze<br />

erklärt werden sollen. Wenn man fragt, warum Wasser zu verdampfen<br />

beginnt, wenn es erhitzt wird, und man darauf erklärt: „Die Erhitzung<br />

177 In Wahrheit wäre eine derartige Geschichte viel zu kompliziert, als daß<br />

wir sie tatsächlich ohne große Lücken erzählen könnten.<br />

178 Einen kurzen Einblick in die Geschichte des Geschlechterzahlenverhältnisses<br />

im Rahmen der Evolutionstheorie bieten Uyenoyama/Feldman (1992,<br />

39f).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 411<br />

besteht in einer Zunahme der Molekülbewegung, und wenn diese heftig<br />

genug sind, zwischenmolekulare Kräfte zu überwinden, fliegen die Wassermoleküle<br />

davon.“, so hat man ein ganzes Phänomen erklärt und nicht<br />

nur ein einzelnes Datum. Friedman (1988, 172) schreibt dazu:<br />

Was erklärt wird, ist eine allgemeine Regelmäßigkeit bzw. ein Verhaltensmuster<br />

– ein Gesetz, wenn man will – nämlich, daß Wasser zu<br />

verdampfen beginnt, wenn es erhitzt wird. Obwohl sich der überwiegende<br />

Teil der philosophischen Erklärungsliteratur mit der Erklärung<br />

von Einzelereignissen beschäftigt, so scheint doch der in den<br />

obigen Beispielen illustrierte Erklärungstyp für die Naturwissenschaften<br />

viel charakteristischer zu sein. Erklärungen von Einzelereignissen<br />

sind dagegen vergleichsweise selten – sie kommen höchstens<br />

vielleicht in der Geologie oder Astronomie vor.<br />

Selbst wenn Friedman hier die Bedeutung von Gesetzeserklärungen etwas<br />

überbetont, bleibt doch der Punkt, daß zumindest ein großer Teil<br />

der wissenschaftlichen Erklärungen diesen allgemeineren Charakter besitzt.<br />

Erklärend sind dabei abstraktere strukturelle Zusammenhänge, die<br />

einer größeren Klasse von Fällen gemeinsam sind. Wie kann der Proponent<br />

einer kausalen Erklärungstheorie auf die Tatsache reagieren, daß<br />

Erklärungen oft diese abstraktere Beschreibungsebene verlangen?<br />

Diese Perspektive auf Erklärungen ermöglicht auch Einsichten in anderen<br />

Bereichen der Philosophie. Auch wenn wir mit Davidson der Meinung<br />

sind, daß intentionale Zustände keine geeigneten Kandidaten für<br />

echte physikalistische Erklärungen darstellen, so können sie trotzdem<br />

wesentliche Aspekte brauchbarer Erklärungen sein. Dennett hat gezeigt,<br />

wie wir selbst gegenüber Schachcomputern eine intentionale Einstellung<br />

mit Gewinn einnehmen können und ihnen einfache Wünsche und Überzeugungen<br />

zuschreiben, um ihr Vorgehen zu verstehen. Das heißt noch<br />

nicht, daß sie diese Zustände im Sinne identifizierbarer konkreter kausaler<br />

Zustände besitzen. Das glauben wir nur von Menschen und eventuell<br />

noch manchen Tieren. Trotzdem finden wir auch bei Schachcomputern<br />

entsprechende Verhaltensmuster mit Erklärungswert. Das läßt sich als<br />

ein Hinweis deuten, daß intentionale Erklärungen auch im allgemeinen<br />

nicht als kausale Erklärungen gemeint sind. Überhaupt haben wir in vielen<br />

Fällen vermeintlich kausaler Erklärungen noch genauer hinzuschauen,<br />

ob es tatsächlich die Angabe von Ursachen ist, die erklärt, oder nicht<br />

vielmehr der Hinweis auf abstraktere Regelmäßigkeiten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 412<br />

c) Koexistenzgesetze<br />

Verschärft wird das Problem für die kausalen Erklärungskonzeptionen<br />

noch durch einen speziellen Typ von Beispielen, den man als Erklärungen<br />

anhand von Koexistenzgesetzen bezeichnen kann. Unter einer kausalen<br />

Beziehung stellt man sich normalerweise mindestens eine zeitliche<br />

Beziehung vor, bei der die Wirkungen den Ursachen vorhergehen. Für<br />

die Koexistenzgesetze oder auch strukturelle Gesetze scheint diese Bedingung<br />

aber nicht erfüllt zu sein, obwohl wir sie intuitiv trotzdem als<br />

erklärend einstufen. Ein klassisches Beispiel ist das Pendelgesetz, nach<br />

dem die Schwingungsdauer umgekehrt proportional zur Pendellänge für<br />

ideale Pendel ist. Mit seiner Hilfe können wir erklären, warum ein bestimmtes<br />

Pendel eine bestimmte Schwingungsdauer aufweist, indem wir<br />

sie auf die Länge des Pendels zurückführen. Andere Beispiele sind Strahlungsgesetze<br />

wie das Plancksche oder die Balmersche Serienformel oder<br />

auch Gleichgewichtsgesetze wie das Gasgesetz etc. Schurz (1983, 213ff)<br />

nennt noch andere Beispiele und meint, daß sogar die fundamentalen<br />

Grundgleichungen der Physik als Koexistenzgesetze aufgefaßt werden<br />

können, geben diese Differentialgleichungen doch immer einen momentanen<br />

Gleichgewichtszustand an. Das geht aber wohl etwas zu weit,<br />

denn immerhin tritt die Zeit in ihnen als ein wichtiger Parameter auf,<br />

der deutlich macht, wieso sie einen Ablauf beschreiben. Neben den Koexistenzgesetzen<br />

finden wir Gesetze, die man eher als Strukturgesetze<br />

bezeichnen kann, die ebenfalls keinen Zeitfaktor enthalten. Etwa Paulis<br />

Ausschlußprinzip, das im Rahmen der Quantenmechanik den Aufbau<br />

des Periodensystems erklärt und speziell auch erklärt, wieso gerade Edelgase<br />

chemisch besonders stabil und träge sind (s. Kitcher 1989, 428f).<br />

Bemerkenswert ist dabei, daß auch für diese Gesetze das Phänomen<br />

der Asymmetrie zu finden ist (s. dazu Schurz 1983), obwohl es in diesen<br />

Beispielgesetzen keine klar erkennbare kausale Struktur gibt. Sie deshalb<br />

alle als nichterklärend auszuschließen, ist ebenfalls keine wirkliche Option,<br />

denn damit würde man große Teile der Naturwissenschaften als<br />

nichterklärend bezeichnen. Vielmehr zeigen sie, daß es dem kausalen Erklärungsansatz<br />

nicht um wissenschaftliche Erklärungen per se geht, sondern<br />

nur um einen bestimmten Typ von Erklärungen, nämlich kausale<br />

Erklärungen, was einem „Nein“ auf die Ausgangsfrage des Kapitels<br />

gleichkommt. Natürlich können wir, um die kausale Erklärungstheorie<br />

an diesem Punkt zu retten, mit (Schurz 1983, 453ff) den Kausalitätsbegriff<br />

entsprechend erweitern und auch diese Gesetze darunter fassen,<br />

wobei die Asymmetrie in einem versteckten Sinn doch auf eine zeitliche<br />

Beziehung zurückzuführen ist. Aber das bedeutet erstens eine weitere


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 413<br />

Aufweichung und inhaltliche Entleerung des Kausalitätsbegriffs und außerdem<br />

eine Interpretation der Gesetze, die man nicht unbedingt in allen<br />

Fällen unterschreiben sollte.<br />

Zwei weitere spezielle Typen von Erklärungen, die sich ebenfalls<br />

nicht ohne eine weitere Aushöhlung des Kausalitätskonzepts in den Rahmen<br />

der kausalen Erklärung einbetten lassen, nennt Achinstein (1983,<br />

233ff). Da sind zum einen die klassifikatorischen Erklärungen, die eine<br />

Antwort auf Fragen wie: „Warum hat Eisen die Nummer 26 im Periodenssystem<br />

der Elemente?“ geben. Eine derartige Erklärung würde etwa<br />

darauf verweisen, daß die Nummern im Periodensystem anhand der<br />

Protonenzahlen im Atomkern vergeben werden und Eisen gerade 26<br />

Protonen aufweist. Einen anderen Typ von Erklärungen sieht Achinstein<br />

noch in „Identitätserklärungen“. Auf die Frage, warum auch Eis Wasser<br />

ist, könnte man z. B. antworten, daß Wasser zu sein gerade durch die Eigenschaft,<br />

aus H2O Molekülen zu bestehen, definiert ist und Eis ebenfalls<br />

aus H2O Molekülen besteht. Auch auf die Frage, warum schwerere<br />

Massen höhere Kräfte benötigen, um beschleunigt zu werden, können<br />

wir eine Erklärung anhand der Identität von schwerer und träger Masse<br />

geben, die sich ebenfalls nicht als kausale Erklärung anbietet.<br />

Angesichts der Vielzahl und Vielfältigkeit der Beispiele drängt sich<br />

der Eindruck auf, daß die kausalen Erklärungen nur eine echte Teilklasse<br />

der (wissenschaftlichen) Erklärungen ausmachen. Dieser Eindruck wird<br />

noch in zwei weiteren Bereichen bestätigt.<br />

d) Theoretische Erklärungen<br />

In Abschnitt (C.3.a) hatte ich bereits darauf hingewiesen, daß viele wissenschaftliche<br />

Erklärungen nicht Erklärungen einzelner konkreter Ereignisse<br />

sind, sondern eher Erklärungen von Phänomenen also Ereignistypen<br />

oder sogar Gesetzen. Für den Fall von Gesetzeserklärungen oder Erklärungen<br />

ganzer Theorien hat sich auch der Begriff der Reduktion eingebürgert,<br />

was uns aber nicht darüber hinwegtäuschen sollte, daß es einen<br />

kontinuierlichen Übergang zwischen Erklärungen und Reduktionen<br />

gibt, den eine Erklärungstheorie zumindest verständlich machen sollte.<br />

Man denke unter dem Stichwort der Reduktion oder „theoretischen Erklärung“<br />

etwa an Beispiele wie die Erklärung der Keplerschen Gesetze<br />

durch die Newtonschen, der Mendelschen durch die Molekulargenetik,<br />

der phänomenologischen Thermodynamik durch die statistische Mechanik,<br />

der Balmer Formel durch das Bohrsche Atommodell usf.<br />

Für die Hempelsche Erklärungstheorie ist es der Fall, daß sie für den<br />

Zusammenhang zwischen Erklärungen und Reduktionen eine hilfreiche


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 414<br />

Erläuterung zur Hand hat. Im Prinzip können wir das DN-Modell nämlich<br />

auch auf die Erklärung von Gesetzen ausdehnen. Die Keplerschen<br />

Gesetze werden dabei z. B. abgleitet aus den Gleichungen der Newtonschen<br />

Gravitationstheorie zusammen mit einigen Tatsachen über unser<br />

Sonnensystem (s. etwa Scheibe 1973). Hempel und Oppenheim (1948)<br />

sahen bei dieser Art von Ableitungen allerdings ein Problem, daß sie davor<br />

zurückschrecken ließ, nämlich die Gefahr der irrelevanten Herleitung,<br />

die allerdings, wie wir heute wissen, ebenso andere DN-Ableitungen<br />

bedroht. Man könnte das Keplersche Gesetz auch aus einer Konjunktion<br />

von Keplerschem Gesetz und einem chemischen Gesetz wie<br />

dem Kirchhoffschen Satz deduzieren. In solchen Fällen würden wir natürlich<br />

nicht von einer Erklärung sprechen, denn die setzt eine „tiefere“<br />

Theorie voraus, die sich nicht einfach als Konjunktion zweier beliebiger<br />

Gesetze erweist. Die erklärende Theorie sollte statt dessen eine „organische<br />

Einheit“ bilden, die das zu erklärende Gesetz nicht konjunktiv enthält<br />

(s. dazu IX.E.8).<br />

Anhand einer derartigen Erweiterung um eine Forderung nach organischer<br />

Einheit wäre das Hempelsche Erklärungsmodell zumindest im<br />

Prinzip in der Lage, die Erklärung von Gesetzen analog zu der Erklärung<br />

von Einzelereignissen zu beschreiben. Es bleibt allerdings noch ein Problem,<br />

auf das man dabei in der Praxis solcher Erklärungen stößt, nämlich<br />

daß alle interessanten Reduktionen aus der Physik aber auch anderen<br />

Gebieten immer approximative Reduktionen sind, die keine strengen<br />

Deduktionen gestatten. Auf den ersten Blick könnte man darin sogar<br />

eine Unterscheidung zwischen Erklärungen und Reduktionen erblicken,<br />

aber eine genauere Untersuchung ergibt, daß auch alle Einzelfallerklärungen<br />

jedenfalls für quantitative Theorien letztlich approximativen<br />

Charakter haben. Mit solchen Approximationen nicht auf überzeugende<br />

Weise fertigzuwerden, ist kein spezielles Manko des Hempelschen Ansatzes,<br />

sondern eher ein allgemeines Problem syntaktischer Darstellungen<br />

von Theorien (s. VII.C.9). 179<br />

Lassen wir das Problem der Approximationen zunächst außer Acht,<br />

kann Hempel im Prinzip erklären, wie der Übergang von Erklärungen zu<br />

Reduktionen aussieht, wenn das DN-Schema auch in der Ausgestaltung<br />

versagt. Doch was hat der Proponent kausaler Erklärungstheorien demgegenüber<br />

anzubieten? Kitcher (1989, 429ff) erörtert dazu einige Möglichkeiten,<br />

die aber alle nicht wirklich zufriedenstellen können. Der<br />

179 Die notwendigen Approximationen sind auch wiederum ein Hinweis,<br />

daß das zu erklärende Gesetz nicht einfach konjunktiv in der erklärenden Theorie<br />

enthalten ist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 415<br />

Kausalitätstheoretiker muß immer weggehen von konkreten kausalen<br />

Beziehungen, wo er sich zu Hause fühlt, zu allgemeineren Beziehungen,<br />

für die keineswegs wesentlich ist, daß ihre Instanzen kausale Relationen<br />

darstellen.<br />

e) Erklärungen in der Quantenmechanik<br />

Ein Gebiet, das ich aus Gründen der Einfachheit weitgehend ausklammern<br />

möchte, muß an dieser Stelle nun doch noch kurz zur Sprache<br />

kommen, die statistischen Erklärungen. Unser Alltagsverständnis von<br />

Kausalität ist überwiegend das eines determinierten Ablaufs, wobei Indeterminiertheiten<br />

und statistische Gesetze eher auf Unkenntnis also auf<br />

epistemische Inderterminiertheit zurückzuführen sind als auf ontologische<br />

Unbestimmtheiten. Das entspricht zunächst auch dem Salmonschen<br />

Ansatz, der sich als Hintergrund auf die Spezielle Relativitätstheorie<br />

stützt, die eine deterministische Struktur besitzt. Doch in vielen Bereichen<br />

stoßen wir auf statistische Erklärungen, die man zumindest im<br />

Prinzip in einem Erklärungsansatz berücksichtigen können muß. Seit der<br />

probabilistischen Revolution dringen statistische Hypothesen in immer<br />

größere Bereiche unseres Lebens vor. Man denke nur an die Gesellschaftswissenschaften,<br />

in denen wohl die meisten Gesetze probabilistischen<br />

Charakter haben, aber auch an einige Bereiche der Naturwissenschaften,<br />

für die schon Hempel höchstens statistische Gesetze erwartet<br />

hat. Um das in der kausalen Erklärungstheorie umsetzen zu können,<br />

müssen wir von einer deterministischen Kausalitätsvorstellung zu einer<br />

probabilistischen übergehen. Damit wird jede Kausalitätskonzeption auf<br />

eine schwere Probe gestellt, der sie sich stellen muß, will sie nicht nur<br />

längst überholte Vorstellungen von Kausalität rekonstruieren, sondern<br />

auch in den heutigen Wissenschaften eine Rolle spielen können.<br />

Dabei kann man die Bedeutung der Wahrscheinlichkeiten für die<br />

klassische Physik noch herunterspielen, denn für sie läßt sich die epistemische<br />

Interpretation von Wahrscheinlichkeitsgesetzen vertreten. Danach<br />

könnten wir z. B. in der statistischen Mechanik im Prinzip die Bahnen<br />

aller einzelner Moleküle im Rahmen der klassischen Partikelmechanik<br />

vorausberechnen, wenn wir ihre Anfangszustände nur genau bestimmen<br />

könnten und genügend Rechenkapazitäten besäßen – so lautet zumindest<br />

die klassische Vorstellung. Das zeigt, daß diese Bahnen im Sinne<br />

der klassischen Mechanik determiniert sind. Der Zustand der Welt zu einer<br />

bestimmten Zeit legt die Zustände für alle weiteren Zeiten fest. Nur<br />

da wir die „Mühe scheuen“, dieses Unterfangen der einzelnen Vorausberechnung<br />

und der Ermittlung aller Anfangswerte tatsächlich durchzufüh-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 416<br />

ren, arbeiten wir mit statistischen Beschreibungen, die einfach unseren<br />

unvollständigen Kenntnisstand wiedergeben. 180 Auf diese Art ließen sich<br />

schließlich kausale Erklärungstheorie und klassische statistische Gesetze<br />

und Erklärungen miteinander versöhnen. Salmon (1984, Kap. 6) entwikkelt<br />

zu diesem Zweck seine Theorie der kausalen Gabelungen (causal<br />

forks), mit den drei Typen „conjunctive fork“, „interactive“ und „perfect<br />

fork“, wobei die konjunktive Gabelung die wichtigste ist. Sie entspricht<br />

weitgehend dem sogenannten „Common Cause“ Modell (CC Modell)<br />

der statistischen Erklärung aus Reichenbachs The Direction of Time<br />

(1956).<br />

Dieses CC-Modell verfolgt einen elementaren Gedanken, den ich an<br />

einem Beispiel erläutern möchte. Für zwei Ereignisse A und B liegt genau<br />

dann eine positive Korrelation zwischen A und B vor, wenn gilt:<br />

P(A&B) > P(A) P(B) 181<br />

In Salmons Beispiel (1984, 161f) sind die beiden Ereignisse jeweils<br />

durch das Würfeln einer 6 mit einem von zwei Würfeln charakterisiert.<br />

Handelt es sich um faire Würfel, treten die Ereignisse A (Würfel 1 zeigt<br />

eine 6) und B (Würfel 2 zeigt eine 6) jeweils mit Wahrscheinlichkeit 1/6<br />

auf und A&B, wenn es sich beim Sechsenwerfen um voneinander unabhängige<br />

Ereignisse handelt, mit Wahrscheinlichkeit 1/36. Findet sich<br />

aber eine Korrelation zwischen den beiden Würfelergebnissen, nach der<br />

ein Pasch 6 signifikant häufiger auftritt als 1/36, stellt sich die Frage<br />

nach einer Ursache dieses Zusammenhangs. Beide Würfel enthalten vielleicht<br />

einen kleinen Magneten und der Würfeltisch einen Elektromagneten,<br />

der die Wahrscheinlichkeit für gemeinsame Sechsen stark erhöht,<br />

wenn er eingeschaltet wird (Ereignis C). Von C sagen wir dann, daß es<br />

180 Die Überlegungen über prinzipielle Unschärfen (s. VII.C.9) geben schon<br />

Hinweise, daß diese Vorstellung auch im klassischen Rahmen nicht überzeugend<br />

wirkt. Für chaotische Systeme müßten wir die Anfangsbedingungen „unendlich<br />

genau“ kennen, um eine Vorhersage abgeben zu können. Das setzt aber eine<br />

ganz unrealistische Interpretation der Theorien voraus, die Unschärfen außer<br />

Acht läßt.<br />

181 Zur Schreibweise: P(A) bezeichne die Wahrscheinlichkeit von A,<br />

P(A&B) die Wahrscheinlichkeit, daß A und B zusammen auftreten und P(A|B)<br />

die Wahrscheinlichkeit dafür, daß A auftritt, gegeben, daß B auftritt. Hier zeigt<br />

sich auch ein Zusammenhang zur statistischen Relevanzbeziehung, nach der B<br />

statistisch relevant für A ist, wenn P(A|b) P(A). Das ist äquivalent mit der Bedingung,<br />

daß eine Korrelation zwischen A und B vorliegt und im Falle P(A|B) ><br />

P(A) ist diese positiv.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 417<br />

die beobachtete Korrelation erklärt, wenn A und B bei gegebenem C<br />

wieder statistisch unabhängig werden, d.h.:<br />

(CC) P(A&B|C) = P(A|C) P(B|C)<br />

Man sagt dann auch, daß C die gemeinsame Ursache (common cause)<br />

von A und B ist. Wissen wir schon, daß der Elektromagnet an ist, können<br />

wir die Wahrscheinlichkeit für A&B wieder aus den Einzelwahrscheinlichkeiten<br />

durch Multiplikation bestimmen; es gibt also keine erklärungsbedürftige<br />

Korrelation mehr.<br />

Ein Beispiel aus der Praxis der Common-Cause-Vorstellung diskutiert<br />

van Fraassen (1980, 25ff). Zwischen starkem Rauchen und Lungenkrebs<br />

tritt eine signifikante Korrelation auf, d.h. das Auftreten von Lungenkrebs<br />

ist unter Rauchern deutlich höher als in der Gesamtbevölkerung.<br />

Eine Erklärung, die dafür naheliegt, ist das vorgängige Rauchverhalten,<br />

das sowohl zu dem heutigen Rauchverhalten wie auch dem Lungenkrebs<br />

geführt hat. Ob sie bereits die ganze Erklärung (im Sinne der<br />

vollständigen Ursache) liefert oder vielleicht andere Aspekte wie ein<br />

Gen, das für beide Neigungen verantwortlich ist – diese Alternative wurde<br />

in amerikanischen Diskussionen über die Gefahren des Rauchens von<br />

bestimmten Gruppen vertreten –, ebenfalls noch ins Spiel kommen,<br />

kann dann anhand der Gleichung (CC) im Prinzip ermittelt werden. Das<br />

ist in diesem Fall natürlich von großer praktischer Bedeutung. Wäre ein<br />

Gen der Common Cause und sowohl für die Neigung zum Lungenkrebs<br />

wie auch die zum Nikotingenuß verantwortlich, hätten wir keinen<br />

Grund mehr, mit dem Rauchen aufzuhören oder es gesetzlich einzuschränken.<br />

Das Risiko, Krebs zu bekommen, hinge in dem Fall nur von<br />

dem Gen und nicht vom Rauchverhalten ab.<br />

Das CC-Modell gestattet es, eine Reihe von statistischen Zusammenhängen<br />

zu erklären, und für Salmon sind es vor allem diese Zusammenhänge<br />

zwischen Prozessen, die die kausale Struktur unserer Welt bestimmen.<br />

In der Diskussion von Salmons Ansatz haben sich aber inzwischen<br />

eine ganze Reihe von Schwachstellen des Modells gezeigt, die seine anfängliche<br />

Plausibilität in Frage stellen. Von verschiedenen Seiten wurde<br />

etwa ein Zirkularitätsvorwurf gegen Salmons Explikationen geäußert.<br />

Kitcher erwähnt in (1985, 638), wie eng die Begriffe „Prozeß“, „kausaler<br />

Prozeß“, „Wechselwirkung“ und „Zeichen“ zusammenhängen und<br />

Dowe (1992, 200f) zeigt, daß hier eine Zirkularität der Explikation<br />

schlummert. Auch ist der Zusammenhang zwischen Ursachen und den<br />

konjunktiven Gabelungen unklar. Dowe (1992, 204ff) greift einige Beispiele<br />

von Salmon für Verursachung auf: Die Wucht des Hammers treibt


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 418<br />

ihn in das Holz; der Blitz entzündet den Wald etc. In keinem dieser Fälle<br />

ist überhaupt die Rede von einer Korrelation. Andererseits finden wir<br />

bemerkenswerte Korrelationen, die nichts mit Verursachung zu tun haben.<br />

Unsere Theorien über Moleküle erklären, daß wir denselben Wert<br />

für die Avogadrosche Zahl erhalten, ob wir sie mit Hilfe der Brownschen<br />

Bewegung ermitteln oder anhand von Röntgenbeugungsexperimenten.<br />

Die konjunktive Gabelung gestattet es, derartige Fälle zu analysieren,<br />

aber es liegen deshalb noch keine Kausalbeziehungen vor. Viele<br />

weitere Einwände in dieser Richtung zeigen deutlich, wie schwer es ist,<br />

eine zweckmäßige Explikation von probabilistischer Kausalität zu geben,<br />

die vor unserem heutigen Weltbild bestehen kann und auch auf unsere<br />

typischen Fälle von kausalen Zusammenhängen anwendbar ist.<br />

Endgültig problematisch wird diese Analyse probabilistischer Kausalität<br />

allerdings, wenn wir sie in der Quantenmechanik einsetzen wollen,<br />

die ja einen der Gründe für die große Bedeutung statistischer Analysen<br />

darstellt. Salmon ist sich der Bedeutung und Einzigartigkeit dieser Theorie<br />

voll bewußt, wenn er sagt (1989, 173): „Quantum mechanics (including<br />

quantum electrodynamics and quantum chronodynamics) has had<br />

more explanatory succcess than any other theory in the history of science.“<br />

Insbesondere wischt er auch die Konsequenzen aus der Theorie<br />

wie die Korrelationen vom „EPR-Typ“ 182 nicht leichtfertig vom Tisch,<br />

sondern unterschreibt David Mermins Einschätzung, daß „anyone who<br />

isn’t worried about this problem has rocks in their head“ (Salmon 1989,<br />

186). In den von der Quantenmechanik beschriebenen Situationen vom<br />

EPR-Typ ist die Common-Cause Konzeption aber nicht anwendbar, was<br />

auch Salmon zugibt.<br />

Eine sehr sorgfältige Analyse, der hier auftretenden Probleme findet<br />

sich bei van Fraassen (1991, 81ff) 183 . Die formale Rekonstruktion der<br />

EPR-Situationen durch van Fraassen kann ich hier nicht aufgreifen, sondern<br />

nur die inhaltlichen Ergebnisse informell erörtern. Auf Situationen<br />

dieses Typs ist man zwar erstmalig innerhalb der Quantenmechanik in<br />

dem berühmten Aufsatz von Einstein, Podolsky und Rosen aufmerksam<br />

geworden, sie lassen sich aber unabhängig von der Quantenmechanik<br />

beschreiben und inzwischen sogar experimentell realisieren. Das zeigt,<br />

daß sie nicht nur exotische Konsequenzen einer vielleicht doch nicht in<br />

allen Aspekten korrekten Theorie sind, sondern Merkmale unserer Welt,<br />

182 „EPR“ bezieht sich auf Situationen des Typs, die in dem berühmten<br />

Aufsatz von Einstein-Podolsky-Rosen (1935) beschrieben werden und unter dem<br />

Namen EPR-Paradoxon bekannt geworden sind.<br />

183 Und schon in van Fraassen (1982).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 419<br />

mit denen eine Kausalitätstheorie umzugehen hat. Um diese Situationen<br />

zu veranschaulichen, möchte ich nicht nur abstrakt über diese Situationen<br />

sprechen, sondern anhand einer stark vereinfachten Skizze realistischer<br />

Beispiele.<br />

Man denke dazu an Elektronen oder Photonen, die aus einer gemeinsamen<br />

Quelle in zwei entgegengesetzte Richtungen ausgesandt werden.<br />

An zwei entfernten Stellen werden dann ihre jeweiligen Spins bestimmt.<br />

Dabei ergibt sich – entsprechend dem Gesetz der Erhaltung des<br />

Drehimpulses – eine perfekte Korrelation, nach der die beiden Teilchen<br />

immer entgegengesetzten Spin aufweisen. Nehmen wir als zusätzliche<br />

genauere Beschreibung des Phänomens zur perfekten Korrelation noch<br />

die Lokalitätsbedingung hinzu, die man auch experimentell überprüfen<br />

kann, daß der Ausgang des Experiments auf der einen Seite unabhängig<br />

davon ist, ob ich auf der anderen Seite auch eine Messung vornehme.<br />

Dann erhalten wir eine Situation, die sich nach van Fraassen nur in ein<br />

„kausales Modell“ einbetten läßt, wenn gewisse empirische Annahmen<br />

zutreffen, die durch die Bellschen Ungleichungen 184 beschrieben werden.<br />

Um diesen Gedanken besprechen zu können, stellt sich zunächst<br />

die Frage, was dabei unter einem „kausalen Modell“ zu verstehen ist. Zu<br />

diesem Zweck nennt van Fraassen (1991, 89) drei Bedingungen, die<br />

kausale Modelle charakterisieren sollen 185 . Die wesentlichste ist die Forderung<br />

nach einer gemeinsamen Ursache für unsere Korrelation, die die<br />

beiden Meßergebnisse gegeneinander abschirmt, die auch van Fraassen<br />

für eine Art von Minimalbedingung für Kausalität hält. Dazu kommen<br />

zwei weitere Lokalitätsbedingungen, die besagen, daß die gemeinsame<br />

Ursache (als zeitlich vorgängiges Ereignis) nicht von den Messungen beeinflußt<br />

wird und auch bei gegebenem „Common-Cause“ die oben genannte<br />

Lokalität erhalten bleibt (sonst würde eine Trivialisierung möglich,<br />

indem man als gemeinsame Ursache einfach die Konjunktion der<br />

Meßergebnisse wählt).<br />

Sind diese fünf Bedingungen erfüllt (die zwei, die das Phänomen beschreiben<br />

und die drei, die uns sagen, was ein kausales Modell für das<br />

Phänomen sein soll), lassen sich, ohne die Quantenmechanik bemühen<br />

zu müssen, die auf Bell (1964 und 1966) zurückgehenden Ungleichungen<br />

für bestimmte konditionale Wahrscheinlichkeiten ableiten. Die Ungleichungen<br />

der Wahrscheinlichkeiten sind aber einer experimentellen<br />

184 Die Ungleichungen finden sich an verschiedenen Stellen bei van Fraassen<br />

(1991), z. B. auf S. 93.<br />

185 Das sind die Bedingungen, die aus der Diskussion von EPR-Situationen<br />

bekannt sind.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 420<br />

Überprüfung zugänglich, und wir können also testen, ob die Welt tatsächlich<br />

so ist, wie es aus unserer Forderung nach einem kausalen Modell<br />

folgen würde. Das EPR-Paradox sagt uns, daß die Quantenmechanik<br />

diese Behauptung verneint, aber es ist erst in den letzten Jahrzehnten<br />

insbesondere in den Experimenten von Aspect und anderen (z. B. 1982<br />

und 1985) gelungen zu demonstrieren, daß das nicht nur eine exzentrische<br />

Konsequenz der Quantenmechanik ist, sondern daß die Verletzung<br />

der Bellschen Ungleichungen auch experimentell bestätigt werden kann.<br />

Intuitiv widerlegen die experimentellen Resultate unsere Anfangsvermutung,<br />

der jeweilige Spin der Teilchen wäre schon in der Abstrahlungsquelle<br />

festgelegt worden. Ein solcher Common Cause für die perfekte<br />

Korrelation ist mit der Quantenmechanik und den Aspect Ergebnissen<br />

nicht vereinbar. Das belegt, daß sich unsere präzisierten Vorstellungen<br />

von Kausalität auf diese Systeme nicht anwenden lassen, obwohl wir<br />

auch nicht sagen möchten, es handele sich um nichtkausale Zusammenhänge.<br />

Dabei ist „experimentelle Überprüfung“ natürlich immer mit den<br />

Problemen und Risiken behaftet, die Duhem schon genannt hat, wonach<br />

wir uns jeweils auf andere Theorien unseres Hintergrundwissens zu stützen<br />

haben; sie ist daher natürlich mit der entsprechenden Vorsicht zu bewerten.<br />

Gleichwohl haben wir alle Gründe für die angegebenen Beschreibungen<br />

auf unserer Seite und der bloße Hinweis, daß wir zur<br />

Interpretation der Messungen immer auf andere Annahmen angewiesen<br />

sind, die vielleicht falsch sein könnten, trägt kaum zur Rettung der kausalen<br />

Modelle bei.<br />

Also haben wir wiederum einen grundlegenden Phänomenbereich<br />

gefunden, für den wir zwar über exzellente wissenschaftliche Darstellungen<br />

in Form der Quantenmechanik verfügen, der sich aber nicht in ein<br />

kausales Modell, noch nicht einmal ein statistisches vom Typ CC, einbetten<br />

läßt. Die Forderung nach einem „Common Cause“ stößt spätestens<br />

hier an eine Grenze. Salmon erwägt noch zwei Hypothesen, um seine<br />

Kausalitätsvorstellung mit den EPR-Situationen zu versöhnen. Die erste<br />

ist die Aufgabe der Lokalitätsvorstellung und die Annahme einer Fernwirkung<br />

(Salmon 1984, 250ff). Allerdings ist die Annahme einer derartigen<br />

Fernwirkung relativ ad hoc, und es gibt keine empirischen Hinweise<br />

auf Fernwirkungen. Gerade für Salmon würde dieser Weg auch eine weitere<br />

Aufweichung seiner Vorstellung von Kausalität bedeuten, weil damit<br />

eine wesentliche Eigenschaft der kausalen Übertragung in der Relativitätstheorie<br />

aufgegeben würde und man für Fernwirkungen nicht mehr in<br />

einem anspruchsvollen Sinn des Wortes von einem kausalen Prozeß der<br />

Übertragung sprechen könnte. Die zweite Brückenhypothese, die Sal-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 421<br />

mon (1984, 256ff) in Betracht zieht, ist eine holistische Sicht physikalischer<br />

Systeme mit „remote conservation“, aber sie wird auch nicht weiter<br />

ausformuliert, so daß Salmon das Gebiet der Erklärungen in der<br />

Quantenmechanik weitgehend unverrichteter Dinge verlassen muß.<br />

Wie ausgesprochen schwierig es ist, eine statistische Theorie der<br />

Kausalität zu entwerfen, dokumentiert auch ein Beispiel von Michael<br />

Tooley. Eine geradezu minimale Anforderung an die Ursache U einer<br />

Wirkung E scheint zu sein, daß U die konditionale Wahrscheinlichkeit<br />

von E erhöht:<br />

P(W,U) > P(W)<br />

Doch selbst diese harmlose Bedingung (Suppes spricht davon, daß U in<br />

diesem Fall prima facie Ursache von W sei) hat antiintuitive Konsequenzen.<br />

Tooley (1987, 234f; Sosa/Tooley 1993, 20f) erläutern das an folgendem<br />

Fall: Nehmen wir an, es gäbe zwei Krankheiten A und B, wobei A<br />

mit Wahrscheinlichkeit 0,1 zum Tode führt und B mit 0,8. Jede der<br />

Krankheiten würde einen aber auf Dauer gegen die andere immunisieren.<br />

Außerdem sei die Wahrscheinlichkeit, die unangenehme Erkrankung<br />

B zu bekommen gerade ½. Wenn wir einmal von anderen Risikofaktoren<br />

absehen, wäre die unkonditionale Wahrscheinlichkeit zu sterben<br />

mindestens 0,4 — allein durch die Möglichkeit an B zu erkranken<br />

und daran zu sterben. Wenn jetzt aber jemand A bekommt, sinkt seine<br />

Sterbewahrscheinlichkeit auf 0,1, da ihm nun jedenfalls B erspart bleibt.<br />

Sollte diese Person dann an A sterben, war die Infizierung mit A die Ursache<br />

seines Todes, obwohl es seine Sterbewahrscheinlichkeit nur herabgesetzt<br />

hat. Mit rein statistischen Mitteln scheinen wir dem Ursachenkonzept<br />

nicht so einfach beizukommen.<br />

Das grundsätzliche Problem kausaler Theorien und speziell von Salmons<br />

Ansatz, die zwei folgenden Anforderungen unter einen Hut zu<br />

bringen, ist daher nicht gelöst worden. Erstens eine gehaltvolle Analyse<br />

von Kausalität anzugeben, die auf der einen Seite möglichst alle Fälle beinhaltet,<br />

in denen wir üblichererweise von Kausalität sprechen, die aber<br />

auf der anderen Seite noch Informationen liefert, die über eine Humesche<br />

Analyse hinausgehen und eine gewisse Substanz besitzen. Zweitens<br />

eine Explikation zu erbringen, die sich nicht kurzerhand auf geheimnisvolle<br />

Notwendigkeiten in der Natur stützt, sondern auf Zusammenhänge,<br />

die kohärent in unser heutiges Weltbild einzubetten sind und auf die<br />

wir daher auch in Erklärungen tatsächlich bezug nehmen können. Dazu<br />

beruft sich Salmon auf die Kausalitätsvorstellung der speziellen Relativitätstheorie,<br />

zumal diese unseren intuitiven Konzeptionen von Kausalität


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 422<br />

wohl am nächsten kommt. Damit kann er zwar gehaltvolle Aussagen<br />

über Kausalität aufstellen – wenn auch keinesfalls unkontroverse, wie<br />

wir gesehen haben –, aber er ist dann auch auf eine bestimmte Vorstellung<br />

von Kausalität festgelegt, die sich für viele Bereiche als unangemessen<br />

erweist. Sie beinhaltet die Konzeption raumzeitlich kontinuierlicher<br />

Vorgänge und ist weitgehend deterministisch. Daran ändert letztlich<br />

auch Salmons Theorie der Gabelungen nichts Wesentliches, denn auch<br />

diese ist nur anwendbar, wenn die Vorgänge eigentlich deterministisch<br />

sind (s. van Fraassen 1991, 85). Versuche, dennoch eine Versöhnung von<br />

Kausalität mit tatsächlich probabilistischen Vorgängen zu erreichen, wie<br />

die genannten von Salmon oder andere von Cartwright (1988), haben<br />

zunächst einen gewissen ad hoc Charakter und entfernen sich immer<br />

stärker von unserem gewöhnlichen Kausalitätsbegriff, wodurch Kausalität<br />

als eine zunehmend uninteressantere Beziehung erscheinen muß. Im<br />

nächsten Abschnitt möchte ich der Vermutung, daß dieses Problem unlösbar<br />

sein könnte, weitere Gründe hinzufügen.<br />

f) Eine deflationäre Theorie der Kausalität<br />

Was berechtigt uns dazu, in bestimmten Fällen das Vorliegen einer Kausalbeziehung<br />

zu vermuten, und warum geht diese Vermutung über die<br />

beobachteten Regularitäten oder gesetzesartigen Verknüpfungen hinaus?<br />

Van Fraassen argumentiert in (1980) und einer Reihe anderer Arbeiten<br />

für seine empiristische Wissenschaftskonzeption, die er als konstruktiven<br />

Empirismus bezeichnet. Dessen hervorstechendstes Merkmal ist sein wissenschaftlicher<br />

Antirealismus und, man muß wohl sagen, eine letztlich<br />

instrumentalistische Interpretation der Wissenschaft. 186 Der möchte ich<br />

mich nicht anschließen, aber doch einem anderen Aspekt der van Fraassenschen<br />

Wissenschaftsauffassung, nämlich seiner skeptischen Einschätzung<br />

von Kausalität, die man eine Art von deflationärem Verständnis der<br />

Kausalität nennen könnte. Es drückt sich aus in einem „Definitionsvorschlag“<br />

(van Fraassen 1980, 124):<br />

the causal net = whatever structure of relations science describes<br />

Van Fraassens Begründung für eine so stark verwässerte Konzeption der<br />

von Philosophen geliebten Kausalität, stützt sich auf seine Untersuchungen<br />

zur Quantenmechanik. Dazu möchte ich noch einige allgemeinere<br />

186 Van Fraassen ist ein wenig vorsichtiger als die klassischen Instrumentalisten,<br />

weil er nicht behauptet, es gäbe keine theoretischen Entitäten, sondern<br />

„nur“ eine agnostische Haltung ihnen gegenüber empfiehlt, aber das macht ihn<br />

aus der Sicht eines Realisten auch nicht schöner.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 423<br />

Überlegungen hinzufügen. Seit Humes Kritik am Kausalitätskonzept gibt<br />

es eine philosophische Diskussion um den Kausalitätsbegriff mit zahlreichen<br />

Explikationsvorschlägen. Insbesondere Regularitätskonzeptionen<br />

von Kausalität, wie man sie schon bei Hume findet, und hierhin rechne<br />

ich auch Vorschläge (Hempel, Stegmüller), die Kausalität über bestimmte<br />

Ablaufgesetze definieren wollen, passen eigentlich zu der von<br />

van Fraassen geäußerten Vorstellung. Für bestimmte Regularitäten, die<br />

von den Wissenschaften als zeitliche Prozesse beschrieben werden,<br />

spricht man dann von kausalen Beziehungen. Diese minimale Forderung<br />

an kausale Vorgänge kann man kaum tadeln und einem entsprechenden<br />

Verständnis von Kausalität möchte auch ich mich anschließen. Problematisch<br />

wird der Kausalitätsbegriff erst dort, wo zusätzlich eine Form von<br />

Notwendigkeit in der Natur und nicht nur in unseren Beschreibungen<br />

behauptet wird. 187 Der deflationäre Kausalitätsbegriff faßt dagegen einfach<br />

Ablaufgesetze unter dem Stichwort der Kausalität zusammen, ohne<br />

damit die Behauptung zu verbinden, hiermit werde eine besondere Relation<br />

zwischen Ereignissen beschrieben, die sich durch gemeinsame relationale<br />

Eigenschaften von anderen Beziehungen zwischen Ereignissen<br />

abgrenzen lassen. Oder anders ausgedrückt, es wird mit „Kausalität“<br />

nicht eine substantielle Eigenschaft in der Natur bezeichnet, sondern nur<br />

gewisse Ähnlichkeiten von Ablaufgesetzen, die die Wissenschaft aufstellt.<br />

In unseren Common Sense Theorien der Welt finden wir Konzeptionen<br />

von Kausalität, die auch von Philosophen aufgegriffen wurden, wonach<br />

Ereignisse oder Gegenstände andere Ereignisse in ihrer näheren<br />

Umgebung mit Hilfe ihrer kausalen Eigenschaften notwendig hervorbringen<br />

können. Diese Konzeption ist häufig deterministisch zu verstehen.<br />

Kant nahm sogar an, daß wir eine Vorstellung eines deterministischen<br />

kausalen Zusammenhangs in der Welt annehmen müssen, um die<br />

vielfältigen Erscheinungen unserer Erfahrung überhaupt in eine verständliche<br />

Ordnung bringen zu können. Die Entwicklung unseres Bildes<br />

der Welt hat unter dem Eindruck der Naturwissenschaften aber eine<br />

Weiterentwicklung in einer anderen Richtung erfahren, und ich möchte<br />

kurz resümieren, welche inhaltlichen Vorstellungen wir eigentlich mit<br />

der Kausalbeziehung noch verbinden können. Einen ersten Einblick bieten<br />

dazu die kausalen Rahmentheorien, die in der Physik verwendet<br />

werden, innerhalb derer spezielle physikalische Theorien angesiedelt<br />

sind.<br />

Da ist zunächst die klassische Physik, die stark durch mechanistische<br />

Vorstellungen geprägt ist und geradezu das wissenschaftliche Gegen-<br />

187 Wogegen van Fraassen auch explizit in (1977) argumentiert.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 424<br />

stück unserer Common Sense Theorien der Kausalität zu sein scheint.<br />

Doch die Newtonsche Mechanik entpuppt sich bei genauerem Hinsehen<br />

überraschenderweise als nicht so intuitiv und leichtverständlich wie zunächst<br />

angenommen. Zunächst beinhaltet Newtons Gravitationstheorie<br />

die ihm auch selbst suspekten unmittelbaren Fernwirkungen. Danach übt<br />

ein Körper eine Wirkung auf einen sehr entfernten Körper ohne Zeitverzögerung<br />

und ohne Vermittlung eines dazwischenliegenden Mediums<br />

aus. Hierfür finden wir kaum ein plausibles Modell in unserem Alltagsverständnis<br />

einer kausal strukturierten Welt. Das paßt auch genaugenommen<br />

nicht recht in eine konsequente mechanistische Vorstellung der<br />

Welt, wie sie etwa noch von Descartes intendiert war. Wenn man von<br />

den Gravitationskräften einmal absieht, verhält sich die klassische Mechanik<br />

jedoch überwiegend gutartig. Sie wurde lange Zeit auch für eine<br />

deterministische Theorie gehalten, was sich allerdings als falsch erwies,<br />

wie Earman (1986, 32ff; 1989,177f) anhand der sogenannten „invaders<br />

from infinity“ zeigen konnte. Allerdings hat sie eine deterministische<br />

Gestalt, solange man nur kausal isolierte und beschränkte Raum-Zeit-<br />

Gebiete betrachtet, was ich als lokale Determiniertheit bezeichne. Besser<br />

steht es da schon um die Spezielle Relativitätstheorie, die weder Fernwirkungen<br />

gestattet, noch entsprechende Verletzungen des Determinismus<br />

aufweist. Diese Gutartigkeit der speziellen Relativitätstheorie und ihre<br />

Nähe zu unseren intuitiven Konzeptionen von Kausalität mag das Motiv<br />

sein, das Salmon (1984) bewog, diese Theorie als Hintergrund für seine<br />

Vorstellung von Kausalität und Erklärung zu wählen, wobei er allerdings,<br />

bestimmte statistische Formen von Kausalität mit einzubeziehen<br />

versuchte. In der allgemeinen Relativitätstheorie sind zwar keine Fernwirkungen<br />

zugelassen, aber durch sogenannte Singularitäten in der<br />

Raum-Zeit-Mannigfaltigkeit entsteht auch hier eine Indeterminiertheit<br />

des Weltgeschehens durch die vorherigen Weltzustände. In den Singularitäten<br />

nimmt die Raum-Zeit-Metrik unendliche Werte an, aber eine genauere<br />

Bestimmung, worum es sich dabei handelt, ist an dieser Stelle<br />

nicht möglich. 188 Die Existenzsätze für Singularitäten von Hawking und<br />

Penrose zeigen jedenfalls, daß man dieses Phänomen zumindest im großen<br />

Maßstab ernst zu nehmen hat, obwohl es lokale Bereiche gibt, in denen<br />

sich die allgemeinrelativistischen Theorien deterministisch verhalten.<br />

Endgültig scheitern müssen unsere intuitiven Kausalitätsvorstellungen<br />

im Fall der Quantenmechanik. Sie ist die erste genuin statistische<br />

188 Siehe Earman (1989, 185ff) und z. B. Hawking/Ellis (1973) über Singularitäten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 425<br />

Theorie unter den angeführten Theorien. Hier ist kaum der geeignete<br />

Ort für eine ausführlichere Diskussion der Quantenmechanik, aber einige<br />

Anmerkungen sollen dennoch folgen. Viele Interpretationsprobleme<br />

der Quantenmechanik ranken sich um ihre bekannten Paradoxien insbesondere<br />

das Einstein-Podolsky-Rosen Paradox. Sein Widerstand gegen<br />

eine verständliche Interpretation der Theorie hat sogar dazu geführt,<br />

daß es auch Vorschläge gibt, die Quantenmechanik wieder als eine Fernwirkungstheorie<br />

zu denken (s. o.). Eindeutig ist jedenfalls, daß es sich<br />

bei ihr um eine nicht deterministische Theorie handelt (s. z. B. Earman<br />

1986, 226ff). Ein geradezu paradigmatisches Beispiel für einen indeterministischen<br />

Prozeß ist der radioaktive Zerfall. Für ein einzelnes Radium<br />

Atom ist nicht festgelegt, wann es tatsächlich zerfällt. Man kann bestenfalls<br />

Wahrscheinlichkeiten für bestimmte Zeiträume angeben. Die Schrödingersche<br />

-Funktion beschreibt die zeitliche Entwicklung eines quantenmechanischen<br />

Zustands zwar in deterministischer Weise, aber jeder<br />

derartige Zustand bietet selbst wiederum nur eine Wahrscheinlichkeitsverteilung<br />

für alle meßbaren Größen eines quantenmechanischen Systems<br />

an. Dazu kommt noch, daß die Schrödingergleichung den Meßprozeß<br />

selbst nicht beschreiben kann, so daß dieser der deterministischen<br />

Entwicklung der Wahrscheinlichkeiten noch zusätzlich einen<br />

Strich durch die Rechnung macht. Eine Tabelle soll noch einmal im<br />

Überblick zeigen, wie heterogen die gerade betrachteten Kausalitätsvorstellungen<br />

sind.<br />

Einige Kausalitätsvorstellungen in der Physik<br />

Fernwirkungen<br />

deterministisch<br />

lokal/global<br />

probabilistische<br />

Gesetze<br />

klassische Mechanik ja ja/nein nein<br />

Spezielle<br />

Relativitätstheorie<br />

nein ja/ja nein<br />

Allgemeine<br />

Relativitätstheorie<br />

nein (ja)/nein nein<br />

Quantenmechanik unbestimmt nein/nein ja<br />

Das Dilemma des Kausalitätstheoretikers läßt sich damit noch einmal so<br />

formulieren: Jede Kausalitätstheorie muß sich entweder einer dieser<br />

Konzeptionen anschließen und damit viele Beispiele aus anderen Bereichen<br />

ausschließen, oder sie ist so allgemein abzufassen, daß sie diese he-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 426<br />

terogenen Bereiche gleichermaßen beinhaltet, was nur durch entsprechende<br />

Inhaltslosigkeit des Kausalitätskonzepts zu erreichen ist. Folgt<br />

man van Fraassen, hat eine nicht-deflationäre Kausalitätstheorie sogar<br />

mit noch größeren Problemen zu kämpfen als dem, welche Kausalitätsvorstellung<br />

sie wählen sollte. Die Quantenmechanik erlaubt, wie ich im<br />

vorigen Abschnitt erläutert habe, keine Vorstellung von Kausalität, die<br />

diesen Namen noch verdienen würde, auch keine statistische. Die Bedeutung<br />

der Quantenmechanik für die Brauchbarkeit einer Kausalitätskonzeption<br />

dürfen wir auch nicht unterschätzen. Die Quantenmechanik<br />

ist in dem heutigen physikalischen Weltbild nicht eine Theorie unter vielen,<br />

sondern die Theorie mit dem umfangreichsten Anwendungsbereich<br />

aller bisherigen Theorien und dem kleinsten Unschärfebereich. Allein<br />

die Quantenmechanik gibt daher schon Anlaß zu der Behauptung, daß<br />

wir keine umfassende adäquate Kausalitätstheorie entwickeln können<br />

und daß eine kausale Erklärungstheorie immer nur einen Teilbereich unserer<br />

Erklärungskonzeption darstellen kann.<br />

Der Vorschlag, die objektive Relevanzbeziehung zwischen Explanans<br />

und Explanandum als die von Ursache und Wirkung zu kennzeichnen,<br />

stößt also auf eine ganze Reihe von Problemen. Zunächst finden wir<br />

eine Vielzahl von Erklärungstypen, die zumindest keine typischen Kausalerklärungen<br />

darstellen. Hier sind es eher strukturelle Merkmale einer<br />

Situation, die dadurch erklärt werden, daß sie Instanzen eines Modells<br />

sind. Wollten wir diese Beispiele mit unter den Kausalbegriff subsumieren,<br />

wären wir gezwungen ihn sehr zu liberalisieren, was mit einem weiteren<br />

Substanzverlust verbunden wäre, gleichgültig, wie wir die Kausalbeziehung<br />

zu explizieren gedenken. Außerdem erweist sich das Kausalitätskonzept<br />

als nicht sehr inhaltsreich, wenn wir es nicht im Rahmen<br />

überholter mechanistischer Konzeptionen kombiniert mit metaphysischen<br />

Annahmen wie der eines notwendigen Zusammenhangs explizieren<br />

wollen, sondern in Einklang mit heutigen naturwissenschaftlichen<br />

Vorstellungen von Kausalität. Je allgemeiner wir Kausalität aber fassen,<br />

um damit möglichst viele Fälle von Ursache-Wirkungs Beziehungen zu<br />

erreichen, um so weniger ist sie noch geeignet, wesentliche von unwesentlichen<br />

Zusammenhängen zu unterscheiden. So stoßen wir auf viele<br />

statistische Korrelationen, für die keine Kausalbeziehungen vermuten<br />

und umgekehrt auf viele Kausalbeziehungen, die sich nicht als Korrelationen<br />

beschreiben lassen.<br />

Ein weiterer Punkt, der bisher nicht zur Sprache kam, weil bereits<br />

die Explikation von „Kausalität“ für eine Erklärungstheorie auf schier<br />

unüberwindliche Hindernisse stößt, ist das umgekehrte Phänomen, daß


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 427<br />

die Kausalbeziehung nicht nur üblicherweise zu eng gefaßt ist, um alle<br />

Beispiele von Erklärungen zu erfassen, sondern auch nicht hinreichend<br />

spezifisch ist, um immer Erklärungen zu liefern. Dazu ein Beispiel von<br />

Lipton (1991, 34ff), der sich selbst allerdings trotz der zahlreichen<br />

Schwächen dem kausalen Erklärungsmodell verschreibt, weil er keine<br />

bessere Alternative sieht. 189 Die kausale Vorgeschichte der meisten Ereignisse<br />

ist sehr lang und zahllose Aspekte und Teile dieser Geschichte<br />

können kaum zu Erklärungszwecken herangezogen werden. Insbesondere<br />

gehört der „Big Bang“ zur Vorgeschichte jedes anderen Ereignisses,<br />

aber natürlich würden wir uns in den meisten Fällen kaum mit der Auskunft:<br />

„Das kommt alles vom Big Bang“, zufriedengeben und annehmen,<br />

man hätte uns damit eine Erklärung für ein bestimmtes Ereignis<br />

präsentiert. Um die erklärungsrelevanten von den nicht relevanten Ursachen<br />

eines Ereignisses zu unterscheiden, formuliert Lipton (1991, 43ff)<br />

seine „Difference Condition“ in Anlehnung an Mill. Die stellt sicherlich<br />

eine wichtige Ergänzung jeder kausalen Erklärungskonzeption dar, bleibt<br />

aber an einigen Stellen selbst noch explikationsbedürftig.<br />

E. Resümee<br />

Neben den erkenntnistheoretischen Funktionen, die ich für Erklärungen<br />

in den ersten Kapiteln reserviert habe, dienen sie vor allem dazu, unser<br />

Verständnis der zu erklärenden Phänomene zu befördern. Das akzeptierte<br />

schon Hempel, der mit seinem DN-Schema die erste ausgearbeitete<br />

Erklärungstheorie vorgelegt hat, die für die Diskussion um wissenschaftliche<br />

Erklärungen seitdem das Paradigma darstellte, gegen das sich<br />

andere Vorschläge zu bewähren haben. Im Laufe der Jahre stellten sich<br />

allerdings so zahlreiche Anomalien ein, daß es aussichtslos erscheint, das<br />

DN-Schema mit kleineren Korrekturen wiederbeleben zu wollen. Die erste<br />

Gruppe solcher Schwierigkeiten betraf eine seiner wenigen wirklich<br />

substantiellen Forderungen, nämlich der nach einem Naturgesetz im Explanans.<br />

Trotz wiederholter Versuche gelang es nicht, eine befriedigende<br />

Auszeichnung von Naturgesetzen vor anderen Aussagen vorzunehmen<br />

und daneben trat noch das Problem auf, daß viele Erklärungen auch<br />

ohne Gesetzesprämisse auszukommen scheinen. Außerdem konnten andere<br />

metatheoretische Phänomene wie die der Erklärungsasymmetrie im<br />

189 Achinstein (1992) weiß einige überzeugende Kritiken zu Lipton vorzutragen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 428<br />

Rahmen der DN-Konzeption nicht behandelt werden, so daß Erklärungstheorien<br />

in anderen Richtungen gesucht wurden.<br />

Eine hilfreiche Ergänzung aller anderen Konzeptionen stellen die<br />

pragmatischen Ansätze dar, die zeigen, wie bestimmte pragmatische Faktoren<br />

der Erklärungssituation darauf Einfluß nehmen können, wonach<br />

genau gefragt wird. Doch der harte Kern einer Erklärungstheorie sollte<br />

weiterhin in objektiven Beziehungen zwischen Explanans und Explanandum<br />

zu suchen sein. Dazu kam die prominenteste kausale Erklärungstheorie<br />

zu Wort, für die der gesuchte objektive Zusammenhang gerade<br />

in dem von Ursache und Wirkung besteht. Doch auch sie weist zu viele<br />

Anomalien auf, um wirklich überzeugen zu können. Jede heute noch akzeptable<br />

Konzeption von Kausalität sieht sich vor dem unüberwindlichen<br />

Dilemma, daß sie auf der einen Seite so liberal gehalten sein muß,<br />

die meisten gewöhnlichen Fälle von Erklärungen miteinzubeziehen, aber<br />

auf der anderen Seite so substantielle Forderungen enthalten sollte, daß<br />

sie nicht als deflationäre Kausalitätstheorie à la van Fraassen endet.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 429<br />

IX Erklärung als Vereinheitlichung<br />

Da sich der Vorschlag, Erklärungen als Angabe von Ursachen zu betrachten,<br />

als nicht besonders erfolgversprechend erwiesen hat, möchte ich<br />

noch einmal an die wesentliche Aufgabe von Erklärungen in der Kohärenztheorie<br />

der epistemischen Rechtfertigung (KTR) erinnern, um einen<br />

anderen Ansatz zu konzipieren. Für die Kohärenztheorie haben Theorien<br />

vor allem die Aufgabe, mit Hilfe von Erklärungen wichtige inferentielle<br />

Zusammenhänge zwischen unseren Überzeugungen herzustellen.<br />

Genau diesen Aspekt betonen die Vereinheitlichungsansätze in der Erklärungsdebatte.<br />

Ihnen geht es in erster Linie um die systematisierende und<br />

vereinheitlichende Wirkung von Erklärungen, die für sie mit ihrer Erklärungskraft<br />

korreliert ist. Auch in diesem Ansatz versucht man, eine personen-<br />

und kontextunabhängige Relevanzbeziehung zu etablieren, die<br />

den harten Kern von Erklärungsbeziehungen ausmachen soll. Während<br />

Theorien und ihre kohärenzstiftende Funktion für pragmatische und<br />

kausale Ansätze nur eine untergeordnete Rolle spielten und von den jeweiligen<br />

Vertretern kaum thematisiert wurde, stehen sie für die Vereinheitlichungskonzeptionen<br />

im Vordergrund. Doch dabei besteht keineswegs<br />

Einmütigkeit darüber, was unter „Vereinheitlichung“ zu verstehen<br />

ist. Zwei vieldiskutierte Vorschläge, die in unterschiedliche Richtungen<br />

zielen, sollen den Ausgangspunkt eines Verständnisses von Vereinheitlichung<br />

bilden.<br />

A. Friedmans Vereinheitlichung der Phänomene<br />

Ein erster konkreter Ansatz zur Analyse von Vereinheitlichung ist der<br />

Michael Friedmans aus dem Jahre 1974. 190 Es finden sich zwar auch bei<br />

Hempel bereits vereinzelt Bemerkungen zur großen Bedeutung der Systematisierungsleistung<br />

von Theorien, aber als einzigen wirklichen Vorläufer<br />

für seine Konzeption weiß Friedman (1988, 185) nur William<br />

190 Im folgenden werde ich mich auf die deutsche Übersetzung (1988) beziehen,<br />

zumal sich in Schurz (1988) bereits ein Teil der Diskussion um diesen<br />

Ansatz finden läßt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 430<br />

Kneale zu nennen. 191 Wie schon erwähnt, verweist Friedman (1988,<br />

172ff) zunächst darauf, daß wir in den Wissenschaften im Normalfall<br />

nicht Einzelereignisse, sondern vornehmlich Phänomene also allgemeinere<br />

Regularitäten oder sogar Gesetze erklären. Für Friedman besteht dabei<br />

eine Vereinheitlichung unseres Wissens vor allem in einer Reduzierung<br />

einer Vielzahl von Phänomenen auf wenige Gesetze.<br />

Sein Beispiel dafür ist die kinetische Gastheorie, die etwa erklären<br />

kann, daß Gase approximativ dem Boyle-Charlesschen Gesetz gehorchen.<br />

Wäre das die einzige Leistung der kinetischen Gastheorie, könnte<br />

man zu Recht fragen, warum wir sie überhaupt einführen und es nicht<br />

schlicht beim Boyle-Charlesschen Gesetz belassen. Forderungen nach<br />

theoretischer oder ontologischer Sparsamkeit würden das jedenfalls implizieren.<br />

Friedmans Antwort (1988, 184) ist eindeutig: Die kinetische<br />

Gastheorie erklärt neben dem Boyle-Charlesschen Gesetz eine ganze<br />

Reihe von anderen Phänomenen wie das Grahamsche Diffusionsgesetz<br />

und eine Reihe von Phänomenen spezifischer Wärmekapazitäten. Außerdem<br />

stiftet sie neue Verbindungen, die ohne die kinetische Gastheorie<br />

nicht sichtbar waren, zwischen dem Verhalten von Gasen und vielen mechanischen<br />

Erscheinungen, die wir schon kennen. Sie wirkt daher eindeutig<br />

kohärenzstiftend, 192 indem sie inferentielle Zusammenhänge dieser<br />

Art herstellt. Für Friedman ist das auch der entscheidende Schritt zu<br />

einem wissenschaftlichen Verständnis:<br />

Wieder haben wir eine Vielzahl von unerklärten und unabhängigen<br />

Phänomenen auf eines reduziert. Ich behaupte, daß dies jene entscheidende<br />

Eigenschaft von wissenschaftlichen Theorien ist, nach<br />

der wir suchen; dies ist das Wesen von wissenschaftlicher Erklärung<br />

– Wissenschaft erhöht unser Verständnis der Welt durch Reduktion<br />

der Gesamtzahl von unabhängigen Phänomenen, die wir als grundlegend<br />

bzw. gegeben akzeptieren müssen. (Friedman 1988, 185)<br />

Werfen wir nun einen Blick darauf, wie Friedman versucht, das bisher<br />

skizzenhaft vorgestellte Programm in eine konkretere Konzeption von<br />

Vereinheitlichung umzusetzen. Friedman nennt die Menge der akzeptierten<br />

gesetzesartigen Sätze „K“. Die soll deduktiv abgeschlossen (in bezug<br />

auf gesetzesartige Aussagen) sein. Das Problem, um das es ihm geht, ist<br />

191 Meines Erachtens sind hier jedoch auch Mill, in jedem Fall aber Whewell<br />

(1967) zu erwähnen, auf den ich im folgenden wieder zurückkommen werde,<br />

der diese Form von Vereinheitlichung unter dem Stichwort „consilience of<br />

inductions“ behandelt.<br />

192 Den Ausdruck „Kohärenz“ verwendet Friedman allerdings nicht.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 431<br />

die Frage, wann ein Gesetz die Menge K reduziert, so daß eine gewisse<br />

Zahl von unabhängigen Gesetzen durch ein neues Gesetz ersetzt werden<br />

kann. Natürlich taucht sofort die Frage auf, wie wir Gesetze zählen können<br />

und wie wir dabei trivialen Vereinheitlichungen entgehen können.<br />

So können wir zu je zwei Gesetzen z. B. zu ihrer Konjunktion als einem<br />

neuen Gesetz übergehen, das die zwei anderen überflüssig macht. Friedman<br />

weiß zur Analyse des Begriffs „unterschiedliche Gesetze“ keine<br />

wirklich erhellenden Antworten anzubieten und spricht zunächst informell<br />

von „unabhängig akzeptierbaren“ Gesetzen. Die werde ich im folgenden<br />

kurz als „unabhängige Gesetze“ bezeichnen. Mit „s ist unabhängig<br />

von q“ soll ungefähr gemeint sein, daß die Gründe, die uns genügen,<br />

s zu akzeptieren, nicht genügen, um auch q anzuerkennen. Nehmen wir<br />

dieses Konzept einfach als Grundbegriff und schauen, ob sich darauf<br />

eine angemessene Explikation von Vereinheitlichung stützen läßt.<br />

Da Friedman nur wenige intuitive Erläuterungen gibt, wieso er gerade<br />

die folgenden Definitionen wählt und seine Notation auch stellenweise<br />

unübersichtlich ist, gebe ich eine etwas vereinfachte Darstellung<br />

seiner Begrifflichkeit an, die ich anschließend mit eigenen Hilfsbegriffen<br />

erläutern möchte. Doch zunächst zu den formalen Definitionen:<br />

s, p, und q seien Sätze aus K während M, Z(s) etc. Teilmengen von K<br />

sind, wobei ich die weitere Bezugnahme auf K, die Friedman immer<br />

mitschleppt, weglassen werde.<br />

1) Z(s) ist eine Zerlegung von s gdw.<br />

a) Z(s) ist logisch äquivalent zu s<br />

b) Alle Elemente von Z(s) sind unabhängig von s.<br />

(Mit Z(s) sind ab jetzt immer Zerlegungen von s gemeint und außerdem<br />

läßt sich die Definition für Zerlegungen auch auf Mengen von Sätzen in<br />

analoger Weise ausdehnen.)<br />

2) s ist atomar, wenn es keine Zerlegung von s gibt. 193<br />

3) Z(s) ist atomare Zerlegung von s gdw. alle Elemente von Z(s)<br />

atomar sind.<br />

4) Kardinalität von M: Kard(M) :=<br />

inf{ Z(M); mit Z(M) ist atomare Zerlegung von M}<br />

5) s reduziert M gdw. Kard(M {s}) < Kard(M)<br />

193 Hier nehme ich eine geringfügige Änderung gegenüber Friedmans Definition<br />

vor, der sich ohne Erklärung auf Zerlegungen in Paarmengen beschränkt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 432<br />

6) Unabhängige Konsequenzen von s:<br />

Kons(s) := { q; q folgt aus s und q ist unabhängig von s}<br />

Damit läßt sich nun Friedmans erste Explikation von Erklärung angeben:<br />

D1) s erklärt q gdw. q Kons(s) und s reduziert Kons(s)<br />

Eine Zerlegung von s gibt eine Menge von Phänomenen oder Untergesetzen<br />

von s an, die aus s abzuleiten sind, aber unabhängig von s sind. Die<br />

Gründe, die ausreichen, ein Untergesetz q Z(s) zu akzeptieren, genügen<br />

also noch nicht, um s zu akzeptieren (1b). Allerdings folgt aus allen<br />

Untergesetzen der Zerlegung zusammengenommen wiederum s (1a). Anders<br />

ausgedrückt: s geht (was seine deduktiven Konsequenzen angeht)<br />

auch nicht wirklich über die Menge seiner Untergesetze hinaus. Eine<br />

atomare Zerlegung gibt eine Menge von Phänomenen an, die echte Phänomene<br />

in dem Sinne sind, daß sie nicht etwa künstlich (als Konjunktion)<br />

zusammengesetzt sind. Man könnte sie auch als atomare Untergesetze<br />

von s bezeichnen. Die Anzahl der kleinsten solcher Mengen von echten<br />

Untergesetzen, die sich aus s herleiten lassen, soll die Kardinalität<br />

von s darstellen. Von s sagt man außerdem, daß es die Menge seiner unabhängigen<br />

Konsequenzen reduziert, wenn seine Einbringung eine neue<br />

atomare Zerlegung gestattet, die kleiner ist, als alle vorherigen atomaren<br />

Zerlegungen. D.h. intuitiv gesprochen: Bestimmte Phänomene, die vorher<br />

als wesentlich verschiedene Phänomene interpretiert wurden, lassen<br />

sich nun mit Hilfe von s als Instanzen eines Phänomens verstehen. Nur<br />

dann wirkt s nach Friedman als Erklärung. Das erscheint auf den ersten<br />

Blick als eine interessante Umsetzung der intuitiven Überlegungen Friedmans,<br />

aber eine weitere Betrachtung der Konsequenzen dieser Definition<br />

– die Friedman selbst leider verabsäumt –, belegt, weshalb die Vereinheitlichung,<br />

die unsere wissenschaftlichen Theorien unzweifelhaft leisten,<br />

mit diesem Instrumentarium nicht einzufangen ist.<br />

Eine erste wichtige Erläuterung dieser formalen Explikation bietet<br />

Kitcher (1976, 209), der zeigen kann, daß für nicht atomare Sätze s gilt:<br />

Kard(Kons(s) {s}) = Kard(Kons(s)),<br />

d.h. s kann in diesem Fall Kons(s) nicht reduzieren und hat daher keine<br />

Erklärungsleistung im Sinne von (D1). Demnach können überhaupt nur<br />

atomare Sätze erklären. Ein Blick auf einige Beispiele aus der Wissenschaft<br />

zeigt, warum das kein wünschenswertes Resultat sein kann. Kitcher<br />

(1976, 209f) gibt selbst einige solcher Beispiele an. Etwa die übliche<br />

Ableitung des Gesetzes der adiabatischen Ausdehnung eines idealen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 433<br />

Gases, für die die Konjunktion zweier unabhängiger Gesetze, nämlich<br />

dem Boyle-Charlesschen und dem ersten Gesetz der Thermodynamik<br />

benötigt wird. Überhaupt kommt es des öfteren vor, daß wir Phänomene<br />

wie Blitz und darauffolgenden Donner anhand von Theorien aus verschiedenen<br />

Gebieten – hier Elektrizitätslehre, Thermodynamik und Akustik<br />

– erklären, die nur zusammengenommen die Erklärungsleistung<br />

vollbringen. 194 Friedman gibt noch eine zweite Definition von „Erklärung“,<br />

da er aus anderen als den gerade genannten Gründen mit der ersten<br />

nicht zufrieden ist, aber auch diese vermag die Einwände gegen<br />

seine Explikation von „Erklärung“ letztlich nicht zu entkräften (s. Kitcher<br />

1976, 211f), so daß er sich selbst in seinen späteren Arbeiten (etwa<br />

1981 & 1983) zu den Themen Vereinheitlichung und Erklärung nicht<br />

wieder auf sie stützt.<br />

Die Problemstellung, wann wir von einem Gesetz sagen können, es<br />

sei atomar, hat Salmon (1989, 94ff) anhand von weiteren Beispielen verfolgt.<br />

Insbesondere wirft er die Frage auf, ob es überhaupt atomare Gesetze<br />

gibt. Betrachten wir zu dieser Frage einmal einfache Gesetze der logischen<br />

Form: x (FxGx). Salmon weist darauf hin, daß sie schon<br />

dann nicht atomar sind, wenn sich eine Zerlegung des Anwendungsbereichs<br />

F in Mengen H1,,Hk finden läßt, mit der sich das Gesetz zerlegen<br />

läßt in Gesetze der Form: x (H1xGx), , x (HkxGx), wobei<br />

alle Gesetze unabhängig voneinander zu akzeptieren sind. Das erscheint<br />

aber durchaus nicht unrealistisch, wie Salmon am Beispiel des Newtonschen<br />

Gravitationsgesetzes belegen kann. Die Anwendungsmenge zerfällt<br />

nach Salmon etwa in die Menge der Anziehung zweier schwerer Körper,<br />

der Anziehung von leichtem und schwerem Körper, sowie der von zwei<br />

leichten Körpern. Die ersten beiden erfuhren schon bald unabhängige<br />

Unterstützung, die sie als unabhängig voneinander akzeptierbar auswies.<br />

Solange die Behauptung der Gravitation für den dritten Bereich allerdings<br />

nur aus dem allgemeinen Gravitationsgesetz selbst folgte, blieb das<br />

Newtonsche Gesetz atomar. Doch mit der Drehwaage von Cavendish<br />

ließ sich auch der dritte Anwendungsbereich unabhängig von den anderen<br />

akzeptieren. Damit müßte nach Friedman das Newtonsche Gravitationsgesetz<br />

seine Erklärungskraft verloren haben, was ausgesprochen unplausibel<br />

erscheint. Intuitiv sollte es durch seine direkte Anwendung in<br />

diesem weiteren Bereich viel eher gestärkt worden sein.<br />

Dieses nun unschwer erkennbare Defizit innerhalb der Friedmanschen<br />

Metatheorie, aber auch der Salmonschen Analyse des Falles, resul-<br />

194 Kitcher (1976, 210) erwähnt dieses Beispiel und verweist für die Erklärung<br />

auf Few (1975).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 434<br />

tiert im wesentlichen aus einer Nichtbeachtung von Brückenstrukturen<br />

wie Constraints (s. VII.C.2), die einen Informationstransfer unter den<br />

intendierten Anwendungen der Gravitationstheorie bewirken. Unter Unabhängigkeit<br />

sollte man nicht nur unabhängig voneinander akzeptierbar<br />

verstehen, sondern eine weitergehende Unabhängigkeit, die sich auch<br />

auf andere wesentliche Zusammenhänge erstreckt und sich insbesondere<br />

in ihren Konsequenzen für die empirische Behauptung von Theorien beschreiben<br />

läßt. Wenn die Einführung des allgemeinen Gravitationsgesetzes<br />

tatsächlich nichts anderes bedeuten würde als eine Konjunktion der<br />

drei Teilbehauptungen:<br />

1. Alle schweren Körper erfüllen es untereinander.<br />

2. Alle gravitativen Wechselwirkungen von schweren und leichten<br />

Körpern erfüllen das Gesetz.<br />

3. Alle leichten Körper erfüllen es untereinander.<br />

so wäre es allerdings unklar – und insoweit teile ich Friedmans Anschauung<br />

–, wieso das allgemeine Gravitationsgesetz darüber hinaus noch einen<br />

Erklärungswert besitzen sollte. Den erhält es erst im Rahmen einer<br />

umfangreicheren Theorie, die auch Constraints berücksichtigt. Damit<br />

werden Verbindungen zwischen den drei Teil-„Gesetzen“ hergestellt, die<br />

eine bloße Konjunktion noch nicht enthält, denn die einzelnen Teilgesetze<br />

stellten keine übergreifenden Behauptungen für alle Anwendungsklassen<br />

zugleich auf. Der Identitätsconstraint für die Masse besagt etwa, daß<br />

einem schweren Körper, z. B. der Erde, dieselbe Masse zugeordnet werden<br />

muß, wenn er in Anwendungen des Typs (1) und wenn er in solchen<br />

des Typs (2) auftritt. Eine entsprechende Verknüpfung bewirkt der Constraint<br />

anhand von leichten Körpern für die „Gesetze“ (2) und (3). Außerdem<br />

tritt in allen drei Gesetzen die Gravitationskonstante auf, die<br />

per gemeinsamer Existenzquantifikation einzubringen ist – zumal ihr<br />

Zahlenwert im Anfang unbekannt war –, und die Teilgesetze drücken für<br />

sich nicht aus, daß es sich in allen drei Fällen um dieselbe Größe handeln<br />

muß. Das wird erst in einer Formulierung durch ein Gesetz oder einen<br />

entsprechenden Constraint deutlich (s. dazu IX.E.8).<br />

Von welch entscheidender Bedeutung diese Vernetzung der verschiedenen<br />

Anwendungen einer Theorie ist, ergibt sich schon aus Salmons eigenem<br />

Beispiel. Erst Cavendish gelang es 1798 anhand seiner Experimente,<br />

die Newtonsche Gravitationskonstante zu bestimmen, wobei er<br />

die Gravitationskräfte kleiner Körper untereinander gemessen hat. Da<br />

man von einem universellen Gesetz mit universeller Gravitationskon-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 435<br />

stante ausging, 195 gilt diese Konstante ebenso für andere gravitierende<br />

Massen. Genau dieser Zusammenhang ermöglichte es, die Masse der Erde<br />

anhand ihrer Anziehungskraft auf kleine Körper zu bestimmen – Cavendish<br />

kam auf 6,6 10 21 Tonnen und lag damit schon sehr nah an dem<br />

heutigen Wert von 5,98 10 21 Tonnen. Die Konstante geht ihrerseits<br />

wiederum ein in die Bestimmung der Massen anderer Planeten usf. Eine<br />

empirisch wirklich gehaltvolle und erklärende Theorie ergibt sich nur<br />

dann, wenn wir diese Verknüpfungen in Rechnung stellen. Von Friedman<br />

waren solche Zusammenhänge sicherlich implizit mit angenommen<br />

worden, aber solange sie nicht eigens in der Konzeption von Theorien<br />

aufgeführt werden, kann man wie Salmon der Vermutung unterliegen,<br />

das Newtonsche Gravitationsgesetz sei nichts anderes, als eine Konjunktion<br />

der drei genannten Teilgesetze. Der Überschußgehalt, den das allgemeine<br />

Gravitationsgesetz (eingebettet in eine ganze Theorie, die natürlich<br />

nicht allein durch ein Gesetz dargestellt werden kann) gegenüber einer<br />

bloßen Konjunktion der drei Teilgesetze aufweist, ergibt sich erst aus<br />

der Vernetzung der Anwendungen. 196 In (E.8) werde ich auf diesen<br />

Punkt anhand neuerer Explikationsversuche für die Einheitlichkeit einer<br />

Theorie zurückkommen. Es ist hier wiederum ein zu einfaches Bild von<br />

Theorien dafür verantwortlich, die vereinheitlichende Funktion von<br />

Theorien zu verkennen. Im differenzierteren metatheoretischen Rahmen<br />

des Strukturalismus läßt sich dagegen ein angemessenerer Explikationsvorschlag<br />

angeben.<br />

Interessant ist vor allem die Frage: Woran genau ist Friedman mit<br />

seinem Typ von Explikationsversuch gescheitert? Kitcher (1976, 212),<br />

der Friedmans Vorstellung von einem engen Zusammenhang zwischen<br />

Erklärung und Vereinheitlichung gutheißt, wendet sich gegen Friedmans<br />

Zählweise von Phänomenen anhand von unabhängigen Gesetzen. Statt<br />

Gesetze zu zählen, sollten wir auf ein anderes Phänomen achten:<br />

195 Das ist natürlich eine empirische Vermutung, die sich auch als falsch<br />

herausstellen könnte, wie wir es im Falle der Cepheiden, den Gähde genauer untersucht<br />

hat, bereits kennengelernt haben. So wie wir dort die Annahme einer<br />

Konstante für die Perioden-Helligkeitsbeziehung aller Cepheiden für selbstverständlich<br />

hielten und dann später zu zwei Konstanten für zwei Typen von Cepheiden<br />

übergehen mußten, könnten wir auch im Falle der Gravitationskonstante<br />

schließlich zur Annahme zweier oder dreier Typen von Massen mit verschiedenen<br />

Gravitationskonstanten gezwungen sein.<br />

196 Die Vernetzung wird natürlich durch den Extensivitätsconstraint noch<br />

weiter verstärkt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 436<br />

What is much more striking than the relation between these numbers<br />

is the fact that Newton’s laws of motion are used again and<br />

again and that they are always supplemented by laws of the same<br />

types, to wit, laws specifying force distributions, mass distributions,<br />

initial velocity distributions, etc. Hence the unification achieved by<br />

Newtonian theory seems to consist not in the replacement of a large<br />

number of independent laws by a smaller number, but in the repeated<br />

use of a small number of types of law which relate a large<br />

class of apparently diverse phenomena to a few fundamental magnitudes<br />

and properties. Each explanation embodies a similar pattern:<br />

from the laws governing the fundamental magnitudes and properties<br />

together with laws that specify those magnitudes and properties for<br />

a class of systems, we derive the laws that apply to systems of that<br />

class. (Kitcher 1976, 212)<br />

Diese Analyse von Kitcher paßt in einigen Punkten schon recht gut mit<br />

den strukturalistischen Vorstellungen der inneren Struktur von Theorien<br />

zusammen. Zum einen haben wir die Grundgesetze, wie etwa die Newtonschen<br />

Axiome, die in allen Anwendungen der Mechanik zum Einsatz<br />

kommen und damit eine Vereinheitlichung bewirken; zum anderen die<br />

jeweiligen Ergänzungen durch Spezialgesetze, deren Typ sich für bestimmte<br />

Klassen von intendierten Anwendungen durch ein gemeinsames<br />

Schema darstellen läßt. Das entspricht ziemlich genau der strukturalistischen<br />

Auffassung von einem Basis-Theorie-Element und seinen Spezialisierungen.<br />

Dagegen ist Friedmans Bild von Theorien 1974 noch zu stark<br />

von einem Theorienverständnis im Sinne der Metamathematik geprägt,<br />

wonach es grundlegende Axiome gibt, die allein schon eine Reihe von<br />

deduktiven Schlußfolgerungen erlauben. Sogar die von ihm selbst erwähnten<br />

Phänomene wie, daß die Herleitung von Gesetzen oft nur approximativ<br />

möglich ist (s. z. B. Friedman 1988, 184), finden in seinem<br />

Explikationsversuch keinerlei Beachtung. So überzeugend seine Ausgangsposition<br />

uns somit auch erschien, seine Ausgestaltung war zu unrealistisch<br />

und läßt ein zu einfaches Bild wissenschaftlicher Theorien dahinter<br />

vermuten. Angeregt durch diese Diskussion und den Mißerfolg<br />

Friedmans versuchte Kitcher seine in dem obigen Zitat geäußerten Vorstellungen<br />

von Vereinheitlichung in einer eigenen Theorie von Erklärung<br />

umzusetzen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 437<br />

B. Kitchers Vereinheitlichung der Argumentationsformen<br />

Ähnlich wie schon Friedman betont auch Kitcher in seinen theoretischen<br />

Arbeiten zur Vereinheitlichungstheorie der Erklärung (z. B. Kitcher<br />

1988 und 1989) den globalen Charakter der Bewertung von Erklärungen.<br />

Für Friedman hatte ein Gesetz nur dann Erklärungskraft, wenn es<br />

sich in einer größeren Menge von Aussagen als vereinheitlichend erwies.<br />

Ebenso ist auch für Kitcher im Unterschied zu den in Kapitel (VIII) genannten<br />

Erklärungstheorien die Bewertung einer potentiellen Erklärung<br />

nur in einem größeren Kontext möglich.<br />

On both the Hempelian and the causal approaches to explanation,<br />

the explanatory worth of candidates – whether derivations, narratives,<br />

or whatever – can be assessed individually. By contrast, the<br />

heart of the view that I shall develop […] is that successful explanations<br />

earn that title because they belong to a set of explanations, the<br />

explanatory store, and that the fundamental task of a theory of explanation<br />

is to specify the conditions on the explanatory store. (Kitcher<br />

1989, 430)<br />

Dieser Zugriff auf globalere Zusammenhänge zur Einschätzung von Erklärungen<br />

scheint mir aus mehreren Perspektiven sinnvoll. Da ist zuerst<br />

eine intuitive Auswertung von Beispielen, die dafür spricht. Einer für<br />

sich betrachteten Ableitung eines Ereignisses läßt sich nicht ansehen, ob<br />

es sich um eine gute Erklärung oder nicht handelt. So kann sich die<br />

Struktur einer astrologischen Erklärung mutigen Verhaltens (weil er<br />

Sternzeichen Löwe ist, und Löwen sind mutig) durchaus mit der Struktur<br />

guter Erklärungen decken. Doch selbst wenn es zufällig so wäre, daß<br />

fast alle „Löwen“ mutig wären, würden wir hier keinen brauchbaren Ansatz<br />

für eine Erklärung sehen, solange eine Theorie astrologischer Zusammenhänge<br />

nicht kohärent in unsere gegenwärtigen Überzeugungssysteme<br />

paßt. Außerdem spricht für die globalere Sichtweise von Erklärungen<br />

unser inzwischen holistischeres Wissenschaftsverständnis, das sich<br />

auch in der Darstellung der inneren Struktur von Theorien gezeigt hat.<br />

Einzelne Gesetze wie die Newtonschen Axiome haben demnach isoliert<br />

betrachtet keinen empirischen Gehalt, sondern nur im Zusammenspiel<br />

mit Spezialgesetzen, innertheoretischen Querverbindungen und „Links“<br />

ergibt sich dieser. Erst dann gelangen wir zu Aussagen, die genügend<br />

Substanz für eine Beurteilung bieten. Diese Vorstellungen von der Notwendigkeit<br />

globalerer Beurteilungen für epistemische Zwecke manifestierte<br />

sich daher an verschiedenen Stellen in der Explikation unserer


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 438<br />

Kohärenztheorie KTR, so daß auch in diesem Punkt der Vereinheitlichungsansatz<br />

der Erklärung geeignet erscheint, um die verbliebene Lükke<br />

in KTR auszufüllen.<br />

Dazu hat Kitcher den am weitesten ausformulierten Ansatz einer Erklärungstheorie<br />

vorgelegt, den er noch dazu in einer Reihe von Beispielen<br />

erprobt hat. Wie für Hempel sind für ihn Erklärungen Argumente,<br />

d.h. Folgen von Aussagen, die entsprechenden logischen Regeln gehorchen.<br />

Entscheidend ist für ihn dabei die Vereinheitlichung, die dadurch<br />

zustande kommt, daß sich all unsere wissenschaftlichen Argumente auf<br />

möglichst wenige Argumentschemata oder Argumentmuster zurückführen<br />

lassen. So ist für Kitcher (1988, 204f) die Vereinheitlichungskraft<br />

von Newtons Werk gerade darin zu sehen, daß Newton versuchte eine<br />

Vielzahl akzeptierter Sätze anhand eines Argumentmusters, das seine Basisgesetze<br />

enthält, herzuleiten. Auch Darwin skizzierte mit der natürlichen<br />

Auslese ein allgemeines Muster für Erklärungen, mit dem sich viele<br />

bekannte Tatsachen aus der Biologie erklären ließen.<br />

Den Wissenshintergrund, um dessen Vereinheitlichung es gehen soll,<br />

nennt Kitcher die zu einem Zeitpunkt von der wissenschaftlichen Gemeinschaft<br />

akzeptierten Sätze K. In bezug auf Vereinheitlichung soll dazu<br />

der Erklärungsvorrat E(K) (explanatory store) über K untersucht werden,<br />

aus dem sich die Sätze von K ableiten lassen. Diese Konzeption<br />

paßt gut zur KTR, bis auf die Vorstellung, daß die vereinheitlichenden<br />

Beziehungen alle deduktiver Natur sind. Wesentlich zur Beurteilung von<br />

E(K) ist nach Kitcher aber nun nicht, wieviele solche Erklärungen es enthält,<br />

sondern wieviele Typen von Erklärungen vorkommen. Um diese Typen<br />

identifizieren zu können, wird von Kitcher die Konzeption der Argumentmuster<br />

(„argument pattern“) ins Spiel gebracht. Genau die Argumente<br />

gelten als ähnlich und zu einem Typ gehörig, die als Instanzen eines<br />

Argumentmusters gelten können.<br />

Ein Argumentmuster besteht aus drei Komponenten, nämlich einer<br />

Folge von schematischen Sätzen, einer Menge von Ausfüllungsanweisungen<br />

und einer Klassifikation für die Sätze der Folge. Die schematischen<br />

Sätze sind Sätze, in denen einige nichtlogische Terme durch Schemabuchstaben<br />

ersetzt sind, so daß hier ein Spielraum zum Einsetzen verschiedener<br />

Ausdrücke gegeben ist, der es gestattet, aus einer Folge von<br />

schematischen Sätzen unterschiedliche konkrete Argumente zu gewinnen.<br />

Die Ausfüllungsanweisungen sagen uns, welche Terme jeweils an<br />

den verschiedenen Stellen eingesetzt werden dürfen. Schließlich geben<br />

uns die Klassifikationen der schematischen Sätze Informationen darüber,<br />

ob es sich um Prämissen unseres Argumentmusters oder Konklusionen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 439<br />

handelt. Die Idee Kitchers dürfte an einem einfachen Beispiel (s. Kitcher<br />

1988, 208ff) am ehesten deutlich werden, in dem Kitcher die Newtonische<br />

Vorgehensweise für die Behandlung von Einkörpersystemen anhand<br />

von Argumentmustern beschreibt. Zunächst finden wir für das Basismuster<br />

eine Folge von schematischen Sätzen:<br />

(1) Die auf ausgeübte Kraft ist .<br />

(2) Die Beschleunigung von ist .<br />

(3) Kraft = Masse x Beschleunigung<br />

(4) Masse() · = <br />

(5) = <br />

Dazu kommen Ausfüllungsanweisungen, die etwa besagen:<br />

„“ ist durch einen Ausdruck für den zu untersuchenden Körper zu<br />

ersetzen.<br />

„“ ist jeweils durch denselben Ausdruck für eine Funktion von<br />

Raum und Zeit-Koordinaten zu ersetzen.<br />

„“ ist durch einen Funktionsausdruck für die Beschleunigung zu ersetzen<br />

(also etwa d 2 x/dt 2 ).<br />

„“ bezeichnet die Funktion, die uns die Ortskoordinaten des Körpers<br />

gibt.<br />

„“ ist durch eine explizite Funktion der Zeit zu ersetzen.<br />

Die Klassifikation besagt dann, daß (1) (3) die Prämissen sind,<br />

während (4) daraus durch Substitution entsprechender Terme und<br />

(5) aus (4) durch mathematische Umformungen folgt.<br />

Wesentlich für eine Beurteilung der Ähnlichkeit von Argumenten anhand<br />

von Argumentmustern ist, was Kitcher die „Stringenz“ der Muster<br />

nennt. Sind die Ausfüllungsbedingungen und die Klassifikationen sehr liberal<br />

gehalten, läßt sich mit einem bißchen guten Willen unter ein entsprechendes<br />

Muster jedes Argument als eine Instanz subsumieren. Wie<br />

groß die Ähnlichkeiten der Argumente eines Musters sind (wie stringent<br />

das Muster ist), wie groß damit seine Vereinheitlichungskraft ist, bemißt<br />

sich nach Kitcher hauptsächlich an den auftretenden nichtlogischen Termen,<br />

den Ausfüllungsanweisungen und dem Gehalt der Klassifikationen.<br />

Kitcher gibt hier schon selbst Hinweise auf ein Problem der Vagheit<br />

wenn nicht sogar drohenden Trivialisierung der Ähnlichkeitsbehauptungen<br />

anhand von Argumentmustern, das ich später noch aufgreifen werde.<br />

Zu unseren akzeptierten Überzeugungen K betrachten wir nun (das<br />

ist nach Kitcher eine Idealisierung) nur solche Mengen von Argumenten,


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 440<br />

die ebenfalls als akzeptabel bezüglich K gelten dürfen, d.h. die nur Prämissen<br />

aus K verwenden und sich nur gültiger Schlußregeln (deduktiver<br />

oder induktiver Art) bedienen. 197 Gesucht wird nun die Argumentmenge,<br />

die die beste Vereinheitlichung von K darstellt, wobei der Grad der Vereinheitlichung<br />

anhand von Argumentmustern bestimmt werden soll.<br />

Jede beliebige Argumentmenge, die aus bestimmten Aussagen aus K<br />

auf andere schließt, die also eine Menge von bezüglich K akzeptablen<br />

Argumenten darstellt, heiße Systematisierung von K und wird mit D(K)<br />

(für „derivations“) bezeichnet. 198 Zu D(K) sei GD(K) eine Generierungsmenge<br />

für D(K), d.h. eine Menge von Argumentmustern, so daß sich jedes<br />

Argument aus D(K) als eine Instanz eines Musters aus GD(K) darstellen<br />

läßt. D(K) ist vollständig bezüglich GD(K), wenn alle (bezüglich K akzeptablen)<br />

Argumente, die durch die Muster in GD(K) generiert werden,<br />

auch zu D(K) gehören. 199 Zu einer Argumentmenge D(K) sollen nun nur<br />

noch die Generierungsmengen in Betracht gezogen werden, für die D(K)<br />

vollständig ist.<br />

Damit möchte Kitcher ausschließen, daß man bestimmte Erklärungsmuster<br />

manchmal anwendet und in anderen Fällen Instanzen dieses Musters<br />

als Erklärungen willkürlich zurückweist, denn das ist seiner Meinung<br />

nach eine inkohärente Verwendungsweise von Erklärungen. Unter<br />

diesen Generierungsmengen, für die D(K) vollständig ist, suchen wir in<br />

einem letzten Schritt die mit der größten vereinheitlichenden Kraft heraus<br />

und nennen sie die Basis der Systematisierung D(K).<br />

Die vereinheitlichende Kraft einer Generierungsmenge ist dabei um<br />

so größer, je weniger Muster sie benötigt und je mehr Argumente sie zu<br />

generieren gestattet. Zusätzlich zur Anzahl der Muster sollte natürlich<br />

noch die Stringenz der Muster Berücksichtigung finden. Stringentere<br />

Muster besitzen eine größere Vereinheitlichungskraft als weniger stringente.<br />

Als Erklärungsvorrat E(K) über K wählen wir nun die Argumentmenge<br />

D(K), die K in dem eben genannten Sinn am besten vereinheitlicht,<br />

d.h. deren Basis die größte vereinheitlichende Kraft aufweist. E(K)<br />

197 Bis hierher stimmen die Überlegungen von Kitcher (1988) und (1989)<br />

weitgehend überein, aber nicht mehr für das Folgende. Daher beziehe ich mich<br />

dabei auf den späteren und ausgearbeiteteren Vorschlag von (1989).<br />

198 Hier und im folgenden weiche ich z.T. von der Notation und der Darstellung<br />

Kitchers ab, um diese durchsichtiger zu gestalten.<br />

199 Kitcher (1989, 434) spricht davon, daß in diesem Fall GD(K) bezüglich K<br />

vollständig ist, aber diese Bezeichnungsweise erscheint mir irreführend, weil es<br />

intuitiv um die Vollständigkeit der Menge D(K) geht, weshalb ich von ihr abweiche.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 441<br />

bestimmt dann, was eine Erklärung vor unserem Hintergrundwissen ist<br />

und was nicht.<br />

Allerdings weiß Kitcher keine allgemeinen Regeln anzugeben, wie<br />

sich die verschiedenen Dimensionen der Beurteilung von Vereinheitlichung<br />

gegeneinander aufrechnen lassen, wenn sie in Widerstreit geraten,<br />

wenn etwa eine Basis zwar mehr Muster benötigt als eine andere, diese<br />

aber stringenter sind. Doch zumindest einige Fälle lassen sich anhand<br />

von Kitchers Theorie miteinander vergleichen und Kitcher denkt, daß<br />

das insbesondere für die praktisch bedeutsamen Beispiele aus der Wissenschaftsgeschichte<br />

gilt.<br />

Ehe ich Kitchers Konzeption in einigen Punkten kritisiere, möchte<br />

ich kurz darauf zu sprechen kommen, wie er das Irrelevanz- und das<br />

Asymmetrieproblem innerhalb seiner Erklärungstheorie behandeln<br />

möchte. Zunächst zum Irrelevanzproblem, für das Kitchers Konzeption<br />

am überzeugendsten wirkt. Betrachten wir noch einmal das Beispiel des<br />

verzauberten Kochsalzes und der darauf aufbauenden Erklärung für seine<br />

Auflösung. Kitcher (1988, 216ff; 1989, 482ff) stellt hier zwei Überzeugungssysteme<br />

mit unterschiedlichen Systematisierungen einander gegenüber.<br />

Das erste besteht aus unserem normalen System, in dem wir die<br />

Überzeugung finden, daß es gerade die molekularen Eigenschaften des<br />

speziellen Salzes sind, die erklären, warum es sich in Wasser auflöst. Das<br />

zweite enthält neben kleineren Änderungen zusätzlich die Auffassung,<br />

daß sich die Auflösung von Salz in Wasser manchmal aufgrund ihrer Verzauberung<br />

erklären läßt. Gegen das zweite Überzeugungssystem wendet<br />

Kitcher ein, daß in ihm ein zusätzliches Argumentmuster Anwendung<br />

findet, nämlich eines, in dem Verzauberung vorkommt, ohne daß dadurch<br />

ein Gewinn an ableitbaren Sätzen erzielt würde; schließlich wird<br />

die Auflösung des Salzes ja schon durch die molekulare Erklärung herleitbar.<br />

Damit ist die erste Systematisierung eindeutig zu bevorzugen,<br />

denn sie kommt mit einem Argumentmuster weniger bei gleicher Systematisierungsleistung<br />

aus. Auch wenn sich für dieses Beispiel noch weitere<br />

Einwendungen finden lassen, indem man etwa verrücktere Überzeugungssysteme<br />

als Alternativen ins Spiel bringt, wirkt Kitchers Vorschlag<br />

zur Lösung der Irrelevanzproblematik recht ansprechend.<br />

Das gilt nicht in demselben Maße für seine Antwort auf das Asymmetrieproblem,<br />

obwohl er hier ganz analog vorgehen möchte. Die Beispiele<br />

für eine solche Asymmetrie, die Kitcher betrachtet, sind das von<br />

Pendelfrequenz und Pendellänge (1988, 220ff) und das berühmte Beispiel<br />

vom „Tower and Shadow“ (1989, 484fff), das schon van Fraassen<br />

ausführlicher besprochen hat. Davon möchte ich mich dem ersten zu-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 442<br />

wenden, weil es eher unter die Rubrik „wissenschaftliche Erklärungen“<br />

fällt. Mit Hilfe der Pendellänge erklären wir normalerweise die Pendelfrequenz<br />

eines Pendels, aber nicht umgekehrt seine Pendellänge unter<br />

Berufung auf seine Pendelfrequenz, obwohl sich anhand des Pendelgesetzes<br />

auch in dieser Richtung eine Ableitung ergibt. Wiederum vergleicht<br />

Kitcher zwei alternative Überzeugungssysteme, nämlich erstens das normale,<br />

in dem eine Erklärung von der Pendelfrequenz zur Pendellänge<br />

nicht vorkommt, wir aber über andere Erklärungen für Pendellängen<br />

verfügen, und zweitens das alternative System, in dem zusätzlich eine<br />

Ableitung der Pendellänge aus der Pendelfrequenz unter die Systematisierungen<br />

gezählt wird. Doch zunächst: Welche anderen Erklärungen für<br />

die Pendellänge können wir denn überhaupt anbieten? Wir können beschreiben,<br />

wie es zur Herstellung des fraglichen Pendels mit seiner speziellen<br />

Länge kam. In einer sehr großen Zahl von Fällen haben wir derartige<br />

„Ursprungs- und Entwicklungsherleitungen“, auf die wir zur Erklärung<br />

der Pendellänge zurückgreifen können. Demgegenüber führt die alternative<br />

Systematisierung ein zweites und eigentlich überflüssiges Erklärungsschema<br />

für einen Teilbereich ein (auf alle Fälle, in denen wir üblicherweise<br />

Ursprungs- und Entwicklungsherleitungen geben, läßt sich die<br />

Erklärung aus der Pendelfrequenz sicherlich nicht anwenden), das keine<br />

zusätzlichen Systematisierungsleistungen erbringt, aber die Vereinheitlichung<br />

vermindert. Laut Kitchers Theorie ist daher das normale Überzeugungssystem<br />

zu bevorzugen. Ob in diesem Beispiel unsere kausalen Vorstellungen<br />

von Asymmetrie aber tatsächlich außer Acht bleiben können,<br />

möchte ich hier nur zur Diskussion stellen.<br />

Gegen diese Lösung des Asymmetrieproblems argumentiert etwa<br />

Barnes (1992), indem er Kitchers Behauptung, das alternative Überzeugungssystem<br />

sei weniger einheitlich, in Frage stellt – allerdings am Beispiel<br />

von „Tower and Shadow“. 200 Auch wenn diese Diskussion noch<br />

nicht abgeschlossen ist, läßt sich dagen, daß Kitcher für die Fragen von<br />

Irrelevanz und Asymmetrie zumindest einen sehr interessanten Lösungsansatz<br />

anzubietenhat. Mit dem steht er insgesamt bestimmt nicht<br />

schlechter da als seine Konkurrenten etwa aus dem Bereich der Kausalerklärung.<br />

Die Konzeption der Vereinheitlichung durch Argumentmuster möchte<br />

ich nun nicht weiter in seinen technischen Details ausführen, sondern<br />

auf einige intuitive Schwierigkeiten und die Schachzüge, zu denen Kit-<br />

200 Barnes bietet auch noch andere Einwände gegen Kitchers Auflösung des<br />

Asymmetrieproblems, die mich allerdings nicht vollkommen überzeugen, deren<br />

Diskussion aber den Rahmen dieser Arbeit verlassen würde.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 443<br />

cher dadurch gezwungen wird, zu sprechen kommen. So naheliegend<br />

die Argumentationsmuster auch in den von Kitcher untersuchten Beispielen<br />

aus der Evolutionstheorie und in seiner allgemeinen Beschreibung<br />

erscheinen, stoßen wir doch sofort auf Probleme, wenn wir sie auf<br />

hochentwickelte Theorien in ihrer Gänze anwenden wollen. Das von Kitcher<br />

angegebene Muster zur Mechanik ist auf ein-Partikel-Systeme und<br />

dort auch noch auf bestimmte Spezialfälle beschränkt. Natürlich wird<br />

die Ableitung für mehr-Teilchen-Systeme komplizierter und insbesondere<br />

läßt sich für viele Systeme keine Lösung der Differentialgleichungen<br />

durch mathematische Umformungen mehr finden, denn sie sind keiner<br />

analytischen Lösung zugänglich. Dazu gibt es eine Reihe von Spezialgesetzen,<br />

die Kitcher in Betracht ziehen müßte, wollte er der Komplexität<br />

der Newtonschen Theorie (als einem Netz) wirklich Rechnung tragen.<br />

Erst mit Hilfe der Spezialgesetze bekommt die Newtonsche Mechanik<br />

jedoch empirischen Gehalt, und es lassen sich die Bahnen der Partikel<br />

vorhersagen. Kitcher (1988, 214f) spricht deshalb von einem Kernmuster,<br />

das in vielen Argumentmustern, die in der Newtonschen Theorie<br />

vorkommen auftritt, und von problem-reduzierenden Mustern, die das<br />

Kernmuster ergänzen können. D.h., daß auch die Muster untereinander<br />

wieder ähnlicher oder weniger ähnlich sein können, wobei Ähnlichkeit<br />

(gemeinsame Submuster) die vereinheitlichende Wirkung der Muster einer<br />

Basis noch einmal erhöht. Damit bewegt sich Kitcher in Richtung<br />

auf eine Art Theorien-Netz mit Spezialisierungen und einer Basis oder<br />

gemeinsamen Verzweigungspunkten, die die Gemeinsamkeiten von Modellmengen<br />

in Spezialisierungen darstellen. Allerdings hat er für die<br />

Konzeption der Kern- und Submuster und ihres Zusammenhangs keine<br />

Modellierung anzubieten und auch keine entsprechenden Anwendungen<br />

vorgelegt, weil er keine hochentwickelten Theorien vollständig zu erfassen<br />

sucht.<br />

Neben den Spezialgesetzen, die zu neuen Argumentmustern führen<br />

können, ohne damit die Einheitlichkeit einer Theorie gänzlich über<br />

Bord zu werfen, ist es die Flexibilität von Theorien, die Kitcher zu schaffen<br />

macht. Auch sie erhöht die Zahl der Argumentmuster, ist aber trotzdem<br />

erkenntnistheoretisch wünschenswert. Die Newtonsche Theorie<br />

läßt sich für andere Ableitungen als die der Weg-Zeit-Funktionen einsetzen.<br />

Aus der Pendellänge und der Pendelfrequenz kann man z. B. auf die<br />

Pendelmasse schließen, aus den Weg-Zeit-Funktionen von Doppelsternen<br />

auf ihre Massen etc. Da sich diese Ableitungen – auch wenn sie unterschiedliche<br />

Argumentmuster instantiieren – auf dieselben Grundgesetze<br />

stützen, bietet die Theorie auch hier eine Vereinheitlichung, die je-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 444<br />

doch so in den unterschiedlichen Argumentmustern, die in den Ableitungen<br />

verwandt wurden, nicht wiederzufinden ist.<br />

Der Friedmansche Gesichtspunkt, daß eine Theorie verschiedene<br />

Phänomene in einen Zusammenhang stellt und dadurch im Sinne einer<br />

Kohärenztheorie zur Vernetzung unserer Erkenntnis beiträgt, kommt bei<br />

Kitchers Vereinheitlichung über Argumentmuster zu kurz. Um Vereinheitlichung<br />

im Sinne Kitchers zu gewährleisten, könnte man sich darauf<br />

beschränken, E(K) relativ einfach zu halten und mit wenigen Ableitungen<br />

zu versehen, so daß man auch mit wenigen Argumentmustern auskommt.<br />

Diesen trivialen Weg sollte Kitcher mit bestimmten Mindestanforderungen<br />

an die betrachteten Systematisierungen unterbinden, was<br />

aber auch nicht einfach sein dürfte, weil es eine globale Verrechnung<br />

von Stringenz und Systematisierungsleistung erfordert. Solange das nicht<br />

möglich ist, zeigt diese Alternative zu unserem Überzeugungssystem, daß<br />

Kitchers Konzeption noch nicht zur Vorstellung von epistemischem Fortschritt<br />

als höherer Kohärenz paßt, denn Kitcher kommt es nicht auf eine<br />

hohe Vernetzung von K an, sondern darauf, die Verbindungslinien im<br />

Netz K von möglichst einfach zu gestalten; als Deduktionen, die einander<br />

strukturell sehr ähnlich sind.<br />

Wenn wir ein neues Erklärungsschema aufnehmen müssen, um etwa<br />

die Entwicklung des Universums vom Urknall angefangen zu erklären<br />

und dieses Schema nur für diese Anwendung einsetzen können, so gibt<br />

es nach Kitcher keinen guten Grund, darauf nicht einfach zu verzichten.<br />

Wir könnten statt dessen die Entwicklung des Universums als einzelnes<br />

Faktum ohne Erklärung zur Kenntnis zu nehmen, da für Kitcher systematische<br />

Kohärenz kein erklärtes erkenntnistheoretisches Ziel darstellt.<br />

Hauptsache wir vermehren nicht die Typen von Argumentationen in unserem<br />

Überzeugungssystem. Ähnliches mag für Erklärungen in den Geschichtswissenschaften<br />

gelten, wenn sie bestimmte einzigartige Ereignisse<br />

erklären. So kann Kitcher aber das Streben der Wissenschaften<br />

nach möglichst vielen Erklärungen in derartigen Fällen kaum angemessen<br />

nachzeichnen oder verständlich machen. Meine kritische Frage an<br />

Kitcher ist daher, ob seine Konzeption, die sich so stark daran orientiert,<br />

ob die Vernetzung von K von einer Metaebene aus betrachtet einfach ist,<br />

wirklich richtig beschreibt, was unter Vereinheitlichung in den Wissenschaften<br />

zu verstehen ist. Mir scheint Friedmans Ansatz in diesem Punkt<br />

intuitiv leichter nachvollziehbar zu sein und eine Vereinheitlichung der<br />

Phänomene durch Gesetze sollte in irgendeiner Form in allen Konzeptionen<br />

von Vereinheitlichung vorkommen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 445<br />

Abgesehen von der Möglichkeit einer Trivialisierung der Kitcherschen<br />

Konzeption durch willkürliche Vereinfachung von E(K) weist der<br />

Ansatz noch eine andere Trivialisierungsgefahr auf, die Kitcher (1988,<br />

222ff) unter dem Stichwort unechte Verallgemeinerung („spurious unification“)<br />

diskutiert. Schon Hempel hatte mit dem Problem von Selbsterklärungen<br />

zu kämpfen. Aus der Konjunktion von Keplers Gesetz mit<br />

dem Boyleschen Gesetz läßt sich das Keplersche Gesetz ableiten, doch<br />

das ist intuitiv keine Erklärung, obwohl die Ableitung dem DN-Schema<br />

entspricht. Mit diesem Problem hatte schließlich auch Friedman seine<br />

Schwierigkeiten, wenn er anzugeben versucht, wie sich Gesetze zählen<br />

lassen. Noch deutlicher ist das bei einer Ableitung eines Gesetzes aus<br />

sich selbst, das niemand mehr als Erklärung bezeichnen wird. Solche<br />

Beispiele weisen den Weg zu ideal einfachen Argumentmustern, die als<br />

Basis beliebiger Mengen D(K) dienen können. Im ersten Fall ergibt sich<br />

etwa:<br />

A und B<br />

A<br />

zusammen mit der Ausfüllungsanweisung: „A“ ist durch einen beliebigen<br />

Satz aus K zu ersetzen. Im zweiten noch einfacher:<br />

A<br />

A<br />

mit derselben Ausfüllungsanweisung. Zu diesen trivialen Fällen sind natürlich<br />

auch kompliziertere Fälle von beinahe trivialer Vereinheitlichung<br />

denkbar, die durch bloße Betrachtung der Schemata nicht so leicht zu<br />

entdecken sind. Kitchers sehr abstrakte Sichtweise von Vereinheitlichung<br />

lädt geradezu dazu ein, sich entsprechenden Mustern zuzuwenden.<br />

Gegen solche Beispiele wehrt sich Kitcher (1988, 223ff) unter Hinweis<br />

auf die fehlende Stringenz der Muster und erklärt jedes Muster als<br />

unbrauchbar zu Vereinheitlichungszwecken, das im Prinzip – von der Art<br />

seiner Ausfüllungsanweisungen her – die Herleitung jedes Satzes erlaubt.<br />

Wenn die mit Muster P assoziierten Ausfüllungsinstruktionen durch<br />

andere Ausfüllungsinstruktionen, welche die Substitution einer Klasse<br />

von Ausdrücken derselben syntaktischen Kategorie zulassen, derart<br />

ersetzt werden könnten, daß dies zu einem Muster P’ führen<br />

würde, welches die Herleitung jedes Satzes erlaubt, dann ist die<br />

durch P bewirkte Vereinheitlichung unecht. (Kitcher 1988, 224)<br />

Mit dieser etwas umständlichen Formulierung möchte Kitcher auch<br />

noch solche Fälle ausschließen, in denen jemand sich bemüht, die Trivialität<br />

der Vereinheitlichung oberflächlich zu verschleiern, indem er etwa


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 446<br />

davon spricht, Gott wolle, daß p, und dann doch im Prinzip in dem<br />

Schema keine wirklich einschränkenden Bedingungen darüber zu finden<br />

sind, was Gott denn wollen könne. Diese Schemata sind dann trivialen<br />

Schemata äquivalent und deshalb zurückzuweisen. Doch diese Nichttrivialitätsforderung<br />

läßt sich schon dadurch erfüllen, daß man in den Ausfüllungsanweisungen<br />

einen bestimmten Satz ausschließt. Zu der spannenden<br />

Frage der Einheitlichkeit der vereinheitlichenden Theorie wird<br />

man auf Kitchers Weg wohl kaum eine befriedigende Antwort finden.<br />

Später formuliert Kitcher (1989, 479ff) entsprechende komparative<br />

Bedingungen, die uns für bestimmte Fälle sagen, welches von zwei Mustern<br />

stringenter ist, nämlich das, dessen Ausfüllungsbedingungen und<br />

dessen Klassifikationen einschränkender sind. Auch mit diesen umständlichen<br />

Formulierungen gelingt es Kitcher jedoch nicht, eine auch nur einigermaßen<br />

anspruchsvolle untere Grenze für Stringenz, zu formulieren<br />

und ebensowenig die Querverbindungen zu anderen Argumentmustern<br />

einzubeziehen. Doch gerade diese beiden Forderungen hätte Kitcher zu<br />

erfüllen, wollten wir seine Vereinheitlichungskonzeption ernsthaften<br />

Tests unterziehen. Er müßte in der Lage sein, Schemata der oben genannten<br />

Art, aber auch viele weitere ohne echten Gehalt, auch wenn sie<br />

sich nicht auf alle Aussagen beziehen, als unechte Vereinheitlichungen<br />

zurückzuweisen. Die von ihm genannte Bedingung für unechte Vereinheitlichung<br />

spricht schon dann von echter Vereinheitlichung, wenn wir<br />

einen Typ von Aussagen als nicht ableitbar erweisen können. Hier fehlt<br />

eine stärkere inhaltliche Charakterisierung von Vereinheitlichung, wie ich<br />

sie in Abschnitt E vorschlagen werde. Das kann nur anhand eines vollständigeren<br />

Bilds von wissenschaftlichen Theorien gelingen, in dem<br />

auch die Spezialgesetze und Querverbindungen innerhalb und zwischen<br />

Theorien mit in Betracht gezogen werden, weil die Grundgesetze von<br />

Theorien im allgemeinen viel zu schwach sind, um substantielle Vereinheitlichungen<br />

bewirken zu können.<br />

Für Kitchers Bedingungen kann man sich außerdem des Verdachts<br />

nicht erwehren, daß diese Bedingungen zu stark sprachabhängig sind,<br />

weil die Frage, was jeweils eingesetzt werden kann, wesentlich von den<br />

zur Verfügung stehenden Termen abhängt. Dabei bleiben unsere Intuitionen<br />

zur Vereinheitlichung auf der Strecke, denn Kitchers Bedingungen<br />

(besonders in ihren Präzisierungen 1989, 479f) sind kaum geeignet umzusetzen,<br />

inwieweit bestimmte Theorien unser Wissen vereinheitlichen,<br />

denn Vereinheitlichung wird nur anhand von abstrakten und nur syntaktisch<br />

ausgestalteten Ähnlichkeitsmaßen für Argumentationen auf einer<br />

Metaebene beurteilt. Für sie müssen wir einschätzen, welche gemeinsa-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 447<br />

men Submuster sie aufweisen und wie stringent diese jeweils sind, wobei<br />

gerade der Stringenzbegriff keine Präzisierung erfährt und seine Verbindungen<br />

zu unseren Vorstellungen von Vereinheitlichung nicht völlig aufgeklärt<br />

werden.<br />

Doch neben diesem intuitiven Unbehagen, das sich an einer rein syntaktischen<br />

Beschreibung von Vereinheitlichung festmachen läßt, bleiben<br />

auch weitere handfeste Probleme, die das Unbehagen vergrößern. Kitcher<br />

stellt sich ganz auf die Seite von Hempel, für den Erklärungen Argumente<br />

sind. Dazu verteidigt er, was Alberto Coffa den „Deduktions-<br />

Chauvinismus“ genannt hat. Aber damit hatte schon Hempel seine<br />

Schwierigkeiten (s.a. VIII.B.1), auf die Kitcher (1989, 448ff) Erwiderungen<br />

zu formulieren sucht. Da sind zunächst die statistischen Erklärungen,<br />

auf die wir in verschiedenen Bereichen der Wissenschaften stoßen.<br />

Ihnen gegenüber stützt sich Kitcher auf die naheliegende und bereits genannte<br />

Strategie, die Wahrscheinlichkeiten in diesen Erklärungen als<br />

Grad von Unkenntnis der eigentlich zugrundeliegenden deduktiven Erklärung<br />

anzusehen. Dabei gesteht er zu, daß diese Vorgehensweise zumindest<br />

auf den ersten Blick für die Quantenmechanik versagt, aber<br />

auch für andere Fälle ist die Hoffnung auf eine deduktive Erklärung vermutlich<br />

eher Wunschdenken als durch handfeste Daten zu begründen.<br />

Doch Kitcher (1989, 450) bemüht sich trotzdem, den Deduktions-<br />

Chauvinismus sogar für den Fall der Quantenmechanik zu verteidigen.<br />

Er bespricht dazu den Fall zweier Teilchen, die auf eine Potentialschwelle<br />

treffen, wie er von der Quantenmechanik beschrieben wird. Nehmen<br />

wir an, eines tunnelt trotz einer geringen Wahrscheinlichkeit von 0,1<br />

durch und das andere wird reflektiert. Nach Kitcher erklärt die Quantenmechanik<br />

nicht, wieso das eine Teilchen die Schwelle durchtunnelte,<br />

sondern bietet höchstens eine wie-möglich-Erklärung dafür an. Warum<br />

das eine Teilchen durchtunnelte, das andere jedoch nicht, bleibt dagegen<br />

grundsätzlich unerklärlich, wenn die Quantenmechanik alles sagt, was es<br />

in diesem Fall zu sagen gibt. Die deduktive Erklärungstheorie verpaßt<br />

nach Kitcher in diesen Punkten eigentlich keine Erklärungschancen. Allerdings<br />

erklärt die Quantenmechanik wenigstens noch bestimmte relative<br />

Häufigkeiten, die wir in diesen Experimenten beobachten können.<br />

Oder sie erklärt für bestimmte Kontrastklassen die Reflektion von Teilchen.<br />

Dabei handelt es sich jeweils um genuin statistische Erklärungen,<br />

die wir nicht dem Deduktions-Chauvinismus opfern sollten.<br />

Auch wenn Kitcher mit seiner Analyse quantenmechanischer Erklärungen<br />

richtig liegt, so bleiben doch die Fälle von historischen und evolutionären<br />

Erklärungen, in denen nicht unbedingt statistische Gesetze


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 448<br />

vorliegen, wir aber ebenfalls weit davon entfernt sind, die zu erklärenden<br />

Ereignisse deduzieren zu können. Die vielen derartigen Beispiele, in<br />

denen wir manchmal auch von „wie-möglich-Erklärungen“ sprechen,<br />

belegen zumindest, daß es sich nicht um eine unbedeutende Teilklasse<br />

von Erklärungen handelt, die wir für Untersuchungen der Struktur von<br />

wissenschaftlichen Erklärungen nicht ernstzunehmen haben. Daneben<br />

trifft Kitchers Analyse nicht den Fall statistischer Erklärungen mit hohen<br />

Wahrscheinlichkeiten. Hätte das Teilchen bei einer Wahrscheinlichkeit<br />

von 0,99 die Potentialschwelle überwunden, wäre diese Wahrscheinlichkeit<br />

nicht mehr nur eine Erklärung für die Möglichkeit des Durchtunnelns,<br />

sondern auch als eine Erklärung für das tatsächliche Ereignis zu<br />

betrachten; aber ebenfalls keine Deduktion.<br />

Das Resümee der bisherigen Diskussion des Deduktions-Chauvinismus<br />

kann daher nur lauten, daß es zumindest höchst fraglich ist, ob sie<br />

sich in allen Beispielen von wissenschaftlichen Erklärungen durchhalten<br />

läßt, und wir sollten unsere Erklärungstheorie nicht von der recht zweifelhaften<br />

Hoffnung abhängig machen, alle statistischen Erklärungen<br />

letztlich zu deduktiven verstärken zu können.<br />

Neben den statistischen Erklärungen finden wir einen anderen wichtigen<br />

metatheoretischen Phänomenbereich, den Kitcher manchmal mit<br />

unter die Probleme statistischer Theorien einzuordnen scheint, nämlich<br />

den der Approximationen und Unschärfen. Schon Popper (1972, 202)<br />

verweist darauf, daß bei fortschrittlichen Entwicklungen in der Wissenschaft,<br />

in denen die alte Theorie nicht völlig aufgegeben wird, regelmäßig<br />

die neue Theorie die alte nicht einfach übernimmt, sondern auch<br />

korrigiert. Dementsprechend sind praktisch alle interessanten Reduktionen<br />

quantitativer Theorien in der Wissenschaftsgeschichte approximative<br />

Reduktionen. Popper nennt z. B. Newtons Theorie, die die Theorien<br />

von Galileo und Kepler vereinheitlicht und erklärt, aber sie gleichzeitig<br />

auch an einigen Stellen korrigiert. Ebenso sieht es für die anderen großen<br />

„wissenschaftlichen Revolutionen“ aus, wie die Übergänge von der<br />

Newtonschen zu speziell und dann allgemein relativistischen Mechaniken<br />

und den zu den quantenmechanischen Theorien. Entsprechende Approximationen<br />

sind ein integraler Bestandteil von wissenschaftlichen Erklärungen.<br />

Das hat etwa Nancy Cartwright (1983) dazu geführt, ihren<br />

„Simulacrum account“ zu entwickeln. Wir erklären demnach nicht, wie<br />

sich die Dinge in der tatsächlichen Welt verhalten, sondern wie sie sich<br />

in einer vereinfachten und idealisierten Welt verhalten.<br />

Kitcher (1989, 453f) gibt sogar selbst einmal ein Beispiel in Form einer<br />

Anekdote aus der Wissenschaftsgeschichte zu dieser Problematik an.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 449<br />

So fragte ein Füsilier der Venezianischen Artillerie Galileo, warum seine<br />

Kanonen die größte Reichweite hätten, wenn sie in einem Winkel von<br />

45 abgefeuert würden. Das Wesentliche von Galileos Erklärung sieht<br />

wie folgt aus: Man betrachte die Kanonenkugel als Punktpartikel, die<br />

umgebende Atmosphäre als Vakuum und die Ebene als ideale euklidische<br />

Fläche. Wenn wir nun noch annehmen, daß auf die Kanonenkugel nur<br />

die Schwerkraft wirkt, können wir den idealen Abschußwinkel zu 45<br />

ausrechnen. In tatsächlichen Situationen sind natürlich all die idealen<br />

Bedingungen nicht erfüllt. Daß wir trotzdem von einer Erklärung Galileos<br />

für die größte Weite bei 45 auch für tatsächliche Kanonen sprechen<br />

können, liegt daran, daß im Rahmen der hier verlangten Genauigkeiten<br />

die meisten auftretenden Abweichungen von den idealen Bedingungen<br />

das Ergebnis nur mit so kleinen Unschärfen belasten, wie sie<br />

vom Füsilier – das heißt in dieser intendierten Anwendung von Galileos<br />

Theorie – ohne weiteres akzeptiert werden. Kitcher (1989, 454) bezieht<br />

sich auf die Quantenmechanik zur Erklärung bestimmter Abweichungen<br />

und spricht von geringen Wahrscheinlichkeiten, daß größere Abweichungen<br />

auftreten. Doch für das genannte Phänomen können wir quantenmechanische<br />

Einflüsse höchstens zu einem sehr kleinen Teil verantwortlich<br />

machen – nicht z. B. für Bodenunebenheiten etc. – und wie es<br />

zu den Unschärfen kommt, mag zunächst auch offen bleiben. Wesentlich<br />

ist es dagegen, bestimmte Idealisierungen zu akzeptieren, aber natürlich<br />

nicht alle beliebigen, sondern nur solche, für die wir in den betrachteten<br />

Anwendungen tolerierbar kleine Abweichungen zwischen unseren Meßwerten<br />

und den theoretisch vorhersagbaren Werten erhalten.<br />

Diesen Phänomenen von Unschärfen in Erklärungen und in Reduktionen<br />

und den damit verbundenen Fragen des Fortschritts von Theorien,<br />

kann Kitcher in seinem rein syntaktischen und deduktivistischen<br />

Vereinheitlichungsansatz überhaupt nicht gerecht werden. Zunächst ist<br />

in seiner deduktivistischen Konzeption kein Platz für Approximationen<br />

vorgesehen, und es bedarf auch einiger grundlegender Änderungen, um<br />

dieses Phänomen einzubringen. Wir haben jedenfalls keine wirkliche Deduktion<br />

mehr vor uns, wenn wir Unschärfen in Anschlag bringen. Was<br />

an Stelle einer Deduktion in Kitchers Konzeption treten könnte, hätte<br />

zunächst er selbst zu beantworten. Außerdem kommen an dieser Stelle<br />

die schon in (VII.C.8) geäußerten Bedenken gegenüber jeder syntaktischen<br />

Behandlung von Unschärfen zum Tragen, so daß es sogar prinzipiell<br />

fraglich ist, ob sie sich in Kitchers Ansatz unterbringen lassen. Sollte<br />

das nicht gelingen, kann er wesentliche Aspekte des Theorienfort-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 450<br />

schritts, der auch einen Übergang zu Theorien mit kleineren Unschärfemengen<br />

darstellt, nicht erfassen.<br />

Darin liegt einer der Hauptnachteile von Kitchers Vereinheitlichungskonzeption,<br />

zusammen mit ihrer Unfähigkeit die Flexibilität von<br />

Theorien und ihre inneren Zusammenhänge nachzuzeichnen. Für Fälle<br />

nicht deduktiver Erklärungen, echter statistischer Erklärungen, dem Zusammenhang<br />

vieler Theorie-Elemente und Spezialisierungen in einem<br />

ganzen Theorien-Netz etc. kann Kitcher kaum eine Analyse anbieten.<br />

Darunter muß auch sein Versuch leiden, unechte von echter Vereinheitlichung<br />

zu trennen. Wie die zahlreichen Muster, Kern- und Submuster,<br />

die mit einer Theorie assoziiert sind, zusammenspielen und wann sie zu<br />

gehaltvollen Aussagen führen, wird nicht weiter ausgearbeitet. Ob es tatsächlich<br />

gelingen würde, diese Phänomene auf der Metaebene allein mit<br />

Hilfe von Argumentmustern auch nur approximativ nachzuzeichnen,<br />

scheint mir eher fraglich. Deshalb möchte ich einen anderen Ansatz vorschlagen,<br />

der sowohl Friedmans wie auch Kitchers Einsichten reproduzieren<br />

kann, aber auf der anderen Seite von einer tiefergehenden Analyse<br />

der inneren Struktur von Theorien ausgeht, um so den genannten<br />

metatheoretischen Phänomenen gerecht zu werden.<br />

C. Einbettung in ein Modell<br />

In diesem Kapitel stelle ich eine eigene Konzeption von Vereinheitlichung<br />

vor, die gerade für den Bereich wissenschaftlicher Erklärungen<br />

wieder stärker auf das zurückgreift, was ich im Kapitel VII über die innere<br />

Struktur von Theorien gesagt habe. Das allgemeine Schlagwort, mit<br />

dem sich meine Erklärungskonzeption umreißen läßt, ist das der Einbettung<br />

in ein Modell. Demnach sind Erklärungen von Ereignissen oder Tatsachen<br />

Einbettungen dieser Tatsachen in ein Modell oder in eine Modellmenge<br />

von Modellen eines Typs und die Vereinheitlichung besteht<br />

darin, daß man mit wenigen möglichst gehaltvollen Modellen bzw. Modelltypen<br />

die zu erklärenden Phänomene zu beschreiben sucht. Im folgenden<br />

werde ich manchmal auch kurz von der Einbettungstheorie der<br />

Erklärung oder auch der Modelltheorie der Erklärung sprechen.<br />

Zunächst möchte ich diese Konzeption eher abstrakt erläutern und<br />

im folgenden anhand von Beispielen und der Problemlösefähigkeit für<br />

die Einbettungstheorie argumentieren. Dabei gehe ich von einer überwiegend<br />

informellen Darstellung schrittweise zu einer formal explizierten<br />

Erklärungstheorie über.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 451<br />

1. Ein allgemeiner Modellbegriff<br />

Ein wichtiger Punkt einer Explikation dieser Erklärungstheorie ist sicherlich<br />

der Modellbegriff selbst, der in dem Schlagwort „Einbettung in<br />

ein Modell“ verwendet wird. Für den allgemeinen Teil meiner Erklärungskonzeption<br />

möchte ich mit einem recht allgemeinen Modellbegriff<br />

arbeiten, nach dem ein Modell einfach eine Darstellung von etwas anderem<br />

ist, die speziell dazu entwickelt wurde, als Darstellung zu dienen.<br />

Um schon hier eine stärkere Abgrenzung zu eher künstlerischen Darstellungen<br />

zu gewinnen, könnte man hinzufügen, daß diese Darstellung für<br />

erkenntnistheoretische Zwecke entworfen wurde. Dabei sollen zunächst<br />

auch mechanische Modelle oder Analogiemodelle etwa im Sinn von Mary<br />

Hesse (1963) unter dem recht weitgefaßten Modellbegriff zu verstehen<br />

sein. Ebenso sind theoretische Modelle im Sinne von Achinstein und<br />

Redhead (1980) 201 hierunter zu subsumieren oder die „Simulacra“ von<br />

Cartwright (1983). Für den wissenschaftlichen Bereich möchte ich natürlich<br />

weitgehend an den schon im vorigen Kapitel vorgestellten formalen<br />

Modellbegriff der Logik anknüpfen, für den Modelle Relationsstrukturen<br />

sind, deren Grundmengen auch materielle Objekte enthalten dürfen.<br />

Die formalen Modelle in den Wissenschaften müssen nicht unbedingt<br />

durch Gesetze zu beschreiben sein, obwohl diese im Regelfall für<br />

Modellmengen wissenschaftlicher Theorien eine zentrale Rolle spielen<br />

werden. Aber gerade in den weniger stark formalisierten Disziplinen stoßen<br />

wir ebenso auf Modelle, die z. B. als Ablaufgeschichten eher narrativen<br />

Charakter haben und weitgehend ohne Gesetze zu ihrer Beschreibung<br />

auskommen. Außerdem können wissenschaftliche Modelle wie die<br />

Weltmodelle oder Klimamodelle, neben gesetzesartigen Charakterisierungen<br />

auch Einzeldaten enthalten, die über eine spezifische Situation<br />

Auskunft geben. In Klimamodellen sind das z. B. Daten über die Oberfläche<br />

der Erde und Strömungen von Luft und Wasser auf unserem Planeten.<br />

Als Modelle im allgemeineren Sinn zählen sogar Miniaturmodelle<br />

von Schiffen, Flugzeugen oder Autos, die bestimmte Eigenschaften ihrer<br />

repräsentierten Objekte im Strömungs- oder Windkanal ermitteln sollen.<br />

Offensichtlich sollte bei dieser Charakterisierung von Modellen sein,<br />

daß ein Modell keine isomorphe Abbildung von irgendwelchen Objekten<br />

und ihren Eigenschaften und Relationen sein muß. Isomorphe Zuordnungen<br />

finden sich bestenfalls zwischen bestimmten Aspekten der Wirklichkeit<br />

und bestimmten Teilen der Modelle (s. dazu Bartelborth 1993a).<br />

201 Redhead (1980, 146ff) diskutiert dort fünf Bedingungen von Achinstein<br />

für theoretische Modelle.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 452<br />

Spätere Beispiele können die Reichhaltigkeit unseres Modellbegriffs sicher<br />

besser illustrieren als eine abstrakte Erörterung.<br />

Einige Vorläufer zu einer Art von Vereinheitlichungstheorie der Erklärung<br />

wurden schon erwähnt. Speziellen Wert auf Modelle legten<br />

auch einige Wissenschaftstheoretiker und Naturwissenschaftler – man<br />

denke unter anderen an James Clerk Maxwell, Norman Cambell oder<br />

Piere Duhem –, für die meist anschauliche oder mechanische Modelle<br />

eine erstrangige Rolle spielten. Das paßt auch zu der wissenschaftstheoretischen<br />

Forderung, die von Braithwaite und anderen erhoben wurde,<br />

wonach uns das Modell vertrauter sein sollte als das Dargestellte. In einer<br />

moderneren Auffassung von Modellen sind solche Implikationen des<br />

Arbeitens mit Modellen natürlich nicht mehr zwingend. Als Vorbild für<br />

eine strukturalistische Sicht der Einbettungstheorie sind die Arbeiten<br />

von John Forge (1980 und 1985) zu nennen; mit seinem „instance view“<br />

der Erklärung, den er auch in einem semantischen Rahmen ansiedelt.<br />

Statt von der Einbettung in ein Modell spricht er davon, daß sich ein<br />

Modell als eine Instanz eines Gesetzes erweist.<br />

Einbettungen sind dabei nicht nur eine einfache einstufige Angelegenheit,<br />

sondern können in mehreren Stufen in immer neue Obermodelle<br />

erfolgen, was sogar für wissenschaftliche Erklärungen den Regelfall<br />

darstellt. Diese Stufenfolgen können von ganz unterschiedlicher Art<br />

sein. Optische Phänomene lassen sich zunächst in eine Wellentheorie des<br />

Lichts einbetten und diese wiederum in eine allgemeine Wellentheorie,<br />

in der allgemeine Phänomene wie Interferenz beschrieben werden. Insbesondere<br />

geht bereits die übliche Einbettung von Daten, die man etwa<br />

aus Messungen gewinnt, in zwei Stufen vonstatten. Zunächst müssen die<br />

endlich vielen erhobenen Daten (man könnte auch von einem Datenmodell<br />

sprechen) in ein partielles Modell einer Theorie eingebettet werden,<br />

das die „Instanziierung“ eines Phänomens darstellt und damit häufig<br />

schon unendlich viele Bahnwerte beinhaltet. Dieses partielle Modell<br />

muß nun seinerseits in ein theoretisches Modell eingebettet werden Die<br />

erste Einbettung läßt sich auch als Konzeptualisierung beschreiben, in<br />

der die Daten in der nichttheoretischen Begrifflichkeit einer Theorie formuliert<br />

werden. Als der englische Astronom Edmond Halley ab 1678<br />

auf der Insel St. Helena Daten über Kometen sammelt und dabei große<br />

Ähnlichkeiten zwischen den Bahnen und regelmäßige zeitliche Abstände<br />

von ca. 75 Jahren feststellte, vermutete er elliptische Bahnen, die sich<br />

anhand der Daten genauer angeben ließen. Damit hatte er die wenigen<br />

Meßwerte in ein partielles Modell der Newtonschen Mechanik eingebettet,<br />

das eine Instanz eines allgemeineren Phänomens von elliptischen Be-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 453<br />

wegungen von Himmelskörpern darstellt. Bereits durch diese Formulierung<br />

wurde die Kometenbewegung in einen bis dahin unbekannten theoretischen<br />

Zusammenhang zu den Planetenbewegungen gebracht, der<br />

eine erste Form von Vereinheitlichung bedeutet. Mit der Wiederkehr des<br />

Halleyschen Kometen im Jahr 1758 stieg daher das Interesse an Kometen<br />

stark an, jedoch erst im Jahre 1818 gelang es dem deutschen Astronomen<br />

Encke, die Bahn eines weiteren Kometen zu bestimmen und damit<br />

den systematischen Zusammenhang untereinander und zu den Planetenbahnen<br />

tatsächlich zu belegen.<br />

Im zweiten Schritt wird dann eine theoretische Einbettung gesucht,<br />

die nun ein ganzes Phänomen theoretisch erklärt, wobei alle Instanzen<br />

des Phänomens unter Respektierung der Querverbindungen der Theorie<br />

zu geeigneten Modellen ergänzt werden. D.h. sie werden in der Newtonschen<br />

Gravitationstheorie durch die Anziehungskräfte der Sonne und<br />

der Planeten erklärt, wobei außerdem der Identitäts- und der<br />

Extensivitätsconstraint zu berücksichtigen sind. Für theoretische Erklärungen,<br />

die Friedman für die wesentlichen Erklärungen in den Naturwissenschaften<br />

hält, spricht Friedman spätestens seit 1981 (s. Friedman<br />

1981 und 1983) ebenfalls von Erklärungen als Einbettungen:<br />

A typical, and striking, feature of advanced sciences is the procedure<br />

of theoretical explanation: the derivation of the properties of a relatively<br />

concrete and observable phenomenon by means of an embedding<br />

of that phenomenon into some larger, relatively abstract and<br />

unobservable theoretical structure. (Friedman 1981, 1)<br />

Im informellen Sinn spricht er dabei z. B. von Einbettungen der Eigenschaften<br />

von Gasen in die „Welt“ der Molekulartheorie oder der Planetenbewegung<br />

in die „Welt“ der universellen Gravitation Newtons. In seinen<br />

formaleren Darstellungen bezieht er sich aber eindeutig auf semantische<br />

Modelle wie sie auch der Strukturalismus verwendet (s. z. B. Friedman<br />

1981, 4, Anm. 2 oder 1983, 251ff). Dabei trifft er noch eine Unterscheidung<br />

zwischen Einbettungen und echten Submodellen, um den Unterschied<br />

zwischen antirealistischen und realistischen Interpretationen<br />

von Theorien damit auszudrücken. Der Einfachheit halber spreche ich<br />

jedoch nur von „Einbettungen“, möchte damit aber keineswegs antirealistische<br />

Interpretationen implizieren, denn natürlich soll die Darstellung<br />

von Theorien zunächst neutral gegenüber diesen Interpretationsmöglichkeiten<br />

sein. Das gilt um so mehr, als wir sicher Teile von Theorien realistisch<br />

interpretieren sollten, während andere Teile eher als mathemati-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 454<br />

sche Repräsentationen zu betrachten sind (s. Friedman 1981, 4ff und<br />

Bartelborth 1993a).<br />

Neben den theoretischen Erklärungen möchte ich aber wie angekündigt<br />

auch die „Common Sense“ Erklärungen einbeziehen, die sich überwiegend<br />

auf dem Niveau der begrifflichen Einbettung zu bewegen scheinen.<br />

Z. B. Abelson und Lalljee (1988), die Ideen von Schank (1986) weiterverfolgen,<br />

untersuchen in empirischen Studien „Common Sense“ Erklärungen<br />

menschlichen Verhaltens und bedienen sich ähnlicher Schemaerklärungen<br />

wie Kitcher. 202 So geht es ihnen in Erklärungen um<br />

„connecting the thing to be explained with some available conceptual<br />

pattern, appropriately modified to fit the circumstances“ (Abelson/Lalljee<br />

1988, 175). Für sie ist etwa HERZANFALL ein solcher „Erklärungsprototyp“,<br />

der eine Minitheorie beinhaltet, die die typische Geschichte<br />

dazu erzählt und überwiegend auf einer begrifflichen Ebene angesiedelt<br />

ist, also einer Art von Erläuterung des Begriffs darstellt. Dazu gehört für<br />

sie, daß es sich typischerweise um einen Mann (hier eine Anpassung an<br />

die Umstände eines Falles, zu dessen Erklärung sich die Autoren anschikken)<br />

über 50 handelt, der raucht und/oder übergewichtig ist und/oder<br />

hohen Blutdruck hat … und eventuell an den Folgen einer solchen Herzattacke<br />

stirbt. Mit diesem Prototyp HERZANFALL können sie dann den<br />

Tod eines bestimmten Menschen auf Common-Sense Niveau erklären,<br />

wenn er sich in eine derartige Geschichte einbetten läßt.<br />

Auch im wissenschaftlichen Bereich lassen sich viele Einbettungen<br />

finden, die sicher noch nicht den Status hochtheoretischer Einbettungen<br />

verdienen, sondern eher Einbettungen in Alltagsgeschichten auf einer<br />

nichttheoretischen Ebene darstellen. Hierhin gehören etwa kommentierte<br />

Ablaufschilderungen wie die bereits genannte Erklärung der Entstehung<br />

des Ablasses (s. VIII.B.1.b). Dabei werden einige historische Daten,<br />

die uns bekannt sind, in eine umfangreichere Geschichte eingebettet,<br />

die wir als Modell einer Common-Sense Psychologie bezeichnen<br />

können, wobei diese Einbettung durchaus einen Erklärungswert für uns<br />

besitzen kann, auch wenn keine Naturgesetze zitiert wurden und auch<br />

keine Deduktion dieser Praxis stattfand.<br />

202 Sie sprechen zwar von kausalen Erklärungen, aber was sie tatsächlich<br />

verfolgen, sind nur die Prototypen oder Schemata, während inhaltliche Ausgestaltungen<br />

von Kausalität fehlen. Hier findet sich ein typisches Beispiel für eine<br />

Verwendung eines deflationären Kausalitätskonzept.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 455<br />

2. Einbettungen und Erklärungen<br />

Jede Erklärung ist eine Form von Einbettung, so lautet die These der<br />

letzten Abschnitte, doch natürlich muß nicht jede Einbettung schon eine<br />

Erklärung darstellen. Zunächst sei daran erinnert, daß es eine Sache des<br />

Grades ist, ob etwas eine Erklärung ist. Unter den Erklärungen finden<br />

sich Fälle von tiefergehenden und gehaltvolleren Erklärungen und solche,<br />

für das (noch) nicht der Fall ist. Einen Beispieltyp von Erklärungen<br />

auf einem niedrigeren Erklärungsniveau hatten wir in den eher begrifflichen<br />

Einbettungen gefunden. Wenn etwa Kepler auf die Frage, warum<br />

ein bestimmter Planet sich zu verschiedenen Zeiten an bestimmten Orten<br />

befunden hat, antwortet, daß sich die Planeten auf ellipsenförmigen<br />

Bahnen mit der Sonne in einem Brennpunkt bewegen, wobei sie mit einer<br />

berechenbaren Geschwindigkeit um die Sonne fliegen, und die in<br />

Rede stehenden Orte und Zeiten nachweisbar genau auf der Elipsenbahn<br />

dieses Planeten liegen, so bietet das schon eine erste Erklärung.<br />

Wir erhalten von Kepler wichtige Informationen, die sich sogar für Voraussagezwecke<br />

eignen und in diesem Sinne erklären, warum der Planet<br />

gerade durch diese Raum-Zeit-Punkte und nicht durch beliebige andere<br />

lief. Allerdings können wir hier nicht von einer Ursachenerklärung sprechen,<br />

wie sie uns die Newtonsche Theorie zu bieten hat, die auch noch<br />

den Bahnverlauf selbst erklären kann und nicht einfach Ellipsenbahnen<br />

als unhintergehbares Faktum akzeptieren muß. Daß die Newtonsche Erklärung<br />

besser ist, wird natürlich nicht nur in der intuitiven Redeweise<br />

von Ursachen deutlich, sondern läßt sich in einem Vereinheitlichungsansatz<br />

verständlich machen. Die Newtonsche Theorie vereinheitlicht<br />

schließlich eine Vielzahl von Partikelsystemen unter einem Dach, während<br />

die Keplersche Planetenbahnentheorie nur einen sehr engen Ausschnitt<br />

davon beschreibt.<br />

Ähnlich ist das für Einbettungen in das Periodensystem. Sie geben<br />

uns erste Hinweise, warum ein Gas besonders stabil ist, aber diese Erklärungen<br />

sind als bloße Klassifikationen natürlich recht schwach, obwohl<br />

sie Prognosen erlauben. In anderen Disziplinen und in Stereotypenerklärungen<br />

wie HERZANFALL (s.o.) stoßen wir sicher auf noch schwächere<br />

Erklärungen und schließlich sind wir nicht mehr bereit, überhaupt noch<br />

von Erklärung zu sprechen, weil den Einbettungen jede Stringenz, jeder<br />

Gehalt, abgeht. Es wird deshalb notwendig sein, einen Schwellenwert<br />

anzugeben, ab dem eine Einbettung als eine Erklärung anzusehen ist und<br />

wann sie bestenfalls als eine Vorstufe zu einer Erklärung betrachtet werden<br />

kann. Für einen Vorschlag, wo wir die untere Grenze ziehen sollten,<br />

möchte ich den empirischen Gehalt der einbettenden Theorie einsetzen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 456<br />

Hat eine Einbettung keinen empirischen Gehalt mehr, d.h. kann die einbettende<br />

Theorie keine Situation als nicht einbettbar zurückweisen, sollten<br />

wir von einer rein begrifflichen Einbettung ohne Erklärungswert<br />

sprechen. Besitzt die Theorie dagegen empirischen Gehalt, gibt sie uns<br />

wenigstens erste Informationen, warum gerade diese Situation vorliegt<br />

und nicht eine beliebige andere.<br />

Für die Einbettung in wissenschaftliche Theorien, also die von partiellen<br />

Modellen in aktuelle, ist der empirische Gehalt präzise definiert<br />

worden und kann nun für die verlangte Abgrenzung herangezogen werden.<br />

Für informelle Einbettungen ist das natürlich nicht in derselben<br />

Strenge möglich, doch es läßt sich wenigstens intuitiv bestimmen, ob die<br />

Einbettung bestimmte Situationen ausschließt oder nur eine Klassifikation<br />

von an sich beliebigen Situationen darstellt. Darüber hinaus erlaubt<br />

der empirische Gehalt auch eine Präzisierung für Vergleiche von Theorien<br />

auf ihre Erklärungskraft hin, doch dazu später mehr.<br />

Im Rahmen der strukturalistischen Auffassung von Theorien haben<br />

übrigens sogar Common-Sense Theorien eine Chance, gehaltvolle Erklärungen<br />

zu produzieren, denn für den empirischen Gehalt werden auch<br />

einige holistische Phänomene berücksichtigt. Zunächst müssen die Einbettungen<br />

nicht nur einzelne Phänomene einbetten, sondern gleichzeitig<br />

für ganze Klassen von intendierten Anwendungen Gültigkeit besitzen.<br />

Dazu müssen die Einbettungen nicht nur die gesetzesartigen Bestimmungen<br />

der Theorie erfüllen, sondern ebenso eine Reihe von intertheoretischen<br />

Anforderungen, die für Common-Sense Theorien z. B. in den diversen<br />

Bedeutungsbeziehungen in unserer Sprache (und etwa den Putnamschen<br />

Stereotypen) zu sehen sind.<br />

Außerdem erlaubt es die Einbettungstheorie, die wichtigsten Dimensionen<br />

der Vereinheitlichung in einen formal präzisen Rahmen zu integrieren.<br />

Was Kitcher als die Stringenz der Vereinheitlichung bezeichnete,<br />

läßt sich in erster Näherung durch den theoretischen Gehalt einer Theorie<br />

beschreiben, denn dieser gibt Auskunft darüber, wie anspruchsvoll<br />

die Einbettung ist. Neben der Stringenz einer Theorie entscheidet ihre<br />

Systematisierungsleistung über den Erklärungswert einer Theorie. Sie<br />

soll nicht nur gehaltvolle Aussagen über einzelne intendierte Anwendungen<br />

machen, sondern eine möglichst große Zahl von Anwendungen in<br />

einem systematischen Rahmen unterbringen, wodurch auch Verbindungen<br />

zwischen möglichst vielen Anwendungen entstehen. Diese Vernetzung<br />

ist dabei um so hilfreicher, je verschiedenartigere Typen von intendierten<br />

Anwendungen verknüpft werden, denn gerade für sie ist sonst<br />

am ehesten zu erwarten, daß sie zu getrennten Subsystemen gehören


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 457<br />

könnten. Dadurch wird Friedmans Konzeption der Vereinheitlichung<br />

möglichst vieler Phänomene in der semantischen Theorienkonzeption<br />

umgesetzt, und schließlich werde ich auch seine Überlegung, erklärende<br />

Theorien hätten möglichst atomar zu sein, in einer etwas anderen Form<br />

unter dem Stichwort der organischen Einheitlichkeit von Theorien mitberücksichtigen.<br />

Diese Dimensionen der Vereinheitlichung entsprechen den intuitiven<br />

Vorgaben aus der Erklärungsdebatte. Zugleich decken sie sich mit unseren<br />

erkenntnistheoretischen Anforderungen an Erklärungen. Eine hohe<br />

Systematisierungsleistung einer erklärenden Theorie stellt sicher, daß ihre<br />

Erklärungen viele inferentielle Verbindungen der erklärten Phänomene<br />

zu anderen Phänomenen etablieren. Das trägt bereits lokal wie<br />

global zur Kohärenz bei. Daß diese Verbindungen möglichst stark sind,<br />

wird durch die Forderung nach Stringenz der Vereinheitlichung erfaßt.<br />

Schließlich sorgt die organische Einheitlichkeit einer Theorie dafür, daß<br />

die Verbindungen anhand von Knoten in unserem Netz nicht bloß künstlich,<br />

etwa durch Konjunktion des Verbundenen, herbeigeführt wird, sondern<br />

eine genuine Vernetzung darstellt.<br />

Daß die Einbettungstheorie sich auch mit der vertretenen Auffassung<br />

von wissenschaftlichem Verstehen verträgt oder sogar deckt, ist ebenfalls<br />

offensichtlich. Die Einbettung in ein Modell ist ein wichtiger Spezialfall<br />

der kohärenten Einbettung in unsere Überzeugungssysteme. Sie zeigt,<br />

wie sich einzelne Instanzen bestimmter Phänomene in akzeptierte Theorien<br />

einbetten lassen, wodurch sie indirekt in unsere Meinungssysteme<br />

integriert werden.<br />

D. Ein Beispiel für Vereinheitlichung<br />

In dieser Arbeit ist nicht der Raum für detaillierte Fallstudien, aber zu<br />

Zwecken der Illustration möchte ich für eine entwickelte Theorie, nämlich<br />

die Elektrodynamik, einige intendierte Anwendungen aus unterschiedlichen<br />

Bereichen nennen. Das soll die Bandbreite der Vereinheitlichung<br />

unserer wissenschaftlichen Erkenntnisse durch diese Theorie vor<br />

Augen zu führen. Zwangsläufig ist es dabei nicht möglich, die wissenschaftlichen<br />

Erklärungen, die die Elektrodynamik für die angeführten<br />

Phänomene gibt, hier zu präsentieren. Auch das ist eine Aufgabe für eigene<br />

ausführlichere Fallstudien. Außerdem sollte für die Phänomene immer<br />

klar sein, daß nicht die Maxwellsche Theorie allein in der Lage ist,<br />

die Erklärungsleistung zu erbringen, sondern meist mehrere Theorien


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 458<br />

dazu notwendig sind. Um die Leistungsfähigkeit der Elektrodynamik wenigstens<br />

anzudeuten, werde ich eine Auswahl von Phänomenen und<br />

technischen Entwicklungen ungefähr chronologisch anführen. Das betont<br />

den dynamischen Aspekt der langen Geschichte von Entdeckungen,<br />

die heutzutage bereits in dieser Theorie vereinheitlicht werden oder erst<br />

anhand der Theorie entdeckt wurden. 203 Darunter fallen Phänomene<br />

aus den Bereichen Magnetismus, Elektrizität, aber auch der Optik und<br />

anderer Gebiete der elektromagnetischen Strahlung.<br />

Zur Elektrodynamik:<br />

Magneten sollen bereits im 6. Jh. v. Chr. entdeckt worden sein. Erste<br />

Beschreibungen des Magnetismus mit einer animistischen Theorie,<br />

die ihn erklären sollte, finden sich schon bei Thales von Milet. Der<br />

Magnetismus bestimmter Materialien kann heute mit Hilfe von<br />

Atomtheorien und Elektrodynamik erklärt werden.<br />

Weitere magnetische Phänomene fand man im Erdmagnetismus. In<br />

Europa bestimmt man seit 1180 mit seiner Hilfe die Himmelsrichtung.<br />

Kolumbus vermerkte aber schon 1492 die Abweichungen der<br />

Kompaßnadel von der Nordrichtung, die magnetische Deklination.<br />

William Gilbert deutete die Erde um 1600 als einen Magneten und<br />

erklärte damit als erster das Verhalten der Kompaßnadel.<br />

1269 entdeckte Pelerin de Maricourt gelegentlich einer längeren Belagerung,<br />

daß Magneten magnetische Pole besitzen.<br />

Bereits Thales soll sich mit Bernstein beschäftigt haben, der sich beim<br />

Reiben elektrostatisch auflädt. Gilbert nannte ähnliche Stoffe (Felskristall<br />

z. B.) elektrische Stoffe (nach „elektron“ griechisch für Bernstein).<br />

Guericke baute um 1660 mit Hilfe einer rotierenden Schwefelkugel<br />

das erste Gerät zur Erzeugung von Reibungselektrizität, das<br />

sogar Funken abgab. Mit einer Glaskugel konnte Hauksbee das Gerät<br />

1706 wesentlich verbessern.<br />

Grimaldis Entdeckung der Diffraktion von Licht wurde 1665 posthum<br />

veröffentlicht. Newton bemerkte 1666, daß sich das weiße<br />

Licht in verschiedene Farben aufspalten läßt.<br />

Romer schätzte 1675 die Lichtgeschwindigkeit auf 225 000 km/s.<br />

Bradley, der sie 1728 anhand der von ihm verstandenen Abberation<br />

203 Dabei stütze ich mich unter anderem auf die Chronologie in Asimov<br />

(1991), aber es soll sich nicht um eine vollständige Chronologie aller Phänomene<br />

und Ereignisse handeln, die in der Elektrodynamik erklärt werden können,<br />

sondern nur um eine Auswahl.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 459<br />

des Lichts bei der Sternenbeobachtung schätzte, kam auf 283 000<br />

km/s.<br />

Newton behauptete, das Licht bestehe aus Teilchen, während Huygens<br />

es für eine Wellenbewegung im Äther hielt.<br />

Gray fand 1729, daß Elektrizität durch manche Stoffe, die er Leiter<br />

nannte floß, und hielt sie für eine Flüssigkeit. Du Fay vermutete<br />

1733 anhand von Anziehungs- und Abstoßungsphänomenen, daß es<br />

sich um zwei Flüssigkeiten handeln müsse.<br />

Im Jahre 1945 bauten Musschenbroek und unabhängig von ihm<br />

Kleist Geräte zur Speicherung von Elektrizität, die nach der Universität<br />

Leiden, wo ersterer arbeitete, Leidener Flasche genannt wurde.<br />

Cronstedt entdeckte, daß neben Eisen auch Nickel und Kobalt von<br />

Magneten angezogen werden.<br />

Franklin, der nur an eine einzige elektrische Flüssigkeit glaubte, entdeckte,<br />

daß auch Blitze elektrische Entladungen darstellen und entwickelte<br />

den Blitzableiter.<br />

Galvani bemerkte, daß auch die Muskeln toter Frösche bei Elektrizität<br />

zucken, kam in diesem Zusammenhang aber noch auf die Vermutung<br />

tierischer Elektrizität.<br />

Im Jahre 1800 baute Volta die erste elektrische Batterie, mit Kupfer<br />

und Zinkplatten sowie in Salzlösung getränkten Scheiben aus Pappe.<br />

Der Chemiker William Nicholson nutzte sie kurz darauf, um Wasser<br />

zu elektrolysieren.<br />

Ebenfalls im Jahr 1800 entdeckte Herschel die Infrarotstrahlung, als<br />

er einen besonderen Temperaturanstieg am roten Ende des Lichtspektrums<br />

feststellte.<br />

Ein Jahr später konnte Ritter die besonders schnelle Färbung von Silbernitratstreifen<br />

am anderen Ende des Spektrums beobachten, die<br />

auf eine ebenfalls unsichtbare Strahlung – die Ultraviolettstrahlung –<br />

zurückgeht.<br />

Im selben Jahr führte Young seine Lichtexperimente zur Interferenz<br />

und Beugung von Lichtwellen durch und ermittelte dabei u.a. auch<br />

die Länge von Lichtwellen.<br />

Davy (1807) isolierte mittels elektrochemischer Verfahren die Elemente<br />

Barium, Strontium, Calcium und Magnesium.<br />

In den folgenden Jahren wurden eine Reihe von Phänomenen des polarisierten<br />

Lichts von Physikern wie Malus und dem Chemiker Berzelius<br />

untersucht, die Fresnel (1818) z.T. anhand einer mathematisierten<br />

Fassung einer Theorie von Transversalwellen erklären konnte.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 460<br />

Das Jahr 1820 war besonders folgenreich. Ørsted bemerkte den Einfluß<br />

eines Stroms auf die Kompaßnadel, was Ampère zu systematischen<br />

Versuchen der Wirkungen zweier stromdurchflossener Drähte<br />

veranlaßte und Schweigger auf den Gedanken brachte, das erste<br />

Meßgerät für Stromstärken zu bauen. Arago konnte die Ähnlichkeit<br />

der Anziehung durch einen Kupferdraht, der einen Strom führt, mit<br />

der eines Magneten demonstrieren.<br />

Faraday (1821) konnte zeigen, wie sich Elektrizität in Bewegung umsetzen<br />

ließ und Seebeck, wie sich Wärme in Elektrizität verwandeln<br />

ließ (Seebeck-Effekt).<br />

Ohm (1827) ermittelte den Zusammenhang von Stromstärke und<br />

Dicke sowie Länge des Leitungsdrahtes.<br />

Faraday (1831) entwickelte den ersten elektrischen Generator, der<br />

sinnvoll durch einen Elektromotor (von Henry) ergänzt wurde.<br />

Um 1844 baute Morse seinen Telegraphen, der die Erkenntnisse über<br />

elektrische Magneten und Batterien umsetzte.<br />

Fluoreszenz in luftleeren Glasgefäßen, durch die man einen Strom<br />

schickt, hatte schon Faraday bemerkt, aber systematisch untersuchte<br />

sie zuerst der Physiker Plücker 1858 in einer Geißlerschen Röhre.<br />

In der zweiten Hälfte des 19. Jahrhunderts gelang es Physikern wie<br />

Maxwell und Hertz eine erste einheitliche Theorie der Elektrodynamik<br />

zu entwerfen – die in ihren Grundgleichungen noch heute gültig<br />

ist – die den genauen Zusammenhang von elektrischen und magnetischen<br />

Feldern und oszillierenden Ladungen angab und erstmals die<br />

Ausbreitung elektromagnetischer Wellen mathematisch präzise beschrieb.<br />

Damit war die Entfaltung der Elektrodynamik und das Entdecken von<br />

Phänomenen, die hauptsächlich sie beschreibt, natürlich noch lange<br />

nicht zu Ende. Die elektrischen Geräte und insbesondere die Resultate<br />

der Elektrotechnik und Elektronik geben heutzutage eine beredtes Zeugnis<br />

dafür, wie rasant die Entwicklung weiterging. Aber dieser kleine Ausschnitt<br />

der Entwicklung mag genügen, um zu erkennen, welch ungeheuer<br />

große Vereinheitlichungsleistung eine Theorie wie die Elektrodynamik<br />

erbringt. Das erklärt zugleich, warum wir sie gegenüber ihren „Konkurrenten“<br />

für überlegen halten. Die vielen kleinen Theorien, die man<br />

im Laufe der Zeit entwickelte, um die einzelnen beschriebenen Phänomene<br />

zu erklären, können gegenüber dieser Vereinheitlichungskraft<br />

nicht bestehen. Niemand würde diese „kleinen“ Theorien wie etwa die<br />

Flüssigkeitstheorien der Elektrizität ernsthaft als Konkurrenten der<br />

Maxwellschen Elektrodynamik ansehen, auch wenn es keine direkten


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 461<br />

experimentellen Resultate gegen sie gäbe. Schon durch ihre umfassende<br />

Vereinheitlichungsleistung überzeugt uns die Maxwellsche Theorie. 204<br />

Auf welche Weise die Vereinheitlichung vor sich geht und welche Rolle<br />

den Komponenten einer Theorie dabei zufällt, soll der nächste Abschnitt<br />

aufklären helfen.<br />

E. Komponenten der Vereinheitlichung<br />

Die strukturalistische Sichtweise von Theorien gestattet eine Präzisierung<br />

zumindest wesentlicher Teile der erklärenden Einbettung. Das geschieht<br />

anhand der in (VII.C) angegebenen inneren Struktur von Theorien<br />

und der darauf fußenden Explikation ihres empirischen Gehalts. Jede<br />

Einbettungsfunktion e, die ein partielles Modell x zu einem theoretischem<br />

Modell ergänzt und dabei die dort angeführten Anforderungen<br />

an Einbettungsfunktionen erfüllt, ist eine Erklärung des in x beschriebenen<br />

Ereignisses, wenn sie stringent und vereinheitlichend ist. Die Bedingungen,<br />

die die Komponenten einer Theorie T ihr dazu auferlegen, bestimmen,<br />

in welchem Ausmaß die Theorie vereinheitlichend wirkt und<br />

wie stringent sie dabei ist. Ehe ich zu einer formalen Explikation der<br />

Vereinheitlichungskraft von Theorien und speziellen Einbettungen übergehen,<br />

möchte ich die Beiträge der verschiedenen Theoriekomponenten<br />

informell beschreiben.<br />

1. Begriffliche Vereinheitlichung in Strukturarten<br />

Die gesuchten Beiträge zur stringenten Vereinheitlichung durch die Theorie<br />

sind von recht unterschiedlichem Gehalt. Da ist als erstes der begriffliche<br />

Rahmen zu nennen, den die potentiellen Modelle bereitstellen. Jede<br />

Einbettungsfunktion hat jedes Phänomen zunächst einer einheitlichen<br />

begrifflichen Einordnung zu unterziehen, die z. B. bestimmte Idealisierungen<br />

beinhaltet. Man spricht etwa in der KPM (klassischen Partikelmechanik)<br />

von Punktpartikeln, wohlwissend, daß tatsächliche Partikel<br />

immer eine Ausdehnung besitzen, und impliziert damit, daß diese Idealisierung<br />

vernachlässigbare Auswirkungen auf das Verhältnis von Theorie<br />

204 Eine viel stärker inhaltlich auf die Elektrodynamik eingehende Fallstudie<br />

zu ihrer Vereinheitlichungskraft bietet Morrison (1992). Eine ausführlichere<br />

Darstellung der klassischen Elektrodynamik im strukturalistischen Theorienkonzept<br />

findet sich in Bartelborth (1988).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 462<br />

und Erfahrung besitzt, die zumindest innerhalb der erlaubten Unschärfen<br />

angesiedelt sind. Daneben wird jedes physikalische System auf die<br />

wenigen Eigenschaften reduziert, die in der KPM eine Rolle spielen, wie<br />

Kräfte, Massen, Weg-Zeit-Funktionen und bestimmte mechanische Parameter,<br />

während zahllose andere Eigenschaften wie die Gestalten und<br />

Farben der Partikel weggelassen werden. Auch wenn diese begrifflichen<br />

Vereinheitlichungen nicht die Stringenz von Vereinheitlichungen durch<br />

Gesetze erreichen, so stellen sie doch eine wichtige Ebene der theoretischen<br />

Vereinheitlichung dar, die bereits erste inhaltliche Konsequenzen<br />

hat.<br />

Daß diese begriffliche Einordnung zu keiner Pseudovereinheitlichung<br />

verkommt, bei der einfach nur ein Name für vollkommen Unterschiedliches<br />

vergeben wird, dafür sorgt die Forderung an die potentiellen<br />

Modelle einer Theorie, daß sie einer Strukturart angehören sollen,<br />

d.h. daß sie alle von demselben Strukturtyp sein sollen. Diese Forderung<br />

läßt sich anhand des Begriffs der Strukturart von Bourbaki präzisieren.<br />

Sie dient dazu, strukturelle Ähnlichkeiten zwischen Relationsstrukturen<br />

= mit Mengen Dj und Relationen Rl darauf<br />

sichtbar zu machen. Zu diesem Begriff zunächst einige Hilfsbegriffe<br />

(s.a. Ludwig 1978, 58ff oder BMS 6ff):<br />

Eine Menge L, die nur aufgrund der wiederholten Anwendung des Cartesischen<br />

Produkts „“ und der Potenzmengenoperation „Pot“ auf<br />

D1,…,Dn (den Basismengen) entstanden ist, heiße Leitermenge L über<br />

. Bei entsprechendem n könnte eine solche Menge etwa folgendermaßen<br />

aussehen:<br />

L = Pot(D3 Pot(D5D1))<br />

Diese Menge hat einen bestimmten mengentheoretischen Typ , der<br />

diese Konstruktion aus den Basismengen typisiert, den wir etwa durch:<br />

(D) = Pot(3 Pot(51))<br />

charakterisieren können. gibt uns also ein mengentheoretisches (Leiter-)<br />

Verfahren an, wie wir von den Basismengen D zu der Leitermenge<br />

L = (D) gelangen können. Für eine Strukturart mit k Relationen<br />

zu den Basismengen benötigt man Typisierungen<br />

des (komplexen) Typs = und erhält:<br />

Eine Strukturart vom Typ zur Basis D ist die Menge:<br />

{; i gilt: Ri i(D)}


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 463<br />

D.h., eine Strukturart vom Typ zur Basis D ist die Menge aller Relationsstrukturen<br />

mit Basismengen und Relationen<br />

, für die die Relationen an der i-ten Stelle alle von demselben<br />

Typ i sind. Strukturarten sind damit Mengen von Relationsstrukturen<br />

mit denselben Grundmengen und strukturähnlich aufgebauten<br />

Relationen. Diese Einheitlichkeit verlangen wir nun auch noch zusätzlich<br />

von den potentiellen Modellen einer Theorie: 205<br />

Die Menge Mp der potentiellen Modelle einer Theorie muß eine<br />

Strukturart bilden.<br />

Die potentiellen Modelle einer Theorie lassen sich im allgemeinen nicht<br />

allein durch Typisierungen definieren, sondern sind weiter einzuschränken<br />

durch Bedingungen, wie daß eine Relation eine Funktion und außerdem<br />

differenzierbar sein soll. Diese zusätzlichen Forderungen, die zu<br />

den rein mengentheoretischen Typisierungen hinzukommen und mathematische<br />

Bedingungen an die Relationen formulieren, die noch keine<br />

Gesetze sind, sollen „Charakterisierungen“ heißen (s. BMS 14ff).<br />

Eine Abweichung von der ursprünglichen Bourbaki Definition verdient<br />

noch Erwähnung. Für einschränkende Zusatzbedingungen – in unserem<br />

Fall die Charakterisierungen – forderte Bourbaki, daß sie „transportabel“<br />

sein sollten, d.h. daß sie beim Transport von einer Menge zu<br />

einer isomorphen Menge stabil sein sollten (s. Scheibe 1981, 314). Bourbaki<br />

ließ als Bedingungen also nur strukturelle Bedingungen zu, die<br />

nicht von den speziellen Elementen der Grundmengen abhängen dürfen.<br />

Scheibe (1981) versucht durch solche Transportabilitätsbedingung wesentliche<br />

Invarianzeigenschaften von Theorien auszudrücken. Doch diese<br />

Forderung Bourbakis paßt besser zu mathematischen Theorien als zu<br />

empirischen, die ja auch Theorien über ganz bestimmte Objekte sein<br />

können (die Sonne nimmt in Keplers Theorie z. B. eine Sonderstellung<br />

ein und ist nicht gegen die Planeten austauschbar). Diesen Elementen<br />

mit Sonderstellung können wir natürlich immer eine eigenständige<br />

Grundmenge einräumen, um die Transportabilität zu erhalten, aber damit<br />

umgehen wir die Bedingung nur und gestehen zu, daß sie eigentlich<br />

nicht für empirische Theorien geeignet ist. Deshalb verzichtet der Strukturalismus<br />

auf diese Forderung. Ich verzichte weiterhin darauf – im Unterschied<br />

zur Darstellung in BMS –, auch von den Modellen einer Theorie<br />

zu verlangen, daß sie eine Strukturart bilden, denn ohne Transportabilitätsforderung<br />

kommt dadurch nichts Neues zu der bisherigen Forderung<br />

an die potentiellen Modelle hinzu.<br />

205 Damit gelten sie auch automatisch für die partiellen Modelle.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 464<br />

Mit der Bedingung, daß die potentiellen Modellmengen zu einer<br />

Strukturart gehören sollen, erreichen wir eine entsprechend einheitliche<br />

Beschreibung aller Systeme, die von einem Theorien-Netz behandelt<br />

werden. Insbesondere sind damit die Teil-Ganzes- Beziehungen und Art-<br />

Gattungs-Beziehungen für ein ganzes Theorie-Element und sogar ein<br />

ganzes Theorien-Netz einheitlich festgelegt. Das scheint ein wesentliches<br />

Merkmal der normalwissenschaftlichen Forschung zu sein. Wenn wir etwa<br />

Kuhns Netzmetapher für begriffliche Zusammenhänge folgen, daß<br />

jede theoretische Änderung eine leichte Bedeutungsverschiebung unseres<br />

Begriffsnetzes bedeutet, so werden wir trotzdem nicht gleich jede Bedeutungsänderung<br />

als wissenschaftliche Revolution ansehen. Wie groß müssen<br />

die Änderungen aber sein, um von einer „Revolution“ sprechen zu<br />

können?<br />

Dazu hat Thagard (1992, 30ff) einen Vorschlag gemacht und in einer<br />

großen Zahl von Fallstudien seine Brauchbarkeit belegt. Er geht davon<br />

aus, daß gerade Teil-Ganzes Beziehungen und Einteilungen in Arten<br />

entscheidende Auskünfte über die Ontologien unserer Theorien bieten.<br />

Schließlich sagen sie uns, aus welchen Konstituenten die Welt besteht.<br />

Für echte Revolutionen finden wir daher Verschiebungen vor allem in<br />

diesem Bereich. Die Evolutionstheorie veränderte z. B. den Artbegriff<br />

von einer morphologischen Konzeption mit synchronischen Kriterien<br />

der Zugehörigkeit zu einer genealogischen Konzeption. Besonders<br />

schockierend war für Darwins Zeitgenossen die dabei erfolgte Neueinteilung<br />

des Menschen von einer herausgehobenen selbständigen Kategorie<br />

zu einer unter anderen Tieren (s. Thagard 1992, 136ff). Es finden<br />

sich in den Wissenschaften zahlreiche weitere Beispiele für derartige Reklassifizierungen,<br />

die ihre Bedeutung für revolutionäre versus normalwissenschaftliche<br />

Entwicklungen nahelegen. Die Typisierungen und Charakterisierungen,<br />

die einen Typ von potentiellen Modellen für eine<br />

Theorie festlegen, sind zwar im allgemeinen keine besonders stringenten<br />

Vereinheitlichungen, aber sie sind immerhin geeignet, die ontologischen<br />

Hierarchien einer Theorie festzulegen.<br />

2. Sukzessive Vereinheitlichung durch Gesetze<br />

Stärkere inhaltliche Anforderungen, die besonders die Stringenz der Vereinheitlichung<br />

erhöhen, finden sich erst in der Beschränkung auf die<br />

Modellmenge. Damit werden nun, ganz im Sinne Friedmans, bestimmte<br />

Phänomene unter einige wenige Gesetze gebracht. Allerdings ist dabei<br />

zu beachten, daß hier sukzessive eine Reihe von Einbettungen in einem


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 465<br />

Theorien-Netz erfolgt. Zunächst werden alle intendierten Anwendungen<br />

einer Theorie unter ihre Grundgesetze im Basis-Theorie-Element subsumiert.<br />

Das erweist sich in den meisten Fällen jedoch kaum als stringente<br />

Einbettung, wie Fallstudien zu verschiedenen Theorien gezeigt haben,<br />

nach denen das Basis-Theorie-Element allein gehaltsleer war. Erst mit<br />

der Subsumption unter die Spezialisierungen des Netzes und die sie charakterisierenden<br />

Spezialgesetze ist eine substantielle empirische Behauptung<br />

verbunden. Die kann sukzessive durch weitere Spezialisierungen bis<br />

in Bereiche technischer Anwendungen der Theorie hinein verstärkt werden.<br />

An dieser Stelle zeigt sich auch der Vorteil eines hierarchischen Aufbaus<br />

einer Theorie in Form eines Netzes. Eine Theorie soll nämlich auf<br />

der einen Seite eine Vereinheitlichung und Systematisierung vieler Phänomene<br />

bieten, dabei aber zugleich möglichst informationsreich sein.<br />

Diese beiden Forderungen stehen in einem Spannungsverhältnis, das immer<br />

eine Abwägung gegeneinander erfordert. Doch diese hat nicht in einem<br />

Schritt ein für allemal zu erfolgen, sondern kann in mehreren<br />

Schritten auf unterschiedlichen Ebenen vorgenommen werden. Die Konzeption<br />

des Theorien-Netzes erlaubt es, beide Forderungen in unterschiedlichen<br />

Kombinationen zu verwirklichen, so daß sich insgesamt<br />

eine gehaltvolle Aussage ergibt.<br />

Man könnte sagen, ein Netz von Theorie-Elementen verwirkliche<br />

die zwei Aspekte Vereinheitlichung und Stringenz in entgegengesetzten<br />

Richtungen. Während die Vereinheitlichung nach oben (in Richtung auf<br />

das Basis-Theorie-Element) hin wächst, weil immer mehr Phänomene<br />

unter immer weniger Gesetze subsumiert werden, wächst die Stringenz<br />

zusammen mit der Spezifizität nach unten hin an, wo jeweils speziellere<br />

Gesetze für immer weniger Typen von intendierten Anwendungen formuliert<br />

werden. In die empirische Behauptung des ganzen Netzes fließen<br />

dann beide Effekte ein und ergeben eine Art Zusammenschau aller<br />

Bedingungen, die das Netz an die intendierten Anwendungen stellt.<br />

Die empirische Behauptung ist daher auch der geeignete Ort, um<br />

eine untere Grenze, wann wir überhaupt noch von einer Erklärung sprechen<br />

können, zu markieren. Daß nicht jede Einbettung schon eine Erklärung<br />

darstellt, hatte ich in (C.2) zugestanden und als Schwellenwert gerade<br />

die empirische Behauptung einer Theorie genannt, die nicht leer<br />

sein sollte. Diese Bedingung sorgt dafür, daß die erklärende Einbettung<br />

nicht nur eine begriffliche Klassifizierung darstellt, sondern empirische<br />

Informationen beinhaltet, die darüber hinausgehen. Die rein begrifflichen<br />

Einbettungen, die natürlich keineswegs wissenschaftlich unbedeu-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 466<br />

tend sind – man denke nur an die biologischen Klassifizierungen –,<br />

möchte ich in Anlehnung an eine Stegmüllersche Formulierung bloß als<br />

„wissenschaftliche Systematisierungen“ bezeichnen.<br />

3. Vereinheitlichung durch Konsistenzforderungen<br />

Neben den Gesetzen einer Theorie, die wesentlich zur Stringenz der<br />

theoretischen Vereinheitlichung beitragen, sind in erster Linie die innertheoretischen<br />

Querverbindungen (Constraints) als wichtige Faktoren der<br />

Vereinheitlichung zu nennen. Sie wirken wie eine verbindende Klammer<br />

zwischen den lokalen Modellen eines Theorie-Elements und sollen die<br />

Konsistenz für die Zuweisung von physikalischen Größen innerhalb eines<br />

Theorie-Elements sicherstellen. Während die Bestimmungen für die<br />

potentiellen Modelle für eine einheitliche begriffliche Struktur sorgten,<br />

bewirken die Constraints grob gesagt eine Einheitlichkeit der Funktionswerte<br />

in unterschiedlichen Bereichen der Theorie. So handelt es sich<br />

häufig um Identitätsconstraints oder Invarianzconstraints, die deutlich<br />

machen, daß es sich um ein und dieselbe Funktion mit denselben Werten<br />

etwa für die Masse eines Partikels handelt, auch wenn dieser Partikel in<br />

verschiedenen physikalischen Systemen auftritt. Untersuchungen zur empirischen<br />

Behauptung von Theorien (etwa Gähde 1989) offenbaren,<br />

welch große Bedeutung den Constraints für die Stringenz der Vereinheitlichung<br />

zukommt, und es ist daher auch nicht überraschend, daß sie<br />

ebenfalls eine wichtige Rolle für theoriendynamische Prozesse spielen.<br />

Darüber hinaus bestimmen sie wesentlich mit über den inneren Zusammenhalt<br />

eines Theorie-Elementes. Ihre verbindende Funktion als Brükkenstruktur<br />

innerhalb einer Theorie sorgt dafür, daß die Theorie nicht<br />

in eine schlichte Konjunktion von Einzelbehauptungen und damit gewissermaßen<br />

in Subsysteme zerfällt, sondern ein organisches Ganzes bildet,<br />

was ich in (IX.E.8) ausführen werde. Die Wirkung der Constraints, etwa<br />

des Identitätsconstraints für Partikelsysteme in der Mechanik, läßt sich<br />

auch wie folgt beschreiben: Die lokalen potentiellen Modelle, die einen<br />

Constraint erfüllen, lassen sich zusammen in ein globales potentielles<br />

Modell der Theorie einbetten. Dieser Gedanke wird für den Fall der Allgemeinen<br />

Relativitätstheorie in Bartelborth (1993) präziser gefaßt. Das<br />

bringt noch einmal zum Ausdruck, wie sich auch die Vereinheitlichung<br />

durch innertheoretische Querverbindungen in die Redeweise von Vereinheitlichung<br />

als Einbettung in ein Obermodell einfügt.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 467<br />

4. Vortheoretische Vereinheitlichung und theoretische Größen<br />

Die partiellen Modelle zeichnen eine Substruktur der potentiellen Modelle<br />

als nicht-T-theoretisch aus. D.h. in erster Näherung: Wir haben die<br />

Werte für diese Größen (also die Submodelle) anhand anderer Theorien<br />

zu ermitteln. Die partiellen Modelle geben uns daher eine wichtige<br />

Schnittstelle zu anderen Theorien über die ein intertheoretischer Informationstransfer<br />

laufen kann und Theorien zu einem Holon zusammengefaßt<br />

werden können. 206 Für die Frage der Vereinheitlichung ist allerdings<br />

spannender, welche Funktion die T-theoretischen Größen übernehmen<br />

und warum wir sie überhaupt benötigen. Tatsächlich gelingt erst<br />

durch ihre Mithilfe die Vereinheitlichung so scheinbar heterogener Phänomene<br />

(vom elastischen Stoß bis zur Planetenbewegung) in einer Theorie.<br />

Die Bedeutung theoretischer Terme für eine Vereinheitlichung läßt<br />

sich kaum überschätzen, und es ist ein typischer Fehler streng empiristischer<br />

Wissenschaftskonzeptionen, sie als eher suspekte Bestandteile zugunsten<br />

von Beobachtungsbegriffen aus Theorien eliminieren zu wollen.<br />

Wenn Newton tatsächlich auf den fallenden Apfel in seinem Obstgarten<br />

und den Mond geschaut hat, wobei ihm der Gedanke kam, daß<br />

es dieselbe Art von Kraft sein muß, die beide Bahnen regiert, so zeigt<br />

das, wie das Konzept der Gravitationskraft wesentlich zur Vereinheitlichung<br />

beiträgt. Um so mehr gilt das für Newtons allgemeinen Kraftbegriff,<br />

der hilft noch viel verschiedenartigere Phänomene unter wenige<br />

Gesetze zu bringen. Diese Bestimmung scheinen theoretische Größen in<br />

hochentwickelten Theorien allgemein zu erfüllen. Um dabei Anpassungsprozesse<br />

und Gehaltsverstärkungen in dynamischen Forschungsprogrammen<br />

mitmachen zu können, wäre es geradezu hinderlich, wenn<br />

die theoretischen Größen dabei den von Lewis (1970) angestellten Vermutungen<br />

über eine eindeutige Charakterisierbarkeit der theoretischen<br />

Größen (und Definierbarkeit) auf der zweiten Stufe gehorchen würden.<br />

Damit wären sie ein für allemal festgelegt, und neu hinzukommende<br />

Spezialgesetze könnten zu ihrer Bestimmung nichts Neues hinzufügen.<br />

Sie wären eigentlich überflüssig. Doch tatsächliche Theorien zeigen das<br />

gegenteilige Verhalten. Ihre theoretischen Terme werden durch die<br />

Grundgesetze nicht definiert und weisen zunächst sogar eine sehr große<br />

206 Ein gutes Beispiel, wie diese Zusammenfassung gerade durch „Vortheorien“<br />

bewirkt wird, die die partiellen Modelle einer Theorie bestimmen, finden<br />

wir in der Allgemeinen Relativitätstheorie, wo die grundlegenden Raum-Zeit<br />

Modelle als partielle Modellle aller anderen relativistisch formulierten Theorien<br />

dienen (s. Bartelborth 1993).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 468<br />

Flexibilität auf, die erst in weiteren Spezialisierungen für Teile ihres Anwendungsbereichs<br />

langsam eingeschränkt wird. Daß dabei immer weitere<br />

sinnvolle Zusatzforderungen berücksichtigt werden können, bis<br />

schließlich hin zu technischen Anwendungen, demonstriert nur diesen<br />

Spielraum theoretischer Größen. So erstrebenswert sich die Forderung<br />

nach Definierbarkeit also auch in den Ohren des Logikers anhören mag,<br />

für den Wissenschaftstheoretiker, der wissenschaftsdynamische Phänomene<br />

beschreiben will, wäre ihre Erfüllung eine Katastrophe.<br />

Für tatsächlich rekonstruierte Theorien ist sie auch nicht gegeben.<br />

Im Basis-Theorie-Element werden die theoretischen Größen sicherlich<br />

nicht eindeutig bestimmt, denn dessen Axiome sind meist nur Schemagesetze,<br />

die kaum die nötige Spezifizierung für eine Definition bereitstellen.<br />

Den Fall der Newtonschen Mechanik hat z. B. Ulrich Gähde (1983)<br />

unter diesem Gesichtspunkt untersucht. Jede Spezialisierung bietet dann<br />

zwar eine weitere Charakterisierung der theoretischen Größen, aber nur<br />

um den Preis der Einschränkung auf bestimmte Anwendungstypen. Bietet<br />

also die strukturalistische Auffassung von Theorien ein einigermaßen<br />

realistisches Bild der Wissenschaften – und dafür sprechen immerhin<br />

zahlreiche Fallstudien und konkrete Rekonstruktionen –, ist es gerade<br />

die inhaltliche Flexibilität theoretischer Terme, die für sie wesentlich ist.<br />

Sie gestattet es, unterschiedliche Phänomene unter eine Begrifflichkeit<br />

und in eine Modellhierarchie zu bringen. Das Ideal eindeutig definierbarer<br />

Begriffe stammt dagegen eher aus der Mathematik und bietet ein zu<br />

schlichtes Bild empirischer Disziplinen. Die Ausgestaltung der Spielräume<br />

für theoretische Begriffe im Hinblick auf Vereinheitlichung und<br />

Stringenz ist dann eine Aufgabe für die dynamische Entfaltung einer<br />

Theorie.<br />

5. Vereinheitlichung der Phänomene<br />

Letztlich hat sich alle Rede von Vereinheitlichung immer auf die intendierten<br />

Anwendungen und insbesondere Typen von intendierten Anwendungen<br />

zu beziehen. Das hat schon Whewell (1967, 65) deutlich ausgesprochen.<br />

Zwar wird eine Theorie nach Whewell ebenfalls durch einzelne<br />

Tatsachen derselben Art gestützt, aber erst, wenn sie Fälle unterschiedlicher<br />

Typen von Tatsachen zu erklären vermag, denken wir, sie sei<br />

gewiß, weil sich nur so dieses außergewöhnliche Zusammentreffen erklären<br />

läßt. Um diese Überlegung in eine Präzisierung von Erklärung<br />

einzubringen, erweist sich die explizite Einführung des Anwendungsbereichs<br />

einer Theorie wiederum als ausgesprochen hilfreich. Die verein-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 469<br />

heitlichende Kraft einer Theorie bemißt sich geradezu an der Anzahl der<br />

Typen von intendierten Anwendungen, die zu den erfolgreichen intendierten<br />

Anwendungen einer Theorie gehören. Wenn es auch sicherlich nicht<br />

immer unproblematisch ist, I in eine Klasse von Typen intendierter Anwendungen<br />

zu zerlegen (s.u.), so sind viele Vagheiten der Zerlegung von<br />

I für einen Theorienvergleich in bezug auf Vereinheitlichung nicht bedeutsam,<br />

da diese Vergleiche sich für wettstreitende Theorien oft auf<br />

dieselben Phänomenbereiche richten. Vergleiche ich z. B. zwei mechanische<br />

Theorien, von denen die eine nur einfache Pendel, die andere zusätzlich<br />

Doppelpendel erklären kann, spielt es keine große Rolle, ob ich<br />

Pendel und Doppelpendel als einen oder zwei Typen von Anwendungen<br />

verstehe. Im ersten Fall hat die erste Theorie den Nachteil, einen Typ<br />

von Pendelbewegung nicht ganz zu erklären, im zweiten Fall den Nachteil,<br />

einen Typ weniger als die zweite Theorie behandeln zu können.<br />

Klar ist in jedem Fall die Überlegenheit der zweiten Theorie. Kann dagegen<br />

eine Theorie einen Phänomenbereich x und eine andere einen Phänomenbereich<br />

y neben einem gemeinsamen Bereich behandeln, ist eine<br />

Abwägung der Theorien gegeneinander wohl kaum anhand einer simplen<br />

Zählung der Phänomene möglich, sondern erfordert einen komplexeren<br />

Vergleich, der z. B. auch zulässige Unschärfemengen und intertheoretische<br />

Überlegungen mit einbezieht.<br />

Doch nun zur Frage, wie sich der Anwendungsbereich einer Theorie<br />

überhaupt in Typen aufteilen läßt. Für die intendierten Anwendungen<br />

der Newtonschen Mechanik haben wir diese Aufteilung in ihrer Beschreibung<br />

bereits immer schon berücksichtigt. Sie lassen sich etwa als<br />

eine Menge von Typen von Anwendungen begreifen, die jeweils durch<br />

ein Stichwort oder paradigmatisches Exemplar in erster Näherung charakterisiert<br />

werden können und sind damit als eine Klasse I der folgenden<br />

Form darstellbar: I = {Planetensysteme, Pendel, zusammenstoßende<br />

Partikel (Billiardbälle), schiefe Würfe, …}. 207 Bei einer Rekonstruktion<br />

dieser Theorien finden wir die Typen bereits in den Wissenschaften vor,<br />

aber natürlich verbinden wir auch gewisse theoretische Vorstellungen<br />

mit diesen Einteilungen. Wir sagen etwa, sie repräsentierten Phänomene<br />

oder natürliche Arten von intendierten Anwendungen und sind keine<br />

willkürlichen Zusammenstellungen, sondern eben natürliche Klassifikationen<br />

physikalischer Systeme.<br />

207 Siehe dazu z. B. Moulines (1979, 420ff), wo der Gesichtspunkt, daß der<br />

Bereich der intendierten Anwendungen durch Arten von solchen Anwendungen<br />

beschrieben werden kann, für (diachronische) Theorie-Entwicklungen betont<br />

wird.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 470<br />

So einleuchtend das in unserem Beispiel erscheint, bleibt doch die<br />

Frage zu beantworten, wie sich natürliche Arten charakterisieren lassen,<br />

d.h. welche Kriterien über die Mitgliedschaft in ihnen entscheiden dürfen.<br />

Zunächst gibt es sicher eine Reihe vortheoretischer Ähnlichkeitseinstufungen,<br />

die zusammen mit bestimmten paradigmatischen Beispielen<br />

diese Klassifizierungen nahelegen (s. dazu Moulines 1979). D.h., man<br />

muß nicht unbedingt die Newtonsche Mechanik kennen oder selbst akzeptieren,<br />

um den genannten Eingruppierungen zustimmen zu können.<br />

Trotzdem sind es oftmals auch die theoretischen Beschreibungen<br />

durch die Theorien selbst, die wesentlich für unsere Taxonomie von<br />

Phänomenen sind und die insbesondere zu entsprechenden Verfeinerungen<br />

oder Unterarten führen können. Friedman (1988) hatte versucht,<br />

Phänomene anhand von Gesetzen zu zählen. Diese Idee, die Wiggins<br />

(1980) ganz allgemein zur Charakterisierung von natürlichen Arten vertritt,<br />

hat schließlich Platts (1983) in seiner Konzeption einer Hierarchie<br />

von theoretisch ausgezeichneten natürlichen Arten weiterentwickelt, die<br />

gut zu den strukturalistischen Vorstellungen eines Theorien-Netzes paßt.<br />

Seinen intuitiven Ausgangspunkt formuliert er wie folgt:<br />

Hence the rough initial idea is that what is involved in a class being<br />

a natural kind class is that there be explanations, of law-based kind,<br />

which serve to account for the nature of each member of that class<br />

but which do not so serve for any other object. (Platts 1983, 134)<br />

Ein Beispiel mag diese Ansicht erläutern. In unserem Sonnensystem gibt<br />

es auf den ersten Blick eine Reihe unterschiedlicher Typen von Himmelskörpern.<br />

Neben der Sonne, die selbst auch eine Sonderstellung einnimmt,<br />

finden sich etwa Planeten, Monde dieser Planeten, Asteroiden<br />

und Kometen. Welche Klassen wir aus diesen Gruppen als natürliche<br />

und eigenständige Arten für eine Theorie betrachten, ist wesentlich von<br />

unserem Wissensstand abhängig. In Keplers Theorie kommt der Sonne<br />

gegenüber den Planeten eine Ausnahmestellung zu, die sie in Newtons<br />

Gravitationstheorie nicht in demselben Sinn behielt. Ähnliches gilt für<br />

die Kometen. Bereits die Griechen der Antike kannten Kometen und ihre<br />

auffälligen Schweife. Da ihre Bahnen sehr unregelmäßig und willkürlich<br />

im Unterschied zu denen der Sterne und Planeten erscheinen, mußte<br />

man sie als eigenständige Art von Himmelsobjekten betrachten. Erst<br />

Halley, einem Freund Newtons, gelang es anhand der Vermutung, daß<br />

auch sie auf elliptischen Bahnen um die Sonne laufen, sie in einen theoretischen<br />

Rahmen mit den Planeten zu stellen. Ähnliche Beispiele finden<br />

sich in allen Bereichen der Naturwissenschaften und belegen, wie abhän-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 471<br />

gig die Einteilung in natürliche Arten von unseren theoretischen Kenntnissen<br />

sein kann.<br />

Solche natürlichen Arten, die mit Erklärungen anhand von Gesetzen<br />

eng zusammenhängen können, treten aber nicht nur auf einer Ebene auf,<br />

sondern in einer Hierarchie von Allgemeinheitsstufen, und wir könnten<br />

in Analogie zur biologischen Taxonomie auch hier von Stämmen, Klassen,<br />

Familien, Gattungen etc. sprechen, die jeweils auf anderen Ebenen<br />

der theoretischen Erklärung zur Anwendung kommen. So finden wir<br />

oberhalb von Zitronen Zitrusfrüchte und darüber wiederum Früchte<br />

usf., die jeweils natürliche Arten bilden können, die für bestimmte Erklärungszwecke<br />

zu unterscheiden sind. Platts (1983, 137ff) beschreibt, wie<br />

die Einschränkung von Erklärungen auf kleinere Anwendungsbereiche<br />

jeweils mit einem Gewinn an Erklärungsstärke verbunden sein kann.<br />

Das paßt recht gut zu der strukturalistischen Konzeption von Spezialisierungen<br />

auf Teilbereiche der intendierten Anwendungen mit stärkeren<br />

Spezialgesetzen für diese Anwendungen. Jede Menge I läßt sich so auf<br />

unterschiedlichen Ebenen in Typen von Anwendungen aufteilen. Die<br />

„Pendel“ lassen sich wieder in einfache und Doppelpendel aufteilen, die<br />

Stoßsysteme in solche mit elastischen und solche mit unelastischen Stößen<br />

usf.<br />

So homogen uns ein Phänomenbereich auch im Rahmen einer Theorie<br />

erscheinen mag, aus einer anderen theoretischen Perspektive können<br />

sich wieder andere Einteilungen ergeben. Während in den moderneren<br />

Himmelsmechaniken die Sonne ein Körper wie die Planeten, Kometen,<br />

Monde und Asteroiden ist, nur mit besonders großer Masse, kommt ihr<br />

in der Astropysik eine andere Bedeutung zu. Dort wird sie anhand des<br />

Hertzsprung-Russell Diagramms als ein Stern der Hauptreihe mit vielen<br />

Sternen gegen rote Riesen und weiße Zwerge abgegrenzt, die sich in einem<br />

anderen Entwicklungsstadium befinden. Khalidi (1993) weiß eine<br />

Reihe von Beispielen aus unterschiedlichen Bereichen beizubringen, die<br />

darlegen, daß Einteilungen in natürliche Arten nicht nur zu einer Hierarchie<br />

gehören müssen, sondern außerdem – und das scheint ein Problem<br />

für essentialistische Ansichten natürlicher Arten zu sein –, vollkommen<br />

quer zueinander liegen können, je nachdem, welche theoretischen Ziele<br />

wir im Auge haben. Es gibt demnach auch nicht die eine basale Taxonomie<br />

für alle Bereiche der Wissenschaften, sondern wir sind wohl zu einem<br />

Pluralismus von Taxonomien gezwungen.<br />

Dieses Phänomen findet sich sogar bereits in der Disziplin mit den<br />

ausgefeiltesten Klassifikationsschemata: der Biologie. Neben biologischen<br />

Kategorien wie „Parasiten“, die etwa quer durch die stammesge-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 472<br />

schichtlichen Zusammenhänge verlaufen (s. Khalidi 1993, 105), stoßen<br />

wir auf entsprechende Phänomene auch schon im grundlegenden Speziesbegriff.<br />

Mit Darwin fand z. B. eine begriffliche Revolution von der<br />

morphologischen Klassifikation Linnés zu einer stärker phylogenetisch<br />

orientierten Einteilung statt. 208 Aber auch die Stammesgeschichte gibt<br />

keine endgültige Auskunft, wann man von einer neuen Art sprechen<br />

sollte und wann nur von einer Variation innerhalb derselben Art. So<br />

kommt Dupré (1992) für biologische Spezies schließlich zu dem Schluß,<br />

daß nur ein taxonomischer Pluralismus übrigbleibt, der mit unterschiedlichen<br />

Klassifikationskriterien und dementsprechend manchmal auch<br />

mit unterschiedlichen Einteilungen zu arbeiten hat.<br />

Eine Warnung möchte ich der Konzeption von einem Pluralismus<br />

von Taxonomien noch hinzufügen. Damit wird keineswegs schon eine<br />

antirealistische Einstellung ihnen gegenüber impliziert, nach der die Einteilungen<br />

der Welt nur von uns „gemacht“ werden und eigentlich nur<br />

völlig willkürliche Zusammenfassungen darstellen oder schlimmer noch,<br />

damit verschiedene Welten von uns erzeugt werden. Tatsächlich ist eine<br />

realistische Position nicht darauf festgelegt, es könne nur eine wahre Beschreibung<br />

der Welt geben, wie es Putnam dem Realisten unterschiebt (s.<br />

dazu Bartelborth 1993a). Verschiedene Beschreibungen der Welt eventuell<br />

mit unterschiedlichen Einteilungen in natürliche Arten dürfen nur<br />

nicht unverträglich sein, was in den genannten Beispielen jedoch nicht<br />

der Fall ist. Im Gegenteil kann der Realist in diesen Fällen jeweils erklären,<br />

welcher Zusammenhang zwischen den unterschiedlichen Beschreibungen<br />

besteht. Das ist meines Erachtens die wichtigste Forderung an einen<br />

Realisten, der unterschiedliche Beschreibungen zulassen möchte (s.<br />

Bartelborth 1993a).<br />

Der Realist (z. B. Devitt 1991, Kap. 13) erklärt das so, daß es auch<br />

tatsächlich unterschiedliche Zusammenhänge in der Welt gibt, die zu unterschiedlichen<br />

Klasseneinteilungen Anlaß geben können. Dabei kann es<br />

sich um diverse kausale Beziehungen handeln, aber auch um topologische,<br />

kombinatorische, statistische usf., die jeweils andere Taxonomien<br />

verlangen mögen. Trotz eines Pluralismus von Taxonomien finden wir<br />

für einen bestimmten Bereich bei gleicher Fragestellung im allgemeinen<br />

eine relativ einheitliche Aufteilungen in natürliche Arten, die wie in den<br />

Beispielen aus der Mechanik in einer hierarchischen Gliederung bestehen<br />

können. Außerdem können wir nun zumindest eine hinreichende<br />

Bedingung für die Zugehörigkeit zu unterschiedlichen natürlichen Arten<br />

208 Eine kurze Geschichte des Speziesbegriffs in der Biologie bietet Stevens<br />

(1992).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 473<br />

in einem Netz N = (Ti)iJ formulieren. Zwei intendierte Anwendungen x<br />

und y des Netzes gehören zu unterschiedlichen Arten, wenn gilt:<br />

(*) Es gibt ein Theorie-Element Ti mit: x I(Ti) und y I(Ti).<br />

Für eine notwendige Bedingung reicht das natürlich kaum, denn die Gesetze<br />

der Theorie sind nicht unsere einzigen Kriterien für die Zugehörigkeit<br />

zu einer Art. Neben vortheoretischen Unterscheidungen kommen<br />

eventuell weitere Unterscheidungen ins Spiel, die erst bei einer Fortführung<br />

des Netzes in technischere Bereiche anhand der Bedingung (*) unterschieden<br />

werden könnten. Für jedes Theorie-Element Ti erhalten wir<br />

schließlich eine Zerlegung:<br />

I(Ti) = j Pi,j<br />

der intendierten Anwendungen dieses Theorie-Elements in eine Menge<br />

von Phänomenen Pi,j Mpp(T). Wenn wir nun für die gesamte Anwendungsmenge<br />

I(T0) die gröbste Zerlegung wählen, so daß alle anderen<br />

Zerlegungen Pi,j noch darin enthalten sind, erhalten wir den gesamten<br />

Phänomenbereich des Netzes:<br />

I(T0) = Pj (mit j aus einer Indexmenge ) und die Menge Ƥ(T), aller<br />

Phänomene, die zu erklären T antritt. Das Netz bewirkt genau dann<br />

eine Vereinheitlichung der Phänomene PjƤ(T), wenn es gelingt, diese<br />

vollständig theoretisch einzubetten. Die Stringenz dieser Vereinheitlichung<br />

wird allerdings für jedes Phänomen durch die unterschiedlichen<br />

Spezialisierungsebenen bestimmt, auf denen dieses Phänomen anzutreffen<br />

ist (d.h. für die es zum intendierten Anwendungsbereich der Spezialisierung<br />

gehört). Jedenfalls scheint eine Forderung für die vereinheitlichende<br />

Kraft einer Theorie naheliegend, nämlich daß immer möglichst<br />

alle intendierten Anwendungen eines Phänomens zusammen erklärt werden<br />

und nicht einzelne „willkürlich“ ausgeschlossen bleiben.<br />

Das zeigt erneut den holistischen Charakter der Einteilung in natürliche<br />

Arten und einer entsprechenden Theorienbildung. Gelingt es nicht,<br />

alle Elemente einer Art gemeinsam in die Theorie einzubetten, sondern<br />

nur einen Teil, kann man natürlich jederzeit für eine Verfeinerung der<br />

Aufspaltung in Arten plädieren, die gerade diesen Defekt behebt. Ein<br />

Beispiel dafür hatten wir schon kennengelernt, nämlich die von Gähde<br />

untersuchte Geschichte der Cepheiden, die man schließlich in zwei unterschiedliche<br />

Typen eingeteilt hatte. Auch in der KPM lassen sich derartige<br />

Fälle finden. In den vier in BMS (223ff) geschilderten Phasen der<br />

Entwicklung der KPM werden in der ersten Phase bestimmte Gezeitenphänomene<br />

als erfolgreiche Anwendungen der KPM betrachtet und an-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 474<br />

dere nicht. In der dritten Phase führten Probleme, die Euler mit dem System<br />

{Erde-Mond-Sonne} hatte dazu, daß es aus der Menge der intendierten<br />

Anwendungen herausgenommen wurde, bis Laplace die notwendigen<br />

mathematischen Analysen gelangen, um es wieder erfolgreich in<br />

die KPM einzubetten.<br />

Ein berühmtes anderes Beispiel finden wir in Bohrs Atommodell.<br />

Während die Elektronen außerhalb des Atoms der klassischen Elektrodynamik<br />

gehorchen, verhalten sie sich plötzlich innerhalb des Atoms auf<br />

andere Weise und strahlen nicht gleichmäßig Energie entsprechend den<br />

Maxwellschen Gleichungen ab. Statt wie Lakatos von einem Forschungsprogramm<br />

auf inkonsistenter Grundlage zu sprechen, scheint mir die Beschreibung<br />

angemessener, Bohr hätte die Atome aus dem Anwendungsbereich<br />

der Elektrodynamik herausgenommen (s. dazu Bartelborth<br />

1989). Daß es sich bei ihnen um eine andere Art von Phänomenen handelt<br />

als den klassischen elektrodynamischen wurde auch nicht nur durch<br />

Bohrs Atommodell nahegelegt, sondern ebenso durch die Planckschen<br />

Resultate der Wärmestrahlung, auf die Bohr extra hinweist. 209 Trotzdem<br />

waren die Physiker der damaligen Zeit mit dieser Aufteilung des Phänomenbereichs<br />

der Elektrodynamik nicht glücklich – vor allem, weil sich<br />

Bohr weiterhin auf bestimmte Begriffe aus der klassischen Elektrodynamik<br />

stützen mußte –, so daß hier ein Grund für die Entwicklung der<br />

Quantenelektrodynamik zu finden ist. Wie ad hoc solche Zerlegungen in<br />

neue Phänomenbereiche sind, ist nur im Einzelfall zu untersuchen, aber<br />

es bleibt zumindest der berechtigte Anspruch erkennbar, immer ganze<br />

Phänomene und nicht nur einzelne Instanzen davon durch eine Theorie<br />

zu erklären. Wir können daher einfach formulieren: Eine Theorie leistet<br />

ceteris paribus eine um so größere Vereinheitlichung, je mehr Phänomene<br />

sie einzubetten erlaubt. 210<br />

6. Stringenz durch kleinere erlaubte Unschärfen<br />

Welch grundlegende Bedeutung für das Verständnis wissenschaftlicher<br />

Theorien Approximationen besitzen, hatte ich bereits in (VII.C.9) erläutert.<br />

Aber neben der metatheoretischen Tatsache, daß Theorien uns immer<br />

nur modulo Unschärfen Auskunft über die Welt geben, zeigen auch<br />

209 Natürlich ist auch dieses Beispiel hier stark vereinfacht dargestellt, aber<br />

in Bartelborth (1989) findet man eine ausführlichere Analyse der Einzelheiten<br />

des Falls.<br />

210 Diese Forderung läßt sich natürlich ohne allzu große Mühe weiter verfeinern<br />

und auf einzelne partielle Modelle beziehen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 475<br />

kontinuierliche fortschrittliche Entwicklungen typischerweise das Phänomen,<br />

daß die alten Theorien nicht einfach Teile der neuen darstellen,<br />

sondern daß sie in bestimmter Weise durch die neuen Theorien korrigiert<br />

werden. Wenn auch die wissenschaftstheoretische Diskussion um<br />

derartige fortschrittliche Entwicklungen oft anhand der Redeweise von<br />

(strikten) Reduktionsbeziehungen – etwa in Anlehnung an Nagels (1961,<br />

Kap. 11) Forderung der Herleitbarkeit der alten Gleichungen aus den<br />

neuen – geführt wurde, so weisen doch fast alle bekannten Beispiele von<br />

Reduktionen nur approximative Zusammenhänge auf.<br />

Das gilt für die Reduktion von Keplers Theorie auf die Newtonsche<br />

oder die der Newtonschen Theorien auf die relativistischen etc. Die<br />

neue Theorie steckt in vielen Fällen den Bereich genauer ab, für den wir<br />

die alte Theorie weiterhin als gültig betrachten können, und beschreibt,<br />

welche Unschärfen dabei in Kauf zu nehmen sind. So gibt uns die allgemeine<br />

Relativitätstheorie gute Gründe, die meisten Planetenbewegungen<br />

weiterhin anhand der Newtonschen Gravitationstheorie zu berechnen –<br />

denn diese bleibt dort innerhalb der akzeptablen Unschärfemengen korrekt<br />

–, aber sie nennt auch die Grenzen dieser Betrachtung, wie z. B. die<br />

Bestimmung der Perihelbewegung des Merkur. Damit erklärt die neue<br />

Theorie den Erfolg der alten Theorie, die wichtige Ergebnisse vorzuweisen<br />

hat, auf denen die neue Theorie aufbaut, aber sie gibt uns darüber<br />

hinaus Gründe an, die uns dazu bewegen sollten, die alte Theorie durch<br />

die neue zu ersetzen.<br />

Um präzise rekonstruieren zu können, was man mit Fortschritt in<br />

den Naturwissenschaften meint, sind wir also unter anderem auf ein<br />

Verständnis und eine Darstellung von Approximationen angewiesen. Im<br />

strukturalistischen Theorienkonzept lassen sich die Fortschritte der neuen<br />

gegenüber der alten Theorie in bezug auf ihre Präzision, in Form kleinerer<br />

erlaubter Unschärfemengen repräsentieren. Daß die Beschränkung<br />

auf kleinere Unschärfemengen eine epistemische Tugend einer Theorie<br />

ist, ist wohl offensichtlich, da sie den empirischen Gehalt einer Theorie<br />

erhöht. Aber sie führt auch zu einer bestimmten Form größerer Einheitlichkeit,<br />

denn sie verlangt einheitlichere, nämlich enger benachbarte<br />

Werte für die Größen einer Theorie und stellt damit einen Aspekt der<br />

einheitlicheren Weltbeschreibung anhand erhöhter Stringenz der Vereinheitlichung<br />

durch quantitative Theorien dar. Wie sich diese Präzisierung<br />

tatsächlich auswirkt, wird am besten über die empirische Behauptung<br />

der Theorie ermittelt, denn sie gibt in exakter Weise die Auswirkungen<br />

auf die Anwendungen der Theorie an. Damit gestattet die empirische<br />

Behauptung auch einen entsprechenden Vergleich verschiedener Theo-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 476<br />

rie in bezug auf ihre jeweilige Stringenz, was ich später ausnutzen werde.<br />

Die semantische Sichtweise von Theorien hat insbesondere hier ihre<br />

Stärken, kann sie doch die approximativen Zusammenhänge und Verkleinerungen<br />

von Unschärfen auf natürliche Weise nachzeichnen.<br />

7. Intertheoretische Vereinheitlichung<br />

Die Funktion, die Constraints innerhalb eines Theorien-Netzes übernehmen,<br />

erfüllen die Links oder intertheoretischen Querverbindungen zwischen<br />

verschiedenen Theorien. Sie geben uns Zusammenhänge, vornehmlich<br />

Identitäten, für Begriffe aus unterschiedlichen Theorien. Mit<br />

gleicher Namensgebung ist in der Regel noch nicht sichergestellt, daß es<br />

sich um denselben Begriff handelt. Schließlich gibt es z. B. unterschiedliche<br />

Massekonzepte, die alle unter dem Namen „Masse“ firmieren. Erst<br />

entsprechende Links können die Identität oder auch andere Zusammenhänge<br />

von theoretischen Begriffen wiedergeben und damit einen weiteren<br />

Schritt zur Vereinheitlichung unseres Wissens gehen. So drücken sie<br />

z. B. aus, daß der Term „Druck“, wie er in der Hydromechanik, Thermodynamik<br />

oder statistischen Mechanik auftritt, immer dasselbe Konzept<br />

bezeichnen soll, so daß auch die jeweiligen Werte dieser Funktionen<br />

für dieselben Raum-Zeit-Bereiche übereinstimmen müssen. Außerdem<br />

liefern Links uns Zusammenhänge zwischen Größen, die unterschiedliche<br />

Namen tragen, wie die Identifizierung von Temperatur und mittlerer<br />

kinetischer Energie.<br />

Die Links sind also die intertheoretischen Brückenstrukturen, die zu<br />

einer Vernetzung über den Rahmen einzelner Theorien hinaus führen<br />

und deren Untersuchung uns zeigt, welche eventuell hierarchischen Verhältnisse<br />

zwischen verschiedenen Theorien bestehen oder welche holistischen<br />

Blöcke sich in den Wissenschaften identifizieren lassen. 211 Die Vereinheitlichung<br />

durch Links läßt sich wiederum als eine Einbettung in<br />

„größere“ Modelle begreifen wie das schon für die Constraints der Fall<br />

war und repräsentiert so wiederum den allgemeinen Rahmen von Vereinheitlichung,<br />

der hier vorgestellt wird.<br />

211 Für das besonders spannende Beispiel der Allgemeinen Relativitätstheorie<br />

sind diese Verhältnisse im strukturalistischen Rahmen in Bartelborth (1993)<br />

untersucht worden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 477<br />

8. Empirische Behauptung und organische Einheit von Theorien<br />

Damit Theorien die ihnen zugedachte Aufgabe der Vereinheitlichung<br />

und Systematisierung unserer Erkenntnis tatsächlich erfüllen können,<br />

müssen sie mehr sein als eine Konjunktion der empirischen Aussagen,<br />

die sie zu erklären haben. Soviel ist wohl klar. In der syntaktischen Sichtweise<br />

auf Theorien läßt sich das so ausdrücken: Nicht jede Menge unabhängiger<br />

Axiome beschreibt bereits eine Theorie. Es muß noch eine gewisse<br />

innere Geschlossenheit und Einheitlichkeit hinzukommen, um von<br />

einer Theorie sprechen zu können. Und obwohl es eine Reihe berühmter<br />

Wissenschaftsphilosophen gibt, 212 die auf dieses Problem hingewiesen<br />

haben, finden sich nur wenige konstruktive Vorschläge, worin diese Einheitlichkeit<br />

und der innere Zusammenhang einer Theorie bestehen<br />

könnte. Lakatos (1974, 169f) erklärt eine Einheitlichkeit auch für Forschungsprogramme,<br />

die sich anhand von Hilfshypothesen entfalten, für<br />

notwendig, wenn sie fortschrittlich sein sollen. Anderenfalls handele es<br />

sich nur um eine „zusammengeflickte, willkürliche Reihe von unzusammenhängenden<br />

Theorien“ oder um „zusammengeflickte, phantasielose<br />

Serien von prosaischen ‘empirischen’ Adjustierungen“ und in diesem<br />

Theoretisieren sei keine „vereinheitlichende Idee, kein heuristisches Potential<br />

und keine Kontinuität“. 213 Doch so phantasievoll Lakatos das<br />

Problem von „Einheit und Schönheit“ der Wissenschaft schildert, bleibt<br />

es ein offenes Problem bei ihm, worin sie besteht. Auf der syntaktischen<br />

Ebene hat z. B. Robert Causey (1977, 120) neben anderen Bedingungen<br />

eine genannt, die einigermaßen plausibel erscheint: In jedem Axiom einer<br />

Theorie sollte zumindest ein Begriff auftreten, der auch in anderen<br />

Axiomen der Theorie wieder vorkommt. Ein Problem dieser Forderung<br />

ist allerdings, daß man natürlich zu jedem potentiellen Axiom, das die<br />

Bedingung noch nicht erfüllt, z. B. leere Bestimmungen mit geeigneten<br />

Termen konjunktiv hinzufügen kann. In jedem Fall sollte der verbindende<br />

Begriff wesentlich in dem Axiom und den anderen vorkommen, was<br />

wiederum explikationsbedürftig ist. Wie abhängig derartige syntaktische<br />

Kriterien von der jeweiligen Formulierung von Gesetzen sind, zeigt auch<br />

ein strukturalistischer Versuch (BMS 15f), mit einem ähnlichen Kriteri-<br />

212 U.a Popper (1957), Oppenheim/Putnam (1958), Lakatos (1974).<br />

213 Lakatos deutet damit auf einen wichtigen Zusammenhang zwischen der<br />

Forderung nach Einheitlichkeit von Theorien und ad hoc Hypothesen hin, dem<br />

ich allerdings in dieser Arbeit nicht weiter nachgehen kann. Jedenfalls müssen<br />

wir wohl solche Hypothesen aus der Sicht einer Theorie T eher als ad hoc betrachten,<br />

die die Einheitlichkeit der Theorie mehr stören, als sie zu befördern.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 478<br />

um mögliche Axiome für Theorien auszuzeichnen. Danach sollte ein<br />

Axiom mindestens zwei Grundbegriffe der Theorie – wenn diese mehrere<br />

besitzt – aufweisen. In Bartelborth (1988, 19ff) konnte ich aber am<br />

Beispiel verschiedener Formulierungen der Maxwellschen Gleichungen<br />

demonstrieren, daß dieser Ansatz zu sensibel auf unterschiedliche Notationen<br />

für dieselben Gesetze reagiert und damit schließlich unplausibel<br />

erscheint.<br />

Einen aufwendigeren Versuch, die Einheitlichkeit einer Theorie zu<br />

bestimmen, hatten wir mit Friedmans Ansatz zur Vereinheitlichung kennengelernt.<br />

Friedman spricht von größerer Einheitlichkeit, wenn mehrere<br />

unabhängige Gesetze durch eines ersetzt werden können, das selbst<br />

keine Zerlegung mehr besitzt, aber die Systematisierungsleistung der bisherigen<br />

Gesetze übernehmen kann. In ähnlicher Weise – wenn auch in<br />

Unkenntnis des Friedmanschen Vorschlags – entwickelte Watkins (1984,<br />

203ff) seine Bedingung der organischen Fruchtbarkeit, nach der eine<br />

Theorie T dann einheitlich ist, wenn es keine Aufteilung der Axiome in<br />

zwei neue Theorien T’ und T” gibt, so daß gilt:<br />

CT(T) = CT(T’) CT(T”),<br />

wobei mit „CT(T)“ der „content“ von T gemeint ist, der aus den singulären<br />

Voraussagen von T besteht. Man könnte sagen, daß in diesem Fall<br />

T keinen „synergistischen Überschußgehalt“ gegenüber der Konjunktion<br />

aus T’ und T” besitzt und daher eigentlich aus zwei unabhängigen Teiltheorien<br />

besteht. Auch Watkins hat allerdings mit der Möglichkeit unterschiedlicher<br />

Formulierungen einer Theorie zu kämpfen und bemüht sich<br />

daher durch Angabe von 5 weiteren Regeln für Axiomensysteme (s. Watkins<br />

1984, 208f), die natürlichen Formulierungen von unnatürlichen zu<br />

unterscheiden, um damit die Umformulierungsspielräume einzuschränken.<br />

Trotzdem muß er eingestehen, daß die durch Umformulierungen<br />

drohenden Gefahren für sein Kriterium der Einheitlichkeit, damit nicht<br />

aus der Welt geschafft sind. Festhalten sollten wir jedenfalls, daß er die<br />

Vereinheitlichung durch Theorien anhand seiner Explikation der Zerlegbarkeit<br />

von Theorien erläutert. Bei gleichem Gehalt bietet natürlich die<br />

Theorie eine bessere Vereinheitlichung, die in weniger Teile zerlegbar<br />

ist. So nah Watkins Ansatz in einigen Punkten meinen Intuitionen zur<br />

Vereinheitlichung kommt, bleibt sein Ansatz doch mit den Schwächen<br />

der syntaktischen Auffassung von Theorien behaftet. Das zeigt sich in<br />

seiner Behandlung von Approximationen ebenso wie an den Stellen, wo<br />

er unterschiedliche Teile von Theorien unterscheidet, ohne über eine<br />

ausgearbeitete Konzeption komplexer Theorien zu verfügen. Außerdem


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 479<br />

bleibt er – und für die syntaktische Vorgehensweise ist das charakteristisch<br />

– ein Anhänger des Deduktions-Chauvinismus.<br />

Doch die Grundideen der Watkinschen „organischen Fruchtbarkeit“<br />

lassen sich auch im strukturalistischen Theorienkonzept rekonstruieren.<br />

Eine Explikation von organischer Einheitlichkeit, die direkt auf der semantischen<br />

Darstellung von Theorien aufbaut und nicht mehr auf die<br />

Axiome einer Theorie bezug nimmt, sollte sich dabei auf die empirische<br />

Behauptung einer Theorie stützen. Sie gibt letztlich in einer Zusammenschau<br />

an, wie eine Theorie auf den Bereich ihrer intendierten Anwendungen<br />

wirkt. Dabei kann das in einheitlicher Form geschehen oder<br />

auch nicht. Wenn wir – wie das in der strukturalistischen Auffassung üblich<br />

ist – die Komponenten eines Theorie-Elements T (ausgenommen I)<br />

als den Kern K von T zusammenfassen, ist die empirische Behauptung<br />

auch so zu beschreiben: Der Kern K ist auf I anwendbar. Schematisch<br />

wollen wir das folgendermaßen ausdrücken:<br />

EB(K,I) (empirische Behauptung von T = ) 214<br />

Man kann nun behaupten, daß T genau dann organisch aufgebaut ist,<br />

wenn es keine Zerlegung dieser empirischen Behauptung von T gibt, so<br />

daß gilt:<br />

K’ K” I’ I” mit: EB(K,I) ’’””<br />

denn damit hätten wir T in zwei Theorien T’ = und<br />

T” = zerlegt, deren Konjunktion dieselbe empirische Behauptung<br />

aufstellen wie T. Das sind nun rein mengentheoretische Zusammenhänge<br />

für die Modellmengen, die sich weiter untersuchen lassen.<br />

Wichtige Arbeit dazu hat Ulrich Gähde (1989, 130ff) geleistet, indem<br />

er die Zerlegbarkeit von I genauer unter die Lupe genommen hat.<br />

Er konnte unter anderem eine hinreichende Bedingung dafür angeben,<br />

wann sich eine Zerlegung des folgenden Typs finden läßt:<br />

I’ I” mit: EB(K,I) EB(K,I’) EB(K,I”)<br />

Er hat nachgewiesen, daß hierfür die Constraints die entscheidende Rolle<br />

spielen. Falls es eine disjunkte Zerlegung von I = X Y in zwei nichtleere<br />

und constraintunabhängige Mengen X und Y gibt, so läßt sich auch<br />

214 Ich beziehe mich hier und im folgenden der Einfachheit halber auf die<br />

präzisen empirischen Behauptungen, aber das Gesagte läßt sich natürlich auf die<br />

entsprechenden approximativen Versionen der empirischen Behauptungen übertragen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 480<br />

die empirische Behauptung von T entsprechend zerlegen. Dazu gilt die<br />

folgende Definition:<br />

X, Y Mpp(T) nichtleer und disjunkt heißen constraintunabhängig<br />

gdw:<br />

e ℰ(T) gilt: [e(X) C(T) e(Y) C(T)] e(X) e(Y) <br />

C(T). 215<br />

D.h., daß zwei Mengen constraintunabhängig sind, wenn ihnen durch<br />

den allgemeinen Constraint der Theorie keine wesentlichen Beschränkungen<br />

für die Einbettung ihrer Vereinigung auferlegt werden. Intuitiv<br />

besagt das, daß die Mengen X und Y durch C nicht weiter verknüpft<br />

sind, denn sonst würden nicht alle Erweiterungen von Anwendungen<br />

aus X zu allen von Anwendungen aus Y passen. Die Erweiterungsmöglichkeiten<br />

für zwei Anwendungsmengen werden durch den Constraint<br />

nicht eingeschränkt gegenüber den Erweiterungsmöglichkeiten der einzelnen<br />

Mengen.<br />

Mit diesen Vorarbeiten läßt sich die angekündigte Behauptung relativ<br />

leicht beweisen:<br />

Theorem von Gähde: 216<br />

Falls es eine (disjunkte) Zerlegung von I in constraintunabhängige<br />

nichtleere Mengen X und Y gibt, so gilt:<br />

(*) EB(K,I) EB(K,X) EB(K,Y).<br />

Beweis:<br />

i) Die eine Richtung „“ der Äquivalenz (*) ist offensichtlich.<br />

ii) In der anderen Richtung „“ läßt sich die gesuchte Einbettungsfunktion<br />

e für I aus den beiden vorhandenen Einbettungsfunktionen<br />

für X und Y „zusammenbauen“:<br />

Wir wissen, es gibt e’, e” ℰ(T) mit: e’(X), e”(Y) TG(T). Dann<br />

läßt sich e unter anderem wie folgt definieren:<br />

Daß die so definierte Funktion e wieder eine Einbettungsfunktion<br />

ist, ist klar, weil sie nur aus Funktionen zusammengesetzt wurde, die<br />

215 Die Notation ist durch die Einbettungsfunktionen gegenüber der von<br />

Gähde wieder etwas verändert.<br />

216 Gähde (1989, 162ff) beweist eine entsprechende Behauptung gleich für<br />

Zerlegungen in n Mengen. Da er außerdem mit einer etwas anderen Notation<br />

arbeitet, gebe ich den Beweis des Satzes noch einmal in der neuen Notation an.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 481<br />

die Faserbündelstruktur respektieren. Außerdem gilt e(I) = e’(X) <br />

e”(Y) M(T) L(T), da beide Teilmengen diese Inklusion erfüllen.<br />

Zusätzlich ist aber e(I) C(T), weil e’(X), e”(Y) C(T) sind und X<br />

und Y constraintunabhängig sind. Also gibt uns e eine erfolgreiche<br />

Einbettung von I in den theoretischen Gehalt von T: e(I) TG(T).<br />

q.e.d.<br />

Damit ist deutlich, daß dieser Typ von Zerlegung einer Theorie wesentlich<br />

von der Anwendungsmenge I und der Art, wie sie durch die innertheoretischen<br />

Querverbindungen der Theorie zusammengehalten<br />

wird, abhängt. Das zeigte sich auch im Beispiel von Salmon (s. IX.A),<br />

der das Gravitationsgesetz in drei Teilgesetze zerlegen wollte, was an<br />

den Identitätsconstraints für die Masse und die Gravitationskonstante<br />

scheiterte, die die Aussagen zusammenhalten. Ob es auch andere sinnvolle<br />

Formen von Zerlegungen einer Theorie etwa anhand von Zerlegungen<br />

des Kerns gibt, bleibt der weiteren Forschung überlassen.<br />

Die bisherigen Überlegungen zur „organischen Einheitlichkeit“ einer<br />

Theorie bezogen sich alle nur auf ein einzelnes Theorie-Element, aber<br />

sie lassen sich natürlich auch auf ausgewachsene Theorien-Netze N =<br />

(Ti)iJ übertragen. Für sie stellt sich zunächst auf jeder Ebene erneut die<br />

Frage nach der jeweiligen Zerlegbarkeit von Spezialisierungen, wobei<br />

zusätzlich eine Gewichtung von Zerlegungen vorzunehmen ist. Zerlegungen<br />

für einzelne Theorie-Elemente an der Peripherie des Netzes sind<br />

sicher unbedeutender als Zerlegungen, die sich etwa durch ein ganzes<br />

Netz ziehen. Wenn wir mit T0 das Basis-Theorie-Element von N bezeichnen,<br />

könnte eine solche Zerlegung des ganzen Netzes wiederum anhand<br />

einer constraintunabhängigen Zerlegung von I0 erhalten, wobei diesmal<br />

„Constraintunabhängigkeit“ allerdings Unabhängigkeit in bezug auf alle<br />

im Netz vorkommenden Constraints bedeutet.<br />

X, Y Mpp(T0) nichtleer und disjunkt heißen constraintunabhängig<br />

in bezug auf das Netz N = (Ti)iJ gdw:<br />

e ℰ(T) i J gilt:<br />

[e(X) C(Ti) e(Y) C(Ti)] e(X) e(Y) C(Ti). 217<br />

Auch hier gilt wieder ein entsprechender Satz über eine konjunktive Zerlegung<br />

der empirischen Behauptung des ganzen Netzes, wenn I0 eine<br />

Zerlegung in zwei constraintunabhängige Mengen gestattet.<br />

217 Die Notation ist durch die Einbettungsfunktionen gegenüber der von<br />

Gähde wieder etwas verändert.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 482<br />

Zusammengenommen ergibt sich damit für die Einheitlichkeit einer<br />

Theorie die Forderung, sie solle möglichst wenige solcher konjunktiven<br />

Zerlegungen zulassen. Diese Forderung läßt sich anhand einer naheliegenden<br />

Bedingung an die Einbettungsfunktionen befördern, nämlich<br />

die, daß sie stetig sein sollen. 218<br />

Betrachten wir dazu noch einmal den Fall, in dem I in zwei constraintunabhängige<br />

Mengen X und Y zerlegbar ist, in der Faserbündeldarstellung.<br />

In diesem Bild sind X und Y nur dann constraintunabhängig,<br />

wenn nicht nur die durchgehenden Querlinien Constraints<br />

darstellen, sondern auch alle zusammengesetzten Teile solcher Linien,<br />

die in den Faserbündeln zu X und Y liegen. Die Teile X und Y des Anwendungsbereichs<br />

sind erfolgreich theoretisch einzubetten durch die angedeuteten<br />

Einbettungen e’ und e”, und ganz I ist es bei Constraintunabhängigkeit<br />

von X und Y ebenfalls, weil man dafür eine Einbettungsfunktion<br />

aus e’ und e” (wie im Beweis des Theorem von Gähde) zusammenbauen<br />

darf. Diese stellt dann allerdings eine unstetige Einbettungsfunktion<br />

dar. Für zusammenhängende Anwendungsbereiche I scheint aber eine<br />

Stetigkeitsforderung eine für die Einheitlichkeit der Theorie förderliche<br />

Bedingung zu sein.<br />

Unstetige Einbettung<br />

Wir erwarten auch eine stetige Einbettung von einer organischen Theorie,<br />

denn eng benachbarte empirische Systeme sollten nicht durch völlig<br />

unterschiedliche theoretische Größen repräsentiert und damit von der<br />

Theorie völlig unterschiedlich behandelt werden. In einem solchen Fall<br />

218 Da wir üblicherweise über eine Topologie – etwa eine Quasimetrik –<br />

auf Mp wie auf Mpp verfügen, ist die Rede von stetigen Einbettungen sinnvoll.<br />

Was sie für konkrete Theoiren bedeutet, ist anhand von Fallstudien weiter zu<br />

verfolgen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 483<br />

würden wir intuitiv von einer unterschiedlichen und nichteinheitlichen<br />

Beschreibung dieser benachbarten Systeme sprechen müssen. Für den<br />

Fall diskreter Anwendungsbereiche könnte man eine entsprechende Forderung<br />

nach möglichst kleiner Variation statt der Stetigkeitsforderung<br />

verlangen, um von einer möglichst einheitlichen Theorie sprechen zu<br />

können.<br />

Insgesamt ergibt dieser Abschnitt, daß eine Theorie, um vereinheitlichend<br />

wirken zu können, selbst möglichst einheitlich sein sollte. In der<br />

Sprache der strukturalistischen Theorienkonzeption läßt sich das durch<br />

die Forderung explizieren: Die empirische Behauptung der Theorie<br />

sollte in möglichst wenige konjunktive Teilbehauptungen zerlegbar sein.<br />

Ein Schritt, um diese Forderung noch zu verstärken, besteht in der Beschränkung<br />

auf stetige Einbettungsfunktionen, die verhindern, daß bei<br />

Zerlegungen des Anwendungsbereichs die Einbettungsfunktion aus eigentlich<br />

„unzusammenhängenden“ Teilstücken zusammengesetzt werden<br />

kann.<br />

9. Formale Explikation von Vereinheitlichung<br />

Alle wichtigen Komponenten der Vereinheitlichung durch ein Theorien-<br />

Netz sind nun angesprochen worden, so daß jetzt eine Zusammenfassung<br />

der Ergebnisse möglich ist. Beginnen möchte ich mit einem einzelnen<br />

Theorie-Element T = . Seine Erklärungskraft beruht darauf,<br />

wie stringent es wieviele intendierte Anwendungen einbetten kann.<br />

Vereinheitlichung durch ein Theorie-Element T:<br />

Bestimmend für die Stringenz der Vereinheitlichung durch T ist<br />

hauptsächlich der Kern K der Theorie, der den theoretischen Gehalt<br />

TG(T) der Theorie festlegt. Der Umfang der Vereinheitlichung oder<br />

die Systematisierungsleistung bemißt sich dagegen an der Anzahl und<br />

Art der Phänomene Pj aus I, die tatsächlich theoretisch eingebettet<br />

werden können, d.h. die vollständig im empirischen Gehalt EG(T)<br />

liegen, und schließlich an der Einheitlichkeit der Theorie selbst, die<br />

sich darin zeigt, in wieviele konjunktive Teilbehauptungen die empirische<br />

Behauptung EB(T) höchstens zerfällt.<br />

Diese Kenngrößen der Vereinheitlichung können wir natürlich auch präzise<br />

angeben. Zunächst ist da der theoretische Gehalt, den wir bereits definiert<br />

haben:<br />

i) TG(T) := Pot(M) C Pot(L)


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 484<br />

Je kleiner TG(T) ist, desto informativer ist die Einbettung durch T, da T<br />

dann um so mehr Einbettungen verbietet. Außerdem haben wir als<br />

Gradmesser der Systematisierungsleistung den Umfang der eingebetteten<br />

Phänomene UP(T), der sich als Mengensystem aller Mengen von Phänomenen<br />

darstellen läßt, die tatsächlich theoretisch eingebettet werden<br />

können:<br />

ii) UP(T) := {Q Ƥ(T); Q EG(T)}<br />

D.h., UP(T) ist die Menge der Mengen von Phänomenen Q (aus der Gesamtmenge<br />

Ƥ(T) der Phänomene, die man mit T einzubetten hofft), die<br />

sich tatsächlich gemeinsam einbetten lassen, die also im empirischen Gehalt<br />

EG(T) liegen. Um dabei wieder eine Menge von partiellen Modellen<br />

zu erhalten und nicht bei einem Mengensystem stehenzubleiben, ist<br />

es erforderlich, zunächst alle partiellen Modelle aus den Phänomenmengen<br />

in Q wieder in einer Menge Q zu vereinigen.<br />

Besonders interessant ist auch noch die maximale Anzahl von Phänomenen,<br />

die zusammen eingebettet werden können, also die Anzahl der<br />

größten Menge Q aus UP(T):<br />

Anz[UP] := max {||Q||; Q UP(T)}, 219<br />

wobei ich davon ausgehe, daß die Anzahl der Phänomene in I, auf die<br />

man eine Theorie anzuwenden gedenkt, endlich ist, auch wenn die Menge<br />

aller Instanzen der Phänomene unendlich ist.<br />

Schließlich geht es noch um die Einheitlichkeit versus Zerlegbarkeit<br />

einer Theorie, die sowohl die Kerne wie auch die intendierten Anwendungen<br />

einer Theorie gemeinsam betrifft. Dazu betrachte ich die Menge<br />

aller konjunktiven Zerlegungen von in Theorien Ti = ,<br />

die selbst einen nichtleeren empirischen Gehalt besitzen – falls T einen<br />

besitzt – und nenne jede solche Menge V = {Ti; Ti ist nichtleeres Theorie-Element}<br />

eine konjunktive Zerlegung von T, wenn gilt: EB(K,I) <br />

V EB(Ki, Ii), d.h. wenn sich die empirische Behauptung von T als Konjunktion<br />

der empirischen Behauptungen der Ti darstellen läßt. 220 Dann<br />

sei die Menge aller Zerlegungen von T:<br />

iii) ZL(T) := {V; V ist eine konjunktive Zerlegung von T}<br />

219 Wobei mit ||Q|| die Anzahl der Elemente in Q gemeint ist.<br />

220 Dabei gehe ich der Einfachheit halber davon aus, daß abspaltbare Teile<br />

der empirischen Behauptung, die überhaupt keinen Beitrag zum empirischen Gehalt<br />

der Theorie leisten, im Sinne größerer Einheitlichkeit der Theorie schon<br />

vorher abgespalten und als überflüssig aufgegeben wurden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 485<br />

Dazu läßt sich natürlich wieder die Anzahl der größten Zerlegung bestimmen<br />

zu:<br />

Anz[ZL] := max {V||; V ZL(T)},<br />

in der Hoffnung, daß unsere Theorien zumindest so gut sind, daß sie<br />

nicht in unendlich viele Teiltheorien zerfallen, sondern wenigstens<br />

Anz[ZL] Anz[UP] bleibt. Was dabei unter einem nichtleeren Theorie-<br />

Element zu verstehen ist, läßt sich natürlich auch mengentheoretisch<br />

ausdrücken: T ist nichtleer gdw<br />

Q Mpp(T) mit: Q EG(T) und Q ,<br />

d.h. es gibt Mengen von partiellen Modellen, die nicht theoretisch einzubetten<br />

sind. Positiv gewendet: T ist nicht so inhaltsleer, daß es jede beliebige<br />

Einbettung partieller Modelle gestattet.<br />

Mit diesem Instrumentarium haben wir die drei Kenngrößen, für die<br />

vereinheitlichende Kraft von Theorien rekonstruiert, nämlich TG, UP<br />

und ZL, wobei T um so vereinheitlichender ist, je umfangreicher UP<br />

und je kleiner TG und auch ZL sind. Damit können zwei Theorie-Elemente<br />

T und T’ in bezug auf ihre Vereinheitlichung miteinander verglichen<br />

werden, wenn sie eine wesentliche Voraussetzungen mitbringen.<br />

Sie müssen über eine gemeinsame nichttheoretische Beschreibungsebene<br />

verfügen, also über einen gemeinsamen Bereich von partiellen Modellen.<br />

Theorien, die ihre Systeme bereits auf der „empirischen“ Ebene<br />

ganz unterschiedlich beschreiben und demnach auf andere Aspekte dieser<br />

Systeme ausgehen, können in diesem strikten Sinn nicht miteinander<br />

verglichen werden. Immerhin erlaubt diese Explikation aber Vergleiche<br />

z. B. zwischen relativistisch und vorrelativistisch formulierten Theorien,<br />

da sich für sie gemeinsame Mengen partieller Modelle anbieten (s. dazu<br />

Bartelborth 1988, 102ff). Dann erhalten wir das Ergebnis, daß T’ eine<br />

größere oder gleiche Vereinheitlichung bewirkt, wenn die folgenden drei<br />

Bedingungen erfüllt sind:<br />

T’ bewirkt eine größere oder gleiche Vereinheitlichung gegenüber T<br />

gdw:<br />

1) TG(T’) TG(T)<br />

2) UP(T) UP(T’)<br />

3) ZL(T’) ZL(T)<br />

Für einen ersten Vergleich sind die Bedingungen (2) und (3) auch durch<br />

die folgenden Bedingungen zu ersetzen:


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 486<br />

2’) Anz[UP(T)] Anz[UP(T’)]<br />

3’) Anz[ZL(T’)] Anz[ZL(T)]<br />

Allerdings ergibt sich auch für Theorien mit denselben partiellen Modellen<br />

nur ein partieller Vergleich, denn es ist nicht auszuschließen, daß die<br />

eine Theorie in der einen Kennzahl und die andere dafür in einer anderen<br />

besser abschneidet. Es scheint mir nicht leicht zu sein, für diese Fälle<br />

allgemeingültige Aussagen zu treffen, welche der Theorien dann in bezug<br />

auf ihre Vereinheitlichung vorzuziehen ist, d.h. wie die drei Kenngrößen<br />

gegeneinander abgewogen werden sollten. Das muß im Einzelfall<br />

anhand der Berücksichtigung der jeweiligen Unterschiede in den Kenngrößen<br />

und ihrer jeweiligen Bedeutung geschehen. Zumindest sagt einem<br />

die Explikation der Kennzahlen dann noch, welche Aspekte von<br />

Theorien man in solchen Fällen zu vergleichen hat.<br />

Bisher habe ich nur über Vereinheitlichung durch eine Theorie gesprochen<br />

und noch nicht über Erklärungen. Das soll nun anhand konkreter<br />

Einbettungsfunktionen geschehen. Als Vorzug meiner Rekonstruktion<br />

der Erklärungskraft habe ich die globale Bewertung herausgestellt,<br />

die an dieser Stelle zu berücksichtigen ist. Auch wenn jemand ein<br />

einzelnes Ereignis erklärt, ist eine Bewertung dieser Erklärung nur im<br />

Hinblick auf einen größeren Ausschnitt aus seinem Überzeugungssystem<br />

vorzunehmen. Dazu haben wir zu ermitteln, welcher Einbettungsfunktion<br />

er sich bedient oder welche er für zulässig hält. Beschränken wir uns<br />

der Einfachheit halber auf den Fall, in dem wir ihm eine bestimmte Einbettungsfunktion<br />

e zuschreiben können. 221 Die ergibt sich etwa anhand<br />

der Meßverfahren, auf die er sich für die Größen stützt, und daraus, wie<br />

er seine Theorie beschreibt und auf welche Systeme er sie anzuwenden<br />

gedenkt. Die Güte der tatsächlichen Erklärung wird natürlich wesentlich<br />

dadurch bestimmt, wie sie von der Theorie Gebrauch macht, d.h. welche<br />

Phänomene sie tatsächlich in den theoretischen Gehalt der Theorie<br />

einzubetten weiß. Also durch:<br />

UP(e) := {Pi Ƥ(T); e(Pi) TG(T)}<br />

Die Kenngröße UP(e) (der Umfang, der durch e tatsächlich eingebetteten<br />

Phänomene) erlaubt damit auch einen Vergleich verschiedener Erklärungen,<br />

die sich auf ein und dieselbe Theorie beziehen, indem man nicht<br />

nur lokal überprüft, ob sich eine korrekte Einbettung für ein Phänomen<br />

finden läßt, sondern einbezieht, ob diese Einbettung mit der von weite-<br />

221 Das ist selbstverständlich nur eine Rekonstruktion dessen, was er tatsächlich<br />

tut, zum Zwecke bestimmter metatheoretischer Bewertungen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 487<br />

ren Phänomenen verträglich ist. Es kommt also nicht nur darauf an Pi in<br />

T einzubetten, sondern auch darauf, wie man es einbettet.<br />

An dieser Stelle scheint es darüber hinaus wiederum sinnvoll, Forderungen<br />

nach einer gewissen Einheitlichkeit der Einbettung zu stellen,<br />

wie die, daß e stetig sein sollte. Außerdem ist die Erklärungsleistung von<br />

e natürlich anhand der beiden anderen Kenngrößen der einbettenden<br />

Theorie zu beurteilen, also zum einen dem Informationsgehalt, den sie<br />

bietet, bzw. ihrer Stringenz, sowie ihrer Einheitlichkeit.<br />

Entsprechende Kenngrößen der Vereinheitlichung lassen sich nun<br />

auch allerdings mit etwas größerem formalen Aufwand auf der Ebene<br />

der Theorien-Netze finden. Sei dazu N := (Ti)iJ ein Theorien-Netz mit J<br />

:= {1,…,n}. Dann wird der „theoretische Gehalt“ des Netzes nicht<br />

durch das n-Tupel der TG(Ti) angemessen dargestellt, weil dabei die<br />

Konsistenzforderung innerhalb des Netzes (s. VII.C.9) nicht berücksichtigt<br />

würde. Diese Zusammenhänge können nur anhand der Einbettungsfunktionen<br />

ℰ(N) für das ganze Netz präzise integriert werden. Das geschieht<br />

durch die Inhaltsfunktion F, die allen möglichen Anwendungsmengen<br />

Ii des Netzes die Menge ihrer erfolgreichen Einbettungsfunktionen<br />

zuordnet:<br />

F: [Pot(Mp)] n Pot[EINB(N)]<br />

F wird definiert für [Pot(Mp)] n durch:<br />

F() := {e ℰ(N); i J: e(Qi) TG(Ti)} 222<br />

D.h. F ordnet jedem n-Tupel von Mengensystemen partieller Modelle<br />

(oder Phänomenmengen) die Menge der Einbettungsfunktionen zu, die<br />

die Mengen auf allen Ebenen jeweils korrekt in die entsprechenden Spezialisierungen<br />

des Netzes einbetten. In F finden wir daher die Kenngröße<br />

des theoretischen Gehalts für ein ganzes Theorien-Netz. Das mögen einige<br />

Überlegungen erläutern. Je kleiner F() ist, desto größer<br />

ist der theoretische Gehalt des Netzes, denn um so kleiner ist die Anzahl<br />

der Möglichkeiten (also der Einbettungsfunktionen) die Qi in die theoretischen<br />

Gehalte der entsprechenden Theorie-Elemente einzubetten. Der<br />

schlimmste Fall für eine Theorie ist der, daß sie den Einbettungen überhaupt<br />

keine Beschränkungen auferlegt und alle Phänomene oder anderen<br />

Mengensysteme einbettbar sind:<br />

Q1,…,Qn F() = ℰ(N)<br />

222 Dabei ist F mengentheoretisch extra auf einer Ebene angesiedelt, die es<br />

erlaubt, F auch direkt auf Phänomenmengen anzuwenden.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 488<br />

Das ist schon ein Extremfall, in dem nicht nur alle Mengen einbettbar<br />

sind, sondern auch gleich noch durch alle Einbettungsfunktionen eingebettet<br />

werden. Etwas besser ist schon der Fall:<br />

Q1,…,Qn F() <br />

Das Netz ist eventuell immer noch in einem gewissen Sinn inhaltsleer,<br />

weil alle Phänomene einbettbar sein könnten, aber es ist nicht mehr gesagt,<br />

daß uns diese Einbettungen in den Schoß fallen. Hier müssen wir<br />

eventuell schon nach den richtigen Einbettungsfunktionen suchen. Falls<br />

wir auf gehaltsleere Theorien stoßen, wird vermutlich dieser zweite Typ<br />

von Gehaltlosigkeit vorliegen, denn den erkennt man nicht auf Anhieb.<br />

Besonders interessant ist natürlich die Auswertung von F auf den intendierten<br />

Anwendungen der Theorie-Elemente, also F(). Die<br />

empirische Behauptung von N läßt sich nämlich – man sehe auch die<br />

Parallele zum theoretischen Gehalt von Theorie-Elementen – darstellen<br />

als:<br />

Empirische Behauptung von N:<br />

e F() (oder F() <br />

Des weiteren ist der Phänomenbereich für das ganze Netz zu bestimmen,<br />

der tatsächlich erfolgreich einzubetten ist. Auch das ist komplizierter als<br />

im Falle eines einzelnen Theorie-Elements, geht es doch um eine Einbettung<br />

auf mehreren Ebenen im Netz, also wieder um die Einbettung von<br />

n-Tupeln von Phänomenmengen:<br />

UP(N) := { [Pot(Ƥ(N))] n ; F() },<br />

UP(N) enthält gerade die n-Tupel von Phänomenmengen, für die es noch<br />

eine konsistente theoretische Einbettung in die jeweiligen theoretischen<br />

Gehalte der entsprechenden Spezialisierungen des Netzes gibt. Und<br />

schließlich läßt sich wiederum die Einheitlichkeit des ganzen Netzes anhand<br />

der Zerlegbarkeit seiner empirischen Behauptung bestimmen.<br />

Wenn wir mit EB(N) die empirische Behauptung von N bezeichnen, d.h.<br />

(zur Erinnerung):<br />

EB(N) : e ℰ(N) j J [e(Ij) TG(Tj)],<br />

dann sollte diese Behauptung in möglichst wenige entsprechende Teilbehauptungen<br />

zerlegbar sein, wenn diese wiederum empirische Behauptungen<br />

von eigenständigen, nicht gehaltleeren Netzen N1,… ,Nk darstellen<br />

sollen.<br />

ZL(N) := {V = {N1,…, Nk}; EB(N) EB(N1) … EB(Nk)}


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 489<br />

Daneben läßt sich wie im Falle des einzelnen Theorie-Elements die Vereinheitlichung<br />

möglichst vieler Phänomene durch eine spezielle erklärende<br />

Einbettungsfunktion e EINB(N) angeben: wiederum als die<br />

Menge der Phänomene, die durch e auf den verschiedenen Ebenen eingebettet<br />

werden können:<br />

UP(e) := { [Pot(Ƥ(N))] n ; e F() },<br />

Oder in einer vereinfachten Version, die bereits auf die intendierten Anwendungen<br />

bezug nimmt:<br />

UPv(e) := {P Ƥ(N); i J: P Ii e(P) TG(Ti)}<br />

Dabei werden einfach die Phänomene alle zusammengenommen, die<br />

sich erfolgreichen in die Spezialisierungen von N einbetten lassen, für<br />

die wir das beabsichtigen. Eine Aufspaltung in die unterschiedlichen Spezialisierungsebenen<br />

entfällt dabei, aber es geht natürlich dann auch ein<br />

Teil der Information verloren, auf welchen Ebenen wir jeweils erfolgreich<br />

waren. Sind wir für P überall im Netz erfolgreich, wo wir es sein<br />

wollten, gehört P zu UPv(e). Ob sich P dann noch in andere Spezialisierungen<br />

von N einbetten ließe, wird nicht mehr weiter untersucht. So<br />

läßt sich eine Kenngröße womöglich ohne zu große Verluste erheblich<br />

vereinfachen.<br />

Anhand dieser drei Kenngrößen der Vereinheitlichung lassen sich nun<br />

wiederum Vergleiche für zwei Theorien-Netze mit derselben begrifflichen<br />

Grundstruktur auf der nichttheoretischen Ebene oder für zwei entsprechende<br />

Erklärungen durchführen, indem man von dem vereinheitlichenderen<br />

Netz verlangt, daß für alle n-Tupel von partiellen Modellen<br />

die Einschränkungsfunktion F die kleineren Mengen liefert, der Umfang<br />

von einbettbaren Phänomenen aber mindestens genauso groß ist und außerdem<br />

weniger Zerlegungen der empirischen Behauptung möglich<br />

sind.<br />

N’ hat größere vereinheitlichende Kraft als N gdw:<br />

1) Q1,..., Qn Pot(Mp) gilt: F’() F()<br />

2) UP(N) UP(N’)<br />

3) ZL(N’) ZL(N)<br />

Zusammengenommen läßt sich ein Vergleich dann auf die empirischen<br />

Behauptungen zweier Netze N und N’ und ihre Zerlegbarkeit zurückführen.<br />

Folgt EB(N) aus EB(N’), und ist EB(N’) trotzdem nicht in mehr<br />

Komponenten zerlegbar als EB(N), so weist N’ die größere Vereinheitli-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 490<br />

chungsleistung auf. Um diese Behauptung zu untersuchen, sind wir allerdings<br />

auf die entsprechende Analyse der Komponenten angewiesen.<br />

Ein Aspekt, den ich in diesem Abschnitt bisher noch überhaupt nicht<br />

berücksichtigt habe, sind die Unschärfen von Theorien. Sie sind für<br />

quantitative empirische Theorien eigentlich immer vorhanden und daher<br />

auch an dieser Stelle wiederum einzubeziehen. Das würde die jeweiligen<br />

Mengen in gewisser Weise „erweitern“, wie das schon (VII.C.9) für<br />

die empirische Behauptung eines Theorien-Netzes vorgeführt wurde. An<br />

dieser Stelle möchte ich darauf verzichten, diese „Verschmierungen“ alle<br />

explizit anzugeben, weil das Verfahren nun bekannt ist und im Prinzip<br />

auf die genannten Größen übertragen werden kann.<br />

Die Kenngrößen der Vereinheitlichung eines ganzen Netzes lassen<br />

sich also ganz analog zu denen eines einzelnen Theorie-Elements zusammenbringen:<br />

Vereinheitlichung durch ein Theorien-Netz N:<br />

Bestimmend für die Stringenz der Vereinheitlichung eines Netzes N<br />

sind hauptsächlich die Kerne Ki der Spezialisierungen von N. Sie legen<br />

den theoretischen Gehalt des ganzen Netzes anhand der Inhaltsfunktion<br />

F für die möglichen Einbettungsfunktionen auf den verschiedenen<br />

Ebenen fest. Der Umfang der Vereinheitlichung bemißt<br />

sich dagegen an der Anzahl und Art der Phänomene Pj aus Ƥ(N), die<br />

tatsächlich theoretisch eingebettet werden können, d.h. die durch<br />

eine Einbettungsfunktion jeweils vollständig in den theoretischen Gehalt<br />

aller der Theorie-Elemente Ti des Netzes einzubetten sind, zu<br />

derem intendierten Anwendungsbereich Ii sie gehören. Schließlich<br />

muß auch noch die Einheitlichkeit von N berücksichtigt werden, die<br />

sich darin zeigt, in wieviele konjunktive Teilbehauptungen die empirische<br />

Behauptung EB(N) höchstens zerfällt.<br />

Die in diesem Kapitel präzisierte theoretische Einbettung von partiellen<br />

Modellen in theoretische Modelle, stellt natürlich nur einen Schritt in<br />

der theoretischen Vereinheitlichung dar. Oft genug erhalten wir die partiellen<br />

Modelle selbst wieder als aktuale Modelle von Vortheorien, die<br />

ihrerseits auf ähnliche Weise entstanden sind. Umgekehrt gibt es eventuell<br />

„über“ dem Netz wiederum neue Netze, zu denen die Modelle des<br />

Netzes den „empirischen“ Input bilden. Die theoretische Vereinheitlichung<br />

findet also nicht nur im Netz, sondern auch im Umfeld des Netzes<br />

auf verschiedenen Ebenen statt, die in komplizierter Weise ineinandergreifen.<br />

Eine formale Explikation der Vereinheitlichungskraft derartiger<br />

größerer Teile der Wissenschaft – z. B. von Theorien-Holons – ist natür-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 491<br />

lich im Prinzip auf denselben Wegen möglich, die hier für Theorie-Elemente<br />

und Netze beschritten wurden, soll aber an dieser Stelle nicht<br />

weiter verfolgt werden.<br />

Mit der Explikation der theoretischen Vereinheitlichung haben wir<br />

dann auch den Begriff der wissenschaftlichen Erklärung expliziert:<br />

Wissenschaftliche Erklärung<br />

Eine Instanz eines Phänomens P wird erklärt durch seine Einbettung<br />

e in eine Theorie T, wobei die Erklärung um so besser ist, je größer<br />

die theoretische Vereinheitlichung durch T ist und je größer die spezielle<br />

Vereinheitlichung durch e ist.<br />

Die drei Parameter der Erklärung: Systematisierungsleistung, Informationsgehalt<br />

der Einbettung und organische Einheitlichkeit der einbettenden<br />

Theorie tragen alle direkt zu einer Erhöhung der Kohärenz unseres<br />

Meinungssystems bei. Für die Systematisierungsleistung, die den Kern<br />

der Vereinheitlichungskonzeption bildet, ist das offensichtlich, denn nur<br />

durch stark systematisierende Theorien entsteht eine globale Kohärenz<br />

meines Überzeugungssystems. Die Systematisierungsleistung spiegelt also<br />

den lokalen Beitrag einer Theorie zur globalen Kohärenz wieder. Die organische<br />

Einheitlichkeit von T gibt an, wie stark T seine Anwendungen<br />

zusammenbindet. Eine Zusammenfassung in einer bloße Konjunktion<br />

wäre dabei die schwächste Form der Verknüpfung, während die Einbindung<br />

durch eine unzerlegbare Theorie die stärkste Form darstellt. Allerdings<br />

spielt dabei auch die Frage des empirischen Gehalts eine Rolle, der<br />

bei Zerlegungen jeweils verlorengehen würde. Je größer diese Verluste<br />

sind – also je größer der synergistische Überschußgehalt der Theorie ist,<br />

desto gehaltvoller ist die Zusammenbindung durch T. Der Informationsgehalt<br />

der jeweiligen Einbettung gibt uns schließlich die Stärke der kohärenten<br />

Einbettung speziell von P in unser Meinungssystem an. Im Extremfall,<br />

in dem nur ein partielles Modell eingebettet werden kann, entspräche<br />

das einer Herleitung von P aus der Theorie.<br />

Die formal präzisierte Erklärungstheorie erlaubt natürlich nicht nur<br />

die „Berechnung“ der Erklärungskraft für mathematisierte Theorien und<br />

entsprechend rekonstruierte Erklärungen, sondern ist ebenso bei der Beurteilung<br />

informeller Erklärungen von Nutzen. Im Prinzip läßt sich jede<br />

Erklärung mittels einer Einschätzung nach den vorgegebenen Kriterien<br />

und unter Heranziehen von KTR bewerten. Erklärungen werden dabei<br />

wesentlich zusammen mit den erklärenden Theorien in einem größeren<br />

Kontext bewertet. Die genannten Kennzahlen von Theorien sind letztlich<br />

immer in einem größeren Rahmen und im Vergleich mit anderen


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 492<br />

Theorien zu sehen. Der kann erst darüber entscheiden, welches die beste<br />

Erklärung in unserem Überzeugungssystem darstellt.<br />

F. Analogien und Kohärenz<br />

Die strukturalistische Auffassung wissenschaftlicher Theorien, konnte<br />

dazu beitragen, eine spezielle Form der Einbettung zu erläutern, nämlich<br />

die von Phänomenen in möglichst stringente und einheitliche Theorien.<br />

Daneben finden sich eine Reihe von anderen Einbettungen in den Wissenschaften,<br />

die in dieser Konzeption bisher noch nicht erfaßt oder in<br />

diesem Rahmen zumindest noch nicht ausführlicher untersucht wurden.<br />

Ein Bereich zu dem zwar schon Arbeiten vorliegen, der aber sicherlich<br />

noch weiterer Analysen bedarf, wurde bereits genannt, nämlich der des<br />

Übergangs von Daten als einzelnen Meßwerten zu einem partiellen Modell,<br />

das eine Instanz eines Phänomens vortheoretisch beschreibt. Man<br />

kann das auch als den Übergang von einem Datenmodell zu einem partiellen<br />

Modell bezeichnen. Da es bekanntlich meist viele Möglichkeiten<br />

gibt, Meßwerte unter Berücksichtigung ihrer Unschärfen in partielle<br />

Modelle einzubetten, ist hier die Frage nach den Kriterien für vereinheitlichende<br />

Einbettungen zu stellen. Auch dafür sind Kriterien der Einfachheit<br />

und Gleichbehandlung ähnlicher Fälle zu entwickeln, was meines<br />

Wissens aber bis heute nicht in völlig zufriedenstellender Weise geschehen<br />

ist. 223<br />

Oberhalb der Einbettung von Phänomenen in Theorien finden sich<br />

Einbettungen von Theorien in theoretische Modelle oder Analogiemodelle,<br />

die wiederum Theorien auf einer eventuell semiformalen Ebene<br />

vereinheitlichen helfen. Friedman (1981, 7) nennt als Beispiel die Molekülvorstellung<br />

von Gasen aus der statistischen Mechanik. Sie gestattet<br />

es, das Verhalten von Gasen in einen Zusammenhang zu vielen anderen<br />

Arten von Phänomenen wie chemischen Bindungen, elektrischen und<br />

thermischen Diffusionsprozessen, genetischer Vererbung etc. zu bringen.<br />

Auch für diese Form von „analoger Vereinheitlichung“ kann es zahlreiche<br />

Stufen geben. Das beginnt vielleicht bei relativ präzisen mathematischen<br />

Modellen über Potential- oder Wellenphänomene, in die sich zahlreiche<br />

konkrete Theorien über Wasserwellen, elektromagnetische Wellen,<br />

Lichtwellen etc. einbetten lassen, und geht über die Friedmanschen me-<br />

223 Einen guten Einblick in entsprechende Problemstellungen bietet Forster/Sober<br />

(1994).


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 493<br />

chanistischen Vorstellungen bis zu Analogien zwischen der Konstruktion<br />

von Artefakten durch den Menschen und der Konstruktion der Welt<br />

durch Gott. Viele Analogien lassen sich vermutlich durch eine Art von<br />

partiellem Homomorphismus zwischen den jeweiligen Modelltypen charakterisieren,<br />

was ich an einem Beispiel erläutern möchte. Natürlich<br />

kann ich damit nicht den Anspruch verbinden, an dieser Stelle eine ausführlichere<br />

Theorie von Analogien vorzulegen. Die hätte sich auf präzisere<br />

Untersuchungen von Einzelfällen zu berufen, denen ich nicht weiter<br />

nachgehe.<br />

Nehmen wir als Beispiel den Vorbild- und Analogiecharakter, den<br />

die Newtonschen Theorien des Planetensystems für das Bohrsche Atommodell<br />

darstellten. Die Abbildung zwischen den Modelltypen ist folgendermaßen<br />

zu beschreiben: Der Sonne und ihren Planeten entspricht der<br />

Atomkern und seine Elektronen. Den Gravitationskräften stehen die<br />

elektrostatischen Anziehungskräfte gegenüber, die ebenfalls vom 1/r 2 -<br />

Typ sind. Daraus folgen entsprechende Beziehungen für die Bahnen von<br />

Planeten und Elektronen, allerdings mit der Einschränkung, daß die<br />

Elektronen nur bestimmte diskrete Bahnen einnehmen dürfen. Doch<br />

trotz dieser offensichtlichen Disanalogie an einer wichtigen Stelle in den<br />

beiden Modelltypen, beruhte die Entwicklung des Bohrschen Atommodells<br />

wesentlich auf dieser Analogie (s. auch Lakatos 1974, 137ff).<br />

In der Anfangsphase dieses Forschungsprogramms ließen sich nahezu<br />

alle wichtigen Korrekturen, die aufgrund aufgetretener Widersprüche<br />

zur Empirie notwendig wurden, aus dieser Analogie gewinnen. Dabei erschienen<br />

sie gerade durch diese Anlehnung an das Planetensystem nicht<br />

als ad hoc Adjustierungen, sondern eher als ohnehin notwendige Weiterentwicklungen<br />

der Bohrschen Theorie. Einige Stufen dieser Entwicklung<br />

mögen das veranschaulichen: Bohrs Modell gelang es in seiner einfachen<br />

Fassung nicht, die Wellenlängen der sogenannten Fowler-Serie genau zu<br />

prognostizieren. 224 Als Verbesserung des Modells mußte Bohr aber nur<br />

auf den Übergang zu reduzierten Massen für Zwei-Körper-Probleme verweisen,<br />

um die aufgetretenen Abweichungen wie selbstverständlich einbauen<br />

zu können. Dieser Übergang war aus der Mechanik bereits bekannt,<br />

denn auch die Sonne steht nicht absolut still im Zentrum des Sonnensystems,<br />

sondern wird durch die Anziehungskraft der Planeten „hinund<br />

hergezogen“, was für genaue Berechnungen den Einsatz der reduzierten<br />

Massen erfordert. Den nächsten Verbesserungsschritt unternahm<br />

224 Die Vorhersage und Erklärung von abgestrahlten Wellenlängen des<br />

Wasserstoff- und des Heliumatoms war eine der entscheidenden empirischen<br />

Leistungen der Bohrschen Theorie.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 494<br />

1915 Sommerfeld mit seinem Übergang zu elliptischen Bahnen und relativistischen<br />

Korrekturtermen; ebenfalls aus der Mechanik bestens bekannt.<br />

Wiederum kam niemand auf die Idee zu behaupten, diese Verbesserungen<br />

seien reine ad hoc Modifizierungen, und die Analogie hätte<br />

doch bestenfalls heuristischen Wert und könnte daher den da hoc Charakter<br />

solcher Zusatzannahmen nicht „heilen“.<br />

Diese Entwicklungen der Atomtheorie wurden im Gegenteil als geradezu<br />

selbstverständliche Weiterentwicklungen begriffen. Es wurde eine<br />

wesentliche Verbindung zwischen den analogen Theorien akzeptiert, die<br />

allerdings auf einer eher formalen Stufe der gemeinsamen Einbettung in<br />

eine Theorie der Bewegungen in einem zentralen Potentialfeld zu sehen<br />

ist. Und obwohl es sich nicht um eine wesentlich materiale Analogie<br />

handelt, kann man sich dieser erkenntnistheoretischen Bewertung kaum<br />

entziehen. Damit findet sich eine weitere Form von Vereinheitlichung<br />

und Einbettung – nämlich in ein abstraktes Modell der Potentialbewegung<br />

um einen Zentralkörper, die sich auf der Ebene eines Modellvergleich<br />

recht gut beschreiben läßt und die offensichtlich epistemische Bedeutung<br />

besitzt. Man kann zumindest in einem schwachen Sinn davon<br />

sprechen, daß die Analogie auch erklärt, wieso die Bohrsche Theorie in<br />

ihrer einfachen Gestalt die Fowler-Serie nicht abzuleiten gestattete. Sie<br />

hatte die zu starke Idealisierung eines feststehenden Zentralkörpers aufzugeben.<br />

Ohne diesen Zusammenhängen weiter folgen zu können, hoffe<br />

ich doch, daß nun die metatheoretische Hypothese plausibel erscheint,<br />

wonach auch Analogiebeziehungen einen gewissen Erklärungswert und<br />

epistemische Bedeutung besitzen können, selbst wenn sie als Einbettungen<br />

auf einer recht abstrakten Ebene angesiedelt sind.<br />

G. Einbettung und kausale Erklärung<br />

Die Auffassung, daß Erklärungen immer kausale Erklärungen sind und<br />

wir durch eine genauere Untersuchung der Kausalitätskonzeption auch<br />

den Begriff der wissenschaftlichen Erklärung expliziert hätten, habe ich<br />

im wesentlichen aus zwei Gründen zurückgewiesen. Erstens deckt die<br />

kausale Erklärung nur einen Teilbereich der Bandbreite tatsächlicher<br />

wissenschaftlicher Erklärungen ab; in vielen Fällen, benötigen wir schon<br />

einen sehr liberalen und damit auch wenig informativen Kausalitätsbegriff,<br />

um noch von einer Ursache-Wirkungsbeziehung sprechen zu können.<br />

Zweitens sind unsere Kausalitätsvorstellungen nur wenig bestimmt,<br />

wenn wir sie nicht auf bestimmte Typen von Ereignissen beschränken.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 495<br />

Daher bietet die Redeweise von einem kausalen Zusammenhang keine<br />

wesentlich neuen Einsichten darüber hinaus, daß ein zeitlicher Ablauf<br />

von Ereignissen und eine große Regelmäßigkeit für diesen Zusammenhang<br />

gegeben sind.<br />

Damit möchte ich keineswegs leugnen, daß wir die Vorstellung von<br />

der Welt haben, es gäbe so etwas wie einen bestimmten Typus von besonders<br />

wichtigen Beziehungen, der für sehr viele Ereignisse in unserer<br />

Welt gemeinsam ist. Sie findet sich auf einer recht abstrakten Ebene unserer<br />

Überzeugungen als eine Art von Metaüberzeugung zu unseren<br />

Theorien. Es handelt sich dabei geradezu um ein kleines Theorien-Netz<br />

„Kausalität“ mit dem eben skizzierten Basis-Theorie-Element, das wohl<br />

nur die beiden informell formulierten Gesetze (zeitlicher Ablauf und Regelmäßigkeit)<br />

enthält, und einer Reihe von Spezialisierungen auf bestimmte<br />

Typen von Fällen, die besondere Aussagen für diese Vorgänge<br />

erlauben. Diese Spezialisierungen können etwa den in (VIII.C.2.e) genannten<br />

Vorstellungen von Kausalität zu einigen physikalischen Rahmen<br />

entsprechen. Für Phänomene, die unter die Kausalitätsvorstellung der<br />

speziellen Relativitätstheorie fallen – vermutlich der größte und unserem<br />

Common-Sense Verständnis von Kausalität nächstliegende Bereich – gehört<br />

zu kausalen Vorgängen nur ein Energie-Impuls-Transfer, der mit<br />

höchstens Lichtgeschwindigkeit abläuft. In anderen Bereichen etwa der<br />

statistischen Kausalität scheinen unsere Intuitionen besser durch das<br />

Common Cause Modell abgedeckt zu werden usf. Dieses Netz ist damit<br />

natürlich alles andere als präzise rekonstruiert, aber Versuche wie den<br />

von Salmon und anderen Wissenschaftstheoretikern in diesem Gebiet<br />

mag man als logische Rekonstruktionen einzelner Spezialisierungen dieses<br />

Netzes betrachten. Wie gesagt, betten wir viele Phänomene in dieses<br />

Netz ein, was sicherlich einen Beitrag zur Vereinheitlichung und damit<br />

zur Kohärenz unseres gesamten Meinungssystem leistet. In diesem Sinn<br />

läßt sich auch im hier vorgelegten Rahmen verstehen, was mit kausaler<br />

Erklärung gemeint ist, nämlich die (informelle) Einbettung in dieses<br />

kleine Theorien-Netz von Ablaufmodellen. Damit hat sich eine gewisse<br />

Annäherung der beiden Positionen aus der Sicht der Vereinheitlichungskonzeption<br />

gezeigt, die auch verstehen hilft, wieso beide Vorstellungen<br />

nebeneinander bestehen können. Wie die Analogiebeziehung, stellt auch<br />

die Kausalkonzeption eine Einbettung in abstrakte Modelle oberhalb der<br />

Ebene unserer empirischen Theorien bereit, die eine große vereinheitlichende<br />

Kraft besitzt; jedenfalls was den Umfang betrifft, aber wohl nicht<br />

in Bezug auf ihre Stringenz.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 496<br />

Dieser Idee eines Zusammenspiels beider Auffassungen, scheint auch<br />

Salmon (1989, 180ff) inzwischen nicht abgeneigt zu sein, und einige frühere<br />

Äußerungen von ihm dokumentieren, daß er sich damit noch nicht<br />

einmal so weit von seiner ursprünglichen Position entfernen mußte:<br />

The aim of a scientific explanation, according to the ontic conception,<br />

is to fit the event-to-be-explained into a discernible pattern.<br />

This pattern is constituted by regularities in nature – regularities to<br />

which we often refer as laws of nature. Such laws may be either universal<br />

or statistical…<br />

It should be immediately evident, however, that mere subsumption<br />

under laws – mere fitting of events into regular patterns – has little,<br />

if any, explanatory force. (Salmon 1984, 121)<br />

So weit stimmen die Ansätze geradezu überein, 225 man übersetze hier<br />

nur „pattern“ etwa durch „Modell“, was unproblematisch erscheint, da<br />

ich den Modellbegriff zunächst auch recht liberal verstanden wissen<br />

möchte. Erst in der Frage, was denn erklärende Einbettungen von nichterklärenden<br />

unterscheidet, trennen sich die Wege. Von Erklärungen etwa<br />

durch das ideale Gasgesetz sagt Salmon (z. B. 1984, 121), sie hätten<br />

„not much (if any) explanatory import“. Für ihn sind es also nur Einbettungen<br />

in kausale Modelle, d.h. in Modelle, die einen zeitlichen Ablauf<br />

beschreiben, die erklärend sind. Allerdings traut er sich auf der anderen<br />

Seite nicht, den Koexistenzgesetzen überhaupt keine Erklärungskraft zuzusprechen,<br />

sondern bringt das „if any“ nur als verschämten Zusatz.<br />

Auch ich bin der Meinung, daß die Koexistenzgesetze meist nur geringe<br />

Erklärungskraft besitzen – aber immerhin nicht völlig ohne Erklärungswert<br />

sind. Das ist allerdings ebenso eine Eigenschaft der von Salmon so<br />

gerühmten Newtonschen Axiome, wenn sie allein auftreten. So hat Ulrich<br />

Gähde (1983) gezeigt, daß sie empirisch leer sind, solange sie nicht<br />

durch Spezialgesetze ergänzt werden. Auch der Hinweis darauf, daß es<br />

sich dabei um Kausalgesetze handelt, scheint mir – gerade wenn man damit<br />

nicht eine metaphysische Behauptung über notwendige Zusammenhänge<br />

in der Natur aufstellen möchte, was ich Salmon natürlich nicht<br />

unterstelle – kaum der entscheidende Zusatz zu sein, der ihnen Erklä-<br />

225 Einige Anmerkungen zu Erklärungen, bei denen das Explanans die<br />

Wahrscheinlichkeit für das Explanandumereignis herabsetzt, was in Salmons Erklärungstheorie<br />

erlaubt ist, aber sicherlich nicht unbedingt intuitiv erscheint,<br />

lasse ich aus, da ich mich mit der speziellen Problematik statistischer Erklärungen<br />

nicht befassen möchte.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 497<br />

rungskraft verleiht; das sollte die Diskussion über die relative Inhaltslosigkeit<br />

von Kausalitätsbehauptungen verdeutlicht haben.<br />

Und damit möchte ich Priorität für die Vereinheitlichungskonzeption<br />

in Anspruch nehmen, denn erst sie gibt uns den entscheidenden Hinweis<br />

auf den Erklärungswert, der in der Frage zu suchen ist, wie groß die vereinheitlichende<br />

Kraft des erklärenden Gesetzes oder der erklärenden<br />

Theorie ist und wie groß ihr empirischer Gehalt dabei ist. Was nützen<br />

mir Gesetze, die ich als kausal bezeichnen kann, die aber inhaltlich leer<br />

sind? Salmon unterscheidet in (1984) also Einbettungen wesentlich danach,<br />

ob sie in kausale Modelle erfolgen oder nicht, während es mir um<br />

den Informationsgehalt der Modelle und ihre vereinheitlichende Kraft<br />

geht. Wenn kausale Gesetze in dieser Richtung auch etwas zu bieten haben,<br />

was ich von den meisten annehme, so läßt sich Salmons Theorie in<br />

meinen Ansatz einbetten und der Streit zwischen einem kausalen und einem<br />

Vereinheitlichungsansatz besteht nur noch in der Frage, ob es über<br />

die kausalen Einbettungen hinaus noch andere Einbettungen gibt, die<br />

ebenfalls den Namen „Erklärung“ zu Recht tragen. Die genannten Beispiele<br />

sprechen meiner Ansicht nach ganz klar dafür, zumal man sonst<br />

große Teile der Wissenschaft bloß aufgrund der von Philosophen gehätschelten<br />

Kausalität von einem zentralen Ziel der Wissenschaften, nämlich<br />

Erklärungen zu liefern, apodiktisch ausschließen würde.<br />

H. Zur Problemlösekraft des Einbettungsmodells<br />

Die meiste Unterstützung zieht der Vereinheitlichungsansatz der Erklärung<br />

sicher daraus, wie natürlich es ihm gelingt, Beispiele von Erklärungen<br />

zu subsumieren und darüber hinaus ihre Erklärungskraft und die<br />

von wissenschaftlichen Theorien korrekt zu beschreiben. Neben einigen<br />

Beispielen, die ich an verschiedenen Stellen genannt habe, lassen sich im<br />

Rahmen der Vereinheitlichungstheorie von Kitcher weitere Beispiele finden.<br />

Trotzdem spielt für die kohärente Einbettung dieser Konzeption in<br />

unsere Metatheorie der Erkenntnis nicht nur die Beziehung zu den „Daten“<br />

– also hier den Beispielfällen – eine wichtige Rolle, sondern ebenfalls<br />

die Kohärenz zu anderen metatheoretischen Überzeugungen über<br />

Erklärung. Dabei interessieren uns insbesondere die Anomalien früherer<br />

Ansätze, aber auch offengebliebene Fragen der erkenntnistheoretischen<br />

Debatte. Diese Zusammenhänge möchte ich im folgenden noch kurz untersuchen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 498<br />

1. Erklärungsanomalien<br />

In der wissenschaftstheoretischen Debatte um theoriendynamische Phänomene<br />

spielen spätestens seit Kuhn die Anomalien eine besondere Rolle.<br />

Sobald sie sich häufen, gerät ein Paradigma in die Gefahr aufgegeben<br />

zu werden. Auch in der Kohärenztheorie der Rechtfertigung habe ich ihnen<br />

eine besondere Rolle zugebilligt, wenn es darum geht, die Kohärenz<br />

eines Meinungssystems zu bedrohen. Aber was ist unter einer Erklärungsanomalie<br />

genau zu verstehen? Natürlich ist nicht jedes Ereignis, für<br />

das wir keine Erklärung besitzen, damit schon eine Erklärungsanomalie.<br />

Für die allermeisten Phänomene um uns herum haben wir wohl keine<br />

informativen Erklärungen. Das beunruhigt uns schon deshalb kaum,<br />

weil wir davon ausgehen, daß sie im Prinzip welche besitzen.<br />

Außerdem wissen wir inzwischen, daß jede Theorie über einen Anwendungsbereich<br />

verfügt, der im Laufe der Entwicklung der Theorie<br />

Veränderungen unterliegt. So hat sich Newtons Hoffnung nicht erfüllt,<br />

optische, chemische und Gezeitenphänomene in seiner Partikelmechanik<br />

erklären zu können, und diese wurden dann aus dem Bereich der zunächst<br />

intendierten Anwendungen herausgenommen. Oftmals sind derartige<br />

Veränderungen von I nicht ganz so spektakulär und umfassend,<br />

aber nichtsdestoweniger bestimmen sie über die Entwicklung einer<br />

Theorie. Nun kann ein unerklärtes Ereignis z. B. aus dem schlichten<br />

Grunde keine Erklärungsanomalie sein, weil es in keinem intendierten<br />

Anwendungsbereich einer Theorie liegt. Daß ich heute um 13.30 Uhr<br />

eine Banane gegessen habe und viele andere alltägliche Geschehnisse,<br />

sind im allgemeinen keine Fakten, die von irgendeiner Wissenschaft für<br />

Wert befunden werden, anhand geeigneter Theorien erklärt zu werden.<br />

Selbst wenn man zunächst daran dachte, optische Phänomene im Rahmen<br />

einer Mechanik zu erklären, und es dann doch nicht gelingt, so daß<br />

wir sie aus dem Anwendungsbereich der Mechanik wieder entfernen<br />

müssen, liegt damit noch nicht unbedingt eine Erklärungsanomalie vor.<br />

Dazu muß die Einheitlichkeit und Systematisierungskraft einer Theorie<br />

schon in stärkerem Umfang beeinträchtigt sein, als das in diesem Beispiel<br />

der Fall war. Die Newtonsche Mechanik konnte diese relativ getrennt<br />

erscheinenden Gebiete aufgeben, ohne daß die zurückbleibende<br />

Theorie dadurch uneinheitlich wurde. Sie hatte damit zwar nicht ganz<br />

die erhoffte Vereinheitlichungskraft, aber konnte immer noch genügend<br />

Phänomene erfolgreich einbetten, um als großer Fortschritt gegenüber<br />

einem entsprechenden Meinungssystem ohne sie betrachtet zu werden.<br />

Anders sieht es da schon für die Perihelanomalie des Merkur aus.<br />

Hätte sie sich durch Erweiterung des Anwendungsbereichs der Newtons-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 499<br />

chen Mechanik um den Planeten Vulkan beheben lassen, wäre damit die<br />

Vereinheitlichung nicht besonders vergrößert worden, aber auch nicht<br />

erheblich gestört worden. Doch andererseits wäre es eine empfindliche<br />

Beeinträchtigung der Einheitlichkeit gewesen, das System Merkur-Sonne<br />

aus dem Anwendungsbereich der Theorie auszuschließen, weil damit<br />

eine natürliche Art, nämlich die der Himmelskörper oder noch spezifischer<br />

die der Planeten, nicht mehr einheitlich zum Anwendungsbereich<br />

der Mechanik gehört hätte und damit auch nicht mehr zu UP(KPM). Da<br />

dieser Bereich der Theorie aber geradezu die zentrale Anwendung der<br />

frühen KPM darstellte (s. BMS 223ff), bot der einfache Weg der Verkleinerung<br />

des Anwendungsbereichs von KPM keine Möglichkeit mehr, die<br />

Vereinheitlichungskraft der Theorie auch nur einigermaßen zu bewahren.<br />

226 Wenn das der Fall ist, liegt eine authentische Erklärungsanomalie<br />

vor. Es sind also zwei Dinge, die dafür zusammenkommen müssen, nämlich<br />

erstens eine intendierte Anwendung einer Theorie, die sich der<br />

theoretischen Einbettung hartnäckig widersetzt, und zweitens eine wichtige<br />

Rolle im Rahmen der vereinheitlichenden Wirkung der Theorie, so<br />

daß die betreffende intendierte Anwendung nicht einfach ausgeschlossen<br />

werden kann.<br />

2. Asymmetrien der Erklärung<br />

Eine metatheoretische Anomalie der klassischen Erklärungskonzeption<br />

von Hempel bildet die sogenannte Asymmetrie der Erklärung, die vielleicht<br />

das bedeutsamste Argument für eine kausale Betrachtungsweise<br />

von Erklärungen darstellte. Und auch nach unserer Zurückweisung der<br />

kausalen Erklärungstheorie als wesentlich unzureichend läßt sich der<br />

Zusammenhang zwischen den Asymmetrien und unseren Vorstellungen<br />

von kausalen Zusammenhängen nicht einfach abweisen. Das ist aber für<br />

die Vereinheitlichungskonzeption auch kein Hindernis, denn wie wir in<br />

Abschnitt (G) gesehen haben, gibt es einen entsprechenden Zusammenhang<br />

zwischen beiden Auffassungen. In unserem Meinungssystem findet<br />

sich eine recht allgemeine „Theorie“ von kausalen Vorgängen, die sich<br />

zumindest darauf beruft, daß es sich um zeitliche Abfolgen von Ereignissen<br />

handelt, die eine hohe Regelmäßigkeit aufweisen. In diese Konzeption<br />

betten wir sehr viele Vorgänge und Abfolgen von Ereignissen in<br />

asymmetrischer Weise ein, denn wir ordnen sie bei dieser Gelegenheit in<br />

Ursachen und Wirkungen. Zu dieser Konzeption von Kausalität gehört<br />

226 In diesem Beispiel wird auch deutlich, wieso zu UP(T) jeweils nur die<br />

Phänomene zählen, die zur Gänze durch T erklärbar sind.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 500<br />

nämlich die Vorstellung, daß nur Vorhergehendes spätere Ereignisse beeinflussen<br />

kann und nicht umgekehrt, sowie einen entsprechenden Zusammenhang<br />

zur Erklärungskonzeption, nach der viele Ereignisse und<br />

Eigenschaften von Dingen durch Beschreibung ihrer Entstehungsgeschichte<br />

erklärt werden können.<br />

Betrachten wir dazu noch einmal die beiden Beispiele aus (VIII.B.2)<br />

zur Asymmetrie von Erklärungen, die Rotverschiebung und die Länge<br />

des Schattens. In beiden Fällen können wir eigentlich nur davon sprechen,<br />

daß eine Entstehungserklärung gegeben wurde und nicht eine kausale<br />

Erklärung in einem irgendwie anspruchsvollen Sinn des Wortes. Der<br />

für die Rotverschiebung verantwortliche Dopplereffekt gibt keinen kausalen<br />

Mechanismus an, der mit einer Form von Energie- oder Impulsübertragung<br />

verbunden wäre, sondern nur einfache kinematisch-geometrische<br />

Zusammenhänge, die sich auf die Relativgeschwindigkeiten der<br />

beteiligten Objekte beziehen. Und entsprechendes gilt für die Länge des<br />

Schattens in unserem Fahnenmastbeispiel. Die Erklärung stützt sich gerade<br />

nicht auf den kausalen Prozeß der dem Phänomen zugrundeliegt –<br />

sie beschreibt nicht die kausalen Auswirkungen des Fahnenmastes auf<br />

auftreffende Photonen etc., sondern bezieht sich hauptsächlich auf den<br />

Satz des Pythagoras. Statt von kausaler Erklärung würde ich daher bescheidener<br />

von einer „Entstehungsgeschichtenerklärung“ sprechen, die<br />

asymmetrisch ist.<br />

Wie kann die Vereinheitlichungstheorie damit umgehen? Die erste<br />

Antwort war: Wir finden in unserem Überzeugungssystem die Theorie<br />

der Entstehungsgeschichten, und die Einbettung in diese Theorie erhöht<br />

die Vereinheitlichung, hat also auch im Rahmen der Vereinheitlichungstheorie<br />

eindeutig erklärende Kraft. Allgemein gilt: Die Vorstellung, daß<br />

wir Erklärungen in solchen „Entstehungsgeschichtenerklärungen“ organisieren<br />

sollten, ist ein sinnvolles regulatives Prinzip der Forschung. Außerdem<br />

fügt sie sich auch im übrigen kohärent in unsere Überzeugungssysteme<br />

ein, und ein Vertreter der Vereinheitlichungstheorie darf daher<br />

auf sie bauen.<br />

Kitcher (1988, 220ff und 1989, 484ff) hat noch einen anderen Weg<br />

eingeschlagen und versucht die Asymmetrie zu verstehen, ohne daruf bezug<br />

zu nehmen, daß eine eigenständige Theorie der Kausalität vereinheitlichender<br />

Teil unseres Überzeugungssystems ist. Für die Länge eines<br />

Pendels oder die Höhe eines Fahnenmastes und viele andere Gegenstände<br />

verfügen wir im Prinzip über Erklärungen, die sich auf ihren Ursprung<br />

und ihre Entwicklung beziehen. Diese umfassen eine große Anzahl<br />

von Fällen. Erklärungen, die dazu in Konkurrenz treten würden, in-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 501<br />

dem sie die Länge des Fahnenmastes anhand seines Schattens oder die<br />

Länge des Pendels anhand seiner Frequenz herleiten wollten, müßten<br />

demgegenüber unterliegen, weil sie jeweils nur für kleine Teilklassen unserer<br />

Objekte gelten würden (vgl. IX.B). Allein anhand von Vergleichen<br />

der Systematisierungsleistung sind daher unsere normalen Erklärungen<br />

gegenüber ihren Alternativen zu bevorzugen. Auf eine Erwähnung der<br />

Kausalität sind wir dabei überhaupt nicht angewiesen.<br />

Doch dagegen weist Barnes (1992, 564ff) darauf hin, daß etwa die<br />

Newtonsche Theorie verschiedene Formen von Ableitungen gestattet.<br />

Zum einen können wir die Bahnen bestimmter Körper eines abgeschlossenen<br />

Newtonschen Systems anhand der Newtonschen Gesetze, ihrer<br />

Geschwindigkeiten [hier wären eigentlich die Impulse zu wählen] und<br />

Orte zu einem Zeitpunkt berechnen und daher ihre Positionen für einen<br />

späteren Zustand vorhersagen. Zum anderen können wir sie aber auch<br />

zurückberechnen und damit Retrodiktionen für ihre Orte zu vergangenen<br />

Zeiten vornehmen. Beides ergäbe vereinheitlichende Argumentmuster,<br />

aber nur die Prognosen sind nach Barnes erklärend, während die<br />

Retrodiktionen keine Erklärungskraft besäßen. Damit wird nach seiner<br />

Meinung das Asymmetrieproblem zu einem ernstzunehmenden Testfall<br />

gegen Kitchers Vereinheitlichungskonzeption. Doch das scheint mir aus<br />

mehren Gründen nicht ganz überzeugend. Als erstes leuchtet mir die<br />

Asymmetrie in diesem Beispiel nicht besonders ein, weil es sich in beiden<br />

Fällen nicht gerade um typische Erklärungen handelt. Aber das ist<br />

nicht der springende Punkt. Entscheidend ist, daß von einer vereinheitlichenden<br />

Theorie wie der Newtonschen nicht einzelne Orte vorhergesagt<br />

oder erklärt werden, sondern ganze Bahnen etwa von Planeten über einen<br />

gewissen Zeitraum (s. Forge 1980, 223ff). Man kann die Theorie<br />

unter gewissen Umständen dann natürlich auch dazu verwenden, einzelnen<br />

Teile dieser Bahnen deduktiv abzuleiten, aber das ist nur eine sekundäre<br />

Möglichkeit, die meines Erachtens nicht den Kern der Newtonschen<br />

Erklärungskraft betrifft. Barnes scheint in seinem Argument schon<br />

die Sicht der kausalen Erklärungstheorie einzubauen, die sich gerade auf<br />

das erklären von einzelnen Ereignissen bezieht. Für Kitcher (1988, 208f)<br />

ergibt das Argumentmuster der Newtonschen Partikelmechanik eine Erklärung<br />

ganzer Bahnen. Und ganz so war auch die strukturalistische Rekonstruktion<br />

der KPM in (VII.C) angelegt, denn die partiellen Modelle<br />

der KPM enthalten jeweils ganze Bahnen von Partikeln als Lösungen der<br />

Newtonschen Differentialgleichungen. Trotzdem liegen hier sicher noch<br />

intuitive Probleme für Kitcher, wenn er die in unseren informellen Erklärungen<br />

deutlich vertretene Vorstellung von Kausalität für Asymme-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 502<br />

triefragen ganz aus dem Spiel lassen will. Für ihn muß das so sein, denn<br />

auch Kausalbeziehungen werden seiner Meinung nach schließlich durch<br />

Vereinheitlichung konstituiert.<br />

Dem möchte ich mich nicht anschließen und bin daher nicht auf<br />

diese Möglichkeit zur Erklärung von Asymmetrien angewiesen. Im Einbettungsmodell<br />

der Erklärung tritt die Asymmetrie zunächst überhaupt<br />

nicht auf, worauf Forge (für den „instance view“) schon (1980) hingewiesen<br />

hat. Im Bereich der theoretischen Erklärung werden nämlich nur<br />

vollständige partielle Modelle in Theorien eingebettet, so daß wir keine<br />

Ableitungen von bestimmten Orten zu bestimmten Zeiten erhalten, sondern<br />

immer nur die ganzen Weg-Zeit-Funktionen einbetten. Wir finden<br />

die Asymmetrie daher höchstens auf einer intuitiven Ebene von informellen<br />

Erklärungen. Dort sind es die Einbettungen in Ablaufmodelle,<br />

die Beispiele wie die von Barnes am besten beschreiben, die dann auch<br />

Beziehungen zwischen Teilen von partiellen Modellen, wie Impulsen<br />

und Orten von Partikeln zu bestimmten Zeiten zueinander in asymmetrische<br />

Zusammenhänge ordnen.<br />

3. Irrelevanz<br />

Anders ist das für die irrelevanten Bestandteile von Erklärungen. Die<br />

können – wie ich auch schon in (IX.B) erläutert habe – allein aufgrund<br />

von Überlegungen der Vereinheitlichung als solche gebrandmarkt und<br />

zurückgewiesen werden. Betrachten wir dazu noch einmal das Beispiel<br />

des verzauberten Tafelsalzes und seine Variationen.<br />

A) Die Erklärung für Auflösung eines bestimmten Stückes Salz (oder einer<br />

Gruppe von Salzstücken) beruft sich darauf, daß dieses Salz verzaubert<br />

ist.<br />

B) Die Erklärung für die Auflösung von Salz beruft sich allgemein (also<br />

für alles Salz) auf die Verzauberung von Salz.<br />

Im Fall (A) müssen wir mit zwei Theorien T1 und T2 (oder ihrer Konjunktion)<br />

arbeiten, um die Auflösung von Salz zu erklären. Zum einen<br />

mit einer physikalisch-chemischen Theorie der Molekülgitter von Salzen<br />

und der Auflösung der Gitterstruktur im Wasser und zum anderen mit<br />

einer Theorie der Verzauberung von Salzstücken, die zu ihrer Auflösung<br />

führen, wobei beide Theorien nur einen Teilbereich der Salze abdecken.<br />

Als Alternative dazu haben wir die Möglichkeit, mit einer chemisch-physikalischen<br />

Theorie auszukommen, die für alle Salzstücke ihr Auflösungsvermögen<br />

erklärt. Es gibt nun eine Reihe von Aspekten unter de-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 503<br />

nen die zweite Möglichkeit vorzuziehen ist. Als erstes haben wir für die<br />

eine umfassende Theorie einen größeren intendierten Anwendungsbereich<br />

als für die zwei eingeschränkten Theorien und damit eine größere<br />

Vereinheitlichungskraft. Das gilt natürlich auch gegenüber der Konjunktion<br />

der beiden Teiltheorien, denn die ist offensichtlich in zwei (vollkommen)<br />

unabhängige empirische Behauptungen zu zerlegen. Aber es ist<br />

nicht nur die stärkere Vereinheitlichung des Anwendungsbereichs, die<br />

für die zweite Möglichkeit spricht, sondern ebenfalls ihre größere Stringenz.<br />

Für sie finden wir quantitative und damit gehaltvollere Beschreibungen<br />

der Auflösung und außerdem eine Reihe von „Links“ zu anderen<br />

Theorien wie der Elektrodynamik, die uns etwas über die Bindungskräfte<br />

im Molekülverband erzählen kann. All das hat die Verzauberungstheorie<br />

nicht anzubieten. Sie ist zunächst ziemlich gehaltsleer und erhält<br />

auch keinen Inhalt durch entsprechende Querverbindungen zu anderen<br />

Theorien, weil sie isoliert in unserem Meinungssystem dasteht.<br />

Im Fall (B) haben wir zu wählen zwischen der Verzauberungstheorie,<br />

die für alle Proben von Salz gilt, und der chemisch-physikalischen Theorie,<br />

die ebenfalls alle Proben von Salz behandelt. Damit ist zunächst der<br />

intendierte Anwendungsbereich der beiden Theorien gleich, aber natürlich<br />

nicht ihre Stringenz. Die zweite Theorie weist einen deutlich höheren<br />

Gehalt auf. Die erste Theorie ist auch nicht durch eine Kombination<br />

mit der zweiten Theorie zu retten, in der sie etwa behauptet, es sei gerade<br />

die Verbindung von chemisch-physikalischen Eigenschaften und<br />

Verzauberung, die zur Auflösbarkeit führe, denn diese Variante gestattet<br />

eine Abspaltung der chemisch-physikalischen Theorie, die die Einheitlichkeit<br />

dieser Theorie zerstört und die schon dadurch minderwertig gegenüber<br />

der rein chemisch-physikalischen Theorie ist. In ähnlicher Weise<br />

können wir versuchen, auf der Grundlage der Einbettungstheorie<br />

Fälle von irrelevanten Bestandteilen in Erklärungen zurückzuweisen,<br />

denn diese sind in der Regel abzuspalten und damit kohärenzvermindernd.<br />

4. Statistische Theorien und Erklärungen<br />

Statistische Erklärungen hatte ich im wesentlichen ausgeklammert, vor<br />

allem, um mich nicht in den formalen Untiefen dieser Unterart von Erklärungen<br />

zu verlieren. Doch ein guter Teil der heutigen wissenschaftlichen<br />

Theorien und den entsprechenden Erklärungen sind statistischer<br />

Natur, so daß ich zumindest skizzieren möchte, wie sie sich im strukturalistischen<br />

Theorienkonzept behandeln lassen. Das ist nicht ganz unpro-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 504<br />

blematisch, wie sich sogleich zeigen wird, denn gerade die lokale Auffassung<br />

von Modellen enthüllt gewisse Probleme in unserem Verständnis<br />

statistischer Theorien. Für die Rekonstruktion spielt es zunächst keine<br />

wesentliche Rolle, wie wir die statistischen Aussagen oder Gesetze der<br />

beteiligten Theorien interpretieren, ob als genuine probabilistische Gesetze,<br />

die das Vorliegen von objektiven Wahrscheinlichkeiten in der Natur<br />

behaupten oder eher als das Bestehen von Unsicherheiten in unserer<br />

Kenntnis der „wirklichen“ Gesetze, die wir als deterministisch vermuten,<br />

aber über die wir noch nicht verfügen. Die meisten Theorien werden<br />

wir intuitiv eher der zweiten Kategorie zuordnen, aber zumindest<br />

für eine der grundlegensten Theorien unserer Zeit, die Quantenmechanik,<br />

scheint das nicht möglich zu sein.<br />

Die bei einer logischen Rekonstruktion auftretenden Probleme untersuchen<br />

wir am Beispiel einer einfachen fiktiven probabilistischen<br />

Theorie. Sie besagt, daß jeder Mensch, der die Eigenschaft besitzt, rothaarig<br />

(R) zu sein, mit einer Wahrscheinlichkeit von 35% jähzornig (J)<br />

ist. Nennen wir die Theorie J-Theorie (Jähzorn-Theorie). Die J-Theorie<br />

scheint über einzelne Menschen zu sprechen und wir werden sie auch<br />

einzeln in den Blick nehmen müssen, wenn wir die Aussage der Theorie<br />

überprüfen wollen. Demnach ist es strukturalistische Rekonstruktionsstrategie,<br />

als Grundbereich die Menge der Menschen einzuführen. Da<br />

über jeden einzelnen Menschen eine entsprechende Aussage gilt und in<br />

strukturalistischen Rekonstruktionen die partiellen Modelle als lokale<br />

Modelle so gewählt werden sollten, würden demnach die partiellen und<br />

die potentiellen Modelle über einzelne Menschen oder kleinere Gruppen<br />

von solchen sprechen. (Oder im Fall von physikalischen Mikrotheorien<br />

wie der Quantenmechanik über atomare oder subatomare Teilchen.)<br />

Nehmen wir zunächst der Einfachheit halber an, jedes partielle<br />

Modell beschriebe genau einen Menschen und sehen vom Problem der<br />

theoretischen Terme ab, so ergibt sich folgende Schwierigkeit für die<br />

Darstellung der Theorie: Im Fall deterministischer Theorien gehen wir<br />

davon aus, daß für ein bestimmtes potentielles Modell festgelegt ist und<br />

im Prinzip auch feststellbar ist, ob es ein Modell der Theorie ist oder<br />

nicht. Das gilt aber für die J-Theorie gerade nicht mehr. Wenn wir einen<br />

bestimmten rothaarigen Menschen untersuchen, stellen wir immer nur<br />

fest – sehen wir einmal von operationalen Problemen der Zuschreibung<br />

von Jähzorn ab –, daß er jähzornig ist oder nicht. Beide Feststellungen<br />

berechtigen weder zu der Annahme, daß es sich um ein Modell der<br />

Theorie handelt, noch daß das nicht der Fall ist. Der übliche strukturalistische<br />

Weg, Theorien darzustellen, versagt anscheinend. Unser Gesetz


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 505<br />

in der J-Theorie teilt die potentiellen Modelle nicht einfach in zwei Klassen,<br />

nämlich in Modelle und nicht-Modelle, ein. Jedes einzelne Vorkommnis<br />

von Jähzorn oder ruhigem Gemüt ist mit dem Gesetz vereinbar.<br />

Trotzdem würden wir sagen, daß bestimmte statistische Erscheinungen<br />

– wie etwa, daß alle Rothaarigen jähzornig sind – gegen die Theorie<br />

spricht, während andere statistischen Erscheinungen die Theorie zu stützen<br />

scheinen.<br />

Ehe wir uns anschauen, welche Optionen dem strukturalistischen<br />

Rekonstrukteur statistischer Theorien offenstehen, möchte ich der Frage<br />

nachgehen, ob wir hier nicht eine grundlegende Schwäche des strukturalistischen<br />

Ansatzes aufgedeckt haben. Obwohl es im ersten Moment so<br />

zu sein scheint, möchte ich behaupten, daß das nicht der Fall ist, sondern<br />

daß sich hier geradezu eine Stärke der strukturalistischen Sicht auf<br />

Theorien zeigt. Diese ist darin zu sehen, daß der strukturalistische Apparat<br />

bei der Rekonstruktion auf ein Problem stößt und aufmerksam<br />

macht, das bereits in unserem Verständnis der Theorie selbst angelegt<br />

ist. Wir sprechen in unserer J-Theorie zum einen so, als ob wir allen rothaarigen<br />

Menschen eine einfache Eigenschaft zusprechen, nämlich die<br />

mit 35%-tiger Wahrscheinlichkeit jähzornig zu sein, und auf der anderen<br />

Seite denken wir uns doch nur die Eigenschaft, jähzornig zu sein oder<br />

nicht, als eine reale Eigenschaft von Menschen. Es sind unsere Probleme,<br />

statistische Aussagen zu verstehen und ihre Verschiedenartigkeit gegenüber<br />

deterministischen Aussagen, die uns die Probleme für eine logische<br />

Klärung dieser Theorien bescheren und nicht die strukturalistische<br />

Auffassung der Theorien. Für probabilistische Theorien verfügen wir<br />

nicht mehr über so einfache und klare Kriterien dafür, daß ein System<br />

ein Modell der Theorie ist, sondern nur über Wahrscheinlichkeitsabschätzungen<br />

für größere Klassen von Einzelfällen. Nach welchen Reihen<br />

von Würfelergebnissen würden wir definitiv sagen, daß es sich um einen<br />

fairen und nach welchen, daß es sich um einen gezinkten handelt? Hier<br />

können wir nur noch mit bestimmten Irrtumswahrscheinlichkeiten arbeiten.<br />

Einzelne Würfe helfen uns jedenfalls kaum weiter, besitzen sie<br />

doch, wenigstens für Wahrscheinlichkeiten ungleich 0 und 1, keine Aussagekraft.<br />

Diese Probleme zeigen sich dann auch in der logischen Rekonstruktion<br />

der Theorie, die ja ebenfalls die Funktion haben soll, derartige<br />

Interpretationsfragen einer Theorie ans Licht zu bringen und einer Analyse<br />

zugänglich zu machen. Unsere Rede über statistische Theorien erscheint<br />

uns auf den ersten Blick einfach, sie verbirgt aber Irreführungen,<br />

die bei einer Rekonstruktion aufgedeckt werden. Die Einteilung in Modelle<br />

geschieht hier nicht nach der uns zugänglichen Eigenschaft des Jäh-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 506<br />

zorns, sondern nach der schwieriger verständlichen Eigenschaft, eine bestimmte<br />

Wahrscheinlichkeit für Jähzorn zu besitzen.<br />

Welche Optionen für Interpretationen statistischer Theorien und ihrer<br />

logischen Rekonstruktion stehen uns nun offen? Ohne einen Anspruch<br />

auf Vollständigkeit zu erheben, möchte ich doch einige Varianten<br />

und ihre Probleme der Reihe nach behandeln.<br />

(i) Gesamtheiten als Anwendungen des Gesetzes<br />

Statt wie zunächst von der Formulierung des Gesetzes nahegelegt einzelne<br />

Menschen als die Adressaten des Gesetzes anzusehen, lassen sich<br />

probabilistische Gesetze als Aussagen über größere Gesamtheiten interpretieren.<br />

So sprechen gemäß dieser Vorstellung Gesetze über den radioaktiven<br />

Zerfall nicht über den Zerfall einzelner Atome, sondern über<br />

größere Gesamtheiten gleichartiger Atome. Das entspricht zunächst<br />

auch ganz gut den experimentellen Tests bzw. Anwendungen statistischer<br />

Theorien, denn dafür sind wir immer darauf angewiesen, mehrere Objekte<br />

zu untersuchen. Damit ergibt sich also auch kein Widerspruch zur<br />

Rekonstruktionsstrategie des Strukturalismus, denn die kleinsten tatsächlichen<br />

Einheiten sind dann Mengen von Einzelobjekten und diese<br />

werden als partielle Modelle ausgewählt. Für solche Gruppen läßt sich<br />

nicht mehr sagen, sie seien einbettbar oder nicht, sondern nur, daß sie<br />

mit einer bestimmten Wahrscheinlichkeit zur Theorie passen. Die ergibt<br />

sich aus der Wahrscheinlichkeit, die die Theorie dieser Gruppe zuerkennt.<br />

Wenn wir dafür eine konkrete Schwelle angeben, bis zu der wir<br />

noch Gruppen als Bestätigungen der Theorie betrachten wollen (z. B.<br />

90%), so können wir dann wieder auf die Verfahren für deterministische<br />

Theorien zurückgreifen. Anderenfalls müssen wir die Wahrscheinlichkeiten<br />

direkt in die empirischen Behauptung der Theorie einbauen.<br />

Allerdings handelt es sich bei dieser Auffassung von Wahrscheinlichkeitsaussagen<br />

immer um eine recht schwache Interpretation probabilistischer<br />

Gesetze, denn gerade in dem betrachteten Beispiel denken wir<br />

doch, daß das Zerfallsgesetz uns ebenfalls etwas über das einzelne Atom<br />

sagt. Es gibt uns z. B. an, in welchem Ausmaß wir seinen Zerfall etwa in<br />

der nächsten halben Stunde zu erwarten haben. Diese Information ist<br />

aber bei der Gesamtheitenlesart der probabilistischen Aussage verlorengegangen.<br />

Es kann an dieser Stelle nicht meine Aufgabe sein, tiefer in die<br />

schwierige allgemeinere Diskussion über das Verständnis und den Gehalt<br />

statistischer Aussagen einzusteigen. Deshalb möchte ich mich darauf beschränken<br />

vorzustellen, wie selbst stärkere Interpretationen statistischer<br />

Theorien in einer Rekonstruktion wiedergegeben werden könnten.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 507<br />

(ii) Wahrscheinlichkeiten als Eigenschaften<br />

Eine anspruchsvollere Interpretation, die die unter (i) verlorengehenden<br />

Aussagen nicht verschenken möchte, ist eine, die die Wahrscheinlichkeiten<br />

direkt als Eigenschaften der einzelnen Individuen ansieht. Diese Eigenschaften<br />

können dispositionaler Art, man denke etwa an Poppers<br />

Propensitäten, oder auch anders gedacht werden. Das soll an dieser Stelle<br />

nicht weiter unterschieden werden. Im strukturalistischen Rahmen<br />

hätten sie wahrscheinlich gute Chancen als theoretische Größen klassifiziert<br />

zu werden. Auf der nichttheoretischen Ebene werden die sichtbaren<br />

Ergebnisse (ob ein Zerfall oder Jähzorn vorliegt) in partiellen Modellen<br />

festgehalten, während auf der theoretischen Ebene dann etwa<br />

Propensitäten zur Erklärung eingeführt werden. Diese Vorstellung ist sicherlich<br />

mit vielen Schwierigkeiten behaftet. Sie scheint zunächst über<br />

einzelne Modelle mit einzelnen Objekten zu sprechen, aber wir müssen<br />

wieder eine Reihe von partiellen Modellen mit Zerfall und eine Reihe<br />

ohne als Modelle aussondern. Diese Modelle unterscheiden sich aber<br />

nicht durch relevante Parameter auf der nichttheoretischen Ebene, sondern<br />

nur numerisch. Das ist völlig anders als bei deterministischen Theorien.<br />

Ehe wir hier nicht zu intuitiveren Interpretationen gelangen,<br />

scheint das die Gesamtheiten Interpretationen besser aussehen zu lassen.<br />

(iii) Probabilistische Aussagen als Constraints<br />

Wenn wir an der begrifflichen Gestaltung der Modelle als lokaler Modelle<br />

über einzelne Objekte festhalten möchten, liegt es nahe, probabilistische<br />

Aussagen als Aussagen nicht über einzelne Modelle, sondern als<br />

Aussagen über Modellmengen aufzufassen, die üblicherweise in Constraints<br />

unterzubringen sind. Die Elemente dieser Constraints sind dann<br />

gerade die Mengen potentieller Modelle, die laut probabilistischem Gesetz<br />

erlaubt sind. Das scheint die Absichten der Gesamtheiteninterpretation<br />

und die der lokalen Modelle zugleich zum Ausdruck zu bringen, beinhaltet<br />

aber noch eine Schwierigkeit. Das probabilistische Gesetz verbietet<br />

keine Mengen im strengen Sinn. Es sagt nur über einige, daß sie<br />

höchst unwahrscheinlich sind. Um diesen Punkt in der Rekonstruktion<br />

angemessen wiedergeben zu können, bietet es sich eventuell an, die Constraints<br />

als eine fuzzy-Menge aufzufassen. Danach wird jede Menge nur<br />

in einem gewissen Ausmaß Element des Constraints. Dieses Maß der<br />

Mengenzugehörigkeit sollte sich dabei in einfacher Weise an der Unwahrscheinlichkeit,<br />

die durch das probabilistische Gesetz vorgegeben ist,<br />

orientieren. Ein anderer Weg könnte wiederum sein, mit einer fest vor-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 508<br />

gegebenen Irrtumswahrscheinlichkeit zu arbeiten und per Constraint<br />

alle die Mengen zu verbieten, deren Unwahrscheinlichkeit größer ist, als<br />

der zugelassene Wahrscheinlichkeitsbereich es erlaubt. Diese Lösung ist<br />

formal einfacher und hält sich enger an die bisherige strukturalistische<br />

Terminologie, ist aber zunächst auf eine bestimmte Irrtumswahrscheinlichkeit<br />

festgelegt. Das ließe sich natürlich seinerseits wieder auflockern,<br />

indem man die Irrtumswahrscheinlichkeit als offenen Parameter betrachtet<br />

oder Familien solcher Irrtumswahrscheinlichkeiten zuläßt, die natürlich<br />

auch Familien von zwar gleichartigen aber doch unterschiedlichen<br />

Constraints nach sich ziehen. Die letzten beiden Möglichkeiten scheinen<br />

mir am besten in die strukturalistische Theorienauffassung hineinzupassen<br />

und deshalb favorisiere ich sie. Die dabei auftretenden Constraints<br />

wären allerdings im Unterschied zu den bisher von mir betrachteten<br />

Constraints in hohem Maße nicht-transitiv, d.h. es würde nicht mehr für<br />

beliebige Teilmengen einer Constraintmenge gelten, daß sie ebenfalls<br />

Constraintmengen darstellten, sondern jede dieser Mengen müßte eine<br />

hinreichend große „Stichprobe“ von potentiellen Modellen beinhalten,<br />

die bereits statistisch bedeutsame Aussagen gestattet.<br />

5. Und wenn die Welt nicht einheitlich ist?<br />

Ein Thema, das immer wieder im Zusammenhang mit Vereinheitlichungsansätzen<br />

angesprochen wird, ist die Frage, wie es um diese Ansätze<br />

bestellt ist, wenn die Welt nun einmal nicht einheitlich ist? Eine<br />

kurze Erörterung dieses Problems mag den Abschluß meiner Diskussion<br />

des Vereinheitlichungsansatzes bilden. Es ist zunächst nicht leicht zu sagen,<br />

welches Szenario man mit dieser Vermutung im Auge haben kann.<br />

Für die hier beschriebene Theorie der Erklärung als Vereinheitlichung<br />

ist natürlich die Frage spannend, was passieren würde, gäbe es keine<br />

korrekten Beschreibungen der Welt, die die hier verlangte Einheitlichkeit<br />

und Systematisierungsleistung für unser Überzeugungssystem aufwiesen.<br />

Eine interessante Antwort bietet uns Kitcher (1989, 494ff und 1986)<br />

an, die sich auf Kants Überlegungen zur Systematisierungsleistung von<br />

Gesetzen stützt – jedenfalls in Kitchers Kant Interpretation. 227 Danach<br />

227 Kitcher gibt eine interessante Interpretation von Kants Wissenschaftstheorie,<br />

die sich auf Teile der Kritik der reinen Vernunft und auch auf die Metaphysischen<br />

Anfangsgründe der Naturwissenschaft bezieht und für die Theorie der<br />

Rechtfertigung einige Ähnlichkeiten mit der von Kitcher vertretenen Konzeption<br />

aufweist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 509<br />

haben wissenschaftliche Erklärungen zwar oft zum Ziel, unser Verständnis<br />

der Welt anhand einer Zurückführung auf die basalen kausalen Mechanismen<br />

zu befördern, aber welche Mechanismen als grundlegend gelten<br />

können, bemißt sich allein an ihrer Stellung in der besten vereinheitlichenden<br />

Systematisierung unserer Meinungen:<br />

The heart of the unification approach is that we cannot make sense<br />

of the notion of a basic mechanism apart from the idea of a systematization<br />

of the world in which as many consequences as possible are<br />

traced to the action of as small a number of basic mechanisms as<br />

possible. In short, on the unification approach, the basic mechanisms<br />

must be those picked out in the best unifying systematization of our<br />

best beliefs, for if they were not so picked out then they would not<br />

be basic.<br />

Ohne Vereinheitlichung gäbe es also auch keine Kausalen Zusammenhänge<br />

mehr. So weit, daß die Vereinheitlichung konstitutiv für Kausalität<br />

ist, möchte ich Kitcher nicht folgen. Aber ohne Kohärenz und einer gewissen<br />

Vereinheitlichung unserer Überzeugungen, haben wir keinen epistemischen<br />

Zugang zur Frage der Wahrheit unserer Meinungen; das gerade<br />

war Bestandteil der Argumentation für KTR. Gründe für eine Meinung<br />

sind demnach immer in inferentiellen Beziehungen dieser Meinung<br />

zu unseren anderen Meinungen zu sehen, wobei das Maß der Rechtfertigung<br />

im Ausmaß der relationalen und systematischen Kohärenz besteht.<br />

Ob kausale Beziehungen eine eigenständige ontologische und semantische<br />

Kategorie darstellen oder nur parasitär gegenüber Systematisierungen<br />

unserer Erkenntnis sind, möchte ich offenlassen. Wesentlich ist nur,<br />

daß auch Meinungen über kausale Zusammenhänge – oder man muß<br />

wohl eher sagen, insbesondere solche Meinungen – nur dann gerechtfertigt<br />

sind, wenn sie eine Vereinheitlichung unserer Überzeugungen bewirken.<br />

Ein Schluß von dieser Tatsache auf die Behauptung, es habe keinen<br />

Sinn, von Kausalität ohne einen systematisierenden theoretischen Rahmen<br />

zu sprechen, ist dann allerdings wohl nur anhand einer Verifikationstheorie<br />

der Bedeutung möglich, die ich nicht vertrete.<br />

Was also passiert in einer radikal nicht einheitlichen Welt? Es könnte<br />

trotzdem kausale Zusammenhänge geben, aber sie können uns nicht zu<br />

Erklärungszwecken dienen. Finden wir nicht eine Spur von Regularität<br />

in dieser Welt, sondern immer nur Ereignisse, deren Abfolgen für uns<br />

vollkommen willkürlich erscheinen müssen, weil niemals auf Ereignisse<br />

eines bestimmten Typs mehrfach Ereignisse eines bestimmten anderen<br />

Typs folgen – und wir können auch keine anderen eventuell komplexe-


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 510<br />

ren Regelmäßigkeiten feststellen –, so haben wir keine Handhabe mehr,<br />

um allgemeine Theorien über den Ablauf von Ereignissen in dieser Welt<br />

aufzustellen und zu begründen. Damit haben wir auch keine Gründe<br />

mehr, eine Unterscheidung in zufällige Ereignisfolgen und kausale anzunehmen.<br />

Damit will ich, wie gesagt, nicht ausschließen, daß auch in dieser<br />

Welt eine unerkennbare Kausalität am Werke sein könnte, die vielleicht<br />

bestimmte Ereignisse mit Notwendigkeit auf andere folgen läßt,<br />

während andere nur zufällig geschehen. Wir können sie nur nicht erkennen<br />

und haben keinen Grund, an sie zu glauben. Hätten wir in dieser<br />

Welt wenigstens eine Art sechsten Sinn für das Vorliegen von Kausalbeziehungen,<br />

der immer anspricht, wenn wir gerade einen kausale Ereignisfolge<br />

beobachten, haben wir damit auch bereits eine erste Regelmäßigkeit,<br />

an die wir anknüpfen könnten. Auch die würde allein sicher<br />

noch nicht hinreichen, um zu schließen, daß wir damit eine notwendige<br />

Beziehung aufspüren und nicht irgendein anderes Merkmal der Vorgänge,<br />

aber zumindest wäre die Welt nicht mehr völlig regellos. Je mehr<br />

Struktur wir finden, desto eher haben wir Gründe zur Verfügung, bestimmte<br />

allgemeinere Annahmen über die Welt zu akzeptieren. 228<br />

Ein vollständig kohärentes Bild der Welt, in das alle unsere Wahrnehmungen<br />

optimal einzupassen sind und etliche korrekt vorhergesagt<br />

werden können, liefert uns die besten Gründe, an seine Wahrheit zu<br />

glauben. Das ist unser einziger Weg zur Wahrheit, und wenn die Welt<br />

tatsächlich völlig regellos wäre, wäre er für uns verschlossen. Wir müßten<br />

ohne begründete Erkenntnisse und Voraussagen auskommen. Der<br />

Kohärenztheoretiker muß also keine metaphysische Einfachheitsannahme<br />

für die Welt voraussetzen, sondern überläßt es der empirischen Forschung<br />

und der Beschaffenheit der Welt, welche Regelmäßigkeiten sich<br />

tatsächlich zeigen. Er kann allerdings auf gewisse erkenntnistheoretische<br />

Konsequenzen hinweisen, die sich aus dem Umfang der Einheitlichkeit<br />

der Welt ergeben. Außerdem gibt er andererseits zu, daß der Weg zu<br />

wahren Meinungen zwar nur über Kohärenz führt, daß dieser Weg aber<br />

auch nicht sicher ist. Auch wenn wir über ein ausgearbeitetes und hochkohärentes<br />

Weltbild verfügen in das alle unsere Wahrnehmungen perfekt<br />

hineinpassen und das alle möglichen Ereignisse präzise vorhersagt, können<br />

wir die theoretische Möglichkeit, daß das auf die üblen Machenschaften<br />

eines Dämons zurückzuführen ist oder es sich dabei um einen<br />

astronomischen Irrtum handelt, nicht wirklich ausschließen. Doch wenn<br />

228 Natürlich sind in einer komplett regellosen Welt auch Zweifel bezüglich<br />

unserer Beobachtungsaussagen angebracht, aber diesen Punkt möchte ich<br />

hier nicht vertiefen.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 511<br />

wir uns entscheiden, unseren Ansichten über die Welt nicht grundsätzlich<br />

zu mißtrauen, sondern sie im Gegenteil für im wesentlichen zuverlässig<br />

halten, gewinnen wir ein spannendes Forschungsprogramm, das<br />

uns auch interne Gründe bietet, an seine Wahrheit zu glauben.<br />

I. Resümee<br />

Passend zur Kohärenztheorie der Erkenntnis und einer gebräuchlichen<br />

Konzeption von wissenschaftlichem Verstehen, habe ich mich für eine<br />

Erklärungstheorie entschieden, die gerade in der Systematisierungs- und<br />

Vereinheitlichungsleistung von Theorien oder Hypothesen ihre Erklärungskraft<br />

sieht. Im Unterschied zu herkömmlichen Vorschlägen ist<br />

diese in der semantischen Auffassung von Theorien angesiedelt und läßt<br />

sich dementsprechend durch das Schlagwort der informativen Einbettung<br />

in ein Modell am besten beschreiben. Der Strukturalismus bietet dazu<br />

die nötigen Einsichten in die innere Struktur von Theorien, um eine<br />

substantielle Konzeption von Vereinheitlichung zu explizieren, die sowohl<br />

erläutern kann, wie sich die klassischen Beispiele von Erklärungen<br />

unter diesen Rahmen subsumieren lassen, aber auch Lösungsvorschläge<br />

für eine ganze Reihe der Anomalien des DN-Modells der Erklärung bereitstellt.<br />

Dazu werden die drei wesentlichen Dimensionen der Vereinheitlichung<br />

benannt und präzisiert, die sich als die Systematisierungsleistung<br />

einer Theorie, ihre Stringenz (bzw. ihren Informationsgehalt) und<br />

schließlich ihre organische Einheitlichkeit bezeichnen lassen. Zu diesem<br />

Zweck wird der Beitrag aller Komponenten von Theorien zu diesen<br />

Kenngrößen der Vereinheitlichung bestimmt und ihr Zusammenspiel in<br />

der empirischen Behauptung von Theorie-Elementen und Theorien-Netzen<br />

rekonstruiert. Das erlaubt es auch, einen unteren Schwellenwert<br />

festzulegen, ab dem Einbettungen überhaupt Erklärungskraft besitzen.<br />

Natürlich handelt es sich dabei um ein größeres Forschungsprogramm in<br />

den Bereichen der Erkenntnistheorie und der Wissenschaftstheorie, das<br />

mit dieser Arbeit noch nicht vollständig ausgestaltet oder abgeschlossen<br />

ist.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 512<br />

Literaturverzeichnis:<br />

Abelson, R.P./ Lalljee, M., 1988, Knowledge Structures and Causal Explanation,<br />

in: Hilton (Hrsg.) (1988), 175-203.<br />

Achinstein, P., 1983, The Nature of Explanation, Oxford University Press.<br />

Achinstein, P., 1992, Inference to the Best Explanation: Or, Who Won the<br />

Mill-Whewell Debate?, Studies in the History and Philosophy of Science<br />

23, 349-364.<br />

Adler, J.E., 1990, Conservativism and Tacit Confirmation, Mind 99,<br />

559-570.<br />

Armstrong, D.M., 1973, Belief, Truth and Knowledge, Cambridge: CUP.<br />

Asimov, I., 1986, Die exakten Geheimnisse unserer Welt. Bausteine des Lebens,<br />

München: Droemer Knaur.<br />

Asimov, I., 1991, Das Wissen unserer Welt, Bertelsmann München, Originaltitel:<br />

Asimov's Chronology of Science and Discovery, Harper and<br />

Row: New York, 1989.<br />

Aspect, A./ Dalibard, J./ Roger, G., 1982, Experimental Test of Bell's Inequalities<br />

using Time-Varying Analyzers, Physical Review Letters 49,<br />

1804-1807.<br />

Aspect, A./ Grangier, P., 1985, Tests of Bell's Inequalities with Pairs of Low<br />

Energy Correlated Photons: An Experimental Realization of Einstein-<br />

Podolsky-Rosen-type Correlations, in: Lahti und Mittelstaedt (1985),<br />

50-70.<br />

Audi, R., 1988, Belief, Justification, and Knowledge, Wadsworth.<br />

Audi, R., 1993, The Structure of Justification, Cambridge University Press.<br />

Ayer, A.J., 1970, Sprache, Wahrheit und Logik, Reclam Stuttgart, Original:<br />

Language, Truth and Logic, 1936.<br />

Ayer, A.J., 1979, The Foundations of Empirical Knowledge, London: Macmillan,<br />

erste Veröffentlichung 1940.<br />

Ayer, A.J., 1984, The Problem of Knowledge, Penguin Books, erste Veröffentlichung<br />

1956.<br />

Bacon, F., 1870, Novum Organum II, New York.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 513<br />

Baines, W., 1990, Genetic Engineering for Almost Everybody, Penguin<br />

Books.<br />

Balzer, W./Moulines, C.U., 1981, Die Grundstruktur der klassischen Partikelmechanik<br />

und ihre Spezialisierungen. Zeitschrift für Naturforschung<br />

36a, 1981, 600-608.<br />

Balzer, W./Moulines, C.U./Sneed,J.D., [BMS abgekürzt], 1987, An Architectonic<br />

for Science, Reidel.<br />

Barnes, E., 1992, Explanatory Unification and the Problem of Asymmetry,<br />

Philosophy of Science 59, 558-571.<br />

Bartelborth, T., 1988, Eine logische Rekonstruktion der klassischen Elektrodynamik,<br />

Frankfurt a.M: Peter Lang Verlag.<br />

Bartelborth, T., 1989, Kann es rational sein, eine inkonsistente Theorie zu<br />

akzeptieren? Philosophia Naturalis 26, 91-120.<br />

Bartelborth, T., 1989a, Is Bohr's Model of the Atom Inconsistent? In: P.<br />

Weingartner, G. Schurz eds.): "Reports of the 13th International Wittgenstein-Symposium<br />

1988 - Philosophy and Natural Science. Borderline<br />

Questions". Hölder-Pichler-Tempsky) Wien, 220-223.<br />

Bartelborth, T., 1991, Theorieprüfung und Gedankenexperiment,<br />

Zeitschrift für Ethik und Sozialwissenschaft, Diskussion zum Hauptartikel<br />

von E. Witte, Eine Systematisierung intendierter Anwendungsformen<br />

für sozialwissenschaftliche Theorien.<br />

Bartelborth, T., 1993a, Wissenschaftlicher Realismus und approximative<br />

Theorien. Zur Explikation des wissenschaftlichen Realismus, erscheint<br />

in den Proceedings der Gesellschaft für analytische Philosophie.<br />

Bartelborth, T., 1993, Hierarchy versus Holism. A Structuralist View on<br />

General Relativity, erscheint in Erkenntnis.<br />

Bartelborth, T., 1994a, Modelle und Wirklichkeitsbezug, in: H.J. Sandkühler<br />

(Hrsg.), Theorien, Modelle und Tatsachen, Peter Lang, 87-106.<br />

Bartelborth, T., 1994, Wozu benötigen wir "holistische Komplexe"?, in:<br />

H.J. Sandkühler (Hrsg.), Theorien, Modelle und Tatsachen, Peter Lang,<br />

87-106.<br />

Bell, J.S. 1964, On the Einstein-Podolski-Rosen Paradox, Physics 1, 195-<br />

200.<br />

Bell, J.S. 1966, On the Problem of Hidden Variables in Quantum Mechanics,<br />

Review of Modern Physics 38, 447-475.<br />

Bender, J.W., (ed.), 1989, The Current State of the Coherence Theory,<br />

Kluwer Academic Publishers.<br />

Bennett, J., 1984, Locke, Berkeley, Hume. Central Themes, Oxford UP.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 514<br />

Bieri, P. (Hrsg.), 1987, Analytische Philosophie der Erkenntnis, Athenäum<br />

Verlag.<br />

Bieri, P., 1987, Evolution, Erkenntnis und Kognition, Zweifel an der evolutionären<br />

Erkenntnistheorie, in: W. Lütterfelds (Hrsg.),<br />

Transzendentale oder evolutionäre Erkenntnistheorie?, Darmstatt.<br />

Blanshard, B., 1939, The Nature of Thought, vol 2, London.<br />

BonJour, L., 1987, Die Kohärenztheorie empirischen Wissens, in : Bieri<br />

1987, 239-270, Originaltitel: The Coherence Theory of Empirical<br />

Knowlegde, Philosophical Studies 30, (1976), 281-312.<br />

BonJour, L., 1985, The Structure of Empirical Knowledge, Harvard University<br />

Press.<br />

BonJour, L., 1989, Replies and Clarifications, in: J.W. Bender (Hrsg.)<br />

1989.<br />

Brink, D.O., 1989, Moral Realism and the Foundation of Ethics, Cambridge<br />

UP.<br />

Bromberger, S., 1965, An Approach to Explanation, in: R. Butler (ed.),<br />

Studies in Analytical Philosophy, Oxford: Blackwell, 72-105.<br />

Carnap, R., 1928, Der logische Aufbau der Welt, Leipzig.<br />

Carnap, R., 1956, Empiricism, Semantics and Ontology, in Carnap,<br />

Meaning and Necessity, Chicago University Press.<br />

Carnap, R., 1966, Philosophical Foundations of Physics, New York.<br />

Cartwright, N., 1983, How the Laws of Physics Lie, Oxford Clarendon<br />

Press.<br />

Cartwright, N., 1988, How to Tell a Common Cause: Generalizations of<br />

the Conjunctive Fork Criterion, in : Fetzer (1988), 181-188.<br />

Causey, R., 1977, Unity of Science, Dordrecht:Reidel.<br />

Chisholm, R.M., 1979, Erkenntnistheorie, München: dtv Wissenschaft,<br />

Originaltitel: Theory of Knowledge, Prentice-Hall 1977, 1. Auflage<br />

1966.<br />

Churchland, P.M. & Hooker, C.A. (Hrsg.), 1985, Images of Science, University<br />

of Chicago Press.<br />

Cohen, L.J., 1989, The Philosophy of Induction and Probability, Oxford<br />

Clarendon Press.<br />

Conee, E. & Feldman, R., 1983, Discussion: Stich and Nisbett on Justifying<br />

Inference Rules, Philosophy of Science 50, 326-331.<br />

Craig, E., 1993, Was wir wissen können, Frankfurt a.M.: stw.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 515<br />

Cummins, R., 1983, Analysis and Subsumption in the Behaviorism of<br />

Hull, Philosophy of Science 50, 96-111.<br />

Cushing, J., 1982, Models and Methodologies in Current theoretical High<br />

Energy Physics, Synthese 50, 5-101.<br />

Dancy, J./Sosa, E., 1992, A Companion to Epistemology, Blackwell.<br />

Daniels, N., 1979, Wide Reflective Equilibrium and Theory Acceptance in<br />

Ethics, Journal of Philosophy 76, 256-282.<br />

Davidson, D., 1987, Eine Kohärenztheorie der Wahrheit und der Erkenntnis,<br />

in: P. Bieri (Hrsg.) (1987) 271-290, Original: A Coherence Theory<br />

of Truth and Knowledge, in: D. Henrich (Hrsg.), Kant oder Hegel?,<br />

Stuttgart: Klett-Cotta 1983, 423-438.<br />

Darwin, C., 1990, Die Entstehung der Arten durch natürliche Zuchtwahl,<br />

Leipzig: Reclam Verlag.<br />

Dawkins, R., 1990, Der blinde Uhrmacher, München: dtv, Originalausgabe:<br />

The Blind Watchmaker, 1986.<br />

Descartes, R., 1986, Meditationen über die erste Philosophie, Reclam<br />

(lat/deutsch).<br />

Dennett, D., 1987, The Intentional Stance, Cambridge, Mass.: MIT Press.<br />

Devitt, M., 1991, Realism and Truth, Blackwell.<br />

Diederich, W./Ibarra, A./Mormann, T., 1989, Bibliography of Structuralism,<br />

Erkenntnis 30, 387-407.<br />

Doyle, Sir A.C., 1986, Sherlock Holmes: The Complete Novels and Stories,<br />

vol I, Bantam Books.<br />

Dowe, P., 1992, Wesley Salmon's Process Theory of Causality and the<br />

Conserved Quantity Theory, Philosophy of Science 59, 195-216.<br />

Duhem, P., 1978, Ziel und Struktur der physikalischen Theorien, Hamburg:<br />

Felix Meiner Verlag.<br />

Dupré, J., 1992, SPECIES: Theoretical Context, in: Keller/Lloyd (Hrsg.)<br />

312-317.<br />

Earman, J., 1983, Minnesota Studies in the Philosophy of Science, vol. X,<br />

Testing Scientific Theories, Minnesota UP.<br />

Earman, J., 1986, A Primer on Determinism, Dordrecht: Reidel.<br />

Earman, J., 1989, World Enough and Space-Time, MIT Press.<br />

Earman, J., 1992, Bayes or Bust. A Critical Examination of Bayesian Confirmation<br />

Theory, MIT Press.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 516<br />

Einstein, A./ Podolsky, B./ Rosen, N., 1935, Can Quantum-Mechanical Description<br />

of Reality be Considered Complete?, Physical Review 47,<br />

777-780.<br />

Ewing, A.C., 1934, Idealism: A Critical Survey, London.<br />

Fetzer, J. H., 1988, Probability and Causality: Essays in Honour of Wesley<br />

Salmon, Dordrecht: Kluwer Academic Publishers.<br />

Fetzer, J. H., 1991, Critical Notice: Philip Kitcher and Wesley Salmon,<br />

(eds.), Scientific Explanation; and Wesley Salmon, Four Decades of<br />

Scientific Explanantion, Philosophy of Science 58, 288-306.<br />

Few, A.A., 1975, Thunder, Scientific American, July 80-90.<br />

Feyerabend, P.K., 1962, Explanation, Reduction and Empiricism, in: H.<br />

Feigl & G. Maxwell (eds.), Minnesota Studies in the Philosphy of Science,<br />

vol III, Minneapolis.<br />

Feyerabend, P.K., 1986, Wider den Methodenzwang, Frankfurt a.M.: stw,<br />

Originaltitel: Against Method. Outline of an Anarchistic Theory of<br />

Knowledge, New Left Books 1976.<br />

Field, H., 1973, Theory Change and the Indeterminacy of Reference,<br />

Journal of Philosophy 70, 462-481.<br />

Forge, J., 1980, The Structure of Physical Explanation, Philosophy of Science<br />

47, 203-226.<br />

Forge, J., 1984, Theoretical Functions, Theory and Evidence, Philosophy<br />

of Science 51, 443-463.<br />

Forge, J., 1984a, Theoretical Functions in Physical Science, Erkenntnis 21,<br />

1-29.<br />

Forge, J., 1985, Theoretical Explanation in Physical Science, Erkenntnis<br />

23, 269-294.<br />

Forster, M., 1988, Unification, Explanation, and the Composition of<br />

Causes in Newtonian Mechanics, Stud. Hist. Phil. Sci. 19, 55-101.<br />

Forster, M./Sober, E., 1994, How to Tell when Simpler, More Unified, or<br />

Less Ad Hoc Theories will Provide More Accurate Predictions, British<br />

Journal for the Philosophy of Science 45, 1-35.<br />

Friedman, M., 1988, Erklärung und wissenschaftliches Verstehen, in<br />

Schurz (Hrsg.) 1988, 171-191, Originaltitel: Explanation and Scientific<br />

Understanding, Journal of Philosophy 71, 5-19.<br />

Friedman, M., 1981, Theoretical Explanation, in: Healey (ed.).<br />

Friedman, M., 1983, Foundations of Space-Time Theories, Princeton UP.<br />

Gähde, U., 1983, T-Theoretizität und Holismus, Frankfurt a.M.: Peter<br />

Lang.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 517<br />

Gähde, U., On Innertheoretical Conditions for Theoretical Terms,<br />

Erkenntnis 32, 1990, 215-233.<br />

Gähde, U., 1989, Theorie und Hypothese, Zur Eingrenzung von Konflikten<br />

zwischen Theorie und Erfahrung, Habilitationsschrift Bielefeld<br />

1989.<br />

Gähde, U., 1989b, Bridge Principles and the Borderlin Between the Internal<br />

and the external History of Science, in: Gavroglu (1989).<br />

Gähde, U., 1990, On Innertheoretical Conditions for Theoretical Terms,<br />

Erkenntnis 32, 215-233.<br />

Gähde, U./ Stegmüller, W., 1987, An Argument in Favour of the Duhem-<br />

Quine-Thesis: From the Structuralist Point of View, in: Hahn, L.E./<br />

Schilpp, P.H., The Philosophy of W.v. Quine, The Library of Living Philosophers,<br />

vol 15, La Salle.<br />

Gärdenfors, P., 1988, Knowledge in Flux, MIT Press.<br />

Gavroglu et. al (Hrsg.), 1989, Imre Lakatos and Theories of Scientific<br />

Change, in: Boston Studies in the Philosophy of Science, Dordrecht:<br />

Reidel.<br />

Gettier, E., 1963, Is Justified True Belief Knowledge?, Analysis 23, 121-<br />

123.<br />

Glymour, C., 1980, Theory and Evidence, Princeton UP.<br />

Goldman, A., 1967, A Causal Theory of Knowing, The Journal of Philosophy<br />

64, 357-372, zitiert nach: Eine Kausaltheorie des Wissens, in:<br />

Bieri (1987), 150-165.<br />

Goldman, A.I., 1979, What is Justified Belief?, in: Pappas 1979, 1-23.<br />

Goldman, A.I., 1986, Epistemology and Cognition, Harvard UP.<br />

Goldman, A.I., 1992, Reliabilism, in: Dancy, J./Sosa, E. (1992), 433-436.<br />

Goldstick, D., 1971, Methodological Conservatism, American Philosophical<br />

Quarterly .<br />

Goodman, N., 1951, The Structure of Appearance, Harvard UP.<br />

Goodman, N., 1988, Tatsache, Fiktion, Voraussage, stw, Originaltitel: Fact,<br />

Fiction, Forecast, Indianapolis: Bobs-Merril 1973, 3. Auflage.<br />

Grünbaum, A./Salmon, W.C. (Hrsg.), 1988, The Limitations of Deductivism,<br />

University of California Press.<br />

Haack, S., Theories fo Knowledge: An Analytic Framework, Proceedings<br />

of the Aristotelian Society, vol 83.<br />

Haack, S., 1993, Evidence and Inquiry, Blackwell.<br />

Harman, G., 1973, Thought, Princeton UP.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 518<br />

Harman, G., 1986, Change in View. Principles of Reasoning, MIT Press.<br />

Harman, G., 1987, Wissen, Gründe und Ursachen, in: Bieri 1987, 108-<br />

123; Originaltitel: Knowledge, Reasons and Causes, The Journal of<br />

Philosophy 67 (1970), 841-855.<br />

Hempel, C.G./Oppenheim, P., 1948, Studies in the Logic of Explanation,<br />

Philosophy of Science 15, 135-175.<br />

Hempel, C.G., 1977, Aspekte wissenschaftlicher Erklärung, Berlin: de<br />

Gruyter, Original in: Aspects of Scientific Explanations and other Essays<br />

in the Philosophy of Science, New York: The Free Press 1965.<br />

Hesse, M.B., 1963, Models and Analogies in Science, London.<br />

Hilton, D.J., (Hrsg.), 1988, Contemporary Science and Natural Explanation.<br />

Common Sense Conceptions of Causality, Harvester Press.<br />

Hodge, M.J.S., 1989, Darwin's Theory and Darwin's Argument, in: Ruse<br />

1989 (ed.), 163-182.<br />

Hoerster, N., 1991, Abtreibung im säkularen Staat, stw.<br />

Holton, G., 1981, Thematische Analyse der Wissenschaft. Die Physik Einsteins<br />

und seiner Zeit, Frankfurt a.M.: Suhrkamp, Originaltitel:<br />

Thematic Origins of Scientific Thought. Kepler to Einstein, Cambridge<br />

Mass. 1973.<br />

Horwich, P., 1982, Probability and Evidence, Cambridge University Press.<br />

Horwich, P., 1987, Asymmetries in Time, MIT Press.<br />

Hume, D., 1985, A Treatise of Human Nature, (edited by Selby-Bigge) Oxford<br />

University Press, First Edition 1888.<br />

Hume, D., 1979, Eine Untersuchung über den menschlichen Verstand,<br />

Stuttgart: Reclam.<br />

James, W., 1956, The Will to Believe and Other Essays in Popular Philosophy,<br />

New York: Dover, Reprint von 1897.<br />

Jeßberger, R., 1990, Kreationismus, Paul Parey: Berlin.<br />

D. Kahneman, P. Slovic und A. Tversky (Hrsg.), 1982, Judgement und<br />

Certainty: Heuristics and Biases, Cambridge University Press.<br />

Kant, I., 1968, Kritik der reinen Vernunft, herausgegeben von Wilhem<br />

Weischedel, erste Auflage (A) 1781, zweite Auflage (B) 1787, Frankfurt<br />

a.M.: Suhrkamp.<br />

Keller, E.F. / Lloyd, E.A., (Hrsg.), 1992, Keywords in Evolutionary Biology,<br />

Harvard University Press.<br />

Khalidi, M.A., 1993, Carving Nature at the Joints, Philosophy of Science<br />

60, 100-113.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 519<br />

Kitcher, P., 1976, Explanation, Conjunction and Unification, Journal of<br />

Philosophy 73, 207-212.<br />

Kitcher, P., 1985, Darwin's Achievement, in: Rescher (ed.) 1985, 127-189.<br />

Kitcher, P., 1985, Two Approaches to Explanation, Journal of Philosophy<br />

82, 632-639.<br />

Kitcher, P./ Salmon, W.C., 1987, Van Fraassen on Explanation, Journal of<br />

Philosophy 84, 315-330.<br />

Kitcher, P., 1988, Erklärung durch Vereinheitlichung, in: Schurz (Hrsg.)<br />

1988, 193-229 + Nachwort 231-234, Originaltitel: Explanatory Unification,<br />

Philosophy of Science 48, 1981, 507-531.<br />

Kitcher, P., 1989, Explanatory Unification and the Causal Structure of the<br />

World, in: Kitcher/Salmon (eds.) 1989, 410-505.<br />

Kitcher, P., Salmon, W.C., 1987, Van Fraassen on Explanation, The Journal<br />

of Philosophy 84, 315-330.<br />

Kitcher, P., Salmon, W.C. (eds.), 1989, Scientific Explanation, Minneapolis:<br />

Minnesota Studies in the Philosophy of Science.<br />

Koertge, N., 1992, Explanation and its Problems, British Journal for the<br />

Philosphy of Science 43, 85-98.<br />

Koppelberg, D., 1987, Die Aufhebung der analytischen Philosophie, Suhrkamp<br />

Theorie.<br />

Koppelberg, D., 1994, Naturalistische Erkenntnistheorien und Probleme<br />

der Normativität, in: Meggle/Wessels 1994, 198-206.<br />

Kuhn, T.S., 1976, Die Struktur wissenschaftlicher Revolutionen, Originaltitel:<br />

The Structure of Scientific Revolutions, Chicago 1962.<br />

Kutschera, F. von, 1982, Grundfragen der Erkenntnistheorie, de Gruyter:<br />

Berlin.<br />

Lahti, P./ Mittelstaedt, P. (Hrsg.), 1985, Symposium on the Foundations of<br />

Modern Physics, Singapore: World Scienetific Publishing Co.<br />

Lakatos, I., 1974, Falsifikation und die Methodologie wissenschaftlicher<br />

Forschungsprogramme, in: Lakatos/Musgrave (Hrsg.) 1974, 89-189.<br />

Lakatos, I./ Musgrave, A. (hrsg.), 1974, Kritik und Erkenntnisfortschritt,<br />

Braunschweig: Vieweg, Originaltitel: Critism and the Growth of<br />

Knowledge, London: Cambridge UP 1970.<br />

Lambert, K., 1988, Prolegomenon zu einer Theorie des wissenschaftlichen<br />

Verstehens, in: Schurz (Hrsg.) 1988.<br />

Leeds, S., 1978, Theories of Reference and Truth, Erkenntnis 13, 111-129.<br />

Lehrer, K., 1974, Knowledge, Oxford Clarendon Press.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 520<br />

Lehrer, K., 1987, Personal and Social Knowledge, Synthese 73, 87-107.<br />

Lehrer, K., Coherence and the Truth Connection: A Reply to my critics,<br />

in: Bender 1989, 253-275.<br />

Lehrer, K., 1988, Metaknowledge: Undefeated Justification, Synthese 74,<br />

329-347.<br />

Lehrer, K., 1990a, The Coherence Theory of Knowledge, in: Metamind,<br />

Oxford Clarendon Press, 226-250. Original in: Philosophical Topics<br />

14, 5-25.<br />

Lehrer, K., 1990b, Theory of Knowledge, Routledge.<br />

Lenzen, W., 1974, Theorien der Bestätigung wissenschaftlicher Hypothesen,<br />

Stuttgart: Frommann-Holzboog.<br />

Lewis, D., 1981, Kausalität, in: Posch (Hrsg.) 102-123, Originaltitel: Causation,<br />

Journal of Philosophy 70, 556-572.<br />

Lipton, P., 1991, Inference to the best Explanation, London: Routledge.<br />

Lloyd, E.A., 1983, The Nature of Darwin's Support for the Theory of Natural<br />

Selection, Philosphy of Science 50, 112-129.<br />

Losee, J., 1977, Wissenschaftstheorie. Eine historische Einführung, München:<br />

Beck, Originaltitel: A Historical Introduction to the Philosophy<br />

of Science, Oxford UP 1972.<br />

Ludwig, G., 1974, Einführung in die Grundlagen der Theoretischen Physik,<br />

I-IV, Bertelsmann.<br />

Mackie, J.L., 1981, Ethik, Stuttgart: Reclam, Originaltitel: Ethics. Inventing<br />

Right and Wrong, Harmondsworth: Penguin Books 1977.<br />

McGinn, C., 1984, The Concept of Knowledge, Midwest Studies in Philosophy<br />

IX, 529-554.<br />

Meggle, G./Wessels, U. (Hrsg.), 1994, Analyomen 1, Berlin: de Gruyter.<br />

Mill, J.S., 1865, System of Logic, London.<br />

Monod, J., 1971, Zufall und Notwendigkeit, München, Originaltitel: Le<br />

Hasard et la Nécessité, Paris 1970.<br />

Morrison, M., 1992, A Study in Theory Unification: The Case of Maxwell's<br />

Electromagnetic Theory, Studies in the History and Philosophy of<br />

Science 23, 103-145.<br />

Moser, P.K., 1985, Empirical Justification, Dordrecht: Reidel.<br />

Moser, P.K., 1991, Knowledge and Evidence, Cambridge UP, Hardcover<br />

1989.<br />

Moulines, C.U., 1976, Approximate Application of Empirical Theories: A<br />

General Explication, Erkenntnis 10.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 521<br />

Moulines, C.U., 1979, Theory-Nets and the Evolution of Theories: The<br />

Example of Newtonian Mechanics, Synthese 41, 417-439.<br />

Moulines, C.U., 1980, Intertheoretic Approximation: The Kepler-Newton<br />

Case, Synthese 45.<br />

Moulines, C.U., 1981, A General Scheme for Intertheoretic Approximation.<br />

In: A. Hartkämper, H.-J. Schmidt (eds.), 123-146.<br />

Moulines, C.U., 1984, Links, Loops, and the Global Structure of Science,<br />

Philosophia Naturalis.<br />

Moulines, C.U., 1986, The Ways of Holism, Nous 20, 313-330.<br />

Moulines, C.U., 1993, Is Life a Dream?, bisher unveröffentlichtes Manuskript.<br />

Mühlhölzer, F., 1989, Objektivität und Erkenntnisfortschritt, Habilitationsschrift<br />

München.<br />

Musgrave, A., 1993, Alltagswissen, Wissenschaft und Skeptizismus, Tübingen:<br />

J.C.B. Mohr.<br />

Nagel, E., 1961, The Structure of Science, London: Routledge and Kegan.<br />

Nagel, T., 1992, Der Blick von nirgendwo, Frankfurt a.M.: Suhrkamp,<br />

Originaltitel: The View from Nowhere, Oxford University Press 1986.<br />

Nisbett, R./ Stich, S., 1980, Justification and the Psychology of Human<br />

Reasoning, Philosophy of Science 47, 188-202.<br />

Nozick, R., 1981, Philosophical Explanations, Oxford University Press.<br />

Pais, A., 1982, Subtle is the Lord..., The Science and Life of Albert Einstein,<br />

Oxford University Press.<br />

Pais, A., 1986, Inward Bound. Of Matters and Forces in the Physical World,<br />

Oxford University Press.<br />

Pappas, G., (Hrsg.), 1979, Justification and Knowledge, Dordrecht: Reidel.<br />

Penrose, R., 1989, The Emperor's New Mind, Oxford University Press.<br />

Platts, M., 1983, Explanatory Kinds, British Journal for the Philosophy of<br />

Science 34, 133-148.<br />

Pollock, J.L., 1986, Contemporary Theories of Knowledge, Rowman and<br />

Littlefield.<br />

Pollock, J.L, 1990, Nomic Probability and the Foundations of Induction,<br />

Oxford UP.<br />

Popper, K.R., 1972, The Aim of Science, in: Popper 1972, 191-205, Original<br />

in: Ratio 1, 1957.<br />

Popper, K.R., 1972, Objective Knowlegde, Oxford Clarendon Press.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 522<br />

Popper, K.R., 1984, Die Logik der Forschung, Tübingen: Mohr, Original:<br />

1934.<br />

Posch, G., (Hrsg.), 1981, Kausalität, Stuttgart: Reclam.<br />

Putnam, H., 1979, Die Bedeutung von "Bedeutung", Frankfurt a.M.: Klostermann<br />

(Original 1975).<br />

Putnam, H., 1978, Meaning and the Moral Sciences, London: Routledge<br />

and Kegan Paul.<br />

Putnam, H., 1990, Vernunft, Wahrheit und Geschichte, Frankfurt a.M.:<br />

stw, Original: Reason, Truth and History, 1981, Cambridge University<br />

Press.<br />

Quine, W.v.O., 1975, Naturalisierte Erkenntnistheorie, in: Quine,<br />

Ontologische Relativität und andere Schriften, Reclam Stuttgart.<br />

Quine, W.v.O., 1975a, The Nature of Natural Knowledge, in: S. Guttenplan<br />

(Hrsg.) Mind and Language, Oxford UP, 67-81.<br />

Quine, W.v.O., 1979, Zwei Dogmen des Empirismus, in: W.v.O. Quine,<br />

Von einem logischen Standpunkt aus, Frankfurt a.M.: Ullstein.<br />

Quine, W.v.O., 1981, Reply to Stroud, Midwest Studies in Philosophy, Bd.<br />

VI.<br />

Quine, W.v.O., 1985, Theorien und Dinge, Frankfurt a.M.: Suhrkamp,<br />

Originaltitel: Theories and Things, 1981.<br />

Railton, P., 1989, Explanation and Metaphysical Controversy, in: Kitcher/Salmon<br />

(eds.) 1989, 220-251..<br />

Ramsey, 1927, Facts and Propositions, Proceedings of the Aristotelian Society,<br />

Suppl. Vol. VII.<br />

Rawls, J., 1979, Eine Theorie der Gerechtigkeit, Suhrkamp, Originaltitel: A<br />

Theory of Justice, 1971.<br />

Rawls, J., 1980, Kantian Construction in Moral Theory, Journal of Philosophy<br />

77, 515-572.<br />

Ray, C., 1991, Time, Space and Philosophy, London: Routledge.<br />

Redhead, M., 1980, Models in Physics, British Journal for the Philosophy<br />

of Science 31, 145-163.<br />

Rescher, N., 1982, The Coherence Theory of Truth, University Press of<br />

America, erste Auflage 1973.<br />

Rescher, N. (ed.), 1985, Reason and Rationality in Natural Science, CPS<br />

Publications in Philosophy of Science.<br />

Rescher, N., 1985, Die Grenzen der Wissenschaft, Reclam, übersetzt von B.<br />

Puntel. Originaltitel: The Limits of Science, London 1984.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 523<br />

Rorty, R., 1984, Der Spiegel der Natur. Eine Kritik der Philosophie, Frankfurt<br />

a.M.: Suhrkamp, Originaltitel: Philosophy and the Mirror of Nature,<br />

Princeton University Press 1979.<br />

Rosenberg, A., 1985, The Structure of Biological Science, Cambridge University<br />

Press.<br />

Rosenberg, J.F., 1986, Philosophieren, Frankfurt a.M.: Klostermann, Originaltitel:<br />

The Practice of Philosophy, Prentice-Hall 1984.<br />

Ross, L./ Anderson, C., 1982, Shortcomings in the attribution process: On<br />

the the origins and maintenance of erroneous social assessment, in:<br />

Judgement und Certainty: Heuristics and Biases, D. Kahneman, P.<br />

Slovic und A. Tversky, (Hrsg.) Cambridge University Press 129-152.<br />

Ruse, M., 1989, What the Philosophy of Biology is, Dordrecht: Kluwer<br />

Academic Publishers.<br />

Russell, B., (1910), Über die Natur von Wahrheit und Falschheit, in: Russell<br />

1980, 99-113.<br />

Russell, B., (1909), Über den Gegenstand der Physik, in: Russell 1980, 61-<br />

98, aus: Reply to Criticsm, in: The Philosophy of Bertrand Russell,<br />

(ed.) P.A. Schilpp, New York: Tudor.<br />

Russell, B., 1912, The Problems of Philosophy, London.<br />

Russell, B., 1940, An Inquiry into Meaning and Truth, London.<br />

Russell, B., (1944), Über den Gegenstand der Physik, in. Russell 1980, 52-<br />

60.<br />

Russell, B., 1978, Philosophie des Abendlandes, Zürich: Europa Verlag,<br />

Originaltitel: A History of Western Philosphy, London.<br />

Russell, B., 1980, Philosophische und politische Aufsätze, (hrsg. von U.<br />

Steinvorth), Stuttgart: Reclam.<br />

Salmon, W.C., 1984, Logik, Stuttgart: Reclam, Originaltitel: Logic,<br />

Englewood Cliffs, N.J.: Prentice Hall 1973.<br />

Salmon, W.C., 1984, Scientific Explanation and the Causal Structure of the<br />

World, Princeton University Press.<br />

Salmon, W.C., 1989, Four Decades of Scientific Explanation, in: Kitcher/Salmon<br />

(eds.) 1989, 3-219.<br />

Schäfer, B./ Six, B., 1978, Sozialpsychologie des Vorurteils, Stuttgart: Kohlhammer.<br />

Schank, R.C., 1986, Explanation Patterns: Understanding Mechanically<br />

and Craetively, Hillsdale, N.J.: Lawrence Erlbaum.<br />

Schantz, R., 1991, Perception, in: Handbook of Metaphysics and Ontology,<br />

H. Burkhard und B. Smith (Hrsg.) München: Philosophia.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 524<br />

Scheibe, E., 1973, Die Erklärung der Keplerschen Gesetze durch Newtons<br />

Gravitationsgesetz, in: Scheibe/Süßmann 1973.<br />

Scheibe, E., 1981, Invariance and Covariance, in: Agassi, J. & Cohen,<br />

R.S., (eds.) Scientific Philosophy Today, 311-331, Dordrecht: Reidel.<br />

Scheibe, E./Süßmann, G. (Hrsg.), 1973, Einheit und Vielheit, Göttingen.<br />

Schlick, M., 1934, Über das Fundament der Erkenntnis, Erkenntnis 4, 79-<br />

99.<br />

Schurz, G., 1983, Wissenschafliche Erklärung, dbv-Verlag für die technische<br />

Universität Graz.<br />

Schurz, G., 1988, Erklären und Verstehen in der Wissenschaft, München.<br />

Schurz, G., 1990, Paradoxical Consequences of Balzer's and Gähde's Criteria<br />

of Theoreticity. Results of an Application to Ten Scientific Theories,<br />

Erkenntnis 32, 161-214.<br />

Searle, J., 1964, How to derive "ought" from "is", Philosophical Review 73.<br />

Sellars, W., 1963, Science, Perception and Reality, London: Routledge.<br />

Shoenfield, J.R., 1973, Mathematical Logic, Addison-Wesley.<br />

Sidgwick, H., 1962, The Methods of Ethics, London: Macmillan.<br />

Sintonen, M., 1991, How Evolutionary Theory faces Reality, Synthese 89,<br />

163-183.<br />

Sklar, L., 1975, Methodological Conservatism, Philosophical Review,<br />

374-400.<br />

Smullyan, R., 1989, Spottdrosseln und Metavögeln, Frankfurt a.M.: Fischer,<br />

Originaltitel: To Mock a Mockingbird And Other Logic Puzzles,<br />

New Yorck 1985.<br />

Sober, E., 1984, The Nature of Selection. Evolutionary Theory in Philosophical<br />

Focus, MIT Press.<br />

Sober, E., 1987, Explanation and Causation, British Journal for the Philosophy<br />

of Science 38, 243-257.<br />

Sosa, E., 1989, Equilibrium in Coherence, in: Bender (ed.) 1989, 242-250.<br />

Sosa, E. / Tooley, M. (Hrsg.), 1993, Causation, Oxford University Press.<br />

Sneed, Joseph D., The Logical Structure of Mathematical Physics, Reidel<br />

1971 (1962).<br />

Stegmüller, W., 1958, Der Phänomenalismus und seine Schwierigkeiten,<br />

Archiv für Philosophie 8, 36-100.<br />

Stegmüller, W., 1983, Probleme und Resultate der Wissenschaftstheorie und<br />

analytischen Philosophie, Bd I, zweite erweiterte Auflage, Erklärung<br />

Begründung Kausalität, Berlin: Springer.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 525<br />

Stegmüller, W., Probleme und Resultate der Wissenschaftstheorie und analytischen<br />

Philosophie, Bd II, Teil I 1970, Teil II 1973, Teil III 1986, Berlin:<br />

Springer.<br />

Stegmüller, W., 1987, Hauptströmungen der Gegenwartsphilosophie, Bd.<br />

III, 8. Auflage, Stuttgart: Kröner.<br />

Stevens, P.F., 1992, SPECIES: Historical Perspectives, in: Keller/Lloyd<br />

(Hrsg.) (1992), 302-311.<br />

Stich, S., 1988, Reflective Equilibrium, Analytic Epistemology and the<br />

Problem of Cognitive Diversity, Synthese 74, 391-413.<br />

Stroud, B., 1984, The Sigificance of Philosophical Scepticism, New York:<br />

Oxford University Press.<br />

Suppe, F., 1988, A Nondeductivist Approach to Theoretical Explanation,<br />

in: Grünbaum/Salmon (Hrsg.) (1988).<br />

Swain, M., 1981, Reasons and Knowledge, Ithaca, Cornell University<br />

Press.<br />

Swain, M., 1989, BonJours Coherence Theory of Justification, in: J.W.<br />

Bender (1989).<br />

Thagard, P., 1978, The best explanation: Criteria for theory choice,<br />

Journal of Philosophy 75, 76-92.<br />

Thagard, P., 1989, Explanatory Coherence, Behavioural and Brain Sciences<br />

12, 435-467.<br />

Thagard, P., 1992, Conceptual Revolutions, Princeton University Press.<br />

Thompson, P., 1983, The Structure of Evolutionary Theory: A Semantic<br />

Approach, Studies in the History and Philosophy of Science 14, 215-<br />

229.<br />

Tooley, M., 1987, Causation: A Realist Approach, Oxford University Press.<br />

Triplett, T., Recent Work on Foundationalism, American Philosophical<br />

Quarterly 27, 1990, 93-116<br />

Tugendhat, E., 1984, Probleme der Ethik, Stuttgart: Reclam.<br />

Uyenoyama, M.K. / Feldman, M.W., 1992, Altruism: Some Theoretical<br />

Ambiguities, in Keller/Lloyd (1992), 34-40.<br />

van Fraassen, B.C., 1977, The Only Necessity is Verbal Necessity, Journal<br />

of Philosophy LXXIV, 71-85.<br />

van Fraassen, B.C., 1980, The Scientific Image, Oxford Clarendon Press.<br />

van Fraassen, B.C., 1982, The Charybdis of Realism: Epistemological Implications<br />

of Bell's Inequality, Synthese 52, 25-38.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 526<br />

van Fraassen, B.C., 1984, Belief and the Will, Journal of Philosophy<br />

LXXXI, 235-256.<br />

van Fraassen, B.C., 1985, Salmon on Explanation, Journal of Philosophy<br />

82, 639-651.<br />

van Fraassen, B.C., 1985b, Empiricism in the Philosophy of Science, in:<br />

Churchland/Hooker (Hrsg.) (1985), 245-308.<br />

van Fraassen, B.C., 1989, Laws and Symmetry, Oxford Clarendon Press.<br />

van Fraassen, B.C., 1991, Quantum Mechanics, Oxford Clarendon Press.<br />

Vollmer, G., 1983, Mesokosmos und objektive Erkenntnis - Über Probleme,<br />

die von der evolutionären Erkenntnistheorie gelöst werden, in: K.<br />

Lorenz/ F.M. Wuketits (hrsg.): Die Evolution des Denkens, München/Zürich.<br />

Walton, D.N., 1984, Logical Dialogue-Games and Fallacies, University<br />

Press of America.<br />

Watkins, J., 1984, Science and Scepticism, Princeton University Press.<br />

Whewell, W., 1967, The Philosophy of the Inductive Sciences, New York.<br />

Williams, B., 1978, Kann man sich entscheiden, etwas zu glauben?, 217-<br />

241 in: Williams, Probleme des Selbst, Reclam, Originaltitel: Problems<br />

of the Self. Philosophical Papers 1956-1972, Cambridge University<br />

Press 1973.<br />

Williams, B., 1981, Descartes. Das Vorhaben der reinen philosophischen<br />

Untersuchung, Athenäum Verlag, Originaltitel: The project of Pure Enquiry,<br />

Penguin Books 1978.<br />

Williams, M., 1986, Do We Epistemologists Need a Theory of Truth?,<br />

Philosophical Topics.<br />

Williams, M., 1991, Unnatural Doubts. Epistemological Realism and the<br />

Basis of Scepticism, Blackwell.<br />

Wittgenstein, L., 1990, Über Gewißheit, Frankfurt a.M.: Bibliothek Suhrkamp.


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 527<br />

a priori Wahrscheinlichkeiten, 320<br />

Abduktion, 10, 152, 173<br />

Abelson, R.P., 455<br />

Abschneidefunktion, 352<br />

acceptance system, 212<br />

Achinstein, P., 404, 414, 428<br />

ad hoc Hypothesen, 244<br />

Adler, J., 274<br />

aktuale Modelle, 341<br />

akzidentelle Allausage, 381<br />

allgemeine Relativitätstheorie, 347<br />

allmächtiger Dämon, 320<br />

Alltagsüberzeugungen, 277<br />

alternative Erklärung, 175<br />

alternative Erklärungshypothesen, 12<br />

Alternativhypothesen, 278<br />

analoge Erklärungen, 224<br />

Analogiemodelle, 191, 493<br />

Analogien, 190<br />

Anti-Erklärer, 239<br />

Antirealismus, 423<br />

Anz[ZL], 486<br />

Approximation, 363, 449, 475<br />

approximative Einbettung, 365<br />

approximative empirische Behauptung,<br />

369<br />

approximative Reduktionen, 449<br />

Argument, 378<br />

Argumentation, 21, 254<br />

Argumentmuster, 439<br />

armchair psychology, 154<br />

Armstrong, D., 101, 103, 104<br />

Art-Gattungs-Beziehungen, 465<br />

Asimov, I., 36, 459<br />

Aspect, A., 421<br />

Asymmetrieproblem, 442<br />

atomare Gesetze, 434<br />

atomare Zerlegung, 432<br />

Index<br />

Audi, R., 307<br />

Ayer, A.J., 39, 136, 137, 149, 150,<br />

152, 153, 154<br />

Bacon, F., 181<br />

Balzer, W., 350<br />

Barnes, E., 443, 502<br />

Bartelborth, T., 75, 98, 150, 211,<br />

217, 281, 338, 343, 345, 347,<br />

348, 355, 366, 367, 368, 453,<br />

455, 462, 467, 468, 473, 475,<br />

477, 479, 486<br />

basale Meinungen, 144<br />

basale Überzeugungen, 131, 133<br />

Basis-Theorie-Element, 340<br />

Bayesianismus, 188, 260<br />

Begründungsstruktur, 268<br />

Bell, J.S., 421<br />

Bennett, J., 12<br />

Beobachtungsaussagen, 189<br />

Beobachtungsbedingungen, 194<br />

Beobachtungsterme, 349<br />

Beobachtungsüberzeugung:Entscheidung<br />

für, 201<br />

Beobachtungsüberzeugung:Rechtfertigung,<br />

198<br />

Beobachtungsüberzeugungen, 192<br />

beurteilende Statistik, 183<br />

Beweis der Außenwelt, 316<br />

biologische Taxonomie, 472<br />

BMS, 339, 345, 355, 357, 358, 364,<br />

368, 500<br />

BonJour, L., 14, 16, 25, 101, 114,<br />

115, 117, 118, 123, 124, 125,<br />

144, 145, 146, 156, 157, 158,<br />

198, 200, 206, 215, 220, 297,<br />

316, 317, 318, 319, 320, 321<br />

BonJours Metaforderung, 224<br />

Brückenstrukturen, 343


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 528<br />

Carnap, R., 136, 137, 149, 150, 162,<br />

314<br />

Cartesianischer Skeptiker, 291<br />

Cartesischer Dämon, 105, 159<br />

Cartwright, N., 423, 449, 452<br />

Causey, R., 478<br />

Cepheidentheorie, 344<br />

chaotische Systeme, 417<br />

Charakterisierungen, 464<br />

Chisholm, R., 116, 136, 137, 145,<br />

147<br />

Churchland, P., 192<br />

Cogito, 279<br />

Common-Sense Überzeugungen, 124<br />

Constraints, 343, 435<br />

constraintunabhängige Mengen, 480<br />

Darwin, C., 389<br />

Datenmodell, 453<br />

Deduktions-Chauvinismus, 448<br />

der mehrere-Systeme Einwand, 288<br />

Descartes, R., 203, 279<br />

Determinismus, 425<br />

Devitt, M., 13, 316<br />

diachronische Wissenschaftstheorie,<br />

365<br />

Diederich, W., 27<br />

Difference Condition, 428<br />

Dingaussage, 149<br />

Dowe, P., 419<br />

Doxastic Presumption, 206<br />

Doyle, C., 171<br />

dritte-Person Sicht, 127<br />

Dupré, J., 473<br />

Earman, J., 426<br />

ECHO, 188, 221<br />

Einbettung in ein Modell., 451<br />

Einbettung von Daten, 453<br />

Einbettung:begriffliche, 456<br />

Einbettung:in Theorien-Netz, 466<br />

Einbettung:Schwellenwert, 456<br />

Einbettung:sukzessive, 465<br />

Einbettung:und Erklärung, 456<br />

Einbettungsfunktion, 360, 462<br />

Einbettungsfunktion:Stetigkeitsforderung,<br />

483<br />

Einheitlichkeit einer Theorie, 436<br />

Einwände gegen KTR, 264<br />

eliminativer Materialismus, 218<br />

empirische Behauptung von N, 489<br />

empirische Substruktur, 350<br />

empirischer Gehalt:Überschuß, 436<br />

Empiristen, 202<br />

Entscheidung unter Unsicherheit, 328<br />

Entstehungserklärung, 501<br />

enumerative Induktion, 179<br />

epistemische Arbeitsteilung, 118, 125,<br />

296<br />

epistemische Konkurrenz, 228<br />

epistemische Metaüberzeugungen,<br />

234<br />

epistemische Unfairness, 313<br />

epistemische Überzeugungen, 270<br />

Erinnerung, 204<br />

Erkenntnistheoretische Ziele, 322<br />

erkenntnistheoretischer Erwartungswert,<br />

327<br />

Erkenntnistheorie, 16<br />

Erklärung, 158<br />

Erklärung: und Hintergrundwissen,<br />

231<br />

Erklärung:als epistemischer Begriff,<br />

229<br />

Erklärung:anhand von Koexistenzgesetzen,<br />

413<br />

Erklärung:Antezedenzbedingungen,<br />

379<br />

Erklärung:approximative, 415<br />

Erklärung:Asymmetrie, 391, 396, 500<br />

Erklärung:deduktiv-nomologische,<br />

378<br />

Erklärung:DN-Schema, 218, 378<br />

Erklärung:Einbettungstheorie, 451<br />

Erklärung:elliptische, 383<br />

Erklärung:genetische, 382<br />

Erklärung:graduelle Abstufungen,<br />

392<br />

Erklärung:historische, 382


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 529<br />

Erklärung:in der Evolutionstheorie,<br />

388<br />

Erklärung:in der Mathematik, 409<br />

Erklärung:in der Quantenmechanik,<br />

416, 448<br />

Erklärung:induktiv-statistische, 384<br />

Erklärung:instrumentalistische Sichtweise,<br />

404<br />

Erklärung:Interessenrelativität von,<br />

231, 397<br />

Erklärung:Irrelevanz, 390, 503<br />

Erklärung:Irrelevanzproblem, 442<br />

Erklärung:IS-Schema, 384<br />

Erklärung:kausale, 405<br />

Erklärung:kontrastierende, 401<br />

Erklärung:Kontrastklasse, 395<br />

Erklärung:nicht-kausale, 409<br />

Erklärung:objektive Relevanzbeziehung,<br />

404<br />

Erklärung:partielle, 383<br />

Erklärung:potentielle/wahre, 380<br />

Erklärung:pragmatischen Aspekte,<br />

394<br />

Erklärung:Relevanzbeziehung, 400<br />

Erklärung:statistische, 384, 448<br />

Erklärung:statistisches Relevanzmodell,<br />

386<br />

Erklärung:theoretische, 414<br />

Erklärung:Vereinheitlichung, 430<br />

Erklärung:Zurückweisen von Fragen,<br />

396<br />

Erklärungen:konkurrierende, 227<br />

Erklärungsanomalie, 219, 499<br />

Erklärungskohärenz, 221<br />

Erklärungskohärenz:triviale Immunisierung,<br />

233<br />

Erklärungsprototyp, 455<br />

Erklärungsrahmen, 238<br />

erklärungsrelevante Ursachen, 428<br />

Erklärungstheorie:Anforderungen an,<br />

375<br />

Erklärungsvorrat, 439<br />

evident, 147<br />

Evolutionstheorie, 411<br />

Extensivitätsconstraint, 345<br />

Externalismus, 99, 309<br />

externe Frage, 294<br />

Externe Fragen, 314<br />

Extrapolation, 180<br />

Fallibilismus, 302<br />

Faserbündeldarstellung, 483<br />

Fehleranalyse, 195<br />

Fernwirkung, 422, 425<br />

Feyerabend, P., 281<br />

Flexibilität von Theorien, 444<br />

Forge, J., 350, 453, 502, 503<br />

Forster, M., 493<br />

Fortschritt, 476<br />

Fragesatz, 394<br />

Fragesatz:Betonungen, 394<br />

Fragesatz:Präsuppositionen, 396<br />

Friedman, M., 350, 366, 375, 399,<br />

412, 430, 431, 432, 433, 434,<br />

436, 437, 438, 446, 454, 455,<br />

471, 479, 493<br />

FU 1, 132<br />

FU 2, 132<br />

FU 3, 134<br />

Fundamentalismus, 132, 135, 146<br />

Gedankenexperimente, 256<br />

Gehirn im Topf, 106<br />

Gettier Beispiel, 16, 101, 102<br />

Glaubensgrade, 260<br />

Goldman, A., 101, 103, 104, 106,<br />

116, 136, 137<br />

Goldstick, D., 283<br />

Goodman, N., 150, 182, 281<br />

Gottesperspektive, 314<br />

grue-Paradox, 281<br />

Gründe: die wahren, 122<br />

Gähde, U., 211, 344, 351, 357, 360,<br />

361, 363, 436, 467, 469, 474,<br />

480, 481, 482, 483, 497<br />

Gärdenfors, P., 402<br />

Haack, S., 104, 120, 121, 131, 299<br />

Harman, 101<br />

Harman, G., 102, 119, 120, 170,<br />

171, 174, 180, 229, 236, 241, 286


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 530<br />

Hawking, S., 426<br />

Hempel, C.G., 375, 376, 377, 378,<br />

379, 380, 382, 383, 384, 385,<br />

388, 393, 403, 415, 416, 424, 429<br />

Hesse, M., 190, 452<br />

Hilfshypothesen, 224<br />

Hintergrundwissen, 10, 111, 174<br />

historische Periode, 358<br />

Hoerster, N., 256<br />

Holismus, 160, 161, 210, 267, 275,<br />

347<br />

Holismus:von Erklärungen, 438<br />

Holton, G., 208<br />

Hume, D., 12, 170, 182, 185, 186,<br />

187, 236, 238, 239, 312, 316, 321<br />

Humescher Skeptiker, 291<br />

Ich denke, 147<br />

idealistische Theorie, 151<br />

Identitätsconstraint, 345, 482<br />

Identitätserklärungen, 414<br />

implizite Tests, 274<br />

indexikalische Aussagen, 148<br />

Induktion: und Deduktion, 171<br />

induktive Schlüsse, 9<br />

induzierte Quasimetrik, 368<br />

infallibler Fundamentalismus, 149<br />

infiniter Regreß, 282<br />

Informationsgewinn, 322<br />

Inhaltsfunktion, 488<br />

Inkohärenz, 217, 225, 246<br />

Inkonsistenz, 217, 225<br />

instance view, 453<br />

Instanz eines Gesetzes, 453<br />

Instrumentalismus, 135, 282<br />

intendierte Anwendungen, 434, 450,<br />

470<br />

intendierte Anwendungen:Vernetzung,<br />

435<br />

Internalismus:Kritik an, 118, 124<br />

interne Fragen, 314<br />

interne Gründe, 309<br />

Introspektion, 204<br />

INUS-Bedingung, 406<br />

Invarianzconstraints, 345<br />

irreale Konditionalsätze, 381<br />

Irrtumsfreiheit, 322<br />

Irrtumsquellen, 193<br />

Irrtumsrisiko, 143<br />

irrtumssicher, 147<br />

Irrtumsvermeidung, 330<br />

Isolationseinwand, 287<br />

James, W., 322, 330, 331<br />

Kardinalität, 432<br />

kausale Erklärungen, 495<br />

kausale Modelle, 497<br />

kausale Wechselwirkung, 409<br />

kausaler Kontakt, 326<br />

kausaler Prozeß, 406<br />

kausales Modell, 420<br />

Kausalität, 424<br />

Kausalität:als Theorien-Netz, 496<br />

Kausalität:und Vereinheitlichung, 496<br />

Kenngrößen der Vereinheitlichung,<br />

490<br />

Khalidi, M.A., 473<br />

Kitcher, P., 406, 408, 409, 411, 419,<br />

433, 434, 436, 437, 438, 439,<br />

440, 441, 442, 443, 444, 445,<br />

446, 447, 448, 449, 450, 451,<br />

455, 457, 498, 501, 502, 509, 510<br />

KK, 326<br />

klassische Physik, 425<br />

klassischen Partikelmechanik, 340<br />

KO 1, 133<br />

KO 2, 133<br />

Kohypothesen, 223<br />

Kohärenz, 167, 211, 242<br />

Kohärenz:diachronische, 241<br />

Kohärenz:Erklärungsanomalie, 248<br />

Kohärenz:konkurrierende Erklärungen,<br />

248<br />

Kohärenz:relationale, 243, 249<br />

Kohärenz:Stabilitätsbedingung, 246<br />

Kohärenz:Subsysteme, 247<br />

Kohärenz:systematische, 215, 243,<br />

245<br />

Kohärenz:Transitivitätsforderung,<br />

223


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 531<br />

Kohärenztheorie, 133<br />

Kohärenztheorie der Rechtfertigung,<br />

298<br />

Kohärenztheorie:diachronische, 318<br />

Kohärenztheorie:Kritik daran, 269<br />

Komponenten der Vereinheitlichung,<br />

462<br />

Konditionalisierungsregel, 261<br />

Konkurrenten, 212<br />

Konservatismus, 273<br />

konservative Induktion, 10<br />

Konsistenz, 167, 216<br />

Konstatierungen, 148<br />

Kontextualismus, 265<br />

Kontinuumsannahme, 366<br />

konvergentes Meinungssystem, 276<br />

Koppelberg, D., 120, 166<br />

Korrespondenztheorie der Wahrheit,<br />

295<br />

KPM, 340<br />

Kriterium, 144<br />

KTR, 242<br />

KTR:Argument dafür, 294<br />

Kutschera, F.v., 151, 313<br />

Lakatos, I., 281, 475, 478, 494<br />

Lambert, K., 377<br />

Lehrer, K., 101, 110, 111, 112, 113,<br />

119, 136, 212, 236, 239<br />

Leitermenge, 463<br />

Lenzen, W., 182<br />

Lewis, D., 408, 468<br />

Limes unserer Meinungen, 277<br />

lineare Rechtfertigungsbeziehungen,<br />

269<br />

Link, 349<br />

Links, 477<br />

Lipton, P., 174, 180, 181, 246, 299,<br />

311, 395, 428<br />

lokale Modelle, 342<br />

Lokalitätsbedingung, 420<br />

Ludwig, G., 337, 367, 463<br />

Mackie, J.L., 406<br />

Maxwell, J.C., 191<br />

McGinn, C., 103, 112<br />

mechanische Modelle, 453<br />

mengentheoretischer Typ, 463<br />

Metamathematik, 335<br />

Metaphilosophie, 19<br />

Metarechtfertigung, 16, 291<br />

Metatheorie der Wissenschaften, 334<br />

Metawissen, 112<br />

Metaüberzeugungen, 206<br />

Methodologie wissenschaftlicher Forschungsp,<br />

281<br />

Meßfehler, 364<br />

MK, 273<br />

Modell, 452<br />

Modelle, 336<br />

modelltheoretischer Ansatz, 335<br />

Monod, J., 320<br />

Morrison, M., 462<br />

Moser, P., 100, 101, 113, 136, 137,<br />

154, 155, 156, 157, 158, 159,<br />

160, 161, 163, 204, 271, 308,<br />

316, 319<br />

Moulines, C.U., 326, 339, 357, 367,<br />

470, 471<br />

Musgrave, A., 268, 301, 302<br />

Naturalisierung der Erkenntnistheorie,<br />

128<br />

Naturgesetz, 380<br />

natürliche Arten, 470<br />

natürliche epistemische Arten, 142<br />

Neurath, O., 166<br />

Newtonsche Partikelmechanik, 354<br />

nicht-propositionale Wahrnehmungszustände,<br />

155<br />

No False Conclusions, 101<br />

Notwendigkeit, 423<br />

Nozick, R., 101, 103, 109<br />

Observation Requirement, 220, 278<br />

Ontologie von Theorien, 465<br />

OR, 220<br />

organische Einheitlichkeit, 478<br />

overall- Erklärungen, 160<br />

Pais, A., 208<br />

paradigmatisches Basis-Theorie-Element,<br />

358


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 532<br />

Parfit, D., 258<br />

partielle Modelle, 350<br />

Pascals Wette, 331<br />

Penrose, R., 259<br />

personally justified, 212<br />

Perspektive der ersten-Person, 107<br />

Philosophie des Geistes, 121<br />

physikalisch unmöglich, 259<br />

Phänomenalismus, 146<br />

Phänomene, 431<br />

Platon, 283<br />

Platts, M., 471, 472<br />

Pluralismus von Taxonomien, 473<br />

Pollock, 104<br />

Popper, K.R., 134, 166, 257, 449,<br />

478<br />

pragmatisch, 399<br />

presupposition links, 347<br />

principle of mark transmission, 407<br />

prinzipielle Unschärfen, 417<br />

probabilistische Aussagen, 508<br />

probability-maker, 156<br />

Pseudoerklärung, 403<br />

Pseudoprozeß, 406<br />

Putnam, H., 69, 153, 169, 170, 251<br />

Pyramide von Überzeugungen, 134<br />

Quasimetrik, 367, 483<br />

Querverbindungen:innertheoretische,<br />

343<br />

Querverbindungen:intertheoretische,<br />

346<br />

Rationalisierung von Verhalten, 178<br />

Rationalisten, 202<br />

Rationalität, 123, 260, 284<br />

Rawls, J., 329<br />

Ray, C., 411<br />

Realismus, 473<br />

Rechtfertigung, 12<br />

Rechtfertigung und Wissensexplikation,<br />

17<br />

Rechtfertigung: ohne Erklärung, 236<br />

Rechtfertigung:diachronisch, 280<br />

Rechtfertigung:durch Erklärung, 187<br />

Rechtfertigung:epistemische/moralische,<br />

20<br />

Rechtfertigung:extern, 100<br />

Rechtfertigung:externalistische, 114<br />

Rechtfertigung:externe, 126<br />

Rechtfertigung:fundamentalistische,<br />

131<br />

Rechtfertigung:gerichtet, 132<br />

Rechtfertigung:ideale, 125<br />

Rechtfertigung:implizite, 125<br />

Rechtfertigung:intern, 100<br />

Rechtfertigung:kohärentistische, 131<br />

Rechtfertigung:lineare, 299<br />

Rechtfertigung:lokal/global, 207<br />

Rechtfertigung:subjektiv/objektiv,<br />

129<br />

Rechtfertigung:und Kausalität, 120<br />

Rechtfertigung:und Rationalität, 22<br />

Rechtfertigungen:implizit, 139<br />

Rechtfertigungsketten, 268<br />

Rechtfertigungspraxis, 266<br />

Rechtfertigungssgeschichten, 284<br />

Rechtfertigungsskeptizismus, 308<br />

Rechtfertigungsstrategien, 99<br />

Rechtfertigungsstruktur, 132, 138,<br />

297<br />

Redhead, M., 452<br />

Reduktion, 149, 365, 414<br />

Reduktion von Konflikten, 212<br />

Regreß, 114, 138, 142, 204<br />

Regreßargument, 264<br />

Regreßproblem, 299<br />

Reichenbach, H., 417<br />

Relationsstrukturen, 336, 452<br />

Reliabilisten, 102<br />

Reliabilitätsindikatortheorie, 117<br />

remote conservation, 422<br />

Repräsentationstheorien der Erkenntnis,<br />

152<br />

Rescher, N., 211, 288<br />

revolutionäres Meinungssystem, 276<br />

reziproke Beziehungen, 184<br />

Rosenberg, J.F., 19<br />

Ross, L., 286


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 533<br />

Russell, B., 301, 331<br />

Salmon, W.C., 14, 29, 190, 380, 385,<br />

386, 391, 393, 402, 403, 404,<br />

405, 406, 407, 408, 417, 419,<br />

420, 422, 423, 425, 434, 436,<br />

482, 496, 497, 498<br />

Schank, R.C., 455<br />

Schantz, R., 149<br />

Scheibe, E., 415, 464<br />

schematische Sätze, 439<br />

Schlick, M., 136, 148, 156, 287, 288<br />

Schluß auf die beste Erklärung, 10,<br />

152, 158, 173, 189, 316<br />

Schlußverfahren, 9<br />

Schurz, G., 351, 387, 390, 413, 414,<br />

430<br />

scientific community, 126, 358<br />

Selbsterklärungen, 446<br />

selbstrepräsentierend, 147<br />

Sherlock Holmes, 171<br />

Signifikanz, 163<br />

Simulacrum account, 449<br />

Sinnesdaten, 146, 149<br />

Sinnestäuschung, 193<br />

Skeptische Hypothesen, 107, 310,<br />

327<br />

Skeptizismus, 106, 107, 108, 109,<br />

128, 129, 130, 145, 151, 158,<br />

159, 161, 162, 267, 291<br />

Skeptizismus:antiker, 301<br />

Skeptizismus:interner, 294<br />

Skeptizismus:Kontextabhängigkeit,<br />

312<br />

Skeptizismus:radikaler, 303<br />

Skeptizismus:Unnatürlichkeit des,<br />

312<br />

Sklar, L., 273, 283<br />

Sober, E., 390, 393, 407, 408, 409,<br />

411<br />

Sparsamkeitsprinzip, 163<br />

Spezialgesetze, 351, 437<br />

Spezialisierung, 339<br />

spontan auftretende Meinungen, 157<br />

spontane Meinungen, 278<br />

statistische Aussagen, 217<br />

statistische Theorien, 505<br />

Stegmüller, W., 38, 149, 380<br />

Stereotype, 169<br />

Stevens, P.F., 473<br />

stillschweigende Bewährung, 275<br />

Stringenz der Muster, 440<br />

Stroud, B., 306, 307, 308, 312<br />

Strukturalismus, 335<br />

Strukturalismus:Überblick, 370<br />

Strukturart, 463<br />

Subsystem, 218<br />

Subsysteme, 467<br />

Superempirist, 167, 250, 274<br />

Swain, M., 101, 112, 117, 118, 124<br />

synergistischer Überschußgehalt, 479<br />

T-nichttheoretisch, 350<br />

technisches Wissen, 356<br />

Teil-Ganzes Beziehungen, 465<br />

TG(T), 484<br />

Thagard, P., 176, 177, 188, 221, 223,<br />

224, 225, 226, 227, 230, 236,<br />

241, 246, 247, 465<br />

theoretisch/nichttheoretisch Unterscheidung,<br />

350<br />

theoretische Einbettung, 454<br />

theoretische Terme, 350<br />

theoretische Unterbestimmtheit, 278<br />

theoretischer Gehalts, 488<br />

Theorie der Rechtfertigung, 16<br />

Theorie-Elemente, 338<br />

Theorie:empirische Behauptung, 359<br />

Theorie:empirischer Gehalt, 360<br />

Theorie:intendierte Anwendungen,<br />

352<br />

Theorie:Kovarianzforderungen, 345<br />

Theorie:theoretischer Gehalt, 359<br />

Theorien, 27, 333<br />

Theorien-Holons, 338<br />

Theorien-Netze, 338<br />

Theorien:alternative, 334<br />

Theorien:begriffliche Struktur, 340<br />

Theorien:innere Struktur, 336<br />

Theorien:potentielle Modelle, 340


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 534<br />

Theorien:semantische Auffassung,<br />

336<br />

Theorien:sprachliche Darstellung,<br />

337<br />

Theorien:strukturalistische Auffassung,<br />

27, 335<br />

Theoriendynamik, 357<br />

Thermometeranalogie, 103<br />

Tooley, M., 422<br />

Transportabilitätsforderung, 464<br />

transzendentaler Idealismus, 315<br />

Triplett, T., 135, 136<br />

truth resistant, 113<br />

Tversky, A., 55<br />

Typen von Anwendungen, 470<br />

Typen von Erklärungen, 439<br />

Umfang der eingebetteten Phänomene,<br />

485<br />

unbewußte Informationsverarbeitung,<br />

110<br />

unechte Verallgemeinerung, 446<br />

unendliche Rechtfertigungsketten,<br />

140<br />

unendlicher Regreß, 266<br />

unerkennbare Kausalität, 511<br />

uniforme Strukturen, 367<br />

Unschärfen, 363, 450<br />

Unterbestimmtheit, 135<br />

unvollständige Erklärungen, 185<br />

UP(e), 487<br />

UP(T), 485<br />

Uyenoyama, M.K., 411<br />

van Fraassen, B., 38, 135, 192, 289,<br />

317, 342, 350, 392, 394, 395,<br />

396, 399, 400, 401, 403, 404,<br />

418, 420, 423, 424, 427, 429<br />

Vereinheitlichung, 430<br />

Vereinheitlichung:Dimensionen der,<br />

457<br />

Vereinheitlichung:durch Analogien,<br />

493<br />

Vereinheitlichung:durch Constraints,<br />

467<br />

Vereinheitlichung:durch Strukturarten,<br />

463<br />

Vereinheitlichung:durch theoretische<br />

Größen, 468<br />

Vereinheitlichung:durch Theorien-<br />

Netze, 466<br />

Vereinheitlichung:formale Präzisierung,<br />

484<br />

Vereinheitlichung:in der Elektrodynamik,<br />

458<br />

Vereinheitlichung:Kernmuster, 444<br />

Vereinheitlichung:Reduktion der Phänomene,<br />

431<br />

Vereinheitlichung:Sprachabhängigkeit,<br />

447<br />

Vereinheitlichung:Stringenz, 446,<br />

484<br />

Vereinheitlichung:Systematisierungsleistung,<br />

484<br />

Vereinheitlichung:Trivialisierungsproblem,<br />

440<br />

Vereinheitlichung:und Definierbarkeit,<br />

468<br />

Vereinheitlichung:und Kausalität, 510<br />

Vereinheitlichung:und Kohärenz,<br />

458, 492<br />

Vereinheitlichungsleistung, 491<br />

Vereinheitlichungsleistung:eines Netzes,<br />

491<br />

Verhaltenserklärungen, 177<br />

vernünftiges Handeln, 124<br />

Verstehen, 159, 251, 252, 375<br />

Verstehen:kohärente Einbettung, 376<br />

Verstehen:Personenrelativität, 377<br />

Verstehen:Zurückführung auf Vertrautes,<br />

376<br />

Voraussagen, 381<br />

Vortheorie, 346<br />

Vorurteil, 180, 194<br />

wahrheitsdienlich, 309<br />

Wahrheitsindikator, 20, 284, 289<br />

Wahrheitsquote, 103<br />

wahrheitsresistent, 308<br />

Wahrnehmung, 115, 192


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 535<br />

Wahrnehmung:innere, 204<br />

Wahrnehmung:irrtumssicher, 137<br />

Wahrnehmungsaussagen, 143<br />

Wahrnehmungsirrtum, 186<br />

Wahrnehmungsüberzeugung, 110<br />

Wahrscheinlichkeit:Propensitäten,<br />

508<br />

Wahrscheinlichkeit:schwache Interpretation,<br />

507<br />

Wahrscheinlichkeiten, 260<br />

Walton, D.N., 21<br />

Warum-Fragen, 394<br />

Watkins, J., 291, 292, 331, 479<br />

Whewell, W., 181, 183, 431, 469<br />

Williams, B., 201<br />

Williams, M., 41, 108, 132, 133,<br />

136, 142, 210, 267, 311, 312, 397<br />

Wissen, 16, 112<br />

Wissen:implizites, 118<br />

Wissen:logische Abgeschlossenheit,<br />

108<br />

Wissenschaftlergemeinschaft, 126<br />

Wissenschaftliche Erklärung, 492<br />

wissenschaftliche Erklärungen, 15<br />

wissenschaftliche Modelle, 452<br />

wissenschaftliche Revolution, 465<br />

wissenschaftliches Verstehen, 375<br />

Wissensdefinition, 101<br />

Wissensskeptizismus, 305<br />

Wittgenstein, 142<br />

Wunder, 185<br />

Zerlegung, 432<br />

Zirkel der Explikation, 229<br />

Zirkelvorwurf, 206<br />

ZL(T), 485<br />

Zuverlässigkeit, 103<br />

überflüssige Entität, 159<br />

Übersetzungsthese, 150<br />

Überzeugungen:Genese, 41<br />

Überzeugungssystem, 170, 252<br />

Überzeugungssystem:Entstehung, 235<br />

Überzeugungssystem:innere Stabilität,<br />

277<br />

„Argument, 89<br />

„Ausleseprozeß“, 63<br />

„Bartelborth,, 50, 72<br />

„Bedeutungsanalyse“, 57<br />

„Beobachtungsüberzeugungen“, 62,<br />

92<br />

„Bieri,, 61, 65<br />

„Bohrs, 50<br />

„BonJour,, 74, 84<br />

„böser, 41<br />

„Chisholm,, 51<br />

„Common-Sense, 52<br />

„Conee,, 59<br />

„Daniels,, 54<br />

„Davidson,, 70<br />

„Dawkins,, 64<br />

„Dennett,, 80<br />

„Descartes,, 57, 85<br />

„Devitt,, 34, 43, 61<br />

„Elektrodynamik“, 50<br />

„empirische, 48<br />

„empirischer, 47<br />

„Epistemische, 85<br />

„Epistemisches, 77<br />

„Erklärung:post-hoc“, 47<br />

„erste, 38, 40<br />

„ethische, 53<br />

„evolutionäre, 61<br />

„Evolution“, 60<br />

„Fallibilismus“, 43<br />

„Falsifikationismus“, 46<br />

„Fehlschluß“, 59<br />

„gamblers, 59<br />

„Genese/Rechtfertigung“, 35<br />

„Geometrie“, 56<br />

„Gerechtigkeit“, 53<br />

„Gewißheit“, 43<br />

„Glaubensgrade“, 78<br />

„Goodman,, 52<br />

„Grenzwert, 69<br />

„Harman,, 85<br />

„Hintergrundwissen“, 78<br />

„Holismus“, 42, 54<br />

„Idealismus“, 71<br />

„Induktion“, 95


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 536<br />

„Informationsbesitz“, 79<br />

„Information“, 40, 65<br />

„intendierte, 49<br />

„Kant,, 56<br />

„Kekulé“, 36<br />

„Konservatismus“, 56<br />

„Koppelberg,, 38, 39<br />

„Kriterien, 52<br />

„Kuhn,, 46<br />

„Leeds,, 68<br />

„Lehrer,, 34, 78<br />

„logische, 39<br />

„Mackie,, 58<br />

„Mathematik“, 49<br />

„Metamathematik“, 48<br />

„Metaphilosophie“, 46<br />

„metatheoretische, 45<br />

„Metatheorie“, 51<br />

„Metaüberzeugungen“, 93, 95<br />

„Methodologie:aprioristische“, 45<br />

„methodologischer, 87<br />

„moralische, 54<br />

„Nagel,, 62<br />

„Naturalisierung, 34<br />

„Naturalismus:methodologischer“, 51<br />

„Naturalismus:radikaler“, 36<br />

„naturalistischer, 58<br />

„natürliche, 63<br />

„Newtonsche, 49<br />

„Nisbett“, 59<br />

„Normen, 39<br />

„ordinary, 57<br />

„Peano, 49<br />

„Penrose,, 98<br />

„Physik“, 96<br />

„Phänomenalismus“, 38<br />

„Platon“, 54<br />

„Plattfisch“, 64<br />

„Psychologie“, 37<br />

„Putnam,, 58, 69, 70, 75, 88<br />

„Quine,, 34, 36, 38, 39, 40, 41, 42,<br />

44<br />

„Ramsey,, 67<br />

„Rawls,, 35, 53<br />

„Realismus“, 74<br />

„Rechtfertigung, 52<br />

„Rechtfertigung:implizite“, 85<br />

„Rechtfertigung:indirekte“, 88<br />

„Rechtfertigungspraxis“, 76<br />

„Rechtfertigungsstruktur“, 76<br />

„reflective, 35<br />

„reflektives, 53<br />

„Rorty,, 70<br />

„Russell,, 52<br />

„Salmon,, 90<br />

„Searle,, 58<br />

„Skeptizismus“, 41, 68<br />

„Sosa,, 58<br />

„Sprachanalyse“, 59<br />

„Stegmüller,, 49<br />

„Stich,, 57<br />

„Strukturalismus“, 49<br />

„Tarski,, 67<br />

„Tarskis, 73<br />

„Themenwechsel“, 40<br />

„theoretische, 49<br />

„Unkorrigierbarkeit“, 43<br />

„Vollmer,, 61<br />

„Wahrheit:Disquotationstheorien“,<br />

68<br />

„Wahrheit:epistemisch, 69, 72<br />

„Wahrheit:Korrespondenzauffassung“,<br />

73<br />

„Wahrheit:Korrespondenztheorie“,<br />

67<br />

„Wahrheit:Redundanztheorien“, 67<br />

„Wahrheit:Relativismus“, 70<br />

„Wahrheit:Äquivalenzthese“, 67<br />

„Wahrheitsindikator“, 66<br />

„Wahrheit“, 66<br />

„Wahrnehmungstheorien“, 37<br />

„Wahrnehmungsurteile“, 56<br />

„Wahrnehmungszustand“, 79<br />

„warranted, 69<br />

„Watkins,, 94<br />

„Williams,, 43, 69<br />

„Wissen:Struktur, 76<br />

„wissenschaftliche, 47


Thomas Bartelborth: <strong>Begründungsstrategien</strong> 537<br />

„wissenschaftliches, 91<br />

„Wissenschaftsgeschichte“, 47<br />

„Wissen“, 52<br />

„Überlebensfähigkeit“, 63<br />

„Übersetzungsunbestimmtheit“, 38<br />

„Überzeugung:implizite“, 82<br />

„Überzeugungen:Allgemeinheitsstufen“,<br />

94<br />

„Überzeugungen:basale“, 96<br />

„Überzeugungen:epistemische“, 93<br />

„Überzeugungen:Hierarchie, 92<br />

„Überzeugungen:Netz, 88<br />

„Überzeugung“, 82<br />

„Wissenschaftsgeschichte“ 40

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!