A. Kritik der Perestroikans an deduktiven Verfahren
Es ist wichtig, zuerst einige begriffliche Klärungen vorzunehmen. Toulmin
weist darauf hin, dass die englischen Begriffe „rationality“ und „reasonableness“,
er nennt sie Zwillingskonzepte („twin concepts“), die im Deutschen beide mit
„Vernünftigkeit“ übersetzt würden (Toulmin 2001: 2).
Im Wörterbuch (leo.org) wird „reasonableness“ mit Angemessenheit,
Vernünftigkeit, Zumutbarkeit und in Verbindung mit „check“ auch als
Plausibilitätsprüfung angegeben. Dabei handelt es sich um Gründe (reasons), um
aufsteigende, epagogische, induktive Argumentationsweisen vom Einzelnen zum
Allgemeinen, die formal nicht gültig sind, d.h., sie liefern keine vollständige
Begründung, sondern nur rationale Gründe für oder gegen eine Annahme.
Toulmin, ein bekannter Wittgenstein-Schüler, hat seine Kritik in der Mitte
des 20. Jahrhunderts, als sein erstes Buch erschien, an der damals sehr
verbreiteten Konzen-tration auf deduktive Verfahren formuliert und nicht etwa im
Anschluss an Aristoteles, daher war er sehr überrascht, dass ein Rezensent sein
Buch als eine Wiedereinführung der Topik hinstellte: „Even the fact that the
late Gilbert Ryle gave the book to Otto Bird to review, and Dr. Bird wrote of it
as being a ‘revival of the Topics’ made no impression on me. […] So, after all,
Otto Bird had made an important point. If I were rewriting this book today, I
would point to Aristotle’s contrast between ‘general’ and ‘special’ topics as a
way of throwing clearer light on the varied kinds of ‘backing’ relied on in
different fields of practice and argument“ (Toulmin
2003 [1958]: VIII). Daran
kann man indirekt auch erkennen, dass Aristoteles im Gegensatz zu vielen
Wissenschaftlern heute keine Bevorzugung irgendeiner Argumentationsweise
vornahm, sondern jeweils die Möglichkeiten und Grenzen aller damals verfügbaren
Werkzeuge darlegte.
Im Gegensatz dazu steht der Begriff „rationality“, der mit Ratio,
Vernünftigkeit und Vernunft übersetzt wird, alles im Singular. Rationality wird
immer in Verbindung mit Gewissheit (certainty) verwendet, es handelt sich dabei
um absteigende, deduktive Argumentationsweisen von Ideen, allgemeinen Begriffen,
allgemeinen Gesetzen, Modellen oder Theorien zu einzelnen Sachverhalten oder
Urteilen, die formal gültig sind oder immer für gültig erachtet werden (Kapitel
3.8.1, B): „Rationality goes with focusing narrowly on matters of content,
Reasonableness with a feeling for the dozen ways in which a situation may modify
both the content and the style of arguments“ (Toulmin 2001: 21-22).
Man kann die Zwillingskonzepte „rationality“ und „reason/reasonableness“ nur
dann verstehen, wenn man Toulmins Plädoyer für eine Rehabilitation von
aufsteigenden, epagogischen, induktiven Argumentationsweisen darstellt.
Toulmin
(1996 [1958]) argumentiert in seinem frühen Werk, auf dieses geht Schram leider
nicht ein, insbesondere gegen einen argumentativen Reduktionismus, der
analytische und deduktive Argumentationsweisen als Standard und repräsentativ
für wissenschaftliche Argumentationen hinstellt. Dabei nimmt er folgende
Unterteilungen vor:
- a. Deduktive, analytische, schlussregel-gebrauchende, schlüssige, formal
gültige Argumentationsweisen; das deduktiv-nomologische Modell (HO-Schema)
oder das evolutionäre Erklärungsmodell können als Beispiele angesehen werden,
die aber nicht von Toulmin aufgeführt wurden.
- b. Induktive, substantielle, schlussregel-begründende, tentative, formal
nicht
gültige Argumentationsweisen; Beispiele: Hegel’sche Dialektik, hermeneutische
Zirkel als Spiralbewegung des Verstehens, Argumentationsmodell von Toulmin,
Argument Maps (auch diese Beispiele stammen von mir).
„Die Unterteilung von Argumentationen in analytische und substantielle, in
schlußregel-gebrauchende und schlußregel-begründende, in schlüssige und
tentative und in formal gültige und nicht formal gültige werden um theoretische
Zwecke willen alle in eine einzige Unterscheidung gepresst. Das Paar von Termen
‚deduktiv‘ und ‚induktiv‘, das – wie wir sahen – in der Praxis nur zur
Bezeichnung der zweiten dieser vier Unterscheidungen verwendet wird, wird allen
vier Unterscheidungen zugeordnet“ (Toulmin 1996 [1958]: 129-130).
Vor allem weist Toulmin auf die Bereichsabhängigkeit, auch dies erinnert an
Aristoteles, der verschiedenen Argumentationsweisen hin und untersucht deren
unterschiedliche Strukturen: „Allgemein formuliert kann es am besten als
systemati-sche Divergenz zwischen zwei Mengen von Kategorien angegeben werden,
zwischen den Kategorien, die wir beim praktischen Geschäft des Argumentierens
angewandt sehen, und den entsprechenden Analysen dieser Begriffe, die in Büchern
über formale Logik dargestellt werden. Während die Standards zur Beurteilung der
Richtigkeit, Gültigkeit oder der Stärke von Argumentationen in der Praxis
bereichsabhängig sind, beschränken Theoretiker der Logik diese Begriffe und
versuchen, sie bereichs-unabhängig zu definieren“ (Toulmin 1996 [1958]: 132).
Toulmin zufolge begann im 17. Jahrhundert eine Gleichgewichtsstörung (imbalance)
zwischen rationality und reasonableness. Voll zum Tragen kam diese erst am
Anfang des 20. Jahrhunderts innerhalb des logischen Empirismus oder der
Philosophie der idealen Sprache und des Kritischen Rationalismus: „So the three
chief Dreams of Rationalism turn out to be aspects of a single larger Dream. The
Dream of a Rational Method, that of an Exact Language, and that of a Unified
Science from a single project designed to purify the operations of the Human
Reason by desituating them: that is, divorcing them from the compromising
association of their cultural contexts“ (Toulmin 2001: 78).
Toulmins Ziel in „Return to Reason“ ist also nicht, wie die phronetischen
Perestroikans glauben, eine Ersetzung der deduktiven (top down) durch induktive
oder epagogische (bottom up) Verfahren, sondern eine Wiederherstellung des
Gleichgewichts und der Balance zwischen absteigenden und aufsteigenden
Schlussverfahren: „The chief task of this book is to show what is needed if we
are to treat that injury, and reestablish the proper balance between Theory and
Practice, Logic and Rhetoric, Rationality and Reasonableness“ (Toulmin 2001: 13,
siehe Kapitel 10: „Redressing the Balance“, S. 155 ff.). „Rhetoric is not a
rival to Logic; rather, it puts the logical analysis of arguments into the
larger framework of argumentation […]. Rhetorical tricks are on occasion used to
evade or conceal a substantive point, but that once again is a matter of what
may happen, not what must happen: overall, the act of arguing still has the dual
role of seizing the hearers’ attention and using this to convince them of a
well-founded claim“ (Toulmin 2001: 165). „But it was no part of my agenda to tip
the scale entirely, or to elevate Practice, in turn, at the expense of Theory.
What I intended to do was, indeed, to restore a proper balance between them: to
recognize the legitimate claims of ‘theories’ without exaggerating the formal
attractions of Euclidean reasoning, and to defend the lessons of actual
‘practice’ without denigrating the powers of theoretical argument“ (Toulmin 2001: 171).
B. Prinzipielle Grenze von deduktiven Methoden am Beispiel des DN-Modells
der Erklärung. Fallibilismus ade?
Es ist auf den ersten Blick erstaunlich, dass Brady (aber auch alle anderen
Autoren in dem Band „Political Methodology“,
Box-Steffensmeier/Brady/Collier
2010a [2008]) sogar in einem Kapitel über Kausalität überhaupt nicht auf das
deduktiv-nomologische Modell (DN-Modell) zurückgreift. Im 20. Jahrhundert war
dieses Modell das am meisten verbreitete und die von der überwältigenden
Mehrheit aller Wissenschaftler anerkannte Argumentationsweise (communis opinio
doctorum), nach den „Erfindern“ auch HO-(Hempel-Oppenheim-)Schema genannt
(Hempel/Oppenheim 1948,
Hempel 1972 [1966], aber auch
Popper 2005 [1934]).
Entstanden ist dieses Modell aber schon im 19. Jahrhundert: „Tatsächlich war
jedoch die ‚Popper-Hempel‘-Theorie der Erklärung seit den Tagen Mills und
Jevons so etwas wie ein philosophischer Gemeinplatz gewesen“ (von Wright 1974
[1971]: 155).
Das DN-Modell der Erklärung beansprucht universelle Gültigkeit für jeden Typ
von Erklärung, nicht nur für Kausalerklärungen. Die Begriffe „Ursache“ und
„Wirkung“ werden daher im Erklärungsschema nicht einmal erwähnt. Die Erklärung
einer bestimmten Tatsache besteht hiernach in der logischen Ableitung aus
anderen Tatsachen und übergeordneten Gesetzen, daher wird dies auch eine
Subsumtionstheorie der Erklärung (covering law model) genannt.
Georg Henrik von Wright (1974 [1971]: 23 ff.) hat zwei
Basismodelle des
DN-Modells vorgestellt: deduktiv-nomologische Erklärungen, Subsumtionstheorie
der Erklärung (a) und induktiv-probabilistische Modelle und Erklärungen (b).
a. Deduktiv-nomologische Erklärungen, Subsumtionstheorie der Erklärung
I. Antezedens, singuläre Bedingungen (conditio) C1, C2 […] Ck
II. Explanans (das Erklärende), allgemeine Gesetze (lex) L1, L2 […] Lk
______________________________________
III. Explanandum, das zu erklärende Ereignis E
Die deduktiv-nomologische Erklärung „beantwortet die Frage, ‚Warum trat das
Explanandum-Ereignis ein?‘, indem sie zeigt, dass sich das Ereignis aus den
besonderen in C1, C2 […] Ck spezifizierten Umständen in Übereinstimmung mit den
Gesetzen L1, L2 […] Lk ergab“ (Hempel 1972 [1966]: 239, vgl.
Hempel/Oppenheim
1948 und Popper 2005 [1934]).
Dieses Modell gilt aber nur in einer deterministischen Welt: „Die kausale
Sicht dagegen findet ihren adäquaten Ausdruck im Laplaceschen Dämon. In dieser
Sicht – und gerade das zeigte die Diskussion der DN-Erklärung des HO-Schemas –
ist das Schema der Prognose dasselbe wie das einer Retrodiktion. Damit sind
Vergangenheit und Zukunft einander im Grundsatz ähnlich, denn beide werden von
der Gegenwart her gleichermaßen erhellt, und die Zukunft bringt nichts
grundsätzlich Neues, weil die Gesetzmäßigkeiten jetzt schon festliegen“ (Poser
2012 [2001]: 283).
Dieser kausalistische Determinismus wurde am Beispiel der Physik von
Pierre-Simon Laplace (1749-1827) formuliert, daher verwendet Hans Poser auch die
Bezeichnung „Laplacescher Dämon“: „Wir müssen also den gegenwärtigen Zustand des
Universums als Folge eines früheren Zustandes ansehen und als Ursache des
Zustandes, der danach kommt. Eine Intelligenz, die in einem gegebenen Augenblick
alle Kräfte kennt, mit denen die Welt begabt ist, und die gegenwärtige Lage der
Gebilde, die sie zusammensetzen, und die überdies umfassend genug wäre, diese
Kenntnisse der Analyse zu unterwerfen, würde in der gleichen Formel die
Bewegungen der größten Himmelskörper und die des leichtesten Atoms einbegreifen.
Nichts wäre für sie ungewiss, Zukunft und Vergangenheit lägen klar vor ihren
Augen“ (zitiert nach Wikipedia:
http://de.wikipedia.org/wiki/Laplacescher_Dämon).
b. Induktiv-probabilistische Modelle und Erklärungen
Probabilistische Erklärungen hätten dieselbe logische Struktur. Sie
unterscheiden sich von deduktiv-nomologischen Erklärungen unter anderem dadurch,
dass erstens einige oder alle Gesetze von probabilistisch-statistischer Form
sind. Zweitens, die Wahrheit des Explanans macht die Wahrheit des Explanandum
nicht sicher, sondern nur mehr oder weniger wahrscheinlich.
Das erste, deterministische DN-Erklärungsmodell (das erste Modell) ist
symmetrisch, man kann damit sowohl die Vergangenheit erklären als auch die
Zukunft voraussagen. Das evolutionäre Erklärungsmodell, das seit dem Aufstieg
der biologischen Wissenschaften in der zweiten Hälfte des 20. Jahrhunderts immer
mehr in den Vordergrund rückt, ist asymmetrisch, weil Mutationen, d.h. schlicht
Zufall, nicht mit Gesetzen vorausgesagt, sondern nur im Nachhinein erklärt
werden können.
„Daß der Logos der Genese nicht mehr in der Kausalität gesehen wird, ist
verständlich – denn jede kausale Sicht (und jede HO-Erklärung) versagt, sobald
die geschichtliche Entstehung biologischer, sozialer und kultureller Vielfalt
zum Gegenstand der Frage wird“ (Poser 2012 [2001]: 281-282).
Damit ist aber schon ein Grund genannt, warum man das DN-Modell in der
Politikwissenschaft nicht benutzen sollte. Ein weiterer, für Brady
wahrscheinlich der entscheidende Grund oder nicht weniger wichtiger Grund liegt
in dem Status, den Gesetze innerhalb des Modells spielen.
Die allgemeinen Gesetze verbinden das Explanandum-Ereignis mit den im Explanans
aufgeführten Bedingungen, allgemeine Gesetze erhalten den Status erklärender
Faktoren hinsichtlich des zu erklärenden Ereignisses, davon kommt im Englischen
die Bezeichnung „covering law model“. Von dem Explanans zum Explanandum
gibt es eine deduktive Gewissheit oder induktive Wahrscheinlichkeiten. Bei der
Erklärung ist das Explanandum zuerst bekannt, bei der Voraussage das Explanans.
„Die logische Deduktion garantiert gewissermaßen den Transfer des positiven
Wahrheitswertes, der Wahrheit, auf die abgeleiteten Aussagen. Außerdem lässt
sich auf eine verhältnismäßig einfache Weise zeigen, daß sich aus der Falschheit
einer abgeleiteten Aussage die Falschheit mindestens einer der Prämissen ergibt.
Man könnte also hier von einem Rücktransfer des negativen Wahrheitswertes
sprechen“ (Albert 1967c [1965]: 409).
Wenn man sich nun der großen Bedeutung von Gesetzen bewusst wird, kann man
auch sehen, warum Brady völlig auf dieses Modell verzichtet. Probabilistische
Gesetze können im Gegensatz zu deterministischen Gesetzen keine deduktive
Gewissheit bieten. Dies hat nun auch fatale Konsequenzen für den Fallibilismus,
man kann eine Hypothese nicht mit einem Gegenbeispiel widerlegen, da es sich
dabei um eine Ausnahme handeln könnte. Probabilistische Gesetze oder
Regularitäten gelten per definitionem nicht für alle Fälle, sondern höchstens
für die überwältigende Mehrheit der Fälle.
Auch die Überhöhung der Deduktion von
Popper (2005 [1934]) einerseits und die
Verteufelung der Induktion wird damit obsolet. Wenn man mittels der oben
geschilderten methodischen Ansätze eine Regularität auf der Makroebene
identifiziert hat, kann man nicht auf die Mikroebene schließen, anders
ausgedrückt, es bleibt (Kapitel 3.1.2 B. c) das Paarungsproblem, das nur auf der
Mikroebene gelöst werden kann. Die Deduktion stößt an prinzipielle Grenzen,
genauso wie die Induktion. Der Hiatus zwischen Mikro- und Makroebene kann also
in keine Richtung logisch korrekt überwunden werden.
Beispiel: Das probabilistische Gesetz oder die Regularität, dass
Rauchen Lungenkrebs verursacht, bietet aufgrund ihres probabilistischen
Charakters nicht in jedem Einzelfall den erklärenden Faktor. Man kann folgende
Einzelfälle nicht erklären: warum erstens jemand, der raucht, keinen Lungenkrebs
hat, zweitens jemand, der nicht raucht, Lungenkrebs bekommt, und drittens jemand
trotz Rauchens aufgrund etwa von anderen Faktoren wie z.B. Umweltverschmutzungen
an Lungenkrebs erkrankt. Anders gesagt, es entstehen drei Probleme: einmal das
Paarungsproblem, wonach man Schwierigkeiten hat, eine Ursache mit einer Wirkung
zu verknüpfen, das Problem gemeinsamer Ursachen sowie das Problem verschiedener
Wirkungen. Hinzu kommt, dass Regularitäten auch den Verlauf des in diesem Fall
biologischen Ursache-Wirkungs-Mechanismus, der vom Rauchen zum Krebs führt,
nicht erklären können. Anders ausgedrückt, nur die Warum- aber nicht die
Wie-Frage wird beantwortet.
Hier stoßen wir an prinzipielle Grenzen der Deduktion, es gibt keine
deduktive Gewissheit, genauso wie es keine induktive Gewissheit geben kann. Wenn
man den biologischen Ursache-Wirkungs-Mechanismus auf der Mikroebene erkannt
hat, kann man nicht schließen, dass dieser Zusammenhang für alle Fälle auf der
Makroebene gilt. Rauchen kann nicht in allen Fällen Lungenkrebs erklären oder
Rauchen bewirkt nur in der Regel Lungenkrebs, nicht aber in jedem einzelnen
Fall.
Nicht nur die Induktion, sondern auch die Deduktion hat strukturelle Grenzen.
Es handelt sich auch um ein Argument gegen den Fallibilismus. Nun macht es
keinen Sinn die Deduktion genauso zu verteufeln, wie dies
Popper (2005 [1934])
mit der Induktion getan hat. Brady macht das Richtige, er ignoriert schlicht das
DN-Modell, weil es in einer nichtdeterministischen Welt – die reale,
insbesondere politische Welt ist nun mal nicht deterministisch – einfach nicht
brauchbar ist. Weiterhin soll nochmals daran erinnert werden, dass er darauf
besteht, dass für adäquate kausale Erörterungen alle vier oben genannten
methodischen Ansätze notwendig sind. Mit Hilfe der ersten drei Ansätze (Regularitätsansatz,
kontrafaktischer sowie manipulativer Ansatz) kann man nur Regularitäten auf der
Makroebene und damit die nomologische Eigenschaft von Kausalität erkennen. Das
Paarungsproblem und die genaue Erklärung des Ursache-Wirkungs-Mechanismus können
nur mit dem vierten Ansatz, dem Mechanismus- und Kapazitätsansatz, auf der
Mikroebene gelöst werden, wobei die Mikroebene schlicht jeder einzelne Fall
bildet. Die ontische Eigenschaft der Kausalität, d.h. die genaue Erläuterung des
kausalen Ursache-Wirkungs-Mechanismus (causal mechanism), kann also nicht
auf der Makroebene ermittelt werden, d.h. indem man alle Fälle von Rauchen und
Krebs innerhalb des regulativen, kontrafaktischen oder manipulativen Ansatzes
untersucht (Kapitel 3.1.2, B).
|