Zur Homepage von Johann Lauer
Tradition und Fortschritt verbinden

„Methodenstreit“ und Politikwissenschaft

Der methodologische Glaubenskrieg
am Beginn des 21. Jahrhunderts zwischen
szientistischem Establishment und phronetischen Perestroikans


 


3.8 Ebene der Argumentationsweisen

 

 

   

Metaseiten

Startseite
Vorwort

Inhaltsverzeichnis
Schaubilder
Literaturverzeichnis

Inhalte

Einleitung
2. Kapitel
3. Kapitel

Zusammenfassung
Ausblick

 

 

Auf dieser Ebene geht es um Argumentationsweisen wissenschaftlicher Theorien oder um die logische Struktur wissenschaftlicher Argumente; Popper spricht von einer „Logik der Forschung“, so der Titel seines Hauptwerkes (Popper 2005 [1934]). Diese Ebene unterscheidet sich von der oben erörterten Logikebene. Hier geht es um die logische Struktur der vorgebrachten Argumente, kurz um Argumentationsweisen, die einer wissenschaftlichen Theorie zugrunde liegen, und nicht um die Beziehung einzelner Sätze oder Prädikate zueinander wie in der Logik.

Im Folgenden soll nun die Kritik von Flyvbjerg (2001) und von Schram (2003 und 2005) an den deduktiven Vorgehensweisen innerhalb der platonisch-galileischen Tradition näher erläutert werden. Sie greifen dabei vor allem auf das Buch „Return to Reason“ von Stephen Edelston Toulmin (2001) zurück (3.8.1). Danach werden Beispiele beschreibender (interpretativer), erklärender und praktischer Argumentationsweisen aufgeführt und wird die logische Struktur aufgezeigt, die Beschreibungen, Erklärungen, Normierungen und Regulierungen annehmen können (3.8.2). Zum Schluss werden Beschreibende, erklärende und praktische Argumentationsweisen: Beschreibungen, Erklärungen, Normierungen und Regulierungen erörtert (3.8.3).


3.8.1 Deduktiv begründete Vernunft oder Vernünftigkeit (Rationality) versus induktiv begründete Vernunft oder Vernünftigkeit (Reason) Seitenanfang

A. Kritik der Perestroikans an deduktiven Verfahren

Es ist wichtig, zuerst einige begriffliche Klärungen vorzunehmen. Toulmin weist darauf hin, dass die englischen Begriffe „rationality“ und „reasonableness“, er nennt sie Zwillingskonzepte („twin concepts“), die im Deutschen beide mit „Vernünftigkeit“ übersetzt würden (Toulmin 2001: 2).
Im Wörterbuch (leo.org) wird „reasonableness“ mit Angemessenheit, Vernünftigkeit, Zumutbarkeit und in Verbindung mit „check“ auch als Plausibilitätsprüfung angegeben. Dabei handelt es sich um Gründe (reasons), um aufsteigende, epagogische, induktive Argumentationsweisen vom Einzelnen zum Allgemeinen, die formal nicht gültig sind, d.h., sie liefern keine vollständige Begründung, sondern nur rationale Gründe für oder gegen eine Annahme.

Toulmin, ein bekannter Wittgenstein-Schüler, hat seine Kritik in der Mitte des 20. Jahrhunderts, als sein erstes Buch erschien, an der damals sehr verbreiteten Konzen-tration auf deduktive Verfahren formuliert und nicht etwa im Anschluss an Aristoteles, daher war er sehr überrascht, dass ein Rezensent sein Buch als eine Wiedereinführung der Topik hinstellte: „Even the fact that the late Gilbert Ryle gave the book to Otto Bird to review, and Dr. Bird wrote of it as being a ‘revival of the Topics’ made no impression on me. […] So, after all, Otto Bird had made an important point. If I were rewriting this book today, I would point to Aristotle’s contrast between ‘general’ and ‘special’ topics as a way of throwing clearer light on the varied kinds of ‘backing’ relied on in different fields of practice and argument“ (Toulmin 2003 [1958]: VIII). Daran kann man indirekt auch erkennen, dass Aristoteles im Gegensatz zu vielen Wissenschaftlern heute keine Bevorzugung irgendeiner Argumentationsweise vornahm, sondern jeweils die Möglichkeiten und Grenzen aller damals verfügbaren Werkzeuge darlegte.

Im Gegensatz dazu steht der Begriff „rationality“, der mit Ratio, Vernünftigkeit und Vernunft übersetzt wird, alles im Singular. Rationality wird immer in Verbindung mit Gewissheit (certainty) verwendet, es handelt sich dabei um absteigende, deduktive Argumentationsweisen von Ideen, allgemeinen Begriffen, allgemeinen Gesetzen, Modellen oder Theorien zu einzelnen Sachverhalten oder Urteilen, die formal gültig sind oder immer für gültig erachtet werden (Kapitel 3.8.1, B): „Rationality goes with focusing narrowly on matters of content, Reasonableness with a feeling for the dozen ways in which a situation may modify both the content and the style of arguments“ (Toulmin 2001: 21-22).

Man kann die Zwillingskonzepte „rationality“ und „reason/reasonableness“ nur dann verstehen, wenn man Toulmins Plädoyer für eine Rehabilitation von aufsteigenden, epagogischen, induktiven Argumentationsweisen darstellt. Toulmin (1996 [1958]) argumentiert in seinem frühen Werk, auf dieses geht Schram leider nicht ein, insbesondere gegen einen argumentativen Reduktionismus, der analytische und deduktive Argumentationsweisen als Standard und repräsentativ für wissenschaftliche Argumentationen hinstellt. Dabei nimmt er folgende Unterteilungen vor:

  • a. Deduktive, analytische, schlussregel-gebrauchende, schlüssige, formal gültige Argumentationsweisen; das deduktiv-nomologische Modell (HO-Schema) oder das evolutionäre Erklärungsmodell können als Beispiele angesehen werden, die aber nicht von Toulmin aufgeführt wurden.
  • b. Induktive, substantielle, schlussregel-begründende, tentative, formal nicht
    gültige Argumentationsweisen; Beispiele: Hegel’sche Dialektik, hermeneutische Zirkel als Spiralbewegung des Verstehens, Argumentationsmodell von Toulmin, Argument Maps (auch diese Beispiele stammen von mir).

„Die Unterteilung von Argumentationen in analytische und substantielle, in schlußregel-gebrauchende und schlußregel-begründende, in schlüssige und tentative und in formal gültige und nicht formal gültige werden um theoretische Zwecke willen alle in eine einzige Unterscheidung gepresst. Das Paar von Termen ‚deduktiv‘ und ‚induktiv‘, das – wie wir sahen – in der Praxis nur zur Bezeichnung der zweiten dieser vier Unterscheidungen verwendet wird, wird allen vier Unterscheidungen zugeordnet“ (Toulmin 1996 [1958]: 129-130).

Vor allem weist Toulmin auf die Bereichsabhängigkeit, auch dies erinnert an Aristoteles, der verschiedenen Argumentationsweisen hin und untersucht deren unterschiedliche Strukturen: „Allgemein formuliert kann es am besten als systemati-sche Divergenz zwischen zwei Mengen von Kategorien angegeben werden, zwischen den Kategorien, die wir beim praktischen Geschäft des Argumentierens angewandt sehen, und den entsprechenden Analysen dieser Begriffe, die in Büchern über formale Logik dargestellt werden. Während die Standards zur Beurteilung der Richtigkeit, Gültigkeit oder der Stärke von Argumentationen in der Praxis bereichsabhängig sind, beschränken Theoretiker der Logik diese Begriffe und versuchen, sie bereichs-unabhängig zu definieren“ (Toulmin 1996 [1958]: 132).

Toulmin zufolge begann im 17. Jahrhundert eine Gleichgewichtsstörung (imbalance) zwischen rationality und reasonableness. Voll zum Tragen kam diese erst am Anfang des 20. Jahrhunderts innerhalb des logischen Empirismus oder der Philosophie der idealen Sprache und des Kritischen Rationalismus: „So the three chief Dreams of Rationalism turn out to be aspects of a single larger Dream. The Dream of a Rational Method, that of an Exact Language, and that of a Unified Science from a single project designed to purify the operations of the Human Reason by desituating them: that is, divorcing them from the compromising association of their cultural contexts“ (Toulmin 2001: 78).

Toulmins Ziel in „Return to Reason“ ist also nicht, wie die phronetischen Perestroikans glauben, eine Ersetzung der deduktiven (top down) durch induktive oder epagogische (bottom up) Verfahren, sondern eine Wiederherstellung des Gleichgewichts und der Balance zwischen absteigenden und aufsteigenden Schlussverfahren: „The chief task of this book is to show what is needed if we are to treat that injury, and reestablish the proper balance between Theory and Practice, Logic and Rhetoric, Rationality and Reasonableness“ (Toulmin 2001: 13, siehe Kapitel 10: „Redressing the Balance“, S. 155 ff.). „Rhetoric is not a rival to Logic; rather, it puts the logical analysis of arguments into the larger framework of argumentation […]. Rhetorical tricks are on occasion used to evade or conceal a substantive point, but that once again is a matter of what may happen, not what must happen: overall, the act of arguing still has the dual role of seizing the hearers’ attention and using this to convince them of a well-founded claim“ (Toulmin 2001: 165). „But it was no part of my agenda to tip the scale entirely, or to elevate Practice, in turn, at the expense of Theory. What I intended to do was, indeed, to restore a proper balance between them: to recognize the legitimate claims of ‘theories’ without exaggerating the formal attractions of Euclidean reasoning, and to defend the lessons of actual ‘practice’ without denigrating the powers of theoretical argument“ (Toulmin 2001: 171).

B. Prinzipielle Grenze von deduktiven Methoden am Beispiel des DN-Modells der Erklärung. Fallibilismus ade?

Es ist auf den ersten Blick erstaunlich, dass Brady (aber auch alle anderen Autoren in dem Band „Political Methodology“, Box-Steffensmeier/Brady/Collier 2010a [2008]) sogar in einem Kapitel über Kausalität überhaupt nicht auf das deduktiv-nomologische Modell (DN-Modell) zurückgreift. Im 20. Jahrhundert war dieses Modell das am meisten verbreitete und die von der überwältigenden Mehrheit aller Wissenschaftler anerkannte Argumentationsweise (communis opinio doctorum), nach den „Erfindern“ auch HO-(Hempel-Oppenheim-)Schema genannt (Hempel/Oppenheim 1948, Hempel 1972 [1966], aber auch Popper 2005 [1934]). Entstanden ist dieses Modell aber schon im 19. Jahrhundert: „Tatsächlich war jedoch die ‚Popper-Hempel‘-Theorie der Erklärung seit den Tagen Mills und Jevons so etwas wie ein philosophischer Gemeinplatz gewesen“ (von Wright 1974 [1971]: 155).

Das DN-Modell der Erklärung beansprucht universelle Gültigkeit für jeden Typ von Erklärung, nicht nur für Kausalerklärungen. Die Begriffe „Ursache“ und „Wirkung“ werden daher im Erklärungsschema nicht einmal erwähnt. Die Erklärung einer bestimmten Tatsache besteht hiernach in der logischen Ableitung aus anderen Tatsachen und übergeordneten Gesetzen, daher wird dies auch eine Subsumtionstheorie der Erklärung (covering law model) genannt.

Georg Henrik von Wright (1974 [1971]: 23 ff.) hat zwei Basismodelle des DN-Modells vorgestellt: deduktiv-nomologische Erklärungen, Subsumtionstheorie der Erklärung (a) und induktiv-probabilistische Modelle und Erklärungen (b).

a. Deduktiv-nomologische Erklärungen, Subsumtionstheorie der Erklärung

I. Antezedens, singuläre Bedingungen (conditio) C1, C2 […] Ck
II. Explanans (das Erklärende), allgemeine Gesetze (lex) L1, L2 […] Lk
______________________________________
III. Explanandum, das zu erklärende Ereignis E

Die deduktiv-nomologische Erklärung „beantwortet die Frage, ‚Warum trat das Explanandum-Ereignis ein?‘, indem sie zeigt, dass sich das Ereignis aus den besonderen in C1, C2 […] Ck spezifizierten Umständen in Übereinstimmung mit den Gesetzen L1, L2 […] Lk ergab“ (Hempel 1972 [1966]: 239, vgl. Hempel/Oppenheim 1948 und Popper 2005 [1934]).

Dieses Modell gilt aber nur in einer deterministischen Welt: „Die kausale Sicht dagegen findet ihren adäquaten Ausdruck im Laplaceschen Dämon. In dieser Sicht – und gerade das zeigte die Diskussion der DN-Erklärung des HO-Schemas – ist das Schema der Prognose dasselbe wie das einer Retrodiktion. Damit sind Vergangenheit und Zukunft einander im Grundsatz ähnlich, denn beide werden von der Gegenwart her gleichermaßen erhellt, und die Zukunft bringt nichts grundsätzlich Neues, weil die Gesetzmäßigkeiten jetzt schon festliegen“ (Poser 2012 [2001]: 283).
Dieser kausalistische Determinismus wurde am Beispiel der Physik von Pierre-Simon Laplace (1749-1827) formuliert, daher verwendet Hans Poser auch die Bezeichnung „Laplacescher Dämon“: „Wir müssen also den gegenwärtigen Zustand des Universums als Folge eines früheren Zustandes ansehen und als Ursache des Zustandes, der danach kommt. Eine Intelligenz, die in einem gegebenen Augenblick alle Kräfte kennt, mit denen die Welt begabt ist, und die gegenwärtige Lage der Gebilde, die sie zusammensetzen, und die überdies umfassend genug wäre, diese Kenntnisse der Analyse zu unterwerfen, würde in der gleichen Formel die Bewegungen der größten Himmelskörper und die des leichtesten Atoms einbegreifen. Nichts wäre für sie ungewiss, Zukunft und Vergangenheit lägen klar vor ihren Augen“ (zitiert nach Wikipedia: http://de.wikipedia.org/wiki/Laplacescher_Dämon).

b. Induktiv-probabilistische Modelle und Erklärungen

Probabilistische Erklärungen hätten dieselbe logische Struktur. Sie unterscheiden sich von deduktiv-nomologischen Erklärungen unter anderem dadurch, dass erstens einige oder alle Gesetze von probabilistisch-statistischer Form sind. Zweitens, die Wahrheit des Explanans macht die Wahrheit des Explanandum nicht sicher, sondern nur mehr oder weniger wahrscheinlich.

Das erste, deterministische DN-Erklärungsmodell (das erste Modell) ist symmetrisch, man kann damit sowohl die Vergangenheit erklären als auch die Zukunft voraussagen. Das evolutionäre Erklärungsmodell, das seit dem Aufstieg der biologischen Wissenschaften in der zweiten Hälfte des 20. Jahrhunderts immer mehr in den Vordergrund rückt, ist asymmetrisch, weil Mutationen, d.h. schlicht Zufall, nicht mit Gesetzen vorausgesagt, sondern nur im Nachhinein erklärt werden können.

„Daß der Logos der Genese nicht mehr in der Kausalität gesehen wird, ist verständlich – denn jede kausale Sicht (und jede HO-Erklärung) versagt, sobald die geschichtliche Entstehung biologischer, sozialer und kultureller Vielfalt zum Gegenstand der Frage wird“ (Poser 2012 [2001]: 281-282).

Damit ist aber schon ein Grund genannt, warum man das DN-Modell in der Politikwissenschaft nicht benutzen sollte. Ein weiterer, für Brady wahrscheinlich der entscheidende Grund oder nicht weniger wichtiger Grund liegt in dem Status, den Gesetze innerhalb des Modells spielen.

Die allgemeinen Gesetze verbinden das Explanandum-Ereignis mit den im Explanans aufgeführten Bedingungen, allgemeine Gesetze erhalten den Status erklärender Faktoren hinsichtlich des zu erklärenden Ereignisses, davon kommt im Englischen die Bezeichnung „covering law model“. Von dem Explanans zum Explanandum gibt es eine deduktive Gewissheit oder induktive Wahrscheinlichkeiten. Bei der Erklärung ist das Explanandum zuerst bekannt, bei der Voraussage das Explanans.

„Die logische Deduktion garantiert gewissermaßen den Transfer des positiven Wahrheitswertes, der Wahrheit, auf die abgeleiteten Aussagen. Außerdem lässt sich auf eine verhältnismäßig einfache Weise zeigen, daß sich aus der Falschheit einer abgeleiteten Aussage die Falschheit mindestens einer der Prämissen ergibt. Man könnte also hier von einem Rücktransfer des negativen Wahrheitswertes sprechen“ (Albert 1967c [1965]: 409).

Wenn man sich nun der großen Bedeutung von Gesetzen bewusst wird, kann man auch sehen, warum Brady völlig auf dieses Modell verzichtet. Probabilistische Gesetze können im Gegensatz zu deterministischen Gesetzen keine deduktive Gewissheit bieten. Dies hat nun auch fatale Konsequenzen für den Fallibilismus, man kann eine Hypothese nicht mit einem Gegenbeispiel widerlegen, da es sich dabei um eine Ausnahme handeln könnte. Probabilistische Gesetze oder Regularitäten gelten per definitionem nicht für alle Fälle, sondern höchstens für die überwältigende Mehrheit der Fälle.

Auch die Überhöhung der Deduktion von Popper (2005 [1934]) einerseits und die Verteufelung der Induktion wird damit obsolet. Wenn man mittels der oben geschilderten methodischen Ansätze eine Regularität auf der Makroebene identifiziert hat, kann man nicht auf die Mikroebene schließen, anders ausgedrückt, es bleibt (Kapitel 3.1.2 B. c) das Paarungsproblem, das nur auf der Mikroebene gelöst werden kann. Die Deduktion stößt an prinzipielle Grenzen, genauso wie die Induktion. Der Hiatus zwischen Mikro- und Makroebene kann also in keine Richtung logisch korrekt überwunden werden.

Beispiel: Das probabilistische Gesetz oder die Regularität, dass Rauchen Lungenkrebs verursacht, bietet aufgrund ihres probabilistischen Charakters nicht in jedem Einzelfall den erklärenden Faktor. Man kann folgende Einzelfälle nicht erklären: warum erstens jemand, der raucht, keinen Lungenkrebs hat, zweitens jemand, der nicht raucht, Lungenkrebs bekommt, und drittens jemand trotz Rauchens aufgrund etwa von anderen Faktoren wie z.B. Umweltverschmutzungen an Lungenkrebs erkrankt. Anders gesagt, es entstehen drei Probleme: einmal das Paarungsproblem, wonach man Schwierigkeiten hat, eine Ursache mit einer Wirkung zu verknüpfen, das Problem gemeinsamer Ursachen sowie das Problem verschiedener Wirkungen. Hinzu kommt, dass Regularitäten auch den Verlauf des in diesem Fall biologischen Ursache-Wirkungs-Mechanismus, der vom Rauchen zum Krebs führt, nicht erklären können. Anders ausgedrückt, nur die Warum- aber nicht die Wie-Frage wird beantwortet.

Hier stoßen wir an prinzipielle Grenzen der Deduktion, es gibt keine deduktive Gewissheit, genauso wie es keine induktive Gewissheit geben kann. Wenn man den biologischen Ursache-Wirkungs-Mechanismus auf der Mikroebene erkannt hat, kann man nicht schließen, dass dieser Zusammenhang für alle Fälle auf der Makroebene gilt. Rauchen kann nicht in allen Fällen Lungenkrebs erklären oder Rauchen bewirkt nur in der Regel Lungenkrebs, nicht aber in jedem einzelnen Fall.

Nicht nur die Induktion, sondern auch die Deduktion hat strukturelle Grenzen. Es handelt sich auch um ein Argument gegen den Fallibilismus. Nun macht es keinen Sinn die Deduktion genauso zu verteufeln, wie dies Popper (2005 [1934]) mit der Induktion getan hat. Brady macht das Richtige, er ignoriert schlicht das DN-Modell, weil es in einer nichtdeterministischen Welt – die reale, insbesondere politische Welt ist nun mal nicht deterministisch – einfach nicht brauchbar ist. Weiterhin soll nochmals daran erinnert werden, dass er darauf besteht, dass für adäquate kausale Erörterungen alle vier oben genannten methodischen Ansätze notwendig sind. Mit Hilfe der ersten drei Ansätze (Regularitätsansatz, kontrafaktischer sowie manipulativer Ansatz) kann man nur Regularitäten auf der Makroebene und damit die nomologische Eigenschaft von Kausalität erkennen. Das Paarungsproblem und die genaue Erklärung des Ursache-Wirkungs-Mechanismus können nur mit dem vierten Ansatz, dem Mechanismus- und Kapazitätsansatz, auf der Mikroebene gelöst werden, wobei die Mikroebene schlicht jeder einzelne Fall bildet. Die ontische Eigenschaft der Kausalität, d.h. die genaue Erläuterung des kausalen Ursache-Wirkungs-Mechanismus (causal mechanism), kann also nicht auf der Makroebene ermittelt werden, d.h. indem man alle Fälle von Rauchen und Krebs innerhalb des regulativen, kontrafaktischen oder manipulativen Ansatzes untersucht (Kapitel 3.1.2, B).


3.8.2 Nomothetische versus ideographische Argumentationsweisen, Generalisierung versus Einzelfallbehandlung Seitenanfang

A. Nomothetische versus ideographische Argumentationsweisen

Auf der Ebene der Argumentationsweisen wird neben deduktiven und induktiven Argumentationsweisen noch eine weitere Vorgehensweise angeführt, um einen prinzipiellen Unterschied zwischen Naturwissenschaften und in diesem Fall vor allem Geschichtswissenschaften aufzuzeigen. Wilhelm Windelband hat als Erster eine Trennung unternommen zwischen Gesetzeswissenschaften, die das Allgemeine erkennen wollen, und Ereigniswissenschaften, die das Besondere oder das Einzelne erkennen wollen: „[D]ie Erfahrungswissenschaften suchen in der Erkenntnis des Wirklichen entweder das Allgemeine in der Form des Naturgesetzes oder das Einzelne in der geschichtlich bestimmten Gestalt; sie betrachten zu einem Teil die immer sich gleichbleibende Form, zum anderen Teil den einmaligen, in sich bestimmten Inhalt des wirklichen Geschehens. Die einen sind Gesetzeswissenschaften, die anderen Ereigniswissenschaften; jene lehren, was immer ist, diese, was einmal war. Das wissenschaftliche Denken ist – wenn man neue Kunstausdrücke bilden darf – in dem einen Falle nomothetisch, in dem andern ideographisch“ (Windelband 1900 [1894]: 12). Windelband spricht daher auch von einem „nomothetische[n] und ideographische[n] Wissen“ (Windelband 1900 [1894]: 14).

Diese Unterscheidung wird von den Perestroikans übernommen, die Szientisten würden nur eine nomothetische Vorgehensweise bevorzugen, während auch für die Sozialwissenschaften eine ideographische Argumentationsweise nötig sei.

Die Perestroikans konstruieren hier einen Gegensatz zu den Szientisten, den es so nicht mehr gibt. Mehr noch sie überschätzen die ideographische Vorgehensweise, auch diese muss mit nomothetischen ergänzt werden. Auch hier wäre eine genaueres Studium von Aristoteles Werk zielführender gewesen: „Die Geschichte der Philoso-phie kennt, vereinfachend gesprochen, den wissenstheoretischen Antagonismus von ‚empiristischer‘ Geringschätzung und ‚idealistischer‘ Überschätzung des Allgemeinen. Aristoteles’ Theorie der epistemischen Steigerung schlägt zwischen beiden Positionen einen erfolgversprechenden Mittelweg ein. Obwohl sich das höhere Wissen auf etwas Allgemeines richtet und darin eine Überlegenheit zeigt, bleibt den unteren Stufen ein Eigenwert; und dieser mahnt die höheren Stufen zu mehr Bescheidenheit“ (Höffe 2006 [1996]: 45).

B. Allgemeinheit versus Einzelfall

„In der einen treibt das Denken von der Feststellung des Besonderen zur Auffassung allgemeiner Beziehungen, in der andern wird es bei der liebevollen Ausprägung des Besonderen festgehalten. Für den Naturforscher hat das einzelne gegebene Objekt seiner Beobachtung niemals als solches wissenschaftlichen Wert; es dient ihm nur soweit, als er sich für berechtigt halten darf, es als Typus, als Spezialfall eines Gattungsbegriffs zu betrachten und diesen daraus zu entwickeln; er reflectiert darin nur auf diejenigen Merkmale, welche zur Einsicht in eine gesetzmäßige Allgemeinheit geeignet sind“ (Windelband 1900 [1894]: 16).

Wie ich oben (Kapitel 3.1) gezeigt habe, sind beide Unterteilungen längst Geschichte. Sowohl die nomothetische als auch die ideographische Vorgehensweise wird auch von den Szientisten vorgenommen. Auch Einzelfälle werden nicht nur analysiert, damit man Generalisierungen vornehmen kann. Dabei wird der Einzelfall auf der Mikroebene nicht nur als Spezialfall gesehen, sondern am Einzelfall muss der kausale Mechanismus, für alle ähnlichen Fälle nachgewiesen werden, müssen das Paarungsproblem und die komplexen Kausalstrukturen entwirrt werden. Strenggenommen können auf der Makroebene nur Korrelationen nachgewiesen werden. Von einer Kausalität kann man nur sprechen, wenn der kausale Mechanismus, das Wie, auch nachgewiesen wurde.

Ähnlich sieht die Situation bei den Interpretivisten aus, auch dort gibt es methodische Ansätze und Methoden, deren Fokus einseitig auf der Makro- oder der Mikroebene liegt. Die (Post)Strukturalisten und Diskurstheoretiker analysieren insbesondere die Makroebene, Strukturen, Diskurse, Rahmungen (Frames), die die Kommunikation und Sinnstiftung prägen. Andere wenden vor allem interpretativ-hermeneutische Methoden und methodische Ansätze an, um durch die Einzelfallanalyse Bedeutungen sowie Familienähnlichkeiten innerhalb von konkreten Sprachspielen herauszuarbeiten (Münch 2016: 35 ff.).

In den Philosophischen Untersuchungen von Ludwig Josef Johann Wittgenstein (1984c [1953]) werden auch gleich beide Ebenen behandelt, auch wenn die Interpretivisten, die sich fast immer auf Wittgenstein beziehen, nur seine Beiträge zur Mikroebene hervorheben.

Im ersten Teil der Philosophischen Untersuchungen geht es darum nicht zu denken, sondern zu schauen (Wittgenstein 1984c [1953]: § 66). Es kommt also darauf an, den Gebrauch oder die Verwendung der Wörter innerhalb von Sprachspielen festzuhalten sowie nach Familienähnlichkeiten zu suchen. Die Praxis des Sprachgebrauchs steht hier im Vordergrund, die Verwendung der Sprache wird als Teil einer Tätigkeit, genauer einer Lebensform dargestellt: „[D]aß das Sprechen der Sprache ein Teil ist einer Tätigkeit, oder einer Lebensform“ (Wittgenstein 1984c [1953]: § 23). In diesem ersten Teil wird die bekannte Gebrauchstheorie der Bedeutung formuliert: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“ (Wittgenstein 1984c [1953]: § 43). Nicht die Bedingungen, unter denen Aussagen wahr werden, werden untersucht, sondern wie diese gebraucht werden. Dies „ist eine Metatheorie der Zuordnung von Bedeutungserfassungen (Regelfolgen), welche die mit ihr konkurrierende Metatheorie der Wahrheitsbedingungen verdrängt“ (Stegmüller 1986a: 113, Kripke 1982: 74 ff. und 87).

Wittgenstein setzt sich aber auch mit der Makroebene auseinander, in diesem Fall mit unserer Lebensform und wie darin Sprache überhaupt funktionieren kann (Kapitel 3.1.3 H). Zwischen der Mikro- und der Makroebene besteht auch innerhalb der Sprache ein Hiatus. Die Untersuchungen auf den verschiedenen Ebenen haben andere Ziele, einmal unter welchen Bedingungen Sprache überhaupt möglich ist und welche Regeln dazu notwendig sind. Zweitens wie ganz konkret Sprache funktioniert, indem Sprachspiele und der Gebrauch von Wörtern untersucht und Familienähnlichkeiten ausgemacht werden. Dabei werden unterschiedliche Fragenkomplexe erörtert, von einer auf die andere Ebene kann nicht geschlossen werden, denn gemäß der Losung „denk nicht, sondern schau!“ (Wittgenstein 1984c [1953]: § 66) werden zuerst innerhalb von Sprachspielen Transparenz und ein Überblick hergestellt. Danach analysiert Wittgenstein erst die Voraussetzungen, die Sprache ermöglichen. Weder kann vom Einzelnen auf das Allgemeine noch umgekehrt vom Allgemeinen auf das Einzelne geschlossen werden.

Ganz ähnlich kann man sagen, dass ein kausaler Mechanismus nicht auf einer kausalen Regularität ruht. Zwischen der Makro- und der Mikroebene gibt es einen prinzipiellen Hiatus, der in keiner Richtung, weder deduktiv (top down) noch induktiv (bottom up) überwunden werden kann (Kapitel 3.8.2).

Windelband hat Recht, es gibt einen prinzipiellen Unterschied zwischen nomothetischer und ideographischer Vorgehensweise, weiterhin ist Erstere auf der Makroebene angesiedelt und Letzterer auf der Mikroebene. Damit kann man aber kein Argument für die Unterschiedlichkeit von naturwissenschaftlich, nomothetisch orientierten Wissenschaften auf der einen und geisteswissenschaftlich, ideographisch orientierten Wissenschaften auf der anderen Seite begründen. In allen Wissenschaften werden beide Ebenen untersucht und, was genau so zentral ist, in allen Wissenschaften gibt es einen prinzipiellen Unterschied zwischen diesen beiden Ebenen. Die Ersteren sprechen auf der Makroebene von kausalen Regularitäten oder Regelmäßigkeiten, früher von kausalen Gesetzen, die Letzteren sprechen von sprachlichen Regeln, von Lebensformen, Strukturen, Mustern, Diskursen, Interpretationsschemata (frames). Auf der Mikroebene stehen kausale Prozesse oder Mechanismen sowie Einzelfälle im Fokus. Wie dies genau umgesetzt wird in der platonisch-galileischen Tradition, habe ich oben detailliert geschildert (Kapitel 3.1.1). Hier soll ein Hinweis auf die Frameanalyse reichen, in der auch zwischen Rahmung (framing) und Benennung (naming) unterschieden wird (Rein/Schön 1993).

Wittgenstein unterscheidet in seinen Untersuchungen zwischen begrifflichen, sprachlichen Problemen auf der einen und naturwissenschaftlichen Problemen auf der anderen Seite, wie ich in meiner Magisterarbeit aufgezeigt habe (Lauer 1987).

Wittgenstein zufolge kann die Philosophie einzig zur Lösung von begrifflichen oder sprachlichen Problemen beitragen, d.h. bei ihm, sie kann „Scheinprobleme“ lösen. Dies ist die therapeutische Funktion, der die Philosophie fähig ist. Zur Lösung von naturwissenschaftlichen Erklärungen oder Problemen kann sie aber nicht beitragen.

Analog kann man nun behaupten, dass Interpretivisten begriffliche oder sprachliche Probleme und Fragestellungen bearbeiten und Szientisten kausale Probleme. Daher sind Glaubenskriege zwischen diesen Traditionen eigentlich sinnlos, weil es sich nicht um konkurrierende Unternehmungen handelt. Mehr noch: Beide könnten gemeinsam mehr erreichen. Daher wären sie besser Partner oder Verbündete und nicht Kriegsgegner. Sie könnten getrennt kämpfen und gemeinsam siegen. Sieg würde bedeuten, dass beide gemeinsam zu einer wissenschaftlich-rationalen Welterklärung und Weltveränderung beitragen könnten. Der Glaubenskrieg ist daher eine Vergeudung von Ressourcen und steht dem gemeinsamen Ziel, Welterkennung und Weltveränderung, nur im Wege.

Für die Politikwissenschaftler, dies gilt besonders für die Perestroikans, sind Deutungsanalysen, Sinnverstehen oder Sinnbildung in der Regel nur Mittel zum Zweck. Im Vordergrund stehen Machtanalysen. Mit Hilfe von begrifflichen Analysen sollen Machtstrukturen oder Machtverhältnisse sichtbar gemacht werden. Daher sind die Arbeiten von Michel Foucault wesentlich zentraler. Dagegen ist nichts einzuwenden. Dass ich mich damit nicht näher auseinandersetze, liegt daran, dass es hier nur darauf ankommt, das Verhältnis zwischen Makro- und Mikroebene aufzuzeigen, das sowohl für die Szientisten als auch für die Perestroikans und Interpretivisten ähnliche Funktionen erfüllt. Mit dem Verweis auf die nomothetische und die ideographische Vorgehensweise kann also kein prinzipieller Unterschied zwischen den verschiedenen Traditionen begründet werden.
 


3.8.3 Beschreibende, erklärende und praktische Argumentationsweisen: Beschreibungen, Erklärungen, Normierungen und Regulierungen Seitenanfang

A. Erklärende Argumentationsweisen: Erklärungen

Die bekannteste erklärende Argumentationsweise ist die deduktiv-nomologische Erklärung (DN-Modell), die oben erläutert wurde (Kapitel 3.8.1, B).

B. Beschreibende Argumentationsweisen: Beschreibungen

Die zwei bedeutendsten beschreibenden Argumentationsweisen sind der hermeneutische Zirkel als Spiralbewegung des Verstehens (a.) und die Dialektik (b.).

a. Hermeneutischer Zirkel als Spiralbewegung des Verstehens

Die Hermeneutik beschreibt, wie durch Dialog ein gemeinsames Verständnis möglich ist. Erst wenn dies vorliegt, kann man dazu übergehen, etwas zu erklären (von Wright 1974 [1971]). Eigentlich liegt dem hermeneutischen Zirkel eine Spiralbewegung zugrunde. Zwei Dialogpartner treten in Interaktion, sie weisen beide ein bestimmtes Vorverständnis zum Thema auf. So unterscheiden sich ihre Positionen zu Beginn des Gesprächs. Jeder Gesprächspartner rekonstruiert die Perspektive des Gegenübers und fügt neue Gedanken hinzu, wodurch sich auf jeder Stufe des Austauschs ein konvergenter Prozess ergibt. Dieser Annäherungsvorgang setzt sich im Sinne einer Spiralbewegung so lange fort, bis eine Horizontverschmelzung stattfindet – aus zwei divergierenden Positionen hat sich auf diesem kommunikativen Weg eine gemeinsame Erkenntnis entwickelt. Es entsteht also mehr als das reine Verständnis einer anderen Meinung, die subjektiv gefärbt ist. Da die Gesprächspartner in derselben geistesgeschichtlichen Tradition stehen, ergibt sich ein wechselseitiges Kontrollverfahren, das zu einem Ausgleich von Vorverständnis und fremder Meinung beiträgt. Das Ergebnis ist für alle Beteiligten verständlich, wodurch die wissenschaftliche Forderung nach Intersubjektivität erfüllt wird (Gadamer 2010 [1960], Apel 1970, Habermas 1970, Poser 2012 [2001]: 217-242).

b. Dialektik

Der dialektische Dreischritt besteht aus These, Antithese und Synthese und zeigt die begriffliche Bewegung auf, die bei einem Gespräch stattfindet. „Die Grundfigur der Hermeneutik, an der die Problematik des Verstehens deutlich wurde, bildet bei Gadamer das Gespräch. Für die Behandlung der Dialektik empfiehlt es sich, ebenfalls von dort auszugehen; jedoch nicht das Verstehen des Gesprächs ist zu untersuchen, sondern die begriffliche Bewegung, die sich dabei vollzieht“ (Poser Poser [2001]: 243).

C. Praktische Argumentationsweisen: Normierungen und Regulierungen

Das praktische Schließen ist eine Schlussform, „die im Gegensatz zur deontischen Logik die intentionale Problematik und die Zweck-Mittel-Beziehung unmittelbar“ (Poser 1977: XI) einbezieht. Die bekanntesten praktischen Argumentationsweisen sind:

  • a. praktischer Syllogismus,
  • b. intentionalistischer Syllogismus und
  • c. pragmatischer Syllogismus.

a. Praktischer Syllogismus

Der praktische Syllogismus wurde durch von Wright wie folgt beschrieben:

„A beabsichtigt, p herbeizuführen.
A glaubt, dass er p nur dann herbeiführen kann, wenn er a tut.
Folglich macht sich A daran, a zu tun“ (von Wright 1974 [1971]: 93, vgl. von Wright 1977c [1963], von Wright 1977d [1972]).

Der praktische Syllogismus schließt nach von Wright eine bestehende methodologische Lücke in den Humanwissenschaften. Er liefert ein Erklärungsschema, das eine deutliche Alternative zum subsumtionstheoretischen Gesetzesschema der Erklärung ist. Dieses Schema eines praktischen Syllogismus ist eine auf den Kopf gestellte teleologische Erklärung. Praktische Schlüsse sind Umkehrungen von teleologischen Erklärungen.

b. Intentionalistischer Syllogismus

„Von jetzt an beabsichtigt A, p zum Zeitpunkt t herbeizuführen.
Von jetzt an glaubt A, dass er p zum Zeitpunkt t nur dann herbeiführen kann, wenn er a nicht später als zum Zeitpunkt t' tut.
Folglich macht sich A nicht später als zu dem Zeitpunkt daran, a zu tun, wo er glaubt, dass der Zeitpunkt t' gekommen ist – es sei denn, er vergisst diesen Zeitpunkt, oder er wird gehindert“ (von Wright 1974 [1971]: 102, siehe Anscombe 1963).

c. Pragmatischer Syllogismus

Auf den pragmatischen Syllogismus wurde schon eingegangen, als die Umkehrungen von Kausalsätzen bzw. die Umkehrung des fundamentalen Erklärungsschemas behandelt wurden (Kapitel 3.1.2, E, c, II).

Hier geht es weiter zum Kapitel Methodenebene (3.9). 


Startseite Vorwort Inhaltsverzeichnis Schaubilder Literaturverzeichnis

Einleitung 2. Kapitel 3. Kapitel Zusammenfassung Ausblick

Copyright: Johann Lauer Pfeil-Rechts Impressum Haftungsausschluss
Quelle: lauer.biz/methodenstreit/index.htm
Seitenanfang