Über den wissenschaftstheoretischen Status von Rechtswissenschaft, Physik und Informatik – Replik auf D. Berisha Online-Symposium »Empirische Wende«

Vor zehn Jahren veröffentlichte Niels Petersen einen Beitrag zur Frage, ob die Rechtswissenschaft eine »empirische Wende« brauche. Der Text provozierte vielfältige Reaktionen, darunter eine scharf formulierte Replik von Ino Augsberg gegen den »neuerdings erhobenen empiristischen Ton in der Rechtswissenschaft«. Zehn Jahre später greift ein R|E Online-Symposium die Debatte noch einmal auf: Sind wir heute klüger? Haben die Zeitläufte einer Seite Recht gegeben? Oder war es am Ende ein Streit, der sich an Begrifflichkeiten entzündete, gar ein Missverständnis? Die Initiatoren der Debatte und weitere Autoren beziehen zu diesen Fragen Stellung. (Red.)

Am 8. März 2021 veröffentlichte D. Berisha einen Artikel auf diesem Blog, in dem sie die Rechtswissenschaft der Physik gegenüberstellte. Ihre Kernthese verstehe ich so, dass die voranschreitende Informatisierung des Rechts (seit Neuestem unter dem Schlagwort „Legal Tech“) von Juristen mehr Fähigkeiten im Umgang mit „der Empirie“ abverlange und deswegen eine präzisere Kenntnis empirischer Methoden (verstanden als quantitative Methoden) erforderlich sei. Der Beitrag eignet sich sehr gut, um exemplarisch einige Missverständnisse von Juristen aufzuzeigen, die die empirischen Wissenschaften für sich entdecken, ohne simultan deren methodologische Probleme nachzuvollziehen.

I. Einige wissenschaftstheoretische Grundlagen

Die Gegenüberstellung von Gesetzen der Naturwissenschaft und der Rechtswissenschaft entspricht in der juristischen Grundlagendiskussion einer alten Tradition. Berühmtes Zeugnis dessen ist der Vortrag „Über die Werthlosigkeit der Jurisprudenz als Wissenschaft“, den der damalige (Noch-1)Staatsanwalt Julius von Kirchmann 1848 vor der Juristischen Gesellschaft Berlin hielt: „Zwar haben alle Wissenschaften zu allen Zeiten neben den wahren auch falsche Gesetze,“ so Kirchmann, „aber die Unwahrheit derselben bleibt ohne Einfluss auf ihren Gegenstand. Anders hingegen mit den positiven Gesetzen des Rechts. Mit Gewalt und Strafen umgürtet, zwingen sie sich, ob wahr oder falsch, dem Gegenstand auf; […]. Während in allen anderen Bereichen das Wissen das Sein unberührt läßt, […] wird im Recht durch das positive Gesetz das Umgekehrte erzwungen.“2

Seitdem hat sich viel getan. Nicht nur haben sich die Sozialwissenschaften ebenfalls auf die Suche nach überzeitlichen Gesetzen begeben; auch haben die Naturwissenschaften ihren geisteswissenschaftlichen Kern entdeckt. Wissen entsteht nicht im Subjekt, sondern in der Kommunikation – und diese setzt Sprache voraus.3 Und Sprache ist konventional und damit zu hohem Maße beliebig und von teilweiser schrecklich schöner Vieldeutigkeit. Unter diesen Bedingungen ist es naheliegend, durch pedantische Analyse und strikte Definitionsvorschriften ein sprachliches Fundament zu schaffen, auf dessen Grundlage empirische Wissenschaft trotz ihrer inhärenten Sprachlichkeit als exakte Wissenschaft möglich ist. In diesem kurzen Diktum lässt sich wohl das gesamte Programm der Analytischen Philosophie zusammenfassen. War es erfolgreich? Ja und nein: Ja, weil wir enorm viel über die fundamentalen Probleme der Sprachlichkeit gelernt haben; nein, weil wir gerade wegen dieser Erkenntnisse das Ziel nicht erreichen konnten. Im Alter von nur 25 Jahren trug Kurt Gödel (1906-1978) alle Hoffnungen auf eine vollständige und entscheidbare Axiomatisierung der Wissenschaftssprache zu Grabe – ironischerweise, indem er ihre Unmöglichkeit logisch bewies.4

II. Der wissenschaftstheoretische Status der Physik idealiter

Erst auf diesem Fundament gewinnt der Vergleich der Physik mit der Rechtswissenschaft an Kontur. Physik und Rechtswissenschaften teilen sich demgemäß das grundsätzliche Problem, Sprachsysteme zu sein, die nicht vollständig axiomatisiert werden können. Der klassischen Vorstellung nach treten darüber hinaus aber vor allem die gegenstandsbezogenen Unterschiede hervor: Wie schon Kirchmann betont, ist der Gegenstand der Rechtswissenschaft aufgrund seiner heute wenig umstrittenen Positivität zeitlich unbeständig und dem jeweiligen politischen Willen anheimgestellt. Eine intersubjektive oder gar objektive Analyse des positiven Rechts sei vor diesem Hintergrund nicht möglich; die Rechtswissenschaft daher stets Meinungsstreit, der jederzeit „durch drei berichtigende Worte des Gesetzgebers […] zu Makulatur“5 werden könne.

Genau gegenteilig dazu steht die idealtypische Vorstellung der Physik: Der Gegenstand der unbelebten Natur erlaubt es, durch sorgfältige methodische Anleitung Kausalgesetze zu identifizieren, die unabhängig von sozio-kulturellen Rahmenbedingungen jederzeit und -orts gültig sind. Um das zu gewährleisten, ist es vor allem erforderlich, den Wissenschaftler als Beobachter der empirischen Phänomene so gut wie möglich auszuschalten, wofür idealtypisch die Experimentalmethode steht. Durch die systematische Variation einer unabhängigen Variable durch den Wissenschaftler unter gleichzeitiger Kontrolle störender Bedingungen soll ihr Kausaleffekt auf eine abhängige Variable isolierbar sein.

Auf den Grundlagen aus oben I. heißt das, dass ein Wissenschaftler zunächst Hypothesen formuliert und diese sodann mittels der Experimentalmethode insofern überprüft, als er deren Ergebnisse wiederum in Beobachtungssätze übersetzt.6 Im Idealfall gelingt es dem Wissenschaftler so, Isomorphie (griech. „Gleichgestaltigkeit“) zwischen Sprachsystem und Empirie herzustellen. Ein direkter Zugriff auf „die Empirie“ scheidet ohnehin aus – sie bleibt eine regulative Idee.

III. Der wissenschaftstheoretische Status der Physik realiter

Methodologische Probleme dieser idealisierten Vorstellung des physikalischen Forschungsprozesses werden offenbar, sobald man die Geschichte der Physik sowie die Experimentalmethode in die wissenschaftstheoretische Analyse einbezieht. Aus Platzgründen soll das hier nur stichwortartig anhand einiger relevanter Namen geschehen: Hinsichtlich der Wissenschaftsgeschichte sind dies Pierre Duhem (1861-1916), Alexandre Koyré (1892-1964), Ludwik Fleck (1896-1961) und Thomas Kuhn (1922-1996); hinsichtlich der Experimentalmethode Hugo Dingler (1881-1954) und Paul Lorenzen (1915-1994).

Die Kernthese der vier genannten Wissenschaftshistoriker (übrigens allesamt naturwissenschaftlich-mathematisch ausgebildet) lässt sich grob darin zusammenfassen, dass es unmöglich ist, die theoretischen Prämissen einer empirischen Forschungspraxis vollständig und abschließend anzugeben – vielmehr schwingen stets zahlreiche unausgesprochene und unreflektierte Annahmen mit, die eine wissenschaftliche Tatsache erst „zum Entstehen bringen“, wie es Fleck formuliert.7 Wie selbstverständlich verwenden wir heute (etwas inflationär) den Kuhn’schen Begriff des wissenschaftlichen Paradigmas, der diesen sozialkonstruktivistischen Aspekt des wissenschaftlichen Denkens auf den Begriff bringt.8

Der Physiker Dingler wiederum hielt es für erforderlich, die Physik mithilfe einer Philosophie des Experiments auf eine beständige Grundlage zu stellen. Ihn störte namentlich der Umstand, dass Physiker zur Überprüfung ihrer Theorien ihre Messinstrumente selbst schaffen und damit letztlich tautologisch arbeiten. Dingler forderte demgegenüber eine exakte Physik, die bestimmte basale Messhandlungen normativ festlegt und von dort aus physikalische Begriffsbildungen vorantreibt.9 Er schuf damit den theoretischen Ausgangspunkt dessen, was später von Lorenzen u. a. als Methodischer Konstruktivismus und Protophysik weiterentwickelt wurde.10

Beide genannten Perspektiven lassen sich beliebig kombinieren und analytisch vertiefen. Wesentlich ist die Einsicht, dass selbst die methodische Mutter aller empirischen Wissenschaften in erheblichem Maße von konstruktiven bzw. konventionalen Elementen geprägt ist. Ein naiver Empirismus ist daher selbst für die Physik keine ernstzunehmende Perspektive mehr.

IV.     Die Potenzierung des Problems in den Sozialwissenschaften und Informatik

Die genannten konstruktiven Elemente einer empirischen Forschungspraxis potenzieren sich mit zunehmender Komplexität der untersuchten Gegenstände. Ab Anfang der 1950er Jahre charakterisierte der Biologie Ludwig von Bertalanffy (1901-1972) physikalische Phänomene als Phänomene unorganisierter Komplexität im Verhältnis zu denjenigen der organisierten Komplexität der Biologie und der Sozialwissenschaften.11 Sobald Forschungsgegenstände in der Lage sind, als umweltoffene Systeme ihren Zustand durch Selbstbeobachtung an eine Umwelt anpassen und jederzeit ein „Fließgleichgewicht“ herstellen zu können, kommt die elementaristische Kausalanalyse der klassischen Physik aufgrund der Dynamik des Geschehens zunehmend unter Druck. Der Grundstein für die moderne System- und Komplexitätsforschung war gelegt.12

Am Anfang dieser Entwicklung bestand eine große Euphorie hinsichtlich der Möglichkeiten, die der Computer bei der Analyse der komplexen Phänomene bieten kann. Es kam zu einem ersten Boom von sozialwissenschaftlichen Forschungsprogrammen, die die elektronische Datenverarbeitung in den Mittelpunkt ihres methodischen Vorgehens stellten. Beispielhaft zu nennen ist die Carnegie-School der 1950er und 60er Jahre mit ihren entscheidungstheoretischen Modellen: Schon damals war von Systemtheorie, künstlicher Intelligenz und einer weitgehenden Formalisierung von (organisationalen) Entscheidungen die Rede.13 Parallel dazu kam die Frage auf, ob es einer neuen akademischen Disziplin bedarf, die unabhängig vom semantischen Gehalt der computertechnisch verarbeiteten Informationen mit den diffizilen Fragen um die elektronische Informationsverarbeitung betraut werden könne und wenn ja, wie sie heißen solle. Der Bedarf an entsprechenden Experten wuchs so schnell, dass Fakten geschaffen wurden, bevor die Fragen abschließend diskutiert waren: Es kam zu Gründungen von Studiengängen und Instituten, die in Deutschland nach dem Kunstwort „Informatik“ benannt wurden, aber letztlich mit „Computer Science“ amerikanischer Provenienz übereinstimmen sollten und daher eng an Mathematik und Ingenieurswissenschaften angelehnt wurden.14 Informatiker entwickeln demnach in erster Linie Technologien, deren angemessene Anwendung wiederum den jeweiligen Anwendern obliegt. Und diese Anwender gab es zügig und zahlreich. Mit zunehmendem Erfolg des Computers in der Sozialforschung schälten sich jedoch auch die inhärenten Probleme einer datengetriebenen Sozialforschung heraus, die – je nach Sichtweise – entweder durch neue, bessere Technologien gelöst werden können oder aus methodologischen Erwägungen für unlösbar erklärt werden.15 Eine Diskussion, die bis heute anhält.

V. Die Grundlagen der empirischen Wissenschaften und die rechtliche Entscheidung

All diese Grundlagenfragen interessiert die Rechtswissenschaft in ihrer nicht reflexiven Form (d. h. in ihrer rechtsdogmatischen Variante, vgl. dazu meinen Beitrag auf diesem Blog) nur insoweit, als es Umweltbedingungen ihres Wirkens sind. Als praxisbezogene Wissenschaft fokussiert sie die juristische Entscheidung, die ganz selbstverständlich und unhinterfragt einen juristischen (d. h. wertenden (!)) Beobachterstandpunkt einnimmt. Die entscheidende Frage an diesem Befund ist, ob sich daran etwas geändert hat, weil Rechtsinformatik nun Legal Tech heißt oder Computer noch besser rechnen können als einige Jahre zuvor. Ich behaupte: nein. Das grundlegende Problem der Beobachterabhängigkeit der Operationalisierung, Messung, Codierung oder wie auch immer man die Überführung eines Phänomens in eine formale Form nennen mag, behält weiterhin Gültigkeit. Das grundlegende Problem der schwierigen Kontrollierbarkeit des Subsumtionsvorgangs besteht fortan – es bleibt ein irgendwie kreativer Prozess. Hinzu kommt, dass die Informatisierung des Rechts quer zur Sein-Sollen-Dichotomie liegt: Es lassen sich sowohl Normen als auch Tatsachen formalisieren; die zentrale juristische Frage bleibt jedoch, welche selektierten (!) Tatsachen einen durch Auslegung (Hermeneutik!) präzisierten Tatbestand erfüllen und welche nicht.

Dass die Digitaltechnologie als Phänomen der Gesellschaft auch das Recht beeinflusst, ist trivial. Dass sich dadurch auch gewisse juristische Praktiken im Umgang mit Fakten ändern, ebenfalls. Das „Proprium der Rechtswissenschaft“, wie Klaus F. Röhl (*1938) es formuliert, „bleibt jedoch die abschließende Wertung. Das übersehen zwar auch diejenigen nicht, die Rechtswissenschaft als angewandte Sozialwissenschaft deklarieren wollen. Doch sie wecken falsche Hoffnungen.“16 Dem möchte ich auch im Jahr 2021 nichts hinzufügen.

  1. Kirchmanns juristische Karriere litt erheblich unter dem Vortrag und endete schließlich in einer dauerhaften Beurlaubung ab 1867, vgl. Holz, Art. Kirchmann, Julius von, in: Neue Deutsche Biographie 11 (1977), 654 [Online-Version]
  2. Kirchmann, Die Werthlosigkeit der Jurisprudenz als Wissenschaft. Ein Vortrag, gehalten in der juristischen Gesellschaft zu Berlin, Berlin 1848, 19 f.
  3. Mit Sprache ist hier in abstraktester Weise ein Zeichensystem mit Bedeutung gemeint; nicht notwendigerweise die natürliche Sprache.
  4. Sog. gödelsche Unvollständigkeitssätze, vgl. zur Einführung Stegmüller, Unvollständigkeit und Unentscheidbarkeit: Die metamathematischen Resultate von Gödel, Church, Kleene, Rosser und ihre erkenntnistheoretosche Bedeutung, 3. Aufl., Wien; New York 1973.
  5. Kirchmann, Die Werthlosigkeit der Jurisprudenz als Wissenschaft, 23.
  6. Sog. Hempel-Oppenheim-Schema nach Hempel/Oppenheim, Studies in the Logic of Explanation, Philosophy of Science 15 (1948), 135. DOI: 10.1086/286983.
  7. Vgl. Fleck, Entstehung und Entwicklung einer wissenschaftlichen Tatsache: Einführung in die Lehre vom Denkstil und Denkkollektiv, 9. Aufl., Frankfurt am Main 2012 [1935]. Zu Duhem und Koyré vgl. in deutscher Übersetzung: Duhem, Ziel und Struktur der physikalischen Theorien, Hamburg 1998 [1906]; Koyré, Von der geschlossenen Welt zum unendlichen Universum, 3. Aufl., Frankfurt am Main 2017 [1957].
  8. Kuhn, Die Struktur wissenschaftlicher Revolutionen, 2. Aufl., Frankfurt am Main 2011 [1962].
  9. Dingler, Das Experiment: Sein Wesen und seine Geschichte, Münster 2014 [1928], 71 ff.
  10. Vgl. zur Übersicht: Kambartel/Stekeler-Weithofer, Art. Erlanger Schule, in: Mittelstraß (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie. Bd. 2: C–F, 2. Aufl., Stuttgart 2005, 390; Janich, Art. Protophysik, in: Mittelstraß (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie. Bd. 6: O–Ra, 2. Aufl., Stuttgart 2016, 474.
  11. Bertalanffy, General Systems Theory, General Systems Yearbook 1 (1956), 1, 2; Siehe auch Bertalanffy, The Theory of Open Systems in Physics and Biology, Science 111 (1950), 23. DOI: 10.1126/science.111.2872.23.
  12. Vgl. etwa die Beiträge im General Systems Yearbook (Fn. 11), das 1956 erstmals u. a. von Bertalanffy herausgegeben wurde.
  13. Vgl. ausgewählte Beiträge in deutscher Übersetzung in Witte/Thimm (Hrsg.), Entscheidungstheorie. Texte und Analysen, Wiesbaden 1977.
  14. Coy, Was ist Informatik? Zur Entstehung des Faches an den deutschen Universitäten, in: Hellige (Hrsg.), Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, Berlin 2004, 473, 479 ff. et passim.
  15. Beispiele aus der umfangreichen Literatur neben der bereits oben Genannten: Frey, Die Mathematisierung unserer Welt, Stuttgart 1967; Kriz, Methodenkritik empirischer Sozialforschung: Eine Problemanalyse sozialwissenschaftlicher Forschungspraxis, Stuttgart 1981; Mainzer, Wie berechenbar ist unsere Welt? Herausforderungen für Mathematik, Informatik und Philosophie im Zeitalter der Digitalisierung, Wiesbaden 2018.
  16. Röhl/Röhl, Allgemeine Rechtslehre. Ein Lehrbuch, 3. Aufl., Köln 2008, 162.
Distributed under the Creative Commons License CC BY 4.0
Zitiervorschlag
Walter, Über den wissenschaftstheoretischen Status von Rechtswissenschaft, Physik und Informatik – Replik auf D. Berisha, RECHTS|EMPIRIE, 13.05.2021, DOI: 10.25527/re.2021.06