Recherche – Detailansicht

Ausgabe:

November/2009

Spalte:

1233–1234

Kategorie:

Philosophie, Religionsphilosophie

Autor/Hrsg.:

Gregersen, Niels Henrik [Ed.]

Titel/Untertitel:

From Complexity to Life. On the Emergence of Life and Meaning.

Verlag:

Oxford: Oxford University Press 2003. XII, 243 S. 8° m. Abb. Geb. £ 13,00. ISBN 978-0-19-515070-4.

Rezensent:

Hans-Dieter Mutschler

In der traditionellen Metaphysik der Natur wird die Zunahme von Komplexität in der Evolution oft als die Wirkung eines schöpferisch wirkenden Gottes gesehen, der geschichtlich Neues, Unvorhersehbares, Komplexeres und Geistdurchdrungeneres hervorbringt. So bei Hegel, Peirce, Teilhard oder Whitehead. In der Physik gibt es den Entropiesatz, der im Gegenteil beinhaltet, dass komplexe Systeme eine Tendenz zum Zerfall haben. Wenn es einen solchen Satz gibt, ist es naheliegend zu vermuten, dass es vielleicht auch ein physikalisches Gesetz gibt, das die Tendenz zur Komplexifikation erklärt, die wir besonders im Bereich des Lebendigen wahrnehmen. In den Beiträgen des zu besprechenden Bandes, der auf Vorträgen eines Symposions zur Komplexitätstheorie in Santa Fe 1999 basiert, das von der Templeton Foundation finanziert wurde, ziehen die meisten Autoren eine solche Strategie einer Ersetzung traditioneller Metaphysik durch empirische Wissenschaft vor. Dies hat zu­mindest drei gravierende Probleme zur Folge:

Problem 1: Naturgesetze reduzieren ex definitione Komplexität. Sie erzeugen eine algorithmische Kompression auf den von ihnen beschriebenen Daten. Komplexität und Neuheit ist dann nur noch Schein, wie bei der Mandelbrotmenge, die uns beim Hinabzoomen immer neu und überraschend erscheint, wo sie doch in Wahrheit nur denselben simplen Algorithmus wiederholt. Kann ein Gesetz Neuheit und Emergenz beschreiben oder nicht vielmehr nur das, was es logisch impliziert?

Problem 2: Ein solches Naturgesetz der Komplexifikation müss­te all die verschiedenen qualitativen Stufen des Komplexen erklären, vom Molekül über Lebewesen bis zu sozialen Gebilden, Kunstwerken oder wissenschaftlichen Theorien. Ist es wahrscheinlich, dass all dies demselben Muster folgt? Erklärt z. B. der Entropiesatz moralischen Zerfall, künstlerische Dekadenz oder gar die Sünde?
Problem 3: Würden wir dieses neue Naturgesetz als Brücke zu Gott anerkennen? Niemand sucht theologischen Sinn hinter dem Energieerhaltungssatz, dem Entropiesatz oder der Wellenfunktion der Quantentheorie. Naturgesetze spannen keine Sinnhorizonte auf.

Problem 1 wird in diesem Buch nirgends behandelt. Viele Autoren sprechen von ›Neuheit‹, ›Emergenz‹, ›Kreativität‹ usw. Aber all das gibt es nicht, wie Peirce deutlich gemacht hat, wenn ein Prozess durch Gesetze bestimmt wird. Z. B. lassen sich alle wesentlichen Eigenschaften selbstorganisierender Systeme in der Physik vorhersagen. Nichts Neues.

Autoren wie Stuart Kauffman (47 ff.), Ian Stewart (114 ff.) oder Werner Loewenstein (151 ff.) suchen auf je verschiedene Weise ein solches Komplexitätsgesetz und finden es in thermodynamischen Arbeitszyklen, in einer verborgenen Wirkung der Gravitationskraft oder in Informationsflüssen. Aber in all diesen Fällen entsteht Problem­ 2: Wie soll z. B. ein am Faktischen abgelesenes Komplexitätsgesetz Normativität abdecken, die gesellschaftliche Prozesse reguliert? Welchen Ort haben in einem solchen Schema komplexe Empfindungen? Wie soll auch nur das Verhalten von Tieren hin­reichend beschrieben werden durch bloß aufs Materielle bezogene Parameter? Auch der Informationsbegriff hat seine Tücken: Er hat einen anderen Inhalt in der Physik, Informatik oder Biologie. Einmal ist er rein syntaktisch, dann auch semantisch oder pragmatisch bestimmt. Information in der Physik als Negentropie scheint überhaupt keine intrinsische Qualität der Natur zu bezeichnen, sondern nur ein auf Subjekte bezogenes Wissen. Die Unterscheidung solcher Ebenen (Problem 2) findet man nicht in diesem Buch. Zudem ist in den Beiträgen von Gregory Chaitin (19 ff.) und Charles Bennett (34 ff.) zur Quantifizierung von Komplexität eigentlich nur von physikalischen Systemen die Rede. Aber wie sollen wir z. B. die Komplexität eines Tieres oder einer Rechtsordnung messen?

Autoren wie Paul Davies sind deshalb etwas vorsichtiger: Davies glaubt zwar an eine nomologisch zu beschreibende Tendenz in der Natur zu höherer Komplexität, aber er glaubt nicht, dass diese Tendenz das Spezifische der jeweiligen Stufen enthält (Problem 2). Zu­dem vermutet er, dass diese Tendenz teleologisch verstanden werden müsste, was allem widerspräche, was wir in der Physik unter ›Gesetz‹ verstehen (Problem 3).

Ein Intelligent-Design-Vertreter, William Dembski (93 ff.), liefert die stärksten Einwände gegen dieses vorgebliche Komplexitätsgesetz. Ansonsten ist man von dieser Richtung her gewöhnt, auf Erklärungslücken in der Biologie aufmerksam gemacht zu werden, die dann willkürlich mit Finalursachen zugestopft werden, aber Dembski argumentiert anders. Er weist nach, dass die Technik der evolutionären Algorithmen unfähig ist, Komplexität zu erklären, weil sie sie insgeheim voraussetzt, da sie nur funktioniert, wenn man das Ziel bereits kennt und die Fitnessfunktion auf sie hinordnet. Denselben Gedanken wendet er auch auf den Darwinismus an. Komplexität sei nur durch ein geistiges Moment er­klärbar.

Ohnehin ist es höchst erstaunlich, dass viele Autoren in diesem Band völlig materialistisch argumentieren, dann aber unvermit­telt Gott einführen. Dies ist insbesondere der Fall bei Arthur Peacocke (206 ff.). Er macht Gebrauch vom Konzept der »downward-causation« nach Campbell und der Differenz von »struc­tur­ing and triggering causes« nach Dretske, bestimmter Randbedingungen nach Küppers, der Behandlung des Leib-Seele-Problems nach Koch und Churchland usw., alles Materialisten, die mit solchen Theoremen den Mate­rialismus stützen wollen. Am Ende interpretiert er dann alles ›christlich‹. Aber wozu dieser Überbau, wenn die Maschinerie auch ohne Gott funktioniert? Weshalb bekennt sich Peacocke zum »emergentist monism«, wo er doch zu­gleich die Transzendenz Gottes anerkennt? Ein Christ kann kein Monist sein.

Auch andere Autoren, wie Werner Loewenstein, entwickeln ein rein materialistisches Modell verschiedener Komplexitätsstufen und versichern am Ende, all das sei von Gott bewirkt. Aber wenn diese Stufen rein materialistisch erklärt werden können, dann wäre man verpflichtet, Gott auf Grund des Occamschen Rasiermessers wegzulassen. Man hat ja schon alles erklärt. Der Theologe Niels Gregersen (206 ff.) scheint einer der wenigen, der Problem 3 gesehen hat, jedenfalls versucht er, die Existenz Gottes metaphysisch plausibel zu machen, bevor er die Komplexitätszunahme theologisch deutet. In diesem Fall gibt es einen Grund, die rein materielle Dynamik auf Gott hin zu interpretieren. Paul Davies wirft in einem einleitenden Kapitel Metaphysikern wie Bergson, Teilhard oder Whitehead »wishful thinking« vor. Man hätte besser einen solchen Metaphysiker eingeladen. Er hätte die Gegenrechnung aufgemacht. Vielleicht ist es »wishful thinking«, der empirischen Wissenschaft Lasten aufzubürden, die sie nicht tragen kann.