Evolution – Theorie, Tatsache, Glaube und Wahrscheinlichkeit

Kaum eine wissenschaftliche Theorie hat das Selbstverständnis des modernen Menschen so geprägt wie die Evolutionstheorie, die auf Charles Darwin zurück geht. Als Tatsache kann gelten, das die Beobachtungen von Veränderung der Arten gesichert sind (Mikroevolution). Man geht von Mutation und natürlicher Selektion aus – und das erscheint auch einleuchtend. Viele meinen, damit auch den Beleg zu haben, dass alles Leben mehr oder minder zufällig entstanden (chemische Evolution) ist und sich aus der Urzelle zu dem bekannten Formenreichtum entwickelte (Deszendenztheorie, Makroevolution). Die Unterscheidung der Aussagen wird aber häufig nicht mehr gemacht. Man meint, dass DIE Evolutionstheorie eine der bestbelegten wissenschaftlichen Theorien sei. Wer es wagt, hier Zweifel zu äußern oder auch nur leise Rückfragen stellt, gilt schnell als Spinner oder religiöser Fundamentalist … eigentlich ein Häretiker, der das moderne Glaubensbekenntnis in Frage stellt.

Tatsache ist ferner, dass es DIE Evolutionstheorie nicht gibt, sondern viele Teiltheorien, die jeweils unterschiedlich gut belegt sind. Für das Selbstverständnis ist vor allem die Makroevolution, genauer die Deszendenztheorie, dem Kern der Evolutionstheorien, die auf Charles Darwin zurück gehen. Hier kann man allerdings bezweifeln, ob es überhaupt eine wissenschaftliche Theorie ist, geschweige als Tatsache zu verstehen sei.

Warum Makrovolution?

An der Mikroevolution gibt es wenig Zweifel. Viele Beobachtungen belegen die Wirksamkeit der Mechanismen. In neuerer Zeit geht man allerdings auch stark von Änderungen der Genexpression aus: Durch veränderte Umweltbedingungen werden zuweilen einige Gene und Merkmale aktiviert, andere unterdrückt. Es wäre also in diesen ebenfalls gut belegte Fällen, die zur auffälligen Veränderung des Phänotyps führen, weniger eine innovative Mutation, sondern eine Aktivierung vorgegebener Möglichkeiten. Dies erklärt zwar nicht die auffällige Veränderung des Genoms, sollte aber zum Verständnis der Beobachtungen stets als Möglichkeit berücksichtigt werden.

Die Gründe, warum Darwin und seine Nachfolger zur Ansicht kam, dass das Prinzip von Mutation und natürlicher Selektion eine globale Erklärung der Entstehung aller Arten sei, sind folgende:

  1. Beobachtungen der Variablität der Arten.
  2. Der Fossilienbericht liefert eine Abfolge, die eine Entwicklung nahe legt.
  3. Die genetischen und morphologischen Ähnlichkeiten lassen auf eine Verwandtschaftsbeziehung schließen.

Das alles hört sich doch sehr plausibel an und stützt sich auf wissenschaftliche Beobachtungen.

Naturalismus – methodisch und ontologisch

Der methodische Naturalismus ist nicht nur ein Grundpfeiler der Wissenschaften, sondern hat sich als außerordentlich erfolgreich erwiesen. Er besagt, dass Ursachen für beobachtbare Ereignisse nur aus beobachtbaren Ursachen erklärt werden sollen. Also: Wir gehen von der Arbeitshypothese aus, dass keine übernatürlichen Ursachen wirksam sind. Die Welt als eine Art Mechanik. Mit diesem Ansatz konnten unglaublich viele Erkenntnisse gewonnen werden. Man gab sich nicht mehr mit Erklärungen zufrieden, die auf das Übernatürliche verwiesen.

Der ontologische Naturalismus geht einen entscheidenden Schritt weiter. Es geht dann nicht mehr nur um einen methodischen Ansatz, Wissenschaft zu betreiben, sondern um die Überzeugung, dass alles Sein rein natürlich ist und auch nichts Übernatürliches existiert. Dies aber geht über die Wissenschaft hinaus, denn wir können die Nichtexistenz übernatürlicher Ursachen nicht belegen. Brisant wird das Thema dann, wenn es um die Grenzbereiche wissenschaftlicher Erkenntnis geht. Also, wenn sich wissenschaftliche Fragestellungen nicht mehr zuverlässig beantworten lassen.

Die Herkunft des Lebens und der Arten ist hier gerade der Punkt. Wenn man dieses Geheimnis hinreichend naturalistisch lüftet, ist das nicht nur ein wissenschaftlicher Erfolg, sondern ein Argument für den ontologischen Naturalismus.

Zufall vs. Intention

Ereignisse benötigen Ursachen. Diese lassen sich in drei Prinzpien untergliedern:

Intention: Ein handlungsmächtiger Akteur bewirkt das Ereignis aus Entschluss.

Zufall: Ohne Intention oder Plan geschehen Ereignisse

Konsequenzen: Insbesondere die Naturgesetze bewirken notwendige Folgeereignisse, zu denen keine Freiheitsgrade bestehen. Bestehen Freiheitsgrade, werden entweder Zufall oder Intention bestimmend.

Die Konsequenzen, die Natur und deren Gesetze, die Logik, die Zeit … alles das macht nicht die innerste Ursache der Existenz aus, denn auch die Gesetze und natürliche Gegebenheiten sind ja durch irgend etwas entstanden, und das war dann Intention oder Zufall. Im Konkreten werden sich unterschiedliche Komponenten finden, die zu den Ereignissen führen. Unter gegebenen Bedingungen sind es dann vor allem die Auslöser, die die Ereignisse treiben. Naturgesetze sind dann eher wie das Knochengerüst, dass es den Muskeln, also den treibenden Kräften Intention und Zufall erst ermöglicht, ihre Kraft zu entfalten.

Aber auch der Zufall ist keineswegs selbstverständlich und unbestimmt. Bis zur Quantenmechanik, genauer der Kopenhagener Deutung, gingen die Naturalisten von einer zwingend mechanischen Abfolge aus, die nur so komplex sei, dass sie wie Zufall wirke. In Wirklichkeit gäbe es keine echten Freiheitsgrade, es scheine nur so. Ein Laplacescher Dämon konnte präzise die Zukunft und jedes Ereignis bestimmen. Mittlerweile glaubt man aber eher, dass es echten Zufall sehr wohl gibt, also Ereignisse, die nicht vorhersehbar sind, selbst wenn man allwissend wäre.

Aber dennoch bleibt unklar, woher denn der Zufall stammt. Wurde auch dieser kunstvoll geschaffen, denn es erfordert die Komplexität der Quantenmechanik, um überhaupt echten Zufall denkbar werden zu lassen? Wie schwierig das ist kann man bei der Programmierung von Zufallsgeneratoren erkennen. Auch das Prinzip des Zufalls benötigt eine Ursache.

Im Besondern spricht man bei der Evolution um Zufall und Notwendigkeit. Die Notwendigkeit, also die Gesetze, sind lediglich Mittel zum Zweck. Die treibende Kraft der Evolutionstheorien ist der Zufall. Aber auch den Zufall kann man mit mathematischen Methoden einhegen. Man spricht hier von Statistik, Stochastik, Kombinatorik und sehr Großen oder kleinen Zahlen.

Das Problem mit der Rationalität und dem Abschätzen ist, dass die Ratio bei sehr großen Zahlen selbst bei denkenden Menschen versagt. Wenn ein halbwegs überschaubarer Zahlenraum überschritten wird, neigt jedes Wesen zum ‚gefühlsmäßigen‘ Abschätzen. Beim Turmfalken ist es die Zahl Sieben. Bei vielen Menschen ist es die Million, die den Zauber des Wortes Millionär ausmacht. Staatshaushalte und Verschuldung rechnet man in Hunderten von Milliarden, gar Billionen. Aber da steigen bereits viele Menschen aus und haben keine Vorstellungen mehr, außer ’sehr viel‘. Entsprechend bei der Beschreibung des Universums, von Galaxien und Lichtjahren. Man erkennt die Grenzen in der Vorstellung nicht mehr.

Wählt man dagegen die Exponentialschreibweise der Zahlen, so erscheint die Größe des gesamten Universums plötzlich überschaubar. Man kann die Menge der Atommassen im gesamten Universum – vergleichbar mit dem Wasserstoff-Atom – recht plausibel mit 1E82 abschätzen: Eine 1 mit 82 Nullen dahinter. Und das ist bereits einschließlich der dunklen Materie und der dunklen Energie. Mehr ist astronomisch nicht drin. 1E88 wären dann bereits eine Million nicht nur von Galaxien, sondern von gesamten Universen wie dem unseren. Der Witz ist nun, dass wir von keinem anderen Universum wissen, aber manche Spekulation über ‚Multiversen‘ geht so weit, dass sie weit eher daran glauben, und dass ein wie auch immer gearteter Zufall diese bewirkt hätten, als einen intentional wirkenden Schöpfer.

Der Zufall kann je nach Modell errechnet werden. Wenn man die Größe oder den Kehrwert betrachtet, mag darum 1E99 als Grenze der Unmöglichkeit für den Zufall gelten. Zu glauben, dass ein Ereignis eintritt, dessen Wahrscheinlichkeit kleiner 1E-99 eintritt, ist äußerst irrational.

Zurück zur Deszendenztheorie. Es klingt zunächst plausibel, wenn sie den Zufall als treibende Kraft postuliert. Die ‚Mechanik‘ der Evolution soll schließlich über die schrittweise Veränderung die statistische Unmöglichkeit aushebeln.

Wo ist der Haken?

Tatsächlich konnte man bislang nicht hinreichend herleiten, wie denn das Leben überhaupt, komplexe Organe und Funktionen innovativ durch die beschriebenen Mechanismen entstehen konnten. Manche versuchen hier einen Funktionswandel als Brückenfunktionen für komplexe Funktionen wie den Bakterienmotor zu erklären. Dies ist zwar nicht auszuschießen, aber als hinreichender Beweis kann eine abenteuerliche Spekulation nicht gelten, zumal auch die jeweiligen Teilschritte alles andere als plausibel erklärt werden können. Die reine denkbare Möglichkeit der Entstehung, wenngleich auch extrem unwahrscheinlich, wird durch die Beobachtung ihrer Existenz nicht schlüssig. Empirie zeigt lediglich die Existenz, nicht aber die Entstehung – sofern diese nicht nachvollzogen werden kann. Fakt ist darum: Wir wissen nicht, wie diese Funktionen entstanden sind!

So mag es auch Verwandschaftsbeziehungen zwischen den Arten geben, aber wir können nicht als hinreichend belegt behaupten, dass der Zufall zu dieser Differenzierung führte. Im Gegenteil: Wir werden uns mit der Frage beschäftigen, ob ein postulierter Zufall nicht nur wiederlegbar ist, sondern auch widerlegt wurde.

Ebensowenig wissen wir, wie das Leben überhaupt entstanden sein könnte. Unzählige Versuche und Thesen zur chemischen Evolution lieferten erstaunlich wenig belastbare Theorien. Meldungen der Medien suggerieren, es könne auf einem Planeten oder Mond auch flüssiges Wasser vorgelegen haben, und darum eine Entstehung von Leben im All möglich, gar zu erwarten sei. Das ist eher irreführend. Es gibt keine wissenschaftlich belastbare Theorie, wie das Leben auf der Erde oder sonstwo entstanden sein könnte.

Die Spekulationen und Vermutungen sind darum alles andere als ein gesicherte Fakten oder robuste Belege. Auch ist das Argument, dass diese Erklärung die beste naturalistische These sei, nicht hinreichend, um diese vorbehaltlos für richtig zu halten. Stellen wir uns Aliens vor, die alle paar Jahrmillionen vorbei kamen, um hier ihr Genlabor neue Produkte entwickeln zu lassen. Nicht sehr plausibel, aber denkbar. Wenn wir es nicht besser wissen, können wir schlicht von einer unbekannte Ursache ausgehen. Aber nun sind wir eher in der Welt des Abschätzens und Fürwahrhaltens … manche nennen es Glauben.

Kurz: Die Deszendenztheorie ist bei weitem nicht robust belegt.

Ockhams Rasiermesser – Parsimonitätsprinzip

Dieses besagt, dass alle unnötigen Vervielfachungen bzw. unnötige Annahmen zu vermeiden sind. Unter einer Wahl zwischen zwei Alternativen ist der der Vorzug zu gewähren, die mit weniger unsicheren Annahmen auskommt. Das Prinzip ist einleuchtend, doch findet es in der Anwendung mehrere Probleme: Wenn ein Mensch Millionär ist, dann kann es sein, dass er diese Million durch Erbschaft, Arbeit, Spekulation oder Lottogewinn erworben hat. Wenn wir nicht mehr über diesen Menschen wüssten, würden wir die unwahrscheinlicheren Annahmen ausschließen. Wir wüssten aber, dass es sehr wohl Fälle gibt, bei denen das eine oder andere zutrifft. Übertragen heißt das, dass Ockhams Rasiermesser keine zuverlässigen Ergebnisse liefern kann.

Ferner ist es oft schwierig abzuschätzen, was denn die überflüssige oder unwahrscheinlichere Annahme ist. Wenn das Kriterium der Unterscheidung selbst wieder fraglich wird, verliert Ockhams Rasiermesser seine Schärfe.

Wenn die Deszendenztheorie nun als die beste (naturalistische) Erklärung gilt, weil man eben keine andere plausible Erklärung für die Beobachtungen hat, dann wird sie darum nicht zwingend richtig. Ebenso bleibt unklar, ob diese Deszendenztheorie nur plausibel erscheint oder ob sie tatsächlich plausibel ist.

Ist die Deszendenztheorie eine wissenschaftliche Theorie?

Laut Popper ist das Kriterium für eine wissenschaftliche Theorie dessen Falsifizierbarkeit. Es muss eine Möglichkeit geben zu zeigen, dass die Theorie auch falsch sein könnte. Oder kann man mit beliebigen Hilfsannahmen die Theorie gegen jedes Argument dennoch verteidigen? Wann könnte die Deszendenztheorie als falsifiziert gelten?

Wenn man andere Ursachen fände, die die Entstehung der Arten besser erklären, könnte die Theorie als falsifiziert gelten. Aber wie könnte das aussehen? Stellen wir uns vor, es wären tatsächlich besagte Aliens gewesen, die eben nicht mehr vorbei kommen. Was könnte dann als Beleg dafür gelten? Stellen wir uns vor, das Leben wäre das Werk eines göttlichen Schöpfers, der wiederholt schöpfend die scheinbare Evolution angestoßen hätte: Wie könnte man dies belegen, wenn der Naturalismus eine spirituelle Ursache methodisch ausschließt?

Nähmen wir an, es gäbe Funde eines Kaninchen-Fossils im Kambrium: Würde man darum die Evolution als widerlegt ansehen? Wohl kaum, man würde nach Erklärungen suchen, die diesen Fund mit der Theorie harmonisiert – so, wie man es stets mit unerwarteten Ergebnissen machte. Außerdem wäre bei einer alternativen Erklärung – der hier genannten Alien-Hypothese – ebenso keine Kaninchen im Kambrium zu erwarten.

Zwei Ansätze könnten die Falsifizierbarkeit der Theorie bestätigen.

Nicht-Reduzierbare Komplexität

Im Zuge des Intelligent Design Ansatzes wurde die These formuliert, dass einige Mechanismen aus derartig vielen komplexen Elementen besteht, dass diese sich nicht plausibel durch die Theorie erklären lassen. Die Proponenten der Deszendenztheorie taten sich mit einer Argumentation gegen dieses Argument schwer. Sie hatten Denkvarianten und Spekulationen ins Feld geführt, wie sich die komplexen Funkionen dennoch evolutiv gebildet haben könnten. Vielmehr sei dieser Ansatz nicht wissenschaftlich, da er eine unbekannte Ursache insinuiere, die einen spirituellen Designer nahe legt.

Folgt man der Argumentation der Proponenten der Deszendenztheorie und disqualifiziert man diesen Ansatz der nicht-reduzierbaren Komplexität grundsätzlich, stellt sich aber die Frage, wie man ansonsten die Falsifizierbarkeit der Deszendenztheorie behaupten kann? Wenn die Deszendenztheorie nicht falsifizierbar ist, kann man auch deren Wissenschaftlichkeit bezweifeln wie die Behauptung vom gehorsamen Dackel: Wenn man ihm befiehlt ‚Komm her oder bleib weg!‘ dann folgt er zwangsläufig dem Kommando.

Eine mathematische Widerlegung?

Herbert Klupp, ein kürzlich verstorbener Mathematiker und guter Freund, hinterließ der Nachwelt sein Buch Mehr als Materie und Zufall
Warum die DNA den Darwinismus widerlegt
. Es ist eher an ein interessiertes breites Publikum gerichtet und in leicht lesbarer Form geschrieben, als ein rein wissenschaftliches Fachbuch. Seine These ist: Die verfügbaren und anerkannten Fakten führen zu einer Widerlegung der Deszendenztheorie, die er als Darwinismus vereinfacht bezeichnete. Eine Analyse des notwendig erforderlichen Codes schließt eine schrittweise zufällige Entstehung aus. Darin geht er nicht von einzelnen Mechanismen oder speziellen Beobachtungen aus, die entsprechende Annahmen erfordern.

Auch hier stellt sich zuerst die Frage: Könnte dieser Ansatz tatsächlich die Deszendenztheorie widerlegen? Wenn dies potentiell sein könnte, dann handelt es sich bei der Deszendenztheorie zumindest um eine falsifizierbare Theorie. Falls dies auch hiermit grundsätzlich nicht möglich sei, und auch kein anderes Kriterium der Falsifizierbarkeit nennt, bleibt die Deszendenztheorie nicht falsifizierbar und damit erkenntnistheoretisch und wissenschaftlich fragwürdig..

Klupp verweist auf die Bedeutung des genetischen Codes. Er west enorme Ähnlichkeiten zu menschlichen Sprachen und zur Computerprogrammierung auf. Er besteht aus vier unterschiedlichen Zeichen (G-A-C-T) , Computer nur aus 2 Zeichen (0 | 1). Menschliche Alphabete bestehen zwar aus mehr Buchstaben, aber man kann jedes dieser Texte in eine andere Sprache übersetzen.

Alle sprachen haben 3 Ebenen – auf denen sie funktional oder dysfunktional sein können:

  • Syntax: Beliebige Buchstabenkombinationen liefern bedeutungslosen Kauderwelsch. Auf eben der DNA wären das Codefragmente, die weder Proteine codieren können, noch Steuerungsinformationen enthalten.
  • Semantik: Texte müssen auch eine Funktion haben. Ein generierter Text aus grammatikalisch korrekten Sätzen kann aber dennoch bedeutungslos und dysfunktional sein. Z. B. führt es zu Proteinen, die aber nicht benötigt werden und mitunter schädlich sind.
  • Sinn: Auch wenn Proteine gezielt synthetisiert werden, so ist der Sinn dann in Frage gestellt, wenn z.B. ein Virus die Funktionen der Zelle so verändert, dass sie nicht mehr den Zielen das Wirtsorganismus dienen.

Bedeutsame, d.h. funktionale DNA Sequenzen, müssen all diesen all diesen Ebenen dienen. Die anzahl der möglichen Kombiationen ist leicht bestimmt. N hoch M – Die Anzahl der Zeichen eines Textes (N) potenziert mit der Anzahl der möglichen Zeichen des Alphabets (M). Die einfachsten bekannten selbstständig reproduktionsfähigen Organismen weisen in ihrer DNA über eine Million Basenpaare auf. Und man kann nicht zuverlässig behaupten, dass es auch mit wesentlich weniger geht.

Weder die chemische Evolution noch in der synthetischen Theorie geht man von der spontanen Bildung derartige Codegrößen aus. Denn selbst wenn man von einer Vielzahl funktionaler Varianten ausgeht kann man die Wahrscheinlichkeit einer spontanen funktionalen Codebildung von sehr viel kleiner als 1E-10000. Vielmehr glaubt man, das sch diese Komplexität schrittweise entwickelte. Aber auch hier müssen diese Modelle zumindest plausibel klingen und einfache Tests bestehen können. D.h. man muss überprüfen, wie große die Wahrscheinlichkeit einer schrittweisen Entwicklung denn sein könnte.

Klupp unterscheidet hier zwischen sinnvollen Texten, also jenen, die irgend eine Funktion haben, und wirrem Kauderwelsch. Dabei muss es keineswegs ein bestimmter Text sein, der sich ggf. zufällig bildet. Für eine heuristische Untersuchung wählt Klupp ein reduziertes Alphabet aus 32 Zeichen (2^5) aus, dass er Digitaldeutsch nennt. Das heißt, dass ein Zeichen zufällig gewählt wir, hat die Wahrscheinlicheit von 1 / 32. Am Satzanfang muss nun aber kein bestimmtes Zeichen stehen, im Wort reduzieren sich aber die möglichen Zeichen, um einen sinnvollen Text zu erzeugen. Im statistischen Mittel geht er von folgendem Vehältnis aus:

  • Alle möglichen Zeichen 32 = 2 ^ 5
  • Mittlere Häufigkeit für einen sinnvollen Text 8 = 2 ^ 3
  • Obergrenze für eine sinnvollen Text 16 = 2 ^ 4
  • Untergrenze für eine sinnvollen Text 4 = 2 ^ 2

D. h. die Wahrscheinlichkeit für eine sinnvolle Texterweiterung liegt in diesem Modell bei mittlerer Häufigkeit bei 8 / 32 = 0,25 für ein Zeichen. Je Textlänge potenziert sich die Wahrscheinlichkeit mit der Anzahl der Zeichen. Die Wahrscheinlichkeit für ein zufällig gebildetes sinnvolles Wort aus 5 Zeichen liegt dann bei 0,000976563. Wird der Text 10 Zeichen lang, so ist die Wahrscheinlichkeit bei 9,53674E-07 . Ein Abschnitt aus nur hundert Zeichen hat nur noch die Wahrscheinlichkeit von 6,22302E-61. Bei einem 200 Zeichentext sind wir schon bei 3,8726E-121. Klupp nennt diese Zahlen überastronomisch.

Selbst bei der äußerst optimistischen Annahme einer Obergrenze, dass jeder zweite Buchstabe zu einem sinnvollem Text führen kann, werden die Zahlen nicht wirklich plausibler: Bei Bei einem 200 Zeichentext sind wir bei 3,8726E-1216,22302E-61 .

Dawkins Weasel

Der bekannte Evolutionsbiologe Richard Dawkins hatte ein Programm entwickelt, dass zeigen soll, dass man in wenigen Zufallsiterationen einen beliebigen Text erzeugen kann. Er wählte den Satz aus Shakespeares Hamlet: „METHINKS IT IS LIKE A WEASEL“. 

Mit nur 100 Schritten und dem Parameter ‚Stickey‘ wäre der Satz zu erzeugen. Man reibt sich ungläubig die Augen. Wie soll das gehen? Der Trick hier ist, man wählt einfach die richtigen Buchstaben aus, die sich zufällig gebildet haben – lässt sie kleben (sticky) – und mutiert nur die falschen weiter. Offensichtlich ein Mogelpackung. Woher aber soll der Zufall wissen, welche die richtigen Buchstaben sind und welche nicht? Hier geht es also nicht um eine Zufallsvariation, sondern um eine intelligente Auswahl der richtigen Buchstaben. Dawkins zeigt damit nur, wie ein intelligenter Selektor einen scheinbaren Zufall für sich nutzen kann. Bezogen auf eine natürliche Selektion wäre das eine waschechte Mogelpackung:

Ohne Sticky passiert aber nicht viel, sondern das Ergebnis pendelt sich bei irgend einem Wert von  eins bis zwei korrekten Buchstaben ein, unabhängig davon, wie viele Mutationen man wählt.

Dawkins Weasel

So geht es also nicht. Erstaunlich nur, dass sich so viele Leute für diesen Ansatz begeistert zu reagieren, ohne die offensichtliche Mogelpackung sofort zu erkennen. Die Natur kann nur die funktionierenden Änderungen selektieren. Dass ist aber bei einzelnen Wortfragmenten nicht möglich. Es müssen schon wirksame Änderungen sein, die in der Regel eine gewisse Mindestlänge haben müssen, um wirksam selektiert zu werden.

Übertragbarkeit auf DNA?

Auch wenn R. Dawkins erstaunlicherweise ähnliche Vergleiche des DNA-Codes mit einer menschlichen Sprache anführt, wollen wir die Hypothese von H. Klupp anführen, dass die Beobachtungen mit Digitaldeutsch auf andere Sprachen, einschließlich Maschinensprachen und der DNA übertragbar sind. Offensichtlich sinkt die Wahrscheinlichkeit zu einem sinnvollen Text, wenn man einen kleineren Zeichenvorrat hat. Wenn man in Maschinensprache nur die binaren 1 und 0 als Zeichen rechnet, wäre die Übertragbarkeit fragwürdig. Tatsächlich arbeiten Prozessoren aber mindestens mit Byte (8 Bit). Dann hätten wir bereits einen Zeichenvorrat mit 256 Möglichkeiten. Die Wahrscheinlichkeit, hier ein richtiges (sinnvolles) Zeichen zu finden, dürfte dann erheblich geringer sein.

Für die DNA ist es ähnlich. Hier bildet ein Basenpaar ein 4 wertiges Zeichen. Allerdings arbeiten die System zumeist mit Tripletts, also eine Einheit aus 3 Basenpaaren. Dies haben dann jeweils 64 Möglichkeiten. Herbert Klupp hat demnach eher konservative Annahmen gemacht, die eine zufällige Bildung begünstigen. Auch in Bezug auf die DNA.

Damit kann man von der Gültigkeit der Kluppschen Hypothesen ausgehen:

  • Texte / Codefragmente einer beliebigen Sprache einschließlich der DNA mit der der Länge L ergeben schon bei relativ kleinen L so geringe Wahrscheinlichkeit, dass man der zufällige Entstehung ausschließen kann.
  • Sinnvolle Texte können aber durch eine intelligente Selektion aus einem Zufallsverfahren gebildet werden. Eine natürliche Selektion, die trennscharf aus denkbaren Varianten selektiert, ist für plausible Codelängen nicht nachvollziehbar .

Klupp schließt daraus, dass man den Zufall als treibende Kraft der Evolution ausschließen kann.

Fazit

Wer dieser Argumentation, bzw. die Herbert Klupps in seinem Buch, folgen kann, wird entweder trotzig glauben, dass es dennoch der Zufall war, der die Evolution antrieb, oder er wird sich ratlos fragen, wie denn sonst die Vielfalt des biologischen Lebens erklärbar. Manch einer wird im Sinne des Agnostikers schlicht sin Unwissen festhalten, aber dennoch bleibt dies nicht ohne Wirkung auf das Selbstverständnis. Manche mögen ihr Unwissen feststellen, aber sie glauben dann doch, dass es eben irgendwie aus Zufall entstanden sein muss, denn die Möglichkeit eines intelligenten Schöpfers schließen sie ohne Nachvollziehbarkeit aus. Ich hingegen denke, dass die Erforschung der Natur zu Staunen führt, dass eine intelligente Schöpfung nahe liegt.

Und das führt auch zu einer inneren Orientierung des Selbstverständnisses. Ist nicht der Zufall die treibende Kraft und Ursache meiner Existenz, so kann ich eher davon ausgehen, dass ich gewollt bin.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.