Die Welt der Strukturwissenschaften

Einfache und komplexe Strukturen der Realität

 

Inhalt

Vorwort: Überleitung von den abstrakten zu den realen Strukturen

 

1. Physik und physikalische Strukturen

1.1 Raum und Zeit als relativistische Raumzeit

1.2 Energie und negative Energie: die 4 fundamentalen Wechselwirkungsarten

1.2.1 Kosmologische Energieformen und Energieerhaltung

1.2.2 Die vier fundamentalen Wechselwirkungsarten

1.3 Strukturen im Universum: Entropie, Negentropie, Form, Information und Komplexität

1.3.1 Basale Komplexität und Einfachheit im Universum

1.3.2 Universelle Konstanten der Struktur: Die Naturkonstanten unseres Universums

1.3.3 Die elementare Struktur der Materie - Elementarteilchen

1.4 Systemphysik

1.5 Die physikalisch-kosmologische Evolution unseres Universums

1.5.1 Big Bang, Inflation, "Taschenuniversum"

1.5.2 Entstehung von Strukturen im Raum und Sternenentstehung

1.5.3 Entstehung der chemischen Elemente als verschiedene "Atomarten" (Nukleide)

2. Chemie und chemische Strukturen

2.1 Die chemischen Elemente des Periodensystems

2.2 Die Moleküle und deren Bindungsarten (Atom-, Ionen- und Metallbindung)

2.3 Die Strukturtheorie der Chemie

2.4 Systemchemie

2.5 Die chemische Evolution der Elemente und Moleküle im Universum

2.5.1 Die Bildung chemischer Verbindungen: Molekülbildung in heißen und kalten Plasmen im All

2.5.2 Die Bildung chemischer Verbindungen: Moleküle auf der Erde

2.5.3 Die Entstehung von Festkörpern und Grenzflächen - Kristallchemie

3. Biologie und biologische Strukturen

3.1 Leben und Lebewesen als besondere Form molekularer Selbstorganisation und emergenter Komplexität

3.1.1  Die strukturwissenschaftliche Perspektive in Bezug auf das Leben

3.1.2 Merkmale von biologischen Lebewesen

3.1.3 Leben als besondere Form der Selbstorganisation

3.1.4 Molekülarchitekturen (hierarchisches Prinzip und kombinatorische Explosion)

3.1.5 Autokatalytische Systeme im Raum

3.2 Der Mensch als komplexes biologisches System

3.2.1 Der einzelne Mensch: Psychologie sinnverarbeitender komplexer biologischer Systeme

3.2.2 Gruppen von Menschen: Soziologie sinnverarbeitender komplexer biologischer Systeme

3.3 Strukturbiologie

3.4 Systembiologie

3.4.1 Proteinfaltung

3.5 Die Evolutionstheorie als komplexe strukturwissenschaftliche Theorie des Lebens

3.5.1 Molekulare Evolution und "RNS-Welt"

3.5.2 Die "Erfindung" der Zelle und Prokaryonten

3.5.3 Eukaryontische Zellen

3.5.4 Vielzeller

3.5.5 Wechselbeziehungen zwischen Organismen

3.5.6 Die Evolution des Menschen als hochkomplexes Säugetier und seine kulturelle Evolution

3.5.7 Künstliche "Evolutionsmaschinen" (Manfred Eigen)

 

 

 

 

Vorwort: Überleitung von den abstrakten zu den realen Strukturen

                                                "I think the next century will be the century of complexity." 1

                                                 Stephen Hawking

Die abstrakten Gebiete der Mathematik, der theoretischen Informatik oder der Systemwissenschaften wurden hier zunächst als strukturwissenschaftliche Kategorien bzw. als Strukturwissenschaften behandelt. Doch wie unterscheiden sich diese eigentlich dann genau von den Naturwissenschaften oder den Sozialwissenschaften?

Früher wurden dazu auch gerne die Begriffe der Formalwissenschaften für die Mathematik bzw. die Realwissenschaften für die Naturwissenschaften verwendet. Ein Nachteil dieser Definitionsform ist die damit implizierte Unterstellung, dass es sich bei der Mathematik (oder Informatik) um keine realen Objekte handelt, was nahelegt, dass es damit dann auch prinzipiell keinerlei Bezüge zur Realität gäbe. Das ist zwar formal gesehen richtig, aber politisch ein wenig unkorrekt, denn darauf kommt es eigentlich auch gerade nicht an.

Wenn man die Wissenschaften als Einheit denkt, dann ist die Unterteilung in Strukturwissenschaft und Naturwissenschaft eher so zu interpretieren, dass es sich bei den Strukturwissenschaften primär um die Erforschung von abstrakten, und bei den Naturwissenschaften um Wissen über reale Strukturen handelt. Vor allem ist es jedoch wichtig zu betonen, dass eine geeignete Auswahl an mathematischen Strukturen brauchbare Modelle liefert, um die Natur zu beschreiben. Daher findet die Strukturwissenschaft unter gewissen Verträglichkeitsbedingungen dann wiederum den Anschluss an die Naturwissenschaften, und ist damit eben nicht eine von der Realität vollständig entkoppelte Wissenschaft.

Wenn wir die Naturwissenschaften dann wiederum aus dem Blickwinkel der Strukturwissenschaften betrachten, so hat die Naturwissenschaft eben gerade nicht die Aufgabe, abstrakte Strukturen und Logiken zu definieren und zu beweisen, sondern muss vielmehr Modelle entwickeln, die zeigen ob und welche Strukturen tatsächlich in der Natur existieren, und wie sich diese per Experiment auch in der Realität nachweisen lassen.

Aus der Sicht der Naturwissenschaftler sind die modellbildenden Verfahren der Mathematiker also zunächst Angebote, die sich möglicherweise als nützlich für die Strukturbeschreibung von Phänomenen in der Natur erweisen könnten. Einige mathematische Methoden werden dabei jedoch vielleicht für immer auf den innermathematischen Bereich beschränkt bleiben, oder Strukturen beschreiben, die in der Natur explizit nicht beobachtet werden können. Diese "Schnittstellenproblematik", d. h. der Umgang mit der Unsicherheit, ob für eine konkrete naturwissenschaftliche Erklärung ein bestimmtes mathematisches Modell nützlich ist, macht diese spezielle "Symbiose" der Wissenschaften dauerhaft interessant und spannend (und natürlich auch risikoreich). 

Reale Strukturen unseres Universums - vom Makrokosmos zum Mikrokosmus und wieder zurück

Seit den frei verfügbaren Internet-Technologien, wie beispielsweise Google-Maps, haben wir ein intuitives Verständnis dafür entwickelt, wie es aussieht, wenn man von einem einzelnen Haus ausgehend maßstabsgerecht bis hinaus zur Übersicht über den gesamten Globus heraus- und wieder hineinzoomen kann.

maps 3 maps 2 maps 1
Bildlizenz-Info: verkleinerter Screenshots von Google Maps

Eine populärwissenschaftliche Zooming-Variante für alle Hobby-Physiker findet man hier online. Dort gibt es ein maßstabsgerechtes Hinein- und Hinauszoomen vom beobachtbaren Universum bis hinunter zu Planck-Länge!

space 1 space 2 space 3
"Bildlizenz-Info: drei verkleinerte Screenshots der Website, Public Domain

 

 

.

 

1. Physik

Physik ist die Wissenschaft von den "fundamentalen" Dingen der Natur.

Dazu gehören zunächst einmal der Raum und die Zeit, und weiterhin die Energie (bzw. sein Äquivalent, die Masse).

Auch die elementaren und etwas komplexeren Strukturen der Materie werden untersucht. Im Mikrokosmos sind dies in der Teilchenphysik die Zusammensetzung von Elementarteilchen bis hinauf zum Aufbau ganzer Atome. Im Makrokosmos erforscht die Kosmologie und die Astrophysik die Struktur und die Entstehung des gesamten Universums bis hinunter zu einzelnen Sonnensystemen und Planeten.

Neuere Zweige der Physik beschäftigen sich zunehmend auch mit hochkomplexen (dynamischen) Strukturen und Systemen der Natur, und fragen, welche grundlegenden komplexitätsbildenden Mechanismen es in unserem Universum geben mag.

 

1.1 Raum und Zeit als relativistische Raumzeit 1

Die Formulierung der Relativitätstheorie gilt als der Beginn der modernen Physik, auch wenn sie häufig als Vollendung der klassischen Physik bezeichnet wird.

Die Relativitätstheorie führte ein völlig neues Verständnis der Phänomene Raum und Zeit ein. Danach handelt es sich nicht um universell gültige Ordnungsstrukturen, sondern räumliche und zeitliche Abstände werden von verschiedenen Beobachtern unterschiedlich beurteilt. Raum und Zeit verschmelzen dabei zur sog. Raumzeit.

Die Zeit bildet dabei die vierte Dimension - neben den klassischen drei räumlichen Dimensionen. Die Gravitation wird auf eine Krümmung dieser Raumzeit zurückgeführt, die durch die Anwesenheit von Masse bzw. Energie hervorgerufen wird. Die Gravitationswirkung auf ruhende Körper wird als konstante Beschleunigung aufgefasst, die Lichtgeschwindigkeit ist absolut und gilt in der Relativitätstheorie als die höchste erreichbare Geschwindigkeit von Objekten innerhalb der Raumzeit.

Die relative Zeit kann sowohl durch die Anwesenheit von Gravitation, als auch durch die jeweilige Geschwindigkeit von Körpern beeinflusst werden. Für Objekte, die sich mit Lichtgeschwindigkeit bewegen, oder in Objekten mit hoher Gravitation (z. B. ein schwarzes Loch) bleibt die relative Zeit stehen.

In der Relativitätstheorie wird auch erstmals die Kosmologie zu einem naturwissenschaftlichen Thema. Auf der Erde vergeht die Zeit einigermaßen "normal-schnell", da wir uns nur mit einem winzigen Bruchteil der Lichtgeschwindigkeit bewegen. Durch die Gravitation vergeht die Zeit auf der Erde jedoch etwas langsamer als (ruhend) im Weltall.

Mit Atomuhren kann man die unterschiedlichen relativistischen Effekte der Raumzeit bereits mit Flugzeugen messen, die einmal mit, bzw. einmal gegen den Drehsinn der Erde fliegen. Aufgrund der Flughöhe und der dortigen geringeren Gravitation vergeht die Zeit zunächst etwas schneller, aufgrund der Geschwindigkeit dann in Summe jedoch wieder langsamer als für den ruhenden Beobachter auf der Erde. Diese Messungen, welche die Ergebnisse der Relativitätstheorie bestätigen, bilden die Grundlage aller derzeit im Einsatz befindlichen GPS-Systeme (also auch der Navigationssysteme in unseren Autos). GPS-Systeme messen nämlich nicht den Ort, sondern die Zeitdifferenz der einzelnen, sich mit hoher Geschwindigkeit und die Erde bewegenden, GPS-Satelliten zueinander und bestimmen damit indirekt den jeweiligen Ort des Beobachters.

In der allgemeinen Relativitätstheorie, deren Gültigkeit durch eine Vielzahl von Experimenten bestätigt wird, sind Raum und Zeit unauflöslich miteinander verknüpft. Der Raum kann dort sogar durch die Gravitation gekrümmt werden. Doch man kann den Raum nicht krümmen, ohne die Zeit einzubeziehen. Die Zeit hat damit gewissermaßen selbst eine Form.

Besonders interessant ist das Wechselspiel zwischen Raum, Zeit, Massen und Gravitation. Denn durch die Krümmung von Raum und Zeit macht die allgemeine Relativitätstheorie aus diesen einst passiven Elementen eines Hintergrunds aktiv-dynamische Teilnehmer des Geschehens! Raum und Zeit existieren dabei weder unabhängig voneinander, noch sind sie unabhängig von dem Universum und dessen Elementen. In der klassischen Physik hingegen waren sowohl der Raum als auch die Zeit unabhängige Objekte, die gleichsam ein Bühne als Hintergrund für die sich darin abspielenden Vorgänge darstellte.

Der Minkowski-Raum der speziellen Relativitätstheorie

Der flache Minkowski-Raum der speziellen Relativitätstheorie beschreibt zunächst eine vierdimensionale Raum-Zeit ohne Gravitation. In der Konvention, die hauptsächlich in der Allgemeinen Relativitätstheorie eingesetzt wird, besitzen diese vier Dimensionen unterschiedliche Vorzeichen. Die vierdimensionale Notation (Zeit, Raumkoordinate x, Raumkoordinate y , Raumkoordinate z) besitzt die Vorzeichen (-1, 1, 1, 1). Zu beachten ist daher, dass die Zeit stets das umgekehrte Vorzeichen, wie der Raum besitzt. Zeit ist damit quasi "negativer Raum".

Allgemeine Relativitätstheorie

In der Allgemeinen Relativitätstheorie (ART) geht die jeweilige Raumkrümmung, die durch lokale Gravitationskräfte hervorgerufen wird, und an jedem Ort des Universums verschieden sein kann, mit in die Feldgleichungen ein.

Dadurch dass Gravitation jedoch wiederum von Masse bzw. auch von massebehafteter Materie verursacht wird, entsteht in der ART eine Verschachtelung bzw. Koppelung von Raum, Zeit, Gravitation und Masse. Im Gegensatz zur klassischen Physik sind diese physikalischen Grundgrößen nun nicht mehr als unabhängig voneinander zu betrachten.

Aus Sicht der Komplexitätsforschung liegt hiermit dann bereits eine fundamentale Integration und komplexe Verschachtelung vor. Sie ist jedoch erst der Anfang von Komplexität und Struktur im Universum.

 

 

1.2 Energie und negative Energie: die 4 fundamentalen Wechselwirkungsarten

 

1.2.1 Die kosmologischen Energieformen und die kosmologische Buchhaltung der Energieerhaltung

In unserem Universum kennen die Kosmologen drei basale Energieformen:

Als nächstes könnte man fragen, wie groß eigentlich die Energiemenge des Universums ist?

Da Energie eine Erhaltungsgröße ist, kann sie per Definition weder erzeugt, noch vernichtet werden, da sich dahinter fundamentale Symmetrieprinzipien verbergen. Interessanter Weise kann man heutzutage jedoch Modelle formulieren, die eine große mathematische Eleganz besitzen und zeigen, dass die Gesamtenergie des heutigen und früheren Universums exakt gleich Null ist! Zum Verständnis muss man zunächst wissen, dass die Gravitationsenergie ein negatives Vorzeichen besitzt.

Damit kann man dann folgende Gleichung formulieren, bei der die Summe stets Null ergibt:

Energie(Strahlung) + Energie(Materie) + Energie(dunkle Energie) + - Energie(Gravitation) = 0  

oder kürzer:

Energie(Strahlung, Materie, dunkle Energie) - Energie(Gravitation) = 0

oder als Bilanzgleichung:

Energie(Strahlung, Materie, dunkle Energie) = Energie(Gravitation)

Man kann demnach sagen, dass unser Universum zu keiner Zeit den Energieerhaltungssatz verletzt, da die Energiesumme, also die Integration aller Energieformen, immer Null ist, egal wie groß die jeweiligen absoluten Bilanzsummen sind. Diese Aufhebung durch Inversion ist ein raffinierter Trick, um ein Universum mit beliebig viel Energie (und Antienergie) buchstäblich aus dem Nichts zu erschaffen. Statt also die Energie irgendwoher zu holen, oder den Energieerhaltungssatz zu verletzen, können wir die Energieformen in unserem Universum in Summe auch lediglich als eine recht interessant ausbalancierte Variation von Nichts betrachten.

Negative Energie?

Aber warum ist ausgerechnet die Gravitationsenergie eigentlich negativ? Mathematisch gesehen erklärt sich das so: Wenn man eine kugelförmig verteilte Masse von einem großen Radius durch die gegenseitige Anziehung in einen kleineren Radius überführt, dann steigt die Gravitationsenergie, aber beim Zusammenziehen auf den kleineren Radius hin wird jedoch Arbeit verrichtet, die der Gravitationsenergie verloren gehen muss. Deren Abnahme ist mit der Zunahme ihres Betrages jedoch nur vereinbar, wenn sie negativ ist. D. h. die Gravitationsenergie geht beispielsweise beim Zusammenziehen somit von dem Wert -1 auf -2 zurück, ihr Betrag wird also größer, während die Energiemenge kleiner wird (quasi "mehr negativ").3

Die Entwicklungsmodelle von Energie und negativer Energie

Interessant ist daher nun auch die Frage, wie sich eigentlich diese speziellen Formen von energetischem "Nichts" im Verlaufe der kosmologischen Evolution entwickelt haben, so dass wir letztendlich beispielsweise tagtäglich die Energiestrahlen unserer Sonne genießen können.

Während wir in der heutigen materiedominierten Phase unseres Universum nicht nur von Energieerhaltung, sondern auch von einem konstanten absoluten Betrag der Materieenergie (und analog der Gravitationsenergie) sprechen können, so galt dies in der Frühphase des Universums noch nicht. Die jeweiligen Beträge (die in Summe natürlich zu jederzeit Null ergeben müssen) werden bei einem räumlich flachen Universum nach den Einsteinischen Feldgleichungen, bzw. deren Spezialisierung auf unser Universum (Friedmann-Lemaitre-Gleichung) beschrieben.

Bei den einfachsten Urknallmodellen ohne Inflation steigen die Energiebeträge zum Urknall hin kontinuierlich an, um in der Urknallsingularität schließlich ins Unendliche zu divergieren. Gleichzeitig wird dann auch die Gravitationsenergie minus Unendlich groß.

In der modernen Kosmologie werden die Urknallsingularitäten dadurch vermieden, dass man vor dem eigentlichen Urknall von einer Phase der explosiven Expansion (der Inflation) ausgeht. Diese Inflation wurde durch dunkle Energie sehr hoher, aber endlicher Konzentration angetrieben. Zu Beginn der Inflation war die Gesamtmenge an dunkler Energie wegen der mikroskopischen Kleinheit des Universums auch verschwindend klein, nahm jedoch aufgrund der schnellen Expansion trotz abnehmender Konzentration sehr schnell zu. Wegen der Erhaltung der Summe aller Gesamtenergien musste das durch eine gleich schnelle Zunahme des Betrags der Gravitationsenergie kompensiert werden. Die Phase der Inflation wurde dadurch beendet, dass die dunkle Energie in einer Art Phasenübergang durch den Zerfall in Energie von Strahlung und Materie überführt wurde. Die heutzutage vorhandene gewaltigen Mengen an Strahlung und Materie (also die für uns nutzbaren Energieträger) stammen letztlich aus der dunklen Energie, einer Art energiereichem Vakuumszustand der Quantenphysik, der dort auch "falsches Vakuum" genannt wird.4

Da jedoch die Gesamtmenge der dunklen Energie anfänglich verschwindend gering war, kann man durchaus sagen, dass die derzeit für unsere Zwecke zur Verfügung stehende Energie des Universums buchstäblich aus dem Nichts kam, und interessanter Weise sogar ohne den Energieerhaltungssatz zu verletzen. Ein echter "Big Trick" also!

Zur heutigen kosmologischen Energieverteilung ist zu sagen, dass die Gesamtmenge der positiven Energie unseres Universums zu 68% aus dunkler Energie, zu 27% aus dunkler Materie, zu 4% aus baryonischer Materie und zu 1% aus Strahlung besteht. Zum einen ist es daher recht erstaunlich, dass der für uns relevante Anteil der Energieformen, aus denen wir letztendlich auch selbst bestehen, lediglich 5% ausmacht, also fast schon als kleiner "Dreckseffekt" abgetan werden kann, und auf der anderen Seite die anderen 100%, also die 100% negativer Energie, einzig der Gravitation zuzuschreiben sind. Damit ist sie die wahre Energie-Herrscherinn im Universum, und das, obwohl ausgerechnet die Gravitation die schwächste aller 4 Wechselwirkungsarten ist. Nun ja, die Gravitation ist eben eine bescheidene Herrscherin.

 

1.2.2 Die vier fundamentalen Wechselwirkungsarten: Gravitation, elektromagnetische Wechselwirkung, starke und schwache Wechselwirkung

Die relativen Stärken der vier Wechselwirkungsarten unseres Universums sind heute, also nach 13,8 Milliarden Jahren, sehr unterschiedlich. Sie liegen nämlich, nach Stärke absteigend sortiert, im Verhältnis 1 : 0,0073 : 5*10-14 : 2*10-39 (starke Kernkraft, elektromagnetische Wechselwirkung, schwache Kernkraft und schließlich die Gravitation) vor. Die Gravitationskraft ist also fast 40 Größenordnungen kleiner als die starke Kernkraft!

Man geht jedoch heutzutage von einem gemeinsamen Ursprung aller vier Kräfte aus, die im ersten Moment der Universums-Entstehung nahezu gleichstark gewesen sein sollen. Die Hochenergiephysik kann zeigen, dass sich zunächst die schwache Kernkraft mit der elektromagnetischen Kraft bei hohen Energien (Temperaturen) vereinen lässt. Diese werden dann ununterscheidbar. Weiterhin geht man davon aus, dass bei noch höheren Energien dies auch mit der starken Kernkraft und der Gravitation passiert. Umgekehrt sind demnach bei der Entwicklung des Universums während seiner Abkühlung dieser vier Wechselwirkungsarten bei spontanen Symmetriebrüchen quasi auseinandergebrochen, und liegen nun in höchst unterschiedlichen relativen Stärken vor.

 

 

1.3 Strukturen im Universum: Entropie, Negentropie, Form, Information und Komplexität

 

1.3.1 Basale Komplexität und Einfachheit im Universum5

Gibt es ein Komplexitätserhaltungsgesetz?

Die Suche nach den Ursachen der vielfältigen Muster der Natur führt die Mathematik und uns derzeit in gedankliches Neuland.

Früher war man sicher: Das Universum mag kompliziert wirken, aber es gehorcht einfachen mathematischen Gesetzen. Die Regelmäßigkeiten in der Natur belegen angeblich die Einfachheit dieser Gesetze. Heute hingegen mehren sich die Anzeichen, dass der Zusammenhang zwischen Gesetzen und Mustern - zwischen Ursache und Wirkung - nicht immer so geradlinig ist.

Wäre diese Beziehung tatsächlich so eindeutig, dann müssten einfache Gesetze unter einfachen Umständen stets zu einfachen Mustern führen, und komplizierte Gesetze in komplexen Szenarien brächten immer komplexere Muster hervor. Es gäbe also eine regelrechtes "Komplexitätserhaltungsgesetz", dem zufolge die Einfachheit respektive Komplexität einer Ursache zwangsläufig an die aus ihr folgende Wirkung weitergegeben würde.

Eine solche Vorstellung erscheint heute nicht mehr haltbar, doch bis zu dieser Einsicht ist viel Zeit vergangen, da unsere Denkstrukturen für ein derartiges Prinzip wie geschaffen erscheinen. Wir fragen gerne danach, woher Einfachheit und Komplexität kommen, als ob diese Eigenschaften irgendwo anders ihren Ursprung nähmen, und dann auf die Objekte unseres Interesses übertragen würden. Wir sind daher normalerweise damit zufrieden, dass das einfache Gravitationsgesetz für einfache, elliptische Umlaufbahnen sorgt, und wären verstört, wenn ein so simples Gesetz höchst verwickelte und unordentliche Bahnen erzeugen würde oder wenn umgekehrt diese einfachen Ellipsen aus einem furchtbar komplizierten Gravitationsgesetz folgten.

Die derzeit an den Grenzen unseres Wissens operierenden strukturwissenschaftlichen Forscher haben erkennen müssen, dass einfache Ursachen oft komplexe Wirkungen hervorrufen können und komplexe Ursachen häufig einfacher Effekte haben. Allerdings ist der Weg zum Einfachen - um die paradoxe Anmutung zu wahren - höchst kompliziert.

Eines der neuartigen mathematischen Systeme, die uns zum Umdenken gezwungen haben, ist das bereits im Informatik-Bereich erwähnte "Game of Life", also ein zellularer Automat. Ein solches System zu programmieren, im Computer laufen zu lasen und zu beobachten, ist einfach. Die Ergebnisse umfassend zu interpretieren, erweist sich als viel schwieriger - oft sogar als unmöglich. Wir sehen einer Startanordnung zum Beispiel nicht an, ob die Regeln schließlich zur Auslöschung aller Quadrate führen. Es gibt keine allgemeine Lösung für das Problem. Die Mathematik verrät uns lediglich, dass die Beantwortung dieser Frage nicht in ihrer Macht liegt und ein unentscheidbares Problem vorliegt. Eine noch komplexere Wirkung einfachster Ursachen kann man sich kaum vorstellen.

Unsere Intuition versagt hier also jämmerlich: Komplexität kann aus einfachen Regeln erwachsen; sie muss nicht bereits in die Regeln eingebaut sein. Umgekehrt können Systeme, die aus der Nähe betrachtet ungeheuer kompliziert wirken, im Großen recht einfache Verhaltensmuster an den Tag legen. Solche Emergenzphänomene zu verstehen, ist das Ziel eines neuen Mathematikzweiges: der Theorie komplexer adaptiver Systeme.

So etwas wie eine Komplexitätserhaltung scheint es daher sowohl in der Mathematik, als auch im Universum nicht zu geben.

Stetigkeit? Bifurkationen und Phasenübergänge (Katastrophentheorie)

Unsere Intuition möchte uns oft auch weismachen, dass kleine Veränderungen auf der Ursachenseite auch nur kleine Veränderungen in der Wirkung zur Folge haben könnten. Doch die Überzeugung, kleine Schritte könnten auch nur kleine Veränderungen bewirken, ist ebenso irrig wie die Vorstellung von der Komplexitätserhaltung. Nun ja, nicht ganz: Normalerweise rufen kleine Veränderungen in der Ursache tatsächlich nur kleine Veränderungen in der Wirkung hervor, aber manchmal kann eine kleine Abweichung in der Ursache auch gewaltige Folgen zeigen. Es ist in etwa so, wie bei dem durch eine Redewendung so berühmten Tropfen, der das Fass zum überlaufen bringt.

Solche Effekte, also abrupte Veränderungen von Systemen, die sich in einem kritischen Zustand befinden, nennt man Bifurkationen, oder mathematisch auch Katastrophen. In den 1960'er Jahren entstand dazu eine neue mathematische Disziplin, die Katastrophentheorie von René Thom. Sie ist in der Sprache der Differentialtopologie geschrieben und versucht, ein wenig Ordnung und Struktur in derartige Probleme zu bringen. Sieben archetypische Elementarkatastrophen kennt diese mathematische Disziplin. Doch das Wort "Katastrophe" ist in der Wissenschaft ein wenig aus der Mode gekommen. Zu Recht, denn hängt ihm doch der unpassende Beigeschmack von großem Unheil an. Heute bevorzugt man in der Theorie der dynamischen Systeme eher den Begriff der "Bifurkation". Wenn sich der Zustand eines Systems infolge einer kleinen externen Variation dramatisch ändert, sagt man daher, es habe eine Bifurkation stattgefunden. Die Bifurkationstheorie ist mittlerweile ziemlich ausgereift und aussagekräftig, sodass man mit ihrer Hilfe abrupter Änderungen in den unterschiedlichsten Systemen verstehen kann.

In der Physik kennt man solche Bifurkationen zu Genüge. Dort nennt man sie "Phasenübergänge". Einer der bekanntesten Phasenübergänge ist sicherlich das Gefrieren von Wasser unterhalb von Null Grad Celsius oder auch das Sieden von Wasser bei 100 Grad Celsius.

Auch die Kristallbildung gehört zu den Phasenübergängen. Doch warum bildet die Materie überhaupt unterscheidbare Phasen aus? Durch das Studium stark vereinfachter mathematischer Modelle haben die Physiker viel über Phasenübergänge gelernt. Das bekannteste Modell ist dabei das Ising-Modell des Physikers Gustaf Ising, und besteht aus einem zweidimensionalen Gitter. Wie sich herausstellte, gibt es eine genau berechenbare kritische Temperatur, bei der sich das Spin-Muster abrupt ändert, also eine Bifurkation stattfindet. Diese Phasenübergänge gehen mit einer Veränderung der Symmetrieverhältnisse im Material einher, aber es handelt sich um eine eigentümliche Form der Symmetrie: um statistische Symmetrien der Eigenschaftswerte, nicht etwa der einzelnen Komponenten.

Eine Erhaltung der Stetigkeit als "Stetigkeitserhaltungsgesetz" scheint es daher ebenfalls nicht zu geben. Bifurkationen sind in der Mathematik und im Universum mindestens genauso elementar.

Gibt es ein Symmetrieerhaltungsgesetz? Symmetrie und Symmetriebrechung

Kommen wir nun zum Thema der Symmetrie. Gibt es ein "Symmetrieerhaltungsgesetz"? Symmetriebetrachtungen sind in vielerlei Hinsicht der mathematischer Kern der Überlegungen zum Thema Einfachheit und Komplexität. Symmetrieveränderungen werfen dabei Fragen auf, die in allen modernen Musterbildungstheorien eine zentrale Rolle spielt. Einmal mehr müssen wir uns dazu jedoch von einigen liebgewonnenen Vorstellungen verabschieden.

Der Physiker Pierre Curie, der zusammen mit seiner Frau Marie das Radium entdeckt hatte, stellte 1894 folgendes physikalisches Prinzip auf: Symmetrische Ursachen führen auch zu symmetrischen Wirkungen. Hat man es umgekehrt mit asymmetrischen Phänomenen zu tun, sollte man nach einer asymmetrischen Ursache Ausschau halten.

Heutzutage wissen wir, dass dieses Prinzip nicht immer gilt. Es gibt nämlich auch Wirkungen, die weniger symmetrisch sind, als ihre Ursachen. Dieses Phänomen wird als Symmetriebrechung bezeichnet. Zu seiner Erklärung müssen wir ein weiteres Konzept einführen: Stabilität. Und wir müssen Curies Prinzip folgendermaßen abwandeln: Symmetrische Ursachen haben gleichermaßen symmetrische Wirkungen, sofern die so erzeugten Zustände nicht instabil sind - andernfalls wird die Symmetrie gebrochen.

Doch wohin entschwindet die Symmetrie eigentlich, wenn sie bricht? Genau genommen muss sie nirgends hingehen. Weder Komplexität noch Stetigkeit werden erhalten, warum also sollte Symmetrie erhalten werden? Aber sie wird ausnahmsweise tatsächlich erhalten - gewissermaßen.

Nehmen wir als Beispiel einen Bleistift, den wir auf seine Spitze stellen. Dies ist ein höchst instabiler Zustand, und sobald wir ihn loslassen, wird er zufällig in irgendeine Richtung fallen und derart ausgerichtet auf dem Tisch liegen bleiben. Dieser Bleistift, der nun in eine bestimmte Richtung zeigt, ist viel unsymmetrischer, als das symmetrische Gravitationsgesetz, aus dem er hervorgegangen ist. Diesem Bleistift sieht man sozusagen die Symmetrie der Gravitation nun nicht mehr an. Doch was passiert, wenn ich eine Vielzahl an Fallversuchen mache, und die Ergebnisse dann aufaddiere? In Summe verteilen sich nun die Richtungen des Bleistiftes gleichmäßig und ergeben zunehmend in Summe eine Kreisform. Und siehe da: schon ist die ursprüngliche Symmetrie wiederhergestellt!

Ein Mathematiker formuliert dies dann so: Wenn man eine Lösung des Gleichgewichtssystems nimmt und sie im Raum dreht, erhält man weitere, ebenso zulässige Lösungen. Wenn man wüsste, dass es nur eine einzige Lösung gibt, hätte Curie mit seiner Symmetrieerhaltung Recht. Aber dynamische Gleichungen haben jede Menge Lösungen - und dies ist auch des Rätsels Lösung. Kurz gesagt können einzelne Lösungen die Symmetrie des Ausgangssystems brechen, aber die Summe aller Lösungen bleibt symmetrisch. Die Symmetrie wird gewisser Maßen über eine ganze Reihe Lösungen "verschmiert". Und der Auslöser dieses Verteilungsvorganges ist das Einsetzen der Instabilität der symmetrischen Lösung.

Von der Symmetrie und der Symmetriebrechung zur Form hat unseres Universums

Symmetrie erleichtert die Lösbarkeit von Gleichungen, da sie deren Komplexität vermindert. In drei Dimensionen ist sphärische Symmetrie so ziemlich das Einfachste, was überhaupt noch eine interessante Struktur zulässt. Daher ist es nicht verwunderlich, dass die Physiker zunächst nur mit sphärischen symmetrischen Lösungen aufwarteten, als sie sich daranmachten, Einsteins Gleichungen über die Form und die Dynamik des gesamten Universums zu lösen.

Es brauchte eine ganze Zeit, bis auch andere Modelle über die Form des Universums entstanden. Doch "Form" ist nicht ganz das richtige Wort. Der Begriff Form beschreibt, wie sich der Teil, den das Objekt einnimmt, zum Raumganzen verhält. Aber das Universum ist das Ganze. Und wir sitzen in ihm drin, so dass wir es nicht aus der nötigen Distanz betrachten können.

Doch Mathematiker sind an derartige Schwierigkeiten gewöhnt. Wenn sie sich auf sinnvolle Weise über den Abstand zwischen Punkten in einem mathematischen Objekt verständigen können, dann hat das Objekt für sie so etwas wie eine Form: es ist die Gesamtheit aller Abstände zwischen allen Punkten. Dieser Formbegriff verzichtet auf eine Außenperspektive; es geht nicht mehr darum, wie ein Objekt in seine Umgebung eingebettet ist.

Einstein zufolge ist beispielsweise die Gravitation keine Kraft, sondern eine Folge der Krümmung der Raumzeit. Für den Mathematiker ist eine Ebene Flach, eine Kugel hat eine positive, und ein Trichter eine negative Krümmung. Die Krümmung der Raumzeit können wir messen, indem wir ermitteln, wie stark die Gravitation das Licht ferner Galaxien ablenkt. Insbesondere in der Nähe von Schwarzen Löchern sollte sie sehr groß werden. Und Schwarze Löcher soll es laut den Astronomen unzählige geben, beispielsweise auch im Zentrum unserer eigenen Galaxie. Unser Universum ist demnach ein wenig wie ein Schweizer Käse geformt, voller Löcher. Dies verrät uns aber noch nicht, ob das Universum als Ganzes kugelig, flach, zylindrisch oder torusförmig ist. Um das herauszufinden muss man sich die Geometrie der Raumzeit viel genauer ansehen. Das bevorzugte Erklärungsmodell der Kosmologen geht heutzutage von der sogenannten Inflationstheorie aus, woraus das Universum insgesamt gesehen als extrem flach hervorgegangen sein soll.

Doch Symmetriebetrachtungen führen uns auch in vertiefender Weise zu den Naturgesetzen des Universums und deren Charakter.

Symmetrische Gesetze ...

Einstein hatte ein ganz besonderes Gespür für die grundlegende Einfachheit der Natur, und er begründete seine Ansichten über die Physik auf einem Symmetrieprinzip. Die Symmetrietransformationen in der Raumzeit dürfen die Naturgesetze nicht antasten. Relativität ist eine Ausarbeitung dieses Prinzips im Kontext des Elektromagnetismus und der Gravitation, zweier Schlüsselkräfte für das Verhalten von Materie.

Zu diesen beiden Kräften haben sich dank der Quantentheorie noch zwei weitere gesellt (die starke und die schwache Wechselwirkung) und außerdem eine ganze Reihe von Symmetrieprinzipien. Diese erlegen den Gesetzen der Quantenphysik auf dieselbe Weise Beschränkungen auf, wie es die Symmetrien der Raumzeit mit der Relativität tun. Manche der Symmetrien sind recht anschaulich: Spiegelbildlichkeit, Zeitreversibilität (Umkehrbarkeit des Zeitpfeils) und die Ladungskonjugation (Parität), durch die sich die Vorzeichen elektrischer Ladungen umkehren. Andere, etwas unanschaulichere, kommen nur in der Mathematik der Quantenwelt zum Ausdruck.

Das Herz der Quantentheorie ist die Teilchenphysik, welche die kleinsten Bausteine der Materie zu ergründen versucht. Zunächst schien es so, als ob die Anzahl der Elementarteilchen recht überschaubar wäre. Protonen, Neutronen und Elektronen. Doch dann verlängerten die Experimentalphysiker durch Experimente in Teilchenbeschleunigern die Liste ganz erheblich.

Unter elementaren Teilchen verstehen Physiker dabei grundsätzlich winzige Partikel ohne messbare innere Struktur. Doch neben den Elementarteilchen gibt es auch noch verschiedene Arten von Objekten, die aus mehreren Elementarteilchen zusammengesetzt sind, die Hadronen. Da diese jedoch bereits zusammengesetzte Objekte sind, entstand gerade dort eine unüberschaubare Vielfalt an Teilchen. Doch im Jahre 1964 entwickelte der Physiker Murray Gell-Mann das Quarks-Modell, wonach sich die Hadronen sinnvoll klassifizieren lassen.

Vorausgegangen war eine Entdeckung im Jahre 1962, wonach die Hadronen eine schöne innere Symmetrie aufweisen. Indem man die mathematischen Gleichungen für diese Partikel gemäß einer Symmetrie transformiert, die als SU(3) bezeichnet wird, kann man ein Proton quasi so "umklappen", dass es zum Neutron wird. Das heißt, man kann die Gleichungen für ein Proton in die Gleichungen für ein Neutron verwandeln. Der Natur wurde somit eine fundamentale und exotische innere Struktur nachgewiesen, in der sogar Elementarteilchen ihre Identität wechseln können.

Die Liste physikalischer Symmetrien in Bezug auf die fundamentalen vier Wechselwirkungsarten ist jedoch sogar noch etwas länger und wird in der Gruppentheorie mit Hilfe von unitären Gruppen "U" und speziellen unitären Gruppen "SU", sowie den speziellen orthogonalen Gruppen "SO" beschrieben:

Jenseits des Standardmodells der Teilchenphysik findet man weitere hypothetische Symmetriegruppen, wie:

... für ein symmetrisches Universum?

Bei den tiefsten physikalischen Symmetrien geht es den Physikern jedoch gar nicht um die Beschreibung des heutigen Universums. Diese Symmetrien beschreiben entweder seinen Zustand kurz nach dem Urknall, oder sind reine Mathematikererfindungen, die keiner Beobachtung in der Realität entsprechen.

Entstanden ist diese Problematik durch die Entdeckung, dass einige der im Universum scheinbar herrschenden Symmetrien gelegentlich versagen: Sie können gebrochen werden. Dies wurde erstmals 1956 deutlich, als theoretische Physiker (Tsung-Dao Lee und Chen-Nin Yang) die Vermutung äußerten, dass die schwache Wechselwirkung die Spiegelsymmetrie verletzt, und Experimentalphysiker bewiesen, dass dem tatsächlich so ist.

Die Gesetze, denen unser Universum gehorcht, unterscheiden sich also von den Gesetzen einer hypothetisch spiegelbildlich aufgebauten Welt.

Doch die Asymmetrie ist relativ schwach. Vielleicht ist daher unser Universum lediglich eine leichte Variation eines perfekt symmetrischen Universums. Doch einige attraktive mathematische Urknallmodelle laufen sogar auf eine noch elegantere Lösung des Problems hinaus. Diese behaupten, dass früher (also kurz nach dem Urknall) alle vier Kräfte eins waren. Aber dann hatte nach der glühenden Hitze des Urknalls durch eine Reihe von Symmetriebrüchen, die in der Physik Phasenübergänge genannt werden, die Aufspaltung der einen Kraft in schließlich vier stattgefunden, welche heute nun ganz unterschiedliche Eigenschaften (z. B. relative Kräfteverhältnisse) besitzen.

Mathematisch gesehen waren daher die Gesetze jenes frühen Universums einfacher und eleganter als diejenigen unserer heutigen Welt. Und auch wenn einige der Symmetriebrüche noch physikalische Spekulation sind, so ist eines jedoch bereits ganz klar nachgewiesen worden: In den allerersten Augenblicken nach dem Urknall erfuhr unser Universum noch eine andere Symmetriebrechung. Die Materie war anfangs gleich verteilt, bildete jedoch schon bald Klumpen, also verschieden starke Ansammlungen von Materie im Raum. Diese Materiehaufen waren die erste Vorstufe der heutigen Galaxien, Sterne und Planeten.

Die zunächst noch recht bescheidene Ungleichverteilung reichte jedoch aus, um später bei der Ausdehnung und Abkühlung jenes fraktale Netzwerk aus leeren und massereichen Regionen entstehen zu lassen, das wir heute im Universum vorfinden. Abseits dieser Haufen ist das Universum jedoch ziemlich plan, was -wie schon erwähnt- derzeit durch die Modelle der Inflationstheorie erklärt wird.

 

1.3.2 Universelle Konstanten der Struktur: Die Naturkonstanten unseres Universums

In einem Universum, in dem durch die Evolution nichts so beständig wie der Wandel ist, könnte man sich zunächst durchaus fragen, ob es überhaupt irgendwelche Dinge gibt, die konstant sind. Physiker nennen diese fundamental konstanten Parameter auch Naturkonstanten. Die mathematische Definition einer Struktur sagt, dass jede Struktur aus einer Menge, Konstanten, Relationen und Funktionen besteht. Die Anzahl der Konstanten kann dabei von Null bis unendlich reichen. Die Physiker versuchen daher in ihren Modellen, möglichst wenig dieser Naturkonstanten zu benötigen, da ein solcher Parameter nicht aus den Theorien hergeleitet werden kann, sondern den Messergebnissen angepasst werden muss.

Die Anzahl an benötigten Naturkonstanten, die sogenannten "freien Parameter" der aktuellen Teilchenphysik und der Kosmologie, ist derzeit leider noch recht groß. Rund 40 Naturkonstanten werden dort benötigt. Da man jedoch davon ausgehen kann, dass die derzeitigen Modelle noch nicht der Weisheit letzter Schluss sind, gibt es auch vielfach die Meinung, man könne mit der eines Tages zur Verfügung stehenden "Theorie für Alles" mit erheblich weniger Naturkonstanten auskommen. Im Idealfalle vieleicht sogar mit Null.

Die freien Parameter des derzeitigen Standardmodells der Teilchenphysik lauten:

Summe: 26 Parameter

Die freien Parameter des Standardmodells der Kosmologie (Konkordanzmodell) bestehen aus:

Summe: 11 Parameter

Wenn wir zu diesen 37 Parameteren dann noch die 3 Raumdimensionen und die eine Zeitdimension addieren und zu guter letzt noch das Plancksche Wirkungsquantum, dann sind wir sogar schon bei 42 freien Parametern.

 

1.3.3 Die elementare Struktur der Materie - Elementarteilchen und das Atom

atom schematisch
Bildlizenz-Info: Wikimedia, Schimaticky atom, public domain

Insbesondere durch Experimente an Teilchenbeschleunigern wissen wir heute, welche komplexe Struktur die Atome, die man lange Zeit als unteilbar annahm, besitzen.

Zunächst besteht das Atom aus einer negativ geladenen Elektronenwolke und einem vergleichsweise kleinen positiv geladenen Atomkern, der aus Nukleonen besteht (Protonen, Neutronen).

Die den Atomkern umgebenen Elektronen besitzen nach dem heutigen Stand der Wissenschaft keine innere Struktur mehr, und sind damit bereits echte Elementarteilchen. Die Nukleonen sind jedoch wiederum aus drei (Valenz-)Quarks zusammengesetzt. Dabei ist zu beachten, dass diese Valenzquarks zusätzlich noch von sogenannten Seequarks im Quarksee umgeben sind. Die Seequarks sind virtuelle Quarks- Antiquarks-Paare, die durch die Austauschteilchen der Gluonen erzeugt und gleich wieder vernichtet werden.

Die Elementarteilchen der Teilchenphysik

Neben den relativ stabilen Elementarteilchen gibt es auch noch eine ganze Reihe weiterer, kurzlebiger Teilchen. Insgesamt werden derzeit folgende Teilchen als elementar angesehen:

Fermionen (Konstituenten der Materie):

Bosonen (Kräfte, bzw. Wechselwirkungen, also Beziehungen zwischen Fermionen):

Die Hadronen

In der Natur haben wir es statt mit Elementarteilchen häufig mit zusammengesetzten Teilchen zu tun. Diese nicht mehr fundamentalen Teilchen nennt man Hadronen.

Die Vielfalt der Kombinationsmöglichkeiten von Leptonen und Quarks bringt es nun jedoch mit sich, dass man heutzutage rund 250 verschiedene Hadronensorten kennt, und die man scherzhaft wegen ihrer großen Anzahl auch "Teilchenzoo" nennt.

Die Kopplung von Elementarteilchen zu den Strukturen der Materie

Im Inneren der Materie finden wir zunächst die kurzreichweitige Kopplung der Quarks über die starke und schwache Wechselwirkung. Eine unendliche Reichweite besitzen dann die elektromagentische WW und die gravitative WW. Während die Photonen jedoch direkt auf die Elektronen und Kernteilchen wirken, wirkt die Gravitation erst durch die Raumzeitkrümmung quasi indirekt auf die Materie oder einzelne Photonen im Universum.

 

 

1.4 Systemphysik

Systemphysik ist ein relativ neuer strukturwissenschaftlicher Zweig der Physik, der sich derzeit noch im Aufbau befindet. Er umfasst die Beschäftigung mit komplexen physikalischen Systemen und Prozessen. Es geht dabei konkret um die Erforschung von Vielteilchensystemen, die in nichttrivialer Weise miteinander agieren.

Die entsprechenden Forschungszweige tragen dabei Namen wie beispielsweise "Komplexe Systeme" oder "Nichtlineare dynamische Systeme". In Deutschland gibt es dazu z.B. das Max-Planck-Institut für Physik komplexer Systeme in Dresden (online), das Max-Planck-Institut für Dynamik und Selbstorganisation (online), den Forschungsbereich Komplexe Systeme an der Uni Freiburg (online), die Professur Komplexe Systeme und Nichtlineare Dynamik in Chemnitz (online) und viele mehr.

Anmerkung: Das didaktische Konzept der "Systemphysik" von Werner Maurer zur alternativen Modellierung dynamischer Systeme ist in diesem Zusammenhang jedoch nicht gemeint.

Emergenz

Im Gegensatz zur klassischen reduktionistischen Forschungsansatz, versucht man bei der Erforschung komplexer Systeme die Interaktionen von Vielteilchensystemen zu verstehen, welche dazu neigen, neue qualitative Eigenschaften aus sich selbst heraus hervorzubringen, die in den einzelnen Komponenten und deren Gesetzmäßigkeiten nicht enthalten sind. Das antireduktionistische Forschungsparadigma unterstützt dabei sinnvoll die reduktionistisch gewonnenen Erkenntnisse über die einzelnen Systemelemente.

"Neue Physik" ?

Die Erforschung komplexer physikalischer Systeme erlebte seit dem Ende des 20. Jahrhunderts einen rasanten Aufschwung, der u.a. auch mit den modellbildenden Verfahren der aufstrebenden, leistungsfähigen Informationstechnologie verbunden war.

Ein prominenter Vertreter einer neuen Sichtweise auf die Forschungsgegenstände der Physik ist beispielweise der Nobelpreisträger P. W. Anderson, der 1972 seinen berühmten Artikel "More Is Different" publizierte (online). Vielteilchensysteme weisen demnach neue Eigenschaften auf, die mit Phasenübergängen und Symmetriebrüchen verbunden sind. "Mehr" bedeutet daher physikalisch gesehen gegebenenfalls auch, dass sich Vielteilchensysteme qualitativ komplett "anders" Verhalten. Sie besitzen dann neue Eigenschaften, die sich nicht aus den zugrundeliegenden physikalischen Gesetzen herleiten lassen. Es entsteht vielmehr eine Gesetzespyramide, bei der ein System sowohl den fundamentalen, als auch den emergenten Gesetzmäßigkeiten gehorcht.

Ein Schüler von Anderson, der Nobelpreisträger Robert Laughlin, ist ebenfalls ein prominenter Verfechter der Erforschung emergenter Phänomene im Rahmen der Physik (siehe sein Buch "Abschied von der Weltformel"). Er vertritt sogar die Meinung, dass sämtliche Naturgesetze erst durch kollektives Geschehen emergieren, und nicht umgekehrt die Naturgesetze diese Ordnungsphänomene erzeugen.

Zudem möchte er die Erkenntnismöglichkeiten von reduktionistischen Theorien relativieren. Selbst wenn wir irgendwann einmal eine fundamentale physikalische Theorie für alles hätten (beispielsweise etwas ähnliches wie die Stringtheorie), dann würde uns selbst diese Theorie nur sehr bedingt mehr Erkenntnisse über unsere makroskopische Welt liefern, da wir es dort immer mit komplexen Vielteilchensystemen zu tun haben.

Fundamentale physikalische Größen vs. emergente physikalische Größen

In der Physik gibt es viele Größen, die für einzelne Elementarteilchen gar nicht erst definiert werden können. Beispielsweise die Eigenschaften "nass" (bzw. flüssig), der Druck innerhalb eines Gasvolumens oder die Temperatur eines Gegenstandes. Ein einzelnes Teilchen oder Molekül kann weder nass sein, noch einen Druck bzw. eine Temperatur besitzen. Diese Eigenschaften emergieren erst in Vielteilchensystemen. Genauso verhält es sich mit den Phänomenen der Supraleitung oder der Supraflüssigkeit. Und selbst die 13 kristallinen Formen von Wassereis lassen sich nicht aus der ihnen zugrunde liegenden Quantenphysik herleiten.

Weiterhin sind insbesondere sämtliche Phänomene der Selbstorganisation nicht auf reduktionistische Weise verstehbar. Die physikalische Theorie des Laserlichtes, die zur strukturwissenschaftlichen Theorie der Synergetik führte, ist daher ebenfalls ein emergentes Ordnungsphänomen, dass nur in massiven Vielteilchensystemen auftritt.

Weitere Forschungsgebiete komplexer Systeme beschäftigen sich beispielsweise mit gekoppelten Oszillatoren, der turbulenten Fluid-Dynamik, der Plasmaphysik oder in der Astrophysik mit der gravitativen Dynamik von N Himmelskörpern.

Emergenz von Ordnung und Chaos vs. Reduktionismus

In seinen Buch Abschied von der Weltformel schreibt Laughlin dazu:

"Wir leben nicht in der Endzeit der physikalischen Entdeckungen, sondern am Ende des Reduktionismus. Damit ist nicht gesagt, dass die Gesetzmäßigkeit im mikroskopischen Maßstab falsch sei, oder keinen Zweck habe, sondern nur, dass sie in einer Vielzahl von Umständen durch ihre Kinder und Kindeskinder, die 'höheren' (emergenten) Ordnungsgesetze der Welt, belanglos geworden sind. Wir lassen die Gewohnheit hinter uns, die organisatorischen Wunder der Natur zu trivialisieren, und akzeptieren, dass Ordnung an und für sich bedeutsam ist - in manchen Fällen sogar der bedeutsamste Sachverhalt.

Ein wichtiger Unterschied zwischen dem gegenwärtigen und dem gerade vergangenen Zeitalter ist das Wissen, dass es sowohl sowohl üble als auch gute Gesetzmäßigkeiten gibt.

Gute Gesetze wie Festigkeit oder Quantenchromodynamik bringen mathematische Vorhersagekraft durch Protektion hervor, jene Unempfindlichkeit gewisser gemessener Größen gegenüber Unvollkommenheit der Proben oder Rechen- und Messfehler. Wäre die Welt ein glücklicher Ort, an dem es nur 'gute' Gesetze gäbe, könnten wir die Beherrschung der Natur darauf reduzieren, ausreichend rechenstarke Computer anzuschaffen. Protektion würde alle Fehler ausbügeln. In der Welt, die wir tatsächlich bewohnen, gibt es jedoch eine Fülle 'dunkler' Gesetze, und diese zerstören die Vorhersagekraft, indem sie Fehler verschärfen und dafür sorgen, dass gemessene Größen äußerst empfindlich gegenüber unkontrollierbaren äußeren Faktoren werden. Im Zeitalter der Emergenz kommt es darauf an, nach dunklen Gesetzen Ausschau zu halten.

Ironischer Weise hat gerade der Erfolg des Reduktionismus dazu beigetragen, den Weg für seinen Niedergang zu pflastern. Wie die sorgfältige quantitative Untersuchung mikroskopischer Teile im Lauf der Zeit gezeigt hat, sind Prinzipien kollektiver Ordnung nicht einfach nur kuriose Nebenhandlung, sondern alles - die wahre Quelle physikalischer Gesetzmäßigkeit. Weil unsere Messungen so genau sind, können wir mit Überzeugung erklären, dass die Suche nach einer einzigen ultimativen Wahrheit gleichzeitig aber gescheitert ist."

 

 

1.5 Die physikalisch-kosmologische Evolution unseres Universums

 

1.5.1 Big Bang, Inflation und unser Universum als "Taschenuniversum" ("Pocket Universe")

Das plausibelste Szenario von der Entstehung unseres Universums ist derzeit das Urknallszenario, wonach sich das Universum quasi aus dem Nichts (Singularität) in eine Raumzeit-Blase katapultierte, dann rasant aufblähte und mit Energie (=Materieenergie) und negativer Energie (=Gravitation) füllte.

Allerdings nicht als Blase innerhalb irgendeines Raumes, sondern diese Blase gebar den Raum selbst, und gleich noch mit dazu die Zeit. Demnach wäre es sinnlos zu fragen, worin sich das Universum befände, oder was eigentlich zeitlich gesehen davor war.

Die ursprüngliche Urknalltheorie, bei dem unser Universum sich "langsam" und linear aus einer Singularität entwickelte, wird heutzutage um die Inflationstheorie ergänzt. Mit Hilfe der klassischen Urknalltheorie hatten die Kosmologen zunächst untersucht, wie sich der frühe Feuerball unseres Universums abkühlte, Atomkerne formte und sich langsam Materienebel und Galaxien bildeten. Alles in allem hat die Urknalltheorie bereits durch viele astronomische Beobachtungen ihre Bestätigung erfahren, aber sie beschrieb trotzdem lediglich die Folgen des Urknalls, nicht jedoch den Knall an sich, oder, wie Alan Guth es formulierte, „was knallte, wie es knallte und weshalb es knallte.“

Die Inflationstheorie birgt jedoch noch einen überraschenden und faszinierenden Aspekt der kosmologischen Evolution. Demnach könnte es sich bei unserem sichtbaren Universum nur um einen winzigen Teil eines viel größeren Raumzeitbereiches handeln. In der inflationären Kosmologie geht man davon aus, dass sich das Universum aus einer Anfangssingularität aus einem winzigen, sogenannten "Falschen Vakuum" heraus entwickelt hat. Der Begriff des Falschen Vakuums stammt übrigens nicht aus der Kosmologie, sondern aus der Hochenergie-Teilchenphysik. Dort untersucht man im Rahmen der Quantenphysik verschieden energiereiche Vakuumszustände. Hochenergetische Vakua werden als "Falsche" Vakua bezeichnet, da sie anders als unser heutiges "echtes" Vakuum höchst instabil sind. Nach einer sehr kurzen Zeitspanne (innerhalb eines Bruchteils einer Sekunde) zerfällt ein Falsches Vakuum in das Echte, wobei die überschüssige Energie in einem Feuerball aus Elementarteilchen freigesetzt wird.

Wenn ein Vakuumszustand jedoch Energie besitzt, muss er, das wissen wir von Einstein, auch Spannung (= negativer Druck) haben. Spannung bewirkt eine abstoßende Gravitation. Und mit genau mit dieser repulsiven Kraft gelingt es der Inflationstheorie, das frühe Universum quasi aus seiner Singularität "hinauszusprengen". Da diese Raumbereiche jedoch instabil sind, zerfällt das Falsche Vakuum dann lokal, und bildet eine Blase, die dann ein echtes Vakuum und Elementarteilchen besitzt, und sich von da an "nur" noch mit annähernder Lichtgeschwindigkeit ausbreitet. Das Falsche Vakuum kann jedoch mit Überlichtgeschwindigkeit expandieren. Da nun der Neubildungsprozess des Falschen Vakuums schneller als der Zerfallsprozess ist, könnten sich theoretisch in dem Ozean des Falschen Vakuums ständig neue "Insel-Universen", gleichsam wie Blasen in einem Kochtopf bilden. Da sich der Zwischenraum zwischen ihnen mit Überlichtgeschwindigkeit ausdehnt, können diese Inseln jedoch niemals in einem kausalen Zusammenhang zueinander stehen, also keine gegenseitigen Wechselwirkungen ausüben. Guth nannte solche Universums-Inseln "Pocket-Universe", also "Taschenuniversum", da sie nur begrenzte Raumbereiche innerhalb des viel größeren Ozeans des Falschen Vakuums darstellen. 

Taschenuniversum
Bildlizenz-Info: Taschenuniversum; Bild selbst erstellt; public domain

Es ist ein äußerst faszinierender Gedanke, dass wir selbst sozusagen nur in einem "kleinen" Taschenuniversum leben, während um uns herum in einem schon fast absurd gewaltig großen Ozean von Falschem Vakuum ständig neue Universums-Inseln "hervorblubbern". Für unser lokales Taschenuniversum endet die Geschichte der Inflation jedoch mit dem Zerfall des falschen Vakuums, und unsere lokale kosmologische Evolution setzte ein, die innerhalb der nächsten 13,8 Milliarden Jahre, ausgehend von den Elementarteilchen, viele weitere interessante Strukturen hervorbringen sollte.

Abschließend sei jedoch noch auf die Idee von Guth hingewiesen, dass es sich bei unserem Universum, bzw. den vielen Taschenuniversen im Prinzip um ein ultimatives Freispiels handeln könne, da man fast Nichts braucht, um sie herzustellen. Zur mathematischen Herleitung dieses winzigen "Samenkorns" für unser Universum ist es entscheidend, dass der Radius dieser Sphäre Falschen Vakuums über dem kritischen Wert liegt, der wiederum von der Energiedichte des Vakuums abhängt. Die moderne Teilchenphysik hat bislang die Existenz des sogenannten elektroschwachen Vakuums nachgewiesen und dessen Energiedichte ermittelt. Ursprünglich muss es in der Universumsentwicklung vorher jedoch noch viel energiereichere Vakua gegeben haben, die man zwar noch nicht nachweisen, jedoch bereits theoretisch berechnen kann. Das Große Vereinheitliche Vakuum, dass drei der vier fundamentalen Wechselwirkungen zusammenführt kann derzeit bereits plausibel hergeleitet werden, das Vakuum, in dem aller vier Grundkräfte vereint sind, besitzt noch hochspekulativen Charakter. Berechnungen ergeben nun, dass beim Elektroschwachen Vakuum eine Blase von einem Millimeter nötig gewesen wäre, beim Großen Vereinheitlichten Vakuum ist dieser Radius jedoch aufgrund der viel höheren Energiedichte bereits um den sagenhaften Faktor von 10 Billionen kleiner. Mehr braucht es also nicht, als dieses winzige "Fast-Nichts", um ein Universum zu erschaffen. Und neben diesem räumlich winzigen Anfangsbereich war auch die Energiemenge ursprünglich nur extrem klein (wie es dann zu den großen Energiemengen kam, ohne den Energieerhaltungssatz zu verletzen wurde bereits im Punkt 1.2.1 beschrieben). Wahrhaft ein ziemlich ultimatives Freispiel, oder?

 

1.5.2 Entstehung und Strukturen im Raum und Sternenentstehung

Nach dem Urknall und der inflationären Phase dehnte sich das Universum "nur" noch mit Lichtgeschwindigkeit immer weiter aus und kühlte dabei ab.

Doch bei gleichmäßiger Massen(bzw. Energie-)verteilung kommt es auch bei Expansion nicht zur Entstehung von Strukturen. Hohe Temperaturen und damit hohe Geschwindigkeiten in den Teilchenbewegungen sorgen dafür, dass zufällig entstandene lokale Dichtefluktuationen schnell ausgeglichen werden. Strukturbildung setzt einen Symmetriebruch voraus.

Im inflationären Urknall-Modell wurden deshalb Symmetriebrüche innerhalb der inflationären Phase eingeführt, die bereits zur Entstehung von regionalen Dichteunterschieden führen. Diese werden dann als Anfänge der kosmischen Strukturbildung interpretiert.

Jenseits von kritischen Dichtefluktuationen sorgen bei hinreichend großer Masse die Gravitationskräfte für eine Verstärkung der Massenseparation. Massereiche Regionen ziehen Materie aus der Umgebung stärker an. Dadurch werden sie schwerer, während die Umgebung Masse verliert. Dieser Vorgang besitzt eine positive Rückkopplung. Je dichter und schwerer ein lokaler Bereich wird, umso stärker ist die durch ihn ausgeübte Gravitationswirkung auf andere Massen, und umso schneller kann er anwachsen.

Dieser Prozess läuft auch heute noch in unserem Universum mit extrem verdünnter Materie im Weltall ab, und zwar in den Gas- und Staubwolken. Interstellare Staubwolken haben zum Teil Ausdehnungen von Lichtjahren und können, obwohl die Dichte sehr niedrig ist, trotzdem kontrahieren, so dass eine Sternbildung einsetzt. Letztlich entscheidet das Verhältnis von Gravitation und thermischer Anregung über die Kontraktion oder Ausbreitung einer Materiewolke.

Erste Sterne im Universum

Die Materie des frühen Universums bestand überwiegend aus Wasserstoff, also der Verbindung eines Protons mit einem Elektron. Mit zunehmender Kontraktion von solchen Wasserstoffwolken heizen sich diese auf, da bei der Kontraktion ihre potentielle Energie in kinetische (also thermische) umgewandelt wird. Der Temperaturanstieg führt zunächst zur Ionisation, d. h. die Protonen trennen sich wieder von ihren Elektronen, und bei weiterem Temperaturanstieg können die aufeinandertreffenden Protonen oberhalb einer kritischen Dichte miteinander verschmelzen, was zur Kernfusion von Wasserstoffkernen zu Heliumkernen führt. Die ersten Sterne wurden geboren.

Die durch die Dichtefluktuationen ausgelöste Strukturbildung und die Entstehung von vielen Sternen sorgte damit auch für einen drastischen Symmetriebruch in der Temperaturverteilung im Universum. Ausgedehnte dünne, kalte Gebiete standen auf einmal enger begrenzten, dichten, heißen Gebieten gegenüber.

 

1.5.3 Entstehung der chemischen Elemente als verschiedene Atomarten (Nukleide)

Kurz nach dem Urknall lag die Bildung von chemischen Elementen, d. h. die Entstehung von verschiedenen Atomarten noch in weiter Ferne. Es gab weder Atome, noch "Licht" als freie elektromagnetische Strahlung. Denn bei ausreichend hohen Temperaturen übertrifft die thermische Energie die der elektrostatischen Wechselwirkung zwischen entgegengesetzt geladenen Teilchen. Daher können sich Elektronen nicht dauerhaft an Protonen oder andere Atomkerne binden. Es liegt ein thermisches Plasma vor. Außerdem besteht ein energetisches Gleichgewicht zwischen den Photonen und der Bewegung der massebehafteten Teilchen. Die hohe Dichte von elektrischen Ladungsträgern sorgt dafür, dass Photonen sich nicht als Lichtstrahlen ausbreiten können. Der Kosmos ist in diesem Zustand nicht transparent. Photonen bewegen sich eher wie diffundierende Teilchen.

Mit der Expansion des Weltalls verringerte sich jedoch sowohl die Dichte als auch die mittlere Temperatur des thermischen Plasmas. Dadurch wurde das Gleichgewicht zwischen gebundenen und freien Elementarteilchen in Richtung der gebundenen Elementarteilchen verschoben. In einem relativ kurzen Zeitraum dominierten dann die ersten Atome (hauptsächlich Wasserstoff, sowie kleinere Mengen Helium und Lithium) gegenüber den freien Ladungsträgern.

Gleichzeitig verschob sich das Intensitätsmaximum der Strahlung zu immer größeren Wellenlängen hin. Die Atome absorbierten nur Photonen, mit denen sie in Resonanz waren. Photonen mit dazwischen liegender oder geringerer Energie konnten ihre Energie nicht mehr an die Teilchen abgeben. Photonen und die massebehaftete Materie wurden energetisch entkoppelt und Strahlung konnte sich ausbreiten. Das Weltall wurde nun transparent (und zwar erst rund 300.000 Jahre nach dem Urknall).

Wasserstoff und Helium

In der ersten Sternengeneration kam es zunächst per Kernfusion zur Bildung von Helium aus dem bereits vorhandenen Wasserstoff. Für die stellare Kernfusion existieren grundsätzlich zwei Mechanismen: Der Proton-Proton-Mechanismus und der Kohlenstoff-Stickstoff-Zyklus, der deutlich effektiver ist. Da es im frühen Universum jedoch zunächst noch keinen Kohlenstoff gab, verwendeten die Sterne der ersten Generation den Proton-Proton-Mechanismus. Der zweite Mechanismus wurde erst ab der zweiten Sternengeneration wirksam.

Die Bildung mittelschwerer Elemente

Ein Stern der ersten Generation kann jedoch nicht nur Helium durch fusionsgetriebene Elementumwandlung erzeugen. Denn wenn das "Wasserstoffbrennen" sich dem Ende zuneigt, wird das Gleichgewicht des Sterns gestört, dass aus der nach innen gerichteten Gravitationskraft, und dem nach außen gerichteten Strahlungsdruck des Fusionsprozesses besteht. Daher steigt der innere Druck in einem Stern nach dem Wasserstoffbrennen gravitationsbedingt so stark an, dass es bei ausreichender Masse des Sterns dann zum Heliumbrennen kommen kann. Es entstehen dadurch nun vor allem Kohlenstoffkerne.

Erlischt das Heliumbrennen, kann es abermals zur Kontraktion des Sterns und zur Zündung weiterer Fusionsprozesse kommen. Dabei entstehen zunächst hauptsächlich Stickstoff und Sauerstoff. Insbesondere die Isotope 16O und 12C zeichnen sich durch eine extrem hohe Stabilität aus. Deshalb ist es nicht überraschend, dass Kohlenstoff und Sauerstoff neben Wasserstoff und Helium die häufigste Elemente im Universum sind. Doch auch der Stickstoff ist verhältnismäßig stabil und stellt das fünfthäufigste Element dar. Insgesamt können durch Fusionsprozesse relativ leicht die Elemente der zweiten Periode des Periodensystems gebildet werden.

Mit Blick auf die stoffliche Grundlage des Lebens auf der Erde ist es bemerkenswert, dass es im Weltall an den Elementen, die den Hauptbestandteil in den organischen Verbindungen bilden, die Lebewesen aufbauen, nämlich Kohlenstoff, Wasserstoff, Sauerstoff und Stickstoff, nicht mangelt.

Die Entstehung schwerer Elemente

Die Bildung von Elementen oberhalb der zweiten Periode des Periodensystems erfolgt durch weitere Integration von Protonen und Neutronen zu Atomkernen. Mit wachsender Ordnungszahl wächst jedoch auch die für die entsprechende Fusion nötige Aktivierungsenergie, so dass schwerere Elemente nur in Sternen größerer Masse entstehen.

So ein Stern muss die Fähigkeit besitzen, das Sauerstoffbrennen zu zünden. Bei hinreichend großer Masse kann die notwendige Aktivierungsbarriere überschritten werden und es bilden sich die Elemente der dritten Periode. Kann ein Stern dann auch noch die Aktivierungsgrenze für das Siliziumbrennen überschreiten, bilden sich sogar einige Elemente der 4. Periode. Doch hier erfolgt dann ein recht abrupter Abriss in der Elementbildung durch die Kernfusion. Bis zum Atomgewicht (Massenzahl) von 56, also dem Eisen, ist jede Kernfusion exotherm, liefert also mehr Energie, als für die Aktivierung notwendig ist. Besitzt ein Kern jedoch mehr als 56 Nukleonen (Protonen und Neutronen), wird bei der Fusion von Kernen keine Energie mehr abgegeben, sondern es muss Energie zugeführt werden. Eine komplette Umkehr des Mechanismus also! Während exotherme Prozesse sich nach dem Start selbst unterhalten, laufen endotherme Prozesse nur ab, wenn dabei ständig Energie zugeführt wird.

Die Bildung schwererer Elemente als Eisen, also beispielsweise Kupfer oder Gold, ist deshalb an einen speziellen energieliefernden Prozess gebunden, und kann daher in normalen Sternen im Rahmen von Fusionsprozessen nicht ablaufen. Nach den heutigen Vorstellungen ist wahrscheinlich nur eine Supernovaexplosion in der Lage, die für die Bildung der besonders schweren Elemente nötigen Energien bereitzustellen. Supernovaexplosionen sind brachiale Vorgänge, die sich am Ende der Lebensdauer besonders massereicher Sterne abspielen. Während Fusionsprozesse sich über Milliarden von Jahren hinziehen können, wird die Energie einer Supernovaexplosion innerhalb von Tagen freigesetzt. Die Strahlungsintensität dabei ist so groß, dass ein entsprechender Stern für kurze Zeit mehr Strahlungsleistung abgibt, als die gesamte ihn umgebende Galaxis! Eine in unserer Galaxie stattfindende Explosion konnte daher bereits in der Frühzeit der Menschheitsgeschichte sogar mit bloßem Auge beobachtet und aufgezeichnet werden.

Da unsere Erde und mit ihr auch die anderen Planeten, die Monde und unsere Sonne schwere Elemente (also Elemente deutlich oberhalb von Eisen) enthalten, muss die Materie, aus der unser Sonnensystem besteht, schon mindestens einen Synthesezyklus innerhalb einer Supernova durchlaufen haben. Unsere Sonne ist daher ein Stern der zweiten oder einer späteren Generation.

Es mag zunächst ein wenig befremdlich wirken, die Bausteine unsers heutigen Sonnensystems und auch die Bausteine unseres eigenen Körpers quasi als "Ausscheidungsprodukt" einer früheren Supernovaexplosion, also eines kosmischen Metabolismus, zu betrachten. Doch es ist auch ein faszinierende Gedanke sich vorzustellen, dass das Silber, Platin oder Gold in unserem Schmuck, oder das Jod in unserem Körper einst in einem so spektakulären kosmologischen Prozess entstand, und wir damit untrennbar in die Geschichte unseres Universums hineinverwoben sind.

Doch mit der Geschichte der Elemententstehung, also der Entstehung der elementaren Atomarten, endet noch lange nicht die strukturwissenschaftliche Reise in die Möglichkeiten unseres Universums, Strukturen zu kreieren. Sie fängt vielmehr damit gerade erst an! Doch was Atome eigentlich wiederum verbindungstechnisch so alles treiben können, wenn der Tag lang ist, das ist jedoch eine andere Geschichte. Es handelt sich dabei dann nämlich um die interessanten Gebiete der Wissenschaften der Chemie und der Biologie.

 

 

.

 

2. Chemie

Chemie ist die Lehre vom Aufbau, Verhalten und der Umwandlung von Stoffen sowie den dabei geltenden Gesetzmäßigkeiten. Als Stoffe gelten in der Chemie entweder Atome, Moleküle oder Ionen.

 

 

2.1 Die chemischen Elemente des Periodensystems

Die Basis für die Chemie liefert die Physik, welche den Chemikern durch die kosmologische, physikalische Elementbildung und Elementumwandlung insgesamt über 100 verschiedene "Atomsorten" bereitstellt.

Diese, aus Sicht der Physik bereits in ihrem inneren Aufbau recht komplex strukturierten Gebilde, werden in der Chemie dann zu deren "Elementen", also den elementaren Bausteinen, die innerhalb der Chemie nicht weiter auf ihren inneren Aufbau hin untersucht werden.

Die Elementumwandlungen, die in der mittelalterlichen Allchemie noch im Mittelpunkt vieler "chemischer" Versuche standen (vorzugsweise die Umwandlung von unedlen Metallen in Gold), sind aus der modernen Chemie verschwunden. Chemiker begreifen heutzutage Elementumwandlungen als rein physikalische Prozesse, und damit liegen sie sozusagen außerhalb der Zuständigkeitsbereiches eines modernen Chemikers. Wenn in der Chemie Stoffumwandlungen von Atomen stattfinden, dann nur den dem Sinne, dass beispielsweise aus einer Menge von zwei verschiedenen Atomsorten Moleküle entstehen, oder umgekehrt aus Molekülen Atome synthetisiert werden.

Alle Vorgänge der Chemie spielen sich daher nicht innerhalb von Atomen ab, sondern betreffen lediglich die äußere Elektronenhülle der Atome. Ein Chemiker verschiebt quasi lediglich Elektronen.

Das Periodensystem als Ordnungssystem der chemischen Elemente

periodic table
Bildlizenz-Info: Periodic Table German, Wikimedia, Public Domain

 

 

2.2 Die Moleküle und deren Bindungsarten (Atom-, Ionen- und Metallbindung)

Alle Erkenntnisgegenstände, die sich nicht mit den elementaren chemischen Eigenschaften der chemischen Elemente beschäftigen, dienen der Erforschung von zusammengesetzten Elementen, also Gebilden, die aus mehreren miteinander verbundenen Atomen bestehen. Es sind dies die chemischen Moleküle, welche durch ganz verschiedene Arten von Bindungen mehrerer Atome aneinander entstehen.

Sonderfälle:

 

 

2.3 Die Strukturtheorie der Chemie

Bis zur Mitte des 19.Jahrhunderts gab es in der Theorie der Chemie einen wissenschaftlichen Streit darum, durch welche Systematik sich die Eigenschaften und der Aufbau der chemischen Moleküle am besten ableiten lassen. Zur Diskussion standen die Radikal- die Typen- und die Strukturchemie. Insbesondere durch die bahnbrechenden Arbeiten von Kekulé zu den Benzolringen der organischen Chemie wurde die Chemie bis spätestens im Jahre 1870 zur Strukturchemie revolutioniert und damit letztlich auch den Siegeszug der "Strukturalisten" eingeläutet. Seit dem erklären sich die chemischen Eigenschaften aus der inneren Struktur der Moleküle. Ebenso schuf die Strukturchemie eine größere Nähe zur Physik, die ein besseres Verständnis der Verbindungsfähigkeiten der Atome bot. 6

Neben der bekannten Summenformel (z. B. "H2O") besteht die Aufgabe eines Chemikers auch darin, eine entsprechende Strukturformel aufzustellen. Diese sieht dann beispielsweise so aus:

propan
Bildlizenz-Info: Wikimedia (Propan_Lewis); public domain

Die meisten chemischen Disziplinen fokussieren sich dabei auf ein einzelnes Molekül: Es mag das Ziel einer Synthese oder eines biochemischen Isolationsprozesses sein, bedarf struktureller Aufklärung oder einer detaillierten Analyse des Moleküls mit theoretischen Methoden. Eine solche inhaltliche und methodische Fokussierung erreicht jedoch ihre Grenze, wenn Systeme betrachtet werden, in denen chemische Spezies miteinander reagieren. Speziell dafür hat sich inzwischen der Zweig der Systemchemie entwickelt.

 

 

2.4 Systemchemie

Das Gebiet, das sich mit der Analyse und dem Design von dynamischen Phänomenen in komplexen chemischen Systemen beschäftigt, heißt Systemchemie (engl. "Systems Chemistry"). Hierbei ist im Gegensatz zur klassischen Synthesechemie die Präsenz und Charakterisierung der Substanzen nur die Voraussetzung, denn Ziel ist es, das makroskopische Verhalten des Systems über mikroskopische physikochemische Parameter zu verstehen. Dabei geht es u. a. darum, autokatalytische Reaktionssysteme zu untersuchen und Methoden für ihre Integration in dynamische Supersysteme zu entwickeln. Systemchemie bildet damit den Gegenpol zur traditionellen reduktionistischen Herangehensweise an chemische Probleme, indem sie mehrere Variablen gleichzeitig und nicht nur isoliert voneinander studiert.

Beispiele für komplexe chemische Systeme sind dynamische kombinatorische Bibliotheken, oszillierende Reaktionen, chiraler Symmetriebruch, und Netzwerke autokatalytischer oder selbstreplizierender Spezies. Diesen Systemen ist gemeinsam, dass ihr Verhalten ausschließlich aus der Interaktion der zugrunde liegenden Komponenten, aber nicht aus ihren isolierten Eigenschaften resultiert. Um dynamische Phänomene zu verstehen, sind oft Computerprogramme notwendig für Aufgaben wie die Datenextraktion und -reduktion, die Optimierung theoretischer Modelle anhand experimenteller Daten und die Berechnung von Reaktionsenergieprofilen. Dafür existiert selten eine maßgeschneiderte Lösung, so dass ein Chemiker die entsprechende Software selbst schreiben oder eine bestehende modifizieren muss.

Kinetische Modellierung in der Systemchemie

Die Kinetik und Thermodynamik chemischer Reaktionssysteme, die über Rückkopplungsmechanismen verfügen, ist oft nicht trivial: In selbstreplizierenden Systemen kann es zum Beispiel durch die Wechselwirkung mehrerer Template zu Konkurrenz- oder Kooperations-Szenarien kommen; dynamische kombinatorische Bibliotheken zeigen trotz Gleichgewichtsbedingungen unter Umständen nicht die Amplifikation der stabilsten Spezies. Beide Phänomene kombiniert führen zu einem System, das teilweise thermodynamisch und teilweise kinetisch kontrolliert ist. Die Konstruktion eines Reaktionsmodells, das die gekoppelten elementaren Prozesse adäquat beschreibt, ist in vielen Fällen eine Herausforderung und erfordert im ersten Schritt physikochemisches Know-how. Im zweiten Schritt ist das Modell anhand experimenteller Daten wie zeitaufgelösten Konzentrationen oder chemischen Gleichgewichten zu simulieren und zu optimieren. Dazu muss ein Computerprogramm ein Reaktionsmodell in chemische Ratengleichungen übersetzen, diese numerisch integrieren und Parameter wie Geschwindigkeits- und Gleichgewichtskonstanten so optimieren, dass Simulation und Experiment übereinstimmen (siehe beispielsweise Simfit von Günter von Kiedrowski).

Die Systemchemie verlangt, Chemie nicht nur aus einer mechanistischen, sondern auch aus einer mathematisch-dynamischen Perspektive heraus zu verstehen.

systems chemistry
Bildlizenz-Info: Filisetti et al. Journal of Systems Chemistry, 2011; Public Domain

Molecular Modelling der Systemchemie

Um theoretische Rechnungen ergänzte experimentelle Daten sind wegen der Leistungsfähigkeit moderner Computer und vielen verfügbaren Programmen gängige Praxis. Für die Systemchemie besitzen die daraus gewonnenen Erkenntnisse besonderen Wert, da die Komplexität der zu analysierenden Systeme die Erhebung experimenteller Daten manchmal erschwert oder unmöglich macht.

Die typische Anwendungsbreite erstreckt sich für den Chemiker von der Berechnung optimierter Geometrien, über Energien von Grund- und Übergangszuständen sowie Orbitalen bis zu Eigenschaften wie magnetischen Abschirmungskonstanten oder Absorptionsbanden für die UV- oder IR- Spektroskopie. Für die Entwicklung der Systemchemie ist es wichtig, nicht nur die Methoden zu nutzen, die unter experimentell arbeitenden Chemikern etabliert sind, sondern auch den Werkzeugkasten theoretischer Methoden zu erweitern, um der steigenden Komplexität der untersuchten Systeme gerecht zu werden.

Ein Beispiel findet sich in der Analyse eines selbstreplizierenden Systems. Die theoretischen Physiker Chris D. Lorenz und Nikos L. Doltsinis vom King's College London halfen, mit Ab-initio-Molekulardynamik- Simulationen (AIMD) Freie-Energie-Profile für alle ablaufenden Reaktionen zu berechnen. Die Profile erklärten das beobachtete Reaktionsverhalten. Ein Vergleich mit Ergebnissen aus statischen Rechnungen, die bisher für derartige Systeme angewendet wurden, zeigte, dass diese Rechnungen die Produktverteilung qualitativ falsch voraussagten.

Interdisziplinäre Methoden

Was genau Systemchemie in zehn Jahren sein wird, ist nicht abzuschätzen. Ob Phänomene wie Selbstreplikation, Selbstorganisation, Oszillationen oder chiraler Symmetriebruch, die momentan als exotische Ausnahme betrachtet werden, tatsächlich selten oder doch häufig, aber in vielen Fällen unentdeckt sind, wird sich zeigen. Unabhängig von der Art weiterer Entdeckungen wird Systemchemie viel Raum für neue Methoden bieten, die zum Teil der Physik, Biologie, Informatik und Theorie komplexer Systeme entliehen sein werden. Ihr interdisziplinärer Ansatz verlangt ein vielfältiges Wissen und mag eine anfängliche Hürde darstellen, ist aber in der Lage, Wissenschaftler verschiedenster Gebiete zu integrieren und unsere heutige Sichtweise der Chemie zu ändern.

 

 

2.5 Die chemische Evolution der Moleküle und Elemente im Universum

 

2.5.1 Die Bildung chemischer Verbindungen: Molekülbildung in heißen und kalten Plasmen im All

Bei hohen Temperaturen liegen alle Stoffe in Form von Plasmen vor. In Abhängigkeit von er Art der Aktivierung gibt es thermische und kalte Plasmen. Oberhalb von Temperaturen, die der Bindungsenergie zwischen Atomen entsprechen, zerfallen Moleküle und Festkörper in Atome. Die Atome selbst verlieren die am schwächsten gebundenen, d. h. die äußeren Elektronen.

Da die Atome Elektronen verloren haben, liegen sie als Kationen vor. Die Zahl der für das Zustandekommen von chemischen Bindungen zuständigen Elektronen ist reduziert. Unter Umständen sind sogar gar keine Außenelektronen mehr vorhanden, die sich an Bindungen beteiligen könnten. Die Konsequenz ist, das Atome in den Plasmen viel weniger ihre spezifischen chemischen Eigenschaften in der Wechselwirkung mit anderen Teilchen einbringen können.

Mit der Abkühlung der Plasmen sinkt jedoch der Ionisierungsgrad und es kommt zu Bildung von Molekülionen und Molekülen. Aus Wasserstoffatomen bilden sich dann beispielsweise Wasserstoffmoleküle (H2).

Die Gesetze, nach denen Atome und Ionen miteinander in Wechselwirkung treten werden nach den Regeln der Quantenmechanik bestimmt und sind in diesem Sinne universell. Insofern sind auch die chemischen Eigenschaften der Ionen und Atome überall in Universum gleich. Dennoch kommt es in All für uns zunächst zu ungewohnten chemischen Reaktionen, da auf der Erde keinerlei Chemie in thermischen Plasmen stattfindet. Die Reaktionen auf der Erde laufen bei moderaten Temperaturen ab, oder in der Industrie werden kalte Plasmen verwendet.

Die chemischen Spezies, die durch plasmachemische Prozesse in den großen Gaswolken im Universum gebildet werden, lassen sich aufgrund ihrer spektralen Eigenschaften identifizieren. Es konnte damit bereits eine recht große Anzahl an chemischen Verbindungen nachgewiesen werden. Dabei findet man auch Spezies, die in unserer normalen irdischen Umwelt nicht, oder mur in sehr geringer Konzentration vorkommen:

Eine vollständige Liste aller im All bislang entdeckten Moleküle findet man in der CDMS-Datenbank (online). Es sind insgesamt rund 180 verschiedene Moleküle (Stand 2013), von denen die meisten nur eine Teilchenzahl von maximal 12 besitzen (mit Ausnahme der Fullerene, die bis zu 70 Atome enthalten).

Insbesondere das Auftreten von typischen Kohlenwasserstoffen wie Methan, Alkohole, Karbonsäuren und Stickstoffverbindungen mag überraschend erscheinen, da diese organischen Verbindungen auf der Erde normalerweise durch lebende Organismen gebildet werden. Wenn man jedoch berücksichtigt, dass Kohlenstoff, Wasserstoff und Sauerstoff zu den häufigsten und stabilsten Atomkernen im Weltall zählen, so verwundern die oben genannten Verbindungen in den großen Gaswolken eigentlich nicht mehr. Das Weltall liefert demnach, ohne dass es biologischer Prozesse bedarf, die Grundsubstanzen, aus denen sich eine organische Welt entwickeln kann.

Inzwischen hat man nachweisen können, dass auf manchen Himmelskörpern riesige Mengen organischer Substanzen vorkommen. Auf einigen kalten Monden der äußeren Planeten unseres Sonnensystems existieren demnach ganze Seen und Ozeane aus Methan oder Äthan. Es ist daher auch gut vorstellbar, dass Lebewesen bei entsprechendem Angebot primär eine heterotrophe Lebensweise entwickeln könnten, also zunächst energiereiche organische Stoffe anstelle von Sonnenlicht nutzen.

 

2.5.2 Die Bildung chemischer Verbindungen: Die Moleküle auf der Erde

Die Typenvielfalt der Moleküle in thermischen und kalten Plasmen im All mag mit über 180 Spezies bereits überraschend vielfältig wirken, jedoch sind sie nur ein kleiner Vorgeschmack darauf, was uns an Molekülvielfalt auf der Erde erwartet.

Bei den moderaten Temperaturen hier auf unserer Erde zählt die Chemie derzeit rund 100.000 anorganische Verbindungen.

Doch auch diese Zahl versinkt fast in der Bedeutungslosigkeit, wenn man sie mit der Anzahl der möglichen organischen Verbindungen (den Kohlenwasserstoffverbindungen) vergleicht. Dort hat man es nämlich dann mit sage und schreibe 40 Millionen Spezies zu tun!

Noch unfassbarer mag dann der Umstand erscheinen, dass auch diese Zahl durch die Vielfalt der Lebensformen auf der Erde weit in den Schatten gestellt wird (über eine Milliarde!). Doch ist ist dann wieder eine andere Geschichte, die im 3. Kapitel erzählt wird.

 

2.5.3 Die Entstehung von Festkörpern und Grenzflächen - Kristallchemie

Als ebenfalls ganz entscheidende Voraussetzung der Entwicklung des Lebens auf der Erde hat sich eine weitere spezielle Form der Chemie herausgestellt, und zwar die Kristallchemie bzw. die Mineralogie.

Zunächst ist jedoch auch diese Form der Chemie recht universell und die entsprechenden kristallinen Strukturen treten prinzipiell überall im Universum auf. Die Anzahl der vorwiegend aus anorganischen Substanzen aufgebauten Mineralien beläuft sich auf rund 4600 Spezies (die Größte Gruppe ist dabei die Gruppe der Silikate mit über 1000 Spezies). Alle Irdischen Gesteine und auch alle Himmelskörper sind aus Mineralien aufgebaut. Mineralien findet man sowohl als Feinstaub in der Luft, als auch in gelöster Form im Wasser der Seen und Ozeane. Selbst gefrorenes Wasser in Form von Wassereis kann zu den Mineralien gezählt werden.

Die Bildung von Mineralien kann durch verschiedene Arten erfolgen. Beispielsweise durch Kristallisation, oder auch durch Metamorphosen. Bei hinreichend niedrigen Temperaturen kondensieren zunächst alle Stoffe der Gasphase zu Flüssigkeiten und Festkörpern. Da die kosmische Hintergrundstrahlung im All lediglich 3 Kelvin beträgt, wird dort selbst Helium (Siedepunkt 4 Kelvin) flüssig. Abgesehen vom Wasserstoff haben Gaswolken in All die Tendenz dazu, die Gasmoleküle zu kleinen Flüssigkeitstropfen zu vereinigen.

Insbesondere in Gaswolken, die auch Metalle und Halbmetalle enthalten, ist die Wahrscheinlichkeit kleinerer  Festkörper besonders groß. Ein typisches Staubkorn im Weltraum ist daher meist schichtweise aufgebaut und besitzt eine äußere Schicht aus Wassereis oder Kohlendioxid in einen inneren Kern aus Eisen oder Silikat. Inwieweit die Metalle und Halbmetalle eher metallisch oder oxydisch vorliegen, wird im wesentlichen davon bestimmt, ob in der betreffenden kosmischen Region ein Überschuss an Metallen oder an Sauerstoff gebildet wurde. Liegen mehr metallische Endprodukte vor, wird der Sauerstoff in Oxiden gebunden und der Rest der edleren Elemente kann metallisch bleiben. Daher spiegeln sich auch in den Meteoriten diese Verhältnisse in den zwei Hauptklassen wieder: Steinmeteoriten und Nickel-Eisen-Meteoriten.

Die Entstehung größerer Himmelskörper bei niedrigen Temperaturen (wie auf der Erde) ist mit einer Separation der Elemente verbunden, da im Gegensatz zu den heißen Plasmen nun die chemischen Eigenschaften der Elemente ganz entscheidend deren gegenseitige Bindung beeinflussen. Es entstehend daher nun unterschiedlichste Festkörper und Moleküle je nach qualitativer und quantitativer Zusammenstellung der Elemente und in Abhängigkeit vom zeitlichen Verlauf der Verbindungsbildung.

Aufgrund ihrer chemischen Eigenschaften können athmophile und lithophile Elemente unterschieden werden. Die athmophilen Elemente (wie Sauerstoff oder Wasserstoff) bilden bevorzugt nur kleine Moleküle, die nur schwache intermolekulare Bindungen ausbilden, und sich daher in der Atmosphäre von Planeten oder Monden wiederfinden. Die lithophilen Elemente (wie Eisen oder Kalzium) kommen dagegen in Gesteinen vor, weil sie vor allem in die kondensierte Phase übergehen und häufig Bestandteil dreidimensionaler Bindungsnetzwerke sind.

Die lithophilen Elemente können dann wiederum in chalkophile Elemente (wie Magnesium), die sich in der Erdkruste befinden, und siderophile Elemente (wie Eisen), die sich im Erdkern befinden, unterschieden werden.

Die Kombinationen von Elementen, vor allem die von positiv geladenen Metallen und negativ geladenen Nichtmetallen bzw. deren Sauerstoffverbindungen, führen zur großen Vielfalt an Festkörpertypen, die sich nach Kristallaufbau und Zusammensetzung unterscheiden, nämlich den Mineralien.

Da Mineralien nach elementarer Zusammensetzung und Kristallstruktur eindeutig bestimmt sind, bestimmen die mikroskopischen Eigenschaften unmittelbar die makroskopischen. Kristalle des gleichen Typs haben prinzipiell die gleichen Eigenschaften, egal ob sie winzig oder riesig sind. Die Bedingungen der optimalen Raumfüllung und der Elektroneutralität bei der Ausbildung von kovalenten und koordinativen Bindungen bestimmen die prinzipielle Anordnung der Atome. Aufgrund der Fernordnung bei Kristallen bestimmen diese dann ebenfalls die makroskopische Form. So weisen beispielsweise Kochsatzkristalle eine kubische Form auf, weil die Natrium- und die Chloridionen im NaCl ein kubisches Ionengitter aufbauen. Alaun (KAl(SO4)2.12H2O) dagegen formt aufgrund der sechszähligen Koordinationsumgebung des Aluminiums Kristalle mit regelmäßiger Oktaeder-Form.

In den erstarrten Himmelkörpern liegen die Elemente jedoch nicht als isolierte Mineralien vor, sondern als Gesteine. Gesteine wiederum sind aus einer Vielzahl an Mineralien aufgebaut. Dadurch ist die Zusammensetzung in den Gesteinen viel komplizierter als in den Mineralien. Dabei spielen nicht nur die mengenmäßigen Verteilungen, sondern auch beispielsweise die jeweiligen Korngrößen eine wichtige Rolle. Durch das Zusammenwirken von unterschiedlichen Mineraltypen, Formen, Größen und Anordnungen, ist die Zahl der Gesteinsvarietäten praktisch unendlich groß. Gesteine unterschiedlicher Herkunft können deshalb zwar verwandt sein, sie weisen im Allgemeinen jedoch stets spezifische Merkmale ihres Entstehungsprozesses auf und lassen sich so den individuellen Vorkommen zuordnen.

Diese enorme Vielfalt an Gesteinen sorgt für eine ebenso große Vielfalt lokaler Oberflächenverhältnisse. Gesteine, die zerbrechen oder verwittern, bilden je nach den äußeren Umständen unterschiedliche Oberflächen aus. Grenzflächen-orientierte Vorgänge, wie sie für die Entstehung des Lebens eine Rolle spielten, finden auf erstarrten Himmelskörpern, deren Oberfläche tektonischen und erosiven Veränderungen unterliegt, daher ein weites Spektrum anorganischer Oberflächenzustände vor.

 

 

.

 

3. Biologie

 

 

3.1 Leben und Lebewesen als besondere Form molekularer Selbstorganisation und emergenter Komplexität

 

3.1.1 Die strukturwissenschaftliche Perspektive in Bezug auf das Leben

Biologie ist die Lehre vom Leben. Das Leben, Lebewesen und Lebenserscheinungen erschließen sich uns heutzutage selbstverständlich auch durch eine systemtheoretische Gegenstandsauffassung und Methodik.

Diese strukturwissenschaftliche Perspektive betont dabei im Vergleich mit einer eher elementaristischen Zugangsweise ausdrücklich die strukturelle und prozessuale Einheit aller Teile bzw. Elemente des Erkenntnisgegenstandes einschließlich seiner Koppelung an die für den Lebensträger relevante physische und soziale Umwelt.

Wirkursache und Zweckursache

Die vergleichende Erkenntnisperspektive des verallgemeinerten Gegenstandes eines "lebenden Systems" erleichtert die Erweiterung üblicher naturwissenschaftlicher Basis wissenschaftlicher Erklärung über das Vorbild der Physik hinaus:

Analog zur Unterscheidung zweier Erklärungsebenen in der Biologie (der proximaten und ultimaten Erklärung) lässt sich eine erklärungsbedürftige Eigenart lebender Systeme, wie z.B. die Intelligenz, nicht nur nach Wirkursachen (also genetische, physiologische und soziale Faktoren), sondern auch nach Zweckursachen, d.h. hinsichtlich seines individuellen und evolutiven Anpassungswertes in der Organismus-Umwelt-Interaktion erklären (teleonome Erklärung, Wozufrage). Der letztere Erklärungsansatz ist typisch für die Evolutionspsychologie und in Verbindung mit der Genetik auch für die Soziobiologie.

Leben als strukturwissenschaftliches System

Der Ansatz des „lebenden Systems“ wird methodologisch gestützt durch neuere interdisziplinäre Konzepte auf strukturwissenschaftlicher Basis, wie z. B. Kybernetik, Informationstheorie, Spieltheorie, Theorien zur Selbstorganisation, Chaostheorie, Synergetik, Semiotik etc. oder allgemein durch systemtheoretische Betrachtungsweisen. Neue interdisziplinäre Wissenschaftszweige wie Neuro- und Kognitionswissenschaften implizieren diese bedeutsame Sichtweise. Vor diesem Hintergrund ist auch der Vergleich zwischen belebten und unbelebten Systemen informativ, z. B. unter Hinzunahme der Computerwissenschaften (neuronale Netzwerke, Künstliche Intelligenz). 7

Eigenarten, Zustände, Strukturen, Prozesse und Produkte lebender Systeme sind nicht nur Erkenntnisgegenstand der Biologie und Biopsychologie, sondern auch naturwissenschaftlich orientierte Humanwissenschaften wie Medizin oder Anthropologie haben Leben bzw. lebende Systeme zum Erkenntnisgegenstand. Traditionsgemäß befasst sich jedoch vor allem die Biologie in verschiedenen Disziplinen mit Lebewesen, mit vergleichender Verhaltensforschung und Humanethologie (Ethologie), mit Evolutionsbiologie, mit der Soziobiologie und mit der Verhaltens- und Molekulargenetik.

Unter lebenden Systemen versteht man daher nicht nur individuelle Lebewesen, sondern auch soziale Verbindungen zwischen Lebewesen (Paarbildung, soziale Gruppen und Gesellschaften, Staaten etc.). So befasst sich die Soziobiologie z. B. ausdrücklich mit dem Sozialverhalten lebender Systeme (z. B. Altruismus, Hilfeverhalten).

 

3.1.2 Merkmale von Lebewesen als ein lebendiges, biologisches System

Für lebende Systeme werden traditionsgemäß aus biologischer Sicht folgende Kriterien genannt:

Umfassendere und komplexere Definitionsversuche gegenüber dem Begriff "Leben" unterscheiden sich in vieler Hinsicht, z.B. nach ihrer theoretischen Bezugsetzung (z.B. Evolutionstheorie) oder nach ihrer übergeordneten strukturwissenschaftlichen Einbettung:

Aus biologischer aber gleichzeitig transdisziplinärer Sicht definiert z.B. Konrad Lorenz vor dem Hintergrund der Verbindung von Ethologie, Evolutionsbiologie und philosophischer Erkenntnistheorie (Evolutionäre Erkenntnistheorie) Leben als "erkenntnisgewinnenden Prozess". In bestimmten interdisziplinären strukturwissenschaftlichen Konzepten werden systemtheoretische Prinzipien der Selbstorganisation komplexer Systeme (mit Selbstregulation und Selbstproduktion) herausgestellt. Evolutive lebende Systeme werden z.B. durch spieltheoretische Konstrukte modelliert (Spieltheorie).

Noch weiterreichende allgemeine Konzepte implizieren z. B. auch Vergleiche mit physikalischen und chemischen Systemen und stellen die Fähigkeit lebender Systeme zum ständigen Aufbau von Ordnungsstrukturen entgegen der Entropie-Aussage des II. Hauptsatzes der Thermodynamik in den Vordergrund, und zwar als dissipative Strukturen fern vom thermodynamischen Gleichgewicht. Unter dieser Perspektive ist dann auch die Einordnung von Leben in den gesamten Ablauf der universellen Evolution informativ, insbesondere der Übergang von unbelebten auf belebte Systeme und schließlich die Entstehung von Strukturen mit komplexeren und besonderen Eigenarten wie Geist oder Bewusstsein. Diese Perspektive ist eng verbunden mit dem Leib-Seele-Problem bzw. dem psychophysischen Problem.

Allen Definitionen gemeinsam ist der Hinweis auf den besonderen Zeitbezug lebender Systeme, z.B. im Hinblick auf zeitlich organisiertes Lern- und Anpassungsvermögen (als Gegenstand der Lernpsychologie) oder allgemein bezogen auf individuelle Entwicklungsprozesse (Ontogenese) und langfristige Evolution (Phylogenese).

 

3.1.3 Das naturwissenschaftliche Verständnis des Lebens als besondere Form der Selbstorganisation - von der Chemie zur Biologie

Während die Entstehung chemischer Verbindungen naturwissenschaftlich gesehen inzwischen gut verstanden ist und im Labor immer wieder nachvollzogen wird, ist die Entstehung von primären lebensfähigen Einheiten bislang nicht vollständig geklärt. Es lassen sich zwar wesentliche Merkmale lebender Systeme angeben, wie beispielsweise Ferne zum thermodynamischen Gleichgewicht/Metabolismus, Gestaltbildung, Reaktionsvermögen, Bewegung, Reproduktionsvermögen, Mutabilität, sowie viele Details der Struktur und Funktion von biologischen Molekülen und Molekülkomplexen. Dennoch reicht unsere Kenntnis derzeit noch nicht aus, um im Labor aus Molekülen lebensfähige Einheiten herstellen zu können.

So entsteht zunächst der Eindruck, dass die Vorstellung von Leben als Form der molekularen Selbstorganisation zu kurz greift. Auf der anderen Seite sind molekulare Selbstorganisationsprozesse so fundamental für lebende Systeme, dass sie als eine essentielle Grundlage des Lebens verstanden werden müssen.

Es besteht keinerlei Zweifel daran, dass jede Zelle ihre Funktion auf der Basis biomolekularer Prozesse organisiert. Zellen funktionieren durch das komplexe Zusammenspiel einer großen Zahl von Molekülen mit unterschiedlichen Eigenschaften, wobei die spezifischen Fähigkeiten der Moleküle zur Interaktion der Schlüssel für die räumliche und auch die zeitliche Organisation innerhalb der Zelle sind. Und auch wenn der aktuelle Stand der Naturwissenschaft in Bezug auf Leben noch ein wenig unbefriedigend ist, erlaubt uns die Kenntnis der Mechanismen der molekularen Selbstorganisation, wie sie in lebenden Zellen eine wesentliche Rolle spielen, die spontane Entstehung von Strukturen und Funktionen lebender Systeme plausibel zu machen.8

 

3.1.4 Selektion und Anpassung von Molekülen in hierarchisch organisierten Systemen (Molekülarchitektur)

Auch eine kleine, "primitive" Zelle enthält viele Milliarden von Molekülen. Zellen sind jedoch keine bloße Ansammlung von Molekülen, die mit einem chemischen Reaktor vergleichbar sind. Denn die Art und das zahlenmäßige Verhältnis der Moleküle entsprechen den spezifischen Anforderungen und Eigenheiten der jeweiligen Zelle unter den speziellen Lebensumständen. Diese Anpassung können lebende Systeme nur durch eine räumliche Organisation der molekularen Bestandteile erreichen. Wegen der großen Anzahl der Atome und Moleküle ist eine effektive Kontrolle dieser Zusammensetzung nur durch ein hierarchisches Organisationsmuster erreichbar.

Viele der kleineren Moleküle, die in Lebewesen vorkommen, finden sich so auch in der unbelebten Natur. Der entscheidende Unterschied in der prinzipiellen Organisation von lebenden und nichtlebendigen Stoffsystemen liegt in der besonderen Nutzung von Makromolekülen. Lebende Systeme enthalten stets ein Spektrum von großen Molekülen wie Polysacchariden, Proteinen und Nukleinsäuren, welche für die Lebensprozesse essentiell sind und sich nach Aufbau und Funktion von Organismus zu Organismus unterscheiden.

Das Wesen der Komplexität bei lebenden Systemen liegt nicht so sehr in der schier unermesslichen Zahl der Elemente und der prinzipiellen Subordination von Elementen unter andere. Lebendige Komplexität ist vielmehr das Vermögen gekennzeichnet, auch sehr große Vielfalten zu ordnen, d. h. auf eine verhältnismäßig kleine Anzahl von Parametern zurückzuführen.

Der entscheidende Vorteil einer hierarchischen Organisation besteht in der Beschränkung auf wenige Kategorien innerhalb jeder Gruppe und der Möglichkeit, in einer Gruppe nur wenige Typen unterscheiden zu müssen. Hierarchien sind daher robust gegenüber moderaten Änderungen ihrer Elemente. Das Entscheidende ist demnach die Beschränkung der Zahl der Kategorien. Dieses Prinzip ist in der biomakromolekularen Organisation geradezu perfekt realisiert. Es gibt nur eine Gruppe von vier Hauptkategorien größerer Moleküle, in denen alle Atome durch kovalente Bindungen verknüpft sind:

Diese vier Kategorien sind durch klare Unterschiede in den molekularen Bauprinzipien gekennzeichnet. So bestehen beispielsweise alle Nukleinsäuren nur aus vier Typen von Nukleotiden, wobei jeder dieser Nukleotiden wiederum nur aus drei Untereinheiten besteht, von denen zwei dieser Bausteine konstant und nur der dritte Baustein, die Nukleinbase, variabel ist.

Auch bei den Proteinen ist der hierarchische Aufbau leicht ersichtlich. Alle Proteine (Aminosäurenkette > 100 Kettenglieder) und Peptide (Aminosäurekette < 100 Kettenglieder) basieren auf lediglich 20 verschiedenen Aminosäuren, die im wesentlichen aus vier Typen bestehen: zwei lyophile und zwei hydrophile. Proteine sind häufig in Domänen organisiert, die ihrerseits wiederum aus Sekundärstruktureinheiten bestehen. Die reine Aminosäuresequenz nennt man Primärstruktur.

Unter vereinfachenden Annahmen zur hierarchischen Ordnung innerhalb einer lebenden Zelle kann man rund 10 Organisationsstufen zwischen den einzelnen Atomen bis hin zu Proteinaggregaten in einem supramolekularen Funktionskomplex ausmachen. Damit werden dann rund 1 Million Atome räumlich und funktionell organisiert. Bis zur Gesamtstruktur der Zelle werden dann nochmals einige Organisationsebenen benötigt, um schließlich rund 500 Milliarden Atome zu organisieren. Ohne Hierarchie und Typenbeschränkung ein schier aussichtsloses unterfangen, zumal in Zellen eine unglaublich hohe Reaktionsgeschwindigkeit unabdingbar ist.

Doch die hierarchische Gliederung ist nicht nur für die Organisation der Zelle als solche von Bedeutung. Sie ist auch ein entscheidendes Element der Anpassung und Entwicklung in der Evolution. Wurden früher nur Individuen oder gegebenenfalls auch Arten als Zielscheibe der Selektion angesehen, so können nach neueren Überlegungen alle Einheiten innerhalb eines hierarchisch organisierten lebenden Systems als Angriffspunkte für die Evolution dienen. Die Selektion reicht demnach über eine relativ überschaubare Anzahl an Hierarchien von der Art bis hinunter zum Atom.

 

3.1.5 Autokatalytische Systeme im Raum

Katalytische Reaktionen sind in der Natur ebenso wie in der chemischen Technik weit verbreitet. Unter Katalyse versteht man die Beschleunigung einer Reaktion durch die Anwesenheit eines an der Reaktion beteiligten Stoffes. Dieser Stoff, der Katalysator genannt wird, geht dabei jedoch unverändert aus der Reaktion wieder hervor.

Molekulare Evolution setzt voraus, dass Substanzen ihre eigene Bildung unterstützen. Dieses Phänomen ist in der Chemie als Autokatalyse bekannt. Chemische Autokatalyse ist die chemisch-kinetische Erscheinungsform einer positiven Rückkopplung.

Von den lebenden Systemen sind positive Rückkopplungen gut bekannt. So stellt jedes vermehrungsfähige Lebewesen ein solches System positiver Rückkopplung dar. Kinetisch lässt sich das folgendermaßen definieren: Unter Einwirkung eines Lebewesens entstehen aus Nahrung ein oder mehrere Lebewesen des gleichen Typs. Analog dazu wird die Autokatalyse in der Chemie als Reaktion beschrieben, bei der ein Stoff A mit Hilfe eines Stoffes B zu n mal A wird. Solange genügend B vorhanden ist, wächst A exponentiell an. Dieses Verhalten ist auch von Bakterienpopulationen, die in einer Petrischale gezüchtet werden, bekannt. Dieses Anwachsen bedeutet zugleich auch ein exponentielles Wachstum der Reaktionsgeschwindigkeit, so dass man auch von einer selbstbeschleunigenden Reaktion sprechen kann.

Ein besonders drastisches Beispiel für eine chemische Autokatalyse ist eine exotherme Reaktion, bei der das exponentielle Anwachsen noch zusätzlich mit einer Freisetzung von Wärme verbunden ist, welche die Reaktion abermals verstärkt. Dieses Verhalten hat im Allgemeinen einen katastrophenartigen Prozessablauf zur Folge, wie er bei chemischen Explosionen beobachtet werden kann.

Die Katastrophe bleibt jedoch aus, wenn zusätzlich negative Rückkopplungen das immer schnellere Ansteigen der Reaktionsgeschwindigkeit beschränken. Da negative Rückkopplungen bei den meisten chemischen Prozessen einfach dadurch zustande kommen, dass sich die Geschwindigkeit durch den Verbrauch der Ausgangsstoffe wieder verlangsamt, finden sich in kinetischen Systemen gekoppelter Reaktionen häufig negative Rückkopplungen, die zu einer solchen Beschränkung führen. Im Ergebnis findet man dann, dass die Reaktionsgeschwindigkeit zunächst anwächst, um nach einiger Zeit wieder abzunehmen. Ohne Autokatalyse sinkt die Reaktionsgeschwindigkeit im Vergleich dazu stets monoton, also nimmt kontinuierlich ab. Mit der Autokatalyse ist jedoch ein sigmoider Verlauf der Produktkonzentration verbunden. Die Konzentration steigt zunächst schnell an, und bleibt dann bei einem nach oben hin beschränkten Wert konstant. Eine solche Wachstumskurve entspricht auch dem Verlauf einer biologischen Wachstumskurve einer Population, deren Populationsgröße nach oben hin durch die Limitierung des Nahrungsangebotes nicht unbegrenzt anwachsen kann.

Liegen bei ständiger Zuführung der Ausgangsstoffe die Ratenkonstanten für die Autokatalyse und die negative Rückkopplung in einem passenden Bereich, so kann das System spontan in einen Wechsel von Reaktionsintensitäten übergehen. Das chemische System oszilliert. Solche chemischen Oszillationen können regulär sein, einfache oder Mehrfachperioden aufweisen oder auch chaotisch ablaufen.

Das Auftreten von Oszillationen zeigt an, dass sich das System im hinreichenden Abstand zum thermischen Gleichgewicht befindet. Die Oszillationen können nur auftreten, wenn fortwährend Reaktionsstoffe umgesetzt werden. Dabei wird Entropie produziert. Man spricht daher auch von einem dissipativen (energiestreuenden) System. Auch der Stoffwechsel von Lebewesen läuft in einem gewissen Abstand zum thermodynamischen Gleichgewicht ab. Alle Organismen stellen dissipative Systeme dar, produzieren also Entropie, die sie an die Umgebung abgeben. Auf der anderen Seite können chemische Oszillationen jedoch auch zu chemischen Wellen führen. Das System baut damit quasi spontan eine Binnenstruktur auf. Der Entropiezunahme in der Umwelt steht daher eine Entropieabnahme, also der Aufbau von geordneten Strukturen, im System gegenüber.

Komplexe Autokatalyse

In komplexeren Reaktionssystemen können auch zwei oder mehrere autokatalytische Vorgänge miteinander gekoppelt sein. Dadurch ergeben sich katalytische Ketten. Ist das Produkt des letzten Reaktionsschrittes dann wiederum der Katalysator der ersten Reaktion, so entsteht ein katalytischer Zyklus. Ein solcher Zyklus hat den Charakter eines autokatalytischen Prozesses, da sich die Bildung eines jeden Katalysators selbst verstärkt. Als Nebeneffekt werden die jeweiligen anderen Katalysatoren dabei mitverstärkt.

Liegen in komplexen Stoffsystemen mehrere solcher katalytischer Zyklen vor, so können diese entweder um einen gleichen Ausgangsstoff konkurrieren, oder aber auch in kooperativer Weise miteinander verkoppelt sein, so dass jeder Zyklus die anderen Zyklen mitverstärkt. Ein solches kinetisches System geschachtelter katalytischer Zyklen wird nach Schuster und Manfred Eigen Hyperzyklus genannt.

 

 

3.2 Der Mensch als komplexes biologisches System

 

3.2.1 Der einzelne Mensch: Biologie, Neurologie und Psychologie sinnverarbeitender biologischer Systeme

Die Psychologie des Menschen

Für den speziellen Gegenstand der Psychologie, also das individuelle Verhalten und Erleben eines Menschen, wird übereinstimmend besonders die Bedeutung hochentwickelter neuronaler informationsverarbeitender Strukturen herausgestellt. Sie kontrollieren den Ablauf bestimmter kognitiver (und emotionaler) Funktionen, die dem Menschen eine besonders große Flexibilität in der lernabhängigen Anpassung an wechselnde Umweltbedingungen ermöglichen.

Die Grundbedürfnisse des Menschen aus Sicht der Psychologie

Über die Grundbedürfnisse des Menschen bestehen bis dato noch keine einheitlichen Theorien, sondern lediglich verschiedene Theorieansätze.

Aus einer Basisdefinition, die den Menschen zunächst als physikalisch/chemisch/biologisches System ansieht, können beispielsweise folgende Bedürfnisse abgeleitet werden: 

Ein inzwischen umstrittener Klassiker aus Sicht der Psychologie zum Thema Grundbedürfnisse ist zudem die Maslow'sche Bedürfnispyramide.

Ein moderner Vertreter der neurobiologisch orientieren Psychologie ist Klaus Grawe, der wiederum folgende Grundbedürfnisse postuliert:

Für jedes dieser Grundbedürfnisse erlebt der Mensch nach Grawe dann entweder eine Befriedigung oder eine Frustration, und entwickelt daraus motivationale Schemata, die entweder der Annäherung an ein gewünschtes Ziel entsprechen, oder einen ungewollten Zustand zu vermeiden versuchen. Die Hirnforschung von Grawe untermauert dabei eindrucksvoll die lösungsfokussierte Denkweise des Menschen: Annäherung und Vermeidung sind nicht bipolar, sondern aktivieren im Gehirn unterschiedliche und voneinander unabhängige neuronale Schaltkreise.

Motivationale Schemata entstehen demnach durch die Verknüpfung von Bedürfnissen, Zielen, Ressourcen und Strategien zu inneren Ordnungszuständen.

Weitere Bedürfnisse wären beispielsweise die nach Sicherheit, Veränderung, Freiheit, Selbstbestimmung, Kreativität, Zerstreuung und Erlebnissen mit Erinnerungswert.

Psychologische Definition von  Sinn als individuelles Sinnerleben eines Menschen

Laut der Handlungstheorie ist das Sinnerleben ein Konstrukt der handlungstheoretischen Psychologie, entwickelt aus dem Begriff der Handlung, gemäß ihrem Merkmal der Referentialität (Verweisungszusammenhang). Danach ist Sinn die Bedeutung oder der Wert, den eine Handlung oder ein Projekt in Hinblick auf einen größeren Zusammenhang für jemanden hat, und die Bedeutung dieses größeren Ganzen selbst.

Allgemein gilt das Leben als in sich selbst sinnvoll (Lebenssinn), d.h. dass es durch sein Vorhandensein gerechtfertigt ist. Nahezu alle gegenwärtig namhaften Theorien einer in wesentlichen Zügen übereinstimmenden Handlungstheorie betonen: Handlungen haben Ziele; sie stehen im Mittelpunkt aller Theorien. Zielsetzungen erfordern Entscheidungen: ihnen kommt eine Schlüsselrolle in der Gestaltung der Identität und des persönlichen Sinns zu. Ein Motiv nach Sinnsuche als Einordnung in einen größeren Zusammenhang ist in den meisten Konzepten enthalten. Handlungen können in übergeordneten Strukturen wie Projekten dargestellt werden. Die darin erfolgte Kontinuitätserfahrung vermittelt das Sinnerleben.

Regelungstheoretisch betrachtet stellen die behavioralen und kognitiven Operationen eines Bewusstseinssystems ein sequentiell-hierarchisch verwobenes Netz dar und verweisen in ihrem Sinngehalt aufeinander. So erhält jede Operation ihren Referenzrahmen auf verschiedenen Referenzebenen. Bei gezielten Handlungen erfolgt die Kontrolle von oben nach unten. Für eine Sinntheorie ist die höchste Ebene entscheidend, also die Ebene der sinnhaltigen Selbstdefinition(en) der Person. Der Mensch kann seine Operationen ansehen, werten und reflektieren, um zu erfahren, wer er ist, und er kann den sinnhaltigen, verhaltensführenden Referenzrahmen seines Handelns bestimmen, ja sogar sein biologisches Überleben dem Sinnprinzip unterordnen.

Aus Sicht erfahrungswissenschaftlicher Forschung wird Lebenssinn konstruiert und dem Leben vom Menschen beigelegt, so dass sein Leben für den einen Menschen sinnvoll, für den anderen sinnlos sein kann oder für jemanden gegenwärtig sinnvoll und ein anderes Mal sinnlos. Das Sinnerleben wird dem Menschen gewöhnlich durch das Kontinuitätserleben seines selbstreferentiellen Handelns (Permanenz der Operationen) in Projekten, im Erleben von Differenz und Identität mit sich selbst in der Zeit, auch in der Muße und im “Flow-Erleben”. Geistige und emotionale Prozesse der Reflektion des eigenen Existierens und der Konstruktion können damit einhergehen, müssen es aber nicht. Daher ist das Postulat eines gesonderten Bedürfnisses nach Sinn im konkreten Einzelfall zwar fragwürdig, nicht jedoch die allgemeine Tendenz zur Konstruktion größerer Zusammenhänge.

Sinnsuche als Suche nach einem größeren Zusammenhang kann beispielsweise durch die Gefährdung der Selbstdefinition ausgelöst werden. Ursachen der Gefährdung sind – externe oder interne – Ereignisse, die einen Bruch im Kontinuitätserleben darstellen, wie etwa “kritische Lebensereignisse”. Vielen wird erst im Erleben von Sinnverlust, Sinneinbruch, Sinnkrise und Sinnlosigkeit die existentielle Dimension von Lebenssinn erlebbar. 9

 

3.2.2 Gruppen von Menschen: Biologie, Neurologie und Soziologie sinnverarbeitender biologischer Systeme

Systemtheoretische Modelle der menschlichen Soziologie

Eine mathematische-systemtheoretische Begründbarkeit der Erforschung des Sozialverhaltens von Menschen, also von deren  zwischenmenschlichen Beziehungen, wird beispielsweise von der soziologischen Systemtheorie von Niklas Luhmann versucht. Eine wichtige strukturwissenschaftliche Komponente ist dort der zentrale Begriff der Kommunikation. Luhmanns Systemtheorie basiert auf der Evolution von Kommunikation (von Sprache über Schrift bis hin zu elektronischen Medien) und parallel auf der Evolution von Gesellschaft (durch soziale Differenzierung).

Daraus ergeben sich drei Hauptstränge: Die Systemtheorie als Gesellschaftstheorie, die Kommunikationstheorie (als Theorie der Interaktion von Individuen) und die Evolutionstheorie. Dabei gilt vor allem der Begriff des Sinns als Grundbegriff der modernen Soziologie. Denn Sinn ist die Voraussetzung dafür, dass etwas (eine Information, eine Aussage) Bedeutung haben kann.

Sinn als systemtheoretisches soziales Phänomen

Sinn gilt Luhmann als Ordnungsform des menschlichen Handelns und Erlebens schlechthin und die Aufgabe der Soziologie wird darin gesehen, über die Grundlagen des sinnkonstituierenden und sinnkonstituierten Erlebens und Handelns aufzuklären. Sinn ist dabei ein Verweisungszusammenhang und kennzeichnend für alle intentionalen Systeme.

Luhmann thematisiert und problematisiert dabei vor allem folgende Begriffe: Komplexität und Kontingenz, Selektion und Selektivität. Mit dem Terminus der "basalen Instabilität" bezieht sich Luhmann auf die inhärente Unruhe von Sinn, die zur Folge hat, dass Sinn sich permanent selbst zum Wandel und zum Wechsel zwingt.

Alles Sinnprozessieren ist instabil, weil sich der Aktualitätskern der jeweiligen Sinnbestimmung immer wieder verschiebt, weil jede Aktualisierung von Sinn stets neue Differenzen und neue Horizonte von Aktualität und Potentialität eröffnet. In diesem Sinne spricht Luhmann auch von dem Sinngeschehen als "Autopoiesis par exellence". Sinn ist der Operationsmodus eines Systems, wie beispielsweise eines einzelnen Bewusstseins oder auch der Gesellschaft und kommt außerhalb dieser Systeme nicht vor. In ihnen wird Komplexität und Selbstreferenz in der Form von Sinn verarbeitet, also ist Erleben und Handeln immer eine Selektion nach Sinnkriterien.

Weiterhin sind auch die Problemfelder der Spieltheorie (bzw. der interaktiven Entscheidungstheorie) von einem strukturwissenschaftlichen Standpunkt aus relevant, und zwar in Bezug auf den Umgang mit Konflikten. Das überhaupt Konflikte entstehen liegt an der Natur der Interaktion selbst (zumindest im Sinne der Spieltheorie). Zwei intentionale Systeme bekommen es hier miteinander zu tun und verfolgen keineswegs dabei stets die gleichen Ziele. Eine mögliche Lösungsform, sozialen Konflikten ganz aus dem Wege zu gehen, wäre beispielsweise die Beendigung einer instabil bzw. kritisch gewordenen Beziehung, d. h. man vermeidet die Probleme der strukturellen Kopplung ganz einfach durch Entkopplung.

Deswegen kann man sich bei sozialen Problemen primär eigentlich auch stets fragen, welche Intentionen (Ziele) man eigentlich mit einer strukturellen und potentiell problemträchtigen Kopplung verfolgt. Die spannende Frage wäre, warum überhaupt jemand eine feste Bindung anstreben sollte, wenn er alternativ auch sein ganzes Leben lang frei sein kann? Man könnte vielleicht davon ausgehen, dass es letztenendes strukturbilde Ursachen sind, die den Menschen als biologisches System eine Affinität zur Strukturbildung nahelegt, und damit zur Schaffung von strukturellen Kopplungen antreibt. Denn Freiheit bedeutet leider auch Struktur- und Orientierungslosigkeit und kann bis hin zu existenziellen Zweifeln führen.

Die doppelte Kontingenz sinnbenutzender Systeme

Entscheidet man sich jedoch für "Kopplungen", wie beispielsweise der konkreten Kommunikation zwischen zwei Personen, gibt es dazu in der Soziologie das Modell der doppelten Kontingenz. Der Begriff "Doppelte Kontingenz" stammt dabei ursprünglich aus der Theorie des Soziologen Talcott Parsons. Gemeint sind damit soziale Systeme (z. B. Menschen), die bereits für sich gesehen kontingent sind, jedoch im sozialen Rahmen miteinander interagieren und somit dann ein doppelt kontingentes System bilden.

Grundvoraussetzung für doppelte Kontingenz sind für Luhmann hochkomplexe sinnbenutzende Systeme, die füreinander nicht durchsichtig und nicht kalkulierbar sind (wie beispielsweise bei einem Gespräch zwischen Mann und Frau). Beide bekommen miteinander zu tun. Sie bestimmen ihr Verhalten durch komplexe selbstreferentielle Operationen innerhalb ihrer Grenzen. Doch die Gesprächspartner können sich theoretisch blockieren, wenn beide nicht wissen, wie sie handeln werden. Deshalb sind Sinnsysteme hochsensibel für beliebige Bestimmungen. Doppelte Kontingenz wirkt dann als Beschleuniger des Systemaufbaus.

Unbekannte Partner signalisieren daher wechselseitig Hinweise auf die wichtigsten Verhaltensgrundlagen: Situationsdefinition, sozialer Status, Intention. Wenn ein Gespräch beginnt, beginnt auch die dazu gehörige Systemgeschichte. Sie nimmt das Kontingenzproblem mit und rekonstruiert es. Nun geht es immer mehr um die Auseinandersetzung mit der selbstgeschaffenen Realität: Umgang mit Fakten und Erwartungen. Diese Realität hat man selbst mit geschaffen und diese Realität hat den Verhaltensspielraum verändert. Er ist nicht mehr so offen, wie zu Anfang. Die doppelte Kontingenz ist dann nicht mehr in ihrer ursprünglichen, zirkelhaften Ursprünglichkeit gegeben. Ihre Selbstreferenz hat sich enttautologisiert; sie hat Zufall inkorporiert.

Doch wie findet man nun eigentlich eine Sinngebung in einer derart kontingenten Umgebung? Wenn jeder kontingent handelt, also jeder auch anders handeln kann und dies von sich selbst und den anderen weiß und in Rechnung stellt, ist es zunächst unwahrscheinlich, dass eigenes Handeln überhaupt Anknüpfungspunkte (und damit: Sinngebung) im Handeln anderer findet. Ohne die Lösung des Problems kommt kein Handeln zustande. Wie löst sich das Problem der doppelten Kontingenz?  Parsons unterstellt zur Lösung einen Wertkonsens, d. h. gemeinsame normative Orientierung oder eine gemeinsame Tradition. Subjekte treten sich mit selbstbestimmten Bedürfnissen gegenüber. In der Befriedigung dieser sind sie voneinander abhängig. Um die Kommunikation in Gang zu bringen, fordern Situationen mit doppelter Kontingenz ein Mindestmaß an wechselseitiger Beobachtung und ein Mindestmaß an auf Kenntnissen gegründeter Erwartungen. Die These lautet daher: doppelte Kontingenz führt zwangsläufig zur Bildung sozialer Systeme und wirkt als permanent gegenwärtiges Problem (nicht nur als Anstoß) autokatalytisch.

Ohne selbst verbraucht zu werden, ermöglicht doppelte Kontingenz den Aufbau von Strukturen auf neuen Ordnungsebenen. Doppelte Kontingenzerfahrung lässt Systembildung anlaufen und ist dadurch erst möglich, da sie mit Themen, Informationen und Sinn gespeist wird.

Das Stabilitätsproblem kontingenter Systeme

Das dabei überhaupt Systeme entstehen können, wird jedoch nicht auf den Determinismus zurückgeführt, sondern auf die Kontingenz, also die prinzipielle Unvorhersehbarkeit und Zufälligkeit von komplexen Systemen. Das System passt sich dabei aber nicht der Umwelt komplett an, sondern überprüft stets selbst, ob das durch Variation entstandene neue Strukturangebot dauerhaft übernommen werden soll. Erst wenn sich die erfolgte Selektion als autopoietisch erfolgreich erwiesen hat, erfolgt schließlich eine vorübergehende Restabilisierung.

Systeme sind daher weder durch sich selbst, noch durch ihre Umwelt determiniert, sondern befinden sich stets im dynamischen Wechselspiel sowohl zwischen Aufbau und Niedergang, als auch zwischen Veränderung und Stabilität. Daher ist das Stabilitätsproblem ein weiterer, wichtiger Punkt in der strukturwissenschaftlichen Erforschung komplexer dynamischer Systeme. Wie instabil soziale Beziehungen sind, ist durch Alltagerfahrungen bekannt. Aber auch scheinbar stabile Beziehungen zerbrechen im Grunde permanent, jedoch leisten erfolgreiche Beziehungen eine dauerhafte Regeneration ihrer Kopplung. Dies erfordert stets viel Kreativität, und ständige Beziehungsarbeit. Wenn es auf der anderen Seite nicht zu einer dauerhaften Bindung gekommen ist, dann haben sich die gegenseitigen Erwartungen langfristig als inkompatibel erwiesen. Die kritischen Fragen dazu lauten: Was habe ich mir von der Beziehung erwartet? Was hat sich der Andere erhofft? Und umgekehrt: Was hat mir die Beziehung gegeben? Was habe ich dem Anderen gegeben?

Wobei dies streng genommen aber nur für den reinen Zwei-Personen-Fall gilt. Komplizierter wird das Problem der Stabilität dadurch, dass jede Person in einem sozialen Umfeld von mehreren potentiellen (Kommunikations-)Partnern lebt. Daher stehen Beziehungen auch in einem ständigen Wettbewerb mit externen, konkurrierenden Einflüssen.

Wie funktionieren nun aber die ebenfalls möglichen, relativ stabilen Beziehungen? Wenn es aus der strukturwissenschaftlichen Perspektive heraus die strukturbildenden Maßnahmen sind, dann wären dies vermutlich konkret die Formen der Selbstorganisation und der Evolution. Und als solche operieren sie vor allem aus einer Mischung von intern und extern geschaffenen Rand- und Zwangsbedingungen, kontingenten Zufälligkeiten zur Vermeidung von Erstarrung, orientierender, kontextgebundener Variation und Selektivität, sowie permanenter Reproduktivität.

 

 

3.3 Die Strukturbiologie

Die Strukturbiologie beschäftigt sich mit der Untersuchung von Makromolekülen, also insbesondere mit Nukleinsäuren (DNS u. a.), Proteinen, Polysaccharide und Lignin.

Lignin
Bildlizenz-Info: Wikimedia, Lignin_structure, public domain

Die DNS - der strukturwissenschaftliche Superstar der Biologie

DNA Orbit
Bildlizenz-Info: DNA Orbit animated, Wikimedia, Public Domain

Die vermutlich bekannteste komplexe biologische Struktur ist die Doppelhelix der DNS, die für viele geradezu ein Symbol der gesamten modernen Biologie darstellt. Dieser strukturelle Aufbau wurde erstmals 1953 von Watson und Crick beschrieben. Für die strukturelle Aufklärung und wegen der Bedeutung für die Informationsübertragung in lebenden Systemen gab es dafür 1962 den Nobelpreis für Medizin.

DNA struktur
Bildlizenz-Info: Wikimedia, Chemische Struktur der DNA, public domain

 

 

3.4 Systembiologie

Die Systembiologie ist ein Zweig der Biowissenschaften, der versucht, biologische Organismen in ihrer Gesamtheit zu verstehen. Das Ziel ist, ein integriertes Bild aller regulatorischen Prozesse über alle Ebenen, vom Genom über das Proteom, zu den Organellen bis hin zum Verhalten und zur Biomechanik des Gesamtorganismus zu bekommen.

Wesentliche Methoden zu diesem Zweck stammen aus der Systemtheorie und ihren Teilgebieten. Dabei kommen als Forschungsmethoden häufig Computersimulationen und Heuristiken zum Einsatz. Die Systembiologie führt die Zeit als wichtigen Faktor wieder in die Molekularbiologie ein. Die Systembiologie kehrt dabei zur biochemischen Sichtweise der Welt zurück, macht sich Gedanken über Prozesse und wie diese sich im Laufe der Zeit verändern, jedoch mit einer radikalen Erweiterung der Skala. In der Systembiologie werden tausende Reaktanten beobachtet, wodurch Systembiologie in einer deutlich dynamischeren Sichtweise der Biologie resultiert als die der klassischen Molekularbiologie oder Genetik.

 

3.4.1 Proteinfaltung

Ein gutes Beispiel zur Darstellung der komplexen Probleme in der Biologie stellt die Untersuchung von Proteinstrukturen bzw. deren notwendige Faltung dar. Die zur Modellierung und Simulation erforderlichen Ressourcen zwingen selbst Supercomputer in die Knie.

proteinfaltung
Bildlizenz-Info: Protein-Struktur.png; Wikipedia, Public domain

Die Proteinfaltung ist der Prozess, durch den Proteine ihre dreidimensionale Struktur erhalten. Sie findet während und nach der Synthese der Peptidkette statt und ist Voraussetzung für die fehlerfreie Funktion des Proteins. Die Faltung wird durch kleinste Bewegungen der Lösungsmittelmoleküle (Wassermoleküle), sowie elektrische Anziehungskräfte innerhalb des Proteinmoleküls bewirkt. Einige Proteine können nur mithilfe von bestimmten Enzymen oder Chaperon-Proteinen die richtige Faltung erreichen.

Proteine werden dazu zunächst an den Ribosomen als lineare Polypeptidketten aus Aminosäuren synthetisiert. Diese lineare, eindimensionale Abfolge (Sequenz) der einzelnen Aminosäuren bildet die Primärstruktur des Proteins.

Während oder nach der Synthese faltet sich dann die Polypeptidkette von einer zweidimensionalen in eine definierte dreidimensionale - also räumliche - Struktur (Tertiärstruktur), die wiederum aus kleineren Strukturelementen (Sekundärstruktur) aufgebaut ist.

Einige Proteine bestehen aus mehr als einer Polypeptidkette. Bildet sich ein solcher Oligomer aus mehreren Polypeptidketten in Tertiärstruktur, so spricht man von einer Quartärstruktur.

Die spezifische Funktion eines Proteins ist nur durch seine definierte Struktur möglich. Fehlgefaltete Proteine werden normalerweise im Rahmen der Proteinqualitätskontrolle erkannt und im Proteasom abgebaut. Schlägt dieser Abbau fehl, kommt es zu Proteinansammlungen, die je nach Protein verschiedene Erkrankungen auslösen können

 

 

3.5 Die Evolutionstheorie als komplexe, strukturwissenschaftliche Theorie des Lebens

 

Evolutionstheorie als Strukturwissenschaft

darwin tree
Bildlizenz-Info: Darwin tree.png, Wikipedia, Public Domain

Die Evolutionstheorie, deren ursprüngliche Fassung von Charles Darwin stammt, und die sich seitdem recht stürmisch weiterentwickelt hat, wird wissenschaftstheoretisch oft ein wenig außerhalb der Mathematik angesiedelt betrachtet, da die Veröffentlichungen von Darwin keine einzige mathematische Formel enthalten. Doch darauf kommt es im strukturwissenschaftlichen Sinne auch gar nicht so sehr an. Darwin erkannte Strukturen, und daher war auch er ein Mathematiker.

Sein "Baum des Lebens", den er skizzierte, und damit die Aufspaltung des Lebens in verschiedene Arten erklärte, ist ein basal strukturwissenschaftliches Konzept. Mathematiker nennen es "Bifurkation" und untersuchen es im Rahmen der Symmetriebrechung von Systemen.

Die Entstehung der biologischen Artenvielfalt

Wenn wir uns die Tiere und Pflanzen unserer Umwelt ansehen, dann kann jeder leicht erkennen, dass Tiere und Pflanzen zwar ungemein vielgestaltig sind, aber in Gruppen auftreten - taxonomisch, nicht geographisch. Diese Gruppe sehr ähnlicher Organismen nennt man Arten. Doch wie haben sich die Arten eigentlich aufgespalten? Hatte Darwin Recht mit der Vermutung, die Gruppen seinen nach und nach durch einen Selektionsvorteil ("survival of the fittest") auseinander gedriftet? Aber wenn der Wandel doch mit einem Selektionsvorteil belohnt wurde, warum haben sich dann nicht alle in dieselbe Richtung entwickelt? Warum haben manche einen anderen Weg eingeschlagen?

Dies sind nicht die einzigen Probleme, denn Arten bestehen per definitionem aus Organismen, die miteinander Nachwuchs hervorbringen können. Der Biologe Ernst Mayr hat darauf hingewiesen, dass jede Kreuzung Gene vermischt und somit die Artaufspaltung verhindert. Sein Lösungsvorschlag war: Irgendetwas hindert die im Entstehen begriffenen Arten, sich zu kreuzen. Seiner Theorie der allopatrischen Artbildung zufolge wird gelegentlich eine kleine Gruppe durch eine unüberwindbare geografische Barriere - etwa ein Flusslauf - von der Hauptpopulation getrennt und entwickelt sich ohne Kontakt zu ihrer Ursprungsgruppe weiter. Wenn sich diese Gruppen irgendwann wieder begegnen, hat ihre unabhängige Entwicklung sie so sehr verändert, dass sie keinen Nachwuchs mehr miteinander haben können.

Diese Theorie hat aktuell Konkurrenz durch eine zunächst viel weniger intuitiv erscheinende Idee erhalten: die sympatrische Artbildung. Biologen haben diverse Mechanismen vorgeschlagen, die entstehenden Arten auch im selben Terrain voneinander fern zu halten, zum Beispiel die sexuelle Selektion: Weibchen bevorzugen bei den Männchen bestimmte Merkmale und paaren sich nur mit Partnern, die diese Kriterien erfüllen.

Die strukturwissenschaftliche Sichtweise der Artenbildung

Mathematisch haben all diese Mechanismen eins gemeinsam: Sie werten die Artbildung als eine symmetriebrechende Bifurkation. Eine einzelne Art ist ein hochgradig symmetrisches System, denn alle ihre Individuen sind im Prinzip austauschbar. Ein System aus zwei getrennten Arten (etwa Katzen und Mäusen) ist weniger symmetrisch. Ersetzt man die eine Art durch die Andere, hat man eine völlig andere Situation geschaffen. Mathematische Modelle der Artbildung als symmetriebrechende Bifurkationen führen zu ein paar überraschenden, allgemein gültigen Voraussagen. Erstens zeigt sich, dass eine solche Artbildung sehr abrupt vonstatten geht, anders als in Darwins Vorstellung von der allmählichen Akkumulation winzigster Veränderungen. Zweitens stoßen sich die beiden neuen Arten in solchen Modellen gewissermaßen wechselseitig ab und verabschieden sich so beide von dem ursprünglich gemeinsamen Bauplan. Es gibt dann nur wenige Individuen, die einen Mittelweg einnehmen.

Wie ist das möglich, wo sich die Gene doch ständig vermischen? Die Antwort lautet: durch natürliche Selektion.

Eine derartige Bifurkation tritt auf, sobald die Selektion aufhört, die Mittellösung zu bevorzugen. Vielleicht ändern sich die Klimaverhältnisse, vielleicht Ändern sich die Bedingungen, für die mittellange Schnäbel bei Vögeln die richtige Größe haben. In diesem Fall wird die Hybridlösung aussortiert. Die Gene sind noch da, und sie vermischen sich, aber diese Kombinationen werden aussortiert, noch bevor sie Junge in die Welt setzten können. Diese Art der Selektion kann man Tag für Tag beobachten. Die Darwinfinken sind tatsächlich ein exzellentes Beispiel dafür: Sie reagieren verblüffend schnell auf Veränderungen des Klimas und der Vegetation.

 

3.5.1 Molekulare Evolution und "RNS-Welt"

Für die Entwicklung des Lebens auf einer stofflichen Grundlage, wie wir es auf der Erde finden, spielt die Entstehung katalytischer Netzwerke aus Proteinen und Nukleinsäuren eine ganz entscheidende Rolle (siehe Punkt 3.1.5).

Es gibt derzeit mehrere Hypothesen darüber, wie diese Netzwerke aus nicht-biologischen Vorgängerstufen entstanden sein könnten. Dabei werden drei verschiedene Szenarien diskutiert:

Die spontane Entstehung von Proteinen und Nukleinsäuren könnte sich sehr gut in der frühen Entwicklungsphase der Erde abgespielt haben. Es ist jedoch nur schwer vorstellbar, dass bereits zu Beginn der biologischen Evolution spontan bereits so komplexe Stoffsysteme zufällig zusammenfanden, welche die Mechanismen von Vererbung, Variation und Selektion besaßen, die fortpflanzungsfähige Systeme voraussetzen.

Eher denkbar ist, dass zunächst ganz einfache lebende Systeme existierten, die auf einer weniger komplexen Grundlage basierten. Es erhebt sich daher die Frage, welche Stoffklassen einen geeigneten Kandidaten abgeben, der nicht auf die gleichzeitige Verfügbarkeit von Vertretern der anderen Stoffklassen angewiesen war.

Diese Stoffklasse müsste vergleichsweise einfach prozessierbar sein, und die Werkzeuge dazu müssten vorzugsweise derselben Stoffklasse angehören, wie die zu prozessierenden Moleküle. Außerdem sollte diese Stoffklasse auch zur Speicherung von Information geeignet sein. Daher scheiden zunächst Zucker und Lipide aus, weil sie weder katalytische Funktionen besitzen, noch als Informationsspeicher eingesetzt werden können. Betrachten wir bei den Nukleinsäuren zunächst die DNS, haben wir dort zwar ein hervorragendes molekulares Speichermolekül für Informationen, jedoch kein molekulares Werkzeug. Daher scheidet auch die DNS aus. Proteine können zwar durch die Abfolge der Aminosäuren Informationen codieren, und lassen sich auch als Werkzeuge einsetzen, aber sie erfordern eine sehr anspruchsvolle Synthese und müssen für anspruchsvolle Prozesse auch in vielfältiger Spezialisierung vorliegen. Weiterhin ist zu bedenken, dass Proteine zwar als Biokatalysatoren fast alle Lebensprozesse steuern, ihre eigene Synthese ohne die Hilfe von Nukleinsäuren jedoch nicht funktioniert. Es ist bislang kein Mechanismus bekannt, der eine Aminosäurensequenz direkt reproduzieren kann. Vielmehr sind sie zwingend auf Nukleinsäuren angewiesen, die zum einen als DNS vorliegen und zum zweiten als Katalysatoren und Hilfsmoleküle in Form der ribosomalen und Boten-RNS. Daher bleibt von den biogenen Makromolekülen nur die Stoffklasse der RNS als ernsthafter Kandidat für eine frühere molekulare Evolution übrig. Wie die DNS kann auch die RNS als Informationsträger fungieren und durch Replikation vermehrt werden. Die Abschrift durch Basenpaarung kann direkt von einem RNS-Molekül auf das Neue erfolgen. RNS ist vergleichsweise einfach zu prozessieren, weil die Nukleotide ganz ähnliche chemische Eigenschaften aufweisen. Vor allem aber kann RNS selbst als Biokatalysator fungieren. Es wurde nämlich nachgewiesen, dass RNS selbst als Enzym wirken kann. Die katalytischen Fähigkeiten der RNS gestatten es dem System selbst, Selektionsarbeit zu leisten. Es können sich somit Stoffsysteme herausbilden, die in der Lage sind, andere molekulare Spezies zu zerstören und ihre Abbauprodukte für die Erzeugung von Kopien der eigenen RNS-Sequenz zu nutzen. Ebenso sind Variationen möglich, die bei der Vermehrung der RNS zu einer Population von nahe verwandten, aber leicht variierten Informationssätzen führen. Dieses Ensemble aus Mutanten, die durch Variation eines Muttermoleküls entstanden sind, werden Quasispezies genannt.

Die Hypothese einer frühen RNS-Welt geht davon aus, dass am Anfang der biologischen Evolution zunächst eine molekulare Evolution stattgefunden hat, in der die RNS-Moleküle die Aufgaben, welche die heutigen Lebewesen mit Hilfe von DNS, RNS und Proteinen leisten, alleine ausführten. Dann müsste somit ein molekulares System existiert haben, welches ausreichend Stabilität und Vielfalt aufwies, um der Variation und Selektion zugänglich zu sein. Ein solches Urgen wird von Manfred Eigen als ein Molekül mit 76 RNS-Nukleotiden beschrieben. Es wäre damit in etwa so groß wie ein heutiges t-RNS-Molekül. Wenn dies zuträfe, dann wären unsere heutigen t-RNS-Moleküle ein Relikt aus der Frühphase der biologischen Evolution.

Funktionstrennung im molekularen Informationsmanagement

In allen heutigen lebenden Zellen finden wir eine Spezialisierung der enthaltenen Molekülklassen auf bestimmte Aufgaben. Nach der Hypothese der RNS-Welt ist diese jedoch nicht schon immer vorhanden gewesen, sondern hat sich erst im Laufe der Evolution entwickelt.

Dazu wurde eine Hypothese entwickelt, welche die schrittweise Funktionstrennung im Informationsmanagement beschreibt. Im ersten Schritt fand eine Dualisierung der RNS statt. Statt einer Funktion für Information und Aktion gab es dann zum einen die RNS als Informationsspeicher, und die Proteine als Aktionsmoleküle, welche die RNS-Vermehrung förderten. Im zweiten Schritt fand dann eine Dualisierung von Informationssicherung und Informationsübertragung statt. Die DNS übernahm die Informationssicherung und förderte die RNS-Bildung, und die RNS sorgte für die Informationsübertragung zu den Proteinen. Die Proteine wiederum förderten dann die RNS-Bildung und die Vermehrung der DNS.

Da wir heutzutage in allen lebenden Systemen DNS finden, muss die Funktionstrennung in drei spezialisierte Molekülgruppen recht früh stattgefunden haben und sämtliche anderen Spezies wurden restlos verdrängt. Es ist daher auch denkbar, dass ausgehend von der RNS-Welt die Dreiteilung in einem einzigen Schritt erfolgte, es also nie Quasilebewesen ohne DNS gab.

Doch zur erfolgreichen Entstehung biologischer Lebewesen wurde dann noch ein weiteres wichtiges Konstruktionselement benötigt, und zwar die biologische Zelle.

 

3.5.2 Die "Erfindung" der Zelle und Prokaryonten

Die Abgrenzung eines Reaktionsraums nach außen ist eines der fundamentalen Prinzipien des Lebens. Es handelt sich dabei strukturwissenschaftlich gesehen um eine topologische Struktur.

Die biologische Zelle verhindert durch ihre Zellmembran den Verlust essenzieller Moleküle. Ohne sie würden die lebenswichtigen Moleküle aufgrund der Brown'schen Molekularbewegung rasch in alle Richtungen davondiffundieren.

Selbstorganisierte nanoskalige Strukturen, die in ihren Eigenschaften zwischen dem flüssigen und dem festen Aggregatszustand anzusiedeln sind, sogenannte Mesophasen, haben vermutlich eine zentrale Rolle bei der Entwicklung des Grundprinzips der Zelle gespielt. Mit großer Wahrscheinlichkeit werden amphiphile Moleküle und Moleküle mit anisotroper Geometrie an der Ausbildung spontaner raumgliedernder Strukturen, die den Weg zur ersten Zelle öffneten, entscheidend beteiligt gewesen sein.

Ein möglicher Kandidat für einen passenden Strukturtyp ist eine vesikelartige Struktur, die ein inneres wässriges Milieu gegen ein äußeres wässriges Milieu durch eine molekulare Doppelschicht abtrennt. Dieser Strukturtyp ist eine metastabile Struktur, für dessen Aufbau eine topologische Operation erforderlich ist, welche die Doppelschichten transformiert und in eine kugelige Oberflächenform bringt. Möglich sind dazu lokale Unterschiede in der Grenzflächenspannung, die ein Aufreißen oder Wiederverschließen von Molekülschichten ermöglichen. Die kann beispielsweise durch Quellen und Senken von Substanzen oder chemischen Reaktionen verursacht werden. Die Bildung vesikelartiger Strukturen setzt aber immer gleichgewichtsferne Verhältnisse voraus. Deshalb müssen Raumgliederungen durch spontane Organisation von Molekülen und Stoffumsatz (Stoffwechsel) lokal verkoppelt werden, um zellähnliche Strukturen aufzubauen.

Die Zelle als zeitliche Organisationsform

Auf den ersten Blick erscheint die Organisation lebender Systeme durch Zellen als rein räumliches Organisationsprinzip. Als abgegrenzter Raum könnte die Zelle daher zunächst als eine Art Vesikel betrachtet werden. Doch Vesikel sind sehr viel weniger als eine Zelle. Der entscheidende Unterschied liegt in der Fähigkeit zur Veränderung. Neben der räumlichen Organisation stellt eine Zelle auch eine besondere Form der zeitlichen Organisation dar.

Denn Zellen entstehen stets durch Zellteilung aus anderen Zellen. Das Wesen der Zelle kann deshalb nur aus dem Phänomen der Zellteilung heraus verstanden werden. Die grundsätzliche Abhängigkeit von Zellen vom Phänomen der Zellteilung ist einer der fundamentalsten Aspekte des Lebens überhaupt.

Die Grundzüge der zeitlichen Organisation der Zelle werden an den Phasen des Zellzyklus deutlich, welche universell bei allen Mikroorganismen auftreten. Eine Zelle wächst, d. h. sie akkumuliert Material und vergrößert so ihre Zellmembran. Schließlich erreicht sie einen kritischen Zustand, bei der die durch die Membran vorgegebene Topologie der Abgrenzung von Innen und Außen nicht mehr stabil ist. Die Membran schnürt sich ein. Aus einem einzigen vesikelartigen Reaktionsraum entstehen zwei.

Das Auftreten von Zellzyklen ist eine universelle Eigenschaft aller lebender Systeme. Die Abfolge der Prozessschritte gibt diesem Prozess einen eindeutigen Richtungssinn (Zeitpfeil). Da die Zellteilung zwingend mit einer Vergrößerung der Zellenanzahl einhergeht, wohnt diesem Prozess automatisch die Eigenschaft der Fortpflanzung inne. Zudem werden die Zellentwicklung und ihr Zeitbedarf zur fundamentalen Einheit für die Entwicklung von Populationen und Arten.

Die Zelle als Werkzeug der funktionalen Integration

Neben der räumlichen und zeitlichen Organisation bringt die Bildung einer Zelle auch eine Integration von Funktionen mit sich. Molekulare Vorgänge, die normalerweise nur kinetisch gekoppelt waren, oder durch zufällige räumliche Nähe abliefen, wurden nach der "Erfindung" der Zelle in einen standardisierten Zusammenhang gebracht. Die Zelle begrenzt die Mobilität der beteiligten Reaktanten, Katalysatoren und Reaktionsprodukte. Sie gibt den Rahmen für die Konzentrationsbereiche vor und legt das chemische Milieu fest, in dem chemische Reaktionen ablaufen. Die Zelle gibt auch ein ziemlich enges Korsett für die Koevolution der in ihr ablaufenden molekularen Vorgänge vor. Im Zuge der Evolution werden alle in der Zelle ablaufenden Prozesse in ein abgestimmtes Netzwerk gezwungen. 

Funktionale Integration und molekulare Funktionstrennung gehören dabei für eine erfolgreiche Entwicklung von Zellen unmittelbar zusammen. Arbeitsteilige Spezialisierung innerhalb der molekularen Systeme ist nur effektiv möglich, wenn das Informationsmanagement stimmt. Reaktions- und Anpassungsfähigkeit an veränderliche Umweltverhältnisse werden nur Zellen besitzen, deren Funktionsmechanismen auf Informationen aufbauen, die aus früheren Erfahrungen der Populationen in der molekularen Information Eingang gefunden haben.

Prokaryonten

Am Anfang des Lebens, so wie wir es kennen, standen mit großer Wahrscheinlichkeit einfache Zellen ohne abgegrenzten Zellkern, ohne Zellorganellen und ohne ein inneres Gerüst aus stabilisierenden Proteinfasern. Doch derartige prokaryontische Zellen sind keineswegs eine Erscheinungsform der frühen Entwicklung des Lebens. Derartige Zellen sind vielmehr auch heute noch sehr weit verbreitet. Sie stellen sogar die am weitesten verbreitete Organismengruppe überhaupt dar.

Die frühe Lebenswelt hat vermutlich sogar ausschließlich aus ihnen bestanden. Das Innere dieser Zellen bildet einen einheitlichen Reaktionsraum, in dem sich Moleküle und Ionen per Diffusion frei bewegen können. Diese Rahmenbedingungen führen dazu, dass alle chemischen Prozesse gut aufeinander abgestimmt sein müssen. Sie sind jedoch auch stark von den chemischen Verhältnissen und der Temperatur der Umgebung abhängig. In Zeiten von ungünstigen Bedingungen können sie ggf. in einen Zustand übergehen, der die energieverbrauchenden Lebensprozesse auf ein Minimum reduziert, um so auch längere ungünstige Phasen zu überstehen. In der frühen Phase der Evolution konnten sich jedoch auch immer wieder verschiedene Zellen auf verschiedene spezifische Leistungen spezialisieren, so dass es schon früh zu einem Differenzierungsprozess kam.

Für eine Anpassung an ungünstige Lebensbedingungen kam den prokaryontischen Mikroorganismen die kurze Zeit ihres Zellzyklus zugute. Viele heute lebende Prokaryonten können sich innerhalb einer halben Stunde teilen. Dadurch sind bis zu etwa 70 Generationen pro Tag möglich. Dies schließt zudem ein schnelles Wachstum von Kolonien mit ein und macht ein rasantes Tempo für die Evolution möglich. Während beispielsweise die Menschen um eine Generation voranschreiten, sind rund eine halbe Million Bakteriengenerationen möglich. Und auch die Anzahl der möglichen Individuen ist vergleichsweise riesig. Für 7 Milliarden Bakterien, also ungefähr der Anzahl der Gesamtbevölkerung von Menschen auf der Erde, sind nur wenige Milliliter Nährlösung erforderlich. 

Oftmals sehen die Menschen in Bakterien lediglich schädliche Krankheitserreger. Doch sie sind auch ein ganz wesentlicher Bestandteil aller natürlichen Lebensgemeinschaften. Alle Ökosysteme enthalten auch ein weites Spektrum von einfachen Mikroorganismen. Diese erfüllen in ihrem jeweiligen Ökosystem sehr wichtige Aufgaben. Zudem kommen Prokaryonten als Extremophile auch unter sehr extremen Lebensbedingungen vor, wie beispielsweise bei hohen Salzkonzentrationen oder heißen Quellen. Sie besiedeln alle Arten abgestorbener Organismen. Und wir finden sie auf der Oberfläche und im Inneren größerer Organismen. Auch ein gesunder Mensch, der bereits aus 1013 eigenen Zellen aufgebaut ist, beherbergt nochmal die zehnfache Menge an prokaryontischen Lebewesen, die dabei ungefähr 1,5 kg seines Körpergewichtes ausmachen.

 

3.5.3 Eukaryontische Zellen

Komplexere Zellen und alle(!) mehrzelligen Organismen bestehen aus Zellen, die in ihrem Inneren durch Membranen in Teilbereiche aufgeteilt sind. Mindestens das genetische Material ist in einem Zellkern verpackt, der von einer Kernmembran umschlossen ist und diesen Bereich vom Zytoplasma abtrennt. Diese Zellen werden werden als euraryontische im Unterschied zu den prokaryontischen bezeichnet.

Außer der Einteilung in Kompartimente weisen eukaryontische Zellen weitere Besonderheiten auf: Sie sind im Allgemeinen auch größer, d. h. durchschnittlich um den Faktor 10 länger und im Volumen dann entsprechend um den Faktor 1000 größer. Zudem ist das Zytoplasma von Mikrotubuli (Röhren) und Faserproteinen durchzogen, die das Plasma mechanisch stabilisieren und mit deren Hilfe die Zellen innere Transportprozesse und äußere Bewegungsprozesse durchführen können.

Da die Kompartimente durch Membranen abgetrennt sind, herrscht in ihnen ein kompartimenspezifisches Milieu. Dadurch können dort optimale Bedingungen für sehr verschiedene Stoffwechselprozesse eingestellt werden. Im Zellkern läuft beispielsweise die Umschrift der genetischen Information von der DNS in die Messenger-RNS ab. Dieser Prozess ist dort somit von der im Zellplasma ablaufenden Proteinsynthese entkoppelt.

In komplexeren Eukaryonten finden sich noch weitere Kompartimente, die speziell der innerzellulären Energieversorgung dienen. In diesen sogenannten Mitochondrien werden energiereiche Stoffe, wie Glukose in das von den Zellen benötigte Adenosintriphosphat überführt. Zusätzlich ist über alle Arten von Pflanzen hinweg noch ein weiteres Kompartiment verbreitet, und zwar die Chloroplasten. Doch anstelle eines Atmungsenzyms tragen die Membranen die Proteine der Photosynthese, das Chlorophyll.

Es gilt dabei ganz allgemein, dass die innere Kompartimierung den Weg für größere und leistungsfähigere Zellen freimachte. Zudem verträgt sich der Abbau von Glukose in den Mitochondrien nicht mit dem antagonistischen Abbau von Glukose in den Chloroplasten. Durch die Kompartimente können daher auch schlecht verträgliche Vorgänge ohne gegenseitige Störung mit hoher Effizienz ablaufen.

Für die spontane Entstehung eukaryontischer Zellen innerhalb der Evolution gibt es eine gut begründete Hypothese. Diese geht davon aus, dass es zelluläre Integrationsereignisse waren, die zur Bildung kompartimierter Zellen führten. Die Endocytosymbiontentheorie besagt, dass im Laufe der Evolution einige Wirts-Prokaryonten einen oder mehrere Gast-Prokaryonten per Endocytose in sich aufnahmen. Nachweisen lässt sich dies in den Eukaryonten dadurch, dass beispielsweise die Mitochondrien auch heutzutage immer noch sowohl ihr eigenes Erbgut, als auch einen eigenen Zellzyklus besitzen.

Diese Entstehung steht damit ganz in der Tradition anderer wichtiger Schritte der Entwicklungsgeschichte, in denen Integrationsereignisse zu einer neuen Qualität von Strukturen und damit Objekten und Funktionen geführt haben. Diese neue Qualität besteht in der Fähigkeit zu viel weitergehender Spezialisierung und Differenzierung. So öffnet das Auftreten innerer Strukturen das Feld zum Aufbau komplexerer äußerer Strukturen und vor allem damit verbundenen sehr viel komplexeren funktionellen Beziehungen.

Belege für die enorm gewachsene morphologische wie auch funktionelle Vielseitigkeit der Eukaryonten geben bereits der Formen- und Funktionsreichtum der Urtierchen (Protisten), die alle eukaryontische Einzeller sind. Die Tatsache, dass Prokaryonten zwar komplexe Kolonien hervorbringen können, aber keine echten Vielzeller, dass Eukaryonten dagegen sogar zu extremer Spezialisierung innerhalb vielzelliger Systeme fähig sind, belegt eindrucksvoll den besonderen Fortschritt der eukaryontischen Zellen.

 

3.5.4 Vielzeller

Der Übergang von den Einzellern zu den Vielzellern stellt wieder einen wichtigen großen Schritt in der Evolution dar. Es ist abermals ein Qualitätssprung, der durch eine Integration zustande kommt.

Zellen gleicher Abstammung bilden einen vielzelligen Organismus, in dem Zellen, obwohl sie die gleiche genetische Ausstattung haben, unterschiedliche Gestalten ausbilden und verschiedene, aufeinander abgestimmte Funktionen übernehmen. Mehrzellige Organismen zeichnen sich dadurch aus, dass der Zellverband aus dem eine spezielle Art besteht, immer in gleicher Weise räumlich und funktionell organisiert ist. Analoge Zellen finden sich in allen Organismen des gleichen Typs stets in analogen räumlichen Situationen und füllen die gleichen Funktionen aus.

Die zellspezifische Raumzuordnung, die morphologische und die chemische Differenzierung und die arbeitsteilige Spezialisierung der zu dem jeweiligen Organismus gehörenden Zellen unterscheiden den vielzelligen Organismus von allen anderen Arten von Zellansammlungen. Prokaryonten bilden im Gegensatz dazu nämlich lediglich Kolonien. Unter günstigen Wachstumsbedingungen kann aus einer einzigen Zelle rasch eine Klon-Kolonie von vielen Millionen Zellen mit identischem Erbgut entstehen. Eine Arbeitsteilung erfolgt jedoch nicht. Alle Klone gleichen sich auch funktionell.

Zwischen Einzellern und Vielzellern gibt es auch einige Arten, die gewisse Merkmale von Übergangs- und Mischformen ausbilden, wie beispielsweise die Schleimpilze. Normalerweise sind Schleimpilze eukaryontische Einzeller, aber unter besonderen Umweltbedingungen beginnt mit dem Einsetzen einer chemischen Kommunikation die Organisation und die Arbeitsteilung zwischen den einzelnen Zellen. Dadurch werden dann temporär die Leistungen und Bedürfnisse der einzelnen Zelle der Kolonie untergeordnet, was dann zugunsten der Überlebensfähigkeit der Population geschieht.

Die Typenvielfalt mehrzelliger Organismen

Während die molekularen Grundlagen aller Organismen von einer ganz erstaunlichen Einheitlichkeit geprägt sind und diese darauf schließen lässt, dass alles Leben aus einer gemeinsamen Wurzel stammt, ist die Organisation der Vielzeller überraschend vielgestaltig. Das betrifft jedoch nicht nur die äußere Form und die Größe, oder den geometrischen Aufbau und die Funktionen, sondern auch die grundsätzliche Organisation der organismischen Entwicklung und der Zelldifferenzierung.

Die fundamentalen Unterschiede in der Systemorganisation betreffen vor allem den Prozess der Zelldifferenzierung. Die arbeitsteilige Differenzierung ist das herausragende Merkmal, das vielzellige Organismen und Kolonien von Einzellern unterscheidet. Die wichtige Frage dabei lautet, welche Zellen in der Lage sind, Tochterzellen zu bilden, die andere Merkmale als sie selbst aufweisen und zu anderen Geweben führen als dem Gewebe, dem sie selbst entstammen.

Die Vorgänge dieser Zelldifferenzierung sind eng mit der Organ- und Gewebsregenerierung verbunden. Eine sehr ausgeprägte Fähigkeit zur Regeneration besitzt beispielsweise der Süßwasserpolyp (Hydra). Teil man solch einen Polyp, so bilden beide Teile wieder einen vollständigen Organismus aus. Das bedeutet, dass alle erforderlichen Zelltypen und Gewebe neu gebildet werden können. Die zelluläre Differenzierung wird allein durch Nachbarschaftseffekte bestimmt. Die Lage der Organe ist dabei durch den jeweiligen Bauplan vorgegeben. Die relative Lage von Mutterzellen innerhalb des Körpers bestimmt dabei die Richtung der Differenzierung der Tochterzellen.

Im Gegensatz dazu gibt es auch Organismen, deren Individualentwicklung nicht durch Nachbarschaftsverhältnisse, sondern durch die Abstammungsverhältnisse gesteuert wird. Bei einem Fadenwurm besitzen die Zellen des erwachsenen Tieres überhaupt keine Regenerationsmöglichkeit mehr. Für jede einzelne Zelle besteht ein festes Abstammungsschema. Damit ist auch die Entwicklung eines solchen Organismus auf Zellebene streng durch Abstammung determiniert. Fällt während der Entwicklung eine Zelle aus, so fehlen im adulten Tier alle von dieser Zelle abstammenden Zellen, und die durch sie wahrzunehmenden Funktionen werden nicht durch andere Zellen ersetzt.

Komplexe biologische Systeme, wie der menschliche Organismus, beinhalten Zellen mit einer weit gespannten Abstufung in der Differenzierungsfähigkeit. In den allerersten Schritten der Embryonalentwicklung besitzen alle Zellen die Fähigkeit, ganze Organismen hervorzubringen. Diese Fähigkeit geht dann im Laufe der weiteren Entwicklung schrittweise verloren. Die Regenerationsfähigkeit wird im adulten Organismus durch somatische Stammzellen sichergestellt. Doch diese Stammzellen können nun nicht mehr beliebige Differenzierungswege begründen, sondern lassen meist nur eine begrenzte Zahl von Typen zu. Damit unterscheiden sie sich grundsätzlich von den embryonalen Stammzellen, aus denen alle Arten von Zellen entstehen können.

Individuelle Morphogenese

In der individuellen Gestaltbildung mehrzelliger Individuen gelingt der lebenden Natur ein ganz besonderes Meisterstück. Ausgehen von einer einzigen Zelle werden hochkomplexe Strukturen aufgebaut. Dabei werden die kompletten Wesensmerkmale mit hoher Erfolgsquote vollständig realisiert.

Aus einer einzigen Zelle gehen nicht nur differenzierte Zellen, sondern auch organisierte Zellverbände, Gewebe, hochgradig spezialisierte Organe und sogar ganze Organsysteme hervor. Besonders bemerkenswert mag auch die Tatsache erscheinen, dass solche komplexen Organismen auf der Grundlage der Erbinformation einer einzigen Zelle entstehen können.

Für die individuelle Morphogenese auf einer prinzipiell gemeinsamen Basis spielt wiederum die Organisationsform eine entscheidende Rolle. In diesem Falle die Organisation des Erbgutes selbst und die Organisation der Auslesung und Übersetzung. Der besondere Trick besteht nun darin, dass alle Zellen je nach ihrem Platz in der Entwicklung des Organismus nur jeweils die für sie bestimmten Teildatensätze benutzen. Spezialisierte Zellen besitzen daher die Fähigkeit der selektiven Nutzung von Erbinformationen. Das Informationsmanagement in den Zellen ist daher gewissen Regeln unterworfen, denn der Datensatz selbst enthält eine Hierarchie von Genen. In dieser Hierarchie sind höher stehende Gene dafür zuständig, bestimmte Gruppen niedriger stehender Gene zu aktivieren oder abzuschalten. Diese Schalter werden nun in verschiedenen Zellen eines sich entwickelnden Organismus unterschiedlich betätigt. Diese komplexen Mechanismen werden speziell in dem Forschungszweig der Evolutionären Entwicklungsbiologie (kurz: Evo-Devo) untersucht.

 

3.5.5 Wechselbeziehungen zwischen Organismen

Organismen existieren niemals isoliert in einer abiotischen Umwelt. Alle Lebewesen sind in ein Beziehungsgeflecht aus zahllosen anderen Organismen eingebettet. Biologische Systeme integrieren dabei ein Vielzahl von Individuen. Dabei spielen Beziehungen zu Organismen der gleichen Art wie auch solche zu anderen Arten eine Rolle.

Abstammung

Eine besonders grundlegende Beziehung zwischen Organismen ist die Abstammung. Die genetische Ausstattung, die stoffliche Grundlage und die biochemischen Mechanismen in allen auf der Erde bekannten Lebewesen sprechen dafür, dass alle Lebewesen einen gemeinsamen Ursprung besitzen. Insofern sind alle Lebewesen als Bestandteil einer Abstammungsgemeinschaft zu betrachten. Durch den stammesgeschichtlichen Zusammenhang wird eine Hierarchie von Verwandtschaftsverhältnissen definiert, in der Arten zu kleineren und größeren Gruppen, den Taxa, zusammengefasst werden.

Die Struktur der Verwandtschaftsbeziehungen definiert sich sowohl historisch, als auch durch körperliche, morphologische Merkmale und durch die Informationssätze, die das Erbgut ausmachen. Zum Teil lassen sich auch durch Verhaltens- und Lebensweisen oder durch die Lebensräume die verwandtschaftliche Beziehungen aufzeigen.

Organismen, die sich ausschließlich durch Teilung fortpflanzen, haben nur ein Elternteil. Die durch die Entwicklung aufgespannten Verwandtschaftsbeziehungen bilden eine streng hierarchisch organisierte, baumartige Struktur.

Bei sich geschlechtlich vermehrenden Organismen ergeben sich deutlich andere Verhältnisse. Denn durch Rückkreuzungen und Paarungen innerhalb von Populationen entstehen netzartige Abstammungsbeziehungen. Neben der Zahl der Fortpflanzungsschritte spielt daher auch die Zahl der Rückkreuzungen eine wesentliche Rolle für den Grad der Verwandtschaft. Die genetische Rekombination innerhalb der geschlechtlichen Vermehrung sorgt für eine Verdichtung der Verwandtschaftsverhältnisse. Populationen sind damit nicht mehr nur Gruppen zusammenlebender Individuen, sondern auch Fortpflanzungs- und Rekombinationsgemeinschaften.

Konkurrenz

Lebewesen, die gleiche Ressourcen nutzen, stehen im Wettbewerb, sobald diese Ressourcen in irgendeiner Weise begrenzt sind. Lebewesen konkurrieren dabei in ganz unterschiedlicher Weise miteinander. Sie stehen im Wettbewerb um Lebensraum, um Licht, um Nahrung, um schützende Habitatstrukturen, um Partner und Plätze für die Aufzucht von Nachkommen.

Da Lebewesen im Allgemeinen eine größere Zahl von Nachkommen produzieren, als überleben, findet innerhalb jeder Generation eine Auslese statt. Insbesondere Konkurrenzsituationen bauen dabei einen Selektionsdruck auf, der dazu führt, dass es zu Veränderungen der Eigenschaften von Lebewesen kommt. Diese Anpassungsleistungen der Evolution sind insbesondere innerhalb einer Umwelt, die ständigen Veränderungen unterliegt, überlebensnotwendig. Diese Veränderungen modulieren dabei nicht nur die Eigenschaften von Lebewesen, sondern auch die jeweils vorherrschenden Anpassungsmechanismen.

Symbiose, Parasitismus und Antibiose

Bei der sogenannten Endosymbiose handelt es sich um die engste aller Symbioseformen. Beispielsweise Algen und tierische Zellen stehen dabei in einem regen Nährstoffaustausch. Verschiedene Produkte wie Zucker, Glyzerin und Aminosäuren werden von den Polypen (den einzelnen kleinen, wirbellosen Tierchen der Koralle) übernommen und zum Teil in körpereigene Strukturen eingebaut.

Der Mutualismus beschreibt ein Zusammenleben mit gegenseitigem Nutzen. Bei dieser Symbiose profitieren beide Partner voneinander, wie beispielsweise bei der Lebensgemeinschaft von Anemone und Anemonenfisch.

Kommensalismus bedeutet wörtlich „Tischgenossen“. Der Wirt wird dabei nicht erkennbar vom Gast geschädigt. Beispielsweise die Wasserlungen von Seewalzen und Muscheln eignen sich gut für Lebewesen, da sie ständig mit Frischwasser und damit auch mit Sauerstoff versorgt wird. Die Besiedlung der nach außen offenen Körperhöhlen anderer Tiere nennt man Entökie. So bewohnen beispielsweise Krebschen diese Körperhöhle und filtrieren mit Hilfe ihrer Mundwerkzeuge den Atemwasserstrom ihres Wirtes. Sie schaden also nicht ihrem Wirt sondern profitieren nur von den günstigen Lebensbedingungen.

Beim Parasitismus wird der Wirt vom Gast jedoch deutlich geschädigt. Lästige Untermieter sind auch bei Meeresbewohnern keine Ausnahme. Typische Parasiten sind die kleinen Fischasseln, die immer wieder auf der Haut verschiedener Fischarten anzutreffen sind. Mit Hilfe von speziell zu Klammerbeinen umfunktionierten Füssen krallt sich die Assel an der Fischhaut fest. Zum Fressen bohrt sie ihren Wirt mit dem zu einem kräftigen Stechrüssel umgebauten Mundwerkzeug regelrecht an. Nun saugen sie vom Blut und der Gewebeflüssigkeit des Fisches.

Antibiose bezeichnet das Zusammenleben von artverschiedenen Organismen, bei der der eine Partner die Lebensäußerungen des andern Partners einengt, sein Wachstum hemmt und seinen Tod bewirkt. Die Antibiose wird durch Substanzen verursacht, die demgemäß als Antibiotika bezeichnet werden. Marine Bakterien produzieren beispielsweise eine Reihe antibiotisch wirkende Substanzen. Diese werden während der Wachstumsphase ins Meereswasser abgegeben und hemmen konkurrierende Organismen in ihrer Ausbreitung. Auch zahlreiche Algen und Planktonorganismen sondern solche Stoffe aus. Der Schwamm sondert Stoffe aus, die sich gegen Bakterien und Pilze wenden aber auch solche, die etwa die Zellteilung von Seeigel-Eier hemmen. Dadurch wird eine Besiedlung der Schwämme durch diese Tiere verhindert.

Biologische Gemeinschaften und Netzwerke (Biozönosen)

Nicht die einzelne Art, und erst recht nicht das einzelne Individuum erschließt auf Dauer neue Lebensräume und schafft stabile Lebensverhältnisse. Erst das Zusammenwirken unterschiedlichster Populationen führt zu Lebensgemeinschaften, die leistungsstark und oft sehr langfristig stabil sind. Lebensgemeinschaften erschließen neue Ressourcen, verändern die Umwelt und verändern sich dabei auch selbst, wobei oft typische Abfolgen bestimmter Arten in den Gemeinschaften auftreten. Lebensgemeinschaften schaffen sich ihre Existenzbedingungen zu einem guten Teil selbst. Die zwangsläufig in allen Populationen wirkende Selektion sorgt dabei für eine Selbstoptimierung der Lebensgemeinschaften. Lebensgemeinschaften gewinnen dadurch Merkmale eines im weitesten Sinne als "Superorganismus" aufzufassenden Systems.

Im Gegenzug bilden sich in der Selektion innerhalb der einzelnen Populationen die Bedingungen der Lebensgemeinschaft ab. Es werden jene Populationen und jene Individuen und Gene selektiert, die nicht nur ein hohes Behauptungsvermögen besitzen, sondern zugleich auch zur Dynamik, Anpassungsfähigkeit und zur Umweltgestaltung durch die Lebensgemeinschaft vorteilhaft beitragen. Die Evolution der Arten ist somit unmittelbar an die Entwicklung der Lebensgemeinschaften gekoppelt.

 

3.5.6 Die Evolution des Menschen als hochkomplexes Säugetier und seine kulturelle Evolution

Innerhalb der biologischen Arten sind die mehrzelligen Lebensformen die komplexesten. Wir bezeichnen sie als Pflanzen und Tiere. Und innerhalb der Tierwelt sind es wiederum die verschiedenen Arten der Säugetiere, die sich zur höchsten biologischen Komplexität entwickelt haben. Jedes Säugetier, wie beispielsweise ein Pferd, oder ein Hund, steht daher automatisch schon recht weit oben an der Komplexitätsspitze der Lebewesen.

Doch innerhalb der Säugetiere ragt eine Art ganz besonders weit heraus, und steht völlig unangefochten an der Komplexitätsspitze. Es ist die Art des Homo sapiens, die sich als moderner Mensch manchmal auch ganz unbescheiden Homo sapiens sapiens nennt.

Abgesehen von der seltsamen Selbstbezüglichkeit, die leider unumgänglich ist, wenn der Entwicklungsbiologe oder Anthropologe selbst ein Mensch ist, also in diesem Falle ausnahmsweise Forschungsobjekt und Subjekt gleich sind, kann man wissenschaftlich trotzdem auch den Menschen ganz objektiv betrachten, und - zum Glück- sogar einige handfeste Beweise dafür finden, warum es sich nun ausgerechnet bei dem Menschen um eine derart herausragende Säugetierart handelt, dass diese sogar das Potential hat, neben den Tieren eine ganz neue Kategorie von Lebewesen zu definieren.

Warum es so toll ist, ein Mensch zu sein

Als Mensch ein Loblied ausgerechnet auf den Menschen anzustimmen, mag zunächst ein wenig kurios, wenn nicht sogar unpassend wirken. Denn gerade die Biologen betonen stets, dass auch der Mensch "nur" eine Säugetierart unter vielen ist, und dass einige Leistungen zwar ungewöhnlich sind, aber keine von ihnen wirklich einzigartig.

Zum Glück hilft uns jedoch auch hier wieder die Strukturwissenschaft, um herauszufinden, was denn nun wirklich dran ist am "Menschen-Hype".

Nehmen wir jedoch dazu erst einmal die Position ein, warum der Mensch vielleicht doch gar nichts besonderes in Tierreich sein könnte. Fangen wir dafür am besten mit dem Gehirn an: 1,3 kg ist für so ein Organ doch schon ganz schön beachtlich, oder? Nein, denn beispielsweise das Gehirn des Pottwals wiegt 9,5 kg und ist damit das Größte und Schwerste im gesamten Tierreich. Die Fähigkeit zu Sprechen ist doch toll, oder? Nein, jedes etwas komplexere Lebewesen, egal ob Vogel, Hund oder Katze, hat im Laufe der Evolution seine jeweiligen Sprachformen entwickelt. Und der Werkzeugeinsatz? Sorry, aber es gibt genügend Tiere, die ebenfalls selbst angefertigte Werkzeuge benutzen. Die Fähigkeit zum Selbstbewusstsein vielleicht? Nein, selbst Tauben können sich selbst im Spiegel erkennen. Der Mensch kann laufen ... aber das können andere Tiere sogar noch besser.

Doch keine Angst! Es gibt trotzdem genügend Gründe, den Menschen nicht als unnützen Fremdkörper auf dem falschen Planeten, sondern als das -aus der Komplexitätstheorie heraus gesehen- interessanteste Geschöpft auf Erden zu betrachten. Fangen wir also gleich damit an:

Der Mensch ist schon seit längerer Zeit besonders stolz auf seine kognitiven Fähigkeiten. Und die moderne Hirnforschung kann dies inzwischen auch objektiv bestätigen. Das komplexe neuronale Netzwerk des Menschen mag vielleicht nicht das Größe oder das schwerste im Tierreich sein, aber darauf kommt es strukturwissenschaftlich gesehen auch nicht an. Was zählt ist die innere Struktur des menschlichen Gehirns, also die Dichte an neuronalen Verknüpfungen, und die hierarchische Organisation innerhalb von komplexen neuronalen Schichten. Und bei diesem strukturellen Vergleich schlägt niemand aus dem Tierreich den Menschen. Gewiss haben auch andere Primaten ein komplexes und recht großes Gehirn entwickelt. Doch gerade bei den für menschliche Verhaltensweisen zentralen Gehirnfunktionen, die im Bereich des Neocortex zu den "höheren" Gehirnfunktionen zählen, sind extreme Unterschiede feststellbar. In einzelnen Gehirnbereichen, wie dem präfrontalen Cortex übertrifft die Aktivierungsleistung des menschlichen Gehirns bei der komplexen Reizverarbeitung die der Affen um den Faktor 50 und mehr. Es sieht dabei so aus, als ob beim menschlichen Gehirn die interne Konnektivität eine kritische Vernetzungsschwelle überschritten hat, die zu einem dramatisch autonomeren Gehirn führt. Leider ist das menschliche Gehirn jedoch noch weit entfernt davon, neurowissenschaftlich vollständig verstanden zu sein. Doch je mehr wir über das Gehirn lernen, desto deutlicher werden die einzigartigen Leistungen insbesondere des menschlichen Gehirns.

Doch um sich der Einzigartigkeit des Menschen zu vergewissern, müssen wir eigentlich gar nicht erst die Ergebnisse der Neurowissenschaft abwarten. Einige handfeste Beweise können wir nämlich auch ohne sie bereits heute direkt studieren.

Der nächste Punkt gilt daher der menschlichen Sprache. Die Wissenschaft ist sich inzwischen einig darüber, das insbesondere die Sprache DAS wesentliche Erkennungsmerkmal ist, das die Menschen vom Rest der Tierwelt abhebt. Das mag zunächst verwundern, denn Sprachformen gibt es schließlich überall im Tierreich. Doch die Fähigkeit, strukturierte Lautfolgen von sich zu geben, hat beim Menschen eine neue qualitative Stufe erreicht, die alle anderen Kommunikationsformen weit hinter sich lässt. Das wir überhaupt Sprechen, also Laute von uns geben können, mag in der Tat nichts besonderes sein. WIE wir jedoch kommunizieren ist direkt mit unserer Gehirnleistung verkoppelt und weist daher ganz entscheidende Unterschiede zur tierischen Kommunikation auf.

Kommunikation ist ein essentiell wichtiges Mittel zur Kopplung zwischen Individuen und damit wieder einmal ein Instrument zur komplexen Integration. Eine zunehmende Kommunikationsfähigkeit bedeutet daher auch eine verbesserte Integrationsfähigkeit. Der Aufbau von neuen und effizienten Kommunikationswegen unterstützt deshalb auch die Entstehung neuer, höherer Ebenen in funktionellen hierarchischen Strukturen.

Die Entwicklung der menschlichen Sprache aus der tierischen Kommunikation kann aus Sicht der Komplexitätstheorie durchaus als ein entscheidender Symmetriebruch verstanden werden. Nach Höpp war der Ausgangspunkt dafür eine einfache Kommunikation durch Signale. Das von Sender übermittelte Signal war als Auslöser einer Handlung beim Empfänger gedacht. Für unterschiedliche Verhaltensweisen waren unterschiedliche Signale erforderlich. Diese konnten Bezug zu anderen Lebewesen oder Objekten oder Vorgängen nehmen. Stets bildete die Intention der Handlungsauslösung und die im Signal übermittelte Information über Objekte oder Zustände eine Einheit. Semantisch und grammatisch waren Objektinformation und Handlungsintention nicht voneinander zu trennen. Mit dem Anwachsen der Zahl verfügbarer, unterscheidbarer Signale, wächst die Möglichkeit der Analogisierung. Da die Signale semantisch Objekt- und Aktionsinhalte vereinigen, die Analogisierung aber vorzugsweise nur einen von diesen beiden Inhalten betrifft, sind solche Analogisierungen am rationellsten, die am besten zwischen Aktions- und Objektinhalt unterscheiden. Sobald Objekte und Aktionen als Begriffsklassen wahrnehmbar, und dadurch voneinander separiert werden, wird aus dem "Ein-Wort-Signal" die erste Struktur eines "Zwei-Wort-Satzes". Diese Trennung stellt ein Klassifikationsschema dar. Die Semantik erhält dadurch systematische Kategorien. Dies ändert jedoch nicht nur die Kommunikation, sondern auch die Wahrnehmung der Umgebung von jedem, der an der Kommunikation beteiligt ist. Sie ist der erste Schritt für ein tiefergehendes Erkennen der Welt. Im gewissen Sinne entsteht hier wiederum ein autokatalytisches System, bei der Fähigkeit zur Entwicklung einer komplexen Sprache parallel die Erkenntnisfähigkeit selbst unterstützt und somit wiederum ebenfalls auf die Entwicklung von kognitiven Fähigkeiten zurückwirkt.

Einen weiteren wichtigen Symmetriebruch erreicht die Sprache, wenn es ihr gelingt, das Bezeichnete von der jeweils aktuellen Situation zu entkoppeln. Die Einführung eines Zeitbezugs, der zwischen vorher, jetzt und später unterscheidet, ist der nächste wichtige Schritt auf dem Weg zur komplexen Sprachform. Denn insbesondere die Fähigkeit, zukünftige Abläufe und Handlungen vorauszusehen oder vorauszudenken, und darüber kommunizieren zu können, war eine entscheidende Voraussetzung für die erfolgreiche Planung von Handlungsabläufen und nicht zuletzt auch für die geplante Herstellung von Werkzeugen. Damit vollzog sich der Schritt von der Kommunikation als bloßer Abstimmung momentanen Handelns hin zum Informationsaustausch und zur Informationssammlung. Die objektunabhängige Tradierung wurde so zum Wesensmerkmal der menschlichen Sprache. Und das macht sie mit Abstand bereits zur herausragendsten Kommunikationsform im gesamten Tierreich.

Doch damit fing die menschliche Sprache als komplexe Kulturform erst an. Ein weiterer Symmetriebruch setzte ein, als es gelang, die subjektunabhängige Tradierung durch den Einsatz einer Schrift einzuführen. Stand zunächst nur das gesprochene Wort als direkte Kommunikation zwischen zwei Subjekten im Vordergrund, so konnten nun auch unabhängig von einem sprechenden Subjekt Informationen über weite Strecken und zeitliche Distanzen ausgetauscht werden. Zudem wurde die Kommunikation multidirektional, den ein Buch konnte mehrfach gedruckt werden und damit gleichzeitig fast beliebig vielen Empfängern zur Verfügung stehen. Den neuesten Symmetriebruch erlebt die menschliche Kommunikation derzeit in Form des Word Wide Webs. Diese Kommunikationsform ist omnidirektional, d. h. dass im Prinzip jedem instantan alle Informationen zur Verfügung stehen, und sogar potentiell auch auf alle Informationen zu jeder Zeit geantwortet werden kann. Derzeit ist dieses Potential zwar noch lange nicht ausgeschöpft, aber der epochale Wandel im Umgang mit Informationen und Wissen ist schon heute spürbar.

Ein weiterer wichtiger Punkt, der den Menschen vom übrigen Tierreich abgrenzt, ist der Gebrauch von Werkzeugen. Ganz ähnlich wie die Sprache ist es jedoch nicht erstaunlich, dass der Mensch überhaupt Werkzeuge benutzt (das machen Tiere schließlich auch), sondern was für Werkzeuge er zu welchen Zweck verwendet. Auch hier ist es wiederum die Kopplung von kognitiven Leistungen und Werkzeugherstellung, die in dieser speziellen Kombination Leistungen hervorbringt, die so weit von den Werkzeugen der Tiere entfernt ist, dass man hier ebenfalls von einem Symmetriebruch sprechen muss. Zusammen mit seiner Sprache und der komplexen Fähigkeit vorauszuplanen, kann der Mensch Werkzeuge entwickeln, die fast endlose hierarchische Kaskaden der Komplexität durchlaufen. Zum einen in der abstrakten Erfindung und Konstruktion von Werkzeugen, aber auch ganz praktisch in der Herstellung von Werkzeugen. So gelingt es ihm beispielsweise nicht nur ein Werkzeug zum direkten Gebrauch für ein akutes Problem anzufertigen, sondern er fertigt auch Werkzeuge, um damit Werkzeuge zu bauen, die wiederum die Grundlagen von Werkzeugen sind, um irgendwann damit dann ein besonders komplexes Problem zu lösen.

Wiederum ist es also die Fähigkeit zur Integration von Problemlösungstechniken, welche den Werkzeugen der Menschen eine einzigartige Qualität geben, die im übrigen Tierreich nicht einmal ansatzweise erreicht wird. Zusätzlich mit der Verkopplung von komplexer, moderner Kommunikation, die ebenfalls autokatalytisch auf die Entwicklung neuer Werkzeuge wirkt, hat die Menschheit insbesondere in den letzten hundert Jahren neue Werkzeuge erschaffen, die fast schon so wirken, als seine sie nicht von dieser Welt. Es ist nicht einmal annähernd denkbar, das beispielsweise Pferde (oder selbst Primaten) in ihrer jetzigen Entwicklungsform jemals ein Kernkraftwerk oder einen Computer bauen werden. Menschliche Werkzeuge spielen in einer völlig anderen Liga. 

Ein weiteres wichtiges Merkmal der Menschen sind die beeindruckenden Leistungen auf dem Gebiet der Wissenschaft. Zunächst einmal ist es zwar nicht besonders erstaunlich, dass der Mensch überhaupt Wissenschaft betreibt, denn das Bemühen, komplexe Ursache-Wirkungsketten zu erforschen und zu begreifen, sowie eine lebenslange Neugierde, finden wir auch bei anderen Tierarten. Auch hier ist es daher insbesondere der qualitative Sprung, der uns so weit von den Leistungen im übrigen Tierreich entfernt. Die Wissenschaft ist zudem ein gutes Beispiel dafür, wie die grundsätzliche Erkenntnisfähigkeit immer auch mit unseren Fähigkeiten zu einer komplexen Sprache und mit leistungsfähigen Werkzeugen verknüpft ist. Wieder einmal bilden sich durch Werkzeuge, wie leistungsstarke Teleskope oder Mikroskope, verbunden mit immer weiterreichenden Kommunikationsmöglichkeiten, autokatalytische Vorgänge, die sich selbst verstärken. Je mehr wir über unsere Umwelt erfahren, desto ausgefeiltere Theorien entwickeln wir, und je präziser die Theorien werden, desto mehr möchten wir über unsere Umwelt erfahren. Die Entwicklungen in der Kommunikation, unserer Werkzeuge, und unseres Wissens und den dazugehörigen Theoriegebäuden unterstützen sich gegenseitig und treiben somit auch unsere Wissenschaft fast wie von selbst voran. Und auch in der Wissenschaft kann man feststellen, dass der Mensch hier Leistungen erbracht hat, die so weit entfernt von der übrigen Tierwelt sind, dass man hier wiederum von einem Symmetriebruch sprechen kann.

Last but not least sei darauf hingewiesen, dass es ebenfalls zu den einzigartigen Leistungen der Menschen gehört, komplexe Staaten zu bilden. Im Bereich der Insekten sind Staaten als Analogieform die komplexeste Art, wie Lebewesen ihr zusammenleben organisieren. Interessanter Weise kommt es selbst bei den Säugetieren jedoch entweder nur Herdenbildung, oder zur Rudelbildung, d. h. zu kleineren Gruppen, die über eine Rangordnung ansatzweise über hierarchische soziale Strukturen verfügen. Der Mensch übertrifft mit seinen Staaten jedoch auch die Insekten hinsichtlich der komplexen arbeitsteiligen Sozialstrukturen bei weiten. Insbesondere ist die zugrundeliegende Flexibilität, trotz der hohen Komplexität bemerkenswert. Während es bei Insekten pro Staatsform nur eine vergleichsweise geringe Anzahl verschiedener Spezialisierungsgruppen gibt, und die Organisationsform sehr starr ist, so scheint es bei den Menschen weder Grenzen für die Ausbildung verschieden spezialisierter Arbeitsformen, noch für die Organisation und Flexibilität von Staaten selbst irgendwelche Beschränkungen in der Vielfalt zu geben. Das ist in dieser Ausprägung daher ebenfalls völlig einzigartig im Tierreich, und daher ein weiterer Symmetriebruch innerhalb der sozialen Organisationmöglichkeiten von Lebewesen an sich.

Computer, KI und Transhumanismus

Ein weiteres herausragendes Merkmal der Menschen ist seine Fähigkeit, nicht nur eine komplexe Sprache zu entwickeln, sondern auch über die Sprache als solche selbst nachdenken zu können. Die Entwicklung von abstrakten Programmiersprachen, und die Entwicklung von Automaten, die solche, selbst geschaffenen formalen Sprachstrukturen verarbeiten können, zeigt uns, dass man die Integration von Abstraktionsebenen zur Schaffung komplexer Strukturen anscheinend noch viel weiter entwickeln kann.

Dass der Mensch sich damit anschickt, seine kognitiven Fähigkeiten nicht nur weiterzuentwickeln, sondern von einem System sogar noch übertreffen zu lassen, finden einige Forscher fast schon wieder beängstigend. Denn zusammen mit der Fähigkeit, sein eigenes Erbgut manipulieren zu können, werden damit indirekt auch Vorbereitungen für einen erneuten Symmetriebruch begonnen. Es sind die Vorbereitungen zu etwas, dass über die Fähigkeiten des Menschen mindestens genauso weit hinausreicht, wie die Fähigkeiten des Menschen im Vergleich zu anderen Tieren.

Die Vision, dass sich die biologische Evolution damit quasi irgendwann selbst überholt, wird in den Kreisen der Zukunftsforscher und Sci-Fi-Autoren unter dem Stichwort Transhumanismus diskutiert. Ein aktueller Kinofilm, wie beispielsweise "Tanscendence" skizziert dabei den "Upload" des menschlichen Gehirns in einen zukünftigen Computer, was dann zu einer ganz neuen Form der Evolution von Bewusstsein führt.

Der weitere Weg der Evolution (unabhängig davon, ob er biologisch oder abiologisch sein wird) bleibt wohl in jedem Falle eine spannende und überraschende Angelegenheit.

 

3.5.7 Künstliche "Evolutionsmaschinen" (Manfred Eigen)

In den 1960er Jahren wurden zum ersten Mal Evolutionsexperimente im Reagenzglas durchgeführt. Seit dieser Zeit beschäftigte sich auch der Nobelpreisträger Manfred Eigen mit Fragen der Evolutionsgeschichte. Er erarbeitete die theoretischen Grundlagen der Evolutionsmaschine.

Die Experimente mit der kontrollierten Umwelt sollen Erkenntnisse über die Entstehung des organischen Lebens erbringen. Die Bedingungen sollen geklärt werden, die zu der Entstehung lebender Strukturen führen könnten. Am Max-Planck-Institut für biophysikalische Chemie in Göttingen entwirft der Japaner Yuhuru Husimi einen Prototypen der Maschine. Der Chemiker Andreas Schwienhorst baut diesen zu einem funktionsfähigen Evolutionsreaktor aus.

Mit diesem computergesteuerten Bio-Reaktor lassen sich bestimmte Viruskulturen züchten und deren Evolution im Zeitraffer beobachten. Unter gleichbleibenden Umweltbedingungen vermehren sich lebende Organismen in einer bestimmten Häufigkeit und Geschwindigkeit. Dabei kommt es manchmal zu spontanen Änderungen der Erbinformation (Mutation), die zu veränderten Merkmalen führen. Diese können sich positiv oder negativ auf die Überlebens- und Vermehrungsrate der Organismen auswirken (Selektion). Diesen Vorgang nennt man "Evolution durch natürliche Selektion". Er ist für die Vielfalt der Lebensformen auf der Erde verantwortlich.

Durch gezieltes Verändern der Umweltbedingungen kann im Labor sowohl die Häufigkeit der Mutationen als auch die Geschwindigkeit der Evolution beeinflusst werden. Das Verfahren wird heute im großtechnischen Maßstab angewandt. 

 

 

 

 

 

Einzelnachweise

1  Hawking, Stephen: San Jose Mercury News; 23. Januar 2000

2  Wikipedia: Allgemeine Relativitätstheorie; online

3 Rebhan, Eckhard: Kosmischer Ursprung und Zeitentwicklung der für irdische Zwecke nutzbaren Energie; 2005, S.15 online

4 Rebhan, Eckhard: Kosmischer Ursprung und Zeitentwicklung der für irdische Zwecke nutzbaren Energie; 2005, S.1 online

5 Stewart, Jan: Das Rätsel der Schneeflocke - Die Mathematik der Natur; 2002

6 Brok, William: Viewegs Geschichte der organischen Chemie; 1992, S. 171

7 Spektrum Akademischer Verlag, Lexikon der Psychologie: Lebende Systeme; online

8 Köhler, Michael: Vom Urknall zum Cyberspace; 2009, S.79

9 Spektrum Akademischer Verlag, Lexikon der Psychologie: Sinnerleben; online