Die Faszination der Entropie, Teil 2
Wir denken weiter und aus Antworten werden neue Fragen
Mit dem ersten Teil dieses Essays ⧉ ist nicht klar geworden, was Entropie nun ist. Eine physikalische Kraft? Einfach nur ein Wert ohne Aussage? Oder etwas ganz anderes? Natürlich letzteres - ich nehme das Ergebnis vorweg - und das nicht nur deswegen, weil ich von Physik keine Ahnung habe ... .
Wenn die Entropie der Zeit ihre Linearität gibt, dann muss sie die Grundlage dafür sein, was Kausalität genannt wird. Und wenn sie mit der Kausalität zusammenhängt, dann auch mit allen Abstraktionen dessen, für das wir nur abstrakte Formen kennen. Dinge wie Seele, Bestimmung oder Sinn.
Bevor wir mit der Beantwortung der Frage aus Teil 1 beginnen ...
Halten wir also fest: Entropie ist keine physikalische Kraft, sie ist jedoch physikalisch messbar. Sie ist unumkehrbar und impliziert damit die Linearität. Sie ist ein Fachbegriff in drei Wissenschaften, hat in ihren dortigen Definitionen jedoch Berührungspunkte, die wir noch genauer rausarbeiten werden.
In meinem ersten Teil hatte ich gesagt, dass die Entropie der Zeit ihre Linearität gibt und dass die Entropie im Menschen als Alterungsprozess angelegt ist. Jetzt stellen sich automatisch zwei weitere Fragen und über die Beantwortung dieser Fragen tasten wir uns über die verschiedenen Definitionen heran:
- Wenn Zeit erst durch die von Entropie vermittelte Linearität erfahrbar wird, gibt es dann so etwas wie Zeit überhaupt? Also kann man Zeit als objektive Größe überhaupt wahrnehmen, wenn es keine Entropie gäbe?
- Wenn mit steigender Entropie in einem System die Komplexitität zunimmt und das System letztendlich kollabiert (steigende Entropie bedeutet beim Menschen fortschreitender Alterungsprozess), ist dann der Zusammenfall eines Systems nicht genauso zwangsläufig, vielleicht notwendig, wie die in der Entropie angelegte Vergänglichkeit an sich?
- Und die spannendste Frage ergibt sich dann aus der Annahme, dass es so etwas wie eine objektive Zeit gar nicht gibt: Wenn die Linearität und damit auch die Kausalität die Begleiterscheinungen der Entropie sind, ist dann nicht alles automatisch determiniert?
Diese Fragen müssen jedoch noch etwas mehr differenziert werden, denn sie beinhalten einen spannenden, sich zwangsläufig ergebenden Zusatz: Wenn die Entropie Linearität und Kausalität als ihren Rahmen vorgibt und wenn diese Linearität zur Vergänglichkeit führt, birgt dann diese Vergänglichkeit nicht eben auch diese Kausalität in sich? Ich denke, alle drei Begriffe (Linearität, Kausalität und Vergänglichkeit) sind die Grundelemente aus denen sich die Entropie ergibt. Wie auch immer eine Defintion aussehen würde, die diese Begriffe umschliesst: sie wird jeder Art von Nihilismus die Argumente nehmen. Entropie als Motor des Linearen, welches auf Vergänglichkeit ausgerichtet ist, würde demnach implizieren, dass dieser Mechanismus einen Sinn hat, denn sonst würde er nicht existieren. Oder anders gesagt: welchen anderen Grund als ultimative Kausalität sollte die Entropie sonst haben?
Ich formuliere es noch einfacher:
Man kann sich dieser Definition annähern, in dem wir uns die Entropie in der Thermodynamik ansehen, deren Erklärungen sich abstrakt in der Entropie-Definition der Informationstheorie wiederfinden. Und wir stoßen dabei auf ein interessantes Paradoxon (also mir kommt das wie ein Paradoxon vor): In einem vollständig abgeschlossenen System steigt die Entropie unaufhaltsam, bis ein Zustand maximaler Unordnung erreicht ist – diese Unordnung ist das sogenannte thermodynamische Gleichgewicht. Das Paradox zeigt sich in den Begriffen "Unordnung" und "Gleichgewicht". Einfaches praktisches Beispiel: Wir stellen eine Tasse heisses Wasser auf den Tisch - was wird passieren? Das Wasser kühlt sich (gibt so lange Wärme an die Umgebung ab) bis seine Temperatur der Umgebung entspricht. Interessant ist, dass dieser Zustand des Gleichgewichtes der maximalen Unordnung entspricht. Man könnte also Unordnung so verstehen, dass Zustände ineinander verschwimmen und unkenntlich werden. Keine Temparaturunterschiede - der Zweck der heißen Temperatur des Wassers geht verloren. Das angestrebte Gleichgewicht ist also eine Unordnung. Der Zweck der Entropie ist die Schaffung von Unordnung.
Abstrahieren wir das mal und ersetzen Unordnung mit Komplexität (ich weiß, dass dies die große Schwachstelle meiner Argumenation sein könnte - diese Gleichsetzung allein wäre schon einen Essay wert), dann bedeutet mehr Entropie eben auch mehr Komplexität. Entropie ist in der Informatik die durchschnittliche Menge an Information, die in einer Nachricht enthalten ist. Je höher die Entropie, desto unvorhersehbarer die Nachricht. Je mehr Entropie, desto komplexer die Umstände. Nehmen wir als Beispiel den menschlichen Körper - mit der Zunahme von Entropie, also dem Alter, wird es immer schwieriger, die Folgen der Entropie zu beherrschen. Sind wir immer mehr Informationen ausgesetzt, mit denen wir einen einzigen, semantischen Sachverhalt erkennen sollen, dann nimmt die Komplexität immer mehr zu und die Fähigkeit, die Nachricht zu verstehen, wird immer schwieriger.
Definieren wir also:
Wenn wir nun feststellen, dass diese ultimative Kausalität letztendlich die Vergänglichkeit ist - oder sagen wir es konkret: der Kollaps des Systems - und wenn dieses System der menschliche Körper ist, dann ist der Tod nicht nur das Ende der Linearität, sondern sogar ihr Zweck. Wir würden also zu einer völlig sinnfreien Definition kommen: der Zweck des Lebens ist es, zu sterben.
Die Entropie in der Thermodynamik bietet hier aber einen Ausweg: Entropie beschreibt die Tendenz eines Systems, sich in Richtung größerer Unordnung zu entwickeln, aber das bedeutet nicht zwangsläufig einen Kollaps. In einem abgeschlossenen System steigt die Entropie durch spontane Prozesse an, bis ein Gleichgewicht erreicht ist. Doch viele Systeme sind nicht vollständig abgeschlossen – sie können Energie oder Materie mit ihrer Umgebung austauschen, was den Entropieanstieg beeinflussen kann. Aus diesem Grund gibt es Kreisläufe in der Natur, ständig wiederkehrende Stoffwechsel, Jahreszeiten, Instinkte, sinnstiftende soziale Interaktionen.
Und genau hier liegt in der Physik und in der Soziologie die tiefere Logik verborgen, die wir aber informationstechnisch nicht ergründen können. Wir können nicht erkennen, warum die Komplexität in der Extrahierung von Informationen durch z.B. immer komplexere Algorithmen zunehmen muss. Der Informatiker kann so etwas durch Schaffung von Kapselungen umgehen, aber nur zum Teil. Wir kommen in jedem Fall mit unserem Verstand an eine Grenze, die wir nicht leugnen können. Kann ein verwesender Körper zum Teil eines neuen entropischen System werden, so können wir nicht erkennen, wo eine durch Komplexität vernichtete Information hingeht. Wohin geht der semantische Zusammenhang unserer Gehirnzellen? Welchen Zweck hatte die Speicherung von Information und das Aushalten der Komplexität? Wie lautet der kausale Endzweck der Information? Wir wissen es nicht und das ist unser Dilemma.
Aber vielleicht kommen wir mit der Beantwortung einiger Fragen am Ende des 1. Teil des Essays der Sache näher ...
Antworten und neue Fragen
Wie also definieren sich "Information", "Komplexität" und "Erkenntnis" im Hinblick auf Entropie?
Die "Information" ist ebenfalls ein spannender Begriff. Was ist eine Information? Man könnte sagen, eine Information bringt etwas "in Formation" :-) - Ich formuliere das anders und bin wieder nahe an der Physik: Information ist semantische Form von Energie. Energie, die in einem semantischen Kontext einen ontologischen Wert vermittelt. In der Informatik kann man das etwas einschränken oder präzisieren - dort wäre eine Information auf niedrigster Ebene (binär) zunächst nichts, was einen semantischen Wert hat - erst die Kombination der Informationen liefert den ontologischen Wert. Die Methode, solche Informationen zu kombinieren, so dass sie einen ontologischen Wert ergeben, nennt man Algorithmus. Die Kombination von Informationen ist die Semantik. Ihr Ergebnis ist die Nachricht. Nachrichten haben einen Sender und einen Rezipienten.
Entropie spielt insofern eine Rolle, als das sie im Hintergrund eines jeden semantischen Kontextes wirkt. Sie ist latent vorhanden - in jeder Wahrnehmung und in jeder Vermittlung von Information, denn das Wesen der Semantik selbst ist die Linearität. Ursache und Wirkung ist kongruent zu Sender und Rezipient von Informationen. Das Zusammensetzen von Informationen innerhalb eines semantischen Kontextes ist die wesentlichste Bewusstwerdung von Entropie. Möchte man es es ganz einfach formulieren, dann könnte man sagen, die Entropie liefert den "Sinn" einer Information, was angesichts der bereits dargelegten Verbindung von Entropie zu "Unordnung" und "Vergänglichkeit" auf den ersten Blick irritieren könnte.
Man darf hier aber nicht den Zweck der Entropie mit dem Zweck der Information bzw. einer Nachricht verwechseln. Man kann natürlich argumentieren, dass der Endzweck jeder Information mit dem Endzweck der Entropie gleichgesetzt werden kann ("Was interessiert mich das? - In 100 Jahren bin ich tot"), aber das ist nihilistisch und zynisch - es muss schon einen Unterschied zwischen der Entropie und ihrem abstrakten Zweck und der unmittelbaren Bedeutung der Entropie geben. Da der unmittelbare Zweck immer gegeben ist - wir "praktizieren" Entropie, in dem wir z.B. Nahrung zu uns nehmen, um nicht zu verhungern - ist unser Handeln vielleicht nichts anderes, als alle Versuche aneinanderzureihen, um der Entropie letztendlich zu entkommen. Wir reproduzieren uns, indem wir uns fortpflanzen. Oder wir sublimieren diesen Trieb und Schaffen Wissen und Kunst. Und auch unser Alltag ist eine Reproduktion unseres Daseins, egal, in welchem wirtschaftlichen System wir unser Dasein fröhnen. Wir reihen Massen an Informationen an, versuchen, die Nachrichten daraus zu kombinieren um letztendlich in fortschreitender Entropie alle Versuche zu unternehmen, um dieser zu entkommen.
Egal, was wir tun - letztendlich schaffen wir das immer. Am Ende erfahren wir die endgültige Information: das Entkommen aus der Entropie ist die Vergänglichkeit. Das sich dieser Endzweck dem abstrakten Endzweck der Entropie entzieht kann nur mit "Glauben" oder "Hoffnung" begleitet werden. Bedeutet die finale Vergänglichkeit auch die Vergänglichkeit der Entropie? Was immer danach kommt, muss sich von der Entropie und damit auch von Vergänglichkeit, Komplextität und Linearität abgrenzen. Was immer danach kommt - es kann von einem in Entropie geordneten Dasein weder abstrakt, noch logisch, noch metaphysisch erfasst werden. Die Reflexion von Entropie scheitert an unserer Biologie.
Wie ordnet sich die Komplexität hier ein?
Entropie ist Unordnung und Komplexität. Das erschien mir zunächst unverständlich, ist aber vollkommen logisch. Da die Entropie Linearität und Kausalität impliziert, bedeutet sie auch immer ein Mehr an Elementen, die sich durchzieht. Wir machen immer mehr Erfahrungen, ein Handeln basiert auf dem Nächsten und die Entropie der Vergangenheit verschwindet nicht. Sie ist Grundlage des Jetzt, Entropie türmt sich auf, so wie alles, was wächst, auf den Resten dessen gründet, was zuvor gewesen ist. Und da sich die Umstände immer ändern, muss auch die Komplexität und die Unordnung zunehmen. Was in der Thermodynamik messbar ist, ist für jedes Individuum fühlbar.
Welche ontologischen Auswirkungen haben all diese Erkenntnisse?
Entropie ist nur dann untauglich für Nihilisten und Fatalisten, wenn die Wiederkehr und ihre Platzierung in ein neues System gewährleistet ist. Führt die Entropie dazu, dass im Herbst der Baum seine Blätter verliert, dann impliziert die Gewissheit den Frühling. Wissen wir um unsere Vergänglichkeit, dann bedeutet das Wissen um nachfolgende Generationen die Gewissheit, dass es weitergeht.
Nimmt man aber an, dass am Ende die Entropie zu einer endgültigen Vergänglichkeit als Endzweck führt, dann macht den Fehler, den man nach der Lektüre des 1. Teils meines Essays schon gar nicht mehr machen dürfte. Man setzt die Entropie mit der Zeit gleich. Die Entropie mag die Vergänglichkeit als letzten Zweck haben. Ob die Zeit jedoch einen objektiven Zweck hat oder ob sie objektiv unabhängig von den an die Entropie gebundenen menschenlichen Verstand überhaupt existiert (Kant hat das noch angenommen - er sollte neu bewertet werden), das wissen wir nicht. Das ist überhaupt das Dilemma der Ontologie. Man kann Nihilist sein, Agnostiker, tief gläubig, noch so viel Wissen und Gedanken anhäufen - alles, was wir tun ist entropisch. Die Ontologie ist entropisch. Es gibt für uns Menschen keinen letztgültigen metaphysischen Zugang zu einer Gewissheit.
Ich für meinen Teil kann nur sagen, dass die Entropie einen Zweck hat. Folglich muss alles, was mit ihr zusammenhängt ebenfalls einen Zweck haben. Entropie führt als Linearität immer zu Ergebnissen. Und eben nicht zum NICHTS.
Dafür gibt es eine schöne Anekdote - ich suche noch nach der Quelle, da ich das kleine Reclam-Heftchen nicht mehr habe, in dem ich das gefunden habe: Im Briefwechsel zwischen Sartre und Camus - es ging um konkrete Fragen zum Algerienkonflikt, bei dem beide Philosophen konträre Ansichten hatten - schreibt der atheistische Existentialist Sartre sinngemäß: "Die Freiheit aber muss anders bewertet werden. Sie gehört einer höheren Macht an." Ein Nebensatz, der einen der zentralen Begriffe der atheistischen Ontologie ad absurdum führt. Natürlich muss diese "höhere Macht" nichts religiöses sein, aber Macht bedeutet immer auch Zweck.
Ist alles schon vorherbestimmt?
Wenn die Zeit tatsächlich keine objektive Dauer hat und Linearität sich aus der Entropie ergibt, dann stellt sich die Frage, ob alles dann nicht schon vorherbestimmt ist. Ja, das glaube ich, aber die Vorherbestimmtkeit ist nicht exklusiv. Es sind unendliche Möglichkeiten vorherbestimmt und unser Handeln, unser Wissen, unsere Erkenntnis, die In-Formationen, die wir ordnen, kanalisieren die Entropie in die kausale Bahn, die für uns zur Realität wird. Das hört sich so unbegreiflich an, ist aber dem Nebel der Undurchsichtigkeit durch unser Gefangensein in der Entropie geschuldet. Die Linearität der Entropie macht für uns Unendlichkeit zu etwas Unbegreiflichem. Die Mathematik aber zeigt uns, dass uns die Unendlichkeiten umgeben. Wir könnten nichts erschaffen, könnten wir nicht trotz Entropie ständig mit der Unendlichkeit umgehen. Wir brauchen nur einen kleinen handlichen, runden Gegenstand in die Hand nehmen und greifen zum Beispiel nach der Unendlichkeit der Kreiszahl pi mit unendlichen Nachkommastellen. Wir halten die Unendlichkeit in der Hand. Oder wir spielen Schach. Ein Spiel, das mehr Zugmöglichkeiten hat, als es im Universum Atome gibt.
Unendlichkeit ist eigentlich das falsche Wort. Unendlichkeit ist die Ausrede, der Platzhalter für das, was uns der Verstand an Vokabular für objektive Erkenntnis nicht erlaubt.
Man kann zu diesem Thema noch sehr viel mehr schreiben. Speziell die sich ergebende Frage nach einem freien Willen und der möglichen Determiniertheit von Allem, öffnet ein weiteres, weites Feld - ein 3. Teil dieses Essays drängt sich auf und ist bereits in Arbeit.
Sehr Sehenswert: https://www.3sat.de/wissen/scobel/scobel---was-ist-zeit-102.html ⧉. Ab ca. 15:15 in dem Video spricht Sibylle Anderl ⧉ (Philosophin und Physikerin) von den Zusammenhängen zwischen Zeit und Entropie.