Mathematik: Die Welt im Chaos - Teil 1: Das deterministische Chaos
Released by matroid on Fr. 24. September 2004 07:04:49 [Statistics]
Written by huepfer - 8884 x read [Outline] Printable version Printer-friendly version -  Choose language   
Mathematik

\(\begingroup\) Um es gleich zu Beginn zu sagen: Der Titel ist zunächst nur vorsorglich mit "Teil 1" überschrieben, ob es einen weiteren Teil geben wird, kann ich noch nicht mit Sicherheit sagen, habe es aber natürlich vor. Zunächst stellen sich natürlich einige Fragen: Was ist eigentlich Chaos? Gibt es einen Unterschied zwischen dem was ein Mathematiker und der "normale" Mensch darunter versteht? Und: was kann man an Chaos mathematisch beschreiben? Auf diese Fragen möchte ich in diesem Artikel versuchen erste Antworten zu geben. Dabei werde ich mich eng an dem Buch Chaos - Bausteine der Ordnung [1] von Heinz-Otto Peitgen, Hartmut Jürgens und Dietmar Saupe orientieren.

überall Chaos

Einer früher allgemein verbreiteten Ansicht wird durch die Chaostheorie widersprochen, nämlich dass man, wenn man die Zustandsbedingungen eines Systems nur genau genug kennen würde, es bis zu seinem Ursprung und bis zu seinem Ende genau durchrechnen könnte. Doch das ist offensichtlich ein Trugschluss, eine Idealvorstellung, die nur in einigen Spezialfällen funktioniert. Und bei dieser Unberechenbarkeit fängt das ganze Chaos an, sowohl im gebräuchlichen als auch im mathematischen Sinn. Ohnehin war dieses Weltbild des absoluten Mechanismus schon in sich selbst widersprüchlich, da es den Zufall prinzipiell nicht zuließ, ihn im Glücksspiel allerdings wiederum geradezu forderte. Auch werden wir später noch sehen, dass das starke Prinzip der Kausalität - "Ähnliche Ursachen haben ähnliche Wirkung" - von dem die klassische Physik Gebrauch macht [1, Seite 5], keine allgemeine Gültigkeit besitzt. Dieser Aussage schließt sich auch J.C. Maxwell mit folgender Aussage an: "Es ist ganz offensichtlich, daß die Existenz instabiler Bedingungen die Vorhersage künftiger Ergebnisse unmöglich macht, wenn unser Wissen über den gegenwärtigen Zustand nur ein angenähertes und kein genaues ist..." [2] Nun möchte ich allerdings zum eigentlichen Thema dieses Artikels, dem deterministischen Chaos übergehen. Damit man mit Chaos überhaupt etwas anfangen kann, darf hier nicht die totale Gesetzlosigkeit herrschen, sondern es müssen irgendwelche inneren Strukturen vorhanden sein. Diese werden mit Hilfe der Fraktalen Geometrie dargestellt.

Das deterministische Chaos - ein Widerspruch in sich?

Andrej Kolmogorow, Gregory Chaitin und Ray Solomonov schlugen vor, den Begriff "Chaos" als Zufälligkeit im Sinne der algorithmischen Komplexitätstheorie zu verwenden. Was ist damit gemeint? Man nimmt sich ein physikalisches System, das mit einer Zustandsvariablen Q beschrieben werden kann. Diese Variable Q kann auch durch eine digitale Folge S ausgedrückt werden. Nun sind S und damit auch Q genau dann zufällig, wenn das kürzeste Computerprogramm, mit dessen Hilfe S wiedergegeben werden kann im Kopierbefehl "drucke S" besteht. Als Beispiel dafür kann man sich die Darstellung einer irrationalen Zahl vorstellen, deren Dezimaldarstellung nicht nach den ersten 3 oder 4 Stellen abbricht und die auch nicht als Bruch aus natürlichen Zahlen geschrieben werden kann, sondern eine nichtperiodische Folge von Ziffern darstellt, die keiner Regelmäßigkeit gehorcht. "Die Schlüsseleigenschaft der Zufälligkeit und damit der Chaotizität besteht somit in der Nichtabkürzbarkeit des Computerprogramms. Damit klärt sich auf, daß deterministische Zufälligkeit keinen Widerspruch in sich darstellt, wie man dies von der Quantenmechanik her vielleicht denken könnte."[vgl. 1, Seite 11] Die Determiniertheit stellt in diesem Fall also die Eindeutigkeit der klassischen Bahnen im physikalischen Sinne dar, während die Zufälligkeit besagt, dass es keine einfachere Methode zur Berechnung der Bahnen gibt, als den einfachen Druckbefehl.

Eigenschaften: Sensitivität, Mischen und Periodische Punkte

Die Mathematiker David Ruelle und Floris Takens bezeichneten Turbulenzen als Beispiel für dynamisches Chaos. Es fragt sich allerdings immer noch, wie man Chaos tatsächlich erfassen kann. Wie kann man feststellen, ob etwas das chaotisch aussieht auch tatsächlich chaotisch und nicht nur sehr kompliziert ist? Was sind also die Merkmale von Chaos? Und wie kann man diese messen? Es gibt viele dynamische Systeme, die Chaos hervorbringen können, die meisten davon basieren auf dem Prinzip der Iteration. Im Mittelpunkt meiner Darstellung wird, wie auch bei Peitgen, die quadratische Funktion in der Form x->ax(1-x) stehen. Diese Wahl erscheint, zwar recht willkürlich, es hat sich allerdings herausgestellt, dass die qualitativen Phänomene, die bei diesem Iterator auftauchen, generell kennzeichnend für das Chaos in dynamischen Systemen sind. Zunächst möchte ich anhand dieses Beispiels auf die Eigenschaften der Sensitivität, des Mischens und der periodischen Punkte eingehen.

1. Sensitvität

Eines der größten Probleme, die beim Umgang mit Chaos am Computer auftauchen können, ist die extreme Sensitivität der Iteratoren, wie sie zum Beispiel beim quadratischen Iterator auftritt. Da ich im berechnen von Zeitreihen am Computer nicht besonders bewandert bin, werde ich mich im folgenden noch strenger an das Buch "Chaos - Bausteine der Ordnung" [1] halten und Graphen und Tabellen direkt übernehmen. Im folgenden Bild sieht man die ersten 80 Iterationen des quadratischen Iterators x_(n+1)=a*x_n(1-x_n) mit Startwert x_0=0.2027 und Parameter a=4. Bild Diese Bahn zeigt chaotisches, d.h. nicht regelmäßiges Verhalten. Wenn man jetzt den Parameter nur geringfügig auf a=3.742718 verringert, erhält man eine auf den ersten Blick nicht besonders anders wirkende Bahn. Bild Tatsächlich unterscheidet sich diese Bahn allerdings qualitativ erheblich von der ersten Bahn. Wenn man sich die Iterationen ab ungefähr Schritt 55 ansieht, findet man ein sehr regelmäßiges, periodisches Verhalten wieder. Eine genaue Berechnung ergibt hier die Periodenlänge 20. Mit einem solchen Verhalten hat der Computer weniger Probleme. Besonders deutlich wird die Sensitivität des quadratischen Iterators allerdings bei der graphischen Iteration eines kleinen Intervalls, wie sie in der nächsten Graphik gezeigt wird. Bild Auch wenn die Sensitivität zentral für die Charakterisierung des Chaos ist, so ist sie doch nicht hinreichend, wie man leicht am Beispiel der linearen Iteration x->c*x mit c>1 sehen kann, die ebenfalls sensitiv aber keinesfalls chaotisch ist. Ein Startwert x_0 entwickelt sich über n Iterationen zu einem Wert x_n=c^n*x_0, wobei sich eine Abweichung immer in der gleichen Größenordnung mitentwickelt. Dies sieht man leicht an folgender Rechnung: Sei E_0 die Anfangsabweichung, d.h. wir iterieren den Startwert u_0=x_0+E_0. So erhalten wir u_n=c^n*(x_0+E_0), woraus sich folgende Abweichung E_n ergibt: E_n=u_n-x_n=c^n*(x_0+E_0)-c^n*x_0=c^n*E_0 Damit ist eine nicht-chaotische Sensitivität bewiesen. Der Meteorologe Edward Lorenz hat nun eine Methode gefunden mit deren Hilfe man zwischen der Sensitivität bei chaotischen und den "zahmen" linearen Systemen unterscheiden kann. Während der relative Fehler beim linearen Iterator konstant bleibt, E_n/x_n = (c^n*E_0)/(c^n*x_0) = E_0/x_0 = const. verhält sich der Fehler beim quadratischen Iterator nach einem gewissen Anlauf genau so chaotisch wie die eigentliche Reihe und die gestörte Reihe. Bild Anhand dieser Graphik findet sich also eine qualitative Beschreibung für die Sensitivität des quadratischen Iterators. Nur wie soll man ein solches System, das keinerlei Regeln zu gehorchen scheint, auch quantifizieren? Dazu kehre ich zunächst zum linearen Iterator zurück. Aus dem exponentiellen Fehlerwachstum folgt diese Gleichung: | | | | | | | | | | | | | | abs(E_n/E_0)=c^n\lr(1) Auch wenn man ein solches einfaches Gesetz zur Fehlerfortpflanzung beim quadratischen Iterator nicht allgemein vermuten kann, so legt der letzte Graph doch die Vermutung nahe, dass die Fehler anfangs einigermaßen gleichmäßig angestiegen sein müssten und man daher auch für diese Schritte das Fehlerwachstumsgesetz des linearen Iterators als Näherung verwenden kann. Dazu forme ich die Gleichung (1) zunächst um: | | | | | | | | | | | | \ln abs(E_n/E_0)=n*\ln c | | | | | | | | | | <=> ln c=1/n*\ln abs(E_n/E_0)\lr(2) Die Zahl auf der rechten Seite der Gleichung gibt also den Logarithmus der Fehlerwachstumskontstante c an. Dies ist auch der Wert, der in der folgenden Tabelle mit Exponent überschrieben ist. Dabei wurde ausgehend von drei verschiedenen Startwerten und jeweils drei verschiedenen Anfangsfehlern solange iteriert, bis der Fehler einen Schwellenwert von 0.1 überschritt.

x_0

Fehler E_0

Schritte n

Fehler E_0

Exponent

array(0.202;0.202;0.202;0.202)

array(0.001000;0.000100;0.000010;0.000001)

array(9;11;15;17)

array(0.25622;-0.12355;0.25730;0.15866)

array(0.61623;0.64720;0.67703;0.70438)

array(0.347;0.347;0.347;0.347)

array(0.001000;0.000100;0.000010;0.000001)

array(7;11;15;18)

array(-0.12331;-0.18555;0.31390;0.19490)

array(0.68781;0.68417;0.69028;0.67668)

array(0.869;0.869;0.869;0.869)

array(0.001000;0.000100;0.000010;0.000001)

array(8;10;13;18)

array(-0.25072;0.14068;0.11428;0.32095)

array(0.69054;0.72491;0.71879;0.70439)

Es ist interessant festzustellen, dass die Exponenten in diesem Bereich alle näherungsweise 0.7 betragen. Dies führt zu c\approx\ee^0.7\approx 2, was zu der Folgerung führt, dass kleine Fehler durch den Iterator x->a*x*(1-x) ungefähr verdoppelt werden. Allerdings stellt dies nur einen Durchschnittswert dar, wenn die Ausgangsfehler genügend klein sind. Es gibt allerdings auch Punkte, bei denen sich der Fehler verkleinert (Umgebung von x=0.5) und welche bei denen sich die Fehler nahezu um das Vierfache vergrößern (an den Enden des Intervalls). Dass die allgemeine Unabhängigkeit der Fehlerfortpflanzung vom Ort für infinitesimal kleine Fehler tatsächlich besteht, lässt sich durch folgende Versuchsanordnung nachvollziehen: abs(E_n/E_0)=abs(E_n/E_(n-1))*abs(E_(n-1)/E_(n-2))*...*abs(E_1/E_0) Da diese Zahlen immer größer werden und schon nach wenigen Iterationen am Computer nicht mehr exakt dargestellt werden können, weil durch die enorme Größe Überlauffehler entstehen und für die Berechnung - wie oben zu erkennen - nur die gemittelten Logarithmen interessant sind, geht man auf folgende Gleichung über: 1/n\.ln\. abs(E_n/E_0)= 1/n\. \ln\. \abs( E_n/E_(n-1) * E_(n-1)/E_(n-2)*...*E_1/E_0 ) = 1/n\. summe(ln\. abs( E_k/E_(k-1) ),k=1,n) Nun muss man nur noch die einzelnen Faktoren abs( E_k/E_(k-1) ) abschätzen, die Größe, die beschreibt, wie stark sich ein kleiner Fehler E_(k-1) von x_(k-1), der k-1-ten Iterierten, in der nächsten Iteration verändert. Solange dieser Fehler klein genug ist, ist obiger Faktor nahezu unabhängig vom tatsächlichen Wert, d.h. dass man bei E_(k-1)/2 als Fehler in der k-1-ten Iteration auch E_k/2 als Fehler in der k-ten Iteration erwarten kann. Daher kann man für diesen Fehler auch einen festen Wert \epsilon wählen und den Fehlerverstärkungsfaktor abs( E_k/E_(k-1) ) durch abs(E^~_k)/\epsilon abschätzen, wobei E^~_k=f(x_(k-1)+\epsilon)-f(x_(k-1)) gilt. Dabei haben wir weiterhin die Funktion f(x)=4x(1-x). Auf diese Weise findet man eine durchführbare Methode den sog. Ljapunov-Exponenten, der den Grenzwert für die nachstehende Formel bildet, zu berechnen: | | | | | | | | | | | |1/n\.ln\.abs(E_n/E_0)\approx 1/n\.summe(ln\.abs(E^~/\epsilon)\approx \lambda(x_0) Die Berechnung ist in der folgenden Tabelle dargestellt. Bild Der numerische Wert, der sich aus dieser Tabelle ergibt ist \lambda(x_0)=0.693. Peitgen zufolge ist dieser Ljapunov-Exponent ein aussagekräftiger experimenteller Hinweis für chaotisches Verhalten, der auch zur Quantifizierung dient. "Die Sensitivität im Hinblick auf kleine Änderungen in den Anfangs\- bedingungen ist dann gegeben, wenn der Ljapunov-Exponent positiv ist, und umso ausgeprägter, je größer der Exponent ist." [1, Seite 48] In verallgemeinerter Form lässt sich dieses Konzept auch auf viele andere dynamische Systeme übertragen. Abschließend sei zu diesem Thema noch gesagt, dass für a=4 alle Punkte, deren Bahn im Fixpunkt 0 endet, den Ljapunov-Exponenten \lambda(x_0)=ln4 haben. Die Menge dieser Punkte liegt dicht im Intervall [0,1]. Andererseits haben fast alle Punkte den Ljapunov-Exponenten ln2.

2. Mischen und Periodische Punkte

Die nächste zentrale Eigenschaft des Chaos, die wir hier besprechen wollen, ist das Mischungsverhalten. In Abb 1.5 zeigt sich bereits, wie sich ein kleiner Fehler im Laufe der Iteration verstärkt, diese Tatsache möchte ich nun unter einem etwas anderen Blickwinkel beleuchten. Dazu zunächst eine Definition: \blue\frame\black Ein System heißt mischend, wenn für alle endlichen Unterteilungen des Intervalls [0,1] (kein Intervall besteht nur aus einem Punkt) folgende Forderung erfüllt ist: \frameoff Von jedem Teilintervall kommt man nach endlich vielen Iterationsschritten in jedes beliebige andere Teilintervall. Dies möchte ich anhand eines Beispiels noch verdeutlichen. Ich verwende dabei wieder den quadratischen Iterator f(x)=4x*(1-x) und die Unterteilung von I=[0,1] in Intervalle der Länge 1/10. I_k=[]((k-1)/10 \, k/10), k=1,...,10. Beginnt man nun mit dem Intervall I_2=[0.1,0.2], so erreicht man durch Iteration der quadratischen Funktion die Teilintervalle wie in der Tabelle 1.11 angegeben. Bild Man sieht, dass hier bereits nach 4 Iterationen alle Teilintervalle getroffen werden. Nun haben wir zwar eine Definition und auch ein Beispiel anhand dessen man das nachvollziehen kann, eine effektive Methode das ganze zu berechnen fehlt allerdings noch. Dies möchte ich im folgenden Abschnitt versuchen. Zunächst muss man für diese Berechnung ein geeignetes kleines Startintervall I und ein Zielintervall J wählen. Diese müssen so gewählt sein, dass zumindest während der ersten Iterationen kein Startwert das Zielintervall erreicht. In dem Startintervall wählt man nun eine gleichmäßig verteilte große Anzahl von Startwerten. Nachdem die ersten Bahnen das Zielintervall erreicht haben, wird die Anzahl dieser Bahnen B(n) exponentiell abnehmen. Dabei gehorcht sie folgendem Gesetz: | | | | | | | | | | B(n)~~\ee^(- n/\tau)\lr(3) Dabei kann \tau als Schätzung für die Anzahl der Iterationen interpretiert werden, die dazu erforderlich sind, die verbleibenden Bahnen um den Faktor 1/\ee zu reduzieren. \tau wird daher häufig durchschnittliche Lebenszeit der Bahnen genannt. Für ein Beispiel vgl. Chaos, Seite 53\/54 [1]. Der quadratische Iterator zeigt nicht nur Mischungsverhalten im oben genannten Sinn, sondern hat sogar die stärkere Eigenschaft, dass aus jedem noch so kleinen Intervall I positiver Länge nach endlich vielen Iterationen das ganze Intervall abgedeckt wird. Dabei stellt sich die Frage, wie viele Iterationen dazu nötig sind. Dabei wird bei dem folgenden Versuch das Startintervall in N disjunkte gleichlange Intervalle unterteilt und die Anzahl k der Iterationen, die nötig sind um das ganze Intervall zu überdecken, errechnet. Bild Es zeigt sich, dass ab einer bestimmten Intervallgröße die Anzahl der durchschnittlich nötigen Iterationen um 1 steigt, wenn die Intervalllänge halbiert wird. Dies ist auch kein Zufall, sondern führt uns zu einem Ergebnis zurück, das wir schon vorher erhalten haben. Der Ljapunov-Exponent, der in diesem Fall \lambda=2 war, hat die gleiche Aussage, nämlich dass sich infinitesimal kleine Fehler bei jeder Iteration um den Faktor 2 verstärken. Eine weitere Charakteristische Eigenschaft für Chaos sind die periodischen Punkte. Dabei handelt es sich um Punkte, deren Bahn periodisch verläuft oder zumindest in einer periodischen Bahn endet. Auch diese Punkte liegen im Einheitsintervall dicht, da ja schon die Punkte, deren Bahn im Fixpunkt 0 (Periodenlänge 1) enden, dicht liegen. Leider kann ich zu diesem Thema nur noch sagen, dass sich diese Punkte mit dem Computer nicht direkt errechnen lassen und auch ihre Bahnen mit dem Computer aufgrund der Sensitivität nicht darstellbar sind, da sich in der mir zur Verfügung stehenden Literatur und auch im Internet nicht so einfach weitere Informationen finden ließen.

3. Ergodische Bahnen und Histogramme

Bei der Betrachtung der Mischungseigenschaften haben wir uns auf Intervalle positiver Länge beschränkt, allerdings hindert uns auch nichts daran, die Bahnen einzelner Punkte zu verfolgen, wie wir das auch schon für periodische Punkte gemacht haben. Wir werden sehen, dass in jedem Teilintervall beliebig viele Punkte mit einer ähnlichen Eigenschaft wie der Mischungseigenschaft vorkommen. Die Bahnen dieser Punkte kommen jedem Punkt im Intervall beliebig nahe, so dass die Kurve also, ähnlich wie die Peanokurve, flächendeckend wird. Es versteht sich von selbst, dass so etwas mit dem Computer nicht vollständig erzeugt und nur bis zu einer beliebig festgelegten Genauigkeit erfüllt werden kann. Der Grenzwert der Kurve trifft aber tatsächlich jeden Punkt. Bild Das ganze kann man auch numerisch überprüfen. Dazu wählt man sich einen Anfangspunkt x_0 und beginnt von diesem Punkt aus mit der Iteration, die wir hier m=10^6 Mal durchführen. Wir wollen wissen, durch welche Intervalle die Bahn läuft und wie oft. Dazu unterteilt man das Einheitsintervall in eine große Anzahl von Teilintervallen der Form: I_k=intervallgo( (k-1)/N , k/N ), k=1,...,N. Die Zahl der Iterationswerte, die in das Intervall I_k fallen wird, dann mit n_k bezeichnet. Um eine Unabhängigkeit von der Länge der Bahn zu erhalten definieren wir uns die Zahl \m_k: | | | | | | | | | | \m_k=(n_k*N)/(m+1) wobei m+1 die Zahl der Elemente der Bahn ist. Die Zahlen \m_k bewegen sich im Bereich von 0 bis N. Außerdem ist auch ihre Summe immer N. Insofern bezeichnet \m_k/N also die Wahrscheinlichkeit mit der ein zufällig ausgewählter Punkt der Bahn im Intervall I_k liegt. Bei obigem Versuchsaufbau kommt man zu diesem Histogramm: Bild Die Grenzlinie dieses Graphen hat folgende Form: \n(x)=1/(\pi*wurzel(x(1-x))) Formal müssten wir uns nun noch einzelne Teilintervalle genauer ansehen und weiter unterteilen um das erhaltene Ergebnis zu verifizieren, worauf ich aber in Hinblick auf den Umfang des Artikels verzichten möchte. Allerdings sollte noch gesagt werden, dass beim Rechnen mit endlicher Genauigkeit immer wieder periodische Bahnen auftauchen werden, je größer die Genauigkeit der Rechnung ist, desto unbedeutender wird diese Tatsache allerdings, weil auch die periodischen Zyklen so lang werden, dass sie nicht als solche in Erscheinung treten.

Weitere Iteratoren - Das Kneten von Teig

Als nächstes möchte ich noch zwei weitere Iteratoren vorstellen, die recht einfach zu handhaben und mit dem quadratischen Iterator nahe verwandt sind. Der eine Iterator wird als Streck- und Faltvorgang (T) und der andere als Streck-, Schneide- und Klebevorgang bezeichnet. Wie diese Namen entstehen soll die nachstehende Graphik verdeutlichen. Bild Der erste Iterator ist der Streck- und Faltiterator T. Er wird durch das mathematische Modell der Zeltfunktion (engl. tent) dargestellt: T(x)=\fdef(2x, wenn x<= 0.5;-2x+2, wenn x>0.5) Bild Der Streck-, Schneide- und Klebeiterator S lässt sich mit Hilfe der Sägezahnfunktion darstellen: S(x)=\fdef(2x, wenn x<0.5;2x-1, wenn x>=0.5) Bild Diese beiden Iteratoren verbindet die Äquivalenz: TS^(N-1)=T^N Für den Fall N=2 ist der Vorgang in der folgenden Graphik veranschaulicht. Bild Nachdem diese Identität für ein Beispiel des Spezialfalls graphisch veranschaulicht wurde, möchte ich es noch allgemein beweisen: Zunächst berechnet man für alle x\el\intervall(0,1) T(T(x)): array(T(T(x))=,T(2x)=,4x,für 0<=x<=0.25;T(T(x))=,T(2x)=,-4x+2,für 0.25T(T(x))=T(S(x)) Somit kann man also T(T(x)) immer durch T(S(x)) ersetzen und kommt induktiv zu der oberen Aussage: T^(N+1)(x)=T(T^N(x)) =T(TS^(N-1)(x)) wegen I.V. =T(S(S^(N-1)(x))) siehe oben =T(S^N(x)) Neben der bisher eingeführten Definition, kann man die Sägezahnfunktion auch in geschlossener Form schreiben. Sie hat dann folgende Form: | | | | | | | | | |S(x)=Frac(2x), für 0<=x<=1 Dies führt zu der Möglichkeit, Folgenglieder der Sägezahnfunktion direkt zu berechnen und, mit der obigen Funktionalgleichung, die Berechnung der Zeltfunktion enorm zu verkürzen. Es gilt somit: | | | | | | | | | | x_k=Frac(2^k*x_0)\lr(4) Diese Form ist allerdings nur für die theoretische Betrachtung chaotischer Systeme wertvoll, für eine numerische Berechnung von Funktionswerten wachsen die Potenzen von 2 zu schnell an.

Chaotizität von Sägezahn- und Zeltfunktion

Da der Nachweis der oben für das Vorhandensein von Chaos nötigen Eigenschaften für die beiden Funktionen sehr einfach ist, möchte ich ihn hier nur kurz andeuten. Zweckmäßigerweise arbeitet man für diese Analyse mit binären Zahlen. Die Funktionen sehen dort nämlich so aus: S(0.a_1 a_2 a_3 ...)=Frac(a_1 .a_2 a_3 ...)=0.a_2 a_3 ... und T(0.a_1 a_2 a_3 ...)=fdef(0.a_2 a_3 ..., wenn a_1=0;0. (a_2)^\* (a_3)^\* ..., wenn a_1=1) wobei a^\* die duale Zahl zu a sein soll.

Äquivalenz zwischen quaratischem Iterator und Zeltfunktion

In diesem Abschnitt möchte ich nocheinmal auf den quadratischen Iterator zurück kommen und zeigen, wie man mithilfe der Zeltfunktion die Eigenschaften, die wir oben mühsam nachgewiesen haben, leicht beweisen kann. Die Zeltfunktion T(x) kann durch eine Koordinatentransformation h(x) in die quadratische Funktion f(x) von oben überführt werden. h(x) hat dabei folgende Form: | | | | | | | | | | | x'=h(x)=sin^2((\pi*x)/2) wichtig dabei ist, dass h(x) das Intervall intervall(0,1) bijektiv auf sich selbst abbildet. Es entsteht folgende Funktionalgleichung: | | | | | | | | | | | f^k(h(x))=h(T^k(x)), k=1,2,... das gilt für alle x\in\intervall(0,1) Dies möchte ich zunächst wieder mit einer Graphik verdeutlichen und danach formal beweisen. Davor sei allerdings bemerkt, dass diese Äquivalenz bei der numerischen Betrachtung mit dem Computer nicht zu beobachten ist, da durch Rundungsfehler die Sensitivtät dazu tritt. Bild Für den Beweis der obigen Aussage benötigen wir zwei bekannte trigonometrische Gleichungen, nämlich: | | | | sin^2 \alpha+cos^2 \alpha=1 | und | sin2\alpha=2sin\alpha cos\alpha Durch die Iteration eines Anfangswertes x_0 unter der Zeltfunktion und die Iteration des transformierten Wertes x'_0=sin^2((x_0*\pi)/2) unter der Parabel f(x)=4*x(1-x) entstehen 2 Bahnen, die durch die Funktion x'=h(x)=sin^2((x*\pi)/2) ineinander überführt werden. Als Startwerte wählen wir einen beliebigen Punkt x_0 und y_0:=x'_0=h(x_0) Beim quadratischen Iterator ersetzen wir nun x'_0 durch sin^2((x_0*\pi)/2). Dann ist: y_1=4*y_0(1-y_0)=4*sin^2((\pi*x_0)/2)(1-sin^2((\pi*x_0)/2)) =4*sin^2((\pi*x_0)/2)cos^2((\pi*x_0)/2)=sin^2(\pi*x_0). Wir müssen zeigen, dass x'_1=y_1, wobei x'_1=h(x_1) ist. Dazu müssen wir 2 Fälle unterscheiden, entsprechend der Definition der Zeltfunktion. 1. Fall: 0<=x_0<=1/2 Dann ist x_1=T(x_0)=2x_0 und x'_1=sin^2((\pi*x_1)/2)=sin^2(\pi*x_0)=y_1 2. Fall: 1/2

Sensitivität als Folge von periodischen Punkten und der Mischungseigenschaft

Zum Abschluss der mathematischen Diskussion möchte ich darauf eingehen, wie die Eigenschaften für Chaos - Sensitivität, Mischungseigenschaft und dichte periodische Punkte - untereinander verbunden sind. Dabei kommt das folgende Theorem zum Tragen: \blue\frameon\black Sei X eine beliebige Teilmenge der reellen Zahlen und f: X->X eine stetige Funktion, die dichte, periodische Punkte besitzt und die Mischungseigenschaft hat. Dann zeigt f auch sensitive Abhängigkeit von den Anfangsbedingungen. \frameoff [1, Seite 115] Da der Beweis des Theorems etwas kompliziert erscheint, werde ich ihn wörtlich übernehmen: \boxon\grey "Wir wollen den Beweis dieses Fakts skizzieren. Dazu müssen wir ein \delta>0 finden, so daß für jedes x\el X und jede offene Teilmenge J in X, die x enthält, ein Punkt z in J und eine natürliche Zahl n existieren, so daß abs(f^n(x)-f^n(z))>\delta ist. Der Beweis besteht aus zwei Schritten. Zunächst gibt es ein \delta_0>0 derart, daß für jedes x\el X ein periodischer Punkt p\el X zu finden ist, der die Eigenschaft abs(f^k(p)-x)>=\delta_0/2 hat für alle k=0,1,2,... Wir beweisen diese Aussage über einen Widerspruch. Wir nehmen zwei beliebige periodische Punkte r und s mit disjunkten Bahnen, d.h. f^k(r)!=f^l(s) für alle k,l, und definieren \delta_0 als Abstand zwischen den beiden Bahnen: | | | \delta_0=min menge(abs(f^k(r)-f^l(s)) \| k,l\in\menge(0,1,2,...)) Jetzt sei x\in X. Wir zeigen, daß x mindestens einen Abstand von \delta_0/2 zumindest zu einer der beiden Bahnen hat. Angenommen, das Gegenteil wäre der Fall. Dann wäre der Abstand von x sowohl zu der Bahn von r als auch zu der Bahn von s kleiner als \delta_0/2. Dies bedeutet in Formeln, daß für geeignete Zahlen k und l die Ungleichungen abs(x-f^k(r))<\delta_0/2 und abs(x-f^l(s))<\delta_0/2 erfüllt sind. Wegen der Dreiecksungleichung erhält man dann: | | | abs(f^k(r)-f^l(s))=abs(f^k(r)-x+x-f^l(s)) | | | | | | | | | | | | | <=abs(f^k(r)-x)+abs(x-f^l(s)) | | | | | | | | | | | | | < \delta_0/2 + \delta_0/2=\delta_0 Das ist jedoch ein Widerspruch zu unserer Definition von \delta_0. Unsere erste Behauptung ist damit bewiesen. Als zweites zeigen wir die sensitive Abhängigkeit von den Anfangsbedingungen für f, wobei wir die Sensitivitätskonstante \delta= \delta_0/8 nehmen. Dazu sei x ein Punkt aus X und J eine offene Teilmenge von X, die x enthält. Da die periodischen Punkte von f dicht in X liegen, finden wir einen periodischen Punkt p in U=J\union(x-\delta \, x+\delta). Es sei n die Periode von p. Es gibt nun einen periodischen Punkt q\el X, dessen Bahn einen Abstand von mindestens 4\delta=\delta_0/2 von x hat. Wir setzen: | | | | W_i=(f^i(q)-\delta\,f^i(q)+\delta)\union X, i=1,...,n, | | | | V=f^(-1)(W_1)\union f^(-2)(W_2)\union ... \union f^(-n)(W_n), wobei mit f^(-i)(A)=\menge(z\el X \| f^i(z)\el A) das i-te Urbild der Menge A unter f bezeichnet wird. Wir halten fest, daß V nicht leer ist, weil q\el V ist. Darüberhinaus ist V offen, weil f eine stetige Funktion ist. Da f mischend ist, können wir eine Zahl k und ein y\el U finden, so daß f^k(y)\el V ist. Wir wählen j als den ganzzahligen Anteil von 1 + k/n . Damit gilt 1<=nj-k<=n. Aufgrund der Konstruktion wissen wir, daß der Punkt | | | | f^nj(y)=f^(nj-k)(f^k(y))\el f^(nj-k)(V) in der offenen Menge W_(nj-k) enthalten ist. Andererseits gilt f^nj(p)=p, so daß man mit der Dreiecksungleichung schließen kann: | | | | abs(f^nj(p)-f^nj(y))=abs(p-f^nj(y)) | | | | | | =abs(x-f^(nj-k)(q)+f^(nj-k)(q)-f^nj(y)+p-x) | | | | | | >=abs(x-f^(nj-k)(q))-abs(f^(nj-k)(q)-f^nj(y))-abs(p-x). Weil p\el(x-\delta\,x+\delta) ist, und | | | | f^nj(y)\el (f^(nj-k)(q)-\delta\,f^(nj-k)(q)+\delta)\union X, erhalten wir | | | | abs(f^nj(p)-f^nj(y))>=4\delta-\delta-\delta=2\delta. Daraus ergibt sich, daß entweder abs(f^nj(x)-f^nj(y))>=\delta oder abs(f^nj(x)-f^nj(p))>=\delta gelten muß. Wenn nämlich beide Abstände echt kleiner als \delta wären, käme man über die Dreiecksungleichung zu | | | | abs(f^nj(p)-f^nj(y))=abs(f^nj(p)-f^nj(x)+f^nj(x)-f^nj(y)) | | | | | | <=abs(f^nj(p)-f^nj(x))+abs(f^nj(x)-f^nj(y)) | | | | | | <2\delta, aber das wäre ein Widerspruch. Da p, y\el U\subset J ist, wissen wir, daß die nj-te Iterierte von f an der Stelle p oder y von der nj-ten Iterierten von f an der Stelle x einen Abstand von mindestens \delta hat." [1, Seite 115\/116] \boxoff

Numerische Berechnung - die Beschattung einer Bahn

Im ganzen Artikel habe ich immer wieder auf Sensitivität und die unzureichende Möglichkeit des Computers hingewiesen, Zahlen exakt darzustellen. Ich habe immer wieder geschrieben, dass der Computer bei der Berechnung von Chaos Fehler macht, die nach einigen Schritten die Größenordnung des gesamten Systems erreicht haben. Dennoch sind fast alle Experimente mit dem Computer durchgeführt worden. Wie kann man das rechtfertigen? Ist dann nicht alles, was ich geschrieben habe hinfällig? So schlimm ist es auch wieder nicht, eigentlich sogar ganz anders. Dafür gibt es das sogenannte Beschattungslemma, das besagt, dass es in einer Umgebung der berechneten Bahn eine tatsächliche Bahn gibt, die durch die berechnete Bahn sehr gut approximiert wird. Dadurch haben wir also mit unserer Berechnung eine gute Näherung für das chaotische Verhalten des Systems (wenn auch nicht die eigentlich gewünschte Bahn). Wollen wir die Bahn eines Startwertes x_0 mit dem Computer berechnen, haben wir in aller Regel nicht den exakten Startwert, sondern einen angenäherten Wert y_0. Aus den bisherigen Ausführungen ist bekannt, dass sich dieser Anfangsfehler \epsilon_0 bei jeder Iteration etwa verdoppeln wird (Shiftabbildung), bis er einen gewissen Schwellenwert erreicht hat und dass sich die Fehler von da an genauso chaotisch verhalten werden, wie die Bahnen von x_0 und y_0 selbst. Nun findet sich allerdings in einer \epsilon-Umgebung von x_0 und y_0 ein Punkt z_0, der von der berechneten Bahn von y_0 nie um mehr als \epsilon abweicht. (siehe dazu Abb 1.45) Dabei gilt immer abs(\epsilon_k)<=\epsilon. Bild Den Beweis dieser Aussage möchte ich aufgrund des Umfangs nur kurz skizzieren. Der Verlauf der y-Werte gestaltet sich folgendermaßen: y_0=x_0+\epsilon_0 y_1=Frac(2y_0+\epsilon_1) ... y_n=Frac(2y_(n-1)+\epsilon_n) das hat zur Folge, dass man den Wert von y_k auch so schreiben kann: y_k=Frac(2^k x_0+summe(2^(k-i) \epsilon_i,i=0,k)) und y_n=Frac(2^n x_0+summe(2^(n-1) \epsilon_i,i=0,n)). Der Anfangswert z_0 und die übrigen Werte x_k der exakten Bahn im Schatten der berechneten Bahn sehen dann so aus: z_0=Frac(x_0+summe(2^(-i) \epsilon_i,i=0,n) z_k=Frac(2^k x_0+summe(2^(k-i) \epsilon_i,i=0,n)). Man kann sehen, dass die Differenz in den Frac-Argumenten durch \epsilon begrenzt ist: abs(\delta_k)<=summe(2^(k-i) abs(\epsilon_i),i=k+1,n)<=summe(2^(k-i) \epsilon,i=k+1,n)=\epsilon*( 1/2 + 1/4 + ... 1/2^(n-k) )<\epsilon. Wegen der Unstetigkeit der Frac-Funktion muss man an dieser Stelle noch einmal aufpassen. Dazu führt man auf dem Einheitsintervall eine Metrik ein, auf der die Punkte 0 und 1 miteinander identifiziert werden, so dass das Intervall quasi zu einem Kreis mit Umfang 1 gebogen wird. Abschließend möchte ich erwähnen, dass aufgrund des Beschattungslemmas mit dem Computer durchaus brauchbare statistische Daten über chaotische Systeme gewonnen werden können, der Sensitivität dieser Systeme entkommt man allerdings auch mit dem Beschattungslemma nicht.

Last but not Least...

... möchte ich mich bei Petra unserer kleinen Meerjungfrau ganz herzlich für das Korrekturlesen und das entfernen kleinerer und größerer Katastrophen, sowohl inhaltlicher als auch sprachlicher und orthographischer Natur bedanken.

Literaturverzeichnis

[1] Peitgen, H.-O. et alteri, Chaos - Bausteine der Ordnung, Rowohlt Taschenbuch Verlag, 1998 [2] Maxwell, J.C., Science and Free Will, in: Campbell, Lewis; Garnett, William, The Life of James Clerk Maxwell, New York, Johnson Reprint Corporation, 1969, pp. 434-444, Chapter XIV

Bildernachweis

sämtliche Graphiken stammen aus Chaos - Bausteine der Ordnung [1]
Eine druckerfreundliche Version als PDF-Datei gibt es jetzt hier. Das Sierpinski-Dreieck und seine Verwandten Die Welt im Chaos - Teil 1: Das deterministische Chaos Die Welt im Chaos - Teil 2: Periodenverdopplung oder der Weg von der Ordnung ins Chaos
\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfpdf-Datei zum Artikel öffnen, 545 KB, vom 22.10.2008 21:38:22, bisher 2805 Downloads


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Mathematik :: Angewandte Mathematik :: Chaos :: Interessierte Studenten :: Leicht verständlich :: deterministisches Chaos :: Sonstige Mathematik :
Die Welt im Chaos - Teil 1: Das deterministische Chaos [von huepfer]  
Einführung in die Theorie des deterministischen Chaos am Leitfaden von "Chaos - Bausteine der ordnung" von Pleitgen
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 8884
 
Aufrufstatistik des Artikels
Insgesamt 484 externe Seitenaufrufe zwischen 2012.01 und 2023.02 [Anzeigen]
DomainAnzahlProz
http://google.de37276.9%76.9 %
https://google.com347%7 %
https://google.de193.9%3.9 %
http://google.pl153.1%3.1 %
https://www.bing.com91.9%1.9 %
https://duckduckgo.com51%1 %
https://www.ecosia.org40.8%0.8 %
http://images.google.de40.8%0.8 %
http://google.ch30.6%0.6 %
https://metager.de10.2%0.2 %
http://suche.t-online.de40.8%0.8 %
http://search.yahoo.com10.2%0.2 %
https://www.qwant.com10.2%0.2 %
http://www.ecosia.org10.2%0.2 %
http://www.bing.com20.4%0.4 %
http://suche.web.de10.2%0.2 %
http://google.com10.2%0.2 %
http://www.termintrader.com10.2%0.2 %
http://www.search.ask.com10.2%0.2 %
http://search.tb.ask.com10.2%0.2 %
http://172.18.0.20:191010.2%0.2 %
http://google.at10.2%0.2 %
http://suche.gmx.net10.2%0.2 %
https://www.startpage.com10.2%0.2 %

Häufige Aufrufer in früheren Monaten
Insgesamt 452 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2012-2018 (127x)http://google.de/url?sa=t&rct=j&q=
2013-2014 (43x)http://google.de/url?sa=t&rct=j&q=deterministisches chaos definition
2012-2013 (32x)http://google.de/url?sa=t&rct=j&q=zeltfunktion
2020-2022 (31x)https://google.com/
201310-10 (21x)http://google.de/url?sa=t&rct=j&q=deterministisches chaos mathematik
2022-2023 (19x)https://google.de/
201304-04 (15x)http://google.pl/url?sa=t&rct=j&q=die welt im chaos -charkowie
201301-01 (15x)http://google.de/url?sa=t&source=web&cd=9&ved=0CDYQFjAI
201201-01 (13x)http://google.de/url?sa=t&rct=j&q=sensitivität, mischen, periodische punkt...
201302-02 (11x)http://google.de/url?sa=t&rct=j&q=deterministisch mathematik
201203-03 (11x)http://google.de/url?sa=t&rct=j&q=sensitivität mathe
201210-10 (11x)http://google.de/url?sa=t&rct=j&q=mathematiker chaos
201305-05 (11x)http://google.de/url?sa=t&rct=j&q=periodik oder chaos
201403-03 (10x)http://google.de/url?sa=t&rct=j&q=quadratischer iterator
201211-11 (9x)http://google.de/url?sa=t&rct=j&q=mathematisch chaos
201205-05 (9x)http://google.de/url?sa=t&rct=j&q=zeltfunktion mathe
2021-2022 (9x)https://www.bing.com/
201206-06 (9x)http://google.de/url?sa=t&rct=j&q=quadratische iteration
201306-06 (9x)http://google.de/url?sa=t&rct=j&q=mathematik thema chaos
201409-09 (7x)http://google.de/url?sa=t&rct=j&q=taijiquan welt im chaos
201209-09 (7x)http://google.de/url?sa=t&source=web&cd=11&ved=0CA0QFjAAOAo
2021-2022 (5x)https://duckduckgo.com/
201208-08 (5x)http://google.de/url?sa=t&rct=j&q=welt aus chaos
201308-08 (5x)http://google.de/url?sa=t&rct=j&q=determinismus definition chaos
2021-2022 (4x)https://www.ecosia.org/
201601-09 (4x)http://images.google.de/url?sa=t&rct=j&q=

[Top of page]

"Mathematik: Die Welt im Chaos - Teil 1: Das deterministische Chaos" | 2 Comments
The authors of the comments are responsible for the content.

Re: Die Welt im Chaos - Teil 1: Das deterministische Chaos
von: Filip am: Mi. 29. September 2004 17:19:46
\(\begingroup\)Hallo Felix! Danke für Deinen nichtlinearen Beitrag 😄 . Ich habe einiges dazugelernt und bisher nur aufgeschnappte Begriffe, wie z. B. den Ljapunov-Exponenten auch mit etwas Inhalt füllen können. mfg Filip\(\endgroup\)
 

Druckerfreundliche PDF-Version
von: huepfer am: Mo. 15. August 2005 22:49:10
\(\begingroup\)totedichterin und ich haben uns die Mühe gemacht und diesen Artikel etwas druckfreundlicher gestaltet. Das PDF-Dokument findet ihr hier. Gruß, Felix\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]