Tools
Mathematik: Mehrdimensionale Differentialrechnung - Teil III
Released by matroid on So. 25. Juni 2023 16:51:27 [Statistics] [Comments]
Written by nzimme10 - 388 x read [Outline] Printable version Printer-friendly version -  Choose language   
Analysis

\(\begingroup\)\(\renewcommand{\i}{\mathrm{i}} \renewcommand{\Re}{\operatorname{Re}} \renewcommand{\Im}{\operatorname{Im}} \newcommand{\e}{\mathrm{e}} \renewcommand{\d}{\mathrm{d}} \renewcommand{\dd}{\ \mathrm d} \newcommand{\ddz}{\frac{\mathrm{d}}{\mathrm{d}z}} \newcommand{\ddw}{\frac{\mathrm{d}}{\mathrm{d}w}} \newcommand{\ddt}{\frac{\mathrm{d}}{\mathrm{d}t}} \newcommand{\opn}{\operatorname} \newcommand{\rot}{\opn{rot}} \newcommand{\div}{\opn{div}} \let\oldvec=\vec \renewcommand{\vec}[3]{\begin{pmatrix} #1 \\ #2 \\ #3 \end{pmatrix}}\)

Der Satz über implizite Funktionen

Dies ist der dritte Teil einer Reihe von Artikeln über mehrdimensionale Differentialrechnung. Dieser dritte Teil setzt die im ersten und zweiten Teil begonnenen Untersuchungen fort. Wir befassen uns hier ausschließlich mit dem Satz über implizite Funktionen. Den Umkehrsatz und weitere Anwendungen bzw. Verallgemeinerungen des Satzes werden wir in einem eigenen Artikel genauer betrachten.

Themenübersicht

$\bullet$ Der Satz über implizite Funktionen     $\bullet$ Die lineare Version     $\bullet$ Die partiellen Differentiale     $\bullet$ Die allgemeine Version $\bullet$ Der Beweis Wir setzen Grundkenntnisse der mengentheoretischen Topologie voraus, wie man sie üblicherweise am Anfang einer Analysis II Vorlesung zum ersten mal sieht. Insbesondere benutzen wir den Banachschen Fixpunktsatz beim Beweis des Satzes über implizite Funktionen

Der Satz über implizite Funktionen

Der Satz über implizite Funktionen kann aus vielen - so scheint es zumindest - verschiedenen Perspektiven betrachtet werden und er ist sowohl für theoretische Zwecke, als auch für konkrete Anwendungen von grundlegender Bedeutung. Wir wollen zunächst einige Beispiele für Fragestellungen betrachten, bei denen der Satz über implizite Funktionen eine Rolle spielen kann.

Lösbarkeit nicht-linearer Gleichungen

Häufig laufen Probleme in der Mathematik und in den Anwendungen darauf hinaus, ein bestimmtes System von Gleichungen zu lösen. Wenn diese Gleichungen linear sind, dann liefert die lineare Algebra präzise Aussagen darüber, wann Lösungen existieren, wann sie sogar eindeutig sind und einfache Algorithmen um Lösungen zu berechnen. Wenn die Gleichungen hingegen nicht-linear sind, dann ist es unter Umständen schon sehr schwer, überhaupt herauszufinden, ob es Lösungen gibt. Etwaige Lösungen zu berechnen ist dann oftmals noch viel komplizierter und häufig nur numerisch möglich.

Wie "kompliziert" können Niveaumengen von Abbildungen sein?

Dieser Punkt ist mit der letzten Fragestellung eng verwandt. Wenn man eine lineare Abbildung $L\colon \mathbb R^n\to \mathbb R^m$ hat, dann ist die Lösungsmenge der linearen Gleichung $L(x)=b$ gerade die Niveaumenge $L^{-1}(\lbrace b\rbrace)$. Diese ist entweder leer, besteht nur aus einem Punkt, oder ist ein affiner Untervektorraum von $\mathbb R^n$. Komplizierter als das, können die Niveaumengen in diesem Fall also nicht werden. Wie sieht das nun aber bei einer hinreichend regulären (nicht-linearen) Abbildung $f\colon \mathbb R^n\to \mathbb R^m$ aus? A priori scheint es keinen Grund zu geben, dass die Niveaumengen von $f$ irgendeine besondere "Einfachheit" aufweisen müssten. Unter bestimmten Voraussetzungen wird der Satz über implizite Funktionen liefern, dass die Niveaumengen zumindest lokal wie affine Untervektorräume aussehen müssen (präziser: dass die Niveaumengen differenzierbare Untermannigfaltigkeiten sind). Das heißt genauer, dass die Niveaumengen in einer Umgebung eines Punktes aussehen, wie der Graph einer hinreichend regulären Abbildung (unter bestimmten Voraussetzungen).

Wie "gut" ist die Approximation durch das Differential?

Allgemeiner laufen die beiden obigen Fragestellungen darauf hinaus, sich zu fragen, wie gut die "beste lineare Approximation" (also das Differential) einer differenzierbaren Abbildung $f\colon \mathbb R^n\to \mathbb R^m$ eigentlich ist. Welche Eigenschaften des Differentials $(\d f)_{x_0}$ übertragen sich (zumindest lokal) auf die Abbildung $f$? Wenn zum Beispiel $f\colon \mathbb R^n\to \mathbb R^n$ stetig differenzierbar und $(\d f)_{x_0}\colon \mathbb R^n\to \mathbb R^n$ ein linearer Isomorphismus ist, ist dann auch $f$ (zumindest lokal) invertierbar? Falls ja, ist die (lokale) Umkehrfunktion auch stetig differenzierbar? Eine üblicherweise zuerst betrachtete Version des Satzes über implizite Funktionen, befasst sich mit der Frage, wann man ein Gleichungssystem mit $n+m$ Variablen nach $m$ der Variablen auflösen kann. Jedes Gleichungssystem dieser Art kann als $F(x,y)=0$ für eine Funktion $F\colon \mathbb R^n\times \mathbb R^m\to \mathbb R^m$ dargestellt werden. Die Frage ist dann, ob man dieses Gleichungssystem auch in der Form $y=g(x)$ für eine Funktion $g\colon \mathbb R^n\to \mathbb R^m$ darstellen kann. Ein wichtiges Beispiel solch einer Situation ist die Frage, ob eine Funktion $f\colon \mathbb R^n\to \mathbb R^n$ eine Umkehrfunktion besitzt. Diese Fragestellung läuft offenbar darauf hinaus, ob man die Gleichung $$ f(x)-y=0 $$ in der Form $x=g(y)$ für eine Funktion $g\colon \mathbb R^n\to \mathbb R^n$ darstellen kann. Das wird uns später in dieser Artikelreihe zum Umkehrsatz führen. Das Grundproblem dieser Fragestellung lässt sich allgemeiner wie folgt formulieren: Es sei $U\subseteq \mathbb R^n\times \mathbb R^m$ offen und $F\colon U\to \mathbb R^m$ eine Funktion. Sei weiter $(a,b)\in U$ mit $F(a,b)=0$. Lässt sich die Gleichung $F(x,y)=0\in \mathbb R^m$ in einer Umgebung von $(a,b)$ eindeutig nach $y$ auflösen? Also gibt es in einer Umgebung $U_a\times V_b$ von $(a,b)$ eine Funktion $g\colon U_a\to V_b$, so dass $F(x,y)=0$ genau dann gilt, wenn $y=g(x)$ gilt? In diesem Fall spricht man dann davon, dass die Funktion $g\colon U_a\to V_b$ durch die Gleichung $F(x,y)=0$ implizit definiert wird. Es geht also darum, wann eine Gleichung implizit eine Funktion definiert.

Die lineare Version

Betrachten wir die Fragestellung zunächst im Fall eines linearen Gleichungssystems. Es sei also $L\colon \mathbb R^n\times \mathbb R^m\to \mathbb R^m$ eine lineare Abbildung. Wir fragen uns, ob wir das LGS $L(v,w)=0$ auch in der Form $w=g(v)$ für eine Abbildung $g\colon \mathbb R^n\to \mathbb R^m$ schreiben können. Dazu bemerken wir zunächst den kanonischen Vektorraumisomorphismus $$ \mathbb R^n\times \mathbb R^m\to \mathbb R^{n+m}, \ ((x_1,\dots,x_n),(y_1,\dots,y_m))\mapsto (x_1,\dots,x_n,y_1,\dots,y_m). $$ Weiter haben wir die natürlichen Inklusionen $$ \iota_x\colon \mathbb R^n\to \mathbb R^n\times \mathbb R^m, \ (x_1,\dots,x_n)\mapsto (x_1,\dots,x_n,0,\dots,0) $$ und $$ \iota_y\colon \mathbb R^m\to \mathbb R^n\times \mathbb R^m, \ (y_1,\dots,y_m)\mapsto (0,\dots,0,y_1,\dots,y_m). $$ Für $v\in \mathbb R^n$ und $w\in \mathbb R^m$ können wir dann $$ L(v,w)=L(v,0)+L(0,w)=(L\circ\iota_x)(v)+(L\circ \iota_y)(w) $$ schreiben. Abkürzend schreiben wir $L_x:=L\circ\iota_x$ und $L_y:=L\circ\iota_y$. Wir können dann $$ L(v,w)=0\iff L_x(v)+L_y(w)=0 \iff L_y(w)=-L_x(v) $$ schreiben. Falls die lineare Abbildung $L_y\colon \mathbb R^m\to \mathbb R^m$ invertierbar ist, dann haben wir $$ L_y(w)=-L_x(v) \iff w=(L_y)^{-1}(-L_x(v)) $$ und somit insgesamt $L(v,w)=0$ genau dann, wenn $w=g(v)$ für $g=-(L_y)^{-1}\circ L_x$. Wir fassen zusammen:
Satz. (Satz über implizite Funktionen, lineare Version) Es sei $L\colon \mathbb R^n\times \mathbb R^m\to \mathbb R^m$ eine lineare Abbildung, $(a,b)\in \mathbb R^n\times \mathbb R^m$ mit $L(a,b)=0$ und die lineare Abbildung $L_y\colon \mathbb R^m\to \mathbb R^m$ sei invertierbar. $\bullet$ Dann gibt es eine lineare Abbildung $g\colon \mathbb R^n\to \mathbb R^m$ derart, dass für alle $(v,w)\in \mathbb R^n\times \mathbb R^m$ genau dann $L(v,w)=0$ gilt, wenn $w=g(v)$ gilt. $\bullet$ Es gilt $g=-(L_y)^{-1}\circ L_x$.

Die partiellen Differentiale

Nun widmen wir uns einer allgemeineren Situation. Wir betrachten eine offene Menge $U\subseteq \mathbb R^n\times \mathbb R^m$ und eine stetig differenzierbare Funktion $F\colon U\to \mathbb R^m$. Es liegt nahe, die Fragestellung in diesem Fall lokal auf eine lineare Approximation zurückzuführen, weil wir die Frage für lineare Abbildungen bereits geklärt haben. Die beste lineare Approximation von $F$ in einer Umgebung eines Punktes $(x,y)\in U$ ist das Differential von $F$ in diesem Punkt. Da $(\d F)_{(x,y)}\colon \mathbb R^n\times\mathbb R^m\to \mathbb R^m$ eine lineare Abbildung ist, können wir die gleiche Unterteilung wie im linearen Fall machen. Für $v\in \mathbb R^n$ und $w\in \mathbb R^m$ haben wir $$ (\d F)_{(x,y)}(v,w)=(\d F)_{(x,y)}(v,0)+(\d F)_{(x,y)}(0,w)=((\d F)_{(x,y)}\circ \iota_x)(v)+((\d F)_{(x,y)}\circ \iota_y)(w). $$ Wir definieren nun
Definition. Sei $U\subseteq \mathbb R^n\times \mathbb R^m$ offen und $F\colon U\to \mathbb R^m$ in $(x,y)\in U$ differenzierbar. Dann definieren wir die partiellen Differentiale von $F$ durch $$ (D_xF)_{(x,y)}:=(\d F)_{(x,y)} \circ \iota_x, \quad (D_yF)_{(x,y)}:=(\d F)_{(x,y)}\circ\iota_y. $$
In dieser Situation haben wir somit lineare Abbildungen $$ (D_xF)_{(x,y)}\colon \mathbb R^n \to \mathbb R^m, \ (D_yF)_{(x,y)}\colon \mathbb R^m\to \mathbb R^m, $$ die in folgendem Diagramm veranschaulicht sind.
\begin{tikzcd} {\mathbb R^m} \\ \\ {\mathbb R^n\times\mathbb R^m} &&& {\mathbb R^m} \\ \\ {\mathbb R^n} \arrow["{(\d F)_{(x,y)}}", from=3-1, to=3-4] \arrow["{\iota_x}", from=5-1, to=3-1] \arrow["{\iota_y}"', from=1-1, to=3-1] \arrow["{(D_yF)_{(x,y)}}", from=1-1, to=3-4] \arrow["{(D_xF)_{(x,y)}}"', from=5-1, to=3-4] \end{tikzcd}
Nach Definition dieser Abbildungen ist $$ (\d F)_{(x,y)}(v,w)=(D_xF)_{(x,y)}(v)+(D_yF)_{(x,y)}(w). $$ Definieren wir Projektionen $$ \pi_x\colon \mathbb R^n\times \mathbb R^m\to \mathbb R^n, \ (x_1,\dots,x_n,y_1,\dots,y_m)\mapsto (x_1,\dots,x_n) $$ und $$ \pi_y\colon \mathbb R^n\times \mathbb R^m\to \mathbb R^m , \ (x_1,\dots,x_n,y_1,\dots,y_m)\mapsto (y_1,\dots,y_m), $$ dann erhalten wir $$ (\d F)_{(x,y)}=(D_xF)_{(x,y)}\circ \pi_x + (D_yF)_{(x,y)}\circ \pi_y. $$ Die Namensgebung "partielle Differentiale" entnimmt man dem folgenden Lemma.
Lemma. Sei $U\subseteq \mathbb R^n\times \mathbb R^m$ offen, $F\colon U\to \mathbb R^m$ in $(a,b)\in U$ differenzierbar und $$ F(\cdot,b)\colon \pi_x(U)\to \mathbb R^m, \ x\mapsto F(x,b) $$ sowie $$ F(a,\cdot)\colon \pi_y(U)\to \mathbb R^m, \ y\mapsto F(a,y). $$ Dann gilt $$ (D_xF)_{(a,b)}=(\d (F(\cdot,b)))_a, \ (D_yF)_{(a,b)}=(\d (F(a,\cdot)))_b. $$
Beweis. Für $a+h\in \pi_x(U)$ ist $$ \begin{align*} F(a+h,b) &=F(a,b)+(\d F)_{(a,b)}(h,0)+o(\lVert (h,0)\rVert) \\ &=F(a,b)+(D_xF)_{(a,b)}(h)+o(\lVert h\rVert). \end{align*} $$ Somit ist $(\d(F(\cdot,b)))_a=(D_xF)_{(a,b)}$. Für $F(a,\cdot)$ zeigt man es analog. $\square$ Aufgrund der linearen Version können wir erwarten, dass wir die Invertierbarkeit der linearen Abbildung $(D_yF)_{(x,y)}\colon \mathbb R^m\to \mathbb R^m$ fordern müssen, wenn wir die Gleichung in einer Umgebung von $(x,y)$ eindeutig nach $y$ auflösen wollen. Der allgemeine Satz über implizite Funktionen wird uns liefern, dass diese Bedingung in der Tat genügt. Vielmehr liefert er auch noch die stetige Differenzierbarkeit der so implizit definierten Funktion. Im linearen Fall konnten wir sogar explizit hinschreiben, wie die implizit definierte Funktion aussieht. Im allgemeinen Fall erhalten wir eine sehr ähnliche Darstellung für das Differential der implizit definierten Funktion.

Koordinatendarstellung der partiellen Differentiale

Wir wollen uns für die konkrete Anwendung noch überlegen, wie man die partiellen Differentiale berechnen kann. Es ist eine nette Überlegung, wie die Jacobi-Matrizen von $F(\cdot,y)$ und $F(x,\cdot)$ aussehen. Natürlich gilt in diesem Fall einfach $$ J_{F(\cdot,y)}(x)= \begin{bmatrix} \color{red}{\partial_1 F^1} & \ldots & \color{red}{\partial_n F^1} \\ \color{red}{\partial_1 F^2} &\ldots & \color{red}{\partial_n F^2} \\ \vdots & \ddots & \vdots \\ \color{red}{\partial_1 F^m} &\ldots & \color{red}{\partial_n F^m} \end{bmatrix}(x,y), \qquad J_{F(x,\cdot)}(y)= \begin{bmatrix} \color{blue}{\partial_{n+1} F^1} & \ldots & \color{blue}{\partial_{n+m} F^1} \\ \color{blue}{\partial_{n+1} F^2} &\ldots & \color{blue}{\partial_{n+m} F^2} \\ \vdots & \ddots & \vdots \\ \color{blue}{\partial_{n+1} F^m} &\ldots & \color{blue}{\partial_{n+m} F^m} \end{bmatrix}(x,y). $$ Zusammengesetzt erkennen wir diese beiden Matrizen als Teilmatrizen der Jacobi-Matrix von $F$: $$ J_F(x,y)= \begin{bmatrix} \color{red}{\partial_1 F^1} & \ldots & \color{red}{\partial_n F^1} & \color{blue}{\partial_{n+1} F^1} & \ldots & \color{blue}{\partial_{n+m} F^1}\\ \color{red}{\partial_1 F^2} & \ldots & \color{red}{\partial_n F^2} & \color{blue}{\partial_{n+1} F^2} & \ldots & \color{blue}{\partial_{n+m} F^2}\\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ \color{red}{\partial_1 F^m} & \ldots & \color{red}{\partial_n F^m} & \color{blue}{\partial_{n+1} F^m} & \ldots & \color{blue}{\partial_{n+m} F^m} \end{bmatrix}(x,y). $$ Bei dieser Thematik muss man etwas vorsichtig sein. Typischerweise werden $(D_xF)_{(x,y)}$ bzw. $(D_yF)_{(x,y)}$ einfach als diese Teilmatrizen der Jacobi-Matrix eingeführt. Das mag zwar eine sehr bequeme Definition sein, hindert aber das allgemeinere Verständnis an manchen Stellen sehr. Hier werden also sehr oft Matrizen und Abbildungen identifiziert und beliebig zwischen diesen Sichtweisen hin und her gewechselt. Im Idealfall versteht man natürlich beide Sichtweisen.

Die allgemeine Version

Wir betrachten zunächst nochmal ein sehr einfaches Beispiel. Es sei $F\colon \mathbb R\times \mathbb R\to \mathbb R$ die stetig differenzierbare Abbildung gegeben durch $F(x,y)=x^2+y^2-1$. Die Gleichung $F(x,y)=0$ beschreibt also den Einheitskreis in der Ebene. In der Umgebung welcher Punkte $(x,y)$ mit $F(x,y)=0$ können wir die Gleichung $F(x,y)=0$ eindeutig nach $y$ auflösen, also den Einheitskreisbogen als Graph einer Funktion über der $x$-Achse darstellen? Für $y>0$ können wir die Gleichung eindeutig in der Form $$ y=\sqrt{1-x^2} $$ schreiben. Analog können wir sie für $y<0$ eindeutig in der Form $$ y=-\sqrt{1-x^2} $$ schreiben. Die Punkte $(x,y)$ mit $F(x,y)=0$ und $y=0$ sind genau die Punkte, an denen $(D_yF)_{(x,y)}\colon \mathbb R\to \mathbb R, \ h\mapsto 2y\cdot h$ nicht invertierbar ist. So lange $(D_yF)_{(x,y)}$ invertierbar ist, können wir die Gleichung in einer Umgebung von $(x,y)$ eindeutig nach $y$ auflösen. Wir sehen uns also in unserer Vermutung bestärkt, dass das die richtige Forderung für den allgemeinen Fall ist. Im Allgemeinen wird es natürlich oft nicht möglich sein, eine explizite Formel für die implizit definierte Funktion aufzuschreiben. Dennoch erhält man auf diese Weise in vielen Fällen eine explizite Formel für das Differential. Wird nämlich durch die Gleichung $F(x,y)=0$ implizit eine differenzierbare Funktion $g\colon U\to V$ (mit $(x_0,y_0)\in U\times V$ und $F(x_0,y_0)=0$) definiert, dann haben wir $F(x,g(x))=0$ für alle $x\in U$. Daraus folgt mit der Kettenregel (mit $h(x)=(x,g(x))$) $$ 0=(\d(F\circ h))_x=(\d F)_{h(x)}\circ (\d h)_x=(D_xF)_{(x,g(x))}+(D_yF)_{(x,g(x))}\circ (\d g)_x $$ für alle $x\in U$ und damit $$ (\d g)_x=-\left[(D_yF)_{(x,g(x))}\right]^{-1}\circ (D_xF)_{(x,g(x))}, $$ für alle $x\in U$, sofern die Abbildung $(D_yF)_{(x,g(x))}$ für alle $x\in U$ invertierbar ist. Wir sehen, dass das genau die Formel aus der linearen Version des Satzes ist. Wir können all unsere bisherigen Erkenntnisse nun kombinieren und gelangen zum allgemeinen Satz über implizite Funktionen.
Satz. (Satz über implizite Funktionen) Es sei $U\subseteq \mathbb R^n\times \mathbb R^m$ eine offene Menge, $F\colon U\to \mathbb R^m$ stetig differenzierbar, $(a,b)\in U$ mit $F(a,b)=0$ und derart, dass die lineare Abbildung $(D_yF)_{(a,b)}\colon \mathbb R^m\to \mathbb R^m$ invertierbar ist. $\bullet$ Dann gibt es offene Umgebungen $U_a\subseteq \mathbb R^n$ von $a$ und $V_b\subseteq \mathbb R^m$ von $b$ mit $U_a\times V_b\subseteq U$ sowie eine stetig differenzierbare Abbildung $g\colon U_a\to V_b$ derart, dass für alle $(x,y)\in U_a\times V_b$ genau dann $F(x,y)=0$ gilt, wenn $y=g(x)$ gilt. $\bullet$ Die Umgebung $U_a$ kann zudem so gewählt werden, dass $$ (\d g)_x=-\left[(D_yF)_{(x,g(x))}\right]^{-1}\circ (D_xF)_{(x,g(x))} $$ für alle $x\in U_a$ gilt.
Ist $F$ sogar $k$-mal stetig differenzierbar oder analytisch, so kann man die Umgebungen auch derart wählen, dass das selbe für $g$ gilt. Weiter kann man den Satz entsprechend umformulieren, wenn man die Gleichung nach $x$ auflösen will.
Beispiel. Wir betrachten die Oberfläche $S^2$ der Einheitskugel $B^3$ im $\mathbb R^3$. Sei dazu $F\colon \mathbb R^3\to \mathbb R$ gegeben durch $$ F(x,y,z)=x^2+y^2+z^2-1. $$ Die Gleichung $F(x,y,z)=0$ beschreibt daher die Oberfläche $S^2$ der Kugel, d.h. es gilt $$ S^2=\lbrace (x,y,z)\in \mathbb R^3\mid x^2+y^2+z^2-1=0\rbrace=\lbrace (x,y,z)\in \mathbb R^3\mid F(x,y,z)=0\rbrace. $$ In einer Umgebung welcher Punkte $(x,y,z)\in S^2$ können wir $S^2$ eindeutig als Graph über der $xy$-Ebene darstellen, also die Gleichung $F(x,y,z)=0$ in der Form $z=g(x,y)$ schreiben? Zunächst ist $F$ natürlich stetig differenzierbar. Weiter ist $F(x,y,\cdot)\colon \mathbb R\to \mathbb R$ für feste $x,y\in \mathbb R$ gegeben durch $$ F(x,y,t)=x^2+y^2+t^2-1 $$ und somit ist $$ \begin{align*} (D_zF)_{(x,y,z)}=(\d (F(x,y,\cdot)))_z=2z \cdot \opn{id}_{\mathbb R}. \end{align*} $$ Folglich ist $(D_zF)_{(x,y,z)}\colon \mathbb R\to \mathbb R$ genau dann invertierbar, wenn $z\neq 0$ gilt. Daher können wir $S^2$ in einer Umgebung von $(x,y,z)\in S^2$ eindeutig als Graph über der $xy$-Ebene darstellen, wenn $(x,y,z)$ nicht auf dem Äquator von $S^2$ liegt. Ist also $(x_0,y_0,z_0)\in S^2$ mit $z_0\neq 0$, dann gibt es offene Umgebungen $U\subseteq \mathbb R^2$ von $(x_0,y_0)$ und $V\subseteq \mathbb R$ von $z_0$ und eine stetig differenzierbare Funktion $g\colon U\to V$, so dass für alle $(x,y,z)\in U\times V$ genau dann $F(x,y,z)=0$ gilt, wenn $z=g(x,y)$ gilt. Weiter liefert der Satz über implizite Funktionen, dass $$ \begin{align*} (\d g)_{(x_0,y_0)} &=-\left[(D_zF)_{(x_0,y_0,z_0)}\right]^{-1}\circ (D_{(x,y)}F)_{(x_0,y_0,z_0)} \\ &=-\left(\frac{1}{2z_0} \cdot\opn{id}_{\mathbb R}\right)\circ \left(2x_0 \dd x^1+2y_0 \dd x^2\right) \\ &=-\frac{x_0}{z_0} \dd x^1-\frac{y_0}{z_0} \dd x^2, \end{align*} $$ wobei $x^1,x^2$ die kartesischen Koordinaten auf $\mathbb R^2$ sind. Man überprüfe diese Ergebnisse, indem man die Gleichung $F(x,y,z)=0$ "von Hand" nach $z$ auflöse. Dabei sollte man erkennen, warum der Äquator von $S^2$ Probleme bereitet.
Als nächstes wollen wir ein Beispiel betrachten, bei dem der Satz über implizite Funktionen bei der Frage nach der Lösbarkeit nicht-linearer Gleichungssysteme angewendet werden kann.
Beispiel. Wir betrachten das Gleichungssystem $$ \begin{cases} x+t\sin(x+y) &=0 \\ y+t\cos(xy) &=0 \end{cases} $$ wobei $t\in \mathbb R$ ein Parameter ist. Wir wollen zeigen, dass es eine Zahl $\varepsilon>0$ gibt, so dass das obige Gleichungssystem für jeden Parameter $t\in (-\varepsilon,\varepsilon)$ eine Lösung $(g_1(t),g_2(t))\in \mathbb R^2$ besitzt, die stetig differenzierbar vom Parameter $t$ abhängig ist. Wir müssen das Problem nun erst mal so aufbereiten, dass wir in der Lage sind, den Satz über implizite Funktionen anzuwenden. Dazu ist es zweckmäßig zunächst mal zu vergessen, dass $t$ ein Parameter ist und das Gleichungssystem als von den drei Variablen $t,x,y$ abhängig zu betrachten. Die Funktion $$ F\colon \mathbb R\times \mathbb R^2\to \mathbb R^2, \ F(t,(x,y))=(x+t\sin(x+y),y+t\cos(xy)) $$ bietet sich für unser Problem an. Man verifiziert durch einfaches Nachrechnen, dass $$ F(0,(0,0))=(0,0) $$ gilt und $(0,(0,0))$ daher unser ursprüngliches Gleichungssystem löst. Betrachten wir nun $$ F(0,\cdot)\colon \mathbb R^2\to \mathbb R^2, \ (x,y)\mapsto F(0,(x,y))=(x,y). $$ $F(0,\cdot)$ ist die Identität auf $\mathbb R^2$ und somit haben wir $$ (D_{(x,y)}F)_{(0,(0,0))}=(\d(F(0,\cdot)))_{(0,0)}=\opn{id}_{\mathbb R^2}. $$ Da $(D_{(x,y)}F)_{(0,(0,0))}\colon \mathbb R^2\to \mathbb R^2$ offensichtlich invertierbar ist, liefert uns der Satz über implizite Funktionen $\bullet$ eine offene Umgebung $U\subseteq \mathbb R$ von $t=0$, die daher auch das Intervall $(-\varepsilon,\varepsilon)$ für ein $\varepsilon>0$ enthält, $\bullet$ eine offene Umgebung $V\subseteq \mathbb R^2$ von $(0,0)\in \mathbb R^2$, $\bullet$ eine stetig differenzierbare Abbildung $g=(g_1,g_2)\colon U\to V$, so dass für alle $(t,(x,y))\in U\times V$ genau dann $F(t,(x,y))=(0,0)$ gilt, wenn $(x,y)=(g_1(t),g_2(t))$ gilt. Damit ist unser ursprüngliches Problem gelöst. Mit dem Satz über implizite Funktionen könnten wir noch $g_1'(0)$ und $g_2'(0)$ bestimmen. Es ist $$ (\d g)_0=-[(D_{(x,y)}F)_{(0,(0,0))}]^{-1}\circ (D_tF)_{(0,(0,0))}=-\opn{id}_{\mathbb R^2}\circ (D_tF)_{(0,(0,0))}=-(D_tF)_{(0,(0,0))}. $$ Die Abbildung $F(\cdot,(0,0))\colon \mathbb R\to \mathbb R^2$ ist gegeben durch $t\mapsto (0,t)$ und nach dem Reduktionssatz ist daher $$ (D_tF)_{(0,(0,0))}=(\d(F(\cdot,(0,0))))_0=(0, \opn{id}_{\mathbb R}). $$ Insgesamt ist somit $$ (g_1'(0),g_2'(0))=(\partial_1g_1(0),\partial_1g_2(0))=(\d g)_0(1)=(0,-1). $$ Wer das lieber mag, kann das auch alles mit den entsprechenden Teilen der Jacobi-Matrix von $F$ nachrechnen (also den darstellenden Matrizen der partiellen Differentiale).

Der Beweis

Der Beweis läuft nach einem Verfahren, das ein Analytiker als "Bootstrapping" bezeichnen könnte: $\bullet$ In einem ersten Schritt konstruieren wir die "blanke Funktion" $g$. $\bullet$ Wenn wir die Funktion $g$ haben, dann können wir zeigen, dass sie stetig ist. $\bullet$ Aus der Stetigkeit von $g$ folgern wir, dass $g$ eine bestimmte Lipschitz-Bedingung erfüllt. $\bullet$ Abschließend können wir damit zeigen, dass $g$ stetig differenzierbar ist. Um uns das Leben für den Beweis so einfach wie möglich zu machen, können wir vorab noch ein paar Vereinbarungen treffen. Zunächst können wir o.B.d.A. annehmen, dass $(a,b)=(0,0)$ gilt. Weiter setzen wir $A:=(D_xF)_{(0,0)}$ und $B:=(D_yF)_{(0,0)}$, wobei $B\colon \mathbb R^m\to \mathbb R^m$ nach Voraussetzung invertierbar ist.

Schritt 1: Konstruktion von $g$

Abgesehen von der Forderung nach stetiger Differenzierbarkeit, ist die große Frage, wie man denn überhaupt solch eine Funktion $g$ finden soll. Es soll am Ende $F(x,y)=0$ genau dann gelten, wenn $y=g(x)$ gilt. Nun bemerkt man folgendes: $$ F(x,y)=0 \iff B^{-1}(F(x,y))=0 \iff y-B^{-1}(F(x,y))=y. $$ Wenn wir die stetig differenzierbare Abbildung $$ \Phi\colon U\to \mathbb R^m, \ \Phi(x,y)=y-B^{-1}(F(x,y)) $$ betrachten, dann gilt also für $(x,y)\in U$ genau dann $F(x,y)=0$, wenn $\Phi(x,y)=y$ gilt. In anderen Worten: Für festes $x$ gilt $F(x,y)=0$ genau dann, wenn $y$ ein Fixpunkt von $\Phi(x,\cdot)$ ist. Wir konnten das Problem damit in ein Fixpunktproblem umformulieren. An dieser Stelle kommt der Banachsche Fixpunktsatz ins Spiel. Damit wir diesen zielführend anwenden können, müssen wir uns überlegen, ob die Abbildung $\Phi(x,\cdot)$ für geeignete $x$ jeweils eine Kontraktion ist.
Lemma. Es gibt $r_1,r_2>0$ derart, dass für $\overline{B_1}:=\overline{B_{r_1}(0)}\subseteq \mathbb R^n$ und $\overline{B_2}:=\overline{B_{r_2}(0)}\subseteq \mathbb R^m$ gilt: $\bullet$ Für alle $(x,y)\in \overline{B_1}\times \overline{B_2}$ gilt $\Phi(x,y)\in \overline{B_2}$. $\bullet$ Für jedes $x\in \overline{B_1}$ ist die Abbildung $\Phi(x,\cdot)\colon \overline{B_2}\to \overline{B_2}$ eine Kontraktion.
Beweis. Da $F(0,0)=0$ gilt und $F$ stetig ist, kann man für jedes $r_2>0$ zunächst ein $r_1>0$ finden, so dass $$ \lVert \Phi(x,0)\rVert=\lVert B^{-1}(F(x,0))\rVert \leq \frac 12 r_2 $$ gilt, wenn $\lVert x\rVert \leq r_1$ ist. Nach dem Schrankensatz ist nun für festes $x\in \overline{B_1}$ $$ \lVert \Phi(x,y)-\Phi(x,y')\rVert \leq \sup_{z\in [y,y']} \lVert (D_y\Phi)_{(x,z)}\rVert_{\mathrm{op}}\cdot \lVert y-y'\rVert $$ für alle $y,y'\in\overline{B_2}$. Da $(D_y\Phi)_{(0,0)}=0$ und $v\mapsto (D_y\Phi)_v$ stetig ist, kann man $r_1,r_2>0$ entsprechend so verkleinern, dass $\lVert (D_y\Phi)_{(x,y)}\rVert_{\mathrm{op}}\leq \frac 12$ für alle $(x,y)\in \overline{B_1}\times \overline{B_2}$ gilt. Folglich gilt $$ \lVert \Phi(x,y)-\Phi(x,y')\rVert\leq \frac{1}{2}\lVert y-y'\rVert $$ und somit $$ \lVert \Phi(x,y)\rVert\leq \lVert \Phi(x,y)-\Phi(x,0)\rVert+\lVert \Phi(x,0)\rVert\leq \frac{1}{2}\lVert y\rVert +\lVert B^{-1}(F(x,0))\rVert \leq r_2 $$ für alle $(x,y)\in \overline{B_1}\times \overline{B_2}$. $\square$ Nach dem Lemma ist für jedes feste $x\in \overline{B_1}$ die Abbildung $\Phi(x,\cdot)\colon \overline{B_2}\to \overline{B_2}$ eine Kontraktion. Da $\overline{B_2}\subseteq \mathbb R^m$ abgeschlossen ist, hat die Abbildung $\Phi(x,\cdot)\colon \overline{B_2}\to \overline{B_2}$ für jedes feste $x\in \overline{B_1}$ nach dem Banachschen Fixpunktsatz genau einen Fixpunkt, welchen wir mit $g(x)$ bezeichnen. Folglich gilt für alle $(x,y)\in \overline{B_1}\times \overline{B_2}$ genau dann $F(x,y)=0$, wenn $y=g(x)$ gilt. Insbesondere ist $g(0)=0$.

Schritt 2: $g$ ist stetig

Die "blanke Funktion" $g$ haben wir mit Schritt 1 erfolgreich gefunden: $g\colon \overline{B_1}\to \overline{B_2}, \ x\mapsto g(x)$, wobei $g(x)$ den oben konstruierten eindeutigen Fixpunkt von $\Phi(x,\cdot)\colon \overline{B_2}\to \overline{B_2}$ bezeichnet. Als nächstes wollen wir zeigen, dass $g$ stetig ist. In Schritt 1 haben wir das ursprüngliche Problem punktweise auf ein Fixpunktproblem zurückgeführt. Wir haben ein festes $x\in \overline{B_1}$ genommen und dann gezeigt, dass $\Phi(x,\cdot)\colon\overline{B_2}\to \overline{B_2}$ genau einen Fixpunkt hat. Wir können das Fixpunktproblem aber auch in einem Rutsch für alle $x\in \overline{B_1}$ gleichzeitig zeigen, wenn wir es in einem geeigneten Banachraum formulieren. Wir betrachten dazu den Banachraum $C^0(\overline{B_1},\mathbb R^m)$ der stetigen Abbildungen $h\colon \overline{B_1}\to \mathbb R^m$ mit der Supremumsnorm $\lVert \cdot\rVert_{\,\overline{B_1}}$ und dann die abgeschlossene Teilmenge $$ C:=\lbrace h\in C^0(\overline{B_1},\mathbb R^m)\mid h(\overline{B_1})\subseteq \overline{B_2},\, h(0)=0\rbrace. $$ Mit der Abbildung $\Phi$ aus Schritt 1 erfüllt unsere Funktion $g$ (als einzige Funktion auf $\overline{B_1}$) die folgende Eigenschaft: $$ \Phi(x,g(x))=g(x) \ \forall x\in \overline{B_1}. $$ Wenn wir auf $C$ also die Abbildung $$ \Psi\colon C\to C, \ h\mapsto \Psi(h) $$ betrachten, wobei $\Psi(h)\colon \overline{B_1}\to \mathbb R^m$ durch $\Psi(h)(x)=\Phi(x,h(x))$ gegeben ist, dann haben wir $$ \begin{align*} \Psi(h_0)=h_0 & \Longleftrightarrow \Psi(h_0)(x)=h_0(x) \ \forall x\in \overline{B_1}\\ & \Longleftrightarrow \Phi(x,h_0(x))=h_0(x) \ \forall x\in \overline{B_1}\\ & \Longleftrightarrow h_0(x)=g(x) \ \forall x\in \overline{B_1} \\ & \Longleftrightarrow h_0=g. \end{align*} $$ Das heißt, wenn $\Psi$ einen Fixpunkt hat, dann muss es unsere Funktion $g$ sein! Da $\Psi$ aber auf $C^0(\overline{B_1},\mathbb R^m)$ definiert ist, würde das bedeuten, dass $g\in C^0(\overline{B_1},\mathbb R^m)$ gilt und wir hätten die Stetigkeit gezeigt! Nun gilt aber $$ \begin{align*} \lVert \Psi(h)-\Psi(\tilde h)\rVert_{\,\overline{B_1}} &=\sup_{x\in \overline{B_1}} \lVert \Psi(h)(x)-\Psi(\tilde h)(x)\rVert \\ &=\sup_{x\in \overline{B_1}} \lVert \Phi(x,h(x))-\Phi(x,\tilde h(x))\rVert \\ &\leq \frac{1}{2}\lVert h-\tilde h\rVert_{\,\overline{B_1}} \end{align*} $$ und folglich ist $\Psi$ eine Kontraktion. Nach dem Banachschen Fixpunktsatz hat $\Psi$ folglich genau einen Fixpunkt $h_0\in C$.

Schritt 3: $g$ ist stetig differenzierbar

Wir setzen nun $U_a:=B_1=B_{r_1}(0)$ und $V_b:=B_2=B_{r_2}(0)$. Aufgrund der Differenzierbarkeit von $F$ in $(0,0)$ gibt es eine Funktion $\varphi\colon U_a\times V_b\to \mathbb R$, so dass $$ F(x,y)=F(0,0)+A(x)+B(y)+\varphi(x,y) $$ mit $$ \lim_{(x,y)\to(0,0)} \frac{\varphi(x,y)}{\lVert (x,y)\rVert}=0 $$ gilt. Unsere Funktion $g$ erfüllt nach Konstruktion $F(x,g(x))=0$ für alle $x\in U_a$ und daher haben wir $$ 0=F(x,g(x))=F(0,0)+A(x)+B(g(x))+\varphi(x,g(x)) $$ und somit $$ g(x)=g(0)+(-[B^{-1}]\circ A)(x)+(-B^{-1}(\varphi(x,g(x)))) $$ für alle $x\in U_a$. Mit $\chi(x):=-B^{-1}(\varphi(x,g(x)))$ bleibt daher zu zeigen, dass $$ \lim_{x\to 0} \frac{\chi(x)}{\lVert x\rVert}=0 $$ gilt. Das Problem an dieser Stelle ist, dass die Funktion $g$ auch im "Fehlerterm" $\chi(x)=-B^{-1}(\varphi(x,g(x)))$ auftritt. Wir benötigen an dieser Stelle eine Abschätzung von $\lVert g(x)\rVert$ die es uns erlaubt, den Fehlerterm nach oben abzuschätzen.
Lemma. Es gibt ein $0<\delta_1\leq r_1$ und eine Konstante $K\geq 0$, so dass $$ \lVert g(x)\rVert\leq K\cdot \lVert x\rVert $$ für alle $\lVert x\rVert <\delta_1$ gilt.
Beweis. Aufgrund von $\frac{\varphi(x,y)}{\lVert (x,y)\rVert}\to 0$ für $(x,y)\to (0,0)$ und der Stetigkeit von $g$ in $x=0$, existieren $\delta_1,\delta_2>0$ mit $\delta_1\leq r_1$ und $\delta_2\leq r_2$, so dass $$ \begin{align*} \lVert \varphi(x,y)\rVert \leq \frac{1}{2\lVert B^{-1}\rVert_{\mathrm{op}}}\lVert (x,y)\rVert \leq \frac{1}{2\lVert B^{-1}\rVert_{\mathrm{op}}}(\lVert x\rVert+\lVert y\rVert) \end{align*} $$ und $\lVert g(x)\rVert <\delta_2$ für alle $\lVert x\rVert<\delta_1$ und $\lVert y\rVert<\delta_2$ gilt. Damit folgt $$ \lVert g(x)\rVert \leq \lVert B^{-1}\circ A\rVert_{\mathrm{op}} \cdot \lVert x\rVert +\frac{1}{2}\lVert x\rVert+\frac{1}{2}\lVert g(x)\rVert $$ und somit $$ \lVert g(x)\rVert\leq \underbrace{(2\lVert B^{-1}\circ A\rVert_{\mathrm{op}}+1)}_{=: \, K}\cdot \lVert x\rVert $$ für alle $\lVert x\rVert <\delta_1$. $\square$
Mit Hilfe dieser Abschätzung können wir die erforderliche Aussage über den Fehlerterm $\chi$ beweisen. Für $\varepsilon>0$ haben wir $$ \begin{align*} \lVert \chi(x)\rVert &=\lVert -B^{-1}(\varphi(x,g(x)))\rVert \\ &\leq \lVert B^{-1}\rVert_{\mathrm{op}} \cdot \varepsilon \lVert (x,g(x))\rVert \\ &\leq \lVert B^{-1}\rVert_{\mathrm{op}} \cdot \varepsilon(\lVert x\rVert +\lVert g(x)\rVert) \\ &\leq \lVert B^{-1}\rVert_{\mathrm{op}} \cdot \varepsilon(\lVert x\rVert +K\cdot \lVert x\rVert) \\ &\leq \left(\lVert B^{-1}\rVert_{\mathrm{op}}(1+K)\varepsilon\right)\lVert x\rVert, \end{align*} $$ wenn $\lVert x\rVert$ klein genug ist (mit dem gleichen Argument wie beim Beweis des letzten Lemmas). Das zeigt, dass $$ \frac{\lVert \chi(x)\rVert}{\lVert x\rVert} \leq \lVert B^{-1}\rVert_{\mathrm{op}}(1+K)\varepsilon $$ für hinreichend kleine $\lVert x\rVert$ und somit $$ \lim_{x\to 0} \frac{\chi(x)}{\lVert x\rVert}=0 $$ gilt. Damit folgt die Differenzierbarkeit von $g$ in $a=0$ und es gilt $$ (\d g)_0=-B^{-1}\circ A = -\left[(D_yF)_{(0,g(0))}\right]^{-1}\circ (D_xF)_{(0,g(0))}. $$ Da sowohl $D_yF$, als auch $D_xF$ stetig sind, folgt sogar die stetige Differenzierbarkeit von $g$ in $a=0$. Verkleinert man $U_a$ noch einmal (so dass $(D_yF)_{(x,g(x))}$ auf ganz $U_a$ invertierbar ist) und führt die gleiche Rechnung auch für Punkte $(x,g(x))$ mit $x\in U_a$ durch, so sieht man, dass $g$ sogar auf $U_a$ stetig differenzierbar ist und die entsprechende Formel für $(\d g)_x$ gilt. Damit ist der Satz über implizite Funktionen bewiesen. $\square$
\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist nicht im Verzeichnis der Arbeitsgruppe Alexandria eingetragen.
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]
 


 
Kommentare zum Inhalt bitte im Inhalte-Thread, Kommentare zur Gestaltung
bitte im Form-Thread. Klicke auf die passende Registerkarte.

Noch keine Kommentare hier


Noch keine Kommentare hier



 
Aufrufzähler 388
 
Aufrufstatistik des Artikels
Insgesamt 1 externer Seitenaufruf zwischen 2023.11 und 2023.11 [Anzeigen]
DomainAnzahlProz
https://matheplanet.de1100%100 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 1 Aufruf in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2023.11.29 15:34android-app://com.google.android.googlequicksearchbox/



[Top of page]



 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]