Suchwörter   (werden UND-verknüpft)
Keines der folgenden   keine eigenen Beiträge
Name des Autors 
resp. Themenstellers 

nur dessen Startbeiträge
auch in Antworten dazu
Forum 
 Suchrichtung  Auf  Ab Suchmethode  Sendezeit Empfehlungbeta [?]
       Die Suche erfolgt nach den angegebenen Worten oder Wortteilen.   [Suchtipps]

Link auf dieses Suchergebnis hier

Forum
Thema Eingetragen
Autor

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: Felixg
Polynome orthogonalisieren, Gewichtetes Skalarprodukt  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-12-01
Felixg
 

Hallo!


Erst einmal danke für deine Antwort :-)
Ja, gestern war mir das zu viel Tipp - Arbeit (war ziemlich spät).


Also ich schaue mir die ersten beide Polynome aus der Rodrigues - Formel an:


Für $k = 0$ erhält man:
 $p_{0} = \frac{C_{0}}{\omega(x)} \frac{d^{0}}{dx^{0}} \left [ \omega(x) (x - a)^{0} (b - x)^{0} \right ] = C_{0}$

Für $k = 1$ erhält man:
 $p_{1} = \frac{C_{1}}{\omega(x)} \frac{d^{1}}{dx^{1}} \left [ \omega(x) (x - a)^{1} (b - x)^{1} \right ] = \frac{C_{1}}{\omega(x)}  \left (\frac{d}{dx} [\omega(x)  (x - a)] \cdot (b - x) +  \omega(x)(x - a) \cdot (- 1) \right ) = \frac{C_{1}}{\omega(x)} \left ( (\omega'(x) \cdot (x - a) + \omega(x) \cdot 1) \cdot (b - x) +  \omega(x)(x - a) \cdot (- 1) \right ) = \frac{C_{1}}{\omega(x)} \left (  \omega'(x) (x - a)(b - x) + \omega(x)  (b - x) -  \omega(x)(x - a) \right ) $



Jetzt müsste ich durch das Gram-Schmidt-Verfahren die selben Polynome erhalten.

Setze $\varphi_{0} = 1$.

Dann erhalte ich:

$\varphi_{1} = x - \frac{(x, 1)}{(1,1)} \cdot 1 = x - \frac{\int_{a}^{b} \omega(x) \cdot x \cdot 1 dx}{\int_{a}^{b} \omega(x) \cdot 1 \cdot 1 dx} \cdot 1 = x - \frac{[\int \omega(x) dx \cdot x]_{a}^{b} - \int\limits_{a}^{b} \int \omega(x) dx}{\int_{a}^{b} \omega(x) dx}$

Aber schon hier wird klar, dass ich irgend etwas falsch mache.


Es gilt $\varphi_{0} = 1$ und $p_{0} = C_{0}$.
Okay, die $1$ ist eine Konstante. Die kann man auch $C_{0}$ nennen.

Aber $\varphi_{1}$ sieht überhaupt nicht so aus wie $p_{1}$.
Was mache ich falsch?

Viele Grüße, Felix

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: Felixg
Polynome orthogonalisieren, Gewichtetes Skalarprodukt  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-12-01
Felixg
 

Hallöchen :-)  Ich beschäftige mich zurzeit mit orthogonalen Polynome, weil mich fasziniert, auf was man für Polynome kommt. Man denke an die Legendre Polynome, Tschebyshew - Polynome usw.
Dazu habe ich mich über dieses Thema genauer informiert und die wichtigsten Sache herausgeschrieben. Ich tippe sie kurz hier ab und dann stelle ich meine Frage.


Definition
________
Ein gewichtetes Skalarprodukt über dem Raum der zweimal integrierbareb Funktion $L^{2}([a, b])$ auf dem Intervall $[a, b ] \subseteq \mathbb{R}$ sei definiert durch $(p, q) := \int\limits_{a}^{b} \omega(x) p(x) q(x) dx$
Dabei ist $\omega: [a, b] \rightarrow (0, \infty]$ eine integrierbare Gewichtsfunktion.

Satz
_____
Seien $H$ ein unitärer Raum und $S \subseteq H$ ein endlich dimensionaler Teilraum. Zu jeder Basis $B:= \{ v_{1}, \ldots, v_{n} \}$ von $S$ lässt sich ein OGS mit dem Gram - Schmidt - Algorithmus konstruieren:

$\varphi_{1} := v_{1}$ und für $k = 2, \ldots, n:$ $\varphi_{k} := v_{k} - \sum\limits_{i = 1}^{k - 1} \frac{(v_{k}, \varphi_{i})}{(\varphi_{i}, \varphi_{i})}\varphi_{i}$


Auf einem Übungsblatt hatte ich dann folgende Aufgabe zu beweisen:

Formel von Rodriguez
__________________

Die bezüglich der Gewichtsfunktion $\omega(x)$ auf dem Intervall $[a, b]$  orthogonalen Polynome $p_{k}$ erfüllen $p_{k} = \frac{C_{k}}{\omega(x)} \frac{d^{k}}{dx^{k}} \left [ \omega(x) (x - a)^{k} (b - x)^{k} \right ]$, $C_{k} \in \mathbb{R}$


Den Beweis dieser Aufgabe kann ich. Ich habe gezeigt, dass die Polynome $p_{k}$ alle orthogonal zueinander sind.
Aber mir ist halt immer noch nicht klar, wie genau man auf diese Polynome kommt. Ich bin also eher an einer Herleitung interessiert.
Ist es möglich, diese Polynome herzuleiten oder ist es viel zu kompliziert? Weil nirgends finde ich eine Herleitung. Vielleicht hat man durch orthogonalisieren konkreter Polynome ein Muster erkannt und dieses Muster durch eine Formel ausgedrückt. Ich weiß es nicht.
Wie komme ich auf diese Polynome? Ich würde zunächst die Monombasis $B:= \{ v_{0} = 1, v_{1} = x, v_{2} = x^{2}, \ldots \}$ nehmen und diese bezüglich des obigen Skalarprodukts orthogonalisieren.
Das habe ich heute morgen ausprobiert, in dem ich $p_{1}$ ausrechnen wollte. Aber da kam ein ganz anderes Ergebnis dabei heraus.
Hat da jemand vielleicht eine Idee? Wäre für jeden Input dankbar.

Gruß, Felix

Moduln
Universität/Hochschule 
Thema eröffnet von: Felixg
Noetherscher R-Modul  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-08-06
Felixg
 

Sehr vielen Dank für deine Antwort🙂👍


2020-08-06 00:17 - Triceratops in Beitrag No. 1 schreibt:


Zur zweiten Frage: Mit $\supset$ ist hier echte Inklusion gemeint (die übliche Inklusion wäre dann $\supseteq$).

Die Äquivalenz bekommt man dann einfach durch Umschreiben der Definition:

$T$ hat kein maximales Element
$\iff \forall U \in T$: $U$ ist kein maximales Element
$\iff \forall U \in T ~ \exists V \in U: U < V$
$\iff \forall U \in T ~ \exists V \in U: U  \subset V$



Das Problem ist, dass unser Prof. immer $\subset$ oder $\supset$ verwendet. Da kann manchmal die echte Inklusion gemeint sein, manchmal nicht. Sehr verwirrend.

Die Definition scheint Sinn zu machen. Aber ich habe ein Beispiel im Kopf, das mir es schwer macht, die Definition 100%ig zu verstehen.

Nehmen wir an, $T$ besteht aus $5$ Elementen.

Also $T = \{ D_{1}, D_{2}, D_{3}, D_{4}, E\}$

Nun gelte $D_{i} \subset D_{4}$ für $i = 1, 2, 3, 4$.
Dabei sei $E$ keine Teilmenge von $D_{4}$ und umgekehrt auch nicht.
Dann habe ich kein maximales Element, weil das maximale Element alle Elemente aus $T$ enthalten muss. Aber dann macht für mich die obige Definition wenig Sinn, weil es kein Element in $T$ gibt, das $D_{4}$ oder $E$ echt enthält.

Wo liegt mein Denkfehler?

2020-08-06 00:17 - Triceratops in Beitrag No. 1 schreibt:


Zur dritten Frage: Sei obige Bedingung erfüllt und wie gesagt $T \neq \emptyset$. Wähle ein $U_0 \in T$. Sind $U_0 < \dotsc < U_n$ in $T$ bereits konstruiert, wähle ein $U_{n+1} \in T$ mit $U_n < U_{n+1}$. Man konstruiert damit also rekursiv eine echt aufsteigende Folge in $T$, die folglich nicht stationär wird. (Genauer gesagt verwendet man hier Dependent Choice).

Das habe ich jetzt verstanden, vielen Dank!😃

Freue mich auf eine Rückmeldung!

Freundliche Grüße,

Felix

Moduln
Universität/Hochschule 
Thema eröffnet von: Felixg
Noetherscher R-Modul  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-08-05
Felixg
 

Sei $R$ ein kommutativer Ring mit Eins. Ein $R$ - Modul $M$ heißt noethersch, wenn er folgende äquivalent Bedingungen erfüllt:

a) Jeder Untermodul von $M$ ist endlich erzeugt.
b) Jede aufsteigende Kette von Untermoduln wird stationör.
c) Jede Teilmenge von Untermoduln enthält ein maximales Element.

Zeigen Sie die Äquivalenz der 3 Bedingungen.

Ich versuche die Musterlösung zu dieser Aufgabe zu verstehen.
Ich verstehe fast alles, außer die Richtung $b) \Rightarrow c)$ beim Ringschluss.


Die Richtung geht so:

Sei $T$ eine beliebige Teilmenge von Untermoduln von $M$.
Angenommen $T$ hat kein maximales Element, d.h.: $\forall\; U \in T\; \exists \; V \in T: V \supset U$.
Iterativ bekommen wir daraus eine aufsteigende Kette von Untermoduln, die nicht stationär wird. Widerspruch!

Ich frage mich nun hier erst einmal eine Sache:

Was versteht man in diesem Kontext unter einem maximalen Element ?
Ist ein maximales Element in $T$ ein Untermodul von $M$ in $T$, das jeden anderen Untermodul von $M$ in $T$ enthält ?
Oder etwa nicht ? Gibt es mehrere maximale Elemente ?

Zurück zur Aufgabe:

Ich verstehe die Formulierung $\forall\; U \in T\; \exists \; V \in T: V \supset U$ nicht.
Wieso bedeutet diese Formulierung, dass $T$ kein maximales Element besitzt ?

Nehmen wir an, $T$ besteht aus $5$ Untermoduln von $M$.

Also $T = \{ D_{1}, D_{2}, D_{3}, D_{4}, D_{5}  \}$ mit $D_{5} \supseteq D_{i}$ für $i = 1,2,3,4,5$
Dann ist $D_{5}$ ein maximales Element von $T$.
Aber auch für $D_{5}$ gibt es ein $V \in T$, so dass $D_{5} \subseteq V$, nämlich $V = D_{5}$.
Für mich sagt also die obige Formulierung überhaupt nichts aus. Aber vielleicht verstehe ich die Lösung auch falsch.

Und wie bekommt man daraus iterativ eine aufsteigende Kette von Untermoduln, die nicht stationär wird ?


Ich hoffe, mich kann jemand aufklären.

Freundliche Grüße,

Felix

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Verteilungsfunktion (Herleitung)  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-06-13
Felixg
 

Guten Morgen!

ich habe etwas lange gebraucht, um dein Beweis zu verstehen, weil ich einige Sachen wieder nachschlagen musste.

Aber jetzt ist mir das klar!


\(\endgroup\)
\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\E}{\mathbb{E}} \newcommand{\H}{\mathbb{H}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\im}{\operatorname{im}} \newcommand{\zyk}[1]{\Z/#1\Z} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)2020-06-08 09:19 - Vercassivelaunos in Beitrag No. 1 schreibt:



Einfach ein beliebiges, das auf allen Intervallen der Form $(-\infty,x]$ identisch zu $P$ ist. Man will ja zeigen, dass $P$ durch die Werte auf $\{(−\infty,x]|x\in\R\}$ bereits eindeutig festgelegt ist. Das tut man, indem man sich ein beliebiges weiteres Maß $\mu_2$ mit den selben Werten auf dieser Menge wählt und zeigt, dass es schon identisch zu $P$ ist. Im Nachhinein ist also klar, dass wir für $\mu_2$ direkt $P$ gewählt haben müssen.
Die Aussage "Ein Objekt $B$, welches die Eigenschaft $E$ hat, ist identisch zum Objekt $A$" lässt sich übersetzen zu: "$A$ ist das einzige Objekt mit der Eigenschaft $E$". In diesem Fall sind $A=P,~B=\mu_2$, und $E$ ist die Eigenschaft, bestimmte Werte auf $F(\{(−\infty,x]|x\in\R\})$ anzunehmen.


\(\endgroup\)

Genau, so ist es. So habe ich mir das auch gedacht. Aber ich hatte einen Denkfehler in den letzten Tagen, den ich erst heute morgen gefunden habe.


Ich erkläre dir kurz nochmal, wie ich das heute verstehe:



Wir haben eine nicht - leere Menge $\Omega = \mathbb{R}$ und ein System von Teilmengen von $\Omega = \mathbb{R}$,

nämlich  $\mathcal{E} := \{ (- \infty, x ]\; \vert \; x \in \mathbb{R} \}$.

Die Menge $\mathcal{E}$ ist $\cap$ - stabil, denn für zwei beliebige reelle Zahl $x$ und $y$ gilt:

$ (- \infty, x ] \cap  (- \infty, y ] =  (- \infty, \max(x, y) ] \in \mathcal{E}$


Nun haben wir zwei Wahrscheinlichkeitsmaße auf $(\mathbb{R}, \mathcal{F}(\mathcal{E} \}))$, nämlich

 $P: \mathcal{B} \rightarrow \mathbb{R}, A \mapsto P(A)$ und

 $F:= P_{\vert\; \mathcal{E}}: \mathcal{E} \rightarrow \mathbb{R}, \varepsilon \mapsto P(\varepsilon)$



______________________________________________________________________

 Ich habe oben hingeschrieben, dass $P_{\vert\; \mathcal{E}}$ ein Wahrscheinlichkeitsmaß auf $(\mathbb{R}, \mathcal{F}(\mathcal{E} \}))$ ist.

Tatsächlich bin ich mir aber gar nicht so sicher, ob das so ist.

Ich meine, wenn $P$ positiv ist, dann ist auch $P_{\vert\; \mathcal{E}}$ positiv.

Wenn $P$ $\sigma$ - additiv ist, dann ist $P_{\vert\; \mathcal{E}}$ auch $\sigma$ - additiv.


Aber was ist mit der zweiten Eigenschaft ?

Es gilt $P(\mathbb{R}) = 1$. Es würde $P_{\vert\; \mathcal{E}}(\mathbb{R}) = 1$ gelten, wenn $\mathbb{R} \in \mathcal{E}$ ist.

Ist es das ?

______________________________________________________________________



Diese beiden Maße sind $\sigma$ - endlich in $\mathcal{E}$, da sie Wahrscheinlichkeitsmaße sind.

Also sind alle Voraussetzungen für den Eindeutigkeitssatz erfüllt.

Nach dem Maßeindeutigkeitssatz gilt dann $P = P_{\vert\; \mathcal{E}}$


Das heißt also, dass ich nicht unbedingt $P$ brauche, sondern die Einschränkung

 von $P$ auf $\mathcal{E}$, also $P_{\vert\; \mathcal{E}}$.


Und $P_{\vert\; \mathcal{E}}$ bezeichne ich dann einfach mit $F$.

Das heißt, die Verteilungsfunktion $F$ ist definiert durch $F(x) = P(\varepsilon)\quad \forall \varepsilon \in \mathcal{E}$.



Kann man da so sagen ?

Falls ja, was bringt uns das eigentlich ?

Also was bringt uns das, wenn wir $P_{\vert\; \mathcal{E}}$, statt  $P$  betrachten ?

Müssen wir nicht erst $P$ kennen, um mit $P_{\vert\; \mathcal{E}}$ arbeiten zu können ?


Freue mich auf ein Feedback und wünsche dir einen guten Start in den Tag.


Viele Grüße, Felix

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Verteilungsfunktion (Herleitung)  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-06-09
Felixg
 

Hallo!

Ich bedanke mich sehr für deine ausführliche Antwort!🙂 Ich hatte gestern nicht so viel Zeit, die Antwort zu lesen.

Ich beschäftige mich heute damit und melde mich wieder, wenn es Unklarheiten gibt.



Gruß,

Felix



Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Verteilungsfunktion (Herleitung)  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-06-08
Felixg
 

Guten Morgen allesamt ;-)


Ich habe ein paar Schwierigkeiten, einen bestimmen Abschnitt im Skript zu verstehen. Dort wird nämlich erklärt, wie die Verteilungsfunktion einer Wahrscheinlichkeitsverteilung zustande kommt.


Ich zitiere den Abschnitt im Skript:


"Eine W- keit $P$ auf $(\mathbb{R}, \mathcal{B})$ ist nach dem Eindeutigkeitssatz 5.10 (wähle $\mathcal{E} := \{ (- \infty, x ]\; \vert \; x \in \mathbb{R} \}$ und verwende $\mathcal{F}(\mathcal{E}) = \mathcal{B})$ durch ihre sog. Verteilungsfunktion $f$,

$F(x) := P((- \infty, x ])\quad \forall x \in \mathbb{R}$

eindeutig bestimmt."


Da mir noch nicht so ganz klar ist, wie in diesem Abschnitt der Maßeindeutigkeitssatz angewendet wurde, versuche ich ihn jetzt 1:1 anzuwenden.



Der Maßeindeutigkeitssatz aus der Vorlesung lautet:


"Sei $\mathcal{E}$ ein $\cap$ - stabiles System von Teilmengen von $\Omega$.

Sind $\mu_{1}$ und $\mu_{2}$ zwei Maße auf $(\Omega, \mathcal{F}(\mathcal{E}))$, die auf $\mathcal{E}$ übereinstimmen und $\sigma$ - endlich in $\mathcal{E}$ sind, so stimmen sie auf $\mathcal{F}(\mathcal{E})$ überein."






Wir haben eine nicht - leere Menge $\Omega = \mathbb{R}$ und ein System von Teilmengen von $\Omega = \mathbb{R}$, nämlich  $\mathcal{E} := \{ (- \infty, x ]\; \vert \; x \in \mathbb{R} \}$.

Die Menge $\mathcal{E}$ ist $\cap$ - stabil, denn für zwei beliebige reelle Zahl $x$ und $y$ gilt:

$ (- \infty, x ] \cap  (- \infty, y ] =  (- \infty, \max(x, y) ] \in \mathcal{E}$


Nun haben wir zwei Maße $\mu_{1} = P$ und $\mu_{2} = ?$ auf  $(\mathbb{R}, \mathcal{F}(\{ (- \infty, x ]\; \vert \; x \in \mathbb{R} \}) =  \mathcal{B})$  gegeben, die auf $\{ (- \infty, x ]\; \vert \; x \in \mathbb{R} \}$ übereinstimmen und $\sigma$ endlich in $\{ (- \infty, x ]\; \vert \; x \in \mathbb{R} \}$ sind.

 

Damit gilt nach dem Eindeutigkeitssatz $\mu_{1} = P = \mu_{2}$.



Daraus werde ich aber noch nicht wirklich schlau, denn:


1.) Warum gilt $\mathcal{F}((- \infty, x ]\; \vert \; x \in \mathbb{R} \}) = \mathcal{B}$ ? Ich kann mir das irgendwie nicht vorstellen...


2.) Was genau soll $\mu_{2}$ sein in diesem Kontext ? $\mu_{1}$ ist das W - Maß $P$, aber $\mu_{2}$ ?

3.) Und wie kann ich sehen, das $\mu_{1} = P$ $\sigma$ - endlich in $(- \infty, x ]\; \vert \; x \in \mathbb{R} \}$ ist ?



Wie man sehen kann, habe ich noch Probleme, den Maßeindeutigkeitssatz hier anzuwenden.

Ich hoffe, mir kann jemand helfen und mich aufklären.



Bedanke mich im Voraus.

mfg, Felix





Weiter unten habe ich alle Definitionen aus der Vorlesung abgetippt,  die für diesen Abschnitt nötig sind.






































Definition: Erzeugte $\sigma$ - Algebra, Borelsche $\sigma$ - Algebra
____


Sei $\mathcal{E}$ ein beliebiges System von Teilmengen einer Menge $\Omega \neq \emptyset$ und sei $\Sigma$ das System aller $\sigma$ - Algebren $\mathcal{F}$ in $\Omega$ mit $\mathcal{E} \subseteq \mathcal{F}$.

Dann ist $\mathcal{F}(\mathcal{E}) := \bigcap\limits_{\mathcal{F} \in \Sigma} \mathcal{F} := \{ A \; \vert \; A \in \mathcal{F}\; \text{für alle }\; \mathcal{F} \in \Sigma \}$

die kleinste $\sigma$ - Algebra, die alle Mengen aus $\mathcal{E}$ enthält, also $\mathcal{E} \subseteq \mathcal{F}(\mathcal{E})$.


$\mathcal{F}(\mathcal{E})$ heißt die von $\mathcal{E}$ erzeugte $\sigma$ - Algebra.


Ist speziell $\mathcal{E}$ das System aller offenen Mengen eines topologischen Raumes $\Omega$, so heißt $\mathcal{F}(\mathcal{E})$ Borelsche $\sigma$ - Algebra.

Im Fall $\Omega = \mathbb{R}^{n}$ (mit den gewöhnlichen offenen Mengen) wird diese mit $\mathcal{B}_{n}$ bezeichnet.

Man schreibt kurz $\mathcal{B}$ für $\mathcal{B}_{1}$.



Maßeindeutigkeitssatz
______


Sei $\mathcal{E}$ ein $\cap$ - stabiles System von Teilmengen von $\Omega$.

Sind $\mu_{1}$ und $\mu_{2}$ zwei Maße auf $(\Omega, \mathcal{F}(\mathcal{E}))$, die auf $\mathcal{E}$ übereinstimmen und $\sigma$ - endlich in $\mathcal{E}$ sind, so stimmen sie auf $\mathcal{F}(\mathcal{E})$ überein.





Definition: Messbare Abbildung, Zufallsvariable
____

Seien $(\Omega, \mathcal{F})$ und $(\Omega', \mathcal{F}')$ zwei Messräume.


a. Eine Abbildung  $f: \Omega \rightarrow \Omega'$ heißt $\mathcal{F} - \mathcal{F'}$ - messbar, falls $f^{- 1} (A') \in \mathcal{F}\quad \forall A' \in \mathcal{F}'$.


b. Sei auf $(\Omega, \mathcal{F})$ ein Wahrscheinlichkeitsmaß $P$ definiert.

Eine Abbildung $X: \Omega \rightarrow \Omega'$ heißt eine ($\Omega', \mathcal{F}')$ - Zufallsvariable auf dem Wahrscheinlichkeitsraum $(\Omega, \mathcal{F}, P)$, falls $X$  $\mathcal{F} - \mathcal{F}' $ - messbar ist.

c.  Falls $(\Omega', \mathcal{F}') = (\mathbb{R} , \mathcal{B})$, spricht man von reellen messbaren Abbildungen bzw. Zufallsvariablen.

Falls $(\Omega', \mathcal{F}') = (\mathbb{R}^{*} , \mathcal{B}^{*})$ spricht man von numerischen messbaren Abbildungen bzw. Zufallsvariablen.

Dabei sind $\mathbb{R}^{*} := \mathbb{R} \cup \{ - \infty, \infty \}$  und  $\mathcal{B}^{*} := \{ B, B \cup \{ - \infty \},  B \cup \{  \infty \},  B \cup \{ - \infty, \infty \}\; \vert \; B \in \mathcal{B} \}$






Definition: Bildmaß
___


Sei $(\Omega, \mathcal{F}, \mu)$ ein \textbf{Maßraum}, $(\Omega', \mathcal{F}')$ ein Messraum und $f$ eine $\mathcal{F} - \mathcal{F}'$ - messbare Abbildung.


Durch $\mu_{f}(A') := \left ( \mu \circ f^{- 1} \right ) (A') \quad \forall A' \in \mathcal{F}'$ ist ein Maß $\mu_{f}$ auf $(\Omega', \mathcal{F}')$ definiert.\newline

Das Maß $\mu_{f}$ heißt das Bildmaß von $\mu_{f}$ unter $f$ oder auch das durch $f$ transponierte Maß.


Definition: Verteilung
____


Falls $(\Omega, \mathcal{F}, P)$ ein Wahrscheinlichkeitsraum und $X$ eine reelle (numerische) Zufallsvariable ist, dann ist das transportierte Maß $P_{X}$


$P_{X}(B) := P(X \in B) = P(X^{- 1}(B))$, $B \in \mathcal{B} (\mathcal{B}^{*})$

offenbar ein W - Maß auf $(\mathbb{R},  \mathcal{B})$ (bzw. $(\mathbb{R}^{*},  \mathcal{B}^{*})$).

$P_{X}$ heißt die Verteilung der Zufallsvariablen $X$.

Gruppen
Universität/Hochschule 
Thema eröffnet von: Felixg
G hat ein nicht-triviales Zentrum  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-05-12
Felixg
J

Hallo, Matheplanet!


Ich sitze seit zwei Tagen an diesem Beweis und verstehe einfach nicht, wie man auf manche Schritte kommt.

Ich habe so einen Knoten im Kopf, der sich einfach nicht mehr lösen will. Vielleicht kann mir jemand da draußen helfen.




Satz
_____



Sei $G$ eine endliche Gruppe und $p$ der kleinste Primteiler der Gruppenordnung. Die Gruppe $G$ habe einen Normalteiler $N$ der Ordnung $p$.

Die Gruppe $G$ hat dann ein nicht-triviales Zentrum.



Beweis
_______

Aus der Vorlesung ist bekannt, dass $G$ auf sich selbst durch Konjugation, also durch die Abbildung $*: G \times G \rightarrow G, (g, h) \mapsto ghg^{- 1}$, operiert.


Weil $N$ ein Normalteiler von $G$ ist, gilt $g * n = gng^{- 1} \in N$ für alle $g \in G$ und $n \in N$.

Durch Einschränkung von $*$ auf $G \times N$ erhalten wir also eine Abbildung $G \times N \rightarrow N$, die weiterhin die Eigenschaften einer Gruppenoperation besitzt.

Also operiert $G$ auch auf $N$ durch Konjugation.

Sei nun $R' \subseteq N$ ein Repräsentantensystem der Bahnen dieser Operation und $F$ die Fixpunktmenge.

Auf Grund der Bahnengleichung gilt

$\vert N \vert = \vert F \vert + \sum\limits_{n \in R'} (G : G_{n})$,

wobei  $G_{n}$ jeweils die Stabilisatorengruppe von $n$ bezeichnet.

Die Zahlen $(G : G_{n})$ sind Teiler $> 1$ der Gruppenordnung $\vert G \vert$, insbesondere gilt $(G : G_{n}) \ge p$ für alle $n \in R'$.

Die Fixpunktmenge $F$ ist genau der Durchschnitt $N \cap Z(G)$ von $N$ mit dem Zentrum $Z(G)$ der Gruppe.
Ein Element $n \in N$ liegt nämlich genau dann in $F$, wenn $gng^{- 1} = n$ für alle $g \in G$ gilt.

Dies ist nach Definition äquivalent dazu, dass $n$ in $Z(G)$ liegt.

Die Menge $ N \cap Z(G)$ enthält zumindest das Neutralelement $e$ der Gruppe.

Aus $\vert N \vert = p$ und $(G : G_{n}) \ge p$ für alle $n \in R'$ folgt deshalb $R' = \emptyset$ und $N = F = N \cap Z(G)$, also $N \subseteq Z(G)$.

Wegen $\vert N \vert = p \ge 1$ ist $Z(G)$ also nicht trivial.





Das war der Beweis zum Satz. Ich versuche mal zu erklären, wo ich meine Probleme habe.



Frage 1:

Wie folgert man aus der Bahnengleichung die Gleichheit  $\vert N \vert = \vert F \vert + \sum\limits_{n \in R'} (G : G_{n})$ ?

Wir haben die Bahnengleichung in der Vorlesung so eingeführt:



Bahnengleichung:

Sei $M$ endlich und $G \times M \rightarrow M$ eine Operation.

Sei noch $R \subset M$ eine Teilmenge, die aus jeder Bahn genau ein Element enthält.

Dann gilt $\vert M \vert = \sum\limits_{r \in R } \frac{\vert G \vert}{\vert Stab(r) \vert}$



Es will einfach nicht in meinem Kopf rein, dass die Gleichung gilt...

Wie kommt plötzlich $\vert F \vert$ ins Spiel ?

Kann mir das jemand freundlicherweise etwas ausführlicher erklären ?



Frage 2:


Warum sind die Zahlen $(G : G_{n})$ Teiler $> 1$ der Gruppenordnung $\vert G \vert$ ? Und warum gilt  $(G : G_{n}) \ge p$ für alle $n \in R'$ ?


Das habe ich auch nicht verstanden. Das mag vielleicht daran liegen, dass ich die obige Gleichung nicht verstanden habe.



Frage 3:


Warum folgt aus $\vert N \vert = p$ und $(G : G_{n}) \ge p$ für alle $n \in R'$, dass $R' = \emptyset$ und deshalb $N = F = N \cap Z(G)$ gilt ?



Ich wäre mega froh, wenn mir jemand helfen könnte.


Bedanke mich mal im Voraus👍


Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Konvexe Menge von Wahrscheinlichkeitsvektoren  
Beitrag No.9 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-05-02
Felixg
J

Super, dann werde ich meine Begründungen an dieser Stelle kürzer fassen!

Vielen Dank für deine Zeit und Mühe, du hast mir sehr geholfen!😄


Schönen Abend noch,

Felix

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Konvexe Menge von Wahrscheinlichkeitsvektoren  
Beitrag No.7 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-05-02
Felixg
J

Hallo 🙃

Dass nun $y, z \in W_{n}$ und $x = \frac{1}{2} (y + z)$ gilt, ist nach dieser Konstruktion einleuchtend. Habe das eben geprüft👍

Es bleibt die Frage, warum es ein solches $\epsilon$ gibt.

Dann unterscheide ich mal 2 Fälle.

1. Fall: $x_{1} \ge s$

Für diesen Fall reicht es, einen Faktor $\epsilon \in (0, 1)$ zu betrachten, damit $x_{1} - \epsilon s$ positiv ist und $x_{1} + \epsilon s < 1$ gilt. Warum ?


Falls $x_{1} = s$ gilt, dann ist $\epsilon s  < x_{1}$, da $\epsilon$ kleiner 1 ist. Damit ist $x_{1} - \epsilon s$ sicher positiv.

Da $x_{1} + s = 1$ und $\epsilon s  < s$ gilt, gilt auch $x_{1} + \epsilon s < 1$ .


Und für den Fall $x_{1} > s$ ist $x_{1} - \epsilon s$ trivialerweise auch positiv und $x_{1} + \epsilon s < 1$ gilt auch.


2. Fall: $x_{1} < s$


Hier lösen wir die Ungleichung $\epsilon s < x_{1}$ und erhalten dann $\epsilon < \frac{x_{1}}{s}$

$ \frac{x_{1}}{s}$ ist ganz sicher aus $(0,1)$, da der Nenner nach Voraussetzung größer als der Zähler ist.

Damit gilt $x_{1} - \epsilon s > 0$ und $x_{1} + \epsilon s < 1$


Das wäre meine Begründung. Geht bestimmt auch kürzer.





Ich zeige noch, dass die Einheitsvektoren extreme Punkte sind, wobei es da nicht viel zu rechnen gibt...


Sei $e_{i}$ der $i$ - te Einheitsvektor und $y, z \in W_{n}$.


Angenommen, es gelte $e_{i} = \frac{1}{2} (y + z)$



Dann gilt $\frac{1}{2} (y_{k} + z_{k}) = 0$ für $k = 1,2, \ldots, i - 1, i + 1, \ldots, n$ und $\frac{1}{2} (y_{i} + z_{i}) = 1$



Betrachte $\frac{1}{2} (y_{k} + z_{k}) = 0$ für $k = 1,2, \ldots, i - 1, i + 1, \ldots, n$.


Die Fälle $y_{k} = - z_{k}$ und $z_{k} = - y_{k}$ können nicht auftreten, da alle Komponenten von $y$ und $z$ positiv sind.

Es kann nur der Fall $y_{k} = z_{k} = 0$ auftreten.



Betrachte nun $\frac{1}{2} (y_{i} + z_{i}) = 1$

Die Fälle $y_{i} > z_{i}$ und $y_{i} < z_{i}$ mit $y_{i} + z_{i} = 2$ können nicht auftreten, da sonst $y_{i} > 1$ oder $z_{i} > 1$ gelten würde, was nicht sein darf, da die Summe der Komponenten von $y$ und $z$ niemals größer als 1 werden kann.


Also kann nur der Fall $y_{i} = z_{i} = 1$ auftreten.

Damit sind die Einheitsvektoren extreme Punkte.


Passt der Beweis so ?



lg, Felixg

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Konvexe Menge von Wahrscheinlichkeitsvektoren  
Beitrag No.5 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-05-01
Felixg
J

2020-04-29 09:38 - StrgAltEntf in Beitrag No. 3 schreibt:
Der allgemeine Fall für \(0\leq\alpha\leq1\) ist ja sogar noch einfacher zu rechnen, als du es mit \(\alpha=\frac1k\) gemacht hast. Probier es mal!





Okay, ich versuche noch einen anderen Weg 😄

Ich denke, es müsste nicht schwierig sein, zu zeigen, dass alle Komponenten $\alpha x+(1-\alpha)y$ größer oder gleich 0 sind..



2020-04-29 09:38 - StrgAltEntf in Beitrag No. 3 schreibt:


Außerdem musst du für a) noch zeigen, dass alle Komponenten von \(\alpha x+(1-\alpha)y\) größer oder gleich 0 sind.

Bei b) mal ein Beispiel.

Es ist \((\frac13,\frac23)\in W_2\). Dies ist kein Einheitsvektor, sollte also nach Aufgabenstellung kein Extrempunkt sein. Tatsächlich gilt \((\frac13,\frac23)=\frac12(0,1)+\frac12(\frac23,\frac13)\) und \((0,1),(\frac23,\frac13)\in W_2\).

Versuche, dieses Beispiel zu verallgemeinern.






So, ich denke, man kann das Beispiel noch mehr verallgemeinern, aber ich habe mir das so gedacht:


Sei $a := (\alpha_{1}, \alpha_{2}) \in W_{2}$.

Ich möchte $a$ in der Form

$ (\alpha_{1}, \alpha_{2}) = \frac{1}{2} (0, 1) + \frac{1}{2} (z_{1}, z_{2})$ darstellen.


Dazu bestimmen wir $z_{1}$:

Wir lösen die Gleichung $\frac{1}{2} \cdot z_{1} = \alpha_{1}$ und erhalten $z_{1} = 2 \alpha_{1}$.


Dann bestimmen wir $z_{2}$:

Dazu lösen wir die Gleichung $\frac{1}{2} + \frac{1}{2} z_{2} = \alpha_{2} $ und erhalten $z_{2} =  2 \alpha_{2} - 1$


Dann haben wir $ (\alpha, 1 - \alpha) = \frac{1}{2} (0, 1) + \frac{1}{2} (2 \alpha_{1}, 2 \alpha_{2} - 1)$



Das ganze gilt nur für $\alpha_{1} \le 0.5$.

Für $\alpha_{1} > 0.5$, ist $2 \alpha_{1} > 1$ und die Summe der Komponenten aus von $z$ wäre nicht mehr $1$.

Daher nehmen wir für diesen Fall statt $(0, 1)$ den Vektor $(1, 0)$ und machen das selbe Spiel nochmal.





Und ganz allgemein würde ich das so machen:


Sei $a := (\alpha_{1}, \alpha_{2}, \ldots, \alpha_{n}) \in W_{n}$.

Falls $\sum\limits_{i = 1}^{n - 1} \alpha_{i} \le 0.5$


Dann ist $(\alpha_{1}, \alpha_{2}, \ldots, \alpha_{n}) = \frac{1}{2} (0, 0, \ldots, 1) + \frac{1}{2} (2 \alpha_{1}, 2 \alpha_{2}, \ldots, 2\alpha_{n} - 1)$



Und falls z.B. die Summe von $\alpha_{1}, \alpha_{2}, \ldots \alpha_{n} \le 0.5$ und $\alpha_{n - 1} \ge 0.5$, dann ist


$(\alpha_{1}, \alpha_{2}, \ldots, \alpha_{n}) = \frac{1}{2} (0, 0, \ldots,1, 0) + \frac{1}{2} (2 \alpha_{1}, 2 \alpha_{2}, \ldots, 2\alpha_{n - 1}, 2\alpha_{n})$



und so weiter...


Das Problem ist, dass dies noch allgemeiner geht, denn was ist, wenn keine Komponente größer gleich $0.5$ ist ?


Aber ich weiß nicht, wie ich das noch verallgemeinern soll... Nach den ganzen Aufgaben raucht mein Kopf schon 🤯


Denke ich in die richtige Richtung bzw. hast du noch einen Tipp für mich ?


2020-04-29 09:38 - StrgAltEntf in Beitrag No. 3 schreibt:

Außerdem muss gezeigt werden, das die Einheitsvektoren Extrempunkte sind. Sei also etwa \((1,0)=\frac12y+\frac12z\) mit \(y,z\in W_2\). Du musst nun folgern, dass \(y=z=(1,0)\). Sei dazu \(y=(a,b),z=(c,d)\). Nun du ...



Jap, das stimmt. Ich probiere das gleich aus. Habe mir nur die ganze Zeit Gedanken zu der Verallgemeinerung deines Beispiels gemacht.

Danke für den Tipp!

lg, Felix

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Konvexe Menge von Wahrscheinlichkeitsvektoren  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-05-01
Felixg
J

Hallo!

Sorry, dass ich erst jetzt antworte, aber ich war parallel mit einem anderen Übungsblatt beschäftigt und es hat mir extrem viel Zeit gekostet. Hoffe, du nimmst es mir nicht übel...


Ich muss meine Ergebnisse richtig aufschreiben und meine Fragen formulieren, dann melde ich mich!

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Konvexe Menge von Wahrscheinlichkeitsvektoren  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-29
Felixg
J

Hallo!

2020-04-28 12:55 - StrgAltEntf in Beitrag No. 1 schreibt:
Hallo Felixg,

2020-04-28 12:48 - Felixg im Themenstart schreibt:
Da $\alpha$ die Zahlen zwischen $0$ und $1$ annehmen kann, kann man $\alpha$ durch $\alpha = \frac{1}{k}$ darstellen für $k \in \mathbb{N}$.

Diese Darstellung gibt es i. a. nicht. Es könnte ja auch etwa \(\alpha=\frac23\) oder \(\alpha=\frac1\pi\) sein.


Mist, es war so offensichtlich... Aber wenn $k \in \mathbb{R}$, müsste es dann passen.

Dann müsste sich an meiner Lösung bei der a) nichts ändern, oder ?


Hättest du vielleicht ein Tipp zur b) ?


Viele Grüße, Felix
 

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Felixg
Konvexe Menge von Wahrscheinlichkeitsvektoren  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-28
Felixg
J


Hallo, gegeben ist die Aufgabe:


Für $n \in \mathbb{N}$ sei $W_{n} := \{x := (x_{1}, \ldots, x_{n}) \in \mathbb{R}{n}\; \vert \; x_{1}, \ldots, x_{n} \ge 0, x_{1} + \ldots + x_{n} = 1 \}$ die Menge der $n$ - dimensionalen Wahrscheinlichkeitsvektoren.

a) Zeige, dass $W_{n}$ konvex ist, d.h. es gilt $\alpha x + (1 - \alpha)y \in W_{n}$ für alle $x,y \in W_{n}$ und alle $\alpha \in [0, 1]$

b) Ein Punkt $x$ einer konvexen Menge in $K$ heißt extrem, wenn die Gleixhung $x = (y +  z)/2$ mit $y,z \in K$ nur dann gilt, wenn $y = z = x$.

Zeige, dass die menge $E_{n}$ aller extremen Punkte von $W_{n}$ gegeben ist durch $E_{n} = \{ e_{1}, \ldots, e_{n} \}$, wobei $e_{k}$ der $k$ - te Einheitsvektor in $\mathbb{R}^{n}$ ist, $k \in \{1, \ldots, n \}$.



ich komme bei einer Teilaufgabe nicht weiter, nämlich bei der b).


Die a) denke ich zu haben:

Seien $x, y \in W_{n}$ und $\alpha \in [0, 1]$.

Da $\alpha$ die Zahlen zwischen $0$ und $1$ annehmen kann, kann man $\alpha$ durch $\alpha = \frac{1}{k}$ darstellen für $k \in \mathbb{N}$.


Betrachte $\alpha \cdot x_{i} +  (1 - \alpha) \cdot y_{i} = \frac{x_{i}}{k} + \frac{(k - 1) y_{i}}{k} = \frac{x_{i} k + y_{i} k (k - 1)}{k^{2}} $ für $i = 1, 2, \ldots, n$


Und bilde dann die Summe von $i = 1$ bis $n$. Dann ergibt sich


$\sum\limits_{i = 1}^{n} \frac{x_{i} k + y_{i} k (k - 1)}{k^{2}}  = \sum\limits_{i = 1}^{n} \frac{ k (x_{i}  + y_{i} (k - 1))}{k^{2}} = \sum\limits_{i = 1}^{n} \frac{ x_{i}  + y_{i} (k - 1)}{k} = \frac{1}{k} \sum\limits_{i = 1}^{n} x_{i}  + y_{i} (k - 1) = \frac{1}{k} \left (  \sum\limits_{i = 1}^{n} x_{i}  + \sum\limits_{i = 1}^{n} y_{i} (k - 1)  \right )$


$ = \frac{1}{k} \left (  \sum\limits_{i = 1}^{n} x_{i}  + (k - 1) \sum\limits_{i = 1}^{n} y_{i}  \right ) =  \frac{1}{k} \left (  1  + (k - 1) \right )  = \frac{1}{k} + \frac{k - 1}{k} = 1$

Damit ist die a) gezeigt.





Nur bei der b) habe ich keinen konkreten Ansatz.

ich habe mir gedacht, ich nehme ein $x \notin E_{n}$ und zeige dann, dass die Äquivalenz nicht gelten muss.

Aber irgendwie weiß ich nicht so recht, wie ich das anstellen soll.


Würde mich für Tipps mega freuen👍



Lg,

Felix

Körper und Galois-Theorie
Universität/Hochschule 
Thema eröffnet von: Felixg
Wenn L/K endlich, dann ist L = K(a_1, ..., a_n)  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-10
Felixg
J

Hallo, danke für deine Antwort!

\(\endgroup\)
\(\begingroup\)\(\newcommand{\End}{\operatorname{End}} \newcommand{\id}{\operatorname{id}} \newcommand{\GL}{\operatorname{GL}} \newcommand{\im}{\operatorname{im}} \newcommand{\sgn}{\operatorname{sgn}} \newcommand{\d}{{\rm d}}\)2020-04-10 19:43 - Nuramon in Beitrag No. 1 schreibt:
Hallo,

zu (i):
$L$ ist nach Voraussetzung ein $n$-dimensionaler $K$-Vektorraum. $1,\alpha,\ldots, \alpha^n\in L$ sind $n+1$ Vektoren, also linear abhängig.

Dein Beweis von (ii) ist richtig.
\(\endgroup\)


Oh man, ich habe in einer komplett anderen Richtung gedacht. Jetzt macht alles Sinn. Vielen Dank!😁👍

Viele Grüße,

Felix

Körper und Galois-Theorie
Universität/Hochschule 
Thema eröffnet von: Felixg
Wenn L/K endlich, dann ist L = K(a_1, ..., a_n)  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-10
Felixg
J


Hallo, ihr bräuchte eine kleine Hilfe beim Beweis eines Satzes im Skript, den ich verstehen möchte.😄


Behauptung:

Sei $L/K$ eine endliche Körpererweiterung, so ist $L/K$ algebraisch und es gilt $L = K(\alpha_{1}, \ldots,  \alpha_{n})$ für geeignete $\alpha_{1}, \ldots, \alpha_{n} \in L$.


Beweis:


Zu zeigen ist:

$(i)$ $L/K$ ist algebraisch

$(ii)$ $ L = K(\alpha_{1}, \ldots, \alpha_{n})$.


Zu $(i)$
________

Den Beweis zu $(i)$ habe ich aus dem Skript.


Es sei $n := \vert L : K \vert$ der Grad der Körpererweiterung $L/K$ und es sei $\alpha \in L$ beliebig.

Die $n + 1$ Elemente $1, \alpha, \alpha^{2}, \ldots, \alpha^{n} \in L$

müssen linear abhängig über $K$ sein.

______________________________________________________________________

Frage:

Warum müssen die Elemente $1, \alpha, \alpha^{2}, \ldots, \alpha^{n} \in L$ abhängig über $K$ sein ?


Mein erster Anhaltspunkt war ein Korollar im Skript:

"Sei $L/K$ eine Körpererweiterung und $\alpha \in L$ sei algebraisch über $K$ mit $n = deg(\mu_{\alpha})$.

Dann ist die Menge $B = \{ 1, \alpha, \alpha^{2}, \ldots, \alpha^{n - 1} \}$ eine Basis von $K(\alpha)$ als $K$ - Vektorraum und $\vert K(\alpha) : K \vert = deg(\mu_{\alpha}) = n$."


Aber mein Korollar lässt sich nur anwenden, wenn $\alpha \in L$ algebraisch über $K$ mit $n = deg(\mu_{\alpha})$.

Aber wir dürfen für den Beweis nicht annehmen, dass $\alpha \in L$ algebraisch über $K$ ist.

Außerdem muss nicht unbedingt aus $\vert K(\alpha) : K \vert = n$ folgen, dass auch $deg(\mu_{\alpha}) = n$ gilt, oder ? Im Korollar wird nur die Umkehrung bestätigt.

______________________________________________________________________




Also gibt es eine nicht - triviale Linearkombination $a_{0} \cdot 1 + a_{1} \cdot \alpha + \ldots + a_{n} \cdot \alpha^{n} = 0$

und somit ist $0 \neq f = a_{0} + a_{1} \cdot t + \ldots + a_{n} \cdot t^{n} \in K[\; t \; ]$ ein Nicht- Null- Polynom in $K[\; t \; ]$ mit $f(\alpha) = 0$.

Also ist $\alpha$ algebraisch über $K$.




Zu (ii)
_______


Die $(ii)$ habe ich selber versucht zu lösen und bräuchte nur einen Feedback, ob meine Lösung passt🙂



Es bleibt zu zeigen, dass $ L = K(\alpha_{1}, \dots, \alpha_{n})$ für geeignete  $\alpha_{1}, \ldots, \alpha_{m} \in L$ gilt.



"$\supseteq$"  Sei $M := \{\alpha_{1}, \ldots, \alpha_{m} \} \subseteq L$ eine Menge. Per Definition ist $K(M)$ der kleinste Zwischenkörper von $L/K$, der $M$ enthält.

Das heißt, dass $K(M)$ ein Teilkörper von $L$ ist. Also gilt $K(M) \subseteq L$.



"$\subseteq$"


Wählen wir $m = n$ und $\alpha_{1}, \ldots, \alpha_{n} \in L$ als $K$ - Vektorraumbasis von $L$.

Jedes Element in $L$ wird dann von den Elementen $\alpha_{1}, \ldots, \alpha_{n} \in L$ erzeugt.


Die Menge $K(\alpha_{1}, \ldots, \alpha_{n})$ enthält die Elemente $\alpha_{1}, \ldots, \alpha_{n}$, also die Basis von $L$.

Und da $K(\alpha_{1}, \ldots, \alpha_{n})$  ein Vektorraum über $K$ ist, liegen alle Linearkombinationen der Elemente $\alpha_{1}, \ldots, \alpha_{n}$ in  $K(\alpha_{1}, \ldots, \alpha_{n})$.

Da jedes Element von $L$ von $\alpha_{1}, \ldots, \alpha_{n}$ erzeugt wird, liegt jedes Element von $L$ auch in $K(\alpha_{1}, \ldots, \alpha_{n})$.

Damit gilt auch $L \subseteq K(\alpha_{1}, \ldots, \alpha_{n})$



Passt das ? Ich bin davon überzeugt, aber es kann sein, dass ich mich auch irre.




Ich bedanke mich im Voraus.

Viele Grüße,

Felix

Körper und Galois-Theorie
Universität/Hochschule 
Thema eröffnet von: Felixg
Basis einer Körpererweiterung  
Beitrag No.8 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-10
Felixg
J

Kein Problem, das kann natürlich passieren.

Vielen Dank für deine Hilfe und Geduld, du hast mir sehr geholfen :)


Ich wünsche dir einen schönen Tag!

lg, Felix

Körper und Galois-Theorie
Universität/Hochschule 
Thema eröffnet von: Felixg
Basis einer Körpererweiterung  
Beitrag No.6 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-04
Felixg
J

Sorry, ich war gestern zu müde.

2020-04-03 20:52 - DavidM in Beitrag No. 5 schreibt:


Doch, kannst du. Um herauszufinden, wie, kannst du denselben Trick benutzen wie vorhin im Beweis. Mit der Notation, die ich in #1 benutzt habe, ist jetzt $\beta=\alpha^{23}+\alpha^5+1$ und $f=x^{23}+x^5+1$. Das Polynom teilst du jetzt mit Rest durch das Minimalpolynom, also $f=q \mu_\alpha +r$ mit $\deg(r) \leq 1$ und dann ist $\alpha^{23}+\alpha^5+1=r(\alpha)$.



Ah, jetzt verstehe ich das.

Das heißt, der Rest $r(\alpha)$ ist die Darstellung von $f$ durch die Basis $B = \{1, \alpha, \ldots, \alpha^{n - 1} \}$.

Dankeschön!





Für $(ii)$ habe ich folgenden Ansatz.



Ich muss zeigen, dass die Elemente $1, \alpha, \ldots, \alpha^{n - 1}$ linear unabhängig in $K(\alpha)$ sind.


Sei dazu eine beliebige Linearkombination $a_{0} \cdot 1 + a_{1} \cdot t + \ldots + a_{n - 1} \cdot \alpha^{n - 1} = 0$

der Null mit Koeffizienten $a_{0}, \ldots, a_{n - 1} \in K$.

Dann ist $f = a_{0} \cdot 1 + a_{1} \cdot t + \ldots + a_{n - 1} \cdot t^{n - 1} \in K[t]$ mit $f(\alpha) = 0$ und

 $deg(f) \le n - 1 < deg(\mu_{\alpha})$.


Nun erzeugt das Minimalpolynom den Kern des Einsetzhomomorphismus und $f$ ist im Kern des Einsetzhomomorphismus enthalten.

Das Minimalpolynom $\mu_{\alpha}$ ist das kleinste Polynom ungleich 0 kleinsten Grades, der im Kern enthalten.

Und wenn $f$ einen Grad hat, der echt kleiner als der Grad der Minimalpolynoms ist, dann muss $f$ das Nullpolynom sein, der nur das Nullpolynom hat einen kleineren Grad als das Minimalpolynom.


Es gilt also $f = 0$ und damit   $a_{0} = \ldots = a_{n - 1} = 0$.

Somit ist $B$ auch linear unabhängig.


Die Basis $B$ von $K(\alpha)$ hat $n$ Elemente, also gilt $\vert K(\alpha) : K \vert = deg(\mu_{\alpha}) = n$.

Und da die Körpererweiterung $K(\alpha) / K$ endlichen Grad hat, ist $K(\alpha) / K$ endlich.



Passt mein Beweis so ?


Falls ja, dann bedanke ich mich schon mal.

Du hast mir sehr geholfen!🤗😁


Viele Grüße, Felix

Körper und Galois-Theorie
Universität/Hochschule 
Thema eröffnet von: Felixg
Basis einer Körpererweiterung  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-03
Felixg
J

Aber in $K[\alpha]$ sind z.B. auch Ausdrücke wie $\alpha^{23} + \alpha^{5} + 1$ enthalten.  


Und da kann das Minimalpolynom von $\alpha$ über $K$ beispielsweise auch nur $2$ sein, oder ?

Daher könnte ich $\alpha^{23} + \alpha^{5} + 1$ nicht mit $1$ und $\alpha$ darstelllen.

Wo liegt mein Denkfehler ?🤔


Viele Grüße, Felix

Körper und Galois-Theorie
Universität/Hochschule 
Thema eröffnet von: Felixg
Basis einer Körpererweiterung  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-04-03
Felixg
J

Danke für die schnelle Antwort!

Du hast das super verständlich erklärt.😁 Damit wäre auch die zweite Inklusion klar.


Das Ergebnis ist also, dass $Lin \left ( 1, \alpha, \ldots, \alpha^{ n - 1}  \right ) =  \{  f(\alpha)\; \vert \; f \in K[t] \}$


Das heißt, dass ich beispielsweise mit den Elementen $1, \alpha, \alpha^{2}$ Ausdrücke der Form $ a_{0} \cdot 1 + a_{1} \cdot \alpha + a_{2} \cdot \alpha^{2} + a_{3} \cdot \alpha^{3} $ darstellen kann?


Viele Grüße, Felix
 

Sie haben sehr viele Suchergebnisse
Bitte verfeinern Sie die Suchkriterien

[Die ersten 20 Suchergebnisse wurden ausgegeben]
Link auf dieses Suchergebnis hier
(noch unbestimmt viele Suchergebnisse)

-> [Suche im Forum fortsetzen]
 
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]

used time 0.079738