|
Link auf dieses Suchergebnis hier
|
Forum |
|
Erfahrungsaustausch | |
|
Einen wunderschönen guten Abend,
wie man an der Frage erkennen kann, sucht der unwissende Student Lorenz ein paar Tipps für seinen Studienverlauf wobei er versucht dieses maximal sinnvoll zu gestalten.
Ich studiere Informatik und etwas Mathematik (Nebenfach + Zusatzmodule) und belege seit ein paar Semestern mehr und mehr Module in Richtung KI, Machine Learning, Machine Intelligence etc.
Nun möchte ich mein Nebenfach + Zusatzmodulbereich etwas füllen, natürlich mit sinnvollen Stoff und es kommen folgende Module aus Interesse in Frage:
- Wahrscheinlichkeitstheorie 2: hier
- Wahrscheinlichkeitstheorie 3: hier
- Statistik: hier
- stochastische Modelle: hier
- Lineare und Kombinatorische Optimierung: hier
- Diskrete Optimierung: hier
Nun ist mir bewusst, dass die ersten 4 natürlich eher passen, aber haben den die letzten beiden überhaupt Anwendungen in der Wirtschaft (ja ich weiß UNI $\neq$ reelle Welt) bzw. in meinen Schwerpunkt bzw. bringen Sie mir überhaupt was, außer zusätzlichen Wissen?
Ich entschuldige mich gleich mal für die wahrscheinlich (kann man das berechnen?) doofe Frage, nur sehe ich gerade selbst den Wald vor lauter Bäumen nicht und würde gerne eine externe Meinung einholen, die Profs fragt man ja besser nicht, denn die verkaufen einen sonst noch ein Auto zum Modul:).
LG
Lorenz
|
|
Stochastik und Statistik | |
 |
Hallo Diophant,
danke für diesen Weg, ich hatte die andere Methode $\pi P = pi$ total vergessen.
Ist diese denn grundsätzlich besser als $(P-I)^T pi= 0$ ?
LG
Lorenz |
|
Stochastik und Statistik | |
 |
Hallo zippi,
leider ist mir das nicht so klar, deswegen habe ich so etwas auch nie in betracht gezogen, könntest du vlt noch etwas mehr darauf eingehen, warum die Stationäre Verteilung für $\pi_2 = 0$ sein muss?
LG
Lorenz
[Die Antwort wurde nach Beitrag No.1 begonnen.] |
|
Stochastik und Statistik | |
 |
Hallo,
ich habe die folgen Matrix $
P = \left( \begin{matrix} 1 & 0 & 0 \\ \frac{1}{4} & \frac{1}{2} & \frac{1}{4} \\ 0 & 0 & 1 \end{matrix} \right) $
einer Markov Kette und soll deren Invariante Verteilung bestimmen:
Mit $(P-I)^T \pi = 0$ folgt
$$(P-I)^T \pi = \left( \begin{matrix} 0 & \frac{1}{4} & 0 \\ 0 & -\frac{1}{2} & 0 \\ 0 & \frac{1}{4} & 0 \end{matrix} \right) \pi = 0$$
bzw.
$$(P-I)^T \pi = \left( \begin{matrix} 0 & \frac{1}{4} & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{matrix} \right) \pi = 0$$
Nun soll die Lösung $L=\{(1-p,0,p)|p\in[0,1]\}$ sein, aber dies macht mein Hirn nicht mit. Wie kommt man darauf? Oder besser gefragt, wie löst man das LGS? Klar man benötigt eigentlich 2 Parameter, da man zwei Nullzeilen hat, aber ich hatte bisher noch nie den Fall, dass die erste Spalte Null war, wie geht man damit um?
LG
Lorenz |
|
Logik, Mengen & Beweistechnik | |
 |
Einen schönen guten Tag,
ich entschuldige mich jetzt schon einmal für die dümmliche Frage aber ich verstehe die Definition samt beispiel nicht richtig.
Wir haben Definiert:
Seien $C, C_{1}, C_{2}$ Klauseln. $C$ ist eine Resolvente von $C_{1}, C_{2},$ wenn es ein Literal $L$ gibt mit $L \in C_{1}$ und $\bar{L} \in C_{2}$ und $C=\left(C_{1} \backslash\{L\}\right) \cup\left(C_{2} \backslash\{\bar{L}\}\right)$
Wir sagen, dass $C_{1}$ und $C_{2}$ resolviert werden und schreiben $\operatorname{Res}\left(C_{1}, C_{2}\right)$ für die Menge der Resolventen von $C_{1}$ und $C_{2}$
Und ein Beispiel:
Seien $C_{1}:=\left\{X_{1}, X_{2}, \neg X_{4}\right\}$ und $C_{2}:=\left\{\neg X_{2}, X_{3}\right\} .$ Dann ist die
Beispiel 3.8 Resolvente von $C_{1}$ und $C_{2}$ eindeutig und ergibt $\left\{X_{1}, X_{3}, \neg X_{4}\right\}$
So wo ist mein Problem:
Mein Problem liegt daran, $L \in C_{1}$ und $\bar{L} \in C_{2}$ und $C=\left(C_{1} \backslash\{L\}\right) \cup\left(C_{2} \backslash\{\bar{L}\}\right)$ zu verstehen. Ich kann es zwar umsetzen, aber die Definition macht mir Probleme. Was passiert durch den Backslash "C_{1} \backslash" genau.
Tut mir leid, wenn die Frage bzw das Problem nicht sofort ersichtlich ist, es ist ziemlich schwierig zu erklären. |
|
Matrizenrechnung | |
 |
Hallo:)
Ach ich bin ein Dussel, ich habe das \0 falsch interpretiert, dies soll ja nur den 0 Vektor darstellen.
Ich danke dir, somit ist 1 immer wahr und 2 unwahr |
|
Matrizenrechnung | |
 |
Guten Abend,
ich habe die folgenden beiden Aussagen und ich soll sagen ob diese gelten oder nicht.
1: $\mathbf{C}^{\top} \mathbf{C} \quad \operatorname{mit} \mathbf{C}=(\mathbf{a}, \mathbf{b}), \quad \mathbf{a}, \mathbf{b} \in \mathbb{R}^{3} \backslash \mathbf{0}, \quad \mathbf{a} \neq \lambda \mathbf{b}, \quad \lambda \in \mathbb{R}$
2: $\mathbf{C} \mathbf{C}^{\top} \quad \operatorname{mit} \mathbf{C}=(\mathbf{a}, \mathbf{b}), \quad \mathbf{a}, \mathbf{b} \in \mathbb{R}^{3} \backslash \mathbf{0}, \quad \mathbf{a} \neq \lambda \mathbf{b}, \quad \lambda \in \mathbb{R}$
Ich habe nun erst einmal ein Beispiel $ C= \left(\begin{matrix}2&3\\2&3\\2&3\end{matrix}\right) $ gerechnet und in beiden Fällen habe ich keine positive Definitheit herausbekommen, somit sind die Aussagen widerlegt?
Ich meine, macht das $\quad \mathbf{a} \neq \lambda \mathbf{b}, \quad \lambda \in \mathbb{R}$ hier überhaupt Sinn? Ich kann doch immer solch ein $\lambda$ finden, somit kann es keine Matrix $\mathbf{C}=(\mathbf{a}, \mathbf{b})$ geben, oder?
Tut mir leid, wenn ich hier etwas übersehe, aber für mich macht es gerade keinen Sinn. Es wäre nett, wenn sich dies mal jemand mit mehr Erfahrung anschauen würde, was weiß schon ein Ersti wie ich xD
LG
Lorenz |
|
|