Die Mathe-Redaktion - 23.08.2019 14:14 - Registrieren/Login
Auswahl
ListenpunktHome
ListenpunktAktuell und Interessant ai
ListenpunktArtikelübersicht/-suche
ListenpunktAlle Links / Mathe-Links
ListenpunktFach- & Sachbücher
ListenpunktMitglieder / Karte / Top 15
ListenpunktRegistrieren/Login
ListenpunktArbeitsgruppen
Listenpunkt? im neuen Schwätz
ListenpunktWerde Mathe-Millionär!
ListenpunktAnmeldung MPCT Sept.
ListenpunktFormeleditor fedgeo
Schwarzes Brett
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden. Mitglieder können den Matheplanet-Newsletter bestellen, der etwa alle 2 Monate erscheint.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 482 Gäste und 17 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von Dixon Orangenschale
Physik » Atom-, Kern-, Quantenphysik » Beweis, dass quantenmech. Bindungszustände in 1D nicht entartet sind.
Druckversion
Druckversion
Autor
Universität/Hochschule J Beweis, dass quantenmech. Bindungszustände in 1D nicht entartet sind.
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2019-07-17


Hallo alle zusammen,

(i) hier wird in Aufgabe 3 gezeigt, dass quantenmechanische Bindungszustände in einem 1D-Potentialtopf nicht entartet sind. Ich befürchte, dass ich die Aussage noch nicht ganz verstehe. Wie kann denn ein Zustand entartet sein, ist damit (wie beim Wasserstoff in 3D) gemeint, dass sobald die Energien gleich sind, die Zustände auch gleich sind. Aber die Energien wovon, hat etwa jeder Zustand $|\Psi\rangle$ eine Energie?

(ii) Ich habe noch eine allgemeine Frage: Kann man sagen, dass $\hat H = i\hbar \partial_t$? Bei einem Kommilitonen von mir wurde das von einem studentischen Korrektor als falsch angestrichen, aber warum?


Gruß,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2019-07-17

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Hallo Neymar,

i) Nicht jeder Zustand hat eine eindeutige Energie. Aber unter den Energieeigenzuständen, also den Zuständen mit eindeutiger Energie, gibt es keine zwei linear unabhängigen, welche die selbe Eigenenergie besitzen. Entartung bedeutet aber gerade, dass es zwei linear unabhängige Eigenzustände gibt, die denselben Eigenwert besitzen. So wie in der linearen Algebra ein Eigenwert entartet ist, wenn der zugehörige Eigenraum eine höhere Dimension als 1 hat, es also mindestens zwei linear unabhängige Eigenvektoren mit diesem Eigenwert gibt.

ii) Ich denke, das ist ein wenig Ansichtssache. Einerseits gilt ja die Schrödingergleichung $\hat H\ket\Psi=\i\hbar\partial_t\ket\Psi$. Wenn das für jeden Zustand gilt, dann könnte man sagen, dass $\hat H\equiv\i\hbar\partial_t$. Andererseits betrachtet man streng genommen ja den Hilbertraum $\mathcal H=L^2(\R^3,\C)$, und nicht $L^2(\R^3\times\R,\C)$. Dann wird für die Zeitentwicklung jedem Zeitpunkt ein Zustand zugeordnet durch eine Abbildung $T:\R\to\mathcal H$ mit der Abbildungsvorschrift $t\mapsto T(t)=:\ket{\Psi_t}$ mit $\i\hbar\partial_t T(t)=\hat H T(t)$. Also operiert $\i\hbar\partial_t$ gar nicht auf $\mathcal H$, sondern auf $C^1(\R,\mathcal H)$. Der Hamiltonoperator operiert hingegen auf $\mathcal H$. So gesehen kann er also nicht wirklich identisch mit $\i\hbar\partial_t$ sein.

Viele Grüße,
Vercassivelaunos
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, vom Themenstarter, eingetragen 2019-07-18


Hallo Vercassivelaunos.

(ii) Das ist gut. ;-)

(i)
 Nicht jeder Zustand hat eine eindeutige Energie. Aber unter den Energieeigenzuständen, also den Zuständen mit eindeutiger Energie, gibt es keine zwei linear unabhängigen, welche die selbe Eigenenergie besitzen. Entartung bedeutet aber gerade, dass es zwei linear unabhängige Eigenzustände gibt, die denselben Eigenwert besitzen.

$>$ Entschuldige die blöde Frage, aber nehmen wir mal an, ein Zustand $|\psi\rangle$ erfülle die zeitabhängige SG, erfüllt diese dann auch automatisch die zeitunabhängige SG? Und: Falls der Zustand die zeitunabhängige SG erfüllt, kann man dann sagen, dass der Zustand $|\psi\rangle$ eine eindeutige Energie hat bzw. ein ,,Energieeigenzustand" ist, wie du es formuliert hast?

Aha, aber wenn wir Energieeigenzustände betrachten, dann sind diese im 1D immer nicht-entartet, aber im 3D (wieder das Wasserstoffatom) gibt es durchaus linear unabhängige Eigenzustände mit derselben Energie. Okay, das wusste ich nicht.

(iii) Eine Sache stört mich aber noch, um ehrlich zu sein: Im Beweis müssen wir annehmen, dass $\psi_1(x) \ne 0 \ne \psi_2(x) \ \forall x \in \mathbb{R}$, da wir durch diese Funktionen auch teilen. Aber die Eigenzustände (würdest du hier auch schon von Energieeinzuständen sprechen?) beim unendlich hohen Potentialtopf sind ja $\sin$-Funktionen, die ja an bestimmten Stellen auch Null sind. Das heißt also, dass der Beweis eigentlich strenggenommen nicht auf dieses Problem zutreffen würde, auch wenn beim unendlich hohen Potentialtopf die Bindungszustände (zufällig) nicht entartet sind, oder?


(iv) Neue Frage: In zwei Übungsaufgaben (u.a. allem bei der Herleitung des Translationsoperators) hatten wir eine Funktion $f(x+x_0)$ gegeben ($x_0$ konstant, soweit ich weiß) und haben dann geschrieben: \[f(x + x_0) = \sum_{n = 0}^{\infty} \frac{f^{(n)}(x)}{n!}x_0^n\]
Ähm, die Begründung war Taylorentwicklung um $x + x_0 = x$, wobei ich mich frage, seit wann der Entwicklungspunkt variabel sein darf? Kann man das vielleicht mathematisch besser/sauberer beschreiben?


Gruß und danke im Voraus,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, eingetragen 2019-07-18

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
(i) Nein, das gilt nicht. Die zeitabhängige Schrödingergleichung wird von einer Abbildung $\R\to\mathcal H,~t\mapsto\ket{\Psi(t)}$ erfüllt. Die zeitunabhängige jedoch von einem Zustand $\ket\Psi\in\mathcal H$. Was man allerdings sagen kann: Wenn $\Psi(t_0)$ die zeitunabhängige Schrödingergleichung erfüllt, dann erfüllen auch alle Zustände $\Psi(t)$ für beliebiges $t$ die selbe zeitunabhängige Schrödingergleichung.
Ich könnte aber einen Zustand $\ket\Psi(t_0):=\ket{E_1}+\ket{E_2}$ mit den Eigenzuständen zu zwei verschiedenen Energien $E_1,E_2$ nehmen, und mit ihm als Anfangsbedingung die zeitabhängige Schrödingergleichung lösen. Man würde $\ket{\Psi(t)}=\exp(-\i E_1t)\ket{E_1}+\exp(-\i E_2 t)\ket{E_2}$ erhalten (mit $\hbar=1$). Dann erfüllt $t\mapsto\ket{\Psi(t)}$ die zeitabhängige Schrödingergleichung, aber für kein $t$ erfüllt $\ket{\Psi(t)}$ irgendeine zeitunabhängige Schrödingergleichung.

(iii) Mit deinem Einwand hast du Recht. Der Beweis funktioniert nicht für jedes Potential, und ich kann dir auch ein Potential geben, bei dem die Aussage falsch ist:

\[V(x)=\begin{cases}\infty&x<-b\\
0&-b\leq x<-a\\
\infty& -a\leq x<a\\
0&a\leq x<b\\
\infty&x\geq b
\end{cases}\]
mit $0<a<b$. Das ist ein doppelter unendlicher Potentialtopf, und man kann für jede erlaubte Energie zwei linear unabhängige Zustände finden: Einen, bei dem links ein Sinus/Cosinus ist und rechts nichts, und einen, bei dem umgekehrt rechts der Sinus/Kosinus mit gleicher Wellenlänge ist, aber links nichts. Beide lösen die Schrödingergleichung zur selben Eigenenergie und sind linear unabhängig.
Es muss also eine weitere Bedingung an das Potential gestellt werden. Ich vermute mal, die Stellen an denen es nicht divergiert müssen zusammenhängend sein.
Dann würde man wahrscheinlich zeigen können, dass die Menge der Nullstellen jeder Lösung endlich ist. Dann kann man nämlich argumentieren, dass zwar $\Psi_1(x)$ und $\Psi_2(x)$ erstmal überall identisch sind, außer an den Nullstellen. Da die Wellenfunktion aber stetig sein muss, und die stetige Fortsetzung eindeutig ist, müssen die Wellenfunktionen auch auf der endlichen Nullstellenmenge identisch sein.

(iv) Es ist egal, welchen Teil des Arguments du als konstant annimmst, und welchen als variabel. Die Funktion unterscheidet nicht zwischen "$x_0$ festhalten, $x$ variieren" oder "$x$ festhalten, $x_0$ variieren". Die Funktion hängt nur davon ab, was $x+x_0$ ist, sonst nichts. Welcher der beiden Summanden als Konstante gesehen wird, macht keinen Unterschied. Man tut hier also einfach so, als wäre $x_0$ variabel und $x$ konstant. Mathematisch gesehen gibt es da keinen Unterschied, weil Zahlen keine metaphysische Eigenschaft "variabel" oder "konstant" haben.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, vom Themenstarter, eingetragen 2019-07-18


ad (iii). Das hatte mich, um ehrlich zu sein, auch schon gewundert, dass man überhaupt keine Voraussetzung(en) an das $V(x)$ hat, hatte dann aber in Richtung der Delta-Distribution gedacht, ob denn so etwas erlaubt sei ...

ad (iv). Okay, das ist gut zu wissen! Ich erinnere mich gerade auch, dass unser Ü-Gruppenleiter gesagt hatte, dass man sich das $y := x+x_0$ auch ruhig als Variable vorstellen kann und wir nun um $x$ entwickeln, und laut deiner Antwort können wir ja auch $x$ als konstant ansehen.

Neue Frage (v). Griffiths hat in seinem Lehrbuch den unendlich hohen Potentialtopf  hergeleitet und dabei $x \in [0, L]$ (L: Länge bzw. Breite des Topfes) betrachtet. Konkreter Zustand:
\[\Psi(x,0) = \begin{cases} Ax, \qquad \quad 0 \leq x \leq a/2, \\ A(a-x), \quad a/2 \leq x \leq a  \end{cases}\]
Nun soll man die Konstante $A$ bestimmen, $\Psi(x,t)$ finden und die Wahrscheinlichkeit angeben, dass $E_1$ gemessen wird?

Die Lösung gibt es hier, Seite 4 unten  Also wir hatten mal in der Vorlesung als Postulat:

Die Wahrscheinlichkeit, im Zustand $\psi$ den Eigenwert $\alpha$ einer Observablen $A$ zu messen, ist \[ w(\alpha) = \sum_{ \{a: \ a \ \text{ist EV zu} \ \alpha\} } \left|\langle a | \psi \rangle\right|^2. \] Aber was ist dann unser Zustand $\psi$ hier? Das $\Psi(x,0)$ oder $\Psi(x,t)$? Macht es allgemein einen Unterschied?





  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, eingetragen 2019-07-18

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Was dein $\ket\psi$ ist, kommt auf die Formulierung der Frage an. Wenn es heißt, man soll $\Psi(x,t)$ bestimmen und die Wahrscheinlichkeit, $E_1$ zu messen, dann würde ich sagen, dass nach der Wahrscheinlichkeit zu einem beliebigen Zeitpunkt gefragt ist, also $\ket\psi=\ket{\Psi(x,t)}$.
In diesem einen Spezialfall macht es aber tatsächlich keinen Unterschied, da es um die Energieeigenwerte geht, und deren Messwahrscheinlichkeiten ändern sich nicht mit der Zeit, da die jeweiligen Eigenzustände nur einen Phasenfaktor erhalten, der keinen Einfluss auf das Betragsquadrat hat - das ist die Energieerhaltung der Quantenmechanik.
Für eine allgemeine Observable macht es aber sehr wohl einen Unterschied. Man kann sich zum Beispiel für das Zwei-Zustands-System die Energieeigenzustände $\ket{E_1}$ und $\ket{E_2}$ anschauen, und eine Observable $A$ mit den Eigenzuständen $\ket{a_1}=\frac{1}{\sqrt2}(\ket{E_1}+\ket{E_2})$ und $\ket{a_2}=\frac{1}{\sqrt2}(\ket{E_1}-\ket{E_2})$. Wenn das System zu Beginn im Zustand $\ket{a_1}$ ist, dann wird im Zustand $\ket{\Psi(t=0)}$ mit Wahrscheinlichkeit 100% $a_1$ gemessen, und mit 0% $a_2$. Aber sobald $\frac{E_2}{\hbar}t=\frac{E_1}{\hbar}t+(2n+1)\pi$ ist (was irgendwann garantiert der Fall ist), wird

\[\begin{align*}\ket{\Psi(t)}&=\e^{-\i\frac{E_1}{\hbar}t}\ket{E_1}+\e^{-\i\frac{E_2}{\hbar}t}\ket{E_2}\\
&=\e^{\i\frac{E_1}{\hbar}t}(\ket{E_1}+\underbrace{\e^{-\i(2n+1)\pi}}_{=-1}\ket{E_2})\\
&=\e^{\i\frac{E_1}{\hbar}t}\ket{a_2}
\end{align*}\]
sein. Und dann sind die Messwahrscheinlichkeiten genau umgedreht.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, vom Themenstarter, eingetragen 2019-07-18


Stimmt, das sind ja genau die Rabi-Oszillationen. Es ist also in der Tat im Allgemeinen $\langle \hat A \rangle_{|\Psi(t)\rangle} \ne \langle \hat A\rangle_{|\Psi(t = 0)\rangle}$.

Bei den Rabi-Oszillationen (Zwei-Niveau-System) ist also die Energieerhaltung verletzt, oder?

In diesem einen Spezialfall macht es aber tatsächlich keinen Unterschied, da es um die Energieeigenwerte geht, und deren Messwahrscheinlichkeiten ändern sich nicht mit der Zeit, da die jeweiligen Eigenzustände nur einen Phasenfaktor erhalten, der keinen Einfluss auf das Betragsquadrat hat - das ist die Energieerhaltung der Quantenmechanik.

$>$ So, wie du das hier formuliert hast, hört sich das für mich nämlich so an, aber vielleicht verstehe ich da auch etwas falsch.


Eine Sache noch dazu: Bei den Rabi-Oszillationen ist laut Wikipedia der Hamiltonian zeitabhängig. Hast du ja auch ein Beispiel parat, wo $\langle \hat A \rangle_{|\Psi(t)\rangle} \ne \langle \hat A\rangle_{|\Psi(t = 0)\rangle}$ für zeitunabhängigen Opeartor $\hat A$? Das würde mich sehr interessieren.


Gruß,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.7, eingetragen 2019-07-18

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Es hat zwar was mit Rabi-Oszillationen zu tun (die ungestörten Zustände sind keine Eigenzustände des gestörten Hamiltonoperators - und selbst wenn, dann sowieso nicht zu jedem Zeitpunkt, da er zeitabhängig ist), aber das hier würde man nicht als Rabi-Oszillation bezeichnen.
Bei der Rabi-Oszillation ist auch nicht wirklich die Energieerhaltung verletzt, da diese Oszillation eine externe Kraft voraussetzt, man hat also gar kein geschlossenes System. Würde man die Quelle der externen Kraft miteinbeziehen, dann wären die Eigenzustände des Gesamt-Hamiltonians wieder stationär.

Ein Beispiel für einen zeitunabhängigen Operator, dessen Messwahrscheinlichkeiten nicht erhalten sind, habe ich dir schon gegeben. Die von mir definierte Observable $A$ mit den Eigenzustände $A\ket{a_1}=a_1\ket{a_1},A\ket{a_2}=a_2\ket{a_2}$ ist nicht zeitabhängig.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.8, vom Themenstarter, eingetragen 2019-07-19


Hallo Vercassivelaunos,

ich glaube, ich verstehe mittlerweile dein Beispiel. Mit $|E_i\rangle$ sind gerade die Zustände gemeint, die die time-indepent Schrödinger equation lösen. Sehr gut.

Ich habe mich noch gestern mit einem Kommilitonen unterhalten und wir haben mittlerweile noch ein Beispiel, wo $\langle \Psi(0) | \hat A | \Psi(0) \rangle \ne \langle \Psi(t) | \hat A | \Psi(t) \rangle$ für zeitunabhängigen Operator $\hat A$: Gauß'sches Wellenpaket, $\hat A = \hat X$. Das Wellenpaket ,,zerfließt" ja im Ortsraum.


Okay, ich stelle noch eine Frage und schließe dann den Thread, denke ich. :-)

Es geht um die Aufgabe 8 von hier.

Also ich finde, dass es physikalisch Sinn ergibt, dass \[\Psi = \begin{cases} Ae^{ikx} + Be^{-ikx} \qquad x < 0 \\ Fe^{-kx} \qquad x > 0 \end{cases}, \] aber wenn ich die time-independent Schrödinger-equationfür $x < 0$ lösen möchte, dann bekomme ich doch (rechnerisch) $\psi(x) = Ae^{-\kappa x} + Be^{\kappa x}$ raus, oder nicht, da das Potential dort ja gerade $= 0$ ist.


// EDIT: Ich glaube, ich habe mittlerweile eine Idee, wo mein Denkfehler liegt: In der Lösung wir ja $k = \sqrt{2mE}/\hbar$ definiert. Ich dachte, dass dies nicht geht, da ich von $E < 0$ ausgegangen bin. Dies war z.B. auch in Aufgabe 7b) verlangt (siehe Link). Aber hier ist dann $E < 0$ nicht möglich, so wie ich verstehe. Ich weiß aber noch nicht ganz, warum ...


Gruß,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.9, eingetragen 2019-07-19

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Das Gaußsche Wellenpaket ist tatsächlich ein gutes Beispiel dafür: Der Ortsoperator vertauscht nicht mit dem Hamiltonoperator, und dann sind die Messwahrscheinlichkeiten nicht erhalten.

Wegen deines nächsten Beispiels: Allgemein sieht die Lösung der stationären Schrödingergleichung mit Energie $E$ in einem konstanten Potential $V(x)=V$ so aus:

\[\Psi(x)=A\exp\left(\frac{\sqrt{2m(V-E)}}{\hbar}x\right)+B\exp\left(-\frac{\sqrt{2m(V-E)}}{\hbar}x\right)\]
Wenn $V\geq E$, dann ist die Wurzel reell, und man erhält zwei Exponentialfunktionen. Wenn $V<E$, dann ist die Wurzel imaginär, und man erhält komplexe Exponentialfunktionen. In letzterem Fall definiert man sich einfach $k:=\left\vert\frac{\sqrt{2m(V-E)}}{\hbar}\right\vert=\frac{\sqrt{2m(E-V)}}{\hbar}$ und kann dann die Lösung übersichtlicher als $A\e^{\i kx}+B\e^{-\i kx}$ schreiben.

Davon abgesehen muss man dann halt schauen, dass sonstige Bedingungen, die man an die Wellenfunktion so hat, erfüllt sind. $E<0$ ist in deinem Fall verboten, weil dann $\Psi(x)\propto \e^{\kappa x}$, $\kappa\in\R^+$ sein muss (der Teil mit $\e^{-\kappa x}$ entfällt, da die Funktion sonst für $x\to-\infty$ divergiert). Das passt dann aber nicht mehr mit dem rechten Teil der Funktion zusammen, denn man kann die Koeffizienten nicht mehr so wählen, dass die Funktionen an der Sprungstelle des Potentials stetig differenzierbar sind. Das müssen sie aber an einem endlichen Potentialsprung sein, sonst ist das keine erlaubte Wellenfunktion. Deshalb ist $E<0$ bei dir verboten.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.10, vom Themenstarter, eingetragen 2019-07-19


Das müssen sie aber an einem endlichen Potentialsprung sein, sonst ist das keine erlaubte Wellenfunktion. Deshalb ist $E<0$ bei dir verboten.

$>$ Stimmt, Stetigkeit ist ja kein Problem, aber stetig diff.bar ist nicht erreichbar, denn sonst ergibt sich als Bedingung \[k = -k,\] was wir nicht wollen.

// Edit: Ich habe gerade noch Probleme, den Reflexionskoeffizienten $R$ im Fall $E > V_0$ zu berechnen. Vor allem: Ich erhalte \[\Psi(x) = \begin{cases} Ae^{ikx} + Be^{-ikx} \qquad x < 0 \\ Ce^{-ilx} + De^{ilx} \qquad x > 0. \end{cases}\] Das sollte so stimmen, wenn man $k$ bzw. $l$ ,,richtig" definiert, Wikipedia hat es nämlich auch so, aber die Stetitskeits-Forderungen ergeben dann ja nur: \[A + B \overset{!}{=} C + D \qquad A - B \overset{!}{=} C - D\]
// EditEdit: Okay, man bekommt ja propagierende Wellen raus, und die eine bewegt sich nach rechts, die andere nach links. Und jetzt setzt man $D = 0$, weil wir $\mathbf{annehmen}$, dass keine Welle von rechts kommt. Also eine Annahme. Na gut, dann sollte ich den Reflexionskoeffizienten gleich hinkriegen.


Gegeben sei ein ortsunabhängiger Operator $\hat X = \hat X(t)$. Dann wissen wir aufgrund des verallgemeinerten Ehrenfest-Theorems, dass falls dieser Operator zeitunabhängig ist (ich kenne nur einen zeitabhängigen Operator bis jetzt abgesehen von Hamiltonians, und das ist der Zeitentwicklungsoperator), dann ist dieser eine Erhaltungsgröße, falls $[H, \hat A] = 0$ bzw. allgemeiner $\left\langle [H, A] \right\rangle_{|\Psi\rangle} = 0$. Aber deine Aussage bezüglich des Kommutators verstehe ich (noch) nicht:

Das Gaußsche Wellenpaket ist tatsächlich ein gutes Beispiel dafür: Der Ortsoperator vertauscht nicht mit dem Hamiltonoperator, und dann sind die Messwahrscheinlichkeiten nicht erhalten.

Was hat das eine mit dem anderen zu tun? Evtl. im Heisenberg-Bild?



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.11, eingetragen 2019-07-19

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Also ja, das siehst du richtig, dass $D=0$ hier als Annahme getroffen werden muss. Das war für $E<V_0$ nicht nötig, da dann sowieso $D=0$ wegen der Divergenz war.

Zu Erhaltungsgrößen:
Also erstmal, der Zeitentwicklungsoperator ist zwar zeitabhängig, aber er ist keine Observable, da er nicht hermitesch ist (seine Eigenwerte sind nicht reell: $U(t)\ket{E_n}=\exp(-\i E_nt/\hbar)\ket{E_n}$ ). Den sollte man bei solchen Betrachtungen, insbesondere beim Ehrenfest-Theorem, erstmal ausnehmen.
Aber prinzipiell ist eine Observable erhalten, wenn ihr Operator mit dem Hamiltonian kommutiert. Mehr habe ich eigentlich nicht gesagt. Hier ist es eben der Ortsoperator, der nicht mit $H$ kommutiert. Das hat nichts speziell mit einem gaußschen Wellenpaket zu tun, aber an diesem sieht man halt, wie du sagst, dass $X$ nicht erhalten ist.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.12, vom Themenstarter, eingetragen 2019-07-21


Hallo Vercassivelaunos,

entschuldige meine späte Rückmeldung. Also man kann allgemein zeigen, dass \[ \left[ \hat H, \hat{A} \right] =0 \ \wedge \ \hat{A}(t) = \hat A \Rightarrow \langle A \rangle_{|\Psi(t)\rangle} = \langle A \rangle_{|\Psi(0)\rangle},\] wobei $|\Psi(t)\rangle$ ein $\underline{\text{beliebiger}}$ (normierter) Zustand sei.


Sei gegrüßt,
Neymar

 



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.13, eingetragen 2019-07-21


Ich bin mir gerade unsicher, ob das eine Feststellung oder eine Frage ist. Es stimmt jedenfalls, als Korollar des Ehrenfest-Theorems, wie du ja schon erwähnt hast.

Übrigens kannst du auch auf die Erwähnung der Normiertheit verzichten. Mein QM-Prof hat damals sehr passend erklärt, dass wenn man irgendwann vor ausgebildeten Physikern seine Ergebnisse präsentiert kein Zuhörer sagen wird: „Aber Herr Kollege, Sie müssen den Zustand noch normieren!“ Der weiß nämlich, dass der Zustand normiert ist.



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.14, vom Themenstarter, eingetragen 2019-07-22


Also man kann allgemein zeigen, dass \[ \left[ \hat H, \hat{A} \right] =0 \ \wedge \ \hat{A}(t) = \hat A \Rightarrow \langle A \rangle_{|\Psi(t)\rangle} = \langle A \rangle_{|\Psi(0)\rangle},\] wobei $|\Psi(t)\rangle$ ein $\underline{\text{beliebiger}}$ (normierter) Zustand sei.

$>$ Vielleicht ist es wirklich trivial, aber ich kriege den Beweis nicht hin, denn: Nach Voraussetzung gilt \[ \frac{d}{dt}\langle \hat A \rangle_{\psi} = \frac{d}{dt} \left\langle \psi(t) | \hat A | \psi(t) \right\rangle_{\psi} = 0 \Rightarrow \left\langle \psi(t) | \hat A | \psi(t) \right\rangle = \text{const.}\] Falls das gilt, wie folgt dann daraus, dass $\left\langle \psi(0) | \hat A | \psi(0) \right\rangle = \text{const.}$ ? Immerhin lassen sich $\psi(t)$ und $\psi(0)$ ja gar nicht so einfach transformieren, also jeder Teil der Reihe oder Linearkombination von $\psi(0)$ muss ja mit $\exp\left( \frac{-iE_nt}{\hbar} \right)$ multipliziert werden, um $\psi(t)$ zu erhalten.


Beste Grüße,
Neymar





  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.15, eingetragen 2019-07-22

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Wenn $\braketop{\psi(t)}{A}{\psi(t)}$ konstant ist, dann heißt das ja nichts anderes, als dass der Ausdruck für alle $t$ gleich ist. Insbesondere auch für $t=0$.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.16, vom Themenstarter, eingetragen 2019-07-22


Das ist gut, ich hatte einfach zu sehr in die Richtung $\exp\left( \dots \right)$ gedacht ... Du hast natürlich Recht, danke dir.

Lustigerweise habe ich eben noch versucht, das Ehrenfest-Theorem zu beweisen, und komme nicht mehr weiter, denn ich erhalte unter einem meiner Integrale:  \[ \overline{\hat H \psi}. \] Also hier auf Seite 6 ist ein möglicher Weg, aber ich habe noch nach einem anderen Weg gesucht: \[ \overline{\hat H \psi} = \overline{\lambda \cdot \psi} \overset{\star}{=} \lambda \cdot \overline{\psi} = \hat H \overline{\psi},\] wobei in $(\star)$ die Symmetrie von $\hat H$ ausgenutzt wurde.

Aber ich weiß nicht, ob man die zeitunabhängige Schrödinger-Gleichung nutzen darf. Vielleicht wäre dann $\lambda = E$, aber das wäre ja hier egal.
Aber dann habe bzw. hätte ich das Problem, dass ich dann Folgendes habe: \[ \int_{\mathbb{R}^3} \left( \frac{i}{\hbar}\hat H \overline{\psi} \cdot \hat A \psi + \overline{\psi} \hat A \cdot \left( -\frac{i}{\hbar}\hat H \psi \right) \right) d^3x \] Das sieht nicht so gut aus.


Gruß,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
index_razor
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 06.03.2016
Mitteilungen: 166
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.17, eingetragen 2019-07-22


Nein, du darfst nicht die zeitunabhängige Schrödingergleichung benutzen. Die gilt nur für stationäre Zustände, das Ehrenfest-Theorem gilt aber für Zustände mit beliebiger Zeitabhängigkeit.  

Warum versuchst du das in der Ortsdarstellung zu beweisen?  Das einfachste ist es wohl

\(\frac{d}{dt}\langle \psi(t), A(t)\psi(t)\rangle\)

nach der Produktregel auszurechnen.  Das führt im wesentlichen auf die Rechnung in den lecture notes. Was genau möchtest du anders machen?



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.18, vom Themenstarter, eingetragen 2019-07-22


Ja, da hast du Recht. Ich gebe zu, dass ich (noch) nicht so ganz verstanden habe, warum \[ (\mathcal H \psi)^{\star} = \psi^\star \mathcal H^{\star} \] gelten soll. Vor allem: Was soll $\mathcal H^{\star}$ sein, wenn das $\star$ für komplexe Konjugation steht? Und ist der Ausdruck unter einem Integral zu verstehen, so habe ich mir das nämlich erklärt.


Beste Grüße,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
index_razor
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 06.03.2016
Mitteilungen: 166
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.19, eingetragen 2019-07-22


Ja, ich glaube das siehst du schon richtig.  

\( (H\psi)^\star = \psi^\star H^\star\)

ergibt wenig Sinn, außer in einer konkreten Darstellung (z.B der Ortsdarstellung).  



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 599
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.20, eingetragen 2019-07-22

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Es ist eine meiner Meinung nach etwas nervige Notation, aber hier ist mit $H^\ast$ der zu $H$ adjungierte Operator gemeint (den ich lieber als $H^\dagger$ bezeichne). Das erkennt man zum Beispiel an der Argumentation in dem von dir verlinkten Skript, es sei $H=H^\ast$ weil $H$ hermitesch ist. Hermitizität heißt aber definitiv nicht, dass der Operator nur reelle Einträge hat - siehe zum Beispiel die Pauli-Matrizen.
Wenn man $\bra{\psi}$ als das Funktional $\ket\phi\mapsto\int\psi^\ast\phi\d V=:\braket{\psi}{\phi}$ versteht, dann passt das auch. Dann ist nämlich wegen $\braket{H\psi}{\phi}=\braket{\psi}{H^\dagger\phi}$:

\[\int (H\psi)^\ast\phi\d V=\int\psi^\ast H^\dagger\phi\d V,\]
also ist "unterm Integral" $(H\psi)^\ast=\psi^\ast H^{\dagger}$, bzw. rechts $\ast$ statt $\dagger$ in der Notation aus dem von dir verlinkten Skript. In Bra-Ket-Notation $\bra{H\psi}=\bra\psi H^\dagger$.

($\d V$ nur damit die Notation darstellungsunabhängig ist - das ist dann durch $\d x^3$ oder $\d p^3$ zu ersetzen.)

[Die Antwort wurde nach Beitrag No.18 begonnen.]
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 451
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.21, vom Themenstarter, eingetragen 2019-07-23


Sehr gut, so verstehe ich das, wie ihr beiden das geschrieben habt!

Vielen Dank euch beiden!


Gruß,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
Neymar hat die Antworten auf ihre/seine Frage gesehen.
Neymar hat selbst das Ok-Häkchen gesetzt.
Neues Thema [Neues Thema]  Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2019 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]