Matroids Matheplanet Forum Index
Moderiert von Fabi Dune ligning
Lineare Algebra » Determinanten » Determinante Einheitsmatrix minus Vektorprodukt
Druckversion
Druckversion
Autor
Universität/Hochschule J Determinante Einheitsmatrix minus Vektorprodukt
InOMatrix
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 17.04.2019
Mitteilungen: 31
Aus: Berlin, Deutschland
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2019-04-17


Hallo,
ich benötige eine kleine Hilfestellung bei folgender Aufgabe:
Für zwei Vektoren $a,b\in\mathbb{R}^n$ und die Einheitsmatrix $I_n\in\operatorname{Mat}_{n\times n}(\mathbb{R})$ gilt
\[\operatorname{det}(I_n-a\cdot b^T)=1-\langle a,b\rangle,\] wobei $\langle\cdot,\cdot\rangle$ das Standardskalarpodukt sei.

Ich habe schon überlegt, eine Induktion über die Dimension zu machen, indem ich den Laplace'schen Entwicklungssatz anwende. Dabei entstehen aber noch Untermatrizen anderer Gestalten, für die ich keine vernünftige Vermutung für deren Determinanten habe.

Da die Aufgabe in der Optimierung kam, dachte ich vielleicht eine $LU$-Zerlegung oder ähnliches zu machen (also mit Mitteln aus der Numerik), darüber ließe sich eine Determinante leicht berechnen - aber das erscheint mir auch nicht sinnvoll, da die Einträge zum Teil $=0$ sein könnten und dann noch pivotisiert werden müsste, dabei also kein klarer Algorithmus zustande käme.

Vielleicht denke ich auch zu kompliziert, evtl. gibt es da eine ganz elegante Methode. Kann mir da vielleicht jemand einen kleinen Hinweis geben?

Vielen Dank vorab,

InOMatrix



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 3906
Aus: Rosenfeld, BW
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2019-04-17

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}}\)
Hallo InOMatrix und herzlich Willkommen auf Matroids Matheplanet!

Viellleicht hilft dir schon ein Hinweis darauf, dass in deinem Thread-Titel eine Fehler steckt. Bei dem Produkt \(a\cdot b^T\) handelt es sich nämlich nicht um ein Vektorprodukt, sondern um das sog. Dyadische Produkt.

Mit den Eigenschaften dieses Produkts und ein klein wenig Tensoralgebra sollte sich dieser Beweis eigentlich ziemlich übersichtlich gestalten lassen.


Gruß, Diophant
\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 1078
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, eingetragen 2019-04-17


2019-04-17 09:44 - InOMatrix im Themenstart schreibt:
... indem ich den Laplace'schen Entwicklungssatz anwende.

Das ist ein sehr guter Ansatz.

Damit dieser sich mühelos in die Tat umsetzen lässt, solltest du dir zuerst überlegen, dass du O.B.d.A. $a=(\alpha,0,\ldots,0)^T$ mit $\alpha\in\mathbb R$ annehmen darfst, weil beide Seiten der zu zeigenden Gleichung invariant unter orthogonalen Abbildungen sind.

--zippy



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
InOMatrix
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 17.04.2019
Mitteilungen: 31
Aus: Berlin, Deutschland
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, vom Themenstarter, eingetragen 2019-04-17


@Diophant Ich habe mich da mal hineingelesen. Das Problem ist, dass wir in der Vorlesung diese Begriffe nie genutzt hatten. Daher weiß ich gar nicht, was ich dann an evtl. Hilfsaussagen verwenden dürfte, wenn ich einen Ansatz darüber wähle (kann man sicher nachfragen, aber versuche ich es erst mal mit bekannten Mitteln).

Ich habe mir vorhin nochmal 30min Denkzeit gegeben und mir überlegt, die Formel für einen Spezialfall zeigen zu können, um den allgemeinen darauf irgendwie zurückführen zu können. Das hat geklappt, dabei bin ich auf folgendes Beweiskonzept gekommen: Ich führe eine Induktion über die Dimension $n$. Dann zeige ich:

(1) Die Formel gilt für den Spezialfall $b_1=0$, wobei $b_1$ die erste Komponente des Vektors $b$ meint (geht in der Tat einfach über "IVor" und Laplace-Satz).
(2) Gilt die Formel für Vektoren $a,b\in\mathbb{R}^n$, so auch für $a+\begin{pmatrix}\alpha\\0\\\vdots\\0\end{pmatrix},b$ (einfach die Definitionen der Formeln hinschreiben und umformen, das geht auch klar).

@zippy Der Vorschlag kommt dem ja sehr nahe, ist vermutlich sogar etwas einfacher. Was ich in (2) als Addition in der ersten Komponente gezeigt habe, gilt ja auch für andere und damit auch für gesamte Vektoren.

Vielen Dank nochmals für eure Hinweise,

LG InOMatrix



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
wladimir_1989
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 23.12.2014
Mitteilungen: 1308
Aus: Freiburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, eingetragen 2019-04-17


Hi InOMatrix,

ich möchte vielleicht noch kurz einen alternative Beweis skizzieren. Wir betrachten zwei Fälle.
1 Fall: \(<a,b>\neq 0\) Dann können wir eine Basis aus Eigenvektoren konstruieren, die aus einer Basis vom orthogonalen Komplement von b und a besteht. Man sieht leicht, dass das alles Eigenvektoren von \(a\cdot b^{\text{T}}\) sind und damit auch von \(I_n-a\cdot b^{\text{T}}\). Die EIgenwerte sind dabei1 mit Vielfachheit n-1 und \(1-<a,b>\). Da die Determinante einer diagonalisierbaren Matrix durch das Produkt der Eigenwerte gegeben ist, ist man fertig.
2 Fall: Sei nun a orthogonal zu b. O.E. wählen wir eines Basis, in der
\(a=(\alpha,0,\cdots,0)\) gilt. Da a orhtogonal zu b muss b folgende Form haben \(b=(0,b_2,\cdots,b_n)\). Die Form von \(a\cdot b^{\text{T}}\) kann man nun aber sofort ablesen und damit auch die Determinante von
\(I_n-a\cdot b^{\text{T}}\).

lg Wladimir



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 1078
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, eingetragen 2019-04-17


Hier auch noch eine Skizze meines Vorschlags. Die Entwicklung nach der ersten Spalte liefert:
$$\det\bigl(1-a\cdot b^T\bigr)=\det\begin{pmatrix}
1-\alpha\,b_1 & -\alpha\,b_2 & -\alpha\,b_3 & \cdots & -\alpha\,b_n \\
0 & 1 & 0 & \cdots & 0\\
0 & 0 & 1 & \cdots & 0\\
\vdots & \vdots & \vdots & \ddots & \vdots \\
0 & 0 & 0 & \cdots & 1\\
\end{pmatrix}=1-\alpha\,b_1=1-\langle a,b\rangle$$



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
InOMatrix hat die Antworten auf ihre/seine Frage gesehen.
InOMatrix hat selbst das Ok-Häkchen gesetzt.
InOMatrix wird per Mail über neue Antworten informiert.
Neues Thema [Neues Thema]  Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2020 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]