Transformationsmatrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Hallo!
Ich steh mal wieder auf der Leitung
Eine allgmeine Transformationsmatrix´z.B. zum Diagonalisieren oder für die JNF besteht doch aus den Eigenvektoren als Spalten.
Wann muss denn so eine Matrix jetzt orthonormal sein? Wann müssen die Einträge senkrecht zueinander stehen, warum muss man sie normieren??? Ok, wenn sie orthonormal ist, dann ist der Vorteil, dass die Inverse gleich der Transponierten ist. Aber ist das der einziger Grund??
Danke schonmal für jede Hilfe! Gruß, garfield
|
|
|
|
Hallo.
Hier mal ein Beispiel aus der Praxis. Aus Stochastik II, nennt sich "Hauptkomponentenanalyse". Nun, worum dreht es sich? Man hat einen Zufallsvektor [mm] $Z=\vektor{Z_1\\ \vdots \\ Z_d}$, [/mm] das sind einfach $d$ zufällige Größen (zum Beispiel Länge, Breite und Höhe eines Schildkrötenpanzers, in diesem Fall ist d=3) zusammengefaßt. Diesem Vektor kann man eine sogenannte Covarianzmatrix [mm] $\Sigma$ [/mm] zuordnen. Das ist einfach ein Maß dafür, wie weit die Daten, die man da sammelt, um ihren Mittelwert streuen.
Nun ist so eine Matrix ja unter Umständen ein recht unanschauliches Gebilde. Was man daher machen möchte, ist ein wenig "Kosmetik", so daß man ein Gefühl dafür bekommt, "in welche Richtung" Z am meisten streut.
Was man noch wissen muß, ist, daß [mm] $\Sigma$ [/mm] stets eine symmetrische, nichtnegativ definite Matrix ist. Weiter sei [mm] $\Sigma$ [/mm] nun auch invertierbar.
Dann fangen wir mal los:
Mit ein bißchen linearer Algebra sehen wir, daß es eine Orthonormalbasis [mm] $(u_1,...,u_d)$ [/mm] von lauter Eigenvektoren gibt, sind [mm] $\lambda_1,...,\lambda_d$ [/mm] die zugehörigen Eigenwerte, so gilt also [mm] $\Sigma u_i=\lambda_iu_i$ [/mm] für [mm] $1\le i\le [/mm] d$.
Setze [mm] $Q=(u_1,...,u_d)$, [/mm] das ist unsere Transformationsmatrix. wegen der Orthonormiertheit der Basis folgt $Q^TQ=I$, (I ist die Einheitsmatrix)
Setzt man [mm] $\Lambda=\diag(\lambda_1,...,\lambda_d)=\pmat{\lambda_1 & & \\ & \ddots & \\ & & \lambda_d}$, [/mm] so gilt also [mm] $\Sigma Q=Q\Lambda$ [/mm] bzw. [mm] $Q^T\Sigma Q=Q^{-1}\Sigma Q=\Lambda$.
[/mm]
Nun gilt, da [mm] $\left\langle u_i,u_j\right\rangle=\begin{cases}1 & \mbox{für} \ i=j \\ 0 & \mbox{sonst}\end{cases}$, [/mm] daß
[mm] $Z=\sum_{j=1}^d\left\langle Z,u_j\right\rangle u_j$.
[/mm]
Diese Gleichung heißt auch Fourier-Darstellung von Z bzgl. der Basis [mm] $u_1,...u_d$.
[/mm]
Weiter weiß man, daß die Größen [mm] $\left\langle Z,u_j\right\rangle$ [/mm] die Streuung [mm] $\Var \left\langle Z,u_j\right\rangle=\lambda_j$ [/mm] besitzen.
Nun ordnet man die Eigenwerte nach der Größe, sei also [mm] $\lambda_1\ge\lambda_2\ge\dots\ge\lambda_d>0$.
[/mm]
Damit verbindet man die Vorstellung, daß der "Hauptanteil" an Streuung beim Zustandekommen des Vektors $Z$ in Richtung von [mm] $u_1$ [/mm] vorkommt, dann der nächstkleinere in [mm] $u_2$ [/mm] etc..
Sind z.B. die kleinen [mm] $\lambda$'s [/mm] sehr klein, so ist ihr Anteil an der gesamten Streuung vernachlässigbar, und wir haben, daß praktisch nur die ersten [mm] $d_1
[mm] $Z\sim\sum_{j=1}^{d_1}\left\langle Z,u_j\right\rangle u_j$, [/mm] was bedeutet, daß Z "praktisch" [mm] $d_1$-dimensional [/mm] ist. Das nennt man auch "Dimensionsreduktion" und wird besonders bedeutungsvoll, wenn man sehr große Datenmengen zu untersuchen hat.
Ohne die Orthonormiertheit der Eigenvektoren wäre das nie gegangen.
Grüße,
Christian
|
|
|
|
|
Huch... willst Du mir Angst machen? Hilfe - so kompliziert hätte ich das jetzt nicht erwartet. Um ganz ehrlich zu sein, mir ist da noch nicht alles GANZ klar
Ok, ich glaube Dir jetzt, dass das alles ohne die orthonormierung nicht möglich gewesen wäre.
Aber z.B. zum Diagonalisieren brauche ich doch die Normiertheit nicht, oder?? Wann brauche ich sie denn nicht?
Danke für die Mühe!! Gruß, garfield
|
|
|
|
|
Hallo nochmal...
huch, Angst machen wollt ich Dir damit nicht... ich weiß bloß, wie das bei mir in den ersten Semestern mit linearer Algebra war, nämlich, daß ich keine Ahnung hatte, wozu man das Zeugs denn irgendwann mal brauchen könnte, und daß uns das auch kein Mensch gesagt hat. Das hier war einfach bloß ein Beispiel, an dem man die Anwendung dieses ganzen Krams sehen kann; Sinn ist hierbei wie gesagt, Dimensionsreduktion, Du nimmst z.B. an einem Patienten in einer Klinik 100 Daten auf (und das sind wenig...), sowas wie Größe, Alter, Geschlecht, mehrere Blutwerte.......... das ist dann Dein d=100-dimensionaler Vektor. Aus genügend vielen solchen Vektoren erhält man die Kovarianzmatrix (keine Angst, Du brauchst nicht zu wissen, was das im Detail ist), die wird diagonalisiert, wobei Du dann feststellst, daß beispielsweise 80 der 100 Werte einen sehr kleinen Anteil am Zustandekommen der Werte haben und diese kannst Du dann bei zukünftigen Messungen/Rechnungen vernachlässigen, was doch ein Fortschritt ist... alles klar?
Das war nur als motivierendes Beispiel gedacht.
Und Deine Aussage stimmt, für die Diagonalisierung brauchst Du keine Orthonormiertheit.
Gruß,
Christian
|
|
|
|
|
Nein, nein - irgendwann werde ich sowas dann hoffentlich auch kapieren aber das ist im Moment eben noch etwas hoch
Aber mir ist jetzt klar, um was es in etwa geht.
Ja stimmt, Du hast schon Recht, ich habe mich auch schon ab und zu gefragt, wozu soetwas wohl praktisch angewendet wird...
Also, wenn ich das richtig verstanden habe, dann brauche ich die Orthonormierung nicht, sie ist aber nicht dumm, da ich mir damit quasi die Invertierung sparen kann, oder?
viele Grüße & Danke nochmal, Garfield!
|
|
|
|
|
Hallo nochmal!
> Nein, nein - irgendwann werde ich sowas dann hoffentlich
> auch kapieren aber das ist im Moment eben noch etwas hoch
>
Das kommt schon. Sicher.
> Aber mir ist jetzt klar, um was es in etwa geht.
> Ja stimmt, Du hast schon Recht, ich habe mich auch schon ab
> und zu gefragt, wozu soetwas wohl praktisch angewendet
> wird...
>
> Also, wenn ich das richtig verstanden habe, dann brauche
> ich die Orthonormierung nicht, sie ist aber nicht dumm, da
> ich mir damit quasi die Invertierung sparen kann, oder?
Dumm sind die wenigsten Sachen in der Mathematik, es dauert bloß manchmal ne Weile, bis man sie zu schätzen lernt. Falls die Eigenvektoren nicht normiert sind, zahlt man halt bloß einen winzig kleinen Aufpreis, nämlich, daß die Matrix Q^TQ nicht mehr die Einheitsmatrix ist.
Es kommt eben immer drauf an, was man haben will.
> viele Grüße & Danke nochmal, Garfield!
Nix zu danken,
Gruß,
Christian
|
|
|
|