Geheimnis einer Matrix < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 20:35 Mo 18.03.2013 | Autor: | saendra |
Aufgabe | Hi ihr! Ich finde Matrizen ziemlich verwirrend. Deshalb möchte ich mir jetzt gerne Tipps von euch einholen.
1.) Seien $V, W$ zwei $K-$Vektorräume, [mm] $f:V\to [/mm] W$ linear und [mm] $M_{B_W}^{B_V}(f)$ [/mm] die Abbildungsmatrix von $f$ bzgl. der Basen [mm] $B_V,\; B_W$.
[/mm]
2.) Sei [mm] $g\in [/mm] End(V)$ und [mm] $M_B(g)$ [/mm] die Abbildungsmatrix bzgl. der Basis $B$ von $V$. |
Kann ich dann irgendetwas aus [mm] $M_{B_W}^{B_V}(f)$ [/mm] bzw. [mm] $M_B(g)$ [/mm] herauslesen, wenn ich diese vor mir liegen habe? Ich meine haben die Zeilen oder Spalten dann irgendeine Bedeutung (jetzt abgesehen davon, dass die Spalten die Koordinaten der Linearkombination der Bilder der Basisvektoren sind)? Und überhaupt?
|
|
|
|
Zunächst kannst du die Dimensionen von V und W erkennen.
Neben der Tatsache, dass du erkennst, wie ein Basisvektor auf die Basisvektoren des Zielvektorraumes abgebildet wird, kannst du ggf. noch Injektivität bzw. Surjektivität erkennen.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 02:10 Di 19.03.2013 | Autor: | Marcel |
Hi,
> Hi ihr! Ich finde Matrizen ziemlich verwirrend. Deshalb
> möchte ich mir jetzt gerne Tipps von euch einholen.
>
>
> 1.) Seien [mm]V, W[/mm] zwei [mm]K-[/mm]Vektorräume, [mm]f:V\to W[/mm] linear und
> [mm]M_{B_W}^{B_V}(f)[/mm] die Abbildungsmatrix von [mm]f[/mm] bzgl. der Basen
> [mm]B_V,\; B_W[/mm].
>
> 2.) Sei [mm]g\in End(V)[/mm] und [mm]M_B(g)[/mm] die Abbildungsmatrix bzgl.
> der Basis [mm]B[/mm] von [mm]V[/mm].
> Kann ich dann irgendetwas aus [mm]M_{B_W}^{B_V}(f)[/mm] bzw. [mm]M_B(g)[/mm]
> herauslesen, wenn ich diese vor mir liegen habe? Ich meine
> haben die Zeilen oder Spalten dann irgendeine Bedeutung
> (jetzt abgesehen davon, dass die Spalten die Koordinaten
> der Linearkombination der Bilder der Basisvektoren sind)?
> Und überhaupt?
natürlich, z.B.: Der Bildraum der linearen Abbildung, die durch die Matrix
"induziert" wird, ist doch einfach etwa die Menge der Linearkombinationen
der Spaltenvektoren. So kannst Du bspw. (mit bekannten Methoden)
schnell eine Basis dieses Bildraumes konstruieren (indem Du das
Erzeugendensystem (EZS) zu einem minimalen EZS reduzierst).
Dann kann man noch sowas wie Injektivität etc. ablesen; das Ganze steht,
wie ich schonmal erwähnte, ausführlich(er) in "Bosch, Lineare Algebra".
Oder auch nochmal
Skript (klick!)
Kapitel 8, etwa Satz 8.5, Bemerkung und Definition 8.9, oder auch Satz 8.26
Dann gibt's auch so tolle Sätze wie, dass injektive lineare Abbildungen
linear unabhängige Vektoren auf linear unabhängige Vektoren abbilden.
Oder: Sind Elemente des Bildraumes linear unabhängig, so müssen
entsprechende Urbilder dies auch sein.
(Solche Beweise sollte man übrigens schnell führen können: Seien
[mm] $w_1,...,w_m$ [/mm] im Bildraum von [mm] $f\,$ [/mm] und linear unabhängig, und seien
[mm] $v_1,...,v_m$ [/mm] mit [mm] $f(v_j)=w_j$ [/mm] für [mm] $j=1,\ldots,m\,.$ [/mm] Weiter sei [mm] $\sum_{j=1}^m \lambda_j v_j=0\,.$ [/mm] Dann folgt
[mm] $f(\sum \lambda_jv_j)=f(0)$ [/mm] und wegen der Linearität (beachte, dass damit
auch [mm] $f(0)=0\,$ [/mm] folgt) folgt daher
[mm] $$\sum \lambda_j f(v_j)=\sum \lambda_j w_j=0\,.$$
[/mm]
Da die [mm] $w_j$ [/mm] l.u. sind, folgt [mm] $\lambda_j=0$ [/mm] für alle [mm] $j\,.$)
[/mm]
Sowas passt auch zu den Matrizen, weil es halt dann einen gewissen
Isomorphismus gibt.
Übrigens, und das ist eine der wichtigsten Eigenschaften, die man
behalten sollte:
Sind [mm] $V\,$ [/mm] und [mm] $W\,$ [/mm] endlichdimensionale Vektorräume über einem Körper
[mm] $K\,$ [/mm] und VON GLEICHER DIMENSION, so ist eine lineare Abbildung $V [mm] \to [/mm] W$
genau dann injektiv, wenn sie surjektiv ist (hier ist also
"injektiv=surjektiv=bijektiv", salopp gesagt).
Entsprechend gilt etwa für eine Matrix $A [mm] \in \IR^{n \times n}\,,$ [/mm] dass die
zugehörige lineare Abbildung genau dann injektiv ist, wenn sie surjektiv ist.
Und das ist dann alles genau dann der Fall, wenn die Matrix Vollrang hat.
Zudem hat solch' eine quadratische Matrix genau dann Vollrang, wenn ihre
Determinante nicht verschwindet (d.h., dass die Determinante NICHT NULL
ist).
Aber mal nebenbei: Hast Du ein Skript, wo Du vielleicht konkrete Fragen
zu gewissen Aussagen oder Beweisen hast? Denn die Zusammenhänge
zwischen Matrizen und linearen Abbildungen, und die Transponierten
oder konjugiert Transponierten haben auch wieder mit so Begriffen wie
"Adjungierte Abbildung" zu tun, sind zwar relativ elementar, zugleich aber auch sehr
vielfältig. Wie gesagt: In "Bosch, Lineare Algebra" findet man sehr viel
dazu, wenn man das Buch einigermaßen vernünftig durcharbeitet. D.h. aber
auch, dass man sich entsprechend viel Zeit dafür nehmen sollte...
So 'n bisschen was habe ich etwa
hier (klick!)
auch gefunden. Aber such' ruhig einfach mal selbst mit Googel nach
"Zusammenhänge zwischen Matrizen und linearen Abbildungen". Da
findet man manch' sehr formal und erstmal abstrakt und kompliziert
wirkendes, und manches so in der Form des obigen Links. Da musst Du
mal selbst ein bisschen stöbern, um rauszufinden, ob auch was "nach
Deinem Geschmack" dabei ist.
Übrigens kann man oft auch einfach mal gucken, ob's beim Matheplanet
vielleicht einen Artikel gibt: Hier ist das der Fall:
Link zum Artikel
(Sowas findet man auch mit einer Googel-Recherche: Gib' einfach die
Schlagwörter ein und dazu dann "Artikel Matheplanet").
Diese Artikel sind, so mein bisheriger Eindruck, eigentlich immer recht gut
geschrieben, und zudem nicht zu viel und nicht zu wenig abstrakt, also
gut, um sich mit "neuen Dingen" mehr als ausreichend zu beschäftigen,
aber zugleich nicht so abstrakt, dass man erstmal von den ersten zwei
Seiten erschreckt wird oder Kopfweh bekommt.
Oder: Stelle konkretere Fragen.
Gruß,
Marcel
|
|
|
|