Diagonalisierbarkeit/EW Beweis < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Aufgabe | [Dateianhang nicht öffentlich] |
Hallo!
Könntet ihr bitte überprüfen, ob der Beweis so okay ist?
(a)
Weil A und B simultan diagonalisierbar, existieren Matrizen Diagonalmatrizen [mm]D = S^{-1}AS[/mm] und [mm]E = S^{-1}BS[/mm]. D.h. insbesondere ist
[mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]
und
[mm]E = S^{-1}BS \gdw B = SES^{-1}[/mm].
Es ist nun
[mm]AB = (SDS^{-1})(SES^{-1}) = SDES^{-1}[/mm]
[mm]\overbrace{=}^{(*)} SEDS^{-1} = SES^{-1}SDS^{-1} = BA[/mm].
q.e.d.
(*): Es ist [mm]DE = ED[/mm], da das Produkt von Diagonalmatrizen stets kommutativ ist. (Da nur Elemente auf der Hauptdiagonalen komponentenweise multipliziert werden).
[Kann man das noch ein bisschen schöner auch mit Gleichungen schreiben??]
(b)
Habe ich leider nicht so die Idee. Ich kann ja mal schreiben, was ich mir gedacht habe: Was ist zu zeigen? Wir müssen zeigen, dass beide Matrizen mit einem [mm]S \in GL(n,\IK )[/mm] zu Diagonalmatrizen werden.
Da A n paarweise verschiedene Eigenwerte hat, ist A diagonalisierbar.
(Das können wir dann glaub ich aufgrund der vorhergehenden Aufgabe voraussetzen, die war:
[Dateianhang nicht öffentlich]
)
Da A diagonalisierbar ist, existiert ein [mm]S \in GL(n,\IK )[/mm] sodass [mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]. Wegen
[mm]AB = BA[/mm]
ist dann äquivalent:
[mm]\gdw SDS^{-1}B = BSDS^{-1}[/mm]
Nun komme ich nicht weiter. Ich vermute, dass ich die Gleichung irgendwie so umstellen müsste, dass dasteht:
[mm]SBS^{-1}=D[/mm]
oder zumindest irgendetwas gleichwertiges. Vielen Dank für eure Hilfe und einen Denkanstoß hierzu!
Dateianhänge: Anhang Nr. 1 (Typ: png) [nicht öffentlich] Anhang Nr. 2 (Typ: png) [nicht öffentlich]
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:42 So 18.05.2008 | Autor: | andreas |
hi
ich denke solche fragen kannst du auch im uni-forum stellen, dort bekommst du vermutlich sogar schneller antworten darauf.
> Könntet ihr bitte überprüfen, ob der Beweis so okay ist?
>
> (a)
>
> Weil A und B simultan diagonalisierbar, existieren Matrizen
> Diagonalmatrizen [mm]D = S^{-1}AS[/mm] und [mm]E = S^{-1}BS[/mm]. D.h.
> insbesondere ist
>
> [mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]
>
> und
>
> [mm]E = S^{-1}BS \gdw B = SES^{-1}[/mm].
>
> Es ist nun
>
> [mm]AB = (SDS^{-1})(SES^{-1}) = SDES^{-1}[/mm]
>
> [mm]\overbrace{=}^{(*)} SEDS^{-1} = SES^{-1}SDS^{-1} = BA[/mm].
>
> q.e.d.
>
> (*): Es ist [mm]DE = ED[/mm], da das Produkt von Diagonalmatrizen
> stets kommutativ ist. (Da nur Elemente auf der
> Hauptdiagonalen komponentenweise multipliziert werden).
ja, das passt alles.
> [Kann man das noch ein bisschen schöner auch mit
> Gleichungen schreiben??]
du hast ja schon recht viele gleichungen dastehen. viel schöner wird man das wohl auch nicht hinbekommen.
> (b)
>
> Habe ich leider nicht so die Idee. Ich kann ja mal
> schreiben, was ich mir gedacht habe: Was ist zu zeigen? Wir
> müssen zeigen, dass beide Matrizen mit einem [mm]S \in GL(n,\IK )[/mm]
> zu Diagonalmatrizen werden.
>
> Da A n paarweise verschiedene Eigenwerte hat, ist A
> diagonalisierbar.
ja das stimmt.
> (Das können wir dann glaub ich aufgrund der vorhergehenden
> Aufgabe voraussetzen, die war:
>
> [Dateianhang nicht öffentlich]
> )
ich sehe nicht so richtig, warum das aus dieser aufgabe folgt?
> Da A diagonalisierbar ist, existiert ein [mm]S \in GL(n,\IK )[/mm]
> sodass [mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]. Wegen
>
> [mm]AB = BA[/mm]
>
> ist dann äquivalent:
>
> [mm]\gdw SDS^{-1}B = BSDS^{-1}[/mm]
>
> Nun komme ich nicht weiter. Ich vermute, dass ich die
> Gleichung irgendwie so umstellen müsste, dass dasteht:
>
> [mm]SBS^{-1}=D[/mm]
>
> oder zumindest irgendetwas gleichwertiges
das kannst du nicht erwarten, dann hätten $A$ und $B$ ja jeweils die gleichen eigenwerte zu den eigenvektoren (und wären hier dann sogar gleich), das ist aber im allgemeien nicht der fall.
sei $v$ ein eigenvektor von $A$ zum eigenwert [mm] $\lambda$, [/mm] dann ist $A(Bv) = BAv = [mm] B\lambda [/mm] v = [mm] \lambda(Bv)$. [/mm] somit $Bv$ also auch ein eigenvektor von $A$ zum eigenwert [mm] $\lambda$. [/mm] da diese eigenräume $1$-dimensional sind bildet $B$ den vektor $v$ auf ein vielfaches von sich ab...
probiere mal mit diesem ansatz weiter zu kommen.
die in der aufgabe gezeigte aussage gilt sogar noch etwas allgemeiner:
seien $A$ und $B$ zwei diagonalisierbare matrizen, dann gilt
$AB = BA$ [mm] $\Longleftrightarrow$ [/mm] $A$ und $B$ simultan diagonalisierbar.
grüße
andreas
|
|
|
|
|
> hi
Hi, zunächst Danke für deine Antwort!
> ich denke solche fragen kannst du auch im uni-forum
> stellen, dort bekommst du vermutlich sogar schneller
> antworten darauf.
Ja, ich hatte nur die richtige Kategorie dort nicht gefunden
> > Könntet ihr bitte überprüfen, ob der Beweis so okay ist?
> >
> > (a)
> >
> > Weil A und B simultan diagonalisierbar, existieren Matrizen
> > Diagonalmatrizen [mm]D = S^{-1}AS[/mm] und [mm]E = S^{-1}BS[/mm]. D.h.
> > insbesondere ist
> >
> > [mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]
> >
> > und
> >
> > [mm]E = S^{-1}BS \gdw B = SES^{-1}[/mm].
> >
> > Es ist nun
> >
> > [mm]AB = (SDS^{-1})(SES^{-1}) = SDES^{-1}[/mm]
> >
> > [mm]\overbrace{=}^{(*)} SEDS^{-1} = SES^{-1}SDS^{-1} = BA[/mm].
> >
>
> > q.e.d.
> >
> > (*): Es ist [mm]DE = ED[/mm], da das Produkt von Diagonalmatrizen
> > stets kommutativ ist. (Da nur Elemente auf der
> > Hauptdiagonalen komponentenweise multipliziert werden).
>
> ja, das passt alles.
>
>
> > [Kann man das noch ein bisschen schöner auch mit
> > Gleichungen schreiben??]
>
> du hast ja schon recht viele gleichungen dastehen. viel
> schöner wird man das wohl auch nicht hinbekommen.
Ich meinte insbesondere, ob man "(*): Es ist [mm]DE = ED[/mm], da das Produkt von Diagonalmatrizen stets kommutativ ist. (Da nur Elemente auf der Hauptdiagonalen komponentenweise multipliziert werden)." noch gleichungstechnisch hübscher schreiben kann?
> > (b)
> >
> > Habe ich leider nicht so die Idee. Ich kann ja mal
> > schreiben, was ich mir gedacht habe: Was ist zu zeigen? Wir
> > müssen zeigen, dass beide Matrizen mit einem [mm]S \in GL(n,\IK )[/mm]
> > zu Diagonalmatrizen werden.
> >
> > Da A n paarweise verschiedene Eigenwerte hat, ist A
> > diagonalisierbar.
>
> ja das stimmt.
Ich habe das jetzt so hingeschrieben...
Aber ehrlich gesagt weiß ich immer noch nicht genau warum. Einfach weil die Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind [mm] \Rightarrow [/mm] Diagonalisierbarkeit?
> > (Das können wir dann glaub ich aufgrund der vorhergehenden
> > Aufgabe voraussetzen, die war:
> >
> > [Dateianhang nicht öffentlich]
> > )
>
> ich sehe nicht so richtig, warum das aus dieser aufgabe
> folgt?
War dumm von mir daraus folgt das nicht.
> > Da A diagonalisierbar ist, existiert ein [mm]S \in GL(n,\IK )[/mm]
> > sodass [mm]D = S^{-1}AS \gdw A = SDS^{-1}[/mm]. Wegen
> >
> > [mm]AB = BA[/mm]
> >
> > ist dann äquivalent:
> >
> > [mm]\gdw SDS^{-1}B = BSDS^{-1}[/mm]
> >
> > Nun komme ich nicht weiter. Ich vermute, dass ich die
> > Gleichung irgendwie so umstellen müsste, dass dasteht:
> >
> > [mm]SBS^{-1}=D[/mm]
> >
> > oder zumindest irgendetwas gleichwertiges
>
> das kannst du nicht erwarten, dann hätten [mm]A[/mm] und [mm]B[/mm] ja
> jeweils die gleichen eigenwerte zu den eigenvektoren (und
> wären hier dann sogar gleich), das ist aber im allgemeien
> nicht der fall.
Okay.
> sei [mm]v[/mm] ein eigenvektor von [mm]A[/mm] zum eigenwert [mm]\lambda[/mm], dann ist
> [mm]A(Bv) = BAv = B\lambda v = \lambda(Bv)[/mm]. somit [mm]Bv[/mm] also auch
> ein eigenvektor von [mm]A[/mm] zum eigenwert [mm]\lambda[/mm]. da diese
> eigenräume [mm]1[/mm]-dimensional sind bildet [mm]B[/mm] den vektor [mm]v[/mm] auf ein
> vielfaches von sich ab...
>
> probiere mal mit diesem ansatz weiter zu kommen.
Ich weiß nicht, was ich daraus schlussfolgern kann, aber ich kann ja mal meine spontanen Einfälle (sie haben mich eine halbe Stunde Spontanität gekostet) schreiben:
- A und B haben dieselben Eigenräume? (Weil wenn B den Eigenvektor von A auf ein Vielfaches abbildet, es logischerweise auch eine Eigenvektor von B ist)
-Man könnte daraus vielleicht irgendwie folgern, dass sie ähnlich sind?
Allerdings weiß ich noch nicht, wie ich dann auf die [mm] S^{-1} [/mm] - Geschichte komme...
> die in der aufgabe gezeigte aussage gilt sogar noch etwas
> allgemeiner:
> seien [mm]A[/mm] und [mm]B[/mm] zwei diagonalisierbare matrizen, dann gilt
>
> [mm]AB = BA[/mm] [mm]\Longleftrightarrow[/mm] [mm]A[/mm] und [mm]B[/mm] simultan
> diagonalisierbar.
Ja - Das ist glaub' ich die Zusatz-Aufgabe
>
> grüße
> andreas
Vielen Dank auch für eine weitere Antwort
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:35 Di 20.05.2008 | Autor: | andreas |
hi
> > ich denke solche fragen kannst du auch im uni-forum
> > stellen, dort bekommst du vermutlich sogar schneller
> > antworten darauf.
>
> Ja, ich hatte nur die richtige Kategorie dort nicht
> gefunden
Forum Mathe > Hochschule > Lineare Algebra passt glaube ich schon ganz gut.
> Ich meinte insbesondere, ob man "(*): Es ist [mm]DE = ED[/mm], da
> das Produkt von Diagonalmatrizen stets kommutativ ist. (Da
> nur Elemente auf der Hauptdiagonalen komponentenweise
> multipliziert werden)." noch gleichungstechnisch hübscher
> schreiben kann?
naja, du kannst dies eben explizit nachrechnen, wenn du willst (matrixmultiplikationsformel), aber ich denke, dass dies nicht unbedingt zu einem verständniss gewinn führt...
> > > (b)
> > >
> > > Habe ich leider nicht so die Idee. Ich kann ja mal
> > > schreiben, was ich mir gedacht habe: Was ist zu zeigen? Wir
> > > müssen zeigen, dass beide Matrizen mit einem [mm]S \in GL(n,\IK )[/mm]
> > > zu Diagonalmatrizen werden.
> > >
> > > Da A n paarweise verschiedene Eigenwerte hat, ist A
> > > diagonalisierbar.
> >
> > ja das stimmt.
>
> Ich habe das jetzt so hingeschrieben...
> Aber ehrlich gesagt weiß ich immer noch nicht genau warum.
> Einfach weil die Eigenvektoren zu verschiedenen Eigenwerten
> linear unabhängig sind [mm]\Rightarrow[/mm] Diagonalisierbarkeit?
meist definiert man diagonalisierbarkeit von matrizen eben so, dass eine basis aus eigenvektoren existieren muss oder zeigt meist recht schnell, dass dies eben äquivalent zu der konkret gewählten definition ist. schau mal, nach ob das bei euch nicht auch so gemacht wurde, ansosnten sollte sich das in jedem guten linearen algebra buch finden lassen.
hier ist dies ja genau der fall, dass man $n$ linear unabhängige eigenvektoren in einem $n$-dimensionalen vektorraum gefunden hat.
> > sei [mm]v[/mm] ein eigenvektor von [mm]A[/mm] zum eigenwert [mm]\lambda[/mm], dann ist
> > [mm]A(Bv) = BAv = B\lambda v = \lambda(Bv)[/mm]. somit [mm]Bv[/mm] also auch
> > ein eigenvektor von [mm]A[/mm] zum eigenwert [mm]\lambda[/mm]. da diese
> > eigenräume [mm]1[/mm]-dimensional sind bildet [mm]B[/mm] den vektor [mm]v[/mm] auf ein
> > vielfaches von sich ab...
> >
> > probiere mal mit diesem ansatz weiter zu kommen.
>
> Ich weiß nicht, was ich daraus schlussfolgern kann, aber
> ich kann ja mal meine spontanen Einfälle (sie haben mich
> eine halbe Stunde Spontanität gekostet) schreiben:
>
> - A und B haben dieselben Eigenräume? (Weil wenn B den
> Eigenvektor von A auf ein Vielfaches abbildet, es
> logischerweise auch eine Eigenvektor von B ist)
das ist schonmal nicht schlecht. du hast also eine basis aus eigenvektoren sowohl von $A$ als auch von $B$ (die eigenräume müssen ja nicht unbedingt übereinstimmen - die von $B$ können ja auch höherdimensional sein). bezüglich dieser basis erhält man nun für beide (simultan) diagonalgestalt.
> Allerdings weiß ich noch nicht, wie ich dann auf die [mm]S^{-1}[/mm]
> - Geschichte komme...
wie oben gesagt, gibt es ja auch andere kriterien für diagonalisierbarkeit, die hier vielleicht hilfreicher sind. aber wenn du dies unbedingt mit basiswechsel matrizen machen willst musst du eben in die spalten von $S$ gerade die (koordinaten) der eigenvektroen von $A$ mit denen man gestartet ist reinschreiben.
grüße
andreas
|
|
|
|