www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Lineare Algebra - Eigenwerte" - Lineare Unabhängigkeit zeigen
Lineare Unabhängigkeit zeigen < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Lineare Unabhängigkeit zeigen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:14 Sa 18.05.2013
Autor: Apfelchips

Aufgabe
Sei [mm]A[/mm] eine [mm]nxn[/mm]-Matrix und [mm]\lambda[/mm] ein Eigenwert von [mm]A[/mm]. Sei [mm]v_1,...,v_r[/mm] Eigenvektoren von [mm]A[/mm] zum Eigenwert [mm]\lambda[/mm], welche linear unabhängig sind.

Seien für jedes [mm]1 \leq i \leq r[/mm] eine Folge [mm]v_i = u_i^{(0)},u_1^{(1)},...,u_i^{(k_i)}[/mm] mit [mm]k_i \in \IN[/mm] gegeben, sodass für alle [mm]1 \leq s \leq k_i[/mm] gilt: [mm](A-\lambda*E_n)u_i^{(s)} = u_i^{(s-1)}[/mm],

d. h. für jedes [mm]1 \leq s \leq k_i[/mm] ist der Vektor [mm]u_i^{(s)}[/mm] ein Urbild des Vektors [mm]u_i^{(s-1)}[/mm] unter der Abbildung [mm]x \mapsto (A-\lambda*E_n)x[/mm].

Zeigen Sie:
Die Vektoren [mm]u_1^{(0)},u_1^{(1)},...,u_1^{(k_1)},u_2^{(0)},u_2^{(1)},...,u_2^{(k_2)},...,u_r^{(0)},u_r^{(1)},...,u_i^{(k_r)}[/mm] sind linear unabhängig.

Tipp: Untersuchen Sie zuerst den Spezialfall [mm]r=2, k_1=1, k_2=1[/mm]



Hallo zusammen,

ich finde bei dieser Aufgabe leider keinen richtigen Anfang – ich weiß einfach nicht, wie ich das hier das geforderte zeigen soll.

Den Tipp aus der Aufgabe habe ich natürlich erst einmal dankbar aufgenommen.
Das heißt also:

[mm]r = 2, k_1 = 1, k_2 = 1[/mm]

[mm]v_1 = u_1^{(0)}, u_1^{(1)}[/mm] , [mm]v_2 = u_2^{(0)}, u_2^{(1)}[/mm]

[mm](A-\lambda*E_n)u_1^{(1)} = u_1^{(0)}[/mm] , [mm](A-\lambda*E_n)u_1^{(2)} = u_1^{(1)}[/mm]

[mm](A-\lambda*E_n)u_2^{(1)} = u_2^{(0)}[/mm] , [mm](A-\lambda*E_n)u_2^{(2)} = u_2^{(1)}[/mm]

Jetzt ist also zu zeigen, dass [mm]u_1^{(0)}, u_1^{(1)}, u_2^{(0)}, u_2^{(1)}[/mm] linear unabhängig sind.

Nun weiß ich ja, dass die Eigenvektoren [mm]v_1, v_2[/mm] linear unabhängig sind. Und diese Eigenvektoren sind hier als Folge definiert. Was sagt das jetzt über die einzelnen Folgenglieder aus?

Ich würde mich freuen, wenn Ihr mir hier auf die Sprünge helfen könntet.

Viele Grüße
​Patrick

        
Bezug
Lineare Unabhängigkeit zeigen: Antwort
Status: (Antwort) fertig Status 
Datum: 01:55 So 19.05.2013
Autor: tobit09

Hallo Patrick,


> ich finde bei dieser Aufgabe leider keinen richtigen Anfang
> – ich weiß einfach nicht, wie ich das hier das
> geforderte zeigen soll.
>  
> Den Tipp aus der Aufgabe habe ich natürlich erst einmal
> dankbar aufgenommen.
>  Das heißt also:
>  
> [mm]r = 2, k_1 = 1, k_2 = 1[/mm]
>  
> [mm]v_1 = u_1^{(0)}, u_1^{(1)}[/mm] , [mm]v_2 = u_2^{(0)}, u_2^{(1)}[/mm]
>  
> [mm](A-\lambda*E_n)u_1^{(1)} = u_1^{(0)}[/mm] , [mm](A-\lambda*E_n)u_1^{(2)} = u_1^{(1)}[/mm]
>  
> [mm](A-\lambda*E_n)u_2^{(1)} = u_2^{(0)}[/mm]
> , [mm](A-\lambda*E_n)u_2^{(2)} = u_2^{(1)}[/mm]
>  
> Jetzt ist also zu zeigen, dass [mm]u_1^{(0)}, u_1^{(1)}, u_2^{(0)}, u_2^{(1)}[/mm] linear
> unabhängig sind.

Alles korrekt!


Arbeite mit der Definition der linearen Unabhängigkeit:

Gelte

(*)     [mm] $\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0$ [/mm]

für gewisse Skalare [mm] $\mu_1^{(0)}, \mu_1^{(1)}, \mu_2^{(0)}, \mu_2^{(1)}$. [/mm]

Zu zeigen ist [mm] $\mu_1^{(0)}=\mu_1^{(1)}=\mu_2^{(0)}=\mu_2^{(1)}=0$. [/mm]


Lasse dazu mal den Endomorphismus [mm] $A-\lambda E_n$ [/mm] auf die Gleichung (*) los.


Viele Grüße
Tobias

Bezug
                
Bezug
Lineare Unabhängigkeit zeigen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:57 So 19.05.2013
Autor: Apfelchips

Hallo Tobias,

danke für Deine Antwort.

> Arbeite mit der Definition der linearen Unabhängigkeit:

>

> Gelte

>

> (*)
> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0[/mm]

>

> für gewisse Skalare [mm]\mu_1^{(0)}, \mu_1^{(1)}, \mu_2^{(0)}, \mu_2^{(1)}[/mm].

>

> Zu zeigen ist
> [mm]\mu_1^{(0)}=\mu_1^{(1)}=\mu_2^{(0)}=\mu_2^{(1)}=0[/mm].

>
>

> Lasse dazu mal den Endomorphismus [mm]A-\lambda E_n[/mm] auf die
> Gleichung (*) los.

Dann habe ich da
[mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(1)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(2)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(1)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(2)} = 0[/mm]
stehen.

Wobei sich der Endomorphismus jetzt (n-1)-mal erneut auf die Gleichung anwenden lässt.
​Aber wohin soll das führen?

Viele Grüße
Patrick

Bezug
                        
Bezug
Lineare Unabhängigkeit zeigen: Antwort
Status: (Antwort) fertig Status 
Datum: 15:22 So 19.05.2013
Autor: tobit09


> > Arbeite mit der Definition der linearen Unabhängigkeit:
>  >
>  > Gelte

>  >
>  > (*)

>  >

> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0[/mm]
>  >
>  > für gewisse Skalare [mm]\mu_1^{(0)}, \mu_1^{(1)}, \mu_2^{(0)}, \mu_2^{(1)}[/mm].

>  
> >
>  > Zu zeigen ist

>  > [mm]\mu_1^{(0)}=\mu_1^{(1)}=\mu_2^{(0)}=\mu_2^{(1)}=0[/mm].

>  >
>  >
>  > Lasse dazu mal den Endomorphismus [mm]A-\lambda E_n[/mm] auf die

>  > Gleichung (*) los.

>  
> Dann habe ich da
>  [mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(1)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(2)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(1)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(2)} = 0[/mm]
>  
> stehen.

Da bist du wohl mit den Indizes bei den [mm] $u_i^{(j)}$ [/mm] durcheinander gekommen.

Es müsste

     [mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(0)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(1)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(0)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(1)} = 0[/mm]

heißen.


Nun gilt es, die linke Seite weiter zu vereinfachen.

Es gilt z.B. [mm] $(A-\lambda E_n)u_1^{(0)}=Au_1^{(0)}-\lambda u_1^{(0)}=\ldots$ [/mm]
(nutze nun aus, dass [mm] $u_1^{(0)}$ [/mm] ein Eigenvektor von $A$ zum Eigenwert [mm] $\lambda$ [/mm] ist).

[mm] $(A-\lambda E_n)u_1^{(1)}$ [/mm] ist nach Voraussetzung [mm] $=u_1^{(0)}$. [/mm]

usw.


> Wobei sich der Endomorphismus jetzt (n-1)-mal erneut auf
> die Gleichung anwenden lässt.

Das ist in diesem Spezialfall gar nicht nötig. Einmalige Anwendung des Endomorphismus' genügt.

>  ​Aber wohin soll das führen?

Zu einer Gleichung, aus der du schließen kannst, dass gewisse [mm] $\mu_i^{(j)}$ [/mm] (und damit letztendlich alle [mm] $\mu_i^{(j)}$) [/mm] =0 sind.

Bezug
                                
Bezug
Lineare Unabhängigkeit zeigen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:50 Mo 20.05.2013
Autor: Apfelchips


> Da bist du wohl mit den Indizes bei den [mm]u_i^{(j)}[/mm]
> durcheinander gekommen.

>

> Es müsste

>

> [mm]\mu_1^{(0)}(A-\lambda E_n)u_1^{(0)} + \mu_1^{(1)}(A-\lambda E_n)u_1^{(1)} + \mu_2^{(0)}(A-\lambda E_n)u_2^{(0)} + \mu_2^{(1)}(A-\lambda E_n)u_2^{(1)} = 0[/mm]

>

> heißen.

>
>

> Nun gilt es, die linke Seite weiter zu vereinfachen.

>

> Es gilt z.B. [mm](A-\lambda E_n)u_1^{(0)}=Au_1^{(0)}-\lambda u_1^{(0)}=\ldots[/mm]

>

> (nutze nun aus, dass [mm]u_1^{(0)}[/mm] ein Eigenvektor von [mm]A[/mm] zum
> Eigenwert [mm]\lambda[/mm] ist).

>

> [mm](A-\lambda E_n)u_1^{(1)}[/mm] ist nach Voraussetzung
> [mm]=u_1^{(0)}[/mm].

>

> usw.

Ich versuch's mal:

[mm]\mu_1^{(0)} (A u_1^{(0)} - \lambda u_1^{(0)}) + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} (A u_2^{(0)} - \lambda u_2^{(0)}) + \mu_2^{(1)} u_2^{(0)} = 0[/mm]

Da [mm]\lambda[/mm] ein Eigenwert und [mm]u[/mm] ein zugehöriger Eigenvektor von [mm]A[/mm] ist, gilt: [mm]Au = \lambda u[/mm]

[mm]\mu_1^{(0)} \underbrace{(\lambda u_1^{(0)} - \lambda u_1^{(0)})}_{= 0} + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} \underbrace{(\lambda u_2^{(0)} - \lambda u_2^{(0)})}_{= 0} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]

[mm]\iff \mu_1^{(1)} u_1^{(0)} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]

Allerdings gibt mir das jetzt keine Information mehr über [mm]\mu_1^{(0)}, \mu_2^{(0)}[/mm], oder sehe ich das falsch?

Viele Grüße
​Patrick

Bezug
                                        
Bezug
Lineare Unabhängigkeit zeigen: Antwort
Status: (Antwort) fertig Status 
Datum: 13:00 Mo 20.05.2013
Autor: tobit09


> [mm]\mu_1^{(0)} (A u_1^{(0)} - \lambda u_1^{(0)}) + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} (A u_2^{(0)} - \lambda u_2^{(0)}) + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
>  
> Da [mm]\lambda[/mm] ein Eigenwert und [mm]u[/mm] ein zugehöriger
> Eigenvektor von [mm]A[/mm] ist, gilt: [mm]Au = \lambda u[/mm]
>  
> [mm]\mu_1^{(0)} \underbrace{(\lambda u_1^{(0)} - \lambda u_1^{(0)})}_{= 0} + \mu_1^{(1)} u_1^{(0)} + \mu_2^{(0)} \underbrace{(\lambda u_2^{(0)} - \lambda u_2^{(0)})}_{= 0} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]
>  
> [mm]\iff \mu_1^{(1)} u_1^{(0)} + \mu_2^{(1)} u_2^{(0)} = 0[/mm]

[ok]

Da [mm] $u_1^{(0)}$ [/mm] und [mm] $u_2^{(0)}$ [/mm] linear unabhängig sind somit [mm] $\mu_1^{(1)}=\mu_2^{(1)}=0$. [/mm]

Das ist schon einmal die halbe Miete.


> Allerdings gibt mir das jetzt keine Information mehr
> über [mm]\mu_1^{(0)}, \mu_2^{(0)}[/mm], oder sehe ich das falsch?

Arbeite nun wieder mit der Ausgangsgleichung

     $ [mm] \mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0 [/mm] $.

Nutze [mm] $\mu_1^{(1)}=\mu_2^{(1)}=0$ [/mm] und dann erneut die lineare Unabhängigkeit von [mm] $u_1^{(0)}$ [/mm] und [mm] $u_2^{(0)}$. [/mm]

Bezug
                                                
Bezug
Lineare Unabhängigkeit zeigen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:50 Mo 20.05.2013
Autor: Apfelchips


> > Allerdings gibt mir das jetzt keine Information mehr
> > über [mm]\mu_1^{(0)}, \mu_2^{(0)}[/mm], oder sehe ich das falsch?
> Arbeite nun wieder mit der Ausgangsgleichung

>

> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0 [/mm].

>

> Nutze [mm]\mu_1^{(1)}=\mu_2^{(1)}=0[/mm] und dann erneut die lineare
> Unabhängigkeit von [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm].

Da ergibt sich dann:

[mm]\mu_1^{(0)} u_1^{(0)} + \mu_2^{(0)} u_2^{(0)} = 0[/mm]

Und da [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm] linear unabhängig sind, ist auch [mm]\mu_1^{(0)} = \mu_2^{(0)} = 0[/mm]

Die lineare Unabhängig im Spezialfall ist damit ja gezeigt.


Der allgemeine Fall lässt sich doch prinzipiell genauso zeigen, oder?

Zu zeigen ist, dass die Vektorgleichung
[mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_1^{(k_1)} u_1^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-1)} + \mu_i^{(k_r)} u_i^{(k_r)} = 0[/mm] 
nur erfüllt werden kann durch [mm]\mu_1^{(0)} = ... = \mu_1^{(k_1)} = ... = \mu_i^{(k_r-1)} = \mu_i^{(k_r)} = 0[/mm]
​(Definition der linearen Unabhängigkeit von Vektoren)

Also:

​[mm]\mu_1^{(0)} (A-\lambda E_n) u_1^{(0)} + ... + \mu_1^{(k_1)} (A-\lambda E_n) u_1^{(k_1)} + ... + \mu_i^{(0)} (A-\lambda E_n) u_i^{(0)} + ... + \mu_i^{(k_r)} (A-\lambda E_n) u_i^{(k_r)} = 0[/mm]

[mm]\iff \mu_1^{(0)} (\lambda u_1^{(0)} - \lambda u_1^{(0)}) + ... + \mu_1^{(k_1)} (\lambda u_1^{(k_1)} - \lambda u_1^{(k_1)}) + ... + \mu_i^{(0)} (\lambda u_i^{(0)} - \lambda u_i^{(0)}) + ... + \mu_i^{(k_r)} (\lambda u_i^{(k_r)} - \lambda u_i^{(k_r)}) = 0[/mm]

[mm]\iff \mu_1^{(1)} u_1^{(0)} + ... + \mu_i^{(k_2)} u_i^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-2)} = 0[/mm]

[mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear unabhängig [mm]\Rightarrow \mu_1^{(1)} = ... = \mu_i^{(k_r-1)} = 0[/mm]

Also:

[mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_i^{(0)} u_i^{(0)} + ... + \mu_i^{(k_r-2)} u_i^{(k_r-2)} = 0[/mm]

[mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear unabhängig [mm]\Rightarrow \mu_1^{(0)} = ... = \mu_i^{(k_r-2)} = 0[/mm]

Das lässt sich nun induktiv fortsetzen, sodass gilt: [mm]\mu_1^{(0)} = .... = \mu_i^{(k_r)} = 0[/mm]

Ist das so in Ordnung (sofern ich mich nirgends vertippt habe)?

Viele Grüße
Patrick

Bezug
                                                        
Bezug
Lineare Unabhängigkeit zeigen: Antwort
Status: (Antwort) fertig Status 
Datum: 07:22 Di 21.05.2013
Autor: tobit09


>  > Arbeite nun wieder mit der Ausgangsgleichung

>  >
>  >

> [mm]\mu_1^{(0)}u_1^{(0)}+\mu_1^{(1)}u_1^{(1)}+\mu_2^{(0)}u_2^{(0)}+\mu_2^{(1)}u_2^{(1)}=0 [/mm].
>  
> >
>  > Nutze [mm]\mu_1^{(1)}=\mu_2^{(1)}=0[/mm] und dann erneut die

> lineare
>  > Unabhängigkeit von [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm].

>  
> Da ergibt sich dann:
>  
> [mm]\mu_1^{(0)} u_1^{(0)} + \mu_2^{(0)} u_2^{(0)} = 0[/mm]
>  
> Und da [mm]u_1^{(0)}[/mm] und [mm]u_2^{(0)}[/mm] linear unabhängig sind,
> ist auch [mm]\mu_1^{(0)} = \mu_2^{(0)} = 0[/mm]
>  
> Die lineare Unabhängig im Spezialfall ist damit ja
> gezeigt.

[ok] Schön!


> Zu zeigen ist, dass die Vektorgleichung
>  [mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_1^{(k_1)} u_1^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-1)} + \mu_i^{(k_r)} u_i^{(k_r)} = 0[/mm] 
>  
> nur erfüllt werden kann durch [mm]\mu_1^{(0)} = ... = \mu_1^{(k_1)} = ... = \mu_i^{(k_r-1)} = \mu_i^{(k_r)} = 0[/mm]
> ​(Definition der linearen Unabhängigkeit von Vektoren)

Die i's sollen wohl r's sein. ;-)


> Also:

Für jemanden, der unsere "Spezialfall-Lösung" nicht kennt, solltest du hier auf jeden Fall erläutern, dass du obige Gleichung mit [mm] $A-\lambda E_n$ [/mm] multiplizierst.

> ​[mm]\mu_1^{(0)} (A-\lambda E_n) u_1^{(0)} + ... + \mu_1^{(k_1)} (A-\lambda E_n) u_1^{(k_1)} + ... + \mu_i^{(0)} (A-\lambda E_n) u_i^{(0)} + ... + \mu_i^{(k_r)} (A-\lambda E_n) u_i^{(k_r)} = 0[/mm]

Ja.

> [mm]\iff \mu_1^{(0)} (\lambda u_1^{(0)} - \lambda u_1^{(0)}) + ... + \mu_1^{(k_1)} (\lambda u_1^{(k_1)} - \lambda u_1^{(k_1)}) + ... + \mu_i^{(0)} (\lambda u_i^{(0)} - \lambda u_i^{(0)}) + ... + \mu_i^{(k_r)} (\lambda u_i^{(k_r)} - \lambda u_i^{(k_r)}) = 0[/mm]

Nein. Nur die [mm] $u_j^{(0)}$ [/mm] sind als Eigenvektoren zum Eigenwert [mm] $\lambda$ [/mm] vorausgesetzt.

> [mm]\iff \mu_1^{(1)} u_1^{(0)} + ... + \mu_i^{(k_2)} u_i^{(k_1)} + ... + \mu_i^{(k_r-1)} u_i^{(k_r-2)} = 0[/mm]

Der erste Summand stimmt. Was meinst du hier mit $i$? Der zweite von dir explizit angegebene Summand stimmt i.A. nicht. Der letzte Summand fehlt bei dir.

Es empfiehlt sich die Arbeit mit Summenzeichen [mm] $\sum$ [/mm]
- aus Gründen der Übersichtlichkeit
- damit es nicht dem Leser überlassen bleibt, zu verstehen, welche Summanden genau gemeint sind
- um Spezialfälle wie [mm] $k_r=0$ [/mm] nicht auszuschließen.

> [mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear
> unabhängig

(Welche Vektoren meinst du hier genau? Was meinst du hier mit $i$?)

Warum solltest du das schon wissen? (Sicher sind [mm] $u_1^{(0)},\ldots,u_r^{(0)}$ [/mm] linear unabhängig.)

> [mm]\Rightarrow \mu_1^{(1)} = ... = \mu_i^{(k_r-1)} = 0[/mm]
>

> Also:
>  
> [mm]\mu_1^{(0)} u_1^{(0)} + ... + \mu_i^{(0)} u_i^{(0)} + ... + \mu_i^{(k_r-2)} u_i^{(k_r-2)} = 0[/mm]

Mir ist wieder unklar, welche Summanden genau gemeint sind.

> [mm]u_1^{(0)}, ..., u_i^{(k_r-2)}[/mm] sind linear
> unabhängig

Wieder die Frage: Woher willst du das wissen?

> [mm]\Rightarrow \mu_1^{(0)} = ... = \mu_i^{(k_r-2)} = 0[/mm]
>
> Das lässt sich nun induktiv fortsetzen, sodass
> gilt: [mm]\mu_1^{(0)} = .... = \mu_i^{(k_r)} = 0[/mm]

Ich kann noch kein allgemeines Schema erkennen, dass sich induktiv fortsetzen ließe.


> Ist das so in Ordnung (sofern ich mich nirgends vertippt
> habe)?

Die Grundidee ja, die Umsetzung nein.

Du benötigst unterwegs die lineare Unabhängigkeit gewisser Vektoren, bei denen es sich nicht nur um die Vektoren [mm] $u_1^{(0)},\ldots,u_r^{(0)}$ [/mm] handelt.

Daher würde ich einen wirklichen Induktionsbeweis vorschlagen, bei dem du die benötigte lineare Unabhängigkeit als Induktionsvoraussetzung erhältst.


Zeige die Behauptung im trivialen Fall $r=0$ separat und führe dann im Falle $r>0$ Induktion nach [mm] $\max(k_1,\ldots,k_r)$. [/mm]

Induktionsanfang: [mm] $\max(k_1,\ldots,k_r)=0$, [/mm] also [mm] $k_1=\ldots=k_r=0$. [/mm] Dann: ...

Induktionsschritt: Sei [mm] $n\in\IN_0$ [/mm] und die Behauptung gelte im Falle [mm] $\max(k_1,\ldots,k_r)=n$. [/mm] Zu zeigen ist, dass die Behauptung im Falle [mm] $\max(k_1,\ldots,k_r)=n+1$ [/mm] gilt.

Jetzt bitte unbedingt mit Summenzeichen arbeiten!

Gelte also

     [mm] $\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0$ [/mm]

für Skalare [mm] $\mu_i^{(j)}$ ($i=1,\ldots,r$, $j=0,\ldots,k_i$). [/mm]

Zu zeigen ist [mm] $\mu_i^{(j)}=0$ [/mm] für alle [mm] $i=1,\ldots,r$, $j=0,\ldots,k_i$. [/mm]

Bezug
                                                                
Bezug
Lineare Unabhängigkeit zeigen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:22 Di 21.05.2013
Autor: Apfelchips


> > [mm]\iff \mu_1^{(0)} (\lambda u_1^{(0)} - \lambda u_1^{(0)}) + ... + \mu_1^{(k_1)} (\lambda u_1^{(k_1)} - \lambda u_1^{(k_1)}) + ... + \mu_i^{(0)} (\lambda u_i^{(0)} - \lambda u_i^{(0)}) + ... + \mu_i^{(k_r)} (\lambda u_i^{(k_r)} - \lambda u_i^{(k_r)}) = 0[/mm]

>

> Nein. Nur die [mm]u_j^{(0)}[/mm] sind als Eigenvektoren zum
> Eigenwert [mm]\lambda[/mm] vorausgesetzt.

Stimmt …

Ich versuche mich dann besser direkt an der Induktion und der Schreibweise als doppelte Summe, wie Du empfiehlst. Bei den ganzen Indizes komme ich offen gesagt schon ziemlich durcheinander.

> Du benötigst unterwegs die lineare Unabhängigkeit
> gewisser Vektoren, bei denen es sich nicht nur um die
> Vektoren [mm]u_1^{(0)},\ldots,u_r^{(0)}[/mm] handelt.

>

> Daher würde ich einen wirklichen Induktionsbeweis
> vorschlagen, bei dem du die benötigte lineare
> Unabhängigkeit als Induktionsvoraussetzung erhältst.

>
>

> Zeige die Behauptung im trivialen Fall [mm]r=0[/mm] separat und
> führe dann im Falle [mm]r>0[/mm] Induktion nach
> [mm]\max(k_1,\ldots,k_r)[/mm].

>

> Induktionsanfang: [mm]\max(k_1,\ldots,k_r)=0[/mm], also
> [mm]k_1=\ldots=k_r=0[/mm]. Dann: ...

[mm]r=0[/mm] gibt es aber gar nicht, da laut Aufgabenstellung [mm]1 \leq i \leq r[/mm], oder?
Also muss ich bei [mm]r = 1[/mm] starten:

Dann ist zu zeigen: [mm]\mu_1^{(0)} u_1^{(0)} = 0[/mm] nur wenn [mm]\mu_1^{(0)} = 0[/mm]
[mm](A-\lambda*E_n)[/mm] angewandt: [mm]\mu_1^{(0)}(A-\lambda*E_n)u_1^{(0)} = 0[/mm]
​Da [mm]Au = \lambda u[/mm]: [mm]\mu_1^{(0)}(\lambda u_1^{(0)} - \lambda u_1^{(0)}) = 0 \iff \mu_1^{(0)} = 0[/mm]


> Induktionsschritt: Sei [mm]n\in\IN_0[/mm] und die Behauptung gelte
> im Falle [mm]\max(k_1,\ldots,k_r)=n[/mm]. Zu zeigen ist, dass die
> Behauptung im Falle [mm]\max(k_1,\ldots,k_r)=n+1[/mm] gilt.

>

> Jetzt bitte unbedingt mit Summenzeichen arbeiten!

>

> Gelte also

>

> [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]

>

> für Skalare [mm]\mu_i^{(j)}[/mm] ([mm]i=1,\ldots,r[/mm], [mm]j=0,\ldots,k_i[/mm]).

>

> Zu zeigen ist [mm]\mu_i^{(j)}=0[/mm] für alle [mm]i=1,\ldots,r[/mm],
> [mm]j=0,\ldots,k_i[/mm].

Wenn ich jetzt wieder [mm](A-\lambda*E_n)[/mm] anwende:

[mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)} = \sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)} = 0[/mm]

Dann kann ich für die [mm]u_i^{(0)}[/mm] ja schreiben: [mm]\mu_i^{(0)}(\lambda u_i^{(0)} - \lambda u_i^{(0)})[/mm]
Aber ich weiß nicht, wie ich das jetzt da einbauen kann …

Könnte ich da noch etwas Hilfe bekommen?

Viele Grüße
​Patrick

Bezug
                                                                        
Bezug
Lineare Unabhängigkeit zeigen: Antwort
Status: (Antwort) fertig Status 
Datum: 06:53 Mi 22.05.2013
Autor: tobit09


>  > Zeige die Behauptung im trivialen Fall [mm]r=0[/mm] separat und

>  > führe dann im Falle [mm]r>0[/mm] Induktion nach

>  > [mm]\max(k_1,\ldots,k_r)[/mm].

>  >
>  > Induktionsanfang: [mm]\max(k_1,\ldots,k_r)=0[/mm], also

>  > [mm]k_1=\ldots=k_r=0[/mm]. Dann: ...

>  
> [mm]r=0[/mm] gibt es aber gar nicht, da laut Aufgabenstellung [mm]1 \leq i \leq r[/mm],
> oder?

Leider schweigt sich die Aufgabenstellung darüber aus, ob [mm] $r\in\IN\setminus\{0\}$ [/mm] oder [mm] $r\in\IN_0$ [/mm] gelten soll. Die Formulierung "für jedes [mm] $1\le i\le [/mm] r$" schließt $r=0$ jedenfalls nicht aus (dann gibt es eben kein solches $i$).

Aber im Falle $r=0$ lautet die Behauptung ohnehin einfach, dass das leere System linear unabhängig ist. Und das dürfte ohnehin bekannt sein.


>  Also muss ich bei [mm]r = 1[/mm] starten:

Ich sehe keine Notwendigkeit, den Fall $r=1$ separat zu behandeln. Die von mir vorgeschlagene Induktion ist keine Induktion nach $r$, sondern eine Induktion nach [mm] $\max(k_1,\ldots,k_r)$. [/mm]

> Dann ist zu zeigen: [mm]\mu_1^{(0)} u_1^{(0)} = 0[/mm] nur
> wenn [mm]\mu_1^{(0)} = 0[/mm]

Also betrachtest du nun den Spezialfall $r=1$ und [mm] $k_1=0$. [/mm]

[mm] $\mu_1^{(0)}=0$ [/mm] ist klar, denn das einelementige System [mm] $u_1^{(0)}$ [/mm] ist linear unabhängig.

>  [mm](A-\lambda*E_n)[/mm]
> angewandt: [mm]\mu_1^{(0)}(A-\lambda*E_n)u_1^{(0)} = 0[/mm]
>  
> ​Da [mm]Au = \lambda u[/mm]: [mm]\mu_1^{(0)}(\lambda u_1^{(0)} - \lambda u_1^{(0)}) = 0[/mm]

Zwar nicht verkehrt, aber hilft nicht weiter: Da steht also die Gleichung [mm] $\mu_1^{(0)}*0=0$. [/mm]

> [mm]\iff \mu_1^{(0)} = 0[/mm]

Aus [mm] $\mu_1^{(0)}0=0$ [/mm] kannst du nicht so einfach auf [mm] $\mu_1^{(0)}=0$ [/mm] schließen.


> > Induktionsschritt: Sei [mm]n\in\IN_0[/mm] und die Behauptung gelte
>  > im Falle [mm]\max(k_1,\ldots,k_r)=n[/mm]. Zu zeigen ist, dass

> die
>  > Behauptung im Falle [mm]\max(k_1,\ldots,k_r)=n+1[/mm] gilt.

>  >
>  > Jetzt bitte unbedingt mit Summenzeichen arbeiten!

>  >
>  > Gelte also

>  >
>  > [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]

>  >
>  > für Skalare [mm]\mu_i^{(j)}[/mm] ([mm]i=1,\ldots,r[/mm],

> [mm]j=0,\ldots,k_i[/mm]).
>  >
>  > Zu zeigen ist [mm]\mu_i^{(j)}=0[/mm] für alle [mm]i=1,\ldots,r[/mm],

>  > [mm]j=0,\ldots,k_i[/mm].

>  
> Wenn ich jetzt wieder [mm](A-\lambda*E_n)[/mm] anwende:
>  
> [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)} = \sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)} = 0[/mm]
>  
> Dann kann ich für die [mm]u_i^{(0)}[/mm] ja
> schreiben: [mm]\mu_i^{(0)}(\lambda u_i^{(0)} - \lambda u_i^{(0)})[/mm]

Genau. Also [mm] $(A-\lambda E_n)u_i^{(j)}=0$ [/mm] im Falle $j=0$ für alle [mm] $i=1,\ldots,r$. [/mm]

Somit kann man die entsprechenden Summanden in der Summe ersatzlos weglassen und erhält

     [mm] $0=\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}u_i^{j-1}=\sum_{i=1}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j$. [/mm]


Nun wollen wir die Induktionsvoraussetzung ins Spiel bringen:

Das System [mm] $(v_i)_\substack{i=1,\ldots,r\\k_i-1\ge0}$ [/mm] ist ein endliches linear unabhängiges System von Eigenvektoren von $A$ zum Eigenwert [mm] $\lambda$. [/mm]

Für jedes [mm] $1\le i\le k_i-1$ [/mm] mit [mm] $k_i':=k_i-1\ge0$ [/mm] betrachten wir die Folge [mm] $u_i^{(0)},\ldots,u_i^{(k_i')}$. [/mm]
Für alle [mm] $1\le s\le k_i'$ [/mm] gilt [mm] $(A-\lambda\cdot{}E_n)u_i^{(s)} [/mm] = [mm] u_i^{(s-1)}$. [/mm]

Es gilt [mm] $\max\{\underbrace{k_i'}_{=k_i-1}\;|\;i\in\{1,\ldots,r\},k_i-1\ge0\}=\max(k_1,\ldots,k_r)-1=n+1-1=n$. [/mm]

Somit liefert die Induktionsvoraussetzung die lineare Unabhängigkeit von

     [mm] $(u_i^{j})_\substack{i=1,\ldots,r\\k_i-1\ge0\\j=0,\ldots,k_i-1}$. [/mm]


Also können wir aus

     [mm] $0=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j$ [/mm]

was schließen?

Mache dann weiter wie im Spezialfall $r=2$, [mm] $k_1=k_2=2$. [/mm]

Bezug
                                                                                
Bezug
Lineare Unabhängigkeit zeigen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:21 Mi 22.05.2013
Autor: Apfelchips


> > > Zeige die Behauptung im trivialen Fall [mm]r=0[/mm] separat und
> > > führe dann im Falle [mm]r>0[/mm] Induktion nach
> > > [mm]\max(k_1,\ldots,k_r)[/mm].
> > >
> > > Induktionsanfang: [mm]\max(k_1,\ldots,k_r)=0[/mm], also
> > > [mm]k_1=\ldots=k_r=0[/mm]. Dann: ...
> >
> > [mm]r=0[/mm] gibt es aber gar nicht, da laut Aufgabenstellung [mm]1 \leq i \leq r[/mm],
> > oder?
> Leider schweigt sich die Aufgabenstellung darüber aus, ob
> [mm]r\in\IN\setminus\{0\}[/mm] oder [mm]r\in\IN_0[/mm] gelten soll. Die
> Formulierung "für jedes [mm]1\le i\le r[/mm]" schließt [mm]r=0[/mm]
> jedenfalls nicht aus (dann gibt es eben kein solches [mm]i[/mm]).

So hab ich das noch gar nicht gesehen. Klingt aber plausibel.


> Aber im Falle [mm]r=0[/mm] lautet die Behauptung ohnehin einfach,
> dass das leere System linear unabhängig ist. Und das
> dürfte ohnehin bekannt sein.

Stimmt.

> Genau. Also [mm](A-\lambda E_n)u_i^{(j)}=0[/mm] im Falle [mm]j=0[/mm] für
> alle [mm]i=1,\ldots,r[/mm].

>

> Somit kann man die entsprechenden Summanden in der Summe
> ersatzlos weglassen und erhält

>

> [mm]0=\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}u_i^{j-1}=\sum_{i=1}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j[/mm].

>
>

> Nun wollen wir die Induktionsvoraussetzung ins Spiel
> bringen:

>

> Das System [mm](v_i)_\substack{i=1,\ldots,r\\k_i-1\ge0}[/mm] ist ein
> endliches linear unabhängiges System von Eigenvektoren von
> [mm]A[/mm] zum Eigenwert [mm]\lambda[/mm].

>

> Für jedes [mm]1\le i\le k_i-1[/mm] mit [mm]k_i':=k_i-1\ge0[/mm] betrachten
> wir die Folge [mm]u_i^{(0)},\ldots,u_i^{(k_i')}[/mm].
> Für alle [mm]1\le s\le k_i'[/mm] gilt
> [mm](A-\lambda\cdot{}E_n)u_i^{(s)} = u_i^{(s-1)}[/mm].

>

> Es gilt
> [mm]\max\{\underbrace{k_i'}_{=k_i-1}\;|\;i\in\{1,\ldots,r\},k_i-1\ge0\}=\max(k_1,\ldots,k_r)-1=n+1-1=n[/mm].

>

> Somit liefert die Induktionsvoraussetzung die lineare
> Unabhängigkeit von

>

> [mm](u_i^{j})_\substack{i=1,\ldots,r\\k_i-1\ge0\\j=0,\ldots,k_i-1}[/mm].

>

Zu zeigen ist ja, dass [mm]\mu_i^{(j)} = 0 \quad \forall i=1,...,r, j=0,...,k_i[/mm]
Oben hast Du die Summen so äquivalent umgeformt, dass die innere Summe nur noch bis [mm]k_i-1[/mm] statt bis [mm]k_i[/mm] läuft.

Da die [mm]u_i^{(j)}[/mm] mit den genannten Werteeinschränkungen linear unabhängig sind, sind die zugehörigen Skalare [mm]\mu_i^{(j)}[/mm] nun doch "automatisch" gleich null, richtig?

>

> Also können wir aus

>

> [mm]0=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j[/mm]

>

> was schließen?​

Das besagte [mm]\mu[/mm] gleich null sind? (Siehe meine obige Überlebung)

Viele Grüße
​Patrick

Bezug
                                                                                        
Bezug
Lineare Unabhängigkeit zeigen: Antwort
Status: (Antwort) fertig Status 
Datum: 01:38 Do 23.05.2013
Autor: tobit09


> > Genau. Also [mm](A-\lambda E_n)u_i^{(j)}=0[/mm] im Falle [mm]j=0[/mm] für
>  > alle [mm]i=1,\ldots,r[/mm].

>  >
>  > Somit kann man die entsprechenden Summanden in der

> Summe
>  > ersatzlos weglassen und erhält

>  >
>  > [mm]0=\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}(A-\lambda E_n)u_i^{(j)}=\sum_{i=1}^r\sum_{j=1}^{k_i}\mu_i^{(j)}u_i^{j-1}=\sum_{i=1}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j=\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j[/mm].

>  
> >
>  >
>  > Nun wollen wir die Induktionsvoraussetzung ins Spiel

>  > bringen:

>  >
>  > Das System [mm](v_i)_\substack{i=1,\ldots,r\\k_i-1\ge0}[/mm] ist

> ein
>  > endliches linear unabhängiges System von Eigenvektoren

> von
>  > [mm]A[/mm] zum Eigenwert [mm]\lambda[/mm].

>  >
>  > Für jedes [mm]1\le i\le k_i-1[/mm] mit [mm]k_i':=k_i-1\ge0[/mm]

> betrachten
>  > wir die Folge [mm]u_i^{(0)},\ldots,u_i^{(k_i')}[/mm].

>  > Für alle [mm]1\le s\le k_i'[/mm] gilt

>  > [mm](A-\lambda\cdot{}E_n)u_i^{(s)} = u_i^{(s-1)}[/mm].

>  >
>  > Es gilt

>  >

> [mm]\max\{\underbrace{k_i'}_{=k_i-1}\;|\;i\in\{1,\ldots,r\},k_i-1\ge0\}=\max(k_1,\ldots,k_r)-1=n+1-1=n[/mm].
>  >
>  > Somit liefert die Induktionsvoraussetzung die lineare

>  > Unabhängigkeit von

>  >
>  >

> [mm](u_i^{j})_\substack{i=1,\ldots,r\\k_i-1\ge0\\j=0,\ldots,k_i-1}[/mm].
>  >
>  
> Zu zeigen ist ja, dass [mm]\mu_i^{(j)} = 0 \quad \forall i=1,...,r, j=0,...,k_i[/mm]
>  
> Oben hast Du die Summen so äquivalent umgeformt, dass die
> innere Summe nur noch bis [mm]k_i-1[/mm] statt bis [mm]k_i[/mm] läuft.
>  
> Da die [mm]u_i^{(j)}[/mm] mit den genannten Werteeinschränkungen
> linear unabhängig sind, sind die zugehörigen
> Skalare [mm]\mu_i^{(j)}[/mm] nun doch "automatisch" gleich null,
> richtig?

Die zugehörigen Skalare in der Summe

     [mm] $\sum_{\substack{i=1\\k_i-1\ge0}}^r\sum_{j=0}^{k_i-1}\mu_i^{j+1}u_i^j$, [/mm]

ja.

Das sind die [mm] $\mu_i^{j+1}$ [/mm] für [mm] $i=1,\ldots,r$, $k_i-1\ge0$, $j=0,\ldots,k_i-1$. [/mm]

Mit anderen Worten die [mm] $\mu_i^j$ [/mm] für [mm] $i=1,\ldots,r$, $j=1,\ldots,k_i$. [/mm]


Diese [mm] $\mu_i^j$ [/mm] sind also zu 0 diskutiert. Bleiben noch die [mm] $\mu_i^0$ [/mm] zu 0 zu diskutieren.

Nutze dazu wie im Spezialfall $r=2$, [mm] $k_1=k_2=2$ [/mm] die Ausgangsgleichung

     [mm] $\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0$ [/mm]

und das Wissen, dass gewisse Skalare schon zu 0 diskutiert sind.

Bezug
                                                                                                
Bezug
Lineare Unabhängigkeit zeigen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:22 Do 23.05.2013
Autor: Apfelchips


> Diese [mm]\mu_i^j[/mm] sind also zu 0 diskutiert. Bleiben noch die
> [mm]\mu_i^0[/mm] zu 0 zu diskutieren.

>

> Nutze dazu wie im Spezialfall [mm]r=2[/mm], [mm]k_1=k_2=2[/mm] die
> Ausgangsgleichung

>

> [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]

>

> und das Wissen, dass gewisse Skalare schon zu 0 diskutiert
> sind.

Für die Ausgangsgleichung gilt nun also die Vereinfachung:

[mm]\sum_{i=1}^r\mu_i^{(0)}u_i^{(0)}=0[/mm]

[mm]u_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] sind linear unabhängig, also sind die [mm]\mu_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] gleich 0.
​Oder mache ich mir das jetzt zu einfach?

Bezug
                                                                                                        
Bezug
Lineare Unabhängigkeit zeigen: Antwort
Status: (Antwort) fertig Status 
Datum: 14:12 Do 23.05.2013
Autor: tobit09


> > Diese [mm]\mu_i^j[/mm] sind also zu 0 diskutiert. Bleiben noch die
>  > [mm]\mu_i^0[/mm] zu 0 zu diskutieren.

>  >
>  > Nutze dazu wie im Spezialfall [mm]r=2[/mm], [mm]k_1=k_2=2[/mm] die

>  > Ausgangsgleichung

>  >
>  > [mm]\sum_{i=1}^r\sum_{j=0}^{k_i}\mu_i^{(j)}u_i^{(j)}=0[/mm]

>  >
>  > und das Wissen, dass gewisse Skalare schon zu 0

> diskutiert
>  > sind.

>  
> Für die Ausgangsgleichung gilt nun also die
> Vereinfachung:
>  
> [mm]\sum_{i=1}^r\mu_i^{(0)}u_i^{(0)}=0[/mm]
>  
> [mm]u_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] sind linear unabhängig, also
> sind die [mm]\mu_i^{(0)}[/mm] mit [mm]i=1,...,r[/mm] gleich 0.
>  ​Oder mache ich mir das jetzt zu einfach?

Nein, alles bestens! [ok]

Bezug
                                                                                                                
Bezug
Lineare Unabhängigkeit zeigen: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:07 Do 23.05.2013
Autor: Apfelchips


> Nein, alles bestens! [ok]

Das freut mich! :-)

Hab vielen, vielen Dank für Deine Geduld und all die ausführlichen Erklärungen!

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de