www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Lineare Algebra - Eigenwerte" - Lin.Unabhängigkeit v. EV
Lin.Unabhängigkeit v. EV < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:27 Mi 12.05.2010
Autor: Faithless

Aufgabe
Seien [mm] A\inK^{n x n}, [/mm] m [mm] \le [/mm] n, [mm] \lambda_{1}, [/mm] ..., [mm] \lambda_{m} [/mm] paarweise verschiedene Eigenwerte von A.
Weiter sei [mm] v_{i} [/mm] der Eigenvektor zum Eigenwert [mm] \lambda_{i} [/mm] (i = 1, ..., m)
Zeigen Sie: [mm] v_{1}, [/mm] ..., [mm] v_{m} [/mm] sind linear unabhängig. Betrachten Sie dazu eine Linearkombination der Vektoren und wenden Sie A an.

in der Vorlesung hatten wir dazu auch nen anderen Beweis, dieser sollte allerdings mit Induktion gemacht werden
meine Lösung allerdings sieht anders aus, und ich denke sie ist auch richtig, mein Übungsgruppenleiter kam damit aber nicht so ganz klar und wir sind uns jetzt nicht sicher ob das komplett richtig ist oder nicht ^^

Annahme:
[mm] \exists v_{i}: v_{i} [/mm] linear abhängig zu [mm] \{v_{j} | j \not= i\} [/mm]
dann ist  [mm] v_{i} [/mm] = [mm] \summe_{j\not=i}^{} a_{j} v_{j} [/mm] mit [mm] v_{j} \in Eig(A,\lambda_{j}) [/mm]
dabei wählt man [mm] |v_{j}| [/mm] so, dass [mm] a_{j} [/mm] = 1
also
[mm] v_{i} [/mm] = [mm] \summe_{j\not=i}^{} v_{j} [/mm]
nun ist
[mm] Av_{i} [/mm] = A  [mm] \summe_{j\not=i}^{} v_{j} [/mm] =  [mm] \summe_{j\not=i}^{} Av_{j} [/mm] =  [mm] \summe_{j\not=i}^{} \lambda_{j} v_{j} [/mm]
aber auch
[mm] Av_{i} [/mm] = [mm] \lambda_{i}v_{i} [/mm] = [mm] \lambda_{i} \summe_{j\not=i}^{} v_{j} [/mm] = [mm] \summe_{j\not=i}^{} \lambda_{i} v_{j} [/mm]

also
[mm] \summe_{j\not=i}^{} \lambda_{i} v_{j} [/mm] = [mm] \summe_{j\not=i}^{} \lambda_{j} v_{j} [/mm]

da die eigenwerte paarweise verschieden sein sollen ist das ein widerspruch, die annahme ist also falsch, die bahauptung richtig [mm] \Box [/mm]


so.... jetzt hätt ich gerne meinungen dazu. alles richtig oder irgendwo nicht stichhaltig?

        
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:47 Mi 12.05.2010
Autor: steppenhahn

Hallo!

> Annahme:
> [mm]\exists v_{i}: v_{i}[/mm] linear abhängig zu [mm]\{v_{j} | j \not= i\}[/mm]
> dann ist  [mm]v_{i}[/mm] = [mm]\summe_{j\not=i}^{} a_{j} v_{j}[/mm] mit [mm]v_{j} \in Eig(A,\lambda_{j})[/mm]
>  
> dabei wählt man [mm]|v_{j}|[/mm] so, dass [mm]a_{j}[/mm] = 1

Das ist schonmal nicht so schön, weil es ja durchaus sein kann, dass einige [mm] a_{j} [/mm] Null gewesen wären.
Aus denen kann keine 1 gemacht werden.

>  [mm]v_{i}[/mm] = [mm]\summe_{j\not=i}^{} v_{j}[/mm]
>  nun ist
> [mm]Av_{i}[/mm] = A  [mm]\summe_{j\not=i}^{} v_{j}[/mm] =  
> [mm]\summe_{j\not=i}^{} Av_{j}[/mm] =  [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
>  
> aber auch
>  [mm]Av_{i}[/mm] = [mm]\lambda_{i}v_{i}[/mm] = [mm]\lambda_{i} \summe_{j\not=i}^{} v_{j}[/mm]
> = [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm]
>  
> also
> [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm] = [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]

Im nächsten Schritt benutzt du ganz wesentlich, dass [mm] \{v_{j} | j \not= i\} [/mm] linear unabhängig sind. Ist dir das klar, bzw. hast du das in deinem Beweis eingeplant?

Grüße,
Stefan

Bezug
                
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:00 Mi 12.05.2010
Autor: Faithless


> Hallo!
>  
> > Annahme:
> > [mm]\exists v_{i}: v_{i}[/mm] linear abhängig zu [mm]\{v_{j} | j \not= i\}[/mm]
> > dann ist  [mm]v_{i}[/mm] = [mm]\summe_{j\not=i}^{} a_{j} v_{j}[/mm] mit [mm]v_{j} \in Eig(A,\lambda_{j})[/mm]
>  
> >  

> > dabei wählt man [mm]|v_{j}|[/mm] so, dass [mm]a_{j}[/mm] = 1
>  
> Das ist schonmal nicht so schön, weil es ja durchaus sein
> kann, dass einige [mm]a_{j}[/mm] Null gewesen wären.
>  Aus denen kann keine 1 gemacht werden.
>  

natürlich kann man. da [mm] v_{j} \in Eig(A,\lambda_{j}) [/mm] ist der nullvektor eingeschlossen und ob man den jetzt 0-mal, 1-mal oder x-mal dazuaddiert macht nicht sooo den riesen unterschied

> >  [mm]v_{i}[/mm] = [mm]\summe_{j\not=i}^{} v_{j}[/mm]

>  >  nun ist
> > [mm]Av_{i}[/mm] = A  [mm]\summe_{j\not=i}^{} v_{j}[/mm] =  
> > [mm]\summe_{j\not=i}^{} Av_{j}[/mm] =  [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
>  
> >  

> > aber auch
>  >  [mm]Av_{i}[/mm] = [mm]\lambda_{i}v_{i}[/mm] = [mm]\lambda_{i} \summe_{j\not=i}^{} v_{j}[/mm]
> > = [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm]
>  >  
> > also
> > [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm] = [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
>  
> Im nächsten Schritt benutzt du ganz wesentlich, dass
> [mm]\{v_{j} | j \not= i\}[/mm] linear unabhängig sind. Ist dir das
> klar, bzw. hast du das in deinem Beweis eingeplant?
>  

ohne weiter drüber nachzudenken würd ich erstmal behaupten die möglichkeit besteht zwar, aber es handelt sich um eine gleichung die für alle [mm] v_{j} [/mm] gelten sollte und nicht nur für den fall, dass sie zufällig schon liniear abhängig sind
allerdings ist die behauptung ja dass alle eigenvektoren zueinander linear unabhängig sind.
ich nehme in dem fall jetzt an dass es ein [mm] v_{i} [/mm] gibt, dass als linearkombination der anderen geschrieben werden kann und führe das zu einem widerspruch.
weiterhin könnte man die annahme auch auf die [mm] v_{j} [/mm] anwenden und solange indizes raus nehmen bis man eine linear unabängige menge hat

also für mich hört sich das alles ganz schlüssig an :)

Bezug
        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 19:32 Mi 12.05.2010
Autor: angela.h.b.


> also
> [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm] = [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
>  
> da die eigenwerte paarweise verschieden sein sollen ist das
> ein widerspruch,

Hallo,

nein, dieser Schluß ist falsch, wie auch von steppenhahn bereits bemerkt:

aus

>
> [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm] = [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]

folgt

0= [mm]\summe_{j\not=i}^{} (\lambda_{i}-\lambda_j) v_{j}[/mm].

Daraus folgt bloß im Falle der linearen Unabhängigkeit der [mm] v_j \qaud [/mm] (j=1,...,m),  daß [mm] \lambda_i=\lambda_j [/mm] für alle j.
Und da diese nicht Voraussetzung Deines Beweise ist, sondern Du ja gerade Abhängigkeit angenommen hattest, kannst Du so nicht schließen.

Gruß v. Angela


> die annahme ist also falsch, die
> bahauptung richtig [mm]\Box[/mm]







Bezug
                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:01 Mi 12.05.2010
Autor: Faithless


>
> > also
> > [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm] = [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
>  
> >  

> > da die eigenwerte paarweise verschieden sein sollen ist das
> > ein widerspruch,
>  
> Hallo,
>  
> nein, dieser Schluß ist falsch, wie auch von steppenhahn
> bereits bemerkt:
>  
> aus
>  >

> > [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j}[/mm] = [mm]\summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
>  
> folgt
>
> 0= [mm]\summe_{j\not=i}^{} (\lambda_{i}-\lambda_j) v_{j}[/mm].
>  
> Daraus folgt bloß im Falle der linearen Unabhängigkeit
> der [mm]v_j \qaud[/mm] (j=1,...,m),  daß [mm]\lambda_i=\lambda_j[/mm] für
> alle j.
>  Und da diese nicht Voraussetzung Deines Beweise ist,
> sondern Du ja gerade Abhängigkeit angenommen hattest,
> kannst Du so nicht schließen.
>  

interessante umstellung
aber:
[mm] v_{i} [/mm] ist eigenvektor, also NICHT = 0
dementsprechend gibt es mindestens ein [mm] v_{j}\not=0 [/mm]  in der summe
und wieder hieße es ja, dass für alle möglichen eigenvektoren die gleichung gelten muss.
dann finde ich das einfache beispiel:
[mm] A\in\IR^{2x2} [/mm]
seien [mm] \lambda_{1}=1 [/mm] und [mm] \lambda_{2}=2 [/mm] eigenwerte, dann gilt 0 = [mm]\summe_{j\not=1}^{} (\lambda_{1}-\lambda_j) v_{j}[/mm]
da es nur ein [mm] v_{j} [/mm] (j=2) gibt muss [mm] v_{2} \not= [/mm] 0
also 0 = (2-1) [mm] v_{2} [/mm] und wir sind wieder beim widerspruch

man kann die annahme auch solange weiter führen bis man einen eigenvektor durch eine linear unabhängige menge ausdrückt, spätestens bei einem verbleibenden vektor ist man in einem fall wie in dem beispiel

ab hier noch nicht diskutiert
anderes argument:

0= [mm]\summe_{j\not=i}^{} (\lambda_{i}-\lambda_j) v_{j}[/mm]
0= [mm] \summe_{j\not=i}^{} (\lambda_{i}-\lambda_j+1) v_{j}-v_{i} [/mm]
also muss [mm] \lambda_{i}-\lambda_j+1 [/mm] = 1 für alle j
[mm] \lambda_{i}-\lambda_j [/mm] = 0 für alle j
[mm] \lambda_{i}=\lambda_j [/mm] für alle j
und [mm] \lambda_{i}\not=\lambda_j [/mm] für i [mm] \not= [/mm] j

was mich immernoch dazu verleitet zu sagen in [mm] \summe_{j\not=i}^{}\lambda_{i}v_{j}=\summe_{j\not=i}^{}\lambda_{j}v_{j} [/mm] ist der widerspruch

Bezug
                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 20:11 Mi 12.05.2010
Autor: SEcki


> interessante umstellung

Nein, dies ist ein Standardargument der linearen Algebra.

>  aber:
>  [mm]v_{i}[/mm] ist eigenvektor, also NICHT = 0

So what? die Summe könnte dennoch 0 sein.

>  dementsprechend gibt es mindestens ein [mm]v_{j}\not=0[/mm]  in der
> summe
> und wieder hieße es ja, dass für alle möglichen
> eigenvektoren die gleichung gelten muss.

Ja, dann musst du aber weitermachen und nicht sagen "ich bin fertig!".

> man kann die annahme auch solange weiter führen bis man
> einen eigenvektor durch eine linear unabhängige menge
> ausdrückt, spätestens bei einem verbleibenden vektor ist
> man in einem fall wie in dem beispiel

Und, ob du's glaubst oder nicht: das nennt man Induktion! Du machst Induktion über die Länge der Menge von Eigenvektoren zu paarweise verschiedenen EW. Für Länge 1 ist'S klar, für größere führst du es auf kleiner zurück und findest mit Angelas Argument den Widerspruch.

SEcki

Bezug
                                
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 20:18 Mi 12.05.2010
Autor: Faithless

ok.... induktion mag das sein aber die überarbeitung meines beistrags zeigt die rechnung ohne induktion:
dabei ist nicht zu vergessen dass die [mm] v_{j} [/mm] fest gewählt sind und deswegen muss [mm] \lambda_{i}-\lambda{j} [/mm] stets null ergeben.
was der widerspruch zur paarweisen verschiedenheit ist

womit ich eigentlich wieder da bin wo ich behaupte
[mm] \summe_{j\not=i}^{}\lambda_{i}v_{j}=\summe_{j\not=i}^{}\lambda_{j}v_{j} [/mm] ist der widerspruch

Bezug
                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 21:39 Mi 12.05.2010
Autor: SEcki


> ab hier noch nicht diskutiert

Dann stell ne neue Frage das nächste mal bitte.

>  anderes argument:
>  
> 0= [mm]\summe_{j\not=i}^{} (\lambda_{i}-\lambda_j) v_{j}[/mm]
>  0=
> [mm]\summe_{j\not=i}^{} (\lambda_{i}-\lambda_j+1) v_{j}-v_{i}[/mm]
>  
> also muss [mm]\lambda_{i}-\lambda_j+1[/mm] = 1 für alle j

Warum? Ich packe die Gebetsmühle aus: das gilt nur, wenn die [m]v_j[/m] linear unabhängig sind. Für beliebige Vektoren ist es falsch. Und nein, die Gleichung wird nicht für alle EV behauptet, sondern nur für spezielle. Du hast immer noch kein Argument geliefert.

SEcki

Bezug
                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 03:44 Do 13.05.2010
Autor: Faithless


> Dann stell ne neue Frage das nächste mal bitte.

ok... hätte ich vielleich tun sollen. ich bin allerdings noch nicht so vertraut mit diesem forum, sodass ich bitte diesen fehler zu entschuldigen :)

> Warum? Ich packe die Gebetsmühle aus: das gilt nur, wenn
> die [mm] x_{j} [/mm] linear unabhängig sind.

nun... nehmen wir an es gebe eine teilmenge aller [mm] v_{j} [/mm] die linear abhängig ist.
all diese [mm] v_{j} [/mm] werden mit ihren zugehörigen [mm] \lambda_{j} [/mm] multipliziert. da die [mm] v_{j} [/mm] NICHT beliebig gewählt sind, sondern so, dass sie zusammenaddiert [mm] v_{i} [/mm] (bzw in diesem fall den teil von [mm] v_{i}, [/mm] den die linear abhängigen eigenvektoren beitragen) ergeben müssen, müssen all ihre [mm] \lambda_{j} [/mm] so gewählt werden, dass die rechnung auf geht.
[mm] \lambda_{j} [/mm] ist aber eine feste zahl und ist dementsprechend nicht frei wählbar, sodass die aussage (deine) im allgemeinen falsch ist. es mag fälle geben, wo das tatsächlich der fall ist, aber die dazugehörigen linearkombinationen kann man dann auch anders wählen, sodass auch mit linear abhängigen vektoren nicht das gleiche raus kommt.
also ist auch die annahme, dass die [mm] v_{j} [/mm] linear abhängig sind nicht brauchbar, um den beweis zu widerlegen.... oder?

Bezug
                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 09:13 Do 13.05.2010
Autor: SEcki


>  all diese [mm]v_{j}[/mm] werden mit ihren zugehörigen [mm]\lambda_{j}[/mm]
> multipliziert. da die [mm]v_{j}[/mm] NICHT beliebig gewählt sind,
> sondern so, dass sie zusammenaddiert [mm]v_{i}[/mm] (bzw in diesem
> fall den teil von [mm]v_{i},[/mm] den die linear abhängigen
> eigenvektoren beitragen) ergeben müssen, müssen all ihre
> [mm]\lambda_{j}[/mm] so gewählt werden, dass die rechnung auf
> geht.

Ja und? Es gibt einfach eine solche Zerlegung.

>  [mm]\lambda_{j}[/mm] ist aber eine feste zahl und ist
> dementsprechend nicht frei wählbar,

Aber die [m]v_i[/m] haben sehr große Wahlmöglichkeiten ...

> sodass die aussage
> (deine) im allgemeinen falsch ist.

Du hast meine Aussage überhaupt nicht verstanden. Zu mindest scheint mir es so.

> es mag fälle geben, wo
> das tatsächlich der fall ist, aber die dazugehörigen
> linearkombinationen kann man dann auch anders wählen,
> sodass auch mit linear abhängigen vektoren nicht das
> gleiche raus kommt.

Natürlich. Sagt keiner was anderes. Aber es gibt eine einzige Kombination - das ist der Punkt, es muss nicht mehr als eine geben. Wir haben per Annahme eine ganz spezielle Wahl die in sich kein Widerspruch ist. Das andere Wahlen anderer Ergebnisse bilden - ist völlig egal.

>  also ist auch die annahme, dass die [mm]v_{j}[/mm] linear abhängig
> sind nicht brauchbar, um den beweis zu widerlegen.... oder?

Du hast den Punkt nicht besprochen, dein Beweis hat da ein großes Loch, weil dein Widerspruch so einfach keiner ist, sondern man weiter machen muss.

Mache dir lineare Abhängigkeit und Unabhängigkeit erstmal klar, bevor wir hier viel ins Nichts weiterreden!

SEcki

Bezug
                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:44 Do 13.05.2010
Autor: Faithless


> >  [mm]\lambda_{j}[/mm] ist aber eine feste zahl und ist

> > dementsprechend nicht frei wählbar,
>  
> Aber die [m]v_i[/m] haben sehr große Wahlmöglichkeiten ...
>  

ich glaube du hast es eher nicht ganz verstanden.... du kannst weder [mm] \lambda_{j} [/mm] frei wählen, da sie vorgegebene eigenwerte sind, noch [mm] v_{j} [/mm] frei wählen, da sie zu einem beliebigen [mm] v_{i} [/mm] so gewählt sind, dass sie addiert [mm] v_{i} [/mm] ergeben.
daher müssen alle vektoren, die linear abhängig sind, einen bestimmten vektor ergeben, den teil, den sie zu [mm] v_{i} [/mm] beitragen, bilden

ich versuch das mal an nem beispiel klarzumachen
nehmen wir an, du hast im [mm] \IR^{4}: e_{1}, e_{2}, \vektor{1 \\ 1 \\ 0 \\ 0} [/mm]
und du willst [mm] v_{1} [/mm] = [mm] \vektor{2 \\ 3 \\ 0 \\ 0} [/mm] bilden
du nimmst dir also beliebig lange vektoren, die dann ohne koeffizienten zusammen [mm] \vektor{2 \\ 3 \\ 0 \\ 0} [/mm] ergeben
z.b. [mm] v_{2} [/mm] = [mm] \vektor{-1\\ 0 \\ 0 \\ 0}, v_{3} [/mm] = [mm] \vektor{0 \\ 0 \\ 0 \\ 0}, v_{4} [/mm] = [mm] \vektor{3 \\ 3 \\ 0 \\ 0} [/mm]

an diesen vektoren kannst du dann nicht mehr rum schrauben.
dann willst du irgendwann [mm] \summe_{j\not=1}^{}(\lambda_{1}-\lambda_{j}+1)v_{j} [/mm] = [mm] v_{1} [/mm] bilden
also nichts anderes als [mm] (\lambda_{1}-\lambda_{2}+1) \vektor{-1 \\ 0 \\ 0 \\ 0} [/mm] + [mm] (\lambda_{1}-\lambda_{3}+1) \vektor{0 \\ 0 \\ 0 \\ 0} [/mm] + [mm] (\lambda_{1}-\lambda_{4}+1) \vektor{3 \\ 3 \\ 0 \\ 0} [/mm] = [mm] \vektor{2 \\ 3 \\ 0 \\ 0} [/mm]
also [mm] (\lambda_{1}-\lambda_{2}) \vektor{-1 \\ 0 \\ 0 \\ 0} [/mm] + [mm] (\lambda_{1}-\lambda_{3}) \vektor{0 \\ 0 \\ 0 \\ 0} [/mm] + [mm] (\lambda_{1}-\lambda_{4}) \vektor{3 \\ 3 \\ 0 \\ 0} [/mm] = 0
und das ist eine falsche aussage, da nicht alle vektoren = 0 sind (nur wählbar, wenn es noch weitere vektoren gibt. es gibt IMMER ein [mm] v_{j}\not= [/mm] 0) und die [mm] \lambda [/mm] paarweise verschieden sind.

für den fall dass es noch einen weiteren vektor gäbe, der linear unabhängig zu diesen vektoren gäbe (dann im [mm] \IR^{5} [/mm] oder so) würde er diese rechnung nicht beeinflussen, wenn seine länge selbst nicht = 0 ist würde er allein aber schon zu einem widerspruch führen

Bezug
                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 16:57 Do 13.05.2010
Autor: angela.h.b.


> ich versuch das mal an nem beispiel klarzumachen
>  nehmen wir an, du hast im [mm]\IR^{4}: e_{1}, e_{2}, \vektor{1 \\ 1 \\ 0 \\ 0}[/mm]
>  
> und du willst [mm]v_{1}[/mm] = [mm]\vektor{2 \\ 3 \\ 0 \\ 0}[/mm] bilden
>  du nimmst dir also beliebig lange vektoren, die dann ohne
> koeffizienten zusammen [mm]\vektor{2 \\ 3 \\ 0 \\ 0}[/mm] ergeben
>  z.b. [mm]v_{2}[/mm] = [mm]\vektor{-1\\ 0 \\ 0 \\ 0}, v_{3}[/mm] = [mm]\vektor{0 \\ 0 \\ 0 \\ 0}, v_{4}[/mm]
> = [mm]\vektor{3 \\ 3 \\ 0 \\ 0}[/mm]

Hallo,

Du schreibst hier Dein [mm] v_2 [/mm] als Linearkombination ganz spezieller (von Null verschiedener ) Vielfacher Deiner drei Vektoren,
nämlich so, daß Du (wenn man den Nullvektor fortläßt) eine Summe linear unabhänger Vektoren hast, mit welchen Du weiterarbeitest.
Das ist entscheidend für die von Dir angestrebte Argumentation.

Wenn Du so etwas tust, muß dies in Deinem Beweis zum Ausdruck gebracht werden, zusammen mit einer Begründung dafür, daß dieses Tun in jedem Fall funktioniert.

Ein Beweis muß doch ein lückenloses Gebilde sein.
Es geht nicht, daß wesentliche Schritte der Fantasie des Lesers überlassen werden. Du willst doch überzeugen.
Deiner hat also abisher an dieser Stelle eine Lücke, welche Du noch füllen mußt.
Es sagt ja niemand, daß sie nicht zu füllen ist - ber so, wie er bisher dasteht, ist er noch nicht richtig, da die Argumentation nicht korrekt und schlüssig bis zum Widerspruch geführt wurde.

Für den Schluß, den Du ziehen willst, brauchst Du die lineare Unabhängigkeit der Vektoren auf der rechten Seite. Aber irgendwie wiederholt es sich jetzt...

Gruß v. Angela

Bezug
                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:11 Do 13.05.2010
Autor: Faithless

ähm... ich sage doch am anfang von meinem beweis, dass  [mm] v_{i} [/mm] eine linearkombination aus [mm] v_{j} [/mm] sein soll.
also
[mm] v_{i}=\summe_{j\not=i}^{}a_{j}v_{j} [/mm] , [mm] v_{j} \in Eig(A,\lambda_{j}) [/mm]
dann gibt es eine passende kombination, in der alle [mm] a_{j}=1 [/mm]
also [mm] v_{i} [/mm] = [mm] \summe_{j=i}^{}v_{j} [/mm]
damit ist festgelegt, dass man die [mm] v_{j} [/mm] nicht beliebig wählen kann.
für den fall dass es linear abhängige [mm] v_{j} [/mm] gibt, kann man zwar einige davon frei wählen, jedoch müssen alle zusammen einen bestimmten vektor ergeben, was die anderen vektoren klar festlegt, sodass die scheinbare wahlfreiheit gar keine ist.
die von dir angesprochene lücke existiert damit auch nicht.

Bezug
                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 17:30 Do 13.05.2010
Autor: SEcki


>  die von dir angesprochene lücke existiert damit auch
> nicht.

Natürlich existiert die. Aber wir wiederholen uns hier dann zum 101. mal - darauf hab ich jedenfalls keine Lust mehr!

SEcki

Bezug
                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 17:33 Do 13.05.2010
Autor: Faithless

ich habe doch grad begründet warum sie nicht da ist... da kannst du doch nicht einfach ohne gegenargument behaupten dass es sie gibt o.O


was is eigentlich dein problem damit mir entweder lückenlos zu beweisen dass ich irgendwas übersehen habe oder mir auf rückfragen solange zu antworten bis wir beide auf dem gleichen nenner sind?
weil solange du mir mit behauptungen kommst die ich dir anhand meines beweises widersprechen kann finde ich nicht dass ich zugeben muss was falsch gemacht zu haben
"ich habe keine lust mehr" hört sich hier eher an nach "ich finde keine argumente mehr"

Bezug
                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 07:29 Fr 14.05.2010
Autor: angela.h.b.


> ähm... ich sage doch am anfang von meinem beweis, dass  
> [mm]v_{i}[/mm] eine linearkombination aus [mm]v_{j}[/mm] sein soll.
>  also
> [mm]v_{i}=\summe_{j\not=i}^{}a_{j}v_{j}[/mm] , [mm]v_{j} \in Eig(A,\lambda_{j})[/mm]
>  
> dann gibt es eine passende kombination, in der alle
> [mm]a_{j}=1[/mm]
>  also [mm]v_{i}[/mm] = [mm]\summe_{j=i}^{}v_{j}[/mm]
>  damit ist festgelegt, dass man die [mm]v_{j}[/mm] nicht beliebig
> wählen kann.
>  für den fall dass es linear abhängige [mm]v_{j}[/mm] gibt, kann
> man zwar einige davon frei wählen, jedoch müssen alle
> zusammen einen bestimmten vektor ergeben, was die anderen
> vektoren klar festlegt, sodass die scheinbare wahlfreiheit
> gar keine ist.
>  die von dir angesprochene lücke existiert damit auch
> nicht.

Hallo,

es kann ja sein, daß Dein Beweis, den Du inzwischen auf Papier irgendwo hast, keine Lücke enthält.
Die letzte mir erinnerliche hier gepostete Version jedoch hat eine nennenswerte Lücke und ist damit (noch) falsch - aber nicht unrettbar falschE

"Einige davon  frei wählen", "alle zusammen einen bestimmten Vektor", "scheinbare Wahlfreiheit" müßte sich doch irgendwo in Deinem Beweis niederschlagen.
Solange dies der Gutgläubigkeit/Fantasie der Leser überlassen ist, ist es eben noch kein Beweis.

Also once more:

Du hast eine Matrix A mit m verschiedenen Eigenwerten [mm] \lambda_1, [/mm] ..., [mm] \lambda_m [/mm] und zugehörigen pw verschiedenen  Eigenvektoren [mm] v_1, [/mm] ..., [mm] v_m. [/mm]

Angenommen, es wären [mm] v_1, [/mm] ..., [mm] v_m [/mm] linear abhängig.

Dann gäbe es einen Eigenvektor, den man als Linearkombination der anderen schreiben kann.
OBdA  sei [mm] v_m [/mm] eine Linearkombination von [mm] v_1,..., v_{m-1}. [/mm]

Jetzt kannst Du, damit Dein späteres Argument greift, aus den [mm] v_1,..., v_{m-1} [/mm] eine maximale lineare unabhängige Teilmenge auswählen.
(Der Satz, daß jedes Erzeugendensystem eine Basis enthält, garantiert Dir, daß es funktioniert.)
Diese max. linear unabhängige Teilmenge enthalte [mm] k\le [/mm] m-1 Elemente.

OBdA seien  [mm] v_1,...v_k [/mm]  linear unabhängig.

(zu den OBdA.: sonst numeriert man um.)

Dann gibt es Koeffizienten [mm] a_i [/mm] mit [mm] v_m=\summe_{i=1}^{k}a_iv_i. [/mm]
Mindestens einer der Koeffizienten [mm] a_i [/mm] ist von 0 verschieden, denn der Eigenvektor [mm] v_m [/mm] ist nicht der Nullvektor.

(Deinen Zwischenschritt, den Vektoren [mm] a_iv_i [/mm] einen eigenen Namen zu geben, spare ich ein.)

Multiplikation mit A liefert

[mm] \lambda_mv_m=\summe_{i=1}^{k}\lambda_i(a_iv_i), [/mm]

also [mm] \summe_{i=1}^{k}\lambda_m(a_iv_i)=\summe_{i=1}^{k}\lambda_i(a_iv_i), [/mm]

dh. [mm] 0=\summe_{i=1}^{k}(\lambda_i-\lambda_m)(a_iv_i). [/mm]

Da die [mm] v_i [/mm] linear unabhängig sind, folgt nun, daß [mm] a_i(\lambda_i-\lambda_m)=0 [/mm] für alle i=1,...,k ist.

Wie oben erwähnt gibt es ein k' mit [mm] a_{k'}\not=0. [/mm]
Also muß für dieses k' gelten [mm] \lambda_{k'}-\lambda_{m}=0, [/mm] womit Du nun den von Dir gewünschten Widerspruch dazu, daß die [mm] \lambda_i [/mm] paarweise verschieden sind,hast.

Du siehst: für das entscheidende Argument brauchst Du in [mm] v_m=\summe_{i=1}^{k}a_iv_i [/mm] die lineare Unabhängigkeit auf der rechten Seite.
Und wie man zu dieser kommt, muß in einem Beweis zu verfolgen sein.
"Lineare Unabhängigkeit" an sich ist Dir richtig klar?

Gruß v. Angela







Bezug
                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:57 Fr 14.05.2010
Autor: Faithless

ok... erstmal danke für die erste detaillierte kommentierung, dazu kann ich endlich mal richtig stellung nehmen :)
ich versuche jetzt einfach mal, jedes detail in meiner beweisführung wieder zu finden. ich denke, ich kann alles finden, wenn es auch noch so versteckt irgendwo drin steckt.

> Hallo,
>  
> es kann ja sein, daß Dein Beweis, den Du inzwischen auf
> Papier irgendwo hast, keine Lücke enthält.

nein, ich gehe immernoch von der ersten von mir geposteten version aus

>  Die letzte mir erinnerliche hier gepostete Version jedoch
> hat eine nennenswerte Lücke und ist damit (noch) falsch -
> aber nicht unrettbar falschE
>  
> "Einige davon  frei wählen", "alle zusammen einen
> bestimmten Vektor", "scheinbare Wahlfreiheit" müßte sich
> doch irgendwo in Deinem Beweis niederschlagen.
>  Solange dies der Gutgläubigkeit/Fantasie der Leser
> überlassen ist, ist es eben noch kein Beweis.

bleibt für mich zu zeigen, dass alles klar definiert ist, also kein platz für fantasie bleibt :)

>  
> Also once more:
>  
> Du hast eine Matrix A mit m verschiedenen Eigenwerten
> [mm]\lambda_1,[/mm] ..., [mm]\lambda_m[/mm] und zugehörigen pw verschiedenen
>  Eigenvektoren [mm]v_1,[/mm] ..., [mm]v_m.[/mm]
>  
> Angenommen, es wären [mm]v_1,[/mm] ..., [mm]v_m[/mm] linear abhängig.
>  
> Dann gäbe es einen Eigenvektor, den man als
> Linearkombination der anderen schreiben kann.
>  OBdA  sei [mm]v_m[/mm] eine Linearkombination von [mm]v_1,..., v_{m-1}.[/mm]

soweit sollten wir uns einig sein

>  
> Jetzt kannst Du, damit Dein späteres Argument greift, aus
> den [mm]v_1,..., v_{m-1}[/mm] eine maximale lineare unabhängige
> Teilmenge auswählen.
>  (Der Satz, daß jedes Erzeugendensystem eine Basis
> enthält, garantiert Dir, daß es funktioniert.)
>  Diese max. linear unabhängige Teilmenge enthalte [mm]k\le[/mm] m-1
> Elemente.
>  
> OBdA seien  [mm]v_1,...v_k[/mm]  linear unabhängig.
>  
> (zu den OBdA.: sonst numeriert man um.)

du machst also eine teilmenge, die linear abhängig ist, zu einem vektor.
gut. mit anderen worten du nimmst eine summe von entsprechenden [mm] v_{i}, [/mm] und bildest ein [mm] v_{j}=\summe_{i}^{}a_{i}v{i} [/mm] (wobei hier die bezeichnung der basisvektoren als v zu verwirrungen führt wenn man nicht genau aufpasst. unglücklich gewählt aber naja... happens)
diese zusammenfassung machst du extra, ich lasse die einfach in der summe stehen.
kannst du rückgängig machen indem du später einfach in der summe entsprechend wieder die summe einsetzt - du hast eine summe aus allen eigenvektoren
OBdA "umgehe" ich damit dass i jeden index annehmen kann -> nicht nötig

oder einfach mal klar aufgeschrieben:
du wählst eine basis (kleiner kommentar meinerseits: hey, du wählst... hast du etwa wahlfreiheit? scheinbar schon. bleibt wohl deiner fantasie überlassen welche du nimmst - verdammt ich kann doch nicht zeigen dass der beweis ohne fantasie auskommt ;) )
jeden dieser basisvektoren (im weiteren verlauf bezeichne ich sie mit b) ist also eine kombination aus vektoren des erzeugendensystems
sprich: [mm] b_{i} [/mm] = [mm] \summe_{j=1}^{m-1}c_{i,j}v_{j} [/mm]
ich hoffe ist klar was ich mit [mm] c_{i,j} [/mm] meine, ich finde grad schwer worte um es zu erklären. allerdings sei auch hier eben festgestellt dass es mindestens ein [mm] (c_{i,j})_j\not=0 [/mm] gibt, weiterhin (für später) auch folgt ein [mm] \summe_{j=1}^{k}a_ic_{i,j}\not=0 [/mm]
damit ist [mm] v_{m} [/mm] = [mm] \summe_{i=1}^{k}a_{i}b_{i} [/mm] = [mm] \summe_{i=1}^{k}(a_{i} \summe_{j=1}^{m-1}c_{i,j}v_{j}) [/mm] = [mm] \summe_{j=1}^{m-1}(v_j \summe_{i=1}^{k}a_ic_{i,j}) [/mm]
dabei habe ich einfach mal aufgegriffen dass die basis die länge k hat.
ist zwar n bisschen blöd grad dass ich ebenfalls a als koeffizienten habe, aber ich denke mal man sieht auch so, dass meine summe und deine summe nicht viel unterschied haben.

> Dann gibt es Koeffizienten [mm]a_i[/mm] mit
> [mm]v_m=\summe_{i=1}^{k}a_iv_i.[/mm]
>  Mindestens einer der Koeffizienten [mm]a_i[/mm] ist von 0
> verschieden, denn der Eigenvektor [mm]v_m[/mm] ist nicht der
> Nullvektor.

durch die normierung [mm] a_{j} [/mm] = 1 ist entsprechendes für meine [mm] v_{j} [/mm] zu sagen

>  
> (Deinen Zwischenschritt, den Vektoren [mm]a_iv_i[/mm] einen eigenen
> Namen zu geben, spare ich ein.)
>  
> Multiplikation mit A liefert
>  
> [mm]\lambda_mv_m=\summe_{i=1}^{k}\lambda_i(a_iv_i),[/mm]
>  
> also
> [mm]\summe_{i=1}^{k}\lambda_m(a_iv_i)=\summe_{i=1}^{k}\lambda_i(a_iv_i),[/mm]
>  
> dh. [mm]0=\summe_{i=1}^{k}(\lambda_i-\lambda_m)(a_iv_i).[/mm]

nichts anderes ergibt meine rechnung.

>  
> Da die [mm]v_i[/mm] linear unabhängig sind, folgt nun, daß
> [mm]a_i(\lambda_i-\lambda_m)=0[/mm] für alle i=1,...,k ist.
>  
> Wie oben erwähnt gibt es ein k' mit [mm]a_{k'}\not=0.[/mm]
>  Also muß für dieses k' gelten
> [mm]\lambda_{k'}-\lambda_{m}=0,[/mm] womit Du nun den von Dir
> gewünschten Widerspruch dazu, daß die [mm]\lambda_i[/mm] paarweise
> verschieden sind,hast.
>  
> Du siehst: für das entscheidende Argument brauchst Du in
> [mm]v_m=\summe_{i=1}^{k}a_iv_i[/mm] die lineare Unabhängigkeit auf
> der rechten Seite.

wenn ich mich nicht grad irgendwo extrem geirrt habe sollte ich grad gezeigt haben dass die lineare unabhängigkeit nicht wichtig ist für den beweis

>  Und wie man zu dieser kommt, muß in einem Beweis zu
> verfolgen sein.

entfällt damit auch

>  "Lineare Unabhängigkeit" an sich ist Dir richtig klar?

ich denke schon. oder erweckt noch irgendwas einen anderen eindruck?

>  
> Gruß v. Angela
>  
>

ich hoffe dass du (oder irgendwer anders) zu meiner argumentation klare argumente dagegen findet oder jemand bestätigen kann dass alles richtig ist.
wenn für mich platz bleibt zu kontern artet dass wieder in einer endlosdiskussion aus fürchte ich -.-

grüße zurück :)


Bezug
                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 07:15 Sa 15.05.2010
Autor: angela.h.b.


> > Du hast eine Matrix A mit m verschiedenen Eigenwerten
> > [mm]\lambda_1,[/mm] ..., [mm]\lambda_m[/mm] und zugehörigen pw verschiedenen
> >  Eigenvektoren [mm]v_1,[/mm] ..., [mm]v_m.[/mm]

>  >  
> > Angenommen, es wären [mm]v_1,[/mm] ..., [mm]v_m[/mm] linear abhängig.
>  >  
> > Dann gäbe es einen Eigenvektor, den man als
> > Linearkombination der anderen schreiben kann.
>  >  OBdA  sei [mm]v_m[/mm] eine Linearkombination von [mm]v_1,..., v_{m-1}.[/mm]

> >  

> > Jetzt kannst Du, damit Dein späteres Argument greift, aus
> > den [mm]v_1,..., v_{m-1}[/mm] eine maximale lineare unabhängige
> > Teilmenge auswählen.
>  >  (Der Satz, daß jedes Erzeugendensystem eine Basis
> > enthält, garantiert Dir, daß es funktioniert.)
>  >  Diese max. linear unabhängige Teilmenge enthalte [mm]k\le[/mm]  m-1  Elemente.
>  >  
> > OBdA seien  [mm]v_1,...v_k[/mm]  linear unabhängig.
>  >  
> > (zu den OBdA.: sonst numeriert man um.)
>  

> du machst also eine teilmenge, die linear abhängig ist, zu
> einem vektor.

Hallo,

??? Was meinst Du bloß damit?
Ich mache dies: Deine Idee eines Widerspruchsbeweises aufgreifend nehme ich an, daß ich eine Menge von Eigenvektoren zu paarweise verschiedenen Eigenwerten habe, die linear abhängig ist.

>  gut. mit anderen worten du nimmst eine summe von
> entsprechenden [mm]v_{i},[/mm] und bildest ein
> [mm]v_{j}=\summe_{i}^{}a_{i}v{i}[/mm] (wobei hier die bezeichnung
> der basisvektoren als v zu verwirrungen führt wenn man
> nicht genau aufpasst. unglücklich gewählt aber naja...
> happens)

???
Nix ist hier unglücklich gewählt: die [mm] v_i [/mm] sind die vorgegebenen Eigenvektoren.
Da sie als linear abhängig angenommen werden, kann ich OBdA [mm] v_m [/mm] als Linearkombination der m-1 anderen schreiben.
[mm] v_m [/mm] ist also im Erzeugnis (lineare Hülle) von [mm] v_1, [/mm] ..., [mm] v_{m-1}. [/mm]

[mm] v_1, [/mm] ..., [mm] v_{m-1} [/mm] ist ein Erzeugendensystem der linearen Hülle [mm] . [/mm]
Jedes Erzeugendensystem enthält eine Basis, und ich nehme oBdA an, daß meine Vektoren schon so numeriert sind, daß dies gerade die ersten k Stück sind.
Also ist [mm] v_m [/mm] eine Linearkombination von linear unabhängigen [mm] v_1, [/mm] ..., [mm] v_k, [/mm]
und ich weiß nicht, was hier unglücklich ist.

>  diese zusammenfassung machst du extra, ich lasse die
> einfach in der summe stehen.

Du meinst, daß Du alle Eigenvektoren (abgesehen von [mm] v_i) [/mm] rechts stehen hast?
Eben: damit hast Du im Gegensatz zu mir rechts keine Linearkombination linear unabhängiger Vektoren.

>  kannst du rückgängig machen indem du später einfach in
> der summe entsprechend wieder die summe einsetzt -

Ich weiß nicht, was Du meinst.
Du mußt das vormachen.
Ich will aber bei mir nichts rückgängig machen, weil mein Schluß am Ende sonst nicht funktioniert.

>  du hast
> eine summe aus allen eigenvektoren
>  OBdA "umgehe" ich damit dass i jeden index annehmen kann
> -> nicht nötig

Es ist nötig, weil sonst der Schluß am Ende nicht funktioniert.

>  
> oder einfach mal klar aufgeschrieben:
>  du wählst eine basis (kleiner kommentar meinerseits: hey,
> du wählst... hast du etwa wahlfreiheit? scheinbar schon.
> bleibt wohl deiner fantasie überlassen welche du nimmst -
> verdammt ich kann doch nicht zeigen dass der beweis ohne
> fantasie auskommt ;) )

Oh nein, daß ich innerhalb der Vektoren [mm] v_1,..., v_{m-1} [/mm] eine maximale linear unabhängige Teilmenge finde, habe ich begründet mit einem wohlbekannten Satz, welcher mir die Existenz einer solchen Teilmenge sichert.

Ich habe lediglich, um daß Arbeiten mit Doppelindizes zu vermeiden, gesagt, daß wir ggf. so umnumerieren, daß die ersten k der Eigenwerte eine max. linear unabhängige Teilmenge  sind.

>  jeden dieser basisvektoren (im weiteren verlauf bezeichne
> ich sie mit b) ist also eine kombination aus vektoren des
> erzeugendensystems
>  sprich: [mm]b_{i}[/mm] = [mm]\summe_{j=1}^{m-1}c_{i,j}v_{j}[/mm]
> ich hoffe ist klar was ich mit [mm]c_{i,j}[/mm] meine,

Ich weiß halt nicht, was Du jetzt mit [mm] b_i [/mm] meinst. Warum taufst Du den um?
Es ist doch einer der Eigenvektoren?

> ich finde
> grad schwer worte um es zu erklären. allerdings sei auch
> hier eben festgestellt dass es mindestens ein
> [mm](c_{i,j})_j\not=0[/mm] gibt, weiterhin (für später) auch folgt
> ein [mm]\summe_{j=1}^{k}a_ic_{i,j}\not=0[/mm]
>  damit ist [mm]v_{m}[/mm] = [mm]\summe_{i=1}^{k}a_{i}b_{i}[/mm] =
> [mm]\summe_{i=1}^{k}(a_{i} \summe_{j=1}^{m-1}c_{i,j}v_{j})[/mm] =
> [mm]\summe_{j=1}^{m-1}(v_j \summe_{i=1}^{k}a_ic_{i,j})[/mm]
>  dabei
> habe ich einfach mal aufgegriffen dass die basis die länge
> k hat.
>  ist zwar n bisschen blöd grad dass ich ebenfalls a als
> koeffizienten habe, aber ich denke mal man sieht auch so,
> dass meine summe und deine summe nicht viel unterschied
> haben.

Ich tu mir das ganz [mm] b_i- [/mm] Gewurschtel mal nicht an, und steige hier wieder ein.
Wir sind nun da, wo wir schon gefühlte 100 Mal waren:

Du hast rechts eine Linearkombination der linear abhängigen oder unabhängigen [mm] v_1,...v_{m-1}, [/mm]
und ich habe eine Linearkombination der linear unabhängigen [mm] v_1,..., v_k. [/mm]

>
> > Dann gibt es Koeffizienten [mm]a_i[/mm] mit
> > [mm]v_m=\summe_{i=1}^{k}a_iv_i.[/mm]
>  >  Mindestens einer der Koeffizienten [mm]a_i[/mm] ist von 0
> > verschieden, denn der Eigenvektor [mm]v_m[/mm] ist nicht der
> > Nullvektor.
>  
> durch die normierung [mm]a_{j}[/mm] = 1 ist entsprechendes für
> meine [mm]v_{j}[/mm] zu sagen

Ja. Bloß - Du machst mir 'nen Wiederholungszwang - daß meine im Gegensatz zu Deinen garantiert linear unabhängig sind (die rechten).

>  
> >  

> > (Deinen Zwischenschritt, den Vektoren [mm]a_iv_i[/mm] einen eigenen
> > Namen zu geben, spare ich ein.)
>  >  
> > Multiplikation mit A liefert
>  >  
> > [mm]\lambda_mv_m=\summe_{i=1}^{k}\lambda_i(a_iv_i),[/mm]
>  >  
> > also
> >
> [mm]\summe_{i=1}^{k}\lambda_m(a_iv_i)=\summe_{i=1}^{k}\lambda_i(a_iv_i),[/mm]
>  >  
> > dh. [mm]0=\summe_{i=1}^{k}(\lambda_i-\lambda_m)(a_iv_i).[/mm]
>  
> nichts anderes ergibt meine rechnung.

Bis hierher sieht's in der Tat gleich aus.

Bloß dann kracht es bei Dir gewaltig und der ganze Beweis fliegt Dir um die Ohren,
denn im Gegensatz zu mir kannst Du den Schluß

> > Da die [mm]v_i[/mm] linear unabhängig sind, folgt nun, daß
> > [mm]a_i(\lambda_i-\lambda_m)=0[/mm] für alle i=1,...,k ist.

nicht ziehen.
Genau an dieser Stelle ist der kleine, aber wichtige Unterschied,
und daß Du auch jetzt noch so beharrlich schreibst:

> sollte
> ich grad gezeigt haben dass die lineare unabhängigkeit
> nicht wichtig ist für den beweis,

ist der Grund dafür, daß ich inzwischen sogar überzeugt bin davon, daß Du die lineare Unabhängigkeit an sich noch nicht richtig verstanden hast - völlig unabhängig von diesem Beweis.

Der Schluß "Linearkombination von Vektoren ergibt Nullvektor, also sind alle Koeffizienten =0" funktioniert nur, wenn es eine Linearkombination von linear unabhängigen Vektoren ist!

Aus [mm] a_1\vektor{1\\1\\1}+a_2\vektor{1\\1\\0}+a_3\vektor{0\\0\\1}=\vektor{0\\0\\0} [/mm] folgt nicht, daß [mm] a_1=a_2=a_3=0, [/mm]
und es folgt auch nicht, daß mindestens eienr der Koeffizienten =0 ist.
Denn wir sehen, daß eine mögliche Lösung hier [mm] a_1=1, [/mm] a-2=-1, [mm] a_3=-1 [/mm] wäre.

Habe ich jedoch eine Linearkombination von linear unabhängigen Vektoren, z.B.
[mm] a_1\vektor{1\\1\\1}+a_2\vektor{1\\1\\0}=\vektor{0\\0\\0}, [/mm]
so folgt [mm] a_1=a_2=0. [/mm]

Gruß v. Angela


>  >  
> > Wie oben erwähnt gibt es ein k' mit [mm]a_{k'}\not=0.[/mm]
>  >  Also muß für dieses k' gelten
> > [mm]\lambda_{k'}-\lambda_{m}=0,[/mm] womit Du nun den von Dir
> > gewünschten Widerspruch dazu, daß die [mm]\lambda_i[/mm] paarweise
> > verschieden sind,hast.
>  >  
> > Du siehst: für das entscheidende Argument brauchst Du in
> > [mm]v_m=\summe_{i=1}^{k}a_iv_i[/mm] die lineare Unabhängigkeit auf
> > der rechten Seite.
>  
> wenn ich mich nicht grad irgendwo extrem geirrt habe sollte
> ich grad gezeigt haben dass die lineare unabhängigkeit
> nicht wichtig ist für den beweis
>  
> >  Und wie man zu dieser kommt, muß in einem Beweis zu

> > verfolgen sein.
>  
> entfällt damit auch
>  
> >  "Lineare Unabhängigkeit" an sich ist Dir richtig klar?

>  
> ich denke schon. oder erweckt noch irgendwas einen anderen
> eindruck?
>  
> >  

> > Gruß v. Angela
>  >  
> >
>
> ich hoffe dass du (oder irgendwer anders) zu meiner
> argumentation klare argumente dagegen findet oder jemand
> bestätigen kann dass alles richtig ist.
> wenn für mich platz bleibt zu kontern artet dass wieder in
> einer endlosdiskussion aus fürchte ich -.-
>  
> grüße zurück :)
>  


Bezug
                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:57 Sa 15.05.2010
Autor: Faithless

aaaahrgh.... irgendwie hab ich das gefühl dass die aussagen im wesentlichen sagen: falsch, das ist genau so wie du gemacht hast
quasi wir meinen das gleiche reden aber voll aneinander vorbei -.-



>  
> > > Du hast eine Matrix A mit m verschiedenen Eigenwerten
> > > [mm]\lambda_1,[/mm] ..., [mm]\lambda_m[/mm] und zugehörigen pw verschiedenen
> > >  Eigenvektoren [mm]v_1,[/mm] ..., [mm]v_m.[/mm]

>  >  >  
> > > Angenommen, es wären [mm]v_1,[/mm] ..., [mm]v_m[/mm] linear abhängig.
>  >  >  
> > > Dann gäbe es einen Eigenvektor, den man als
> > > Linearkombination der anderen schreiben kann.
>  >  >  OBdA  sei [mm]v_m[/mm] eine Linearkombination von [mm]v_1,..., v_{m-1}.[/mm]
>  
> > >  

> > > Jetzt kannst Du, damit Dein späteres Argument greift, aus
> > > den [mm]v_1,..., v_{m-1}[/mm] eine maximale lineare unabhängige
> > > Teilmenge auswählen.
>  >  >  (Der Satz, daß jedes Erzeugendensystem eine Basis
> > > enthält, garantiert Dir, daß es funktioniert.)
>  >  >  Diese max. linear unabhängige Teilmenge enthalte
> [mm]k\le[/mm]  m-1  Elemente.
>  >  >  
> > > OBdA seien  [mm]v_1,...v_k[/mm]  linear unabhängig.
>  >  >  
> > > (zu den OBdA.: sonst numeriert man um.)
>  >  
>
> > du machst also eine teilmenge, die linear abhängig ist, zu
> > einem vektor.
>  
> Hallo,
>  
> ??? Was meinst Du bloß damit?
>  Ich mache dies: Deine Idee eines Widerspruchsbeweises
> aufgreifend nehme ich an, daß ich eine Menge von
> Eigenvektoren zu paarweise verschiedenen Eigenwerten habe,
> die linear abhängig ist.

dass du aus dem erzeugendensystem eine basis bildest.
dabei ist jeder basisvektor als summe ALLER vektoren des erzeugendensystems schreibbar
einige koeffizienten sind dann zwar 0 möglicherweise, aber das ist ja unerheblich für den beweis
dass du nicht den nullvektor bildest (weil du einen basisvektor baust) sichert dir dass ein koeffizient [mm] \not= [/mm] 0 ist.


>  
> >  gut. mit anderen worten du nimmst eine summe von

> > entsprechenden [mm]v_{i},[/mm] und bildest ein
> > [mm]v_{j}=\summe_{i}^{}a_{i}v{i}[/mm] (wobei hier die bezeichnung
> > der basisvektoren als v zu verwirrungen führt wenn man
> > nicht genau aufpasst. unglücklich gewählt aber naja...
> > happens)
>  
> ???
>  Nix ist hier unglücklich gewählt: die [mm]v_i[/mm] sind die
> vorgegebenen Eigenvektoren.
> Da sie als linear abhängig angenommen werden, kann ich
> OBdA [mm]v_m[/mm] als Linearkombination der m-1 anderen schreiben.
>  [mm]v_m[/mm] ist also im Erzeugnis (lineare Hülle) von [mm]v_1,[/mm] ...,
> [mm]v_{m-1}.[/mm]
>  
> [mm]v_1,[/mm] ..., [mm]v_{m-1}[/mm] ist ein Erzeugendensystem der linearen
> Hülle [mm].[/mm]
>  Jedes Erzeugendensystem enthält eine Basis, und ich nehme
> oBdA an, daß meine Vektoren schon so numeriert sind, daß
> dies gerade die ersten k Stück sind.
>  Also ist [mm]v_m[/mm] eine Linearkombination von linear
> unabhängigen [mm]v_1,[/mm] ..., [mm]v_k,[/mm]
>  und ich weiß nicht, was hier unglücklich ist.

die bezeichnung ist deswegen unglücklich gewählt, weil die basisvektoren nicht zwingend nur eigenvektoren sind. auch vielfache derer sind möglich, genau wie vektoren die selbst nicht (nichtmal als vielfache) im erzeugendensystem stehen.
beispiel im [mm] \IR^2: [/mm] erzeugendensystem: [mm] e_1, e_2 \vektor{1 \\ 1} [/mm]
du willst die basen [mm] \{e_1, e_2\}, \{e_1, \vektor{1 \\ 1}\} [/mm] oder [mm] \{e_2, \vektor{1 \\ 1}\} [/mm] wählen, ich erweitere die möglichkeiten um basen der form [mm] \{(ae_1+be_2), c\vektor{1 \\ 1} | a,b,c \in \IR: a\not= b\wedge c\not= 0\} [/mm] (bzw andere summenbildung)

>  
> >  diese zusammenfassung machst du extra, ich lasse die

> > einfach in der summe stehen.
>  
> Du meinst, daß Du alle Eigenvektoren (abgesehen von [mm]v_i)[/mm]
> rechts stehen hast?
> Eben: damit hast Du im Gegensatz zu mir rechts keine
> Linearkombination linear unabhängiger Vektoren.

hast du im grunde genommen auch nicht. wenn du halt die summe von basisvektoren wieder als summe der vektoren im erzeugendensystem schreibst ist diese aussage nur richtig wenn das erzeugendensystem selbst eine basis ist.
genau das ist das was nach annahme nicht so ist.

>  
> >  kannst du rückgängig machen indem du später einfach in

> > der summe entsprechend wieder die summe einsetzt -
>  
> Ich weiß nicht, was Du meinst.
>  Du mußt das vormachen.
>  Ich will aber bei mir nichts rückgängig machen, weil
> mein Schluß am Ende sonst nicht funktioniert.

bleibe ich mal bei dem beispiel von oben (falls du argumentieren willst dass es im [mm] \IR^2 [/mm] nur 2 EV geben kann denke dir einfach wir sind in [mm] \IR^n [/mm] und ab der 3. komponente sind alle einträge 0)
dann brauch ich noch einen vektor [mm] v_i [/mm] den du bilden willst.
dann wählst du eine basis, z.b. [mm] \{e_1,e_2\} [/mm]
dabei ist dein [mm] e_1 [/mm] = [mm] x_1*e_1 [/mm] + [mm] y_1*e_2 [/mm] + [mm] z_1*\vektor{1 \\ 1} [/mm] (weil deine basisvektoren aus ALLEN vektoren des erzeugendensystems gebildet werden. du hast es dir bisher ziemlich einfach gemacht indem du angenommen hast [mm] x_1=1, y_1=z_1=0. [/mm] aber auch [mm] x_1=0, y_1=-1, z_1=1 [/mm] ist möglich, ebenso wie andere kombinationen!)
analog für dein [mm] e_2 [/mm]
weiterhin [mm] v_i [/mm] = [mm] a_1e_1 [/mm] + [mm] a_2e_2 [/mm] (du willst es ja aus basisvektoren bilden)
ist nichts anderes als [mm] v_i [/mm] = [mm] a_1(x_1e_1+y_1e_2+z_1\vektor{1 \\ 1})+a_2(x_2e_1+y_2e_2+z_2\vektor{1 \\ 1}) [/mm]
also [mm] v_i [/mm] = [mm] (a_1x_1+a_2x_2)e_1 [/mm] + [mm] (a_1y_1+a_2y_2)e_2 [/mm] + [mm] (a_1z_1+a_2z_2)\vektor{1 \\ 1} [/mm]

du siehst, dein [mm] v_i [/mm] ist eine kombination linear abhängiger vektoren. wenn ich mich da grad nicht verzählt hab sind die variablen aber alle voneinander abhängig. die zahl der frei wählbaren variablen ist gleich der länge der basis. die [mm] a_i [/mm] sind zusätzlich zwar noch von [mm] v_i [/mm] abhängig, aber im grunde genommen legt eine wahl von [mm] x_1 [/mm] die  [mm] y_1 [/mm] und [mm] z_1 [/mm] fest (2 gleichungen, 3 unbekannte), ebenso [mm] x_2 [/mm] legt [mm] y_2 [/mm] und [mm] z_2 [/mm] fest.
damit sind deine basisvektoren gebildet und [mm] a_1 [/mm] und [mm] a_2 [/mm] sind auch eindeutig bestimmt, solange man von festen [mm] v_i [/mm] ausgeht.

das meinte ich mit rückgängig machen - aus deiner festlegung von linear unabhängigen vektoren mache ich wieder meine linear abhängigen und der beweis funktioniert trotzdem.

>  
> >  du hast

> > eine summe aus allen eigenvektoren
>  >  OBdA "umgehe" ich damit dass i jeden index annehmen
> kann
> > -> nicht nötig
>  
> Es ist nötig, weil sonst der Schluß am Ende nicht
> funktioniert.

es ist 0 = [mm] \summe_{k=1}^{n}a_kv_k [/mm]
und es gibt [mm] a_k \not= [/mm] 0

in meiner beweisführung sage ich dass [mm] v_i [/mm] linear abhängig sein soll zu [mm] \{v_j | j\not=i\} [/mm]
wenn ich nun ein [mm] v_k [/mm] angucke, zu dem [mm] a_k [/mm] = 0 sein muss, weil [mm] v_k [/mm] nicht als summe der anderen [mm] v_i [/mm] gebildet werden kann, habe ich kein linear abhängiges [mm] v_k [/mm] gewählt und somit nichts zu zeigen.
für alle k mit [mm] a_k\not=0 [/mm] kann ich [mm] v_k [/mm] als mein [mm] v_i [/mm] wählen und brauche somit nicht umnummerieren
alternativ könnte ich auch sagen ich nummeriere um und wähle immer [mm] v_n, [/mm] muss ich aber nicht. ich lasse die indexwahl variabel und die nummerierung fest, du machst es andersrum.

>  
> >  

> > oder einfach mal klar aufgeschrieben:
>  >  du wählst eine basis (kleiner kommentar meinerseits:
> hey,
> > du wählst... hast du etwa wahlfreiheit? scheinbar schon.
> > bleibt wohl deiner fantasie überlassen welche du nimmst -
> > verdammt ich kann doch nicht zeigen dass der beweis ohne
> > fantasie auskommt ;) )
>  
> Oh nein, daß ich innerhalb der Vektoren [mm]v_1,..., v_{m-1}[/mm]
> eine maximale linear unabhängige Teilmenge finde, habe ich
> begründet mit einem wohlbekannten Satz, welcher mir die
> Existenz einer solchen Teilmenge sichert.

wie gesagt. [mm] \{e_1,e_2\} [/mm] ist ebenso eine basis wie [mm] \{e_1, 2*e_2\} [/mm]
ich zweifle die existenz nicht an. ich zweifle die eindeutigkeit an ;)

>  
> Ich habe lediglich, um daß Arbeiten mit Doppelindizes zu
> vermeiden, gesagt, daß wir ggf. so umnumerieren, daß die
> ersten k der Eigenwerte eine max. linear unabhängige
> Teilmenge  sind.
>  
> >  jeden dieser basisvektoren (im weiteren verlauf bezeichne

> > ich sie mit b) ist also eine kombination aus vektoren des
> > erzeugendensystems
>  >  sprich: [mm]b_{i}[/mm] = [mm]\summe_{j=1}^{m-1}c_{i,j}v_{j}[/mm]
> > ich hoffe ist klar was ich mit [mm]c_{i,j}[/mm] meine,
>  
> Ich weiß halt nicht, was Du jetzt mit [mm]b_i[/mm] meinst. Warum
> taufst Du den um?
>  Es ist doch einer der Eigenvektoren?

und wieder nein. die basis ist nicht zwingend aus eigenvektoren gebildet. deswegen die umtaufung auf b - wie basisvektor

>  
> > ich finde
> > grad schwer worte um es zu erklären. allerdings sei auch
> > hier eben festgestellt dass es mindestens ein
> > [mm](c_{i,j})_j\not=0[/mm] gibt, weiterhin (für später) auch folgt
> > ein [mm]\summe_{j=1}^{k}a_ic_{i,j}\not=0[/mm]
>  >  damit ist [mm]v_{m}[/mm] = [mm]\summe_{i=1}^{k}a_{i}b_{i}[/mm] =
> > [mm]\summe_{i=1}^{k}(a_{i} \summe_{j=1}^{m-1}c_{i,j}v_{j})[/mm] =
> > [mm]\summe_{j=1}^{m-1}(v_j \summe_{i=1}^{k}a_ic_{i,j})[/mm]
>  >  
> dabei
> > habe ich einfach mal aufgegriffen dass die basis die länge
> > k hat.
>  >  ist zwar n bisschen blöd grad dass ich ebenfalls a als
> > koeffizienten habe, aber ich denke mal man sieht auch so,
> > dass meine summe und deine summe nicht viel unterschied
> > haben.
>
> Ich tu mir das ganz [mm]b_i-[/mm] Gewurschtel mal nicht an, und
> steige hier wieder ein.
>  Wir sind nun da, wo wir schon gefühlte 100 Mal waren:
>  
> Du hast rechts eine Linearkombination der linear
> abhängigen oder unabhängigen [mm]v_1,...v_{m-1},[/mm]
>  und ich habe eine Linearkombination der linear
> unabhängigen [mm]v_1,..., v_k.[/mm]

ich habe eine linearkombination aus linear abhängigen [mm] v_1,...,v_{m-1}. [/mm] du.... auch? (nach rechnung von oben)

>  
> >
> > > Dann gibt es Koeffizienten [mm]a_i[/mm] mit
> > > [mm]v_m=\summe_{i=1}^{k}a_iv_i.[/mm]
>  >  >  Mindestens einer der Koeffizienten [mm]a_i[/mm] ist von 0
> > > verschieden, denn der Eigenvektor [mm]v_m[/mm] ist nicht der
> > > Nullvektor.
>  >  
> > durch die normierung [mm]a_{j}[/mm] = 1 ist entsprechendes für
> > meine [mm]v_{j}[/mm] zu sagen
>  
> Ja. Bloß - Du machst mir 'nen Wiederholungszwang - daß
> meine im Gegensatz zu Deinen garantiert linear unabhängig
> sind (die rechten).

ja. bloß - siehe oben?

>  
> >  

> > >  

> > > (Deinen Zwischenschritt, den Vektoren [mm]a_iv_i[/mm] einen eigenen
> > > Namen zu geben, spare ich ein.)
>  >  >  
> > > Multiplikation mit A liefert
>  >  >  
> > > [mm]\lambda_mv_m=\summe_{i=1}^{k}\lambda_i(a_iv_i),[/mm]
>  >  >  
> > > also
> > >
> >
> [mm]\summe_{i=1}^{k}\lambda_m(a_iv_i)=\summe_{i=1}^{k}\lambda_i(a_iv_i),[/mm]
>  >  >  
> > > dh. [mm]0=\summe_{i=1}^{k}(\lambda_i-\lambda_m)(a_iv_i).[/mm]
>  >  
> > nichts anderes ergibt meine rechnung.
>  
> Bis hierher sieht's in der Tat gleich aus.
>  
> Bloß dann kracht es bei Dir gewaltig und der ganze Beweis
> fliegt Dir um die Ohren,
>  denn im Gegensatz zu mir kannst Du den Schluß
>  
> > > Da die [mm]v_i[/mm] linear unabhängig sind, folgt nun, daß
> > > [mm]a_i(\lambda_i-\lambda_m)=0[/mm] für alle i=1,...,k ist.
>  
> nicht ziehen.
>  Genau an dieser Stelle ist der kleine, aber wichtige
> Unterschied,
>  und daß Du auch jetzt noch so beharrlich schreibst:
>
> > sollte
> > ich grad gezeigt haben dass die lineare unabhängigkeit
> > nicht wichtig ist für den beweis,
>  
> ist der Grund dafür, daß ich inzwischen sogar überzeugt
> bin davon, daß Du die lineare Unabhängigkeit an sich noch
> nicht richtig verstanden hast - völlig unabhängig von
> diesem Beweis.

ich glaube eher du hast übersehen dass ich am anfang FESTE vektoren gewählt habe. in meiner summe stehen also KEINE VARIABLEN
und dann steht da irgendwas ganz banales wie am anfang [mm] \vektor{3\\1\\1}=\vektor{1\\0\\1}+\vektor{2\\1\\0} [/mm] und am ende [mm] \vektor{3\\1\\1} [/mm] = [mm] a*\vektor{1\\0\\1} [/mm] + [mm] b*\vektor{2\\1\\0}, [/mm] nach voraussetzung sind 1, a, b paarweise verschieden (n unbekannte, m gleichungen, n<m)
und da fliegt einem halt alles um die ohren.

>  
> Der Schluß "Linearkombination von Vektoren ergibt
> Nullvektor, also sind alle Koeffizienten =0" funktioniert
> nur, wenn es eine Linearkombination von linear
> unabhängigen Vektoren ist!
>  
> Aus
> [mm]a_1\vektor{1\\1\\1}+a_2\vektor{1\\1\\0}+a_3\vektor{0\\0\\1}=\vektor{0\\0\\0}[/mm]
> folgt nicht, daß [mm]a_1=a_2=a_3=0,[/mm]
>  und es folgt auch nicht, daß mindestens eienr der
> Koeffizienten =0 ist.
>  Denn wir sehen, daß eine mögliche Lösung hier [mm]a_1=1,[/mm]
> a-2=-1, [mm]a_3=-1[/mm] wäre.
>  
> Habe ich jedoch eine Linearkombination von linear
> unabhängigen Vektoren, z.B.
>  [mm]a_1\vektor{1\\1\\1}+a_2\vektor{1\\1\\0}=\vektor{0\\0\\0},[/mm]
>  so folgt [mm]a_1=a_2=0.[/mm]
>  
> Gruß v. Angela
>  
>
> >  >  

> > > Wie oben erwähnt gibt es ein k' mit [mm]a_{k'}\not=0.[/mm]
>  >  >  Also muß für dieses k' gelten
> > > [mm]\lambda_{k'}-\lambda_{m}=0,[/mm] womit Du nun den von Dir
> > > gewünschten Widerspruch dazu, daß die [mm]\lambda_i[/mm] paarweise
> > > verschieden sind,hast.
>  >  >  
> > > Du siehst: für das entscheidende Argument brauchst Du in
> > > [mm]v_m=\summe_{i=1}^{k}a_iv_i[/mm] die lineare Unabhängigkeit auf
> > > der rechten Seite.
>  >  
> > wenn ich mich nicht grad irgendwo extrem geirrt habe sollte
> > ich grad gezeigt haben dass die lineare unabhängigkeit
> > nicht wichtig ist für den beweis
>  >  
> > >  Und wie man zu dieser kommt, muß in einem Beweis zu

> > > verfolgen sein.
>  >  
> > entfällt damit auch
>  >  
> > >  "Lineare Unabhängigkeit" an sich ist Dir richtig klar?

>  >  
> > ich denke schon. oder erweckt noch irgendwas einen anderen
> > eindruck?
>  >  
> > >  

> > > Gruß v. Angela
>  >  >  
> > >
> >
> > ich hoffe dass du (oder irgendwer anders) zu meiner
> > argumentation klare argumente dagegen findet oder jemand
> > bestätigen kann dass alles richtig ist.
> > wenn für mich platz bleibt zu kontern artet dass wieder in
> > einer endlosdiskussion aus fürchte ich -.-



ich hoffe jetzt sind alle verständnisschwierigkeiten aus dem weg geräumt :)

>  >  
> > grüße zurück :)


Bezug
                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 17:02 Sa 15.05.2010
Autor: angela.h.b.


> dass du aus dem erzeugendensystem eine basis bildest.

Hallo,

ich bilde daraus keine Basis, sondern ich wähle eine aus.

>  dabei ist jeder basisvektor als summe ALLER vektoren des
> erzeugendensystems schreibbar

Ja, natürlich.
Aber wozu sollte ich meine extra ausgewählten Basisvektoren als Summe von irgendwas schreiben?


>  einige koeffizienten sind dann zwar 0 möglicherweise,
> aber das ist ja unerheblich für den beweis
>  dass du nicht den nullvektor bildest (weil du einen
> basisvektor baust)

Ich "baue" keinen Basisvektor.

> sichert dir dass ein koeffizient [mm]\not=[/mm] 0
> ist.

Nein, die Tatsache, daß mein Eigenvektor [mm] v_m [/mm] nicht der Nullvektor ist, sichert mir, daß mindestens ein Koeffizient [mm] \not=0 [/mm] ist.

>  >   die [mm]v_i[/mm] sind die
> > vorgegebenen Eigenvektoren.
> > Da sie als linear abhängig angenommen werden, kann ich
> > OBdA [mm]v_m[/mm] als Linearkombination der m-1 anderen schreiben.
>  >  [mm]v_m[/mm] ist also im Erzeugnis (lineare Hülle) von [mm]v_1,[/mm]
> ...,
> > [mm]v_{m-1}.[/mm]
>  >  
> > [mm]v_1,[/mm] ..., [mm]v_{m-1}[/mm] ist ein Erzeugendensystem der linearen
> > Hülle [mm].[/mm]
>  >  Jedes Erzeugendensystem enthält eine Basis, und ich
> nehme
> > oBdA an, daß meine Vektoren schon so numeriert sind, daß
> > dies gerade die ersten k Stück sind.
>  >  Also ist [mm]v_m[/mm] eine Linearkombination von linear
> > unabhängigen [mm]v_1,[/mm] ..., [mm]v_k,[/mm]
>  >  und ich weiß nicht, was hier unglücklich ist.
>  
> die bezeichnung ist deswegen unglücklich gewählt, weil
> die basisvektoren nicht zwingend nur eigenvektoren sind.

Ich glaube, Du hst den Beweis nicht richtig studiert.
Ich wähle aus den Eigenvektoren [mm] v_1,..., v_{m-1} [/mm] eine Basis der linearen Hülle von [mm] [/mm] aus.
Und weil ich das so mache, besteht meine Basis aus Eigenvektoren.

> auch vielfache derer sind möglich,

das wären ja auch Eigenvektoren. Aber ich nehme keine Vielfachen.

> genau wie vektoren die
> selbst nicht (nichtmal als vielfache) im erzeugendensystem
> stehen.

Die nehme ich nicht.

> beispiel im [mm]\IR^2:[/mm] erzeugendensystem: [mm]e_1, e_2 \vektor{1 \\ 1}[/mm]
>  
> du willst die basen [mm]\{e_1, e_2\}, \{e_1, \vektor{1 \\ 1}\}[/mm]
> oder [mm]\{e_2, \vektor{1 \\ 1}\}[/mm] wählen, ich erweitere die
> möglichkeiten um basen der form [mm]\{(ae_1+be_2), c\vektor{1 \\ 1} | a,b,c \in \IR: a\not= b\wedge c\not= 0\}[/mm]
> (bzw andere summenbildung)

Das kannst Du tun, wenn es Dir gefällt, aber ich wähle Vektoren aus [mm] v_1, [/mm] ..., [mm] v_{m-1} [/mm] aus.

> > Eben: damit hast Du im Gegensatz zu mir rechts keine
> > Linearkombination linear unabhängiger Vektoren.
>  
> hast du im grunde genommen auch nicht. wenn du halt die
> summe von basisvektoren wieder als summe der vektoren im
> erzeugendensystem schreibst ist diese aussage nur richtig
> wenn das erzeugendensystem selbst eine basis ist.

Ich habe eine Basis gewählt, und schreibe den linear abhängigen Eigenvektor [mm] v_m [/mm] als Linearkombination ausschließlich  dieser Basisvektoren,
also als  Linearkombination linear unabhängiger Vektoren.
Daß ich das noch aufblasen könnte wie einen Riesenballon spielt doch gar keine Rolle - ich hab's ja extra "verschlankt".


>  genau das ist das was nach annahme nicht so ist.

Ich bin's nun eigentlich etwas leid, immer dasselbe zu schreiben.
Ein letztes Mal:

wir haben zu den paarweise verschiedenen Eigenwerten [mm] \lambda_i [/mm] die Eigenvektoren [mm] v_i, [/mm] (i=1,...,m) , von denen ich annehme, daß sie nicht linear unabhängig sind.

Nach eventuellem Umnumerieren kann ich [mm] v_m [/mm] schreiben als Linearkombination von [mm] v_1, [/mm] ..., [mm] v_{m-1}. [/mm]

Nun wähle ich aus [mm] v_1, [/mm] ..., [mm] v_{m-1} [/mm] eine Basis der linearen Hülle von [mm] v_1, [/mm] ..., [mm] v_{m-1}, [/mm]
und tue dann genau das, was Du tust.



>  
> >  

> > >  kannst du rückgängig machen indem du später einfach in

> > > der summe entsprechend wieder die summe einsetzt -
>  >  
> > Ich weiß nicht, was Du meinst.
>  >  Du mußt das vormachen.
>  >  Ich will aber bei mir nichts rückgängig machen, weil
> > mein Schluß am Ende sonst nicht funktioniert.
>  
> bleibe ich mal bei dem beispiel von oben (falls du
> argumentieren willst dass es im [mm]\IR^2[/mm] nur 2 EV geben kann
> denke dir einfach wir sind in [mm]\IR^n[/mm] und ab der 3.
> komponente sind alle einträge 0)
>  dann brauch ich noch einen vektor [mm]v_i[/mm] den du bilden
> willst.

Ich will keinen Vektor bilden.
Die Vektoren sind mir doch in der Voraussetzung vorgegeben.
Ich will zeigen, daß sie allesamt linear unabhängig sind, wozu ich annehme, daß sie es nicht sind, ich also mindestens einen Vektor als Linearkombination der anderen schreiben kann. Die Fortsetzung hab' ich jetzt oft genug geschildert.

> dann wählst du eine basis, z.b. [mm]\{e_1,e_2\}[/mm]
>  dabei ist dein [mm]e_1[/mm] = [mm]x_1*e_1[/mm] + [mm]y_1*e_2[/mm] + [mm]z_1*\vektor{1 \\ 1}[/mm]
> (weil deine basisvektoren aus ALLEN vektoren des
> erzeugendensystems gebildet werden.

Nö. Meine Basisvektoren werden nicht gebildet. Meine Basis ist eine Teilmenge des Erzeugendensystems.
Daß ich jeden Basisvektor auf zig Weisen als Linearkombination irgendwelcher Erzeugenden schreiben kann, ist doch völlig irrelevant hier.
Ich wär' ja schön blöd, würde ich das tun: ich hab' mir ja extra eine Basis gesucht, welche mir die Eindeutigkeit der Darstellung garantiert.

> du hast es dir bisher
> ziemlich einfach gemacht

Natürlich! Indem ich einen funktionierenden Weg mit lückenlosen Schlüssen eingeschlagen habe.

> indem du angenommen hast [mm]x_1=1, y_1=z_1=0.[/mm]
> aber auch [mm]x_1=0, y_1=-1, z_1=1[/mm] ist möglich, ebenso wie
> andere kombinationen!)

Ja und?

>  analog für dein [mm]e_2[/mm]
>  weiterhin [mm]v_i[/mm] = [mm]a_1e_1[/mm] + [mm]a_2e_2[/mm] (du willst es ja aus
> basisvektoren bilden)
>  ist nichts anderes als [mm]v_i[/mm] =
> [mm]a_1(x_1e_1+y_1e_2+z_1\vektor{1 \\ 1})+a_2(x_2e_1+y_2e_2+z_2\vektor{1 \\ 1})[/mm]
>  
> also [mm]v_i[/mm] = [mm](a_1x_1+a_2x_2)e_1[/mm] + [mm](a_1y_1+a_2y_2)e_2[/mm] +
> [mm](a_1z_1+a_2z_2)\vektor{1 \\ 1}[/mm]
>  


> du siehst, dein [mm]v_i[/mm] ist eine kombination linear abhängiger
> vektoren.

Dein [mm] v_i [/mm] ist so eine Kombination.
Meins nicht.
Um das zu sehen, mußt Du nur hinschauen:

bei mir steht rechts eine Linearkombination unabhängiger Vektoren.

(Irgendwie bestreitest Du gerade mehr oder weniger, daß es linear unabhängige Vektoren gibt.
Daß ich [mm] \vektor{1\\0} [/mm] schreiben kann als [mm] \vektor{1\\0}=\vektor{1\\1} [/mm] + [mm] \vektor{1\\2}- \vektor{1\\3} [/mm] und [mm] \vektor{0\\1}= \5*{7\\1} [/mm] - [mm] \vektor{35\\4} [/mm] ändert doch nichts daran, daß die Vektoren [mm] \vektor{1\\0} [/mm] und  [mm] \vektor{1\\0} [/mm] linear unabhängig sind, und daß ich mit [mm] 3\vektor{1\\0} [/mm] + [mm] 7\vektor{0\\1} [/mm] den Vektor [mm] \vektor{3\\7} [/mm] als Summe linear unabhängiger Vektoren geschrieben habe.)

> >  ich innerhalb der Vektoren [mm]v_1,..., v_{m-1}[/mm]

> > eine maximale linear unabhängige Teilmenge finde, habe ich
> > begründet mit einem wohlbekannten Satz, welcher mir die
> > Existenz einer solchen Teilmenge sichert.
>  
> wie gesagt. [mm]\{e_1,e_2\}[/mm] ist ebenso eine basis wie [mm]\{e_1, 2*e_2\}[/mm]

Ja, natürlich.

> ich zweifle die existenz nicht an. ich zweifle die
> eindeutigkeit an ;)

Ich habe (hoffentlich) nirgendwo behauptet, daß die Wahl meiner linear unabhängigen Vektoren eindeutig ist.

> > Ich weiß halt nicht, was Du jetzt mit [mm]b_i[/mm] meinst. Warum
> > taufst Du den um?
>  >  Es ist doch einer der Eigenvektoren?
>  
> und wieder nein. die basis ist nicht zwingend aus
> eigenvektoren gebildet. deswegen die umtaufung auf b - wie
> basisvektor

???
Deine Basis ist vielleicht nicht aus Eigenvektoren - meine schon.
Meine Basis ist auch keine Basis des [mm] K^n, [/mm] sondern eine des von [mm] v_1,..., v_{m-1} [/mm] erzeugten Raumes.

> ich habe eine linearkombination aus linear abhängigen
> [mm]v_1,...,v_{m-1}.[/mm] du.... auch? (nach rechnung von oben)

Am Anfang schon.
Aber nachdem ich linear unabhängige [mm] v_1,..., v_k [/mm] ausgewählt habe, hab' ich eine Linearkombination unabhängiger Vektoren.

> ja. bloß - siehe oben?

Genau. Meine sind linear unabhängig.

> ich glaube eher du hast übersehen dass ich am anfang FESTE
> vektoren gewählt habe. in meiner summe stehen also KEINE
> VARIABLEN

Nö, ich bin mir sicher, daß ich das gut kapiert habe.



>  und dann steht da irgendwas ganz banales wie am anfang
> [mm]\vektor{3\\1\\1}=\vektor{1\\0\\1}+\vektor{2\\1\\0}[/mm] und am
> ende [mm]\vektor{3\\1\\1}[/mm] = [mm]a*\vektor{1\\0\\1}[/mm] +
> [mm] b*\vektor{2\\1\\0}, [/mm]

In diesem Zahlenbeispiel hast Du rechts eine Linearkombination linear unabhängiger Vektoren,
es folgt  [mm] 0=(a-1)vektor{1\\0\\1}+(b-1)\vektor{2\\1\\0}, [/mm]
und Du kannst folgern a-1=0 und b-1=0, und Du hast damit den gewünschten Widerspruch zu der Voraussetzung, daß a und b verschieden sind.

Bloß in Deinem bisherigen Beweis kannst Du diesen Schluß nicht ziehen, weil Du (Sprung in der Platte:) rechts keine linear unabhängigen Vektoren stehen hast.

Gruß v. Angela

> nach voraussetzung sind 1, a, b
> paarweise verschieden (n unbekannte, m gleichungen, n<m)
>  und da fliegt einem halt alles um die ohren.


Bezug
                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 03:28 So 16.05.2010
Autor: Faithless


> > dass du aus dem erzeugendensystem eine basis bildest.
>  
> Hallo,
>  
> ich bilde daraus keine Basis, sondern ich wähle eine aus.

ok... du wählst eine basis und bildest jeden basisvektor aus einer linearkombination der vektoren des erzeugendensystems


>  
> >  dabei ist jeder basisvektor als summe ALLER vektoren des

> > erzeugendensystems schreibbar
>  
> Ja, natürlich.
>  Aber wozu sollte ich meine extra ausgewählten
> Basisvektoren als Summe von irgendwas schreiben?

du betrachtest also nur den spezialfall dass die basis aus eigenvektoren besteht.
was ist mit den fällen in denen basisvektoren aus eigenvektoren zusammengesetzt sind?

>  
>
> >  einige koeffizienten sind dann zwar 0 möglicherweise,

> > aber das ist ja unerheblich für den beweis
>  >  dass du nicht den nullvektor bildest (weil du einen
> > basisvektor baust)
>  
> Ich "baue" keinen Basisvektor.

mit bauen meine ich du nimmst einen vektor, den du aus einer linearkombination anderer vektoren gebildet hast
[mm] 1*v_1+0*v_2=v_1 [/mm] ist quasi der bauplan für [mm] v_1 [/mm]
du "baust" also immer einen basisvektor aus den eigenvektoren zusammen, auch wenn ein eigenvektor raus kommt

>  
> > sichert dir dass ein koeffizient [mm]\not=[/mm] 0
> > ist.
>  
> Nein, die Tatsache, daß mein Eigenvektor [mm]v_m[/mm] nicht der
> Nullvektor ist, sichert mir, daß mindestens ein
> Koeffizient [mm]\not=0[/mm] ist.

du gehst glaub ich grad von der falschen summenbildung aus.
ich denke, du meinst dass der eigenvektor eine linearkombination der basisvektoren sein soll. ich hingegen meine dass die basisvektoren jeweils eine linearkombination der anderen eigenvektoren sind, und in der summierung ein koeffizient [mm] \not=0 [/mm] ist.
das argument, dass nicht der nullvektor raus kommen soll kann man bei beiden varianten anbringen: eigenvektoren sind nach definition nicht der nullvektor, basisvektoren sind ebenfalls keine nullvektoren, da man ihn sonst weg lassen könnte, die basis also verkürzbar wäre

>  
> >  >   die [mm]v_i[/mm] sind die

> > > vorgegebenen Eigenvektoren.
> > > Da sie als linear abhängig angenommen werden, kann ich
> > > OBdA [mm]v_m[/mm] als Linearkombination der m-1 anderen schreiben.
>  >  >  [mm]v_m[/mm] ist also im Erzeugnis (lineare Hülle) von [mm]v_1,[/mm]
> > ...,
> > > [mm]v_{m-1}.[/mm]
>  >  >  
> > > [mm]v_1,[/mm] ..., [mm]v_{m-1}[/mm] ist ein Erzeugendensystem der linearen
> > > Hülle [mm].[/mm]
>  >  >  Jedes Erzeugendensystem enthält eine Basis, und ich
> > nehme
> > > oBdA an, daß meine Vektoren schon so numeriert sind, daß
> > > dies gerade die ersten k Stück sind.
>  >  >  Also ist [mm]v_m[/mm] eine Linearkombination von linear
> > > unabhängigen [mm]v_1,[/mm] ..., [mm]v_k,[/mm]
>  >  >  und ich weiß nicht, was hier unglücklich ist.
>  >  
> > die bezeichnung ist deswegen unglücklich gewählt, weil
> > die basisvektoren nicht zwingend nur eigenvektoren sind.
>
> Ich glaube, Du hst den Beweis nicht richtig studiert.
>  Ich wähle aus den Eigenvektoren [mm]v_1,..., v_{m-1}[/mm] eine
> Basis der linearen Hülle von [mm][/mm] aus.
>  Und weil ich das so mache, besteht meine Basis aus
> Eigenvektoren.
>  
> > auch vielfache derer sind möglich,
>
> das wären ja auch Eigenvektoren. Aber ich nehme keine
> Vielfachen.

wie gesagt du betrachtest den spezialfall, dass du die basis der linearen hülle aus eigenvektoren bildest.
den beweis, was passiert wenn du andere basen nimmst bleibst du schuldig, oder nicht?

insbesondere was passiert, wenn in deiner basis zwar ein eigenvektor steht, aber du ihn aus zwei anderen eigenvektoren gebildet hast.
(also wieder beispielhaft: deine basis [mm] \{\vektor{1\\1}\}, [/mm] meine basis: [mm] \{e_1+e_2\} [/mm] mit [mm] \vektor{1\\1}, e_1, e_2 [/mm] eigenvektoren)

>  
> > genau wie vektoren die
> > selbst nicht (nichtmal als vielfache) im erzeugendensystem
> > stehen.
>
> Die nehme ich nicht.

ich schon.

>  
> > beispiel im [mm]\IR^2:[/mm] erzeugendensystem: [mm]e_1, e_2 \vektor{1 \\ 1}[/mm]
>  
> >  

> > du willst die basen [mm]\{e_1, e_2\}, \{e_1, \vektor{1 \\ 1}\}[/mm]
> > oder [mm]\{e_2, \vektor{1 \\ 1}\}[/mm] wählen, ich erweitere die
> > möglichkeiten um basen der form [mm]\{(ae_1+be_2), c\vektor{1 \\ 1} | a,b,c \in \IR: a\not= b\wedge c\not= 0\}[/mm]
> > (bzw andere summenbildung)
>  
> Das kannst Du tun, wenn es Dir gefällt, aber ich wähle
> Vektoren aus [mm]v_1,[/mm] ..., [mm]v_{m-1}[/mm] aus.

ich betrachte alle möglichen basen, du nur bestimmte

>  
> > > Eben: damit hast Du im Gegensatz zu mir rechts keine
> > > Linearkombination linear unabhängiger Vektoren.
>  >  
> > hast du im grunde genommen auch nicht. wenn du halt die
> > summe von basisvektoren wieder als summe der vektoren im
> > erzeugendensystem schreibst ist diese aussage nur richtig
> > wenn das erzeugendensystem selbst eine basis ist.
>  
> Ich habe eine Basis gewählt, und schreibe den linear
> abhängigen Eigenvektor [mm]v_m[/mm] als Linearkombination
> ausschließlich  dieser Basisvektoren,
>  also als  Linearkombination linear unabhängiger
> Vektoren.
>  Daß ich das noch aufblasen könnte wie einen Riesenballon
> spielt doch gar keine Rolle - ich hab's ja extra
> "verschlankt".
>  

ändert nichts daran dass meine version allgemeiner ist, aber dennoch genau so richtig

>
> >  genau das ist das was nach annahme nicht so ist.

>  
> Ich bin's nun eigentlich etwas leid, immer dasselbe zu
> schreiben.
>  Ein letztes Mal:
>  
> wir haben zu den paarweise verschiedenen Eigenwerten
> [mm]\lambda_i[/mm] die Eigenvektoren [mm]v_i,[/mm] (i=1,...,m) , von denen
> ich annehme, daß sie nicht linear unabhängig sind.
>  
> Nach eventuellem Umnumerieren kann ich [mm]v_m[/mm] schreiben als
> Linearkombination von [mm]v_1,[/mm] ..., [mm]v_{m-1}.[/mm]
>  
> Nun wähle ich aus [mm]v_1,[/mm] ..., [mm]v_{m-1}[/mm] eine Basis der
> linearen Hülle von [mm]v_1,[/mm] ..., [mm]v_{m-1},[/mm]
>  und tue dann genau das, was Du tust.
>  
>
>
> >  

> > >  

> > > >  kannst du rückgängig machen indem du später einfach in

> > > > der summe entsprechend wieder die summe einsetzt -
>  >  >  
> > > Ich weiß nicht, was Du meinst.
>  >  >  Du mußt das vormachen.
>  >  >  Ich will aber bei mir nichts rückgängig machen,
> weil
> > > mein Schluß am Ende sonst nicht funktioniert.
>  >  
> > bleibe ich mal bei dem beispiel von oben (falls du
> > argumentieren willst dass es im [mm]\IR^2[/mm] nur 2 EV geben kann
> > denke dir einfach wir sind in [mm]\IR^n[/mm] und ab der 3.
> > komponente sind alle einträge 0)
>  >  dann brauch ich noch einen vektor [mm]v_i[/mm] den du bilden
> > willst.
>
> Ich will keinen Vektor bilden.

ähm... doch.... du willst einen eigenvektor als linearkombination der anderen schreiben. also bildest du ihn aus den anderen.

>  Die Vektoren sind mir doch in der Voraussetzung
> vorgegeben.

ist richtig. ich brauchte in dem bespiel aber noch einen vierten eigenvektor, damit das ganze funktioniert


>  Ich will zeigen, daß sie allesamt linear unabhängig
> sind, wozu ich annehme, daß sie es nicht sind, ich also
> mindestens einen Vektor als Linearkombination der anderen
> schreiben kann. Die Fortsetzung hab' ich jetzt oft genug
> geschildert.
>  
> > dann wählst du eine basis, z.b. [mm]\{e_1,e_2\}[/mm]
>  >  dabei ist dein [mm]e_1[/mm] = [mm]x_1*e_1[/mm] + [mm]y_1*e_2[/mm] + [mm]z_1*\vektor{1 \\ 1}[/mm]
>  
> > (weil deine basisvektoren aus ALLEN vektoren des
> > erzeugendensystems gebildet werden.
>
> Nö. Meine Basisvektoren werden nicht gebildet. Meine Basis
> ist eine Teilmenge des Erzeugendensystems.

natürlich. auch eine teilmenge nehmen ist gewissermaßen eine summierung: du nimmst 1 mal den vektor, den du raus haben möchtest und summierst das 0-fache aller anderen vektoren drauf

>  Daß ich jeden Basisvektor auf zig Weisen als
> Linearkombination irgendwelcher Erzeugenden schreiben kann,
> ist doch völlig irrelevant hier.

irrelevant vielleicht, aber auf jeden fall richtig. sind wir hier jetzt grad dabei deinen beweis zu widerlegen oder (davon bin ich bisher ausgegangen) die gleichheit unserer beiden beweise zu zeigen?

>  Ich wär' ja schön blöd, würde ich das tun: ich hab'
> mir ja extra eine Basis gesucht, welche mir die
> Eindeutigkeit der Darstellung garantiert.
>  
> > du hast es dir bisher
> > ziemlich einfach gemacht
>  
> Natürlich! Indem ich einen funktionierenden Weg mit
> lückenlosen Schlüssen eingeschlagen habe.

genau so lückenlos ist mein beweis. und einfach gemacht hab ich es mir gewissermaßen auch, indem ich es mir gespart habe extra eine basis zu wählen und so weiter. ich gehe einfach davon aus, dass die basisvektoren aus linearkombination der eigenvektoren gebildet werden (was du erstmal widerlegen musst, solange gehe ich davon aus dass es richtig ist) und dann aus einer (bzw da sie linear unabhängig sind der einzig möglichen)  linearkombination der basisvektoren der letzte EV gebildet wird
also passiert deine willkürliche wahl der linearkombination beim wählen der basis, meine direkt beim bilden des eigenvektors aus den anderen eigenvektoren.
es ist quasi so als ob du mit dem auto zum ziel fährst, ich mit dem fahrrad aber im endeffekt nehmen wir den GLEICHEN WEG

>  
> > indem du angenommen hast [mm]x_1=1, y_1=z_1=0.[/mm]
> > aber auch [mm]x_1=0, y_1=-1, z_1=1[/mm] ist möglich, ebenso wie
> > andere kombinationen!)
>  
> Ja und?

mein beweis umfasst diese, deiner nicht.
wie gesagt dein beweis wird hier nicht widerlegt. ich zeige dass meiner genau so richtig ist

>  
> >  analog für dein [mm]e_2[/mm]

>  >  weiterhin [mm]v_i[/mm] = [mm]a_1e_1[/mm] + [mm]a_2e_2[/mm] (du willst es ja aus
> > basisvektoren bilden)
>  >  ist nichts anderes als [mm]v_i[/mm] =
> > [mm]a_1(x_1e_1+y_1e_2+z_1\vektor{1 \\ 1})+a_2(x_2e_1+y_2e_2+z_2\vektor{1 \\ 1})[/mm]
>  
> >  

> > also [mm]v_i[/mm] = [mm](a_1x_1+a_2x_2)e_1[/mm] + [mm](a_1y_1+a_2y_2)e_2[/mm] +
> > [mm](a_1z_1+a_2z_2)\vektor{1 \\ 1}[/mm]
>  >  
>
>
> > du siehst, dein [mm]v_i[/mm] ist eine kombination linear abhängiger
> > vektoren.
>  
> Dein [mm]v_i[/mm] ist so eine Kombination.
>  Meins nicht.
>  Um das zu sehen, mußt Du nur hinschauen:
>  
> bei mir steht rechts eine Linearkombination unabhängiger
> Vektoren.
>  
> (Irgendwie bestreitest Du gerade mehr oder weniger, daß es
> linear unabhängige Vektoren gibt.

uhm.... ja und nein... es ist ja grad die annahme dass es linear abhängige vektoren gibt.
wenn die summe auf der rechten seite aus linear unabhängigen vektoren gebildet ist, stimmen unsere beweise überein
bleibt zu zeigen dass sie auch im anderen fall übereinstimmen, und das tue ich hier.
indem ich deine aussage nehme, der eigenvektor [mm] v_i [/mm] (was beispielintern ist. blöd vielleicht dass die gleiche bezeichnugn in meinem beweis vor kommt aber am anfang des beispiels habe ich [mm] v_i [/mm] als vierten eigenvektor definiert) sei linear abhängig zu den anderen eigenvektoren.
du wählst dann erstmal die basis [mm] \{e_1,e_2\} [/mm] (oder meinetwegen auch irgendeine andere die dir gefällt)
und dann gilt [mm] v_i=a_1e_1+a_2e_2 [/mm]
dann gehe ich her und schreibe deine basisvektoren wieder als summe von eigenvektoren, wobei ich allerdings offen lasse, wie sie gebildet werden und setze das ganze in die gleichung ein, sortiere ein bisschen um und erhalte so die summe in der form wie sie in meinem beweis steht.



>  Daß ich [mm]\vektor{1\\0}[/mm] schreiben kann als
> [mm]\vektor{1\\0}=\vektor{1\\1}[/mm] + [mm]\vektor{1\\2}- \vektor{1\\3}[/mm]
> und [mm]\vektor{0\\1}= \5*{7\\1}[/mm] - [mm]\vektor{35\\4}[/mm] ändert doch
> nichts daran, daß die Vektoren [mm]\vektor{1\\0}[/mm] und  
> [mm]\vektor{1\\0}[/mm] linear unabhängig sind, und daß ich mit
> [mm]3\vektor{1\\0}[/mm] + [mm]7\vektor{0\\1}[/mm] den Vektor [mm]\vektor{3\\7}[/mm]
> als Summe linear unabhängiger Vektoren geschrieben habe.)

den teil versteh ich nicht

>  
> > >  ich innerhalb der Vektoren [mm]v_1,..., v_{m-1}[/mm]

> > > eine maximale linear unabhängige Teilmenge finde, habe ich
> > > begründet mit einem wohlbekannten Satz, welcher mir die
> > > Existenz einer solchen Teilmenge sichert.
>  >  
> > wie gesagt. [mm]\{e_1,e_2\}[/mm] ist ebenso eine basis wie [mm]\{e_1, 2*e_2\}[/mm]
>  
> Ja, natürlich.
>  
> > ich zweifle die existenz nicht an. ich zweifle die
> > eindeutigkeit an ;)
>  
> Ich habe (hoffentlich) nirgendwo behauptet, daß die Wahl
> meiner linear unabhängigen Vektoren eindeutig ist.

ich denke nicht.... gesagt habe ich das eigentlich nur um aufzuzeigen dass die wahl anderer basen auch andere summen mit sich bringt.
und zwar auf beiden seiten: wenn du aus basisvektoren deinen eigenvektor bildest ändert sich die summe, aber auch die summen bei der bildung der basisvektoren ändern sich.
im endeffekt heben sich die veränderungen aber auf. alles was du frei wählen kannst ist die kombination, wie du die basisvektoren bildest.

die basisvektoren haben aber genau eine kombinationsmöglichkeit den eigenvektor [mm] v_m [/mm] zu bilden sodass im endeffekt nichts anderes da steht als du wählst die eigenvektoren [mm] v_1 [/mm] bis [mm] v_{m-1} [/mm] so, dass [mm] v_m [/mm] raus kommt
nichts anderes sagt [mm] v_i [/mm] = [mm] \summe_{j\not=i}^{}a_jv_j [/mm]

>  
> > > Ich weiß halt nicht, was Du jetzt mit [mm]b_i[/mm] meinst. Warum
> > > taufst Du den um?
>  >  >  Es ist doch einer der Eigenvektoren?
>  >  
> > und wieder nein. die basis ist nicht zwingend aus
> > eigenvektoren gebildet. deswegen die umtaufung auf b - wie
> > basisvektor
>  
> ???
>  Deine Basis ist vielleicht nicht aus Eigenvektoren - meine
> schon.

ich habe keine basis.

>  Meine Basis ist auch keine Basis des [mm]K^n,[/mm] sondern eine des
> von [mm]v_1,..., v_{m-1}[/mm] erzeugten Raumes.
>  
> > ich habe eine linearkombination aus linear abhängigen
> > [mm]v_1,...,v_{m-1}.[/mm] du.... auch? (nach rechnung von oben)
>  
> Am Anfang schon.
>  Aber nachdem ich linear unabhängige [mm]v_1,..., v_k[/mm]
> ausgewählt habe, hab' ich eine Linearkombination
> unabhängiger Vektoren.
>  
> > ja. bloß - siehe oben?
>  
> Genau. Meine sind linear unabhängig.

aber wie ich glaube ich schon öfter gesagt habe aus (möglicherweise) aus linear abhängigen vektoren gebildet.
und genau das kann man wieder rückgängig machen ohne die richtigkeit zu ändern und zu meiner aussage kommen

>  
> > ich glaube eher du hast übersehen dass ich am anfang FESTE
> > vektoren gewählt habe. in meiner summe stehen also KEINE
> > VARIABLEN
>  
> Nö, ich bin mir sicher, daß ich das gut kapiert habe.
>  
>
>
> >  und dann steht da irgendwas ganz banales wie am anfang

> > [mm]\vektor{3\\1\\1}=\vektor{1\\0\\1}+\vektor{2\\1\\0}[/mm] und am
> > ende [mm]\vektor{3\\1\\1}[/mm] = [mm]a*\vektor{1\\0\\1}[/mm] +
> > [mm]b*\vektor{2\\1\\0},[/mm]
>  
> In diesem Zahlenbeispiel hast Du rechts eine
> Linearkombination linear unabhängiger Vektoren,
> es folgt  [mm]0=(a-1)vektor{1\\0\\1}+(b-1)\vektor{2\\1\\0},[/mm]
>  und Du kannst folgern a-1=0 und b-1=0, und Du hast damit
> den gewünschten Widerspruch zu der Voraussetzung, daß a
> und b verschieden sind.

okay.... erweitere ich das beispiel auf linear abhängige vektoren (und wende mal zur demonstration meine beweisführung an)
wir sind im [mm] \IR^4 [/mm]
und haben die eigenvektoren [mm] \vektor{1\\1\\1\\0}, \vektor{1\\0\\1\\0}, \vektor{0\\1\\0\\0} [/mm] und [mm] \vektor{1\\2\\1\\0} [/mm] und die eigenwerte sollen einfach mal 1, 2, 3 und 4 sein (in der reihenfolge zu  EV gehörend)
also ist [mm] \vektor{1\\2\\1\\0} [/mm] = [mm] \vektor{0,5\\0,5\\0,5\\0} +\vektor{0,5\\0\\0,5\\0} [/mm] + [mm] \vektor{0\\1,5\\0\\0} [/mm]  ebenso wälbar [mm] v_1+v_3=v_4 [/mm]

dann ist (ich lasse zwischenschritte weg)
[mm] 4*\vektor{1\\2\\1\\0} [/mm] = [mm] \vektor{0,5\\0,5\\0,5\\0} [/mm] + [mm] 2\vektor{0,5\\0\\0,5\\0} [/mm] + [mm] 3\vektor{0\\1,5\\0\\0} [/mm]

das dass nicht stimmt sollte jedem klar sein.

natürlich ist es völlig legitim sich eine möglichst einfache kombination zu wählen:
[mm] \vektor{0\\0\\0\\0} [/mm] + [mm] \vektor{1\\0\\1\\0} [/mm] + [mm] \vektor{0\\2\\0\\0} [/mm] wäre eine solche, die ebenso die gleichung nicht erfüllt


>  
> Bloß in Deinem bisherigen Beweis kannst Du diesen Schluß
> nicht ziehen, weil Du (Sprung in der Platte:) rechts keine
> linear unabhängigen Vektoren stehen hast.


ich wiederhole mich.... aber ich glaube weiterhin dass die lineare abhängigkeit der rechten seite keine rolle spielt und der beweis richtig ist.
so... ich hoffe jetzt is ein für alle mal verständlich geworden was ich eigentlich sagen will (bzw ich hab auch verstanden was du sagen willst ^^)

bleibt die frage... sind die beweise gleich bzw meiner auch richtig?

Bezug
                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 06:54 So 16.05.2010
Autor: angela.h.b.

Hallo,

sofern sich jetzt nicht noch irgendwelche neuen Aspekte ergeben, wird dies mein letzter Beitrag zu diesem  Thema sein.
Aus meiner Sicht ist alles gesagt, und ich habe einfach keine Lust mehr, in ellenlangen Posts immer wieder dasselbe zu lesen und zu schreiben.

Dein Beweis ist von der Idee her nicht übel, so wie Du ihn als letztes dastehen hattest, und Dir mehrfach mit Begründung gesagt wurde, aber nicht richtig.
Ich habe Dir vorgemacht, wie Du mit einer kleinen, aber wirkungsvollen Änderung die Lücke in Deinem Beweis schließen kannst.
Allein dies war das Ziel meines Beweises.

In einem Beweis zählt das, was dasteht.
Und das, was dasteht, beinhaltet bei Dir in der letzten vorliegenden Version milde beurteilt eine  Lücke, hart formuliert einen falschen Schluß.

Du kannst ja Deinen Beweis nochmal für Dich aufschreiben und jeden Schritt, den Du gehst, mit einem Satz/Def. aus dem Skript begründen.
Vielleicht fällt es Dir dann leichter, die Lücke einzusehen.

-

> sodass im endeffekt nichts anderes da steht als du wählst die eigenvektoren $ [mm] v_1 [/mm] $ bis $ [mm] v_{m-1} [/mm] $ so,
> dass $ [mm] v_m [/mm] $ raus kommt
> nichts anderes sagt $ [mm] v_i [/mm] $ = $ [mm] \summe_{j\not=i}^{}a_jv_j [/mm] $

Ja, völlig richtig.
Aber ich tue dann anschließend dies: aus meinen Vektoren [mm] v_1,..., v_{m-1} [/mm] wähle ich eine max. linear unabhängige Teilmenge, mit welcher ich [mm] v_m [/mm] als Linearkombination schreibe.
Gibt es u.U. für die Linearkombination aus [mm] v_1,..., v_{m-1} [/mm] noch viele Möglichkeiten, den Vektor [mm] v_m [/mm] darzustellen, so ist die Darstellung als Linearkombination meiner  Auswahl eindeutig.
In Deiner Schreibweise würde ich aus den Vektoren [mm] v_1,..., v_{i-1}, v_{i+1}, [/mm] ..., [mm] v_m [/mm] solch eine max. linear unabhängige Teilmenge auswählen.

Gruß v. Angela




Bezug
                                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:53 Do 20.05.2010
Autor: Faithless

okay.... ich war jetzt mit der rechnung mal bei meinem prof.
der sagt is soweit alles richtig, das einzige wo seiner meinung nach ne lücke ist, is

[mm] \summe_{j\not=i}^{}\lambda_jv_j=\summe_{j\not=i}^{}\lambda_iv_j [/mm]
weil es eine kombination geben kann, die die gleichung erfüllt, kann man den widerspruch ohne weiteres nicht finden (so sagt er)
wohin gegen meine argumentation ist die gleichung müsste für alle kombinationen gelten und nicht nur für endlich viele.



> Hallo,
>  
> sofern sich jetzt nicht noch irgendwelche neuen Aspekte
> ergeben, wird dies mein letzter Beitrag zu diesem  Thema
> sein.


eben das, was prof sagte kann man aber auch über den weg mit der basis finden:

im [mm] \IR^3 [/mm] seinen [mm] v_i [/mm] = [mm] ie_{1} [/mm] (index berichtigt) eigenvektoren zu den eigenwerten [mm] \lambda_i=i, [/mm] i [mm] \in [/mm] {1, 2, 3}
(is zwar direkt ersichtlich dass das bullshit is, aber darum gehts ja grad nicht. wir nehmen ja bullshit an ;) )

dann ist [mm] v_3 [/mm] eine linearkombination aus [mm] v_1 [/mm] und [mm] v_2 [/mm]
[mm] v_1 [/mm] und [mm] v_2 [/mm] sind ein erzeugendensystem. ich wähle die basis [mm] B=\{-3v_1+3v_2\} [/mm]
das darf ich ja tun. niemand sagt mir wie ich meine basis zu wählen habe.

also ist [mm] v_3 [/mm] = a * [mm] (-3v_1+3v_2) [/mm]
daraus ergibt sich a = 1

nun wendet man A an, erhält also
[mm] Av_3 [/mm] = A [mm] (-3v_1+3v_2) [/mm]

[mm] Av_3 [/mm] = [mm] -3Av_1 [/mm] + [mm] 3Av_2 [/mm]
[mm] 3*3e_1= -3*1*1e_1 [/mm] + [mm] 3*2*2e_1 [/mm]
[mm] 9e_1 [/mm] = [mm] -3e_1 [/mm] + [mm] 12e_1 [/mm]
[mm] 9e_1 [/mm] = [mm] 9e_1 [/mm]

was offensichtlich stimmt.

also kann man auch eine basis finden, sodass die gleichung erfüllt ist.
mit der argumentation von meinem prof kann man also auch hier keinen widerspruch finden?



(ist das neu genug um nochmal zu antworten? ^^)


und damit stimmt das beispiel hoffe ich mal.
also wieder unbeantwortet

Bezug
                                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 13:21 Do 20.05.2010
Autor: SEcki


> kann man den widerspruch ohne weiteres nicht
> finden (so sagt er)

Ach was? Oh Wunder, oh Wunder. Genau das haben Angela, Stephan und ich schon mehrfach gesagt.

>  wohin gegen meine argumentation ist die gleichung müsste
> für alle kombinationen gelten und nicht nur für endlich
> viele.

Wird nicht richtiger.

>  (is zwar direkt ersichtlich dass das bullshit is, aber
> darum gehts ja grad nicht. wir nehmen ja bullshit an ;) )

Die Wortwahl!

> was offensichtlich stimmt.

Sehr konfus alles, vor allem weil du von [m]e_2,e_3[/m] zu [m]e_1[/m] ohne Grund springst ... ist aber wohl Wurscht.

> (ist das neu genug um nochmal zu antworten? ^^)

Nein. Das ist alter Essig in neuen Schläuchen. Das gleiche hin und her.

SEcki

Bezug
                                                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:26 Do 20.05.2010
Autor: Faithless


> Sehr konfus alles, vor allem weil du von [m]e_2,e_3[/m] zu [m]e_1[/m]
> ohne Grund springst ... ist aber wohl Wurscht.

oh mist index verwechselt.... wird berichtigt.

Bezug
                                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 13:53 Do 20.05.2010
Autor: SEcki


> im [mm]\IR^3[/mm] seinen [mm]v_i[/mm] = [mm]ie_{1}[/mm] (index berichtigt)
> eigenvektoren zu den eigenwerten [mm]\lambda_i=i,[/mm] i [mm]\in[/mm] {1, 2,
> 3}

Ja, das zeigt doch wieder einmal, dass man lineare Unabhängigkeit braucht ... und was hier schon dauernd gesagt wurde. Vielleicht ist bei dir ja jetzt der Groschen gefallen? Du äußerst dich ja nicht dazu weiter.

>  mit der argumentation von meinem prof kann man also auch
> hier keinen widerspruch finden?

Wo soll was sein? Da fehlt jede Argumentation von dir ... das Beispiel zeigt genau das Problem, wo dein Prof und wir die Lücke in deinem Beweisversuch sehen.

> (ist das neu genug um nochmal zu antworten? ^^)

Es ist immer noch nicht neu genug, um Angela hier wieder her zu holen.

> und damit stimmt das beispiel hoffe ich mal.
>  also wieder unbeantwortet

Wieder beantwortet. Eine wirkliche Frage war ja auch gar nicht enthalten.

SEcki

Bezug
                                                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:04 Do 20.05.2010
Autor: Faithless


> > im [mm]\IR^3[/mm] seinen [mm]v_i[/mm] = [mm]ie_{1}[/mm] (index berichtigt)
>  > eigenvektoren zu den eigenwerten [mm]\lambda_i=i,[/mm] i [mm]\in[/mm] {1,

> 2,
> > 3}
>  
> Ja, das zeigt doch wieder einmal, dass man lineare
> Unabhängigkeit braucht ... und was hier schon dauernd
> gesagt wurde. Vielleicht ist bei dir ja jetzt der Groschen
> gefallen? Du äußerst dich ja nicht dazu weiter.

oh nein wir haben angenommen eigenvektoren seien linear abhängig und haben festgestellt sie sind es nicht?
wie verwirrend genau das wollten wir doch zeigen?

war es nich grad die annahme dass auch im erzeugendensystem linear abhängige vektoren sein können und man diesen teil behebt indem man eine basis wählt?
habe ich nicht genau das getan?

>  
> >  mit der argumentation von meinem prof kann man also auch

> > hier keinen widerspruch finden?
>  
> Wo soll was sein? Da fehlt jede Argumentation von dir ...
> das Beispiel zeigt genau das Problem, wo dein Prof und wir
> die Lücke in deinem Beweisversuch sehen.

das beispiel zeigt das problem das ich in angelas argumentation sehe




>  
> > und damit stimmt das beispiel hoffe ich mal.
>  >  also wieder unbeantwortet
>
> Wieder beantwortet. Eine wirkliche Frage war ja auch gar
> nicht enthalten.

ich würde ja eher behaupten nicht richtig verstanden

Bezug
                                                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 00:59 Fr 21.05.2010
Autor: tobit09

Hallo Faithless,

jetzt mische ich bei dieser ungewöhnlichen und munteren Diskussion auch mal ein bisschen mit... ;-)

Bevor ich zur Sache komme, ein paar Bemerkungen zum Verlauf dieser Diskussion:

Zunächst finde ich es super, dass du dich nicht mit irgendeiner Musterlösung zufrieden gibst, sondern genau verstehen möchtest, ob dein Lösungsweg o.k. ist! Auch finde ich toll, dass du, nachdem du Antworten nicht nachvollziehen kannst, nicht aufgibst, sondern nachfragst!

Schade ist natürlich, dass trotz der vielen teils sehr ausführlichen Antworten so wenig herum gekommen ist. Mir ist klar, dass das keine Absicht von dir ist, insofern mache ich dir da keinen (!) Vorwurf. Für SEcki und Angela muss dagegen das Resultat ihrer bisherigen Antworten sehr frustrierend sein. Auch ich hätte an ihrer Stelle wohl das Antworten irgendwann eingestellt und werde es unter Umständen im weiteren Verlauf so handhaben.

Aber wie gesagt nichtsdestotrotz: Ich finde es gut, wenn du Nachfragen stellst!


Ein Problem scheint das wechselseitige Verstehen der Gedanken der Anderen zu sein. Auch mir fällt es teilweise schwer, deine Texte zu verstehen. (Respekt, wie besonders Angela anscheinend trotzdem viel verstehen konnte!) Daher möchte ich bei den drei mir wichtigsten Punkten, die ich ansprechen werde, jeweils zuvor versuchen wiederzugeben, wie ich deine Einwände verstanden habe. Gegebenenfalls kannst du diese Eindrücke dann korrigieren.


1. Du scheinst nicht nachvollziehen zu können, dass du in deinem Beweis aus dem Ausgangspost (!) aus [mm] $\summe_{j\not=i}^{} \lambda_{i} v_{j} [/mm] = [mm] \summe_{j\not=i}^{} \lambda_{j} v_{j}$ [/mm] nicht einfach auf [mm] $\lambda_i=\lambda_j$ [/mm] für ein/alle [mm] $j\not=i$ [/mm] schließen kannst.

Für diesen Schritt müsstest du eine Begründung liefern können. (Und dies wird dir ohne Abänderung des Beweises nicht gelingen.)


2. Du scheinst Angelas Beweis für lückenhaft zu halten, da sie in ihrer Argumentation eine gewisse Basis eines Unterraumes des [mm] $K^n$ [/mm] verwendet und keine beliebige.

Es hat jedoch auch niemand behauptet, dass irgendetwas für beliebige Basen dieses Unterraumes gelte. Wie Angelas Argumentation zeigt, genügt die Betrachtung der von ihr gewählten Basis völlig, um zum gewünschten Widerspruch zu gelangen.


3. Du bist offensichtlich der Ansicht, in deinem Beweis tauche ebenfalls eine Basis des betreffenden Unterraumes auf, die jedoch nicht die Gestalt von Angelas habe.

Vielleicht hast du ja einen vollständigen Beweis, der anders aussieht als Angelas. Aber anscheinend hast du im Eifer des Gefechts vergessen, ihn mal zu posten. Den einzigen zusammenhängenden Beweisversuch habe ich in deinem Ausgangspost gefunden. Dort tritt nirgendwo irgendeine Basis auf. Aus den über die weiteren Posts verstreuten Andeutungen (teilweise an Beispielen) kann ich keinen zusammenhängenden Beweis entnehmen. Wenn du einen neuen Versuch postest, kann ich einmal darüber schauen.


Schließlich möchte ich noch auf deine aktuellen Fragen eingehen:

> oh nein wir haben angenommen eigenvektoren seien linear
> abhängig und haben festgestellt sie sind es nicht?
>  wie verwirrend genau das wollten wir doch zeigen?

Zunächst einmal hat Angela nur benutzt, dass ein gewisses TEILsystem der gegebenen Eigenvektoren linear unabhängig ist, nicht, dass das System ALLER gegebenen Eigenvektoren linear unabhängig ist. Damit hat sie die Annahme, dass das System aller gegebenen Eigenvektoren linear abhängig sei, zum Widerspruch geführt und damit also gezeigt, dass die Annahme falsch war, also letztlich das System aller gegebenen Eigenvektoren linear unabhängig ist.

> war es nich grad die annahme dass auch im erzeugendensystem
> linear abhängige vektoren sein können und man diesen teil
> behebt indem man eine basis wählt?

Ob das betreffende Erzeugendensystem linear abhängig ist, ist nicht Gegenstand irgendeiner Annahme. Wir wissen schlicht (noch) nicht, ob es linear unabhängig ist. Angelas Idee war daher, das Erzeugendensystem zu einer Basis zu verkleinern, wie du zutreffend beschreibst. Wenn es nichts zu beheben gab, weil das Erzeugendensystem ohnehin schon linear unabhängig war, erhält man eben das gesamte Erzeugendensystem als Basis.

>  habe ich nicht genau das getan?

Siehe 3.: Zumindest hast du einen solchen Beweis hier noch nicht im Zusammenhang gepostet.

Viele Grüße
Tobias

Bezug
                                                                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:53 So 23.05.2010
Autor: Faithless

ookay... ich hab mir jetzt ein bisschen zeit genommen um nochmal drüber nachzudenken
und irgendwie seh ich es immernoch nicht wirklich ein, dass mein beweis lücken haben soll...
meiner meinung nach ist meiner genau so lückenfrei wie angelas (also entweder beide die gleiche lücke, oder keine ^^)

ich hoffe mal ich krieg das jetzt so in worte gefasst dass alle das verstehen (inklusive mir, ich weiß zwar was ich denke aber aufschreiben....)



> Hallo Faithless,
>  
> jetzt mische ich bei dieser ungewöhnlichen und munteren
> Diskussion auch mal ein bisschen mit... ;-)
>
> Bevor ich zur Sache komme, ein paar Bemerkungen zum Verlauf
> dieser Diskussion:
>  
> Zunächst finde ich es super, dass du dich nicht mit
> irgendeiner Musterlösung zufrieden gibst, sondern genau
> verstehen möchtest, ob dein Lösungsweg o.k. ist! Auch
> finde ich toll, dass du, nachdem du Antworten nicht
> nachvollziehen kannst, nicht aufgibst, sondern nachfragst!
>  
> Schade ist natürlich, dass trotz der vielen teils sehr
> ausführlichen Antworten so wenig herum gekommen ist. Mir
> ist klar, dass das keine Absicht von dir ist, insofern
> mache ich dir da keinen (!) Vorwurf. Für SEcki und Angela
> muss dagegen das Resultat ihrer bisherigen Antworten sehr
> frustrierend sein. Auch ich hätte an ihrer Stelle wohl das
> Antworten irgendwann eingestellt und werde es unter
> Umständen im weiteren Verlauf so handhaben.
>  
> Aber wie gesagt nichtsdestotrotz: Ich finde es gut, wenn du
> Nachfragen stellst!
>  
>
> Ein Problem scheint das wechselseitige Verstehen der
> Gedanken der Anderen zu sein. Auch mir fällt es teilweise
> schwer, deine Texte zu verstehen. (Respekt, wie besonders
> Angela anscheinend trotzdem viel verstehen konnte!) Daher
> möchte ich bei den drei mir wichtigsten Punkten, die ich
> ansprechen werde, jeweils zuvor versuchen wiederzugeben,
> wie ich deine Einwände verstanden habe. Gegebenenfalls
> kannst du diese Eindrücke dann korrigieren.

wenn du irgendwas nicht ganz verstanden hast frag ruhig auch nach. nützt ja nichts wenn jeder über das redet was er denkt und dann alle über was anderes reden

>  
>
> 1. Du scheinst nicht nachvollziehen zu können, dass du in
> deinem Beweis aus dem Ausgangspost (!) aus
> [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j} = \summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
> nicht einfach auf [mm]\lambda_i=\lambda_j[/mm] für ein/alle [mm]j\not=i[/mm]
> schließen kannst.
>  
> Für diesen Schritt müsstest du eine Begründung liefern
> können. (Und dies wird dir ohne Abänderung des Beweises
> nicht gelingen.)

hm... warum? für linear unabhängige [mm] v_j [/mm] folgt direkt [mm] \lambda_i=\lambda_j [/mm]
bleibt zu überlegen was für linear abhängige [mm] v_j [/mm] passiert
[mm] dim(span\{v_j\}) [/mm] < n ist offensichtlich, da man n-1 vektoren zur verfügung hat (ob das nochmal wichtig wird weiß ich grad nicht, geistert mir nur grad im kopf rum :D)
wenn man eine linearkombination von [mm] v_j [/mm] wählt, um [mm] v_i [/mm] darzustellen hat man unendlich viele möglichkeiten
einfach weil man immer die möglichkeit hat, wenn man einen vektor verlängert, aus anderen vektoren das ganze wieder zu verkürzen
dass es einen vektor gibt, der linear unabhängig ist von den anderen [mm] v_j [/mm] ist ausgeschlossen, da sonst nach multiplikation mit [mm] \lambda [/mm] keien möglichkeit bestünde, die auftretende differenz zu beheben

dann hat man endlich viele kombinationsmöglichkeiten, damit die gleichung [mm] \summe_{j\not=i}^{}\lambda_iv_j [/mm] = [mm] \summe_{j\not=i}^{}\lambda_jv_j [/mm] gilt.
genaugenommen für [mm] dim(span\{v_j\}) [/mm] = 1 die meisten: n-2 (wenn ich mich nicht verzählt habe)
für [mm] dim(span\{v_j\}) [/mm] > 1 werden es weniger
also bestenfalls hat man n-2 möglichkeiten

[mm] v_i [/mm] = [mm] \summe_{j\not=i}^{}v_j [/mm] ist aber frei wählbar mit unendlich vielen möglichkeiten

[mm] \summe_{j\not=i}^{}\lambda_iv_j [/mm] = [mm] \summe_{j\not=i}^{}\lambda_jv_j [/mm] ist wählbar aus n-2 möglichkeiten

also widerspricht das ende dem anfang
(hoffe ich mal :D)


>  
>
> 2. Du scheinst Angelas Beweis für lückenhaft zu halten,
> da sie in ihrer Argumentation eine gewisse Basis eines
> Unterraumes des [mm]K^n[/mm] verwendet und keine beliebige.
>  
> Es hat jedoch auch niemand behauptet, dass irgendetwas für
> beliebige Basen dieses Unterraumes gelte. Wie Angelas
> Argumentation zeigt, genügt die Betrachtung der von ihr
> gewählten Basis völlig, um zum gewünschten Widerspruch
> zu gelangen.

ich finde, sie macht damit nichts anderes als ich. sie zeigt dass es eine möglichkeit gibt, dass die rechnung nicht aufgeht. weil (ich hoffe das war aus dem beispiel für eine basiswahl von mir ersichtlich) kann man mit ein bisschen bösem willen auch eine basis finden, für die die gleichung stimmt.
aber sie ist halt nicht allgemein gültig für ALLE wahlen der basis, und das ist meiner ansicht nach ein grund da einen widerspruch dran zu schreiben

>  
>
> 3. Du bist offensichtlich der Ansicht, in deinem Beweis
> tauche ebenfalls eine Basis des betreffenden Unterraumes
> auf, die jedoch nicht die Gestalt von Angelas habe.

nein, nicht direkt. ich wähle keine basis, ich wähle direkt eine linearkombination aller [mm] v_j [/mm]
aber: das ist nichts anderes, als wenn man erst eine basis wählt, wobei die basisvektoren linearkombinationen der [mm] v_j [/mm] sind (unabhängig davon ob man die [mm] v_j [/mm] direkt als basisvektoren nimmt oder sie aus verschiedenen [mm] v_j [/mm] zusammensetzt, man kann immer schreiben [mm] b_i [/mm] = [mm] \summe_{j\not=i}^{}a_i_,_jv_j [/mm] , [mm] b_i [/mm] ist basisvektor)
wenn man dann die basisvektoren als linearkombination aufschreibt, ergibt sich nach ein wenig umstellen nichts anderes als [mm] v_i=\summe_{j\not=i}^{}v_j [/mm] (mit normierung des koeffizienten auf 1)


>  
> Vielleicht hast du ja einen vollständigen Beweis, der
> anders aussieht als Angelas. Aber anscheinend hast du im
> Eifer des Gefechts vergessen, ihn mal zu posten. Den
> einzigen zusammenhängenden Beweisversuch habe ich in
> deinem Ausgangspost gefunden. Dort tritt nirgendwo
> irgendeine Basis auf. Aus den über die weiteren Posts
> verstreuten Andeutungen (teilweise an Beispielen) kann ich
> keinen zusammenhängenden Beweis entnehmen. Wenn du einen
> neuen Versuch postest, kann ich einmal darüber schauen.

wie gesagt. in meinem beweis sollte nie ne basis auftauchen und tut es hoffentlich auch nicht ^^

>  
>
> Schließlich möchte ich noch auf deine aktuellen Fragen
> eingehen:
>  
> > oh nein wir haben angenommen eigenvektoren seien linear
> > abhängig und haben festgestellt sie sind es nicht?
>  >  wie verwirrend genau das wollten wir doch zeigen?
>  Zunächst einmal hat Angela nur benutzt, dass ein gewisses
> TEILsystem der gegebenen Eigenvektoren linear unabhängig
> ist, nicht, dass das System ALLER gegebenen Eigenvektoren
> linear unabhängig ist. Damit hat sie die Annahme, dass das
> System aller gegebenen Eigenvektoren linear abhängig sei,
> zum Widerspruch geführt und damit also gezeigt, dass die
> Annahme falsch war, also letztlich das System aller
> gegebenen Eigenvektoren linear unabhängig ist.

wie gesagt... entweder reicht es zu zeigen dass es mindestens eine wahl gibt, sodass die gleichung nicht stimmt, oder sobald man eine finden kann für die sie funktioniert funktioniert der ganze beweis nicht
da können wir jetzt die gleiche diskussion anfangen wie bei meinem beweis

>  
> > war es nich grad die annahme dass auch im erzeugendensystem
> > linear abhängige vektoren sein können und man diesen teil
> > behebt indem man eine basis wählt?
>  Ob das betreffende Erzeugendensystem linear abhängig ist,
> ist nicht Gegenstand irgendeiner Annahme. Wir wissen
> schlicht (noch) nicht, ob es linear unabhängig ist.
> Angelas Idee war daher, das Erzeugendensystem zu einer
> Basis zu verkleinern, wie du zutreffend beschreibst. Wenn
> es nichts zu beheben gab, weil das Erzeugendensystem
> ohnehin schon linear unabhängig war, erhält man eben das
> gesamte Erzeugendensystem als Basis.

dazu fällt mir nichts neues mehr ein, nur was ich schon weiter oben geschrieben hab. gleiche argumentation.

>  
> >  habe ich nicht genau das getan?

>  Siehe 3.: Zumindest hast du einen solchen Beweis hier noch
> nicht im Zusammenhang gepostet.

das bezog sich auf das beispiel, indem ich angelas weg mutwillig dazu gebracht hab, dass die gleichung am ende stimmt.
ich habe genau das getan, was in angelas beweis steht, mit der ausnahme, dass ich nicht einen eigenvektor als basis gewählt habe, sondern eine linearkombination
darf ich tun, da mir niemand vorschreiben kann, wie ich meine basis zu wählen habe.


so... ich hoffe was ich sagen will is verständlich :)

Bezug
                                                                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 00:41 Mo 24.05.2010
Autor: tobit09


> ookay... ich hab mir jetzt ein bisschen zeit genommen um
> nochmal drüber nachzudenken
>  und irgendwie seh ich es immernoch nicht wirklich ein,
> dass mein beweis lücken haben soll...
>  meiner meinung nach ist meiner genau so lückenfrei wie
> angelas (also entweder beide die gleiche lücke, oder keine
> ^^)

O.K., deine Position habe ich verstanden.


> > 1. Du scheinst nicht nachvollziehen zu können, dass du in
> > deinem Beweis aus dem Ausgangspost (!) aus
> > [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j} = \summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
> > nicht einfach auf [mm]\lambda_i=\lambda_j[/mm] für ein/alle [mm]j\not=i[/mm]
> > schließen kannst.
>  >  
> > Für diesen Schritt müsstest du eine Begründung liefern
> > können. (Und dies wird dir ohne Abänderung des Beweises
> > nicht gelingen.)

Bevor ich auf deinen Begründungsversuch eingehe: Er beinhaltet offensichtlich spezielle Ideen, irgendwelche kombinatorischen Überlegungen anzustellen. Wie soll ich als Leser deines Ausgangspostes erraten, dass derartige Überlegungen Bestandteil deines Beweises sein sollen?

> hm... warum? für linear unabhängige [mm]v_j[/mm] folgt direkt
> [mm]\lambda_i=\lambda_j[/mm]Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)


Ja, für alle $j\in\{1,\ldots,m\}\setminus\{i\}=:J$. (Und da $v_i$ als Eigenvektor nicht der Nullvektor ist, gibt es wegen $v_i=\sum_{j\in J}}v_j$ überhaupt ein $j\in J$. $\lambda_i=\lambda_j$ für dieses j ist dann der gewünschte Widerspruch.)

>  bleibt zu überlegen was für linear abhängige [mm]v_j[/mm]
> passiert

Ja. (Und daran wird es scheitern.)

>  wenn man eine linearkombination von [mm]v_j[/mm] wählt, um [mm]v_i[/mm]
> darzustellen hat man unendlich viele möglichkeiten

(Haben bei euch Matrizen Koeffizienten in [mm] $\IR$ [/mm] oder in einem beliebigen Körper K? Unendlich viele Darstellungen als Linearkombination der [mm] $v_j$ [/mm] hat [mm] $v_i$ [/mm] nur für unendliche Körper K).

>  dass es einen vektor gibt, der linear unabhängig ist von
> den anderen [mm]v_j[/mm] ist ausgeschlossen,

Meinst du damit irgend etwas anderes als die Aussage, dass das System [mm] $(v_j)_{j\in J}$ [/mm] linear abhängig ist? Das ist doch gerade der Fall, den wir gerade betrachten.

> da sonst nach
> multiplikation mit [mm]\lambda[/mm] keien möglichkeit bestünde,
> die auftretende differenz zu beheben

Was meinst du mit [mm] $\lambda$? [/mm] Welche "auftretende Differenz"? Was meinst du mit "Differenz beheben"?

> dann hat man endlich viele kombinationsmöglichkeiten,
> damit die gleichung [mm]\summe_{j\not=i}^{}\lambda_iv_j[/mm] =
> [mm]\summe_{j\not=i}^{}\lambda_jv_j[/mm] gilt.

Meinst du damit, dass es nur endlich viele Darstellungen von [mm] $\summe_{j\not=i}^{}\lambda_iv_j$ [/mm] als Linearkombination der [mm] $v_j$, $j\in [/mm] J$ gibt? Genau wie bei Darstellungen von [mm] $v_i$ [/mm] als Linearkombinationen der [mm] $v_j$, $j\in [/mm] J$: Es gibt bei einem unendlichen Körper unendlich viele solche Darstellungen, bei einem endlichen Körper endlich viele, wie man sich überlegen kann.

>  genaugenommen für [mm]dim(span\{v_j\})[/mm] = 1 die meisten: n-2
> (wenn ich mich nicht verzählt habe)
>  für [mm]dim(span\{v_j\})[/mm] > 1 werden es weniger

>  also bestenfalls hat man n-2 möglichkeiten

Da ich ja anscheinend nicht mal verstehe, was du zählen möchtest, verstehe ich hier natürlich erst recht nur Bahnhof.

> [mm]v_i[/mm] = [mm]\summe_{j\not=i}^{}v_j[/mm] ist aber frei wählbar mit
> unendlich vielen möglichkeiten

Wir haben paarweise verschiedene Eigenwerte [mm] $\lambda_1,\ldots,\lambda_m$ [/mm] von A und für jedes [mm] $j\in\{1,\ldots,m\}$ [/mm] einen Eigenvektor [mm] $v_j$ [/mm] von A zum Eigenwert [mm] $\lambda_j$ [/mm] gegeben. Von DIESEN Vektoren [mm] $v_1,\ldots,v_m$ [/mm] müssen wir zeigen, dass sie linear unabhängig sind. Wir dürfen nicht selber wählen, für was für Vektoren wir dies zeigen wollen.

  

> > 2. Du scheinst Angelas Beweis für lückenhaft zu halten,
> > da sie in ihrer Argumentation eine gewisse Basis eines
> > Unterraumes des [mm]K^n[/mm] verwendet und keine beliebige.
>  >  
> > Es hat jedoch auch niemand behauptet, dass irgendetwas für
> > beliebige Basen dieses Unterraumes gelte. Wie Angelas
> > Argumentation zeigt, genügt die Betrachtung der von ihr
> > gewählten Basis völlig, um zum gewünschten Widerspruch
> > zu gelangen.
>  
> ich finde, sie macht damit nichts anderes als ich. sie
> zeigt dass es eine möglichkeit gibt, dass die rechnung
> nicht aufgeht.

Sie führt die Annahme, dass die vorgegebenen [mm] $v_1,\ldots,v_m$ [/mm] linear abhängig seien, (mit begründeten Schlüssen) zum Widerspruch. Damit hat sie dann unsere Behauptung bewiesen. In deinem Beweisversuch ist dagegen ein unbegründeter Schluss (siehe 1.) enthalten.

> weil (ich hoffe das war aus dem beispiel
> für eine basiswahl von mir ersichtlich) kann man mit ein
> bisschen bösem willen auch eine basis finden, für die die
> gleichung stimmt.

Ich weiß nicht, was du genau mit einer anderen als Angelas Basis anstellen möchtest, um an eine Gleichung zu gelangen, aus der sich kein Widerspruch herleiten lässt. Spielt aber auch keine Rolle: Schließlich gelangt Angela ja auf ihrem Weg begründet an den gewünschten Widerspruch. Dass irgendwelche anderen Wege nicht zum Ziel führen, ändert daran natürlich nichts.


> > 3. Du bist offensichtlich der Ansicht, in deinem Beweis
> > tauche ebenfalls eine Basis des betreffenden Unterraumes
> > auf, die jedoch nicht die Gestalt von Angelas habe.
>  
> nein, nicht direkt. ich wähle keine basis, ich wähle
> direkt eine linearkombination aller [mm]v_j[/mm]
>  aber: das ist nichts anderes, als wenn man erst eine basis
> wählt, wobei die basisvektoren linearkombinationen der [mm]v_j[/mm]
> sind (unabhängig davon ob man die [mm]v_j[/mm] direkt als
> basisvektoren nimmt oder sie aus verschiedenen [mm]v_j[/mm]
> zusammensetzt, man kann immer schreiben [mm]b_i[/mm] =
> [mm]\summe_{j\not=i}^{}a_i_,_jv_j[/mm] , [mm]b_i[/mm] ist basisvektor)
>  wenn man dann die basisvektoren als linearkombination
> aufschreibt, ergibt sich nach ein wenig umstellen nichts
> anderes als [mm]v_i=\summe_{j\not=i}^{}v_j[/mm] (mit normierung des
> koeffizienten auf 1)

Ohne auf die Details einzugehen: Anscheinend versuchst du einen sehr umständlichen Weg zu skizzieren, um an eine Gleichung zu gelangen, die du auch auf anderem Weg schon erhalten hattest. (Ich vermute, dass dieser Weg einen Fehlschluss beinhaltet. Aber nehmen wir mal an, er sei korrekt.)

Einen Zusammenhang zu Angelas Argumentation erkenne ich jedenfalls nicht: Angela gelingt es, aus der Existenz einer Gleichung der Form [mm] $v_i=\sum_{j\in J}b_jv_j$ [/mm] eine Gleichung der Form [mm] $v_i=\sum_{j\in J'} a_jv_j$ [/mm] mit einer geeigneten Teilmenge [mm] $J'\subset [/mm] J$, für die das Teilsystem [mm] $(v_j)_{j\in J'}$ [/mm] linear unabhängig ist, zu konstruieren. Einen vergleichbaren Ansatz habe ich von dir noch nicht gesehen.


> wie gesagt... entweder reicht es zu zeigen dass es
> mindestens eine wahl gibt, sodass die gleichung nicht
> stimmt, oder sobald man eine finden kann für die sie
> funktioniert funktioniert der ganze beweis nicht
>  da können wir jetzt die gleiche diskussion anfangen wie
> bei meinem beweis

Was für eine Wahl meinst du? Die [mm] $v_1,\ldots,v_m$ [/mm] sind vorgegeben. Sie dürfen wir in keinster Weise selbst wählen!

> das bezog sich auf das beispiel, indem ich angelas weg
> mutwillig dazu gebracht hab, dass die gleichung am ende
> stimmt.

(Kannst du mal den Link posten, unter dem ich dieses Beispiel finde?)

>  ich habe genau das getan, was in angelas beweis steht, mit
> der ausnahme, dass ich nicht einen eigenvektor als basis
> gewählt habe, sondern eine linearkombination
>  darf ich tun, da mir niemand vorschreiben kann, wie ich
> meine basis zu wählen habe.

Wenn du einen Beweis führst, verbietet dir keiner, unterwegs Basen deiner Wahl zu benutzen. Wenn du aber Angelas Beweis untersuchen möchtest, kannst du doch nicht einfach irgendetwas anderes machen, als in ihrem Beweis steht! Du hast offensichtlich nicht Angelas Weg "dazu gebracht, dass die gleichung am ende stimmt", sondern einen anderen Weg eingeschlagen, der nicht zum Ziel führt.

Bezug
                                                                                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:27 Mi 26.05.2010
Autor: Faithless


> > > 1. Du scheinst nicht nachvollziehen zu können, dass du in
> > > deinem Beweis aus dem Ausgangspost (!) aus
> > > [mm]\summe_{j\not=i}^{} \lambda_{i} v_{j} = \summe_{j\not=i}^{} \lambda_{j} v_{j}[/mm]
> > > nicht einfach auf [mm]\lambda_i=\lambda_j[/mm] für ein/alle [mm]j\not=i[/mm]
> > > schließen kannst.
>  >  >  
> > > Für diesen Schritt müsstest du eine Begründung liefern
> > > können. (Und dies wird dir ohne Abänderung des Beweises
> > > nicht gelingen.)
>  Bevor ich auf deinen Begründungsversuch eingehe: Er
> beinhaltet offensichtlich spezielle Ideen, irgendwelche
> kombinatorischen Überlegungen anzustellen. Wie soll ich
> als Leser deines Ausgangspostes erraten, dass derartige
> Überlegungen Bestandteil deines Beweises sein sollen?

ist mir ehrlich gesagt auch erst beim aufschreiben klar geworden wie komplex das ganze doch noch ist...
ich hab da einfach draufgeguckt und dachte das ist eindeutig :D

>  
> > hm... warum? für linear unabhängige [mm]v_j[/mm] folgt direkt
> > [mm]\lambda_i=\lambda_j[/mm]
>  Ja, für alle [mm]j\in\{1,\ldots,m\}\setminus\{i\}=:J[/mm]. (Und da
> [mm]v_i[/mm] als Eigenvektor nicht der Nullvektor ist, gibt es wegen
> [mm]v_i=\sum_{j\in J}}v_j[/mm] überhaupt ein [mm]j\in J[/mm].
> [mm]\lambda_i=\lambda_j[/mm] für dieses j ist dann der gewünschte
> Widerspruch.)
>  
> >  bleibt zu überlegen was für linear abhängige [mm]v_j[/mm]

> > passiert
>  Ja. (Und daran wird es scheitern.)
>  
> >  wenn man eine linearkombination von [mm]v_j[/mm] wählt, um [mm]v_i[/mm]

> > darzustellen hat man unendlich viele möglichkeiten
>  (Haben bei euch Matrizen Koeffizienten in [mm]\IR[/mm] oder in
> einem beliebigen Körper K? Unendlich viele Darstellungen
> als Linearkombination der [mm]v_j[/mm] hat [mm]v_i[/mm] nur für unendliche
> Körper K).

ich hab bisher über [mm] \IR [/mm] nachgedacht... werde mir aber bei gelegenheit klarmachen was in endlichen körpern passiert.

>  
> >  dass es einen vektor gibt, der linear unabhängig ist von

> > den anderen [mm]v_j[/mm] ist ausgeschlossen,
>  Meinst du damit irgend etwas anderes als die Aussage, dass
> das System [mm](v_j)_{j\in J}[/mm] linear abhängig ist? Das ist
> doch gerade der Fall, den wir gerade betrachten.

[mm] \forall [/mm] k [mm] \in [/mm] J (ich hoffe ich verwechsel da jetzt nicht grad deine bezeichnungen): [mm] v_k= \summe_{j\not=k}^{}a_jv_j [/mm]
also jeder vektor ist als linearkombiation aller anderen schreibbar

>  
> > da sonst nach
> > multiplikation mit [mm]\lambda[/mm] keien möglichkeit bestünde,
> > die auftretende differenz zu beheben
>  Was meinst du mit [mm]\lambda[/mm]? Welche "auftretende Differenz"?
> Was meinst du mit "Differenz beheben"?

wenn es [mm] v_j [/mm] gäbe, das nicht linear abhängig ist zu den anderen, bedeutet das für den teil, den dieses [mm] v_j [/mm] zu [mm] v_i [/mm] beiträgt direkt [mm] \lambda_iv_j [/mm] = [mm] \lambda_jv_j [/mm]
was durch [mm] \lambda_i\not=\lambda_j [/mm] falsch ist.
die differenz die nach der multiplikation mit den eigenwerten entsteht muss durch andere eigenvektoren behoben werden, sodass die differenz 0 ist

ums vielelicht n bisschen anschaulicher zu machen:
[mm] e_1+e_2+e_3 [/mm] wird gebildet aus [mm] e_1, e_2, e_3 [/mm] und [mm] e_2+e_3 [/mm]
gleichzeitig soll aber gelten
[mm] a(e_1+e_2+e_3) [/mm] = [mm] be_1+ ce_2+ de_3+ [/mm] d( [mm] e_2+e_3) [/mm]
mit [mm] a\not=b\not=c\not=d\ [/mm] folgt daraus dass die erste komponente niemals übereinstimmen kann

>  
> > dann hat man endlich viele kombinationsmöglichkeiten,
> > damit die gleichung [mm]\summe_{j\not=i}^{}\lambda_iv_j[/mm] =
> > [mm]\summe_{j\not=i}^{}\lambda_jv_j[/mm] gilt.
>  Meinst du damit, dass es nur endlich viele Darstellungen
> von [mm]\summe_{j\not=i}^{}\lambda_iv_j[/mm] als Linearkombination
> der [mm]v_j[/mm], [mm]j\in J[/mm] gibt? Genau wie bei Darstellungen von [mm]v_i[/mm]
> als Linearkombinationen der [mm]v_j[/mm], [mm]j\in J[/mm]: Es gibt bei einem
> unendlichen Körper unendlich viele solche Darstellungen,
> bei einem endlichen Körper endlich viele, wie man sich
> überlegen kann.

uhm da fehlt die nebenbedingung, dass [mm] v_i=\summe_{j\not=i}^{}v_j [/mm] (ganz am anfang so festgelegt)
und dann hat man auch in einem unendlichen körper nur endlich viele möglichkeiten

  

> >  genaugenommen für [mm]dim(span\{v_j\})[/mm] = 1 die meisten: n-2

> > (wenn ich mich nicht verzählt habe)
>  >  für [mm]dim(span\{v_j\})[/mm] > 1 werden es weniger

>  >  also bestenfalls hat man n-2 möglichkeiten
>  Da ich ja anscheinend nicht mal verstehe, was du zählen
> möchtest, verstehe ich hier natürlich erst recht nur
> Bahnhof.

eben die möglichkeiten für die die gleichung oben stimmt
ich glaube konkret ist die formel für m möglichkeiten m = max( [mm] n-2*dim(span\{v_j\}); [/mm] 0)


beispiele:
[mm] \IR^3: v_1 [/mm] = [mm] e_1, v_2 [/mm] = [mm] 2e_1, v_3 [/mm] = [mm] 3e_1 [/mm]
dann wäre [mm] v_3 [/mm] = [mm] a*v_1 [/mm] + [mm] b*v_2 [/mm]
[mm] dim(span\{v_1, v_2\}) [/mm] = 1, also hat man 3-2 = 1 möglichkeit für [mm] v_3 [/mm] = [mm] a*v_1 [/mm] + [mm] b*v_2 \wedge \lambda_3v_3 [/mm] = [mm] a*\lambda_1v_1 [/mm] + [mm] b*\lambda_2v_2 [/mm]

[mm] \IR^4: v_1=e_1, v_2=2e_1, v_3=e_2, v_4=e_1+e_2 [/mm]
dann [mm] v_4=av_1 [/mm] + [mm] bv_2 [/mm] + [mm] cv_3 [/mm]
[mm] dim(span\{v_1, v_2, v_3\}) [/mm] = 2 [mm] \Rightarrow [/mm] m = n - 2 [mm] dim(span\{v_1, v_2, v_3\}) [/mm] = 0

also hätte man keine möglichkeit dass [mm] v_4=av_1 [/mm] + [mm] bv_2 [/mm] + [mm] cv_3 \wedge \lambda_4v_4=a\lambda_1v_1 [/mm] + [mm] b\lambda_2v_2 [/mm] + [mm] c\lambda_3v_3 [/mm] gilt


>  
> > [mm]v_i[/mm] = [mm]\summe_{j\not=i}^{}v_j[/mm] ist aber frei wählbar mit
> > unendlich vielen möglichkeiten
>  Wir haben paarweise verschiedene Eigenwerte
> [mm]\lambda_1,\ldots,\lambda_m[/mm] von A und für jedes
> [mm]j\in\{1,\ldots,m\}[/mm] einen Eigenvektor [mm]v_j[/mm] von A zum
> Eigenwert [mm]\lambda_j[/mm] gegeben. Von DIESEN Vektoren
> [mm]v_1,\ldots,v_m[/mm] müssen wir zeigen, dass sie linear
> unabhängig sind. Wir dürfen nicht selber wählen, für
> was für Vektoren wir dies zeigen wollen.

wir müssen wählen. und zwar wählen wir die länge der eigenvektoren so, dass genau ein anderer eigenvektor raus kommt. und für linear abhängige eigenvektoren erhalten wir unendlich viele möglichkeiten dies zu tun
und eben für all diese möglichkeiten muss alles stimmen, wenn es das nicht tut haben wir einen widerspruch
hier geht es nur darum, die darstellung von [mm] v_i [/mm] zu wählen, nicht die von irgendwas, was mit [mm] \lambda [/mm] zu tun hat

also sprich beispiel:
[mm] \IR^3: v_1 [/mm] = [mm] e_1, v_2 [/mm] = [mm] 2e_1, v_3 [/mm] = [mm] 3e_1 [/mm]
du kannst [mm] v_3 [/mm] darstellen als  [mm] v_1+v_2, -v_1+2v_2, -3v_1+3v_2, -5v_1+4v_2, [/mm] ........ unendlich weiterführbar

laut beispiel oben haben wir aber genau eine möglichkeit, für die auch die multiplikation mit A und die daraus folgende eigenwertmultiplikation stimmt
aber unendlich ist nicht eins, also stimmt da was nicht

>  
>
> > > 2. Du scheinst Angelas Beweis für lückenhaft zu halten,
> > > da sie in ihrer Argumentation eine gewisse Basis eines
> > > Unterraumes des [mm]K^n[/mm] verwendet und keine beliebige.
>  >  >  
> > > Es hat jedoch auch niemand behauptet, dass irgendetwas für
> > > beliebige Basen dieses Unterraumes gelte. Wie Angelas
> > > Argumentation zeigt, genügt die Betrachtung der von ihr
> > > gewählten Basis völlig, um zum gewünschten Widerspruch
> > > zu gelangen.
>  >  
> > ich finde, sie macht damit nichts anderes als ich. sie
> > zeigt dass es eine möglichkeit gibt, dass die rechnung
> > nicht aufgeht.
>  Sie führt die Annahme, dass die vorgegebenen
> [mm]v_1,\ldots,v_m[/mm] linear abhängig seien, (mit begründeten
> Schlüssen) zum Widerspruch. Damit hat sie dann unsere
> Behauptung bewiesen. In deinem Beweisversuch ist dagegen
> ein unbegründeter Schluss (siehe 1.) enthalten.
>  
> > weil (ich hoffe das war aus dem beispiel
> > für eine basiswahl von mir ersichtlich) kann man mit ein
> > bisschen bösem willen auch eine basis finden, für die die
> > gleichung stimmt.
>  Ich weiß nicht, was du genau mit einer anderen als
> Angelas Basis anstellen möchtest, um an eine Gleichung zu
> gelangen, aus der sich kein Widerspruch herleiten lässt.
> Spielt aber auch keine Rolle: Schließlich gelangt Angela
> ja auf ihrem Weg begründet an den gewünschten
> Widerspruch. Dass irgendwelche anderen Wege nicht zum Ziel
> führen, ändert daran natürlich nichts.

also reicht es zu zeigen dass es mindestens eine basis gibt, für die man einen widerspruch findet?
bedeutet das nicht auch, dass es reicht, wenn man ohne die wahl einer basis (sprich mein beweis) das ganze durchführt, nur eine darstellung von [mm] v_i [/mm] aus [mm] v_j [/mm] finden muss, sodass die gleichung am ende nicht aufgeht? und eben genau dies hab ich (zugegebenerweise nur für unendliche körper zunächst, wobei rein intuitiv rauskommen müsste, dass nicht alle wahlen in einem endlichen körper die gleichung erfüllen. in [mm] \IZ_5^3 [/mm] für [mm] v_1=e_1, v_2=2e_1, v_3=3e_1, \lambda_1\not=\lambda_2\not=\lambda_3, [/mm] führt [mm] v_3=v_1+v_2 [/mm] für [mm] \lambda_1=1, \lambda_2=2, \lambda_3=3 [/mm] zu 4_e1=0... wenn dies als gegenbeweis durch gegenbeispiel zählt bin ich hiermit auch für endliche körper fertig ^^)

>  
>
> > > 3. Du bist offensichtlich der Ansicht, in deinem Beweis
> > > tauche ebenfalls eine Basis des betreffenden Unterraumes
> > > auf, die jedoch nicht die Gestalt von Angelas habe.
>  >  
> > nein, nicht direkt. ich wähle keine basis, ich wähle
> > direkt eine linearkombination aller [mm]v_j[/mm]
>  >  aber: das ist nichts anderes, als wenn man erst eine
> basis
> > wählt, wobei die basisvektoren linearkombinationen der [mm]v_j[/mm]
> > sind (unabhängig davon ob man die [mm]v_j[/mm] direkt als
> > basisvektoren nimmt oder sie aus verschiedenen [mm]v_j[/mm]
> > zusammensetzt, man kann immer schreiben [mm]b_i[/mm] =
> > [mm]\summe_{j\not=i}^{}a_i_,_jv_j[/mm] , [mm]b_i[/mm] ist basisvektor)
>  >  wenn man dann die basisvektoren als linearkombination
> > aufschreibt, ergibt sich nach ein wenig umstellen nichts
> > anderes als [mm]v_i=\summe_{j\not=i}^{}v_j[/mm] (mit normierung des
> > koeffizienten auf 1)
>  Ohne auf die Details einzugehen: Anscheinend versuchst du
> einen sehr umständlichen Weg zu skizzieren, um an eine
> Gleichung zu gelangen, die du auch auf anderem Weg schon
> erhalten hattest. (Ich vermute, dass dieser Weg einen
> Fehlschluss beinhaltet. Aber nehmen wir mal an, er sei
> korrekt.)

naja... wie gesagt... ich denke ich kann jederzeit von dem beweis mit basis zu meinem beweis ohne basis gelangen... was diskussionsstoff darüber liefert ob die basiswahl notwendig ist und ob man dadurch nicht zusätzliche schritte macht, usw.... also was umständlicher ist, will ich jetzt hier nicht diskutieren, das sollte persönliche meinung sein. wichtig ist meiner meinung nach nur, dass beide wege gleich sind.

>  
> Einen Zusammenhang zu Angelas Argumentation erkenne ich
> jedenfalls nicht: Angela gelingt es, aus der Existenz einer
> Gleichung der Form [mm]v_i=\sum_{j\in J}b_jv_j[/mm] eine Gleichung
> der Form [mm]v_i=\sum_{j\in J'} a_jv_j[/mm] mit einer geeigneten
> Teilmenge [mm]J'\subset J[/mm], für die das Teilsystem [mm](v_j)_{j\in J'}[/mm]
> linear unabhängig ist, zu konstruieren. Einen
> vergleichbaren Ansatz habe ich von dir noch nicht gesehen.

wie gesagt... ich bringe dir wenns sein muss für jede wahl einer basis einen weg, wie man zu meiner darstellung kommt. (ziemlich umständlich hab ich das hier schonmal gemacht. hatte irgendwas mit koeffizienten [mm] c_i_,_j [/mm] zu tun)

>  
>
> > wie gesagt... entweder reicht es zu zeigen dass es
> > mindestens eine wahl gibt, sodass die gleichung nicht
> > stimmt, oder sobald man eine finden kann für die sie
> > funktioniert funktioniert der ganze beweis nicht
>  >  da können wir jetzt die gleiche diskussion anfangen
> wie
> > bei meinem beweis
>  Was für eine Wahl meinst du? Die [mm]v_1,\ldots,v_m[/mm] sind
> vorgegeben. Sie dürfen wir in keinster Weise selbst
> wählen!

natürlich.... die eigenvektoren sind vorgegeben.... nur deren länge nicht. und DIE wähle ich

>  
> > das bezog sich auf das beispiel, indem ich angelas weg
> > mutwillig dazu gebracht hab, dass die gleichung am ende
> > stimmt.
>  (Kannst du mal den Link posten, unter dem ich dieses
> Beispiel finde?)

https://matheraum.de/read?t=681757

>  >  ich habe genau das getan, was in angelas beweis steht,
> mit
> > der ausnahme, dass ich nicht einen eigenvektor als basis
> > gewählt habe, sondern eine linearkombination
>  >  darf ich tun, da mir niemand vorschreiben kann, wie ich
> > meine basis zu wählen habe.
>  Wenn du einen Beweis führst, verbietet dir keiner,
> unterwegs Basen deiner Wahl zu benutzen. Wenn du aber
> Angelas Beweis untersuchen möchtest, kannst du doch nicht
> einfach irgendetwas anderes machen, als in ihrem Beweis
> steht! Du hast offensichtlich nicht Angelas Weg "dazu
> gebracht, dass die gleichung am ende stimmt", sondern einen
> anderen Weg eingeschlagen, der nicht zum Ziel führt.

ich habe soweit ich mich erinner GENAU das getan, was man laut angelas beweis tun soll. bis auf dass ich eine andere basis gewählt habe
und damit kein widerspruch auftritt

ich hoffe ich hab jetzt nicht wieder irgendwo indizes vertauscht oder sowas, sodass da alles stimmt :)

Bezug
                                                                                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 17:26 Do 27.05.2010
Autor: SEcki

Hallo,

Also mir sind deine Gedankengaenge ueberhaupt nicht mehr nachvollziehbar (ich moechte hier jetzt nicht von Unfug sprechen, ich verstehe nur Bahnhof den groessten Teil ...), aber einen Punkt dann doch noch:

> natürlich.... die eigenvektoren sind vorgegeben.... nur
> deren länge nicht. und DIE wähle ich

Das ist Unsinn. Es gibt in einem VR im Allgemeinen kein Konzept der Laenge, es gibt keine Norm. Die skalaren Vorfaktoren haengen von den gewaehlten Vektoren ab und man hat viel, viel Freiheit - es gibt keine Vektoren der Laenge 1.

SEcki

Bezug
                                                                                                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:19 Do 27.05.2010
Autor: Faithless

uhm.... ich hab bei den überlegungen mitgehört und da kam irgendwas von körper => norm/metrik/irgendwas => länge, also kann man das machen
das war aber auch nur bruchstückhaft was da kam, aber der punkt war halt dass man es machen kann.

nichts anderes macht man ja durch [mm] a_j*v_j. [/mm] wenn man [mm] a_j [/mm] dann auf 1 normiert muss man ja dementsprechend nen längeren/kürzeren vektor [mm] v_j [/mm] aus dem eigenraum nehmen
sollte also schon alles soweit gehen

Bezug
                                                                                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Antwort
Status: (Antwort) fertig Status 
Datum: 15:39 So 30.05.2010
Autor: tobit09

Auf ein Neues... ;-)


Aufgrund der Länge meines Beitrages lohnt sich wohl ein "Inhaltsverzeichnis":
a) Zu deinen kombinatorischen Überlegungen
b) Zu deiner Gesamtvorgehensweise
c) Zur behaupteten Gleichwertigkeit von Angelas und deinem Beweis



a) Zu deinen kombinatorischen Überlegungen:


> > >  dass es einen vektor gibt, der linear unabhängig ist von

> > > den anderen [mm]v_j[/mm] ist ausgeschlossen,
>  >  Meinst du damit irgend etwas anderes als die Aussage,
> dass
> > das System [mm](v_j)_{j\in J}[/mm] linear abhängig ist? Das ist
> > doch gerade der Fall, den wir gerade betrachten.
>  
> [mm]\forall[/mm] k [mm]\in[/mm] J (ich hoffe ich verwechsel da jetzt nicht
> grad deine bezeichnungen): [mm]v_k= \summe_{j\not=k}^{}a_jv_j[/mm]
>  
> also jeder vektor ist als linearkombiation aller anderen
> schreibbar

O.K. (Das ist eine stärkere Aussage als die lineare Abhängigkeit.)

> > > da sonst nach
> > > multiplikation mit [mm]\lambda[/mm] keien möglichkeit bestünde,
> > > die auftretende differenz zu beheben
>  >  Was meinst du mit [mm]\lambda[/mm]? Welche "auftretende
> Differenz"?
> > Was meinst du mit "Differenz beheben"?
>  
> wenn es [mm]v_j[/mm] gäbe, das nicht linear abhängig ist zu den
> anderen, bedeutet das für den teil, den dieses [mm]v_j[/mm] zu [mm]v_i[/mm]
> beiträgt direkt [mm]\lambda_iv_j[/mm] = [mm]\lambda_jv_j[/mm]
>  was durch [mm]\lambda_i\not=\lambda_j[/mm] falsch ist.

Ja, man kann eine entsprechende Aussage zeigen.
  

> ums vielelicht n bisschen anschaulicher zu machen:
>  [mm]e_1+e_2+e_3[/mm] wird gebildet aus [mm]e_1, e_2, e_3[/mm] und [mm]e_2+e_3[/mm]
>  gleichzeitig soll aber gelten
> [mm]a(e_1+e_2+e_3)[/mm] = [mm]be_1+ ce_2+ de_3+[/mm] d( [mm]e_2+e_3)[/mm]
>  mit [mm]a\not=b\not=c\not=d\[/mm] folgt daraus dass die erste
> komponente niemals übereinstimmen kann

Das habe ich nicht verstanden, aber ich hatte ja schon das verstanden, was du mir mit diesem Beispiel verdeutlichen wolltest.

> > Es gibt bei einem
> > unendlichen Körper unendlich viele solche Darstellungen,
> > bei einem endlichen Körper endlich viele, wie man sich
> > überlegen kann.
> uhm da fehlt die nebenbedingung, dass
> [mm]v_i=\summe_{j\not=i}^{}v_j[/mm] (ganz am anfang so festgelegt)
>  und dann hat man auch in einem unendlichen körper nur
> endlich viele möglichkeiten
> > >  genaugenommen für [mm]dim(span\{v_j\})[/mm] = 1 die meisten: n-2

> > > (wenn ich mich nicht verzählt habe)
>  >  >  für [mm]dim(span\{v_j\})[/mm] > 1 werden es weniger

>  >  >  also bestenfalls hat man n-2 möglichkeiten
>  >  Da ich ja anscheinend nicht mal verstehe, was du
> zählen
> > möchtest, verstehe ich hier natürlich erst recht nur
> > Bahnhof.
>  
> eben die möglichkeiten für die die gleichung oben stimmt

Bis hierhin konnte ich immer noch nicht verstehen, was du mit einer "Möglichkeit, für die die Gleichung stimmt" genau meinst. Aber die folgenden Beispiele lassen mich zu einer Vermutung kommen.

>  ich glaube konkret ist die formel für m möglichkeiten m
> = max( [mm]n-2*dim(span\{v_j\});[/mm] 0)
>  
>
> beispiele:
> [mm]\IR^3: v_1[/mm] = [mm]e_1, v_2[/mm] = [mm]2e_1, v_3[/mm] = [mm]3e_1[/mm]
>  dann wäre [mm]v_3[/mm] = [mm]a*v_1[/mm] + [mm]b*v_2[/mm]
>  [mm]dim(span\{v_1, v_2\})[/mm] = 1, also hat man 3-2 = 1
> möglichkeit für [mm]v_3[/mm] = [mm]a*v_1[/mm] + [mm]b*v_2 \wedge \lambda_3v_3[/mm] =
> [mm]a*\lambda_1v_1[/mm] + [mm]b*\lambda_2v_2[/mm]
>  
> [mm]\IR^4: v_1=e_1, v_2=2e_1, v_3=e_2, v_4=e_1+e_2[/mm]
>  dann
> [mm]v_4=av_1[/mm] + [mm]bv_2[/mm] + [mm]cv_3[/mm]
> [mm]dim(span\{v_1, v_2, v_3\})[/mm] = 2 [mm]\Rightarrow[/mm] m = n - 2
> [mm]dim(span\{v_1, v_2, v_3\})[/mm] = 0
>  
> also hätte man keine möglichkeit dass [mm]v_4=av_1[/mm] + [mm]bv_2[/mm] +
> [mm]cv_3 \wedge \lambda_4v_4=a\lambda_1v_1[/mm] + [mm]b\lambda_2v_2[/mm] +
> [mm]c\lambda_3v_3[/mm] gilt

Du verstehst also unter einer "Möglichkeit, für die die Gleichung stimmt", Körperelemente [mm] $a_j$ [/mm] für alle [mm] $j\in [/mm] J$, so dass [mm] $v_i=\sum_{j\not=i}a_jv_j$ [/mm] und [mm] $\lambda_iv_i=\sum_{j\not=i}\lambda_ja_jv_j$ [/mm] gilt?

Wenn ich dich richtig verstehe, behauptest du folgenden Sachverhalt, den ich mal mit (*) bezeichnen möchte:

Sei W ein beliebiger K-Vektorraum, [mm] $w_1,\ldots,w_r\in W\setminus\{0\}$ [/mm] Vektoren ungleich dem Nullvektor, [mm] $\mu_1,\ldots,\mu_r\in [/mm] K$ paarweise verschiedene Körperelemente. Dann gibt es maximal endlich viele Wahlen von Körperelementen [mm] $a_1,\ldots,a_{r-1}$, [/mm] so dass [mm] $w_r=\sum_{k=1}^{r-1}a_kw_k$ [/mm] und [mm] $\mu_rw_r=\sum_{k=1}^{r-1}\mu_ka_kw_k$ [/mm] gilt.

Diese Aussage (*) ist falsch!
Als Gegenbeispiel können wir z.B. einen beliebigen [mm] $\IR$-Vektorraum [/mm] W mit einem Vektor [mm] $w\in W\setminus\{0\}$ [/mm] betrachten. Dann wählen $r=4$ und [mm] $w_k:=w$ [/mm] sowie [mm] $\lambda_k:=k$ [/mm] für alle $k=1,2,3,4$.
Nun kann man für alle [mm] $a\in\IR$ [/mm] nachrechnen, dass die [mm] Wahl$a_1:=a,a_2:=-2a-1,a_3:=a+2$ [/mm] dass Gewünschte leistet. Da [mm] $a\in\IR$ [/mm] beliebig war, haben wir unendlich viele Wahlen der geforderten Gestalt gefunden, was (*) widerspricht.


Fazit von a): Deine kombinatorischen Überlegungen enthalten einen groben (vermutlich unrettbaren) Fehler.



b) Zu deiner Gesamtvorgehensweise:


>  >  Wir haben paarweise verschiedene Eigenwerte
> > [mm]\lambda_1,\ldots,\lambda_m[/mm] von A und für jedes
> > [mm]j\in\{1,\ldots,m\}[/mm] einen Eigenvektor [mm]v_j[/mm] von A zum
> > Eigenwert [mm]\lambda_j[/mm] gegeben. Von DIESEN Vektoren
> > [mm]v_1,\ldots,v_m[/mm] müssen wir zeigen, dass sie linear
> > unabhängig sind. Wir dürfen nicht selber wählen, für
> > was für Vektoren wir dies zeigen wollen.
> wir müssen wählen. und zwar wählen wir die länge der
> eigenvektoren so, dass genau ein anderer eigenvektor raus
> kommt. und für linear abhängige eigenvektoren erhalten
> wir unendlich viele möglichkeiten dies zu tun
> und eben für all diese möglichkeiten muss alles stimmen,
> wenn es das nicht tut haben wir einen widerspruch
>  hier geht es nur darum, die darstellung von [mm]v_i[/mm] zu
> wählen, nicht die von irgendwas, was mit [mm]\lambda[/mm] zu tun
> hat

Mal abgesehen von SEckis berechtigtem Einwand bezüglich einer "Länge" von Vektoren: Genau wie die [mm] $\lambda_k$ [/mm] sind auch die [mm] $v_k$ [/mm] vorgegeben! Also keine "freie Auswahl". Nichtsdestotrotz kannst natürlich hilfsweise innerhalb eines Beweises auch andere Eigenvektoren betrachten. Du solltest halt nur tunlichst vermeiden, sie auch [mm] $v_k$ [/mm] zu nennen; sonst ist es kein Wunder, dass niemand deinen Gedanken folgen kann.

> natürlich.... die eigenvektoren sind vorgegeben.... nur
> deren länge nicht. und DIE wähle ich

Wieder abgesehen davon, dass Vektoren eines beliebigen Vektorraumes gar keine Länge haben: Die [mm] $v_k$ [/mm] sind exakt vorgegeben und nicht nur bis auf ein skalares Vielfaches.

(Gut, man könnte mit gewisser Begründung o.B.d.A. ..., dann müsste man das aber explizit erklären. Ich möchte das jetzt nicht vertiefen. Ich würde dir derzeit ohnehin davon abraten, die "Argumentationskomplexität" durch o.B.d.A.-Annahmen zu erhöhen.)

(Sicherheitshalber: Dir ist schon klar, dass es durchaus zwei Eigenvektoren zum gleichen Eigenwert geben kann, die nicht skalares Vielfaches voneinander sind?)

> also reicht es zu zeigen dass es mindestens eine basis
> gibt, für die man einen widerspruch findet?
>  bedeutet das nicht auch, dass es reicht, wenn man ohne die
> wahl einer basis (sprich mein beweis) das ganze
> durchführt, nur eine darstellung von [mm]v_i[/mm] aus [mm]v_j[/mm] finden
> muss, sodass die gleichung am ende nicht aufgeht?

Wenn du aus der Annahme, dass die vorgegebenen [mm] $v_k$ [/mm] linear abhängig sind, eine Darstellung der Form [mm] $v_i=\sum_j v_j'$ [/mm] mit gewissen Eigenvektoren [mm] $v_j'$ [/mm] konstruieren und diese zum Widerspruch führen kannst, hast du in der Tat die Behauptung bewiesen. Beachte, dass ich zwischen den vorgegebenen [mm] $v_k$ [/mm] und selbst konstruierten [mm] $v_j'$ [/mm] unterschieden habe!

> und eben
> genau dies hab ich

Mit viel Mühe ist es mir nun gelungen, aus deinen Erläuterungen und Beispielen eine auf der Aussage (*) fußende Argumentation zusammen zu basteln, die bis auf die Unrichtigkeit der Aussage (*) korrekt ist. Ich hoffe, sie gibt deine Ideen richtig wieder. Hier ist sie:



Wir zeigen die Behauptung nur für den Fall, dass A eine Matrix mit Koeffizienten in einem unendlichen Körper K ist.

Angenommen [mm] $v_1,\ldots,v_m$ [/mm] sind linear abhängig. Dann existieren ein [mm] $i\in\{1,\ldots,m\}$ [/mm] und Körperelemente [mm] $a_j\in [/mm] K$ für alle [mm] $j\in\{1,\ldots,m\}\setminus\{i\}=:J$, [/mm] so dass [mm] $v_i=\sum_{j\in J}a_jv_j$ [/mm] gilt.

Sei ein solches i gewählt. Sei [mm] $M:=\{(a_j)_{j\in J}\;|\;a_j\in K,v_i=\sum_{j\in J}a_jv_j\}$. [/mm]

Für alle [mm] $(a_j)_{j\in J}\in [/mm] M$ gilt: [mm] $\lambda_iv_i=Av_i=A\sum_{j\in J}a_jv_j=\sum_{j\in J}a_j(Av_j)=\sum_{j\in J}a_j\lambda_jv_j$. [/mm] Diese Aussage sei mit (**) bezeichnet.

Wir wählen nun ein festes Element [mm] $(a_j)_{j\in J}\in [/mm] M$ (existiert nach Wahl von i). Da [mm] $v_i$ [/mm] als Eigenvektor nicht der Nullvektor sein kann, existiert nach Definition von M ein [mm] $j_0\in [/mm] J$ mit [mm] $a_{j_0}\not=0$. [/mm]

Wir unterscheiden 2 Fälle:

1. Fall: [mm] $(v_j)_{j\in J}$ [/mm] linear unabhängig

Aus  [mm] $\sum_{j\in J}\lambda_ia_jv_j=\lambda_i\sum_{j\in J}a_jv_j=\lambda_iv_i=\sum_{j\in J}a_j\lambda_jv_j$ [/mm] (die letzte Gleichheit liefert (**)) folgt mit der linearen Unabhängigkeit von [mm] $(v_j)_{j\in J}$, [/mm] dass schon [mm] $\lambda_ia_j=a_j\lambda_j$ [/mm] für alle [mm] $j\in [/mm] J$ gilt. Insbesondere folgt [mm] $\lambda_ia_{j_0}=a_{j_0}\lambda_{j_0}$. [/mm] Wegen [mm] $a_{j_0}\not=0$ [/mm] folgt daraus [mm] $\lambda_i=\lambda_{j_0}$. [/mm] Da die [mm] $\lambda_k$ [/mm] paarweise verschieden sind, folgt [mm] $i=j_0$, [/mm] was [mm] $j_0\in [/mm] J$ widerspricht.

2. Fall: [mm] $(v_j)_{j\in J}$ [/mm] linear abhängig

Dann existieren Körperelemente [mm] $c_j\in [/mm] K$ für alle [mm] $j\in [/mm] J$ mit [mm] $\sum_{j\in J}c_jv_j=0$ [/mm] und [mm] $c_{j_1}\not=0$ [/mm] für ein [mm] $j_1\in [/mm] J$. Für alle [mm] $d\in [/mm] K$ gilt dann mit [mm] $a_j^d:=a_j+d*c_j$ [/mm] für alle [mm] $j\in [/mm] J$:
[mm] $\sum_{j\in J}a_j^dv_j=\sum_{j\in J}(a_j+d*c_j)v_j=\underbrace{(\sum_{j\in J}a_jv_j)}_{=v_i}+(d*\underbrace{\sum_{j\in J}c_jv_j)}_{=0}=v_i$. [/mm]
Also ist [mm] $(a_j^d)_{j\in J}\in [/mm] M$ für alle [mm] $d\in [/mm] K$.

Für alle [mm] $d,d'\in [/mm] K$ mit [mm] $d\not=d'$ [/mm] ist [mm] $a_{j_1}^d\not=a_{j_1}^{d'}$ [/mm] (sonst wäre [mm] $a_{j_1}+d*c_{j_1}=a_{j_1}+d'*c_{j_1}$, [/mm] woraus wegen [mm] $c_{j_1}\not=0$ [/mm] folgen würde, dass $d=d'$). Also sind die [mm] $(a_j^d)_{j\in J}$ [/mm] paarweise verschieden. Da K unendlich ist, haben wir also unendlich viele verschiedene Elemente von M gefunden. Andererseits müsste [mm] $M=\{(a_j)_{j\in J}\;|\;a_j\in K,v_i=\sum_{j\in J}a_jv_j\}=\{(a_j)_{j\in J}\;|\;a_j\in K,v_i=\sum_{j\in J}a_jv_j,\lambda_iv_i=\sum_{j\in J}a_j\lambda_jv_j\}$ [/mm] (letztere Gleichheit folgt aus (**)) nach (*) endlich sein, Widerspruch.

In beiden Fällen gelangen wir zu einem Widerspruch, so dass die Annahme, [mm] $v_1,\ldots,v_m$ [/mm] seien linear abhängig, falsch sein muss. Die Behauptung ist damit bewiesen (bzw. wäre es, wenn nicht (*) fehlerhaft wäre).



> (zugegebenerweise nur für unendliche
> körper zunächst, wobei rein intuitiv rauskommen müsste,
> dass nicht alle wahlen in einem endlichen körper die
> gleichung erfüllen. in [mm]\IZ_5^3[/mm] für [mm]v_1=e_1, v_2=2e_1, v_3=3e_1, \lambda_1\not=\lambda_2\not=\lambda_3,[/mm]
> führt [mm]v_3=v_1+v_2[/mm] für [mm]\lambda_1=1, \lambda_2=2, \lambda_3=3[/mm]
> zu 4_e1=0... wenn dies als gegenbeweis durch gegenbeispiel
> zählt bin ich hiermit auch für endliche körper fertig
> ^^)

Ohne mich hier mit Details auseinandergesetzt zu haben: Du kannst doch Aussagen über BELIEBIGE endliche Körper, BELIEBIGE quadratische Matrizen über diesem Körper, BELIEBIGE paarweise verschiedene Eigenwerte dieser Matrix und BELIEBIGE Eigenvektoren zu diesen Eigenwerten nicht einfach dadurch beweisen, dass du EIN Beispiel betrachtest.


Fazit von b): Ich konnte nun deinen Ausführungen Ideen entnehmen, aus der falschen Aussage (*) ansonsten korrekt die Behauptung im Falle unendlicher Körper zu beweisen.



c) Zur behaupteten Gleichwertigkeit von Angelas und deinem Beweis:


> > Ohne auf die Details einzugehen: Anscheinend versuchst du
> > einen sehr umständlichen Weg zu skizzieren, um an eine
> > Gleichung zu gelangen, die du auch auf anderem Weg schon
> > erhalten hattest. (Ich vermute, dass dieser Weg einen
> > Fehlschluss beinhaltet. Aber nehmen wir mal an, er sei
> > korrekt.)
> naja... wie gesagt... ich denke ich kann jederzeit von dem
> beweis mit basis zu meinem beweis ohne basis gelangen...
> was diskussionsstoff darüber liefert ob die basiswahl
> notwendig ist und ob man dadurch nicht zusätzliche
> schritte macht, usw.... also was umständlicher ist, will
> ich jetzt hier nicht diskutieren, das sollte persönliche
> meinung sein. wichtig ist meiner meinung nach nur, dass
> beide wege gleich sind.  

Dass wir uns auf Fragen von Korrektheit unabhängig von Umständlichkeit beschränken, ist absolut in meinem Sinne. Ich habe dies in meinen bisherigen Beiträgen übrigens bewusst schon so versucht zu handhaben. In meiner Formulierung von einem "sehr umständlichen Weg" kannst du daher gerne das "sehr umständlich" durch "anderen" ersetzen.

Mein Einwand bezog sich darauf, dass deine vorgeschlagene Beweis-Alternative nur Stellen in deinem Beweisversuch aus dem Ausgangspost abänderte, gegen die ich gar nicht argumentiert hatte, und gar nichts an dem beanstandeten Fehlschluss änderte.

> > Einen Zusammenhang zu Angelas Argumentation erkenne ich
> > jedenfalls nicht: Angela gelingt es, aus der Existenz einer
> > Gleichung der Form [mm]v_i=\sum_{j\in J}b_jv_j[/mm] eine Gleichung
> > der Form [mm]v_i=\sum_{j\in J'} a_jv_j[/mm] mit einer geeigneten
> > Teilmenge [mm]J'\subset J[/mm], für die das Teilsystem [mm](v_j)_{j\in J'}[/mm]
> > linear unabhängig ist, zu konstruieren. Einen
> > vergleichbaren Ansatz habe ich von dir noch nicht gesehen.
>  
> wie gesagt... ich bringe dir wenns sein muss für jede wahl
> einer basis einen weg, wie man zu meiner darstellung kommt.
> (ziemlich umständlich hab ich das hier schonmal gemacht.
> hatte irgendwas mit koeffizienten [mm]c_i_,_j[/mm] zu tun)

Wenn eine Argumentation gleichbedeutend mit Angelas sein soll, reicht es nicht, dass unterwegs irgendwelche Basen vorkommen. Vielmehr müsste die Argumentation genauso wie Angelas zu einer Gleichung der Form [mm]v_i=\sum_{j\in J'} a_jv_j[/mm] mit einer geeigneten Teilmenge [mm]J'\subset J[/mm], für die das Teilsystem [mm](v_j)_{j\in J'}[/mm] linear unabhängig ist, gelangen. Solange eine Argumentation das nicht leistet, kann man wohl kaum davon sprechen, dass sie mit Angelas Weg übereinstimmt.

Du schreibst ja selbst von einem

> weg, wie man zu meiner darstellung kommt

und nicht von einem Weg, wie man zu Angelas Darstellung kommt.
Mit deiner Darstellung funktioniert der gewünschte Schluss im Ausgangspost (!) nicht; mit Angelas Darstellung gelingt ein vergleichbarer Schluss.

> > > das bezog sich auf das beispiel, indem ich angelas weg
> > > mutwillig dazu gebracht hab, dass die gleichung am ende
> > > stimmt.
>  >  (Kannst du mal den Link posten, unter dem ich dieses
> > Beispiel finde?)
>  
> https://matheraum.de/read?t=681757

Das ist der Link des gesamten Threads, der hilft mir natürlich nicht weiter... Wenn du auf "Einzelner Artikel" klickst, kommst du auf den entsprechenden Artikel und kannst den entsprechenden Link posten.

>  >  Wenn du einen Beweis führst, verbietet dir keiner,
> > unterwegs Basen deiner Wahl zu benutzen. Wenn du aber
> > Angelas Beweis untersuchen möchtest, kannst du doch nicht
> > einfach irgendetwas anderes machen, als in ihrem Beweis
> > steht! Du hast offensichtlich nicht Angelas Weg "dazu
> > gebracht, dass die gleichung am ende stimmt", sondern einen
> > anderen Weg eingeschlagen, der nicht zum Ziel führt.
>
> ich habe soweit ich mich erinner GENAU das getan, was man
> laut angelas beweis tun soll. bis auf dass ich eine andere
> basis gewählt habe
>  und damit kein widerspruch auftritt

Ja eben! "Bis auf..." So könnte man ziemlich jeden korrekten Beweis "widerlegen": Man tut GENAU das, was der Beweis sagt, BIS AUF eine Stelle, "damit der Beweis nicht mehr funktioniert".


Fazit von c): Dein Beweisversuch aus dem Ausgangspost ist nicht gleichbedeutend mit Angelas Vorgehensweise (deine Argumentation, wie ich sie unter b) deinen Erläuterungen und Beispielen entnommen habe, übrigens erst recht nicht). Die Korrektheit von Angelas Weg konntest du nicht widerlegen.



Bis zum nächsten Mal! ;-)

Bezug
                                                                                                                                                                                                
Bezug
Lin.Unabhängigkeit v. EV: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 04:13 Di 01.06.2010
Autor: Faithless

ich sehe wir fangen an uns besser zu verstehen :D
jedenfalls hab ich das gefühl dass du ziemlich gut das verstanden hast was ich meine (und ich hoffe andersrum auch ^^)



>  
>
>
> a) Zu deinen kombinatorischen Überlegungen:
>  

> > > > da sonst nach
> > > > multiplikation mit [mm]\lambda[/mm] keien möglichkeit bestünde,
> > > > die auftretende differenz zu beheben
>  >  >  Was meinst du mit [mm]\lambda[/mm]? Welche "auftretende
> > Differenz"?
> > > Was meinst du mit "Differenz beheben"?
>  >  
> > wenn es [mm]v_j[/mm] gäbe, das nicht linear abhängig ist zu den
> > anderen, bedeutet das für den teil, den dieses [mm]v_j[/mm] zu [mm]v_i[/mm]
> > beiträgt direkt [mm]\lambda_iv_j[/mm] = [mm]\lambda_jv_j[/mm]
>  >  was durch [mm]\lambda_i\not=\lambda_j[/mm] falsch ist.
>  Ja, man kann eine entsprechende Aussage zeigen.
>    
> > ums vielelicht n bisschen anschaulicher zu machen:
>  >  [mm]e_1+e_2+e_3[/mm] wird gebildet aus [mm]e_1, e_2, e_3[/mm] und
> [mm]e_2+e_3[/mm]
>  >  gleichzeitig soll aber gelten
> > [mm]a(e_1+e_2+e_3)[/mm] = [mm]be_1+ ce_2+ de_3+[/mm] d( [mm]e_2+e_3)[/mm]
>  >  mit [mm]a\not=b\not=c\not=d\[/mm] folgt daraus dass die erste
> > komponente niemals übereinstimmen kann
>  Das habe ich nicht verstanden, aber ich hatte ja schon das
> verstanden, was du mir mit diesem Beispiel verdeutlichen
> wolltest.

sorry, aber da kann ich nur wieder auf die aussage verweisen.... das beispiel soll schon die aussage veranschaulichen.
wundert mich allerdings ein wenig, dass wenn du die aussage verstanden hast sie nicht auf das beispiel anwenden kannst.... liegt vielleicht auch daran dass man von falschen tatsachen ausgeht und deswegen schon von vornherei ein problem hat mit dem verständnis ;)

aber ich versuch einfach nochmal das beispiel mit worten zu erklären
mir fällt auch grad auf dass man das ganze vielleicht mehr aufgaben bezogen hätte machen können.... aber nuja.... sollte auch so funktionieren

du hast 5 vektoren   [mm]e_1+e_2+e_3[/mm] [mm]e_1, e_2, e_3[/mm] und [mm]e_2+e_3[/mm]

[mm]e_1+e_2+e_3[/mm] wird aus einer beliebigen kombination von [mm]e_1, e_2, e_3[/mm] und [mm]e_2+e_3[/mm] gebildet
a, b, c, d, und e sind in dem beispiel mit den eigenwerten vergleichbar, die nach multiplikation mit A ins spiel kommen.
die 2. und 3. komponente kann man zur übereinstimmung bringen, indem man passende längen von [mm] e_2, e_3 [/mm] und [mm] e_2+e_3 [/mm] addiert.
für die erste komponente muss aber immer a=b gelten, damit auch nach der multiplikation mit den eigenwerten die aussage richtig ist.
da das nach voraussetzung nicht so ist, kann es keinen vektor geben (auf der rechten seite der gleichung), der nicht aus anderen vektoren zusammengesetzt ist.



>  >  
> > eben die möglichkeiten für die die gleichung oben stimmt
>  Bis hierhin konnte ich immer noch nicht verstehen, was du
> mit einer "Möglichkeit, für die die Gleichung stimmt"
> genau meinst. Aber die folgenden Beispiele lassen mich zu
> einer Vermutung kommen.

dazu sind ja die beispiele da :)


>  
> >  ich glaube konkret ist die formel für m möglichkeiten m

> > = max( [mm]n-2*dim(span\{v_j\});[/mm] 0)
>  >  
> >
> > beispiele:
> > [mm]\IR^3: v_1[/mm] = [mm]e_1, v_2[/mm] = [mm]2e_1, v_3[/mm] = [mm]3e_1[/mm]
>  >  dann wäre [mm]v_3[/mm] = [mm]a*v_1[/mm] + [mm]b*v_2[/mm]
>  >  [mm]dim(span\{v_1, v_2\})[/mm] = 1, also hat man 3-2 = 1
> > möglichkeit für [mm]v_3[/mm] = [mm]a*v_1[/mm] + [mm]b*v_2 \wedge \lambda_3v_3[/mm] =
> > [mm]a*\lambda_1v_1[/mm] + [mm]b*\lambda_2v_2[/mm]
>  >  
> > [mm]\IR^4: v_1=e_1, v_2=2e_1, v_3=e_2, v_4=e_1+e_2[/mm]
>  >  dann
> > [mm]v_4=av_1[/mm] + [mm]bv_2[/mm] + [mm]cv_3[/mm]
> > [mm]dim(span\{v_1, v_2, v_3\})[/mm] = 2 [mm]\Rightarrow[/mm] m = n - 2
> > [mm]dim(span\{v_1, v_2, v_3\})[/mm] = 0
>  >  
> > also hätte man keine möglichkeit dass [mm]v_4=av_1[/mm] + [mm]bv_2[/mm] +
> > [mm]cv_3 \wedge \lambda_4v_4=a\lambda_1v_1[/mm] + [mm]b\lambda_2v_2[/mm] +
> > [mm]c\lambda_3v_3[/mm] gilt
>  Du verstehst also unter einer "Möglichkeit, für die die
> Gleichung stimmt", Körperelemente [mm]a_j[/mm] für alle [mm]j\in J[/mm], so
> dass [mm]v_i=\sum_{j\not=i}a_jv_j[/mm] und
> [mm]\lambda_iv_i=\sum_{j\not=i}\lambda_ja_jv_j[/mm] gilt?

ich hätte zwar nicht diese worte gefunden aber es hört sich gut an
im weiteren scheinst du damit weiter zu rechnen und ich erkenne worauf sich das bei mir bezieht
scheint also zu passen :)

>  
> Wenn ich dich richtig verstehe, behauptest du folgenden
> Sachverhalt, den ich mal mit (*) bezeichnen möchte:
>  
> Sei W ein beliebiger K-Vektorraum, [mm]w_1,\ldots,w_r\in W\setminus\{0\}[/mm]
> Vektoren ungleich dem Nullvektor, [mm]\mu_1,\ldots,\mu_r\in K[/mm]
> paarweise verschiedene Körperelemente. Dann gibt es
> maximal endlich viele Wahlen von Körperelementen
> [mm]a_1,\ldots,a_{r-1}[/mm], so dass [mm]w_r=\sum_{k=1}^{r-1}a_kw_k[/mm] und
> [mm]\mu_rw_r=\sum_{k=1}^{r-1}\mu_ka_kw_k[/mm] gilt.
>  
> Diese Aussage (*) ist falsch!
>  Als Gegenbeispiel können wir z.B. einen beliebigen
> [mm]\IR[/mm]-Vektorraum W mit einem Vektor [mm]w\in W\setminus\{0\}[/mm]
> betrachten. Dann wählen [mm]r=4[/mm] und [mm]w_k:=w[/mm] sowie [mm]\lambda_k:=k[/mm]
> für alle [mm]k=1,2,3,4[/mm].
>  Nun kann man für alle [mm]a\in\IR[/mm] nachrechnen, dass die
> Wahl[mm]a_1:=a,a_2:=-2a-1,a_3:=a+2[/mm] dass Gewünschte leistet. Da
> [mm]a\in\IR[/mm] beliebig war, haben wir unendlich viele Wahlen der
> geforderten Gestalt gefunden, was (*) widerspricht.
>  
>
> Fazit von a): Deine kombinatorischen Überlegungen
> enthalten einen groben (vermutlich unrettbaren) Fehler.
>  

dann kommt hier mal der rettungswagen:
zuerst mal.... unter wählen versteh ich persönlich dass man aus gegebenen sachen etwas nimmt.
du kannst also nicht [mm] w_k [/mm] und [mm] \lambda_k [/mm] wählen. du kannst nur dein beispiel so definieren, wie du es brauchst
r hingegen darfst du wählen
(wenn du das ohnehin so meintest verstehen wir uns ja, alles ist gut ^^)
aber ich spiele den ball einfach mal zurück mit dem (unrettbaren) fehler:
ein eigenvektor kann nicht 2 verschiedene eigenwerte haben. aus was falschem kann man alles folgern.
von der perspektive aus betrachtet sind meine beispiele wo ich verschiedene vielfache eines vektors als eigenvektoren annehme eigentlich auch totaler mist (linearität und so weiter), aber ich nehme immerhin verschiedene vektoren, und mit diesen funktioniert deine argumentation soweit ich mich erinner schon nicht mehr.
sollte es für meine beispiele tatsächlich auch mehr lösungen geben greift da das gleiche argument, sodass man nur vektoren angucken darf die paarweise linear unabhängig sind. und da bin ich mir ziemlich sicher stimmt meine überlegung


>
>
> b) Zu deiner Gesamtvorgehensweise:
>  
>
>  Mal abgesehen von SEckis berechtigtem Einwand bezüglich
> einer "Länge" von Vektoren: Genau wie die [mm]\lambda_k[/mm] sind
> auch die [mm]v_k[/mm] vorgegeben! Also keine "freie Auswahl".
> Nichtsdestotrotz kannst natürlich hilfsweise innerhalb
> eines Beweises auch andere Eigenvektoren betrachten. Du
> solltest halt nur tunlichst vermeiden, sie auch [mm]v_k[/mm] zu
> nennen; sonst ist es kein Wunder, dass niemand deinen
> Gedanken folgen kann.

uhm.... "länge" ist vielleicht nicht allgemein richtig, aber laut aufgabenstellung sind wir in einem raum [mm] K^n [/mm] (weil [mm] A\inK^n^x^n) [/mm]
und in diesem haben wir (korrigier mich wenn ich irgendwie falsch lieg) skalarprodukt, metrik und die besagte länge

allgemein wäre es wohl richtiger zu sagen dass der skalar in den vektor reingezogen wird, sodass der koeffizient 1 wird
so würde das ganze dann auch für polynome oder sowas richtig sein

>  
> > natürlich.... die eigenvektoren sind vorgegeben.... nur
> > deren länge nicht. und DIE wähle ich
>  Wieder abgesehen davon, dass Vektoren eines beliebigen
> Vektorraumes gar keine Länge haben: Die [mm]v_k[/mm] sind exakt
> vorgegeben und nicht nur bis auf ein skalares Vielfaches.

hm? wenn v eigenvektor is, ist auch k*v [mm] (k\not=0) [/mm] eigenvektor
was willst du mir also genau sagen? ^^

>  
> (Gut, man könnte mit gewisser Begründung o.B.d.A. ...,
> dann müsste man das aber explizit erklären. Ich möchte
> das jetzt nicht vertiefen. Ich würde dir derzeit ohnehin
> davon abraten, die "Argumentationskomplexität" durch
> o.B.d.A.-Annahmen zu erhöhen.)
>  
> (Sicherheitshalber: Dir ist schon klar, dass es durchaus
> zwei Eigenvektoren zum gleichen Eigenwert geben kann, die
> nicht skalares Vielfaches voneinander sind?)

schon klar, aber wir betrachten eigenvektoren, die paarweise verschiedene eigenwerte haben (siehe aufgabenstellung)
also gibt es in dieser aufgabenstellung halt doch nur einen eigenvektor zu einem eigenwert, und mit einen eigenvektor meine ich einen von 0 verschiedenen vektor und all seine vielfache ebenfalls von 0 verschieden

>  
> > also reicht es zu zeigen dass es mindestens eine basis
> > gibt, für die man einen widerspruch findet?
>  >  bedeutet das nicht auch, dass es reicht, wenn man ohne
> die
> > wahl einer basis (sprich mein beweis) das ganze
> > durchführt, nur eine darstellung von [mm]v_i[/mm] aus [mm]v_j[/mm] finden
> > muss, sodass die gleichung am ende nicht aufgeht?
>  Wenn du aus der Annahme, dass die vorgegebenen [mm]v_k[/mm] linear
> abhängig sind, eine Darstellung der Form [mm]v_i=\sum_j v_j'[/mm]
> mit gewissen Eigenvektoren [mm]v_j'[/mm] konstruieren und diese zum
> Widerspruch führen kannst, hast du in der Tat die
> Behauptung bewiesen. Beachte, dass ich zwischen den
> vorgegebenen [mm]v_k[/mm] und selbst konstruierten [mm]v_j'[/mm]
> unterschieden habe!

hätte ich vielleicht auch tun sollen, ich bin allerdings davonausgegangen dass es reicht (um es zu verstehen) zu sagen dass die koeffizienten auf 1 normiert werden und die länge angepasst wird (bzw der skalar in den vektor direkt reinmultipliziert wird, bin mir da immernoch nich ganz sicher ob man da wirklich unterscheiden muss da wir auf [mm] K^n [/mm] sind)
aber ab der normierung benutze ich nur noch die "selbst kontruierten" eigenvektoren. hilft vielleicht allen beim verstehen :)

>  
> > und eben
> > genau dies hab ich
>  Mit viel Mühe ist es mir nun gelungen, aus deinen
> Erläuterungen und Beispielen eine auf der Aussage (*)
> fußende Argumentation zusammen zu basteln, die bis auf die
> Unrichtigkeit der Aussage (*) korrekt ist. Ich hoffe, sie
> gibt deine Ideen richtig wieder. Hier ist sie:
>  
>
>
> Wir zeigen die Behauptung nur für den Fall, dass A eine
> Matrix mit Koeffizienten in einem unendlichen Körper K
> ist.

solange keiner nachweist dass der beweis auch für endliche körper gilt, ja, leider.
(nebenbei kleine verständnisfrage: koeffizienten? ich dachte das wären die skalare, mit denen vektoren, matrizen oder unbstimmte multipliziert werden? meinst du mit koeffizienten hier einträge der matrix?)

>  
> Angenommen [mm]v_1,\ldots,v_m[/mm] sind linear abhängig. Dann
> existieren ein [mm]i\in\{1,\ldots,m\}[/mm] und Körperelemente
> [mm]a_j\in K[/mm] für alle [mm]j\in\{1,\ldots,m\}\setminus\{i\}=:J[/mm], so
> dass [mm]v_i=\sum_{j\in J}a_jv_j[/mm] gilt.
>  
> Sei ein solches i gewählt. Sei [mm]M:=\{(a_j)_{j\in J}\;|\;a_j\in K,v_i=\sum_{j\in J}a_jv_j\}[/mm].

mit dieser mengenbezeichnung kann ich ehrlich gesagt nicht viel anfangen. sieht so aus als ob diese bezeichnung das ganze nur verkompliziert, was man auch einfacher ausdrücken könnte
ich nehme mal einfach an dass du weißt was du tust und dass das das tut, was es tun soll :D

>  
> Für alle [mm](a_j)_{j\in J}\in M[/mm] gilt:
> [mm]\lambda_iv_i=Av_i=A\sum_{j\in J}a_jv_j=\sum_{j\in J}a_j(Av_j)=\sum_{j\in J}a_j\lambda_jv_j[/mm].
> Diese Aussage sei mit (**) bezeichnet.
>  
> Wir wählen nun ein festes Element [mm](a_j)_{j\in J}\in M[/mm]
> (existiert nach Wahl von i). Da [mm]v_i[/mm] als Eigenvektor nicht
> der Nullvektor sein kann, existiert nach Definition von M
> ein [mm]j_0\in J[/mm] mit [mm]a_{j_0}\not=0[/mm].
>  
> Wir unterscheiden 2 Fälle:
>  
> 1. Fall: [mm](v_j)_{j\in J}[/mm] linear unabhängig
>  
> Aus  [mm]\sum_{j\in J}\lambda_ia_jv_j=\lambda_i\sum_{j\in J}a_jv_j=\lambda_iv_i=\sum_{j\in J}a_j\lambda_jv_j[/mm]
> (die letzte Gleichheit liefert (**)) folgt mit der linearen
> Unabhängigkeit von [mm](v_j)_{j\in J}[/mm], dass schon
> [mm]\lambda_ia_j=a_j\lambda_j[/mm] für alle [mm]j\in J[/mm] gilt.
> Insbesondere folgt [mm]\lambda_ia_{j_0}=a_{j_0}\lambda_{j_0}[/mm].
> Wegen [mm]a_{j_0}\not=0[/mm] folgt daraus [mm]\lambda_i=\lambda_{j_0}[/mm].
> Da die [mm]\lambda_k[/mm] paarweise verschieden sind, folgt [mm]i=j_0[/mm],
> was [mm]j_0\in J[/mm] widerspricht.
>  
> 2. Fall: [mm](v_j)_{j\in J}[/mm] linear abhängig
>  
> Dann existieren Körperelemente [mm]c_j\in K[/mm] für alle [mm]j\in J[/mm]
> mit [mm]\sum_{j\in J}c_jv_j=0[/mm] und [mm]c_{j_1}\not=0[/mm] für ein [mm]j_1\in J[/mm].
> Für alle [mm]d\in K[/mm] gilt dann mit [mm]a_j^d:=a_j+d*c_j[/mm] für alle
> [mm]j\in J[/mm]:
>  [mm]\sum_{j\in J}a_j^dv_j=\sum_{j\in J}(a_j+d*c_j)v_j=\underbrace{(\sum_{j\in J}a_jv_j)}_{=v_i}+(d*\underbrace{\sum_{j\in J}c_jv_j)}_{=0}=v_i[/mm].
>  
> Also ist [mm](a_j^d)_{j\in J}\in M[/mm] für alle [mm]d\in K[/mm].
>  
> Für alle [mm]d,d'\in K[/mm] mit [mm]d\not=d'[/mm] ist
> [mm]a_{j_1}^d\not=a_{j_1}^{d'}[/mm] (sonst wäre
> [mm]a_{j_1}+d*c_{j_1}=a_{j_1}+d'*c_{j_1}[/mm], woraus wegen
> [mm]c_{j_1}\not=0[/mm] folgen würde, dass [mm]d=d'[/mm]). Also sind die
> [mm](a_j^d)_{j\in J}[/mm] paarweise verschieden. Da K unendlich ist,
> haben wir also unendlich viele verschiedene Elemente von M
> gefunden. Andererseits müsste [mm]M=\{(a_j)_{j\in J}\;|\;a_j\in K,v_i=\sum_{j\in J}a_jv_j\}=\{(a_j)_{j\in J}\;|\;a_j\in K,v_i=\sum_{j\in J}a_jv_j,\lambda_iv_i=\sum_{j\in J}a_j\lambda_jv_j\}[/mm]
> (letztere Gleichheit folgt aus (**)) nach (*) endlich sein,
> Widerspruch.

boh... und ich dachte ich würde wenn ich weitere variablen einführe die ich selber so definiere wie ich sie brauche alles verständlicher machen.... wieder was gelernt :D
aber ich glaube es verstanden zu haben. sieht aber gut aus.... du kommst auf jeden fall zu dem ergebnis das von mir angestrebt ist.

>  
> In beiden Fällen gelangen wir zu einem Widerspruch, so
> dass die Annahme, [mm]v_1,\ldots,v_m[/mm] seien linear abhängig,
> falsch sein muss. Die Behauptung ist damit bewiesen (bzw.
> wäre es, wenn nicht (*) fehlerhaft wäre).

bleibt zu klären ob (*) wirklich falsch ist. (wie du aber zu diesem zeitpunkt schon gelesen haben solltest hab ich da noch einwände)

>  
>
>
> > (zugegebenerweise nur für unendliche
> > körper zunächst, wobei rein intuitiv rauskommen müsste,
> > dass nicht alle wahlen in einem endlichen körper die
> > gleichung erfüllen. in [mm]\IZ_5^3[/mm] für [mm]v_1=e_1, v_2=2e_1, v_3=3e_1, \lambda_1\not=\lambda_2\not=\lambda_3,[/mm]
> > führt [mm]v_3=v_1+v_2[/mm] für [mm]\lambda_1=1, \lambda_2=2, \lambda_3=3[/mm]
> > zu 4_e1=0... wenn dies als gegenbeweis durch gegenbeispiel
> > zählt bin ich hiermit auch für endliche körper fertig
> > ^^)
>  Ohne mich hier mit Details auseinandergesetzt zu haben: Du
> kannst doch Aussagen über BELIEBIGE endliche Körper,
> BELIEBIGE quadratische Matrizen über diesem Körper,
> BELIEBIGE paarweise verschiedene Eigenwerte dieser Matrix
> und BELIEBIGE Eigenvektoren zu diesen Eigenwerten nicht
> einfach dadurch beweisen, dass du EIN Beispiel
> betrachtest.

naja.... allgemeine richtigkeit kann man nunmal widerlegen indem man ein gegenbeispiel findet... ein BELIEBIGES ;)

>  
>
> Fazit von b): Ich konnte nun deinen Ausführungen Ideen
> entnehmen, aus der falschen Aussage (*) ansonsten korrekt
> die Behauptung im Falle unendlicher Körper zu beweisen.
>  

oder wie es sich besser anhört: wenn (*) richtig ist, ist mein beweis richtig? ^^

>
>
> c) Zur behaupteten Gleichwertigkeit von Angelas und deinem
> Beweis:
>  

>  
> Du schreibst ja selbst von einem
> > weg, wie man zu meiner darstellung kommt
>  und nicht von einem Weg, wie man zu Angelas Darstellung
> kommt.
>  Mit deiner Darstellung funktioniert der gewünschte
> Schluss im Ausgangspost (!) nicht; mit Angelas Darstellung
> gelingt ein vergleichbarer Schluss.
>  
> > > > das bezog sich auf das beispiel, indem ich angelas weg
> > > > mutwillig dazu gebracht hab, dass die gleichung am ende
> > > > stimmt.
>  >  >  (Kannst du mal den Link posten, unter dem ich dieses
> > > Beispiel finde?)
>  >  
> > https://matheraum.de/read?t=681757
>  Das ist der Link des gesamten Threads, der hilft mir
> natürlich nicht weiter... Wenn du auf "Einzelner Artikel"
> klickst, kommst du auf den entsprechenden Artikel und
> kannst den entsprechenden Link posten.

https://matheraum.de/read?i=684634

die allgemeine rechnung dazu findet sich hier
https://matheraum.de/read?i=682314
in dem teil wo [mm] b_i [/mm] und koeffizienten [mm] c_i_,_j [/mm] vorkommen

aber man kann auch die andere richtung einschlagen (meins -> angelas)
vorher sei eben definiert [mm] x:=dim(span\{v_j, j\not=i\}) [/mm]

dann kann man die summe [mm] \summe_{j\not=i}^{}a_jv_j [/mm] umschreiben:
aus [mm] a_jv_j [/mm] mache ich (passend, dazu später mehr) [mm] a_j_,_1v_j [/mm] + [mm] a_j_,_2v_j [/mm] + ... + [mm] a_j_,_xv_j [/mm] (wobei dabei glaub ich [mm] v_j [/mm] wieder ein eigenvektor sein muss, also die normierung muss man wieder rückgängig machen da man sonst probleme mit dem nullvektor hat)
dann sortiere ich um:
[mm] \summe_{j\not=i}^{}\summe_{k=1}^{x}a_j_,_kv_j [/mm]

jetzt kommt das passend dazu: so, dass die innere summe x linear unabhängige vektoren ergibt, also eine basis des durch die eigenvektoren aufgespannten raumes.

also habe ich [mm] v_i [/mm] aus basisvektoren dargestellt
die andere richtung dürfte klar sein zu zeigen, was ich aber soweit ich mic herinner schon getan hab (siehe 2. link)

>  
> >  >  Wenn du einen Beweis führst, verbietet dir keiner,

> > > unterwegs Basen deiner Wahl zu benutzen. Wenn du aber
> > > Angelas Beweis untersuchen möchtest, kannst du doch nicht
> > > einfach irgendetwas anderes machen, als in ihrem Beweis
> > > steht! Du hast offensichtlich nicht Angelas Weg "dazu
> > > gebracht, dass die gleichung am ende stimmt", sondern einen
> > > anderen Weg eingeschlagen, der nicht zum Ziel führt.
> >
> > ich habe soweit ich mich erinner GENAU das getan, was man
> > laut angelas beweis tun soll. bis auf dass ich eine andere
> > basis gewählt habe
>  >  und damit kein widerspruch auftritt
>  Ja eben! "Bis auf..." So könnte man ziemlich jeden
> korrekten Beweis "widerlegen": Man tut GENAU das, was der
> Beweis sagt, BIS AUF eine Stelle, "damit der Beweis nicht
> mehr funktioniert".

naja.... ich tue eigentlich genau das was der beweis sagt (1. link), nur lasse ich mir nicht vorschreiben welche basis ich nehmen soll
in dem fall mache ich nur eine einschränkung rückgängig, die nötig is damit der beweis lückenlos funktioniert
das ist ungefähr so als wenn ich sagen würde wenn [mm] v_x, v_y [/mm] und [mm] v_z [/mm] linear abhängig sind lasse ich nur einen davon in meine summe zu. schon habe ich keine probleme mehr und mein beweis ist genau so lückenlos

an dieser stelle könnten wir also ebenfalls eine sehr ausführliche diskussion führen. quasi die die wir die ganze zeit schon führen


>  
>
> Fazit von c): Dein Beweisversuch aus dem Ausgangspost ist
> nicht gleichbedeutend mit Angelas Vorgehensweise (deine
> Argumentation, wie ich sie unter b) deinen Erläuterungen
> und Beispielen entnommen habe, übrigens erst recht nicht).
> Die Korrektheit von Angelas Weg konntest du nicht
> widerlegen.

liegt vielleicht daran dass er richtig ist. aber ich meine die gleichwertigkeit beider wege immernoch nicht widerlegt zu sehen, woraus folgen würde mein weg ist genau so richtig
und ob er das ist wissen wir immernoch nicht (jedenfalls scheint es zur zeit (nur) noch an der aussage (*) zu liegen :)
wir machen also fortschritte

>  
>
>
> Bis zum nächsten Mal! ;-)

dein zug ^^

(eventuelle fehler die ich jetzt nicht mehr gefunden habe bitte ich zu entschuldigen. hab hierdran jetzt stundenlang rumgetextet langsam lässt die konzentration nach. bei unklarheiten einfach nachfragen)

Bezug
                                                                                                                                                                                                        
Bezug
Lin.Unabhängigkeit v. EV: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 04:20 Mo 07.06.2010
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Eigenwerte"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de