Eigenvektoren zu doppelten EW < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Eigenwert: [mm] e_3 [/mm] = 1
[mm] Kern(A-e_3) [/mm] = [mm] Kern(\pmat{ 1 & 0 & -1 & -4 \\ -3 & 0 & 3 & 0 \\ 2 & 0 & -2 & -2 \\ 1 & 0 & -1 & -4 }) [/mm] |
Der [mm] e_3 [/mm] hat algeb. Vielfachheit 2. Nun suche ich die EV's dazu. Wenn ich das normal einsetze bekomme ich obere Matrix. Als erstes fällt mir die Nullspalte auf, ist das schon ein Zeichen das wir zwei EV's bekommen? Ist das immer so oder Zufall?
Wie muss ich jetzt umformen um zwei EV's rauszubekommen?
|
|
|
|
Du musst für die Eigenvektoren wie du ganz richtig festgestellt hast $ [mm] Kern(A-e_3) [/mm] $ berechnen.
Das ist ja nichts anderes als die Lösung des linearen Gleichungssystems:
$Ax = 0$
(zB mit Gauß-Algorithmus berechnen)
Zur Nullspalte:
Es ist leider nur Zufall, dass du da zwei Lösungen hast.
Es ist ja für eine $n [mm] \times [/mm] n$ Matrix A: Dim(Kern(A)) = n - Rang(A)
Deine Matrix [mm] $A-e_3$ [/mm] hat Rang 2 und somit 2 Eigenvektoren (bzw. besser: der Eigenraum hat Dimension 2).
Mit der Nullspalte weißt du nur, dass [mm] Rang$(A-e_3) \leq [/mm] 3$ ist und dass du überhaupt irgend einen Eigenvektor findest.^^
Also falls du was allgemeines für die Nullspalten haben willst:
Die Anzahl der (linear unabhängigen) Eigenvektoren ist immer größer oder gleich der Anzahl der Nullspalten. (also in deinem Fall größer gleich 1^^).
MfG
Schadow
PS: Natürlich gilt das nur für $n [mm] \times [/mm] n$ Matrizen.
Hat man irgendwelche nicht-quadratischen Matrizen muss man mit solchen Aussagen ein wenig vorsichtiger sein.
|
|
|
|
|
> Du musst für die Eigenvektoren wie du ganz richtig
> festgestellt hast [mm]Kern(A-e_3)[/mm] berechnen.
> Das ist ja nichts anderes als die Lösung des linearen
> Gleichungssystems:
> [mm]Ax = 0[/mm]
> (zB mit Gauß-Algorithmus berechnen)
Das ist schon klar, aber dann bekomme ich z.B. so eine Lösung.
[mm] \pmat{ 1 & 0 & 0 & 0 & | s \\ 0 & 1 & 0 & 0 & | w \\ 0 & 0 & 1 & 0 & | -t+s \\ 0 & 0 & 0 & 1 & | t }
[/mm]
und wo kann ich jetzt die EV's ablesen?
> Zur Nullspalte:
> Es ist leider nur Zufall, dass du da zwei Lösungen hast.
Natürlich gilt das nicht für jede beliebige Matrix. Ist es aber kein Zufall für eine Matrix die zu einem EW, EV's hat mir geom. Vielfachheit > 1.
> Es ist ja für eine [mm]n \times n[/mm] Matrix A: Dim(Kern(A)) = n
> - Rang(A)
> Deine Matrix [mm]A-e_3[/mm] hat Rang 2 und somit 2 Eigenvektoren
Beantwortet das meine Frage oben?
> (bzw. besser: der Eigenraum hat Dimension 2).
> Mit der Nullspalte weißt du nur, dass Rang[mm](A-e_3) \leq 3[/mm]
> ist und dass du überhaupt irgend einen Eigenvektor
> findest.^^
>
> Also falls du was allgemeines für die Nullspalten haben
> willst:
> Die Anzahl der (linear unabhängigen) Eigenvektoren ist
> immer größer oder gleich der Anzahl der Nullspalten.
> (also in deinem Fall größer gleich 1^^).
??? Das kann ja nicht hab schon EV's berechnet ohne eine Nullspalte!
|
|
|
|
|
> > Du musst für die Eigenvektoren wie du ganz richtig
> > festgestellt hast [mm]Kern(A-e_3)[/mm] berechnen.
> > Das ist ja nichts anderes als die Lösung des linearen
> > Gleichungssystems:
> > [mm]Ax = 0[/mm]
> > (zB mit Gauß-Algorithmus berechnen)
>
> Das ist schon klar, aber dann bekomme ich z.B. so eine
> Lösung.
>
> [mm]\pmat{ 1 & 0 & 0 & 0 & | s \\ 0 & 1 & 0 & 0 & | w \\ 0 & 0 & 1 & 0 & | -t+s \\ 0 & 0 & 0 & 1 & | t }[/mm]
>
> und wo kann ich jetzt die EV's ablesen?
Also zu aller erst mal müsstest du verraten in welcher Spalte in der Matrix deine w,s und t stehen.^^
Ich deute das einfach mal so, dass du da praktisch stehen hast:
s = s
w = w
t = t
v = -t+s
Daran sieht man, dass man 3 der Variablen beliebig wählen kann, die vierte (das v) ergibt sich daraus.
Das heißt die Menge deiner Eigenvektoren ist:
$EV = [mm] \{ \vektor{s \\ w \\ -t+s\\ t} | s,w,t \in \IR \}$
[/mm]
Du hast da also erstmal verdammt viele Eigenvektoren.
Nun möchtest du ja alle linear unabhängigen haben.
Hierfür setzt man klassischerweise alles was man frei wählen kann nach und nach auf 1 (den Rest auf 0).
Das heißt also:
$EV = < [mm] \vektor{1 \\ 0 \\ 1 \\ 0},\vektor{0 \\ 1 \\ 0 \\ 0},\vektor{0 \\ 0 \\ -1 \\ 1} [/mm] >$
(beim ersten s auf 1 gesetzt, Rest auf 0, beim 2. w auf 1, beim 3. t auf 1)
Damit hast du also drei linear unabhängige Eigenvektoren, was ein Problem ist da du ja zwei haben möchtest.^^
Heißt du hast dich wahrscheinlich irgendwo verrechnet, aber nichts desto trotz ist dies das System wie man sie findet.
> > Zur Nullspalte:
> > Es ist leider nur Zufall, dass du da zwei Lösungen
> hast.
> Natürlich gilt das nicht für jede beliebige Matrix. Ist
> es aber kein Zufall für eine Matrix die zu einem EW, EV's
> hat mir geom. Vielfachheit > 1.
Du behauptest also: Wenn ein Eigenwert geom. Vielfachheit > 1 hat so hat die entsprechende Matrix ($A - [mm] e_1$ [/mm] in deinem Fall) mindestens eine Nullspalte?
Als Gegenbeispiel würde ich dir anbieten:
$B = [mm] \pmat{1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1}$
[/mm]
Diese hat als Eigenwert die 0 mit geom. Vielfachheit 2, aber dennoch kriegst du keine Nullspalte wenn du die $B - 0$ betrachtest...
Oder meinst du noch was anderes?
> > Es ist ja für eine [mm]n \times n[/mm] Matrix A: Dim(Kern(A)) = n
> > - Rang(A)
> > Deine Matrix [mm]A-e_3[/mm] hat Rang 2 und somit 2
> Eigenvektoren
>
> Beantwortet das meine Frage oben?
Kommt immer drauf an wie sie zu verstehen war.^^
> > Also falls du was allgemeines für die Nullspalten haben
> > willst:
> > Die Anzahl der (linear unabhängigen) Eigenvektoren ist
> > immer größer oder gleich der Anzahl der Nullspalten.
> > (also in deinem Fall größer gleich 1^^).
>
> ??? Das kann ja nicht hab schon EV's berechnet ohne eine
> Nullspalte!
beachte, da steht "größer gleich".
Also wenn du keine Nullspalte hast ist die Anzahl der Eigenvektoren einfach [mm] $\geq [/mm] 0$ ;)
|
|
|
|
|
> > > Du musst für die Eigenvektoren wie du ganz richtig
> > > festgestellt hast [mm]Kern(A-e_3)[/mm] berechnen.
> > > Das ist ja nichts anderes als die Lösung des
> linearen
> > > Gleichungssystems:
> > > [mm]Ax = 0[/mm]
> > > (zB mit Gauß-Algorithmus berechnen)
> >
> > Das ist schon klar, aber dann bekomme ich z.B. so eine
> > Lösung.
> >
> > [mm]\pmat{ 1 & 0 & 0 & 0 & | s \\ 0 & 1 & 0 & 0 & | w \\ 0 & 0 & 1 & 0 & | -t+s \\ 0 & 0 & 0 & 1 & | t }[/mm]
>
> >
> > und wo kann ich jetzt die EV's ablesen?
>
> Also zu aller erst mal müsstest du verraten in welcher
> Spalte in der Matrix deine w,s und t stehen.^^
> Ich deute das einfach mal so, dass du da praktisch stehen
> hast:
> s = s
> w = w
> t = t
> v = -t+s
>
> Daran sieht man, dass man 3 der Variablen beliebig wählen
> kann, die vierte (das v) ergibt sich daraus.
> Das heißt die Menge deiner Eigenvektoren ist:
> [mm]EV = \{ \vektor{s \\ w \\ -t+s\\ t} | s,w,t \in \IR \}[/mm]
>
> Du hast da also erstmal verdammt viele Eigenvektoren.
> Nun möchtest du ja alle linear unabhängigen haben.
> Hierfür setzt man klassischerweise alles was man frei
> wählen kann nach und nach auf 1 (den Rest auf 0).
> Das heißt also:
> [mm]EV = < \vektor{1 \\ 0 \\ 1 \\ 0},\vektor{0 \\ 1 \\ 0 \\ 0},\vektor{0 \\ 0 \\ -1 \\ 1} >[/mm]
>
> (beim ersten s auf 1 gesetzt, Rest auf 0, beim 2. w auf 1,
> beim 3. t auf 1)
>
Das dachte ich auch aber es müssten nur 2 sein? Irgendwas ist da falsch, weiss aber nicht wo das Problem liegt.
|
|
|
|
|
Deine Matrix hat ja drei verschiedene Eigenwerte (1, -2 und -1).
Die Summe der Dimensionen der Eigenräume muss kleiner oder gleich der Dimension des Ursprungsraumes sein.
Weiterhin ist die Dimension eines Eigenraums immer mindestens 1.
Das heißt der Eigenraum von -2 hat mindestens einen EV, der von -1 mindestens einen, dann bleiben für 1 höchstens zwei Stück übrig (denn du kannst ja nicht in einem 4-dimensionalen Raum 5 linear unabhängige Vektoren haben^^).
Ich nehme an du hast dich beim Gauß-Algorithmus irgendwo verrechnet...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:57 Sa 16.07.2011 | Autor: | DrNetwork |
> Deine Matrix hat ja drei verschiedene Eigenwerte (1, -2 und
> -1).
Stimmt! Also ein Fehler beim Abschreiben oder vorher können wir aussschliessen.
|
|
|
|
|
> > > > Du musst für die Eigenvektoren wie du ganz richtig
> > > > festgestellt hast [mm]Kern(A-e_3)[/mm] berechnen.
> > > > Das ist ja nichts anderes als die Lösung des
> > linearen
> > > > Gleichungssystems:
> > > > [mm]Ax = 0[/mm]
> > > > (zB mit Gauß-Algorithmus
> berechnen)
> > >
> > > Das ist schon klar, aber dann bekomme ich z.B. so eine
> > > Lösung.
> > >
> > > [mm]\pmat{ 1 & 0 & 0 & 0 & | s \\
0 & 1 & 0 & 0 & | w \\
0 & 0 & 1 & 0 & | -t+s \\
0 & 0 & 0 & 1 & | t }[/mm]
Hallo,
das Problem scheint zu sein, daß Du nicht weißt, wie man den Kern einer Matrix berechnet.
Gesucht ist also $ [mm] Kern(\pmat{ 1 & 0 & -1 & -4 \\ -3 & 0 & 3 & 0 \\ 2 & 0 & -2 & -2 \\ 1 & 0 & -1 & -4 }) [/mm] $,
also die Lösung von
[mm] \pmat{ 1 & 0 & -1 & -4 \\ -3 & 0 & 3 & 0 \\ 2 & 0 & -2 & -2 \\ 1 & 0 & -1 & -4 }*\vektor{x_1\\x_2\\x_3\\x_4 }=\vektor{0\\0\\0\\0}.
[/mm]
Bring dafür die Matrix [mm] \pmat{ 1 & 0 & -1 & -4 \\ -3 & 0 & 3 & 0 \\ 2 & 0 & -2 & -2 \\ 1 & 0 & -1 & -4 } [/mm] zunächst in Zeilenstufenform.
Mal angenommen, Du hast in der ZSF die führenden Elemente der Nichtnullzeilen in Spalte 1 und 3.
Dann kannst Du die 2. und 4. Variable frei wählen und kommst so schließlich zur Basis des Kerns.
(Oder Du arbeitest mit dem "-1-Trick".)
Wenn's immer noch Probleme gibt, poste Deine Rechnungen mit.
Was man nicht sieht, kann man schlecht korrigieren.
Gruß v. Angela
>
> >
> > >
> > > und wo kann ich jetzt die EV's ablesen?
> >
> > Also zu aller erst mal müsstest du verraten in welcher
> > Spalte in der Matrix deine w,s und t stehen.^^
> > Ich deute das einfach mal so, dass du da praktisch
> stehen
> > hast:
> > s = s
> > w = w
> > t = t
> > v = -t+s
> >
> > Daran sieht man, dass man 3 der Variablen beliebig wählen
> > kann, die vierte (das v) ergibt sich daraus.
> > Das heißt die Menge deiner Eigenvektoren ist:
> > [mm]EV = \{ \vektor{s \\
w \\
-t+s\\
t} | s,w,t \in \IR \}[/mm]
>
> >
> > Du hast da also erstmal verdammt viele Eigenvektoren.
> > Nun möchtest du ja alle linear unabhängigen haben.
> > Hierfür setzt man klassischerweise alles was man frei
> > wählen kann nach und nach auf 1 (den Rest auf 0).
> > Das heißt also:
> > [mm]EV = < \vektor{1 \\
0 \\
1 \\
0},\vektor{0 \\
1 \\
0 \\
0},\vektor{0 \\
0 \\
-1 \\
1} >[/mm]
>
> >
> > (beim ersten s auf 1 gesetzt, Rest auf 0, beim 2. w auf 1,
> > beim 3. t auf 1)
> >
>
>
> Das dachte ich auch aber es müssten nur 2 sein? Irgendwas
> ist da falsch, weiss aber nicht wo das Problem liegt.
|
|
|
|
|
[mm]\pmat{ 1 & 0 & 0 & 0 & | s \\ 0 & 1 & 0 & 0 & | w \\ 0 & 0 & 1 & 0 & | -t+s \\ 0 & 0 & 0 & 1 & | t }[/mm]
Okey dann versuch ich's mal:
[mm] \pmat{ 1 & 0 & -1 & -4 & | 0 \\ -3 & 0 & 3 & 0 & | 0 \\ 2 & 0 & -2 & -2 & | 0 \\ 1 & 0 & -1 & -4 & | 0 }
[/mm]
[mm] \pmat{ 1 & 0 & -1 & -4 & | 0 \\ 1 & 0 & -1 & 0 & | 0 \\ 1 & 0 & -1 & 0 & | t \\ 0 & 0 & 0 & 1 & | t }
[/mm]
[mm] \pmat{ 0 & 0 & 0 & 0 & | 0 \\ 0 & 0 & 0 & 0 & | 0 \\ -1 & 0 & 1 & 0 & | -t \\ 0 & 0 & 0 & 1 & | t }
[/mm]
Ohne die "Interpretation" mit s und w.
Weiter:
[mm] \pmat{ 1 & 0 & 0 & 0 & | s \\ 0 & 1 & 0 & 0 & | w \\ -1 & 0 & 1 & 0 & | -t \\ 0 & 0 & 0 & 1 & | t }
[/mm]
[mm] \pmat{ 1 & 0 & 0 & 0 & | s \\ 0 & 1 & 0 & 0 & | w \\ 0 & 0 & 1 & 0 & | -t+s \\ 0 & 0 & 0 & 1 & | t }
[/mm]
Was mach ich falsch?
|
|
|
|
|
> [mm]\pmat{ 1 & 0 & 0 & 0 & | s \\
0 & 1 & 0 & 0 & | w \\
0 & 0 & 1 & 0 & | -t+s \\
0 & 0 & 0 & 1 & | t }[/mm]
>
> Okey dann versuch ich's mal:
>
> [mm]\pmat{ 1 & 0 & -1 & -4 & | 0 \\
-3 & 0 & 3 & 0 & | 0 \\
2 & 0 & -2 & -2 & | 0 \\
1 & 0 & -1 & -4 & | 0 }[/mm]
>
> [mm]\pmat{ 1 & 0 & -1 & -4 & | 0 \\
1 & 0 & -1 & 0 & | 0 \\
1 & 0 & -1 & 0 & | \red{t} \\
0 & 0 & 0 & 1 & | \red{t} }[/mm]
Hallo,
wo kommen denn nun wie von Zauberhand die beknackten t wieder her?
Die haben dort nichts zu suchen!
> [mm]\pmat{ 0 & 0 & 0 & 0 & | 0 \\
0 & 0 & 0 & 0 & | 0 \\
-1 & 0 & 1 & 0 & | -t \\
0 & 0 & 0 & 1 & | t }[/mm]
>
Eine ZSF wäre
[mm]\pmat{1 & 0 & -1 & 0 & | 0 \\
0 & 0 & 0 & 1 & | 0 \\
0 & 0 & 0 & 0 & | 0 \\
0 & 0 & 0 & 0 & | 0 }[/mm]
Nun weiter nach meiner Gebrauchsanweisung.
Führende Zeilenelemente sind in Spalte 1 und 4.
Wir können die 2. und 3. variable frei wählen,
mit [mm] x_2:=s
[/mm]
[mm] x_3:=t
[/mm]
erhalten wir
[mm] x_1=x_3=t
[/mm]
[mm] x_4=0.
[/mm]
Also haben die Lösungen [mm] \vektor{x_1\\x_2\\x_3\\x_4} [/mm] die Gestalt
[mm] \vektor{x_1\\x-2\\x_3\\x_4}=\vektor{t\\s\\t\\0}=t*\vektor{1\\0\\1\\0}+ *\vektor{0\\1\\0\\0},
[/mm]
womit dann auch die Basis des Lösungsraumes klar sein dürfte.
Gruß v. Angela
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:24 Sa 16.07.2011 | Autor: | DrNetwork |
Okey danke. Ich hab einfach den Parameter zu früh eingesetzt bzw. dumm an die falsche Stelle gesetzt. :)
|
|
|
|
|
Wir schreiben immer Spitzeklammern <> wenn wir das Erzeugnis meinen.
Hab ich Recht wenn ich sag. Die EV [mm] e_1...e_i [/mm] zu einem EW [mm] \lambda [/mm] spannen den Eigenraum auf. Also gilt
Eig(A, [mm] \lambda) [/mm] = [mm]
[/mm]
2. Die algebraische Vielfachheit ist die Anzahl der Nullstellen im char. Polynom
und die geometrische die Anzahl der lin. unabhägigen EV's über alle EW's (oder nur dem zugehörigen EW)
Denke, nur dem dazugehörigem, so versteh ich den Wikipedia Artikel.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:38 Sa 16.07.2011 | Autor: | fred97 |
> Wir schreiben immer Spitzeklammern <> wenn wir das
> Erzeugnis meinen.
>
> Hab ich Recht wenn ich sag. Die EV [mm]e_1...e_i[/mm] zu einem EW
> [mm]\lambda[/mm] spannen den Eigenraum auf. Also gilt
>
> Eig(A, [mm]\lambda)[/mm] = [mm][/mm]
>
> 2. Die algebraische Vielfachheit ist die Anzahl der
> Nullstellen im char. Polynom
Das ist Quatsch.
Sei [mm] \lambda [/mm] ein Eigenwert von A.
algebraische Vielfachheit von [mm] \lambda [/mm] = Vielfachheit der Nullstelle [mm] \lambda [/mm] des char. Polynoms.
> und die geometrische die Anzahl der lin. unabhägigen
> EV's über alle EW's (oder nur dem zugehörigen EW)
>
> Denke, nur dem dazugehörigem, so versteh ich den Wikipedia
> Artikel.
geometrische Vielfachheit von [mm] \lambda= [/mm] dim Eig(A, [mm]\lambda)[/mm]
FRED
|
|
|
|
|
> > Wir schreiben immer Spitzeklammern <> wenn wir das
> > Erzeugnis meinen.
> >
> > Hab ich Recht wenn ich sag. Die EV [mm]e_1...e_i[/mm] zu einem EW
> > [mm]\lambda[/mm] spannen den Eigenraum auf. Also gilt
> >
> > Eig(A, [mm]\lambda)[/mm] = [mm][/mm]
> >
> > 2. Die algebraische Vielfachheit ist die Anzahl der
> > Nullstellen im char. Polynom
>
> Das ist Quatsch.
Ne nur nicht exakt ausgedrückt. Okey was war mit der (wichtigern) Frage oben?
|
|
|
|
|
> > > Hab ich Recht wenn ich sag. Die EV [mm]e_1...e_i[/mm] zu einem EW
> > > [mm]\lambda[/mm] spannen den Eigenraum auf. Also gilt
> > >
> > > Eig(A, [mm]\lambda)[/mm] = [mm][/mm]
Hallo,
wenn Du ausgerechnet hast, daß [mm] e_1,...,e_i [/mm] eine Basis des Eigenraumes zum Eigenwert [mm] \lambda [/mm] ist, dann ist in der Tat
> > > Eig(A, [mm] $\lambda)$ [/mm] = [mm] $$.
[/mm]
> > >
> > > 2. Die algebraische Vielfachheit ist die Anzahl der
> > > Nullstellen im char. Polynom
> >
> > Das ist Quatsch.
> Ne nur nicht exakt ausgedrückt.
Nein. Es war großer Quatsch, hervorgerufen dadurch, daß Du etwas völlig anderes geschrieben hast, als das, was Du hoffentlich meintest.
Gruß v. Angela
|
|
|
|
|
>
> > > > Hab ich Recht wenn ich sag. Die EV [mm]e_1...e_i[/mm] zu einem EW
> > > > [mm]\lambda[/mm] spannen den Eigenraum auf. Also gilt
> > > >
> > > > Eig(A, [mm]\lambda)[/mm] = [mm][/mm]
>
> Hallo,
>
> wenn Du ausgerechnet hast, daß [mm]e_1,...,e_i[/mm] eine Basis des
> Eigenraumes zum Eigenwert [mm]\lambda[/mm] ist, dann ist in der Tat
Hmm, was meinst du damit. Reicht das nicht wenn die EV's lin. unabhängig sind?
|
|
|
|
|
> >
> > > > > Hab ich Recht wenn ich sag. Die EV [mm]e_1...e_i[/mm] zu einem EW
> > > > > [mm]\lambda[/mm] spannen den Eigenraum auf. Also gilt
> > > > >
> > > > > Eig(A, [mm]\lambda)[/mm] = [mm][/mm]
> >
> > Hallo,
> >
> > wenn Du ausgerechnet hast, daß [mm]e_1,...,e_i[/mm] eine Basis des
> > Eigenraumes zum Eigenwert [mm]\lambda[/mm] ist, dann ist in der Tat
>
>
> Hmm, was meinst du damit. Reicht das nicht wenn die EV's
> lin. unabhängig sind?
Hallo,
nein. Du könntest ja die Hälfte, die zu einer Basis fehlt, vergessen haben zu notieren...
Ich bin mir ziemlich sicher, daß Du das richtige meinst.
Die obige Formulierung
> > > Die EV [mm] $e_1...e_i$ [/mm] zu einem EW [mm] $\lambda$ [/mm] spannen den Eigenraum auf
ist aber ziemlich kraus:
was ist mit die EVe gemeint? "Die Eigenvektoren", klar.
Bloß: normalerweise gibt es unendlich viele...
Und da greiftst Du nun irgendwelche i Stück heraus?
Das funktioniert so nicht.
Aaaaber wenn Du fein brav und richtig wie zuvor eine Basis des Eigenraumes berechnet hast, dann erzeugen diese errechneten Basisvektoren den Eigenraum.
Gruß v. Angela
|
|
|
|
|
Hallo Angela,
also jetzt muss ich mich am Hinterkopf kratzen. Das hat mich jetzt immer doller verunsichert. Okey, es gibt unendlich viele EV's aber ICH definier jetzt ein MEV ein MEV ist das was ich rausbekomm z.B. oben hatten wir nur zwei MEV's
[mm] mev_1 [/mm] = [mm] \vektor{1 \\ 0 \\ 1 \\ 0} [/mm] und [mm] mev_2 [/mm] = [mm] \vektor{0 \\ 1 \\ 0 \\ 0}
[/mm]
Wenn ich jetzt einfach hinschreibe [mm] [/mm] ist das dann in jedem Fall eine Basis des Eigenraums?
So nochmal nachgeschaut:
[mm] Eig(\varphi,\lambda) [/mm] := {v [mm] \in [/mm] V; [mm] \varphi(v)=\lambda [/mm] v}
Das bedeutet [mm] [/mm] spannt den ganzen Eigenraum auf, oder nicht? Ich versteh das "die Hälfte vergessen zu notieren" nicht.
|
|
|
|
|
Hallo DrNetwork,
> Hallo Angela,
>
> also jetzt muss ich mich am Hinterkopf kratzen. Das hat
> mich jetzt immer doller verunsichert. Okey, es gibt
> unendlich viele EV's aber ICH definier jetzt ein MEV ein
> MEV ist das was ich rausbekomm z.B. oben hatten wir nur
> zwei MEV's
>
> [mm]mev_1[/mm] = [mm]\vektor{1 \\
0 \\
1 \\
0}[/mm] und [mm]mev_2[/mm] = [mm]\vektor{0 \\
1 \\
0 \\
0}[/mm]
>
> Wenn ich jetzt einfach hinschreibe [mm][/mm] ist das
> dann in jedem Fall eine Basis des Eigenraums?
Nein, das ist schon der zum Eigenwert [mm] $e_3$ [/mm] gehörige Eigenraum als Spann zweier Basisvektoren.
Eine Basis des Eigenraumes zum Eigenwert [mm] $e_3=1$ [/mm] ist also [mm] $\mathcal{B}=\{mev_1, mev_2\}$
[/mm]
>
>
> So nochmal nachgeschaut:
>
> [mm]Eig(\varphi,\lambda)[/mm]Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
:= {v [mm]\in[/mm] V; [mm]\varphi(v)=\lambda[/mm]Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
v}
>
> Das bedeutet [mm][/mm] spannt den ganzen Eigenraum
> auf, oder nicht?
Ganz genau!
> Ich versteh das "die Hälfte vergessen zu
> notieren" nicht.
Gruß
schachuzipus
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 02:35 So 17.07.2011 | Autor: | DrNetwork |
> > Das bedeutet [mm][/mm] spannt den ganzen Eigenraum
> > auf, oder nicht?
>
> Ganz genau!
>
SUPER! Danke an alle :)
|
|
|
|
|
Wenn man mit EV's, EW's rechnet sind das dann immer Endomorphismen? Wir kennen die Jordansche Normalform nicht (wo ich vermute das es vllt etwas allgemeiner wird). Also bis zu dem Thema immer Endomrophismen?
|
|
|
|
|
> Wenn man mit EV's, EW's rechnet sind das dann immer
> Endomorphismen? Wir kennen die Jordansche Normalform nicht
> (wo ich vermute das es vllt etwas allgemeiner wird). Also
> bis zu dem Thema immer Endomrophismen?
Hallo,
ja, und danach auch.
Gruß v. Angela
|
|
|
|