Limes einer Matrix < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Man berechne für
[mm] $\begin{pmatrix}
5/2 & 0 & 1 \\
1 & 1/2 & 1/2 \\
-3 & 0 & -1 \\
\end{pmatrix} \in \IR^{3x3}$
[/mm]
den Limes [mm] $lim_{k \rightarrow \infty } A^k$.
[/mm]
(Tipp: Ist A diagonalisierbar?) |
Hallo,
ich möchte die oben gestellte Berechnung durchführen.
Ich weiß allerdings noch nicht genau, wie man das macht.
Ich habe einmal den Tipp befolgt und überprüft, was es mit der Diagonalisierbarkeit zu tun hat.
Dabei habe ich herausgefunden, dass z.B. die Eigenvektoren unabhängig sein müssen.
Dabei sind die Eigenwerte recht hilfreich - Die wollte ich einmal berechnen und habe dazu die Determinante der Matrix bestimmt.
Dabei erhielt ich interessanterweise:
[mm] $det(A)=-\alpha^3 [/mm] + [mm] 2\alpha^2 [/mm] - [mm] \bruch{5\alpha}{4} [/mm] + [mm] \bruch{1}{4}
[/mm]
Jetzt ist meine Frage: Sollte mich der Tipp hier hin führen? D.h. kann ich die Determinante als Funktion hernehmen, die Grenzwertbetrachtung durchführen und den Grenzwert der Determinante mit dem Limes der Matrix gleichsetzen?
Dann würde sich ergeben: [mm] $lim_{k \rightarrow \infty } A^k [/mm] = - [mm] \infty$
[/mm]
Ich befürchte aber fast, dass das Humbug ist...
Könnt ihr mich bitte auf den richtigen Weg führen? :)
Grüße
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
> Man berechne für
> [mm]$\begin{pmatrix}
5/2 & 0 & 1 \\
1 & 1/2 & 1/2 \\
-3 & 0 & -1 \\
\end{pmatrix} \in \IR^{3x3}$[/mm]
>
> den Limes [mm]lim_{k \rightarrow \infty } A^k[/mm].
> (Tipp: Ist A
> diagonalisierbar?)
> Hallo,
> ich möchte die oben gestellte Berechnung durchführen.
>
> Ich weiß allerdings noch nicht genau, wie man das macht.
>
> Ich habe einmal den Tipp befolgt und überprüft, was es
> mit der Diagonalisierbarkeit zu tun hat.
> Dabei habe ich herausgefunden, dass z.B. die Eigenvektoren
> unabhängig sein müssen.
> Dabei sind die Eigenwerte recht hilfreich - Die wollte ich
> einmal berechnen und habe dazu die Determinante der Matrix
> bestimmt.
Nicht die Determinante, sondern das charakteristische Polynom.
>
> Dabei erhielt ich interessanterweise:
>
> [mm]$det(A)=-\alpha^3[/mm] + [mm]2\alpha^2[/mm] - [mm]\bruch{5\alpha}{4}[/mm] +
> [mm]\bruch{1}{4}[/mm]
>
Du brauchst die Eigenwerte, das sind die Nullstellen von dem Ding. Dann bestimmst du zu den Eigenwerten drei linear unabhängige Eigenvektoren und schreibst sie nebeneinander in eine Matrix B. Diese invertierst du und $ D= [mm] B^{-1} [/mm] A B $ ist dann in Diagonalgestalt und hat gerade die Eigenwerte als Einträge. Dann gilt ferner $ A = B D [mm] B^{-1} [/mm] $ und beim Potenzieren kürzen sich die inneren $ B $ und $ [mm] B^{-1} [/mm] $ gerade weg, sodass $ [mm] A^{k} [/mm] = B [mm] D^{k} B^{-1} [/mm] $ und dann brauchst du nur noch, dass Diagonalmatrizen sehr leicht zu potenzieren sind, nämlich indem man einfach ihre Diagonaleinträge potenziert.
> Jetzt ist meine Frage: Sollte mich der Tipp hier hin
> führen? D.h. kann ich die Determinante als Funktion
> hernehmen, die Grenzwertbetrachtung durchführen und den
> Grenzwert der Determinante mit dem Limes der Matrix
> gleichsetzen?
>
> Dann würde sich ergeben: [mm]lim_{k \rightarrow \infty } A^k = - \infty[/mm]
>
> Ich befürchte aber fast, dass das Humbug ist...
> Könnt ihr mich bitte auf den richtigen Weg führen? :)
>
> Grüße
>
> Ich habe diese Frage in keinem Forum auf anderen
> Internetseiten gestellt.
>
|
|
|
|
|
Danke für deine Antwort!
Also einmal nacheinander:
> Du brauchst die Eigenwerte, das sind die Nullstellen von
> dem Ding.
Gut, die habe ich nun berechnet, das ging per Polynomdivision und PQ-Formel, ich erhalte:
[mm] $\alpha_1=1, \alpha_2=1/2, \alpha_3=1/2$ [/mm] (P.S.: Kann man hier eig, kein Lamda schreiben?)
> Dann bestimmst du zu den Eigenwerten drei linear
> unabhängige Eigenvektoren und schreibst sie nebeneinander
> in eine Matrix B.
Ich habe mit dieser Methode zu [mm] $\alpha_1$ [/mm] den Eigenvektor: $(1, 1/2, [mm] -3/2)^T$ [/mm] und zu [mm] $\alpha_2$ [/mm] den Eigenvektor: $(0, 1, [mm] 0)^T$ [/mm] erhalten.
(Er hat den Link nicht richtig gesetzt...: http://www.youtube.com/watch?v=Kpp30lbPqRU )
Um für [mm] $\alpha_3$ [/mm] einen Eigenvektor zu finden, habe ich von den beiden ersten Eigenvektoren erneut das Kreuzprodukt gebildet und somit einen 3. linear unabhängigen Eigenvektor gefunden: [mm] $(-3,0,2)^T$
[/mm]
Damit erhalte ich die Matrix:
B= [mm] \begin{pmatrix}
1 & 0 & -3 \\
1/2 & 1 & 0 \\
-3/2 & 0 & 2 \\
\end{pmatrix}
[/mm]
> Diese invertierst du und [mm]D= B^{-1} A B[/mm]
> ist dann in Diagonalgestalt und hat gerade die Eigenwerte
> als Einträge.
[mm] $\Rightarrow [/mm] $ Hier habe ich jetzt erste Probleme:
Ich sehe nicht, dass D gerade die Eigenwerte als Einträge hat?
(Er hat den Link nicht richtig gesetzt...: http://www.wolframalpha.com/input/?i={%281%2C0%2C-3%29%2C%281%2F2%2C1%2C0%29%2C%283%2F2%2C0%2C2%29}*{%285%2F2%2C0%2C1%29%2C%281%2C1%2F2%2C1%2F2%29%2C%28-3%2C0%2C-1%29}*{%28-4%2F5%2C0%2C-6%2F5%29%2C%282%2F5%2C1%2C3%2F5%29%2C%28-3%2F5%2C0%2C-2%2F3%29} )
> Dann gilt ferner [mm]A = B D B^{-1}[/mm] und beim
> Potenzieren kürzen sich die inneren [mm]B[/mm] und [mm]B^{-1}[/mm] gerade
> weg, sodass [mm]A^{k} = B D^{k} B^{-1}[/mm] und dann brauchst du nur
> noch, dass Diagonalmatrizen sehr leicht zu potenzieren
> sind, nämlich indem man einfach ihre Diagonaleinträge
> potenziert.
Grüße
|
|
|
|
|
> Danke für deine Antwort!
> Also einmal nacheinander:
>
> > Du brauchst die Eigenwerte, das sind die Nullstellen von
> > dem Ding.
>
> Gut, die habe ich nun berechnet, das ging per
> Polynomdivision und PQ-Formel, ich erhalte:
> [mm]\alpha_1=1, \alpha_2=1/2, \alpha_3=1/2[/mm] (P.S.: Kann man
> hier eig, kein Lamda schreiben?)
>
Doch doch, nur heißt das Dinge Lambda: [mm] \lambda
[/mm]
Und erstmal: Dein [mm] \alpha_{2} [/mm]
> > Dann bestimmst du zu den Eigenwerten drei linear
> > unabhängige Eigenvektoren und schreibst sie nebeneinander
> > in eine Matrix B.
>
> Ich habe mit dieser Methode
> zu [mm]\alpha_1[/mm] den Eigenvektor: [mm](1, 1/2, -3/2)^T[/mm] und zu
> [mm]\alpha_2[/mm] den Eigenvektor: [mm](0, 1, 0)^T[/mm] erhalten.
> (Er hat den Link nicht richtig gesetzt...:
> http://www.youtube.com/watch?v=Kpp30lbPqRU )
>
> Um für [mm]\alpha_3[/mm] einen Eigenvektor zu finden, habe ich von
> den beiden ersten Eigenvektoren erneut das Kreuzprodukt
> gebildet und somit einen 3. linear unabhängigen
> Eigenvektor gefunden: [mm](-3,0,2)^T[/mm]
>
Wieso sollte das Kreuzprodukt von zwei verschiedenen Eigenvektoren wieder ein Eigenvektor sein? Wie kommst du darauf? Das ist Unsinn.
> Damit erhalte ich die Matrix:
>
> B= [mm] \begin{pmatrix}
1 & 0 & -3 \\
1/2 & 1 & 0 \\
-3/2 & 0 & 2 \\
\end{pmatrix}[/mm]
>
>
>
> > Diese invertierst du und [mm]D= B^{-1} A B[/mm]
> > ist dann in Diagonalgestalt und hat gerade die Eigenwerte
> > als Einträge.
>
> [mm]\Rightarrow[/mm] Hier habe ich jetzt erste Probleme:
> Ich sehe nicht, dass
> D gerade die Eigenwerte
> als Einträge hat?
> (Er hat den Link nicht richtig gesetzt...:
> http://www.wolframalpha.com/input/?i={%281%2C0%2C-3%29%2C%281%2F2%2C1%2C0%29%2C%283%2F2%2C0%2C2%29}*{%285%2F2%2C0%2C1%29%2C%281%2C1%2F2%2C1%2F2%29%2C%28-3%2C0%2C-1%29}*{%28-4%2F5%2C0%2C-6%2F5%29%2C%282%2F5%2C1%2C3%2F5%29%2C%28-3%2F5%2C0%2C-2%2F3%29}
> )
>
Kein Wunder, wenn man als dritten Vektor auch keinen Eigenvektor hat. Über den Eigenwert [mm] \frac{1}{2} [/mm] lassen sich zwei verschiedene Eigenvektoren bestimmen. Ich hab mir das Video jetzt nicht genau angesehen, aber im Allgemeinen überführt man einfach $ [mm] A-\lambda \I1 [/mm] $ in reduzierte Zeilenstufenform und guckt sich an, was sich da für Bedingungen ergeben, in diesem Fall ist das gerade $ z=-2x $, y ist vollkommen beliebig! Setze einmal für y=0 und einmal irgendwas anderes. Oder halt x und z gleich 0 und y nicht, wie du es schon gemacht hast.
> > Dann gilt ferner [mm]A = B D B^{-1}[/mm] und beim
> > Potenzieren kürzen sich die inneren [mm]B[/mm] und [mm]B^{-1}[/mm] gerade
> > weg, sodass [mm]A^{k} = B D^{k} B^{-1}[/mm] und dann brauchst du nur
> > noch, dass Diagonalmatrizen sehr leicht zu potenzieren
> > sind, nämlich indem man einfach ihre Diagonaleinträge
> > potenziert.
>
> Grüße
>
|
|
|
|
|
Danke für deine Antwort!
> > (P.S.: Kann man hier eig, kein Lamda schreiben?)
> Doch doch, nur heißt das Dinge Lambda: [mm]\lambda[/mm]
Oh wie peinlich. Ich lasse es für dieses Thema aber mal auf Alpha.
> Wieso sollte das Kreuzprodukt von zwei verschiedenen
> Eigenvektoren wieder ein Eigenvektor sein? Wie kommst du
> darauf? Das ist Unsinn.
Ah, das war ein kleiner Denkfehler. Ich habe einfach einen linearunabhängigen 3. Vektor gesucht. (Der ist dann aber natürlich i.A. kein Eigenvektor.)
> Kein Wunder, wenn man als dritten Vektor auch keinen
> Eigenvektor hat. Über den Eigenwert [mm]\frac{1}{2}[/mm] lassen
> sich zwei verschiedene Eigenvektoren bestimmen. Ich hab mir
> das Video jetzt nicht genau angesehen, aber im Allgemeinen
> überführt man einfach [mm]A-\lambda \I1[/mm] in reduzierte
> Zeilenstufenform
Der Herr Jörn Loviscach nimmt einfach das Kreuzprodukt der ersten und zweiten Zeile von [mm]A-\lambda \I1[/mm]
und erhält dann einen Vektor v, welcher senkrecht auf den beiden steht (und im Allgemeinen damit auch auf
den Vektor der dritte Zeile), sodass die Gleichung [mm](A-\lambda \I1)*v=0[/mm] erfüllt ist.
> und guckt sich an, was sich da für
> Bedingungen ergeben, in diesem Fall ist das gerade [mm]z=-2x [/mm],
> y ist vollkommen beliebig! Setze einmal für y=0 und einmal
> irgendwas anderes. Oder halt x und z gleich 0 und y nicht,
> wie du es schon gemacht hast.
Mit seiner Methode habe ich damit jedoch nicht unbedingt die Bedingungen für x und z erhalten.
Ich habe jetzt aber einmal das Gaußverfahren angewandt, um es mir zu verdeutlichen.
Als 3. Eigenvektor erhalte ich somit: $(1, 0, [mm] -2)^T$
[/mm]
$ [mm] \Rightarrow [/mm] $ B = [mm] \begin{pmatrix}
1 & 0 & 1 \\
1/2 & 1 & 0 \\
-3/2 & 0 & -2 \\
\end{pmatrix}
[/mm]
[mm] $D=B^{-1}AB
[/mm]
$ [mm] \Rightarrow [/mm] $ http://www.wolframalpha.com/input/?i={%284%2C0%2C2%29%2C%28-2%2C1%2C-1%29%2C%28-3%2C0%2C-2%29}*{%285%2F2%2C0%2C1%29%2C%281%2C1%2F2%2C1%2F2%29%2C%28-3%2C0%2C-1%29}*{%281%2C0%2C1%29%2C%281%2F2%2C1%2C0%29%2C%28-3%2F2%2C0%2C-2%29}
Schön, für D erhalte ich also tatsächlich:
D = [mm] \begin{pmatrix}
1 & 0 & 0 \\
0 & 1/2 & 0 \\
0 & 0 & 1/2 \\
\end{pmatrix}
[/mm]
Dann stelle ich mir doch direkt die Frage:
Hat die Diagonalmatrix einer Matrix immer ihre Eigenwerte in der Diagonale und sonst 0?
Gibt es eine Möglichkeit die Anordnung der Eigenwerte vorher festzustellen? Denn,
es könnte ja z.b. auch gut sein, dass die 1 in der 3. Zeile steht.
> Dann gilt ferner [mm]A = B D B^{-1}[/mm] und beim
> Potenzieren kürzen sich die inneren [mm]B[/mm] und [mm]B^{-1}[/mm] gerade
> weg, sodass [mm]A^{k} = B D^{k} B^{-1}[/mm] und dann brauchst du nur
> noch, dass Diagonalmatrizen sehr leicht zu potenzieren
> sind, nämlich indem man einfach ihre Diagonaleinträge
> potenziert.
Also wenn ich das richtig verstehe, ist z.B.:
[mm] $A^2=BDB^{-1}BDB^{-1}=BDIDB^{-1}=BD^2B^{-1}$
[/mm]
[mm] $A^3=BDB^{-1}BDB^{-1}BDB^{-1}=BDIDIDB^{-1}=BD^3B^{-1}$
[/mm]
Somit: [mm] $A^k=BD^kB^{-1}$
[/mm]
Wenn ich nun n gegen [mm] $\infty$ [/mm] laufen lassen,
dann potenziere ich also zunächst D k-mal
und multipliziere anschließend B und B$^{-1}$?
Dann würden die Einträge mit $1/2$ für D gegen 0 laufen?
D.h.:
[mm] $lim_{k->\infty}A^k [/mm] = B * $ [mm] \begin{pmatrix}
1 & 0 & 0 \\
0 & 0 & 0 \\
0 & 0 & 0 \\
\end{pmatrix} [/mm] $ * [mm] B^{-1} [/mm] $
http://www.wolframalpha.com/input/?i={%281%2C0%2C1%29%2C%281%2F2%2C1%2C0%29%2C%28-3%2F2%2C0%2C-2%29}*{%281%2C0%2C0%29%2C%280%2C0%2C0%29%2C%280%2C0%2C0%29}*{%284%2C0%2C2%29%2C%28-2%2C1%2C-1%29%2C%28-3%2C0%2C-2%29}
= [mm] \begin{pmatrix}
4 & 0 & 2 \\
2 & 0 & 1 \\
-6 & 0 & -3 \\
\end{pmatrix} [/mm]
Alles korrekt?
Grüße
|
|
|
|
|
Hallo,
da ich das Video und die dort verarztete Matrix nicht kenne, lasse ich das mal außen vor.
Wenn man eine diagonalisierbare Matrix A diagonalisieren möchte, bestimmt man zunächst das charakteristische Polynom, dann dessen Nullstellen, welches die Eigenwerte sind.
Anschließend berechnet man zu jedem Eigenwert [mm] \lambda [/mm] eine Basis von kern [mm] (A-\lambda [/mm] E).
Damit hat man eine Basis aus Eigenvektoren, welche dann die Transformationsmatri B ergibt.
> Als 3. Eigenvektor erhalte ich somit: [mm](1, 0, -2)^T[/mm]
>
> [mm]\Rightarrow[/mm] B = [mm] \begin{pmatrix}
1 & 0 & 1 \\
1/2 & 1 & 0 \\
-3/2 & 0 & -2 \\
\end{pmatrix}[/mm]
>
> [mm]D=B^{-1}AB[/mm]
> [mm]%5CRightarrow[/mm]
> http://www.wolframalpha.com/input/?i={%284%2C0%2C2%29%2C%28-2%2C1%2C-1%29%2C%28-3%2C0%2C-2%29}*{%285%2F2%2C0%2C1%29%2C%281%2C1%2F2%2C1%2F2%29%2C%28-3%2C0%2C-1%29}*{%281%2C0%2C1%29%2C%281%2F2%2C1%2C0%29%2C%28-3%2F2%2C0%2C-2%29}
>
> Schön, für D erhalte ich also tatsächlich:
>
> D = [mm]\begin{pmatrix}
1 & 0 & 0 \\
0 & 1/2 & 0 \\
0 & 0 & 1/2 \\
\end{pmatrix}[/mm]
>
> Dann stelle ich mir doch direkt die Frage:
> Hat die Diagonalmatrix einer Matrix immer ihre Eigenwerte
> in der Diagonale und sonst 0?
Ja.
> Gibt es eine Möglichkeit die Anordnung der Eigenwerte
> vorher festzustellen? Denn,
> es könnte ja z.b. auch gut sein, dass die 1 in der 3.
> Zeile steht.
Die Anordnung der EWe hängt von der Anordnung der Basisvektoren ab.
Probier doch aus, was passiert, wenn Du in B Spalten tauschst.
> Also wenn ich das richtig verstehe, ist z.B.:
> [mm]A^2=BDB^{-1}BDB^{-1}=BDIDB^{-1}=BD^2B^{-1}[/mm]
> [mm]A^3=BDB^{-1}BDB^{-1}BDB^{-1}=BDIDIDB^{-1}=BD^3B^{-1}[/mm]
> Somit: [mm]A^k=BD^kB^{-1}[/mm]
Ja.
>
> Wenn ich nun n gegen [mm]\infty[/mm] laufen lassen,
> dann potenziere ich also zunächst D k-mal
> und multipliziere anschließend B und B[mm]^{-1}[/mm]?
Ja.
> Dann würden die Einträge mit [mm]1/2[/mm] für D gegen 0 laufen?
> D.h.:
>
> [mm]lim_{k->\infty}A^k = B *[/mm] [mm]\begin{pmatrix}
1 & 0 & 0 \\
0 & 0 & 0 \\
0 & 0 & 0 \\
\end{pmatrix}[/mm] [mm]* B^{-1}[/mm]
Ja.
>
> http://www.wolframalpha.com/input/?i={%281%2C0%2C1%29%2C%281%2F2%2C1%2C0%29%2C%28-3%2F2%2C0%2C-2%29}*{%281%2C0%2C0%29%2C%280%2C0%2C0%29%2C%280%2C0%2C0%29}*{%284%2C0%2C2%29%2C%28-2%2C1%2C-1%29%2C%28-3%2C0%2C-2%29}
>
> = [mm]\begin{pmatrix}
4 & 0 & 2 \\
2 & 0 & 1 \\
-6 & 0 & -3 \\
\end{pmatrix}[/mm]
Hab ich jetzt nicht nachgerechnet.
das prinzip hast Du verstanden.
LG Angela
>
> Alles korrekt?
>
> Grüße
>
>
|
|
|
|