Orthogonalität von Matrix < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 22:21 Fr 07.09.2012 | Autor: | zac87 |
Hallo,
ich soll zeigen, dass eine Matrix mit einem reellen Parameter (0 od. 1) orthogonal ist. Ist es ausreichend zu zeigen dass die Determinante +-1 ist?
Vielen Dank?
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:59 Fr 07.09.2012 | Autor: | Marcel |
Hallo,
> Hallo,
>
> ich soll zeigen, dass eine Matrix mit einem reellen
> Parameter (0 od. 1) orthogonal ist.
was meinst Du damit: Also, wie sieht die Matrix aus und wo steht der
Parameter?
> Ist es ausreichend zu
> zeigen dass die Determinante +-1 ist?
Eine $n [mm] \times [/mm] n$-Matrix [mm] $A\,$ [/mm] ist genau dann orthogonal, wenn [mm] $A*A^T=I_n$ [/mm] mit der $n [mm] \times [/mm] n$-Einheitsmatrix [mm] $I_n\,.$
[/mm]
(Äquivalent dazu [mm] $A^T*A=I_n\,.$)
[/mm]
Notwendigerweise muss dann $|det [mm] A|=1\,$ [/mm] gelten, aber das ist i.a. nicht
hinreichend:
Betrachte etwa
[mm] $$A=\pmat{2 & 5 \\ 1 &3}$$
[/mm]
mit [mm] $\det A=6-5=1\,.$
[/mm]
Hier ist [mm] $A*A^T=\pmat{2 & 5 \\ 1 &3}\pmat{2 & 1 \\ 5 &3}=\pmat{29 & 17 \\ 17 & 10}\,.$
[/mm]
Gruß,
Marcel
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:24 Sa 08.09.2012 | Autor: | zac87 |
Vielen Dank für die schnelle Antwort.
Die Matrix [mm] A(\alpha) [/mm] sieht so aus:
[mm] \begin{bmatrix}
\beta^2-\alpha^2 & 0 & -2\alpha\beta\\
0 & 1 & 0\\
-2\alpha\beta & 0 & \alpha^2-\beta^2
\end{bmatrix}
[/mm]
mit [mm] 0\le \alpha \ge1
[/mm]
und [mm] \beta=\wurzel{1-\alpha^2}
[/mm]
es ist zwar det=-1,
aber das ist ja leider nicht ausreichend.
Wenn ich also [mm] A*A^T=E [/mm] zeigen will rechne ich:
[mm] (\beta^2-\alpha^2)+(\beta^2-\alpha^2)
[/mm]
ist wegen [mm] \beta=\wurzel{1-\alpha^2}
[/mm]
[mm] (1-2\alpha^2)*(1-2\alpha^2)=1-4\alpha^2+4\alpha^4
[/mm]
[mm] +(-2\alpha*\beta)*(-2\alpha*\beta)=4\alpha^2\beta^2
[/mm]
[mm] =4\alpha^2-4\beta^2
[/mm]
ergibt zusammen 1
und dann so weiter. Das ist dann also hinreichend!? Ich hatte gehofft es ginge weniger aufwendig... wohl nicht.
|
|
|
|
|
> Die Matrix [mm]A(\alpha)[/mm] sieht so aus:
>
> [mm]\begin{bmatrix}
\beta^2-\alpha^2 & 0 & -2\alpha\beta\\
0 & 1 & 0\\
-2\alpha\beta & 0 & \alpha^2-\beta^2
\end{bmatrix}[/mm]
>
> mit [mm]0\le \alpha \ge1[/mm]
>
> und [mm]\beta=\wurzel{1-\alpha^2}[/mm]
>
> es ist zwar det=-1,
> aber das ist ja leider nicht ausreichend.
>
> Wenn ich also [mm]A*A^T=E[/mm] zeigen will rechne ich:
>
> [mm](\beta^2-\alpha^2)+(\beta^2-\alpha^2)[/mm]
>
> ist wegen [mm]\beta=\wurzel{1-\alpha^2}[/mm]
> [mm](1-2\alpha^2)*(1-2\alpha^2)=1-4\alpha^2+4\alpha^4[/mm]
>
> [mm]+(-2\alpha*\beta)*(-2\alpha*\beta)=4\alpha^2\beta^2[/mm]
> [mm]=4\alpha^2-4\beta^2[/mm]
>
> ergibt zusammen 1
>
> und dann so weiter. Das ist dann also hinreichend!? Ich
> hatte gehofft es ginge weniger aufwendig... wohl nicht.
Ich sehe nicht genau, was du rechnest (und warum so) .
Um die Orthogonalität der Matrix nachzuweisen, könntest
du auch zeigen, dass ihre Spaltenvektoren normiert
(Betrag 1) und paarweise orthogonal sind. Rechnerisch
läuft das auf dasselbe wie der Nachweis von [mm] A*A^T=E [/mm]
hinaus, ist aber ev. übersichtlicher.
LG Al-Chw.
Nachträglich habe ich noch gemerkt, was du wolltest.
Weil du aber gleich zu Beginn aus einer Multiplikation
eine Addition gemacht und den Term portionenweise
hingebröckelt hast, war das nicht verständlich.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:38 Sa 08.09.2012 | Autor: | zac87 |
Danke,
meine Rechnung bezog sich auf [mm] a_{1\,1} [/mm] der Ergebnismatrix von [mm] A*A^T [/mm] (um anzudeuten wie ich rechne)
wenn es aber auch genügt die Orthogonalität der Spaltenvektoren zu zeigen dann wären:
[mm] \vec a_1*\vec a_2 [/mm] = [mm] \begin{pmatrix} \beta^2-\alpha^2\\ 0\\ -2\alpha\beta \end{pmatrix}* \begin{pmatrix}0\\1\\0\end{pmatrix}=0
[/mm]
[mm] \vec a_2*\vec a_3 [/mm] = [mm] \begin{pmatrix}0\\1\\0\end{pmatrix}*\begin{pmatrix}-2\alpha\beta\\0\\\alpha^2-\beta^2\end{pmatrix}=0
[/mm]
und zum Schluss sollte auch
[mm] \vec a_1*\vec a_3= \begin{pmatrix}\beta^2-\alpha^2\\0\\-2\alpha\beta\end{pmatrix}*\begin{pmatrix}-2\alpha\beta\\0\\\alpha^2-\beta^2\end{pmatrix}=0
[/mm]
sein. ich hänge aber bei der Berechnung:
[mm] (\beta^2-\alpha^2)*(-2\alpha\beta)
[/mm]
erste Klammer mit [mm] \beta=\wurzel{1-\alpha^2}
[/mm]
[mm] =(-\alpha^2+\alpha^4)
[/mm]
aber bei der zweiten Klammer habe ich ja nichts gewonnen bei
[mm] =(-2\alpha\wurzel{1-\alpha^2})
[/mm]
und wenn ich [mm] \beta [/mm] erst mal so stehen lasse kommen ich zu
[mm] -2\alpha\beta^3+2\alpha^3\beta
[/mm]
in jeden Fall hänge ich jetzt
|
|
|
|
|
> zum Schluss sollte auch
>
> [mm]\vec a_1*\vec a_3= \begin{pmatrix}\beta^2-\alpha^2\\0\\-2\alpha\beta\end{pmatrix}*\begin{pmatrix}-2\alpha\beta\\0\\\alpha^2-\beta^2\end{pmatrix}=0[/mm]
>
> sein. ich hänge aber bei der Berechnung:
Schau dir die Vektoren an. Die haben doch die Form:
[mm] $\vec a_1\ [/mm] =\ [mm] \pmat{K\\0\\L}\qquad \vec a_3\ [/mm] =\ [mm] \pmat{L\\0\\-K}$
[/mm]
und ihr Skalarprodukt ist $\ K*L+0*0-K*L\ =\ 0 $ .
LG Al-Chw.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:01 Sa 08.09.2012 | Autor: | zac87 |
ok, danke,
dann wäre eine(!) der Varianten:
zeigen dass [mm] A*A^T=E
[/mm]
oder dass die Spaltenvektoren orthogonal sind hinreichend?
ist das richtig?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:39 So 09.09.2012 | Autor: | Marcel |
Hallo,
> ok, danke,
>
> dann wäre eine(!) der Varianten:
>
> zeigen dass [mm]A*A^T=E[/mm]
das ist EINE Möglichkeit!!
> oder dass die Spaltenvektoren orthogonal sind hinreichend?
>
> ist das richtig?
Das letzte alleine: Nein - denn wo ist denn die Normiertheit ("Länge" 1) hin? Wenn man's richtig formuliert, ist das gemeinte aber hinreichend und
auch notwendig (man definiert doch "Eine Matrix heißt..." - das ist
dann immer im "definitionsgemäß genau dann"-Sinne gemeint. Aber darüber hatte ich auch früher mit meinem Prof. diskutiert, weil mir das rein
logisch nicht unbedingt als selbstverständlich erscheint!)
Abgesehen davon meinte Al, dass man bei beidem das gleiche macht:
Schreibe mal [mm] $a_{j}$ [/mm] als j-ten Spaltenvektor von [mm] $A\,,$ [/mm] d.h. (wenn man sich die Klammern um die Vektoren entfernt denkt):
[mm] $$A=(a_1,a_2,...,a_n)\,,$$
[/mm]
wenn [mm] $A\,$ [/mm] eine $n [mm] \times [/mm] n$-Matrix ist!
Dann ist doch
[mm] $$A^T*A=E$$
[/mm]
nachzurechnen (das ist genausogut wie [mm] $A*A^T=E$ [/mm] naczurechnen!) das
gleiche wie
[mm] $$(a_i)^T\cdot a_j=a_i \bullet a_j=\delta_{ij}$$
[/mm]
nachzurechnen (für ALLE Paare $(i,j) [mm] \in \{1,...,n\}^2\,,$ [/mm] wenn [mm] $A\,$ [/mm] eine
$n [mm] \times [/mm] n$-Matrix ist - aber die Anzahl der Rechnungen reduziert sich
wegen etwa der Symmetrie des Skalarprodukts - ebenso, wie man bei
der Berechnung von [mm] $A*A^T$ [/mm] eigentlich weiß, dass [mm] $A*A^T$ [/mm] symmetrisch
sein muss!).
(Rechterhand steht das Kronecker-Delta! Und [mm] $\bullet$
[/mm]
ist das euklidische Standardskalarprodukt, währen [mm] $\cdot$ [/mm] (generell) für
Matrixprodukt verwendet wird.
Denn:
[mm] $$A=(a_1,\ldots,a_n) \Rightarrow A^T=\vektor{(a_1)^T\\.\\.\\.\\(a_n)^T}$$)
[/mm]
Und die Normiertheit ist darin dann deswegen enthalten, weil
[mm] $$a_i \bullet a_i=1$$
[/mm]
nichts anderes besagt wie
[mm] $$\|a_i\|^2=1$$
[/mm]
[mm] ($\|.\|:$ [/mm] euklidische Standardnorm), was zu [mm] $\|a_i\|=1$ [/mm] äquivalent ist.
Natürlich könnte man analog auch gucken, ob verschiedene
Zeilenvektoren orthogonal zueinander sind und ob ein einzelner
Zeilenvektor die Länge 1 hat.
Gruß,
Marcel
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:30 Sa 08.09.2012 | Autor: | Marcel |
Hallo zac,
> Vielen Dank für die schnelle Antwort.
>
> Die Matrix [mm]A(\alpha)[/mm] sieht so aus:
>
> [mm]\begin{bmatrix}
\beta^2-\alpha^2 & 0 & -2\alpha\beta\\
0 & 1 & 0\\
-2\alpha\beta & 0 & \alpha^2-\beta^2
\end{bmatrix}[/mm]
>
> mit [mm]0\le \alpha \ge1[/mm]
>
> und [mm]\beta=\wurzel{1-\alpha^2}[/mm]
>
> es ist zwar det=-1,
> aber das ist ja leider nicht ausreichend.
>
> Wenn ich also [mm]A*A^T=E[/mm] zeigen will rechne ich:
>
> [mm](\beta^2-\alpha^2)+(\beta^2-\alpha^2)[/mm]
>
> ist wegen [mm]\beta=\wurzel{1-\alpha^2}[/mm]
> [mm](1-2\alpha^2)*(1-2\alpha^2)=1-4\alpha^2+4\alpha^4[/mm]
>
> [mm]+(-2\alpha*\beta)*(-2\alpha*\beta)=4\alpha^2\beta^2[/mm]
> [mm]=4\alpha^2-4\beta^2[/mm]
>
> ergibt zusammen 1
>
> und dann so weiter. Das ist dann also hinreichend!? Ich
> hatte gehofft es ginge weniger aufwendig... wohl nicht.
ob's (für Dich) weniger aufwendig ist, weiß ich nicht. Aber wenn Du eine
Formel für die Inverse einer $3 [mm] \times [/mm] 3$-Matrix hast, dann kannst Du die
Inverse damit hinschreiben und vergleichen, ob [mm] $A^{-1}=A^T$ [/mm] gilt.
Aber auch das ist prinzipiell genau das gleiche, was man nachrechnet...
P.S.
Noch eine Möglichkeit wäre es vielleicht, mit Eigenwerten zu hantieren -
aber da müßte ich jetzt selbst nochmal nachschauen, ob's da 'n passenden
Satz gibt...
Gruß,
Marcel
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:06 Sa 08.09.2012 | Autor: | zac87 |
danke dir für die Mühe und die Hinweise. Ich hoffe ich habs jetzt erst mal.
schönen Tag noch
Gruß zac
|
|
|
|