matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenUni-Lineare AlgebraInvertierbare Matrix
Foren für weitere Studienfächer findest Du auf www.vorhilfe.de z.B. Astronomie • Medizin • Elektrotechnik • Maschinenbau • Bauingenieurwesen • Jura • Psychologie • Geowissenschaften
Forum "Uni-Lineare Algebra" - Invertierbare Matrix
Invertierbare Matrix < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Invertierbare Matrix: Aufgabe
Status: (Frage) beantwortet Status 
Datum: 16:11 Di 24.05.2005
Autor: NECO

Hallo, schon wieder habe ich Beweis Probleme,

Es seien Vektoren  [mm] v_{1},......... v_{k} \in \IR^{n} [/mm] gegeben. Wir setzen  [mm] a_{ij}=(V_{i}.V_{j}): [/mm]

Zeigen Sie Dass die Matrix [mm] A=(a_{ij}) \inM(k \times [/mm] k) genau dann invertierbar ist, wenn die Vektoren [mm] v_{1},......... v_{k} [/mm] linearunabhängig sind.

Also das ist mir schon Klar, Dass die Vektoren Linearunabhängig sein sollen, Weil sonst auch die Determinante auch Null ist. Und Determinante muss ungleich Null sein,.
Wie kann ich dass den beweisen?  DANKE

        
Bezug
Invertierbare Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 19:41 Di 24.05.2005
Autor: Nam

Ich versuchs mal mit Kontradiktion:
[mm](v_1, \ldots, v_k) \; \mbox{ linear abhängig}[/mm]
[mm]\Leftrightarrow \exists \; n \in \{1, \ldots, k\} \; \mbox{ mit } \; v_n = \sum_{i=1, i\not=n}^{k}{a_i v_i}[/mm] (mit Koeffizienten [mm]a_i[/mm])
[mm]\Leftrightarrow v_1 = \sum_{i=2}^{k}{a_i v_i}[/mm] (wir können oBdA [mm]v_1[/mm] nehmen, das Argument ist für jeden Vektor das selbe)
[mm]\Leftrightarrow \det(A) = \det(v_1, v_2, \ldots, v_k) = \det\left(\sum_{i=2}^{k}{a_i v_i}, v_2, \ldots, v_k\right) =[/mm]*[mm]\sum_{i=2}^{k}{a_i \det(v_i, v_2, \ldots, v_k)} =[/mm]**[mm] \sum_{i=2}^{k}{a_i * 0} = 0[/mm]
[mm]\Leftrightarrow \; \mbox{A nicht invertierbar}[/mm]


* = det ist linear in jeder Spalte (1. Eigenschaft der det-Funktion)
** = sind zwei Spalten gleich, so verschwindet die Determinante (2. Eigenschaft der det-Funktion)

Bezug
                
Bezug
Invertierbare Matrix: Frage
Status: (Frage) beantwortet Status 
Datum: 00:11 So 29.05.2005
Autor: NECO

Hallo zusammen, kann man meine Aufgabe nicht ohne die Determinante einzumischen lösen?

Danke.

Bezug
        
Bezug
Invertierbare Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 00:43 So 29.05.2005
Autor: Marc

Hallo NECO ;-)

> Es seien Vektoren  [mm]v_{1},......... v_{k} \in \IR^{n}[/mm]
> gegeben. Wir setzen  [mm]a_{ij}=(V_{i}.V_{j}):[/mm]

Wie ist das denn eigentlich gemeint? Die Grossschreibweise der Vs ist wohl ein Irrtum, aber was soll der Punkt? Ist das das Skalarprodukt?
Etwa so:

[mm] $a_{ij}=\langle v_i, v_j \rangle$ [/mm] bzw. [mm] $a_{ij}=v_i \* v_j$ [/mm]

D.h., in der Matrix A stehen alle Skalarprodukte der gegebenen Vektoren?

Ich habe die weitere Aufgabe dann zwar noch nicht weiter durchdacht, aber (siehe deine aktuelle Nachfrage) die Invertierbarkeit von Matrizen läßt sich doch recht bequem mit der Determinate zeigen.

Viele Grüße,
Marc

Bezug
                
Bezug
Invertierbare Matrix: Frage
Status: (Frage) beantwortet Status 
Datum: 01:27 So 29.05.2005
Autor: NECO


> Hallo NECO ;-)
>  
> > Es seien Vektoren  [mm]v_{1},......... v_{k} \in \IR^{n}[/mm]
> > gegeben. Wir setzen  [mm]a_{ij}=(V_{i}.V_{j}):[/mm]
>  
> Wie ist das denn eigentlich gemeint? Die Grossschreibweise
> der Vs ist wohl ein Irrtum, aber was soll der Punkt? Ist
> das das Skalarprodukt?

Das weiß ich auch nicht, so steht das in der Aufgabe, Aber das ist ja egal oder?  
Das sind kleine v, ich habe da Tipfehler.  

>  Etwa so:
>  
> [mm]a_{ij}=\langle v_i, v_j \rangle[/mm] bzw. [mm]a_{ij}=v_i \* v_j[/mm]
>  
> D.h., in der Matrix A stehen alle Skalarprodukte der
> gegebenen Vektoren?
>  
> Ich habe die weitere Aufgabe dann zwar noch nicht weiter
> durchdacht, aber (siehe deine aktuelle Nachfrage) die
> Invertierbarkeit von Matrizen läßt sich doch recht bequem
> mit der Determinate zeigen.
>  
> Viele Grüße,
>  Marc


Bezug
                        
Bezug
Invertierbare Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 10:22 So 29.05.2005
Autor: Marc

Hallo NECO,

> > > Es seien Vektoren  [mm]v_{1},......... v_{k} \in \IR^{n}[/mm]
> > > gegeben. Wir setzen  [mm]a_{ij}=(V_{i}.V_{j}):[/mm]
>  >  
> > Wie ist das denn eigentlich gemeint? Die Grossschreibweise
> > der Vs ist wohl ein Irrtum, aber was soll der Punkt? Ist
> > das das Skalarprodukt?
>  
> Das weiß ich auch nicht, so steht das in der Aufgabe, Aber
> das ist ja egal oder?  

Das ist natürlich schon wichtig, wie die Matrix überhaupt gebaut wird; z.B. hat Nam deine Schreibweise auch missverstanden.

Als weiteren Tipp gebe ich dir erstmal nur ein Stichwort, wenn ich deine älteren Artikel überfliege, müßtest du eigentlich etwas damit anfangen können:
Orthonormalbasis :-)

Viel Erfolg,
Marc

Bezug
                                
Bezug
Invertierbare Matrix: Eilige Rückfrage
Status: (Frage) beantwortet Status 
Datum: 15:27 So 29.05.2005
Autor: NECO

Ok. Marc.  das heißt ja dann, was Nam geschrieben hat ist falsch. Wenn es um Skalarprodukt geht?.  ne?

Ich dachte aber es ist egal, weil Das Skalarprodukt ein Sklar ist. Mann kann Die [mm] a_{ij} [/mm] als Zahlen sehen.  
Mir fehlt jetz nicht ein. Ich muss es aber morgen abgeben?

kannst du mir helfen bitte, ich lerne gerade die euluersche Funktion, usw. Es wäre nett Wenn du mir eine lösung anbietest. :-)

Bezug
                                        
Bezug
Invertierbare Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 16:52 So 29.05.2005
Autor: Stefan

Hallo NECO!

Stimmt, die Aufgabe wurde zunächst falsch interpretiert, so dass die angebotene Lösung nicht richtig ist.

Du findest aber hier wertvolle Tipps und (schön verteilt ;-)) auch die komplette Lösung.

Viele Grüße
Stefan

Bezug
                                        
Bezug
Invertierbare Matrix: Rückfrage
Status: (Frage) beantwortet Status 
Datum: 19:27 So 29.05.2005
Autor: NECO

Hallo Stefan, Danke erstmal für alles, Ich glaube das hier ist die Lösung:

Wenn die Spalten der  Matrix  linear abhängig sind, dann gibt es Skalare [mm] $\lambda_1,\ldots,\lambda_k$, [/mm] die nicht alle verschwinden, und für die

[mm] $\lambda_1 \langle v_1,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_1,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_1,v_k\rangle=0$ [/mm]
[mm] $\lambda_1 \langle v_2,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_2,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_2,v_k\rangle=0$ [/mm]
  [mm] $\vdots$ [/mm]
[mm] $\lambda_1 \langle v_k,v_1 \rangle [/mm] + [mm] \lambda_2 \langle v_k,v_2 \rangle [/mm] + [mm] \ldots [/mm] + [mm] \lambda_k\langle v_k,v_k\rangle=0$. [/mm]

Wegen der Bilinearität des Skalarprodukts kann man diese Gleichungen kompakt wie folgt schreiben:

(*) [mm] $\langle v_i [/mm] , [mm] \sum\limits_{j=1}^j \lambda_jv_j \rangle [/mm] =0$

für alle [mm] $i=1,\ldots.k$. [/mm]

Setze nun:

$w:= [mm] \sum\limits_{j=1}^k \lambda_jv_j$. [/mm]

Unter der Annahme der linearen Unabhängigkeit der Familie [mm] $(v_1,\ldots,v_k)$ [/mm] und da (siehe oben) nicht alle Skalare [mm] $\lambda_j$ [/mm] verschwinden, gilt:

$w [mm] \ne [/mm] 0$ und offenbar: [mm] $w\in Span(v_1,v_2,\ldots,v_k)$. [/mm]

Damit haben wir mit $w$ einen nichttrivialen Vektor aus [mm] $Span(v_1,v_2,\ldots,v_k)$ [/mm] erzeugt, der gemäß (*) auf allen Vektoren [mm] $v_i$ [/mm] senkrecht steht. Dann wäre aber das Skalarprodukt, eingeschränkt auf [mm] $Span(v_1,v_2,\ldots,v_k)$, [/mm] ausgeartet, was nicht sein kann.

Hier habe ich eine Frage, Warum steht diese Vaktor senkrecht.

Und meine Aufgabe war ja, A ist genau dann invertierbar wenn die Vektoren Linear unabhängig sind.  Ist das egal ob Spalten oder Zeilen Linear unabhängig sind?  
Und soll ich noch sagen, wenn der Vektor senkrecht auf allenVektoren steht, dann verschwindet eine Zeile der Spalte, wegen Sklarprodukt =0

Daraus folgt ja determinante von A ist Null, also nicht Invertierbar,  Das wollte ich noch hinzu fügen. Möchtest du noch was dazu sagen?

Daher muss die Familie [mm] $(v_1,\ldots,v_k)$ [/mm] linear unabhängig sein.




Bezug
                                                
Bezug
Invertierbare Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 19:56 So 29.05.2005
Autor: Stefan

Hallo NECO!

> Hallo Stefan, Danke erstmal für alles, Ich glaube das hier
> ist die Lösung:

Das ist die eine Richtung der Lösung. Die andere findest du aber auch im genannten Thread.

> Wenn die Spalten der  Matrix  linear abhängig sind, dann
> gibt es Skalare [mm]\lambda_1,\ldots,\lambda_k[/mm], die nicht alle
> verschwinden, und für die
>
> [mm]\lambda_1 \langle v_1,v_1 \rangle + \lambda_2 \langle v_1,v_2 \rangle + \ldots + \lambda_k\langle v_1,v_k\rangle=0[/mm]
> [mm]\lambda_1 \langle v_2,v_1 \rangle + \lambda_2 \langle v_2,v_2 \rangle + \ldots + \lambda_k\langle v_2,v_k\rangle=0[/mm]
> [mm]\vdots[/mm]
> [mm]\lambda_1 \langle v_k,v_1 \rangle + \lambda_2 \langle v_k,v_2 \rangle + \ldots + \lambda_k\langle v_k,v_k\rangle=0[/mm].
>
> Wegen der Bilinearität des Skalarprodukts kann man diese
> Gleichungen kompakt wie folgt schreiben:
>
> (*) [mm]\langle v_i , \sum\limits_{j=1}^j \lambda_jv_j \rangle =0[/mm]

Ich hatte ich mich vertippt. Richtig muss es

(*) [mm]\langle v_i , \sum\limits_{j=1}^k \lambda_jv_j \rangle =0[/mm]

lauten.

> für alle [mm]i=1,\ldots.k[/mm].
>
> Setze nun:
>
> [mm]w:= \sum\limits_{j=1}^k \lambda_jv_j[/mm].
>
> Unter der Annahme der linearen Unabhängigkeit der Familie
> [mm](v_1,\ldots,v_k)[/mm] und da (siehe oben) nicht alle Skalare
> [mm]\lambda_j[/mm] verschwinden, gilt:
>
> [mm]w \ne 0[/mm] und offenbar: [mm]w\in Span(v_1,v_2,\ldots,v_k)[/mm].
>
> Damit haben wir mit [mm]w[/mm] einen nichttrivialen Vektor aus
> [mm]Span(v_1,v_2,\ldots,v_k)[/mm] erzeugt, der gemäß (*) auf allen
> Vektoren [mm]v_i[/mm] senkrecht steht. Dann wäre aber das
> Skalarprodukt, eingeschränkt auf [mm]Span(v_1,v_2,\ldots,v_k)[/mm],
> ausgeartet, was nicht sein kann.
>
> Hier habe ich eine Frage, Warum steht diese Vaktor
> senkrecht.

Naja, das steht doch in (*). Das Skalarprodukt dieses Vektors mit allen Vektoren [mm] $v_1,v_2,\ldots,v_k$ [/mm] ist gleich $0$ und das heißt doch, dass er senkrecht zu diesen steht.
  

> Und meine Aufgabe war ja, A ist genau dann invertierbar
> wenn die Vektoren Linear unabhängig sind.  Ist das egal ob
> Spalten oder Zeilen Linear unabhängig sind?  

Ja, das ist egal (wegen Spaltenrang=Zeilenrang).

> Und soll ich noch sagen, wenn der Vektor senkrecht auf
> allenVektoren steht, dann verschwindet eine Zeile der
> Spalte, wegen Sklarprodukt =0

Erstens verstehe ich nicht, was du da zeigen willst und zweitens ist doch schon alles gezeigt.

> Daraus folgt ja determinante von A ist Null, also nicht
> Invertierbar,  Das wollte ich noch hinzu fügen. Möchtest du
> noch was dazu sagen?
>  
> Daher muss die Familie [mm](v_1,\ldots,v_k)[/mm] linear unabhängig
> sein.

Was soll ich dazu denn noch sagen? ;-) Wir haben vorausgesetzt, dass die Spalten (oder Zeilen) der Gramschen Matrix linear abhängig sind. Wir haben dann gezeigt, dass das Skalarprodukt, eingeschränkt auf  [mm] $Span(v_1,\ldots,v_k)$, [/mm] ausgeartet wäre, was nur dann wahr sein kann, wenn [mm] $(v_1,\ldots,v_k)$ [/mm] linear abhängig ist. Damit ist diese Richtung des Beweises abgeschlossen. Aber die andere Richtung ist ja dann auch nocht mehr schwierig (außerdem findest du sie im anderen Diskussionsstrang). :-)

Viele Grüße
Stefan


Bezug
                                                        
Bezug
Invertierbare Matrix: Frage
Status: (Frage) beantwortet Status 
Datum: 20:38 So 29.05.2005
Autor: NECO

danke Stefan,

War echt sehr nett
Ich schaffe aber die andere Richtung nicht. Ich versuche erst dise Richtung zu richtig verstehen. Wenn du Zeit hast kannst du mir für die andere Richtung Helfen? Danke. Wenn nicht ist auch nicht schlimm

Bezug
                                                                
Bezug
Invertierbare Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 22:03 So 29.05.2005
Autor: Stefan

Hallo NECO!

Die andere Richtung habe ich doch hier erläutert.

Was verstehst du daran nicht?

Viele Grüße
Stefan

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]