matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenLineare Algebra - Matrizengradient
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Deutsch • Englisch • Französisch • Latein • Spanisch • Russisch • Griechisch
Forum "Lineare Algebra - Matrizen" - gradient
gradient < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Matrizen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

gradient: welche regel
Status: (Frage) beantwortet Status 
Datum: 19:03 Mi 15.07.2009
Autor: pfarmer

Aufgabe
Berechnen Sie den Gradienten [mm] \nabla x^{T}Ax [/mm]
wobei [mm] x\in\IR^n [/mm]  und  [mm] A^T=A [/mm]

Nach manuellem rechnen bekomme ich aus [mm] \nabla x^{T}Ax=2Ax [/mm]


welche Regeln gib es dazu? Das ergebnis sieht so einfach aus, der 'manuelle' Weg dazu so:


[mm] x^{T}Ax=x_1(a_{11}x_1+a_{12}x_2+\cdots+a_{1n}x_n)+x_2(a_{21}x_1+a_{22}x_2+\cdots+a_{2n}x_n)+\cdots+x_n(a_{n1}x_1+a_{n2}x_2+\cdots+a_{nn}x_n) [/mm]

[mm] \nabla x^{T}Ax=\vektor{(a_{11}x_1+a_{12}x_2+\cdots+a_{1n}x_n)+x_1a_{11}+x_2a_{21}+\cdots+x_na_{n1} \\ x_1a_{12}+(a_{21}x_1+a_{22}x_2+\cdots+a_{2n}x_n)+x_2a_{22}+\cdots+x_na_{n2} \\ \vdots \\ x_1a_{1n}+x_2a_{2n}+\cdots+(a_{n1}x_1+a_{n2}x_2+\cdots+a_{nn}x_n)+x_na_{nn}} [/mm]
[mm] a_{ij}=a_{ji} [/mm]

[mm] \nabla x^{T}Ax=\vektor{2(a_{11}x_1+a_{12}x_2+\cdots+a_{1n}x_n) \\ 2(a_{21}x_1+a_{22}x_2+\cdots+a_{2n}x_n) \\ \vdots \\ 2(a_{n1}x_1+a_{n2}x_2+\cdots+a_{nn}x_n)}=2Ax [/mm]


Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.

        
Bezug
gradient: Antwort
Status: (Antwort) fertig Status 
Datum: 19:40 Mi 15.07.2009
Autor: MathePower

Hallo pfarmer,


[willkommenmr]


> Berechnen Sie den Gradienten [mm]\nabla x^{T}Ax[/mm]
>  wobei
> [mm]x\in\IR^n[/mm]  und  [mm]A^T=A[/mm]
>  Nach manuellem rechnen bekomme ich aus [mm]\nabla x^{T}Ax=2Ax[/mm]
>  
>
> welche Regeln gib es dazu? Das ergebnis sieht so einfach
> aus, der 'manuelle' Weg dazu so:
>  
>
> [mm]x^{T}Ax=x_1(a_{11}x_1+a_{12}x_2+\cdots+a_{1n}x_n)+x_2(a_{21}x_1+a_{22}x_2+\cdots+a_{2n}x_n)+\cdots+x_n(a_{n1}x_1+a_{n2}x_2+\cdots+a_{nn}x_n)[/mm]
>  
> [mm]\nabla x^{T}Ax=\vektor{(a_{11}x_1+a_{12}x_2+\cdots+a_{1n}x_n)+x_1a_{11}+x_2a_{21}+\cdots+x_na_{n1} \\ x_1a_{12}+(a_{21}x_1+a_{22}x_2+\cdots+a_{2n}x_n)+x_2a_{22}+\cdots+x_na_{n2} \\ \vdots \\ x_1a_{1n}+x_2a_{2n}+\cdots+(a_{n1}x_1+a_{n2}x_2+\cdots+a_{nn}x_n)+x_na_{nn}}[/mm]
>  
> [mm]a_{ij}=a_{ji}[/mm]
>  
> [mm]\nabla x^{T}Ax=\vektor{2(a_{11}x_1+a_{12}x_2+\cdots+a_{1n}x_n) \\ 2(a_{21}x_1+a_{22}x_2+\cdots+a_{2n}x_n) \\ \vdots \\ 2(a_{n1}x_1+a_{n2}x_2+\cdots+a_{nn}x_n)}=2Ax[/mm]
>  


Das wird nach der Produktregel differenziert:

[mm]\nabla\left(x^{T}Ax\right)=\nabla\left( \ x^{T} \left(Ax\right) \ \right)=\nabla x^{T} A*x + x^{T}*\nabla\left(A*x\right)=\nabla x^{T} A*x + x^{T}*A*\nabla x[/mm]

Nun gilt

[mm]\left(x^{T}*A*\nabla x\right)^{T}=\left(\nabla x\right)^{T}*A^{T}*\left(x^{T}\right)^{T}=\nabla x^{T}*A*x[/mm]

Da [mm]\nabla x^{T}[/mm] die Einheitsmatrix ist, gilt

[mm]\nabla\left(x^{T}Ax\right)=2*Ax[/mm]


>
> Ich habe diese Frage in keinem Forum auf anderen
> Internetseiten gestellt.



Gruß
MathePower

Bezug
                
Bezug
gradient: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:23 Do 16.07.2009
Autor: pfarmer

Danke vielmals!!
(so schnelle Antwort, wow)

> Das wird nach der Produktregel differenziert:
>  
> [mm]\nabla\left(x^{T}Ax\right)=\nabla\left( \ x^{T} \left(Ax\right) \ \right)=\nabla x^{T} A*x + x^{T}*\nabla\left(A*x\right)=\nabla x^{T} A*x + x^{T}*A*\nabla x[/mm]

der letzte summand [mm] x^{T}*A*\nabla [/mm] x ist doch aber kein vektor, wie kann das funktionieren?

hält die Produkt Regel wirklich dafür?
Das ist die beutze Produkt regel wenn ich richtig liege:
\nabla(f g) = f \nabla g + g \nabla f

Ich bin verwirrt, was rechtfertigt mir die anwendung diser Regel?
Ist das nicht nur für skalare f und g definiert?

ich hab jetzt noch etwas gefunden (http://en.wikipedia.org/wiki/Del):
\nabla (\vec u \cdot \vec v) = (\vec u \cdot \nabla) \vec v + (\vec v \cdot \nabla) \vec u + \vec u \times (\nabla \times \vec v) + \vec v \times (\nabla \times \vec u)
Das könnte aber noch komplizierter als der manuelle Weg werden



Bezug
                        
Bezug
gradient: Antwort
Status: (Antwort) fertig Status 
Datum: 19:22 Do 16.07.2009
Autor: MathePower

Hallo pfarmer,

> Danke vielmals!!
>  (so schnelle Antwort, wow)
>  
> > Das wird nach der Produktregel differenziert:
>  >  
> > [mm]\nabla\left(x^{T}Ax\right)=\nabla\left( \ x^{T} \left(Ax\right) \ \right)=\nabla x^{T} A*x + x^{T}*\nabla\left(A*x\right)=\nabla x^{T} A*x + x^{T}*A*\nabla x[/mm]
>  
> der letzte summand [mm]x^{T}*A*\nabla[/mm] x ist doch aber kein
> vektor, wie kann das funktionieren?


Es ist ja [mm]x=\pmat{x_{1} \\ ... \\ x_{n}}[/mm] und A eine nXn-Matrix.

Dann ist [mm]x^{T}=\pmat{x_{1} & ... & x_{n}[/mm]

Wird jetzt [mm]x_{T]A*x[/mm] komponentenweise abgeleitet,
dann ergibt sich, beispielsweise für [mm]x_{1}[/mm]:

[mm]\bruch{\partial}{\partial x_{1}}\left(x^{T}*A*x\right)=\bruch{\partial }{\partial x_{1}}\left(x^{T}\right)*A*x+x^{T}*A*\bruch{\partial}{\partial x_{1}}\left(x}\right)[/mm]


[mm]\bruch{\partial }{\partial x_{1}}\left(x^{T}\right)[/mm] ist gerade [mm]e_{1}^{T}[/mm], wobei [mm]e_{1}[/mm] der 1. Einheitsvektor ist.

Und [mm]\bruch{\partial}{\partial x_{1}}\left(x}\right)[/mm] ist  [mm]e_{1}[/mm].


Dann steht da:

[mm]\bruch{\partial}{\partial x_{1}}\left(x^{T}*A*x\right)=\bruch{\partial }{\partial x_{1}}\left(x^{T}\right)*A*x+x^{T}*A*\bruch{\partial}{\partial x_{1}}\left(x}\right)[/mm]

[mm]=e_{1}^{T}*A*x+x^{T}*A*e_{1}[/mm]

und dies ist ein Skalar.

Da A symmetrisch ist, gilt [mm]x^{T}*A*e_{1}=e_{1}^{T}*A*x[/mm]

Dann ist

[mm]\bruch{\partial}{\partial x_{1}}\left(x^{T}*A*x\right)=2*e_{1}^{T}*A*x[/mm]

Da das für analog auch für alle anderen abhängigen Variablen
gemacht werden kann, gilt


[mm]\nabla\left(x^{T}*A*x\right)=2*\pmat{e_{1}^{T}*A*x \\ ... \\ e_{n}^{T}*A*x}=2*A*x[/mm]


>  
> hält die Produkt Regel wirklich dafür?
> Das ist die beutze Produkt regel wenn ich richtig liege:
>  \nabla(f g) = f \nabla g + g \nabla f
>  
> Ich bin verwirrt, was rechtfertigt mir die anwendung diser
> Regel?
>  Ist das nicht nur für skalare f und g definiert?
>  
> ich hab jetzt noch etwas gefunden
> (http://en.wikipedia.org/wiki/Del):
>  \nabla (\vec u \cdot \vec v) = (\vec u \cdot \nabla) \vec v + (\vec v \cdot \nabla) \vec u + \vec u \times (\nabla \times \vec v) + \vec v \times (\nabla \times \vec u)
>  
> Das könnte aber noch komplizierter als der manuelle Weg
> werden
>  
>  


Gruß
MathePower

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Algebra - Matrizen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]