matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenLineare GleichungssystemeRegressionsgerade
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Informatik • Physik • Technik • Biologie • Chemie
Forum "Lineare Gleichungssysteme" - Regressionsgerade
Regressionsgerade < Gleichungssysteme < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Gleichungssysteme"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Regressionsgerade: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:37 So 23.05.2010
Autor: jaruleking

Aufgabe
Gegeben seien t,b [mm] \in \IR^m [/mm] (m Beobachtungen, [mm] b_i [/mm] zu Zeiten [mm] t_i, [/mm] i=1,...,m) und das lineare Model Ax, wobei

[mm] A=\pmat{ 1 & t_1 \\ 1 & t_2 \\ ... & ... \\ 1 & t_m}. [/mm]

Zur Bestimmung der Regressionsgeraden hat man die Aufgabe:

Minimiere (x [mm] \in \IR^2) f(x):=\bruch{1}{2} \parallel [/mm] Ax-b [mm] \parallel^2 [/mm] , zu lösen. Man gebe eine explizite Darstellung der Lösung.

Hi,

ich komm bei dieser Aufgabe nicht ganz so weiter.

Min x [mm] \in \IR^2 f(x):=\bruch{1}{2} \parallel [/mm] Ax-b [mm] \parallel^2 [/mm]

= Min x [mm] \in \R^2 \parallel \pmat{ 1 & t_1 \\ 1 & t_2 \\ ... & ... \\ 1 & t_m} \vektor{x_0 \\ x_1} [/mm] - [mm] \vektor{b_1 \\ b_2 \\ ... \\ b_n}\parallel^2 [/mm]

So, wie gehts jetzt weiter? Kann mir da vielleicht jemand helfen? Wäre echt nett.

Gruß

        
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 22:17 So 23.05.2010
Autor: Event_Horizon

Hallo!

Ich denke, dir fehlt ein wenig die Übersicht, worum es hier geht.


Was willst du eigentlich?

Nun, im Grunde willst du ja eine Grade $y=p*x+q$ haben, die deine Werte [mm] (t_i|b_i) [/mm] gut beschreibt.

Die Idee bei Regressionsgraden ist nun, die Abstände der Punkte von der Graden in y-Richung minimal zu machen.

Der Abstand der Graden von einem Datenpunkt in y-Richtung ist $(t|b)_$ ist $d=y(t)-b=p*t+q-b$

Diese Abstände bildet man für alle Datenpunkte, und addiert sie. Anschließend sucht man die Werte p und q, für die diese Abstandssumme minimal wird.
Doch halt! Abstände können negativ sein! Dagegen hilft, jeden einzelnen Abstand zu quadrieren. Das Wurzelziehen läßt man aber sein, weils mathematisch sonst schwierig wird. Außerdem haben die quadratischen Abstände einen Vorteil: Große Abstände führen zu sehr großen Beiträgen, kleine Abstände zu kleineren Beiträgen in der Gesamtsumme. Soll heißen: große Abstände beeinflussen das ergebnis stärker als kleine.



Nun schauen wir mal deine Gleichung für n=2 an:



$ [mm] \pmat{ 1 & t_1 \\ 1 & t_2 } \vektor{x_0 \\ x_1} [/mm] $ - $ [mm] \vektor{b_1 \\ b_2 } [/mm] $


[mm] =\vektor{x_0 +t_1x_1-b_1\\ x_0 +t_2x_1-b_2} [/mm]

Das, was in den Zeilen steht, ist das $d=y(t)-b=p*t+q-b$ von oben, für die einzelnen Punkte.

Du siehst, die [mm] x_i [/mm] sind das p und q aus der Gradengleichung. Und wenn du die Norm anwendest, bekommst du die Summe der Quadrate der Abstände.

Leite diese Summe nun nach [mm] x_1 [/mm] und [mm] x_2 [/mm] ab, und suche nach Minima. Die Werte, die du so für [mm] x_1 [/mm] und [mm] x_2 [/mm] bekommst, sind die Parameter der Graden.

Bezug
                
Bezug
Regressionsgerade: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:50 So 23.05.2010
Autor: jaruleking

Hi ihr zwei,

also Resiuden hatten wir in dieser Vorlesung noch nicht. So dass ich glaube, dass der Lösungsvorschlag von Event_Horizon eher angesagt ist.

> Hallo!
> Ich denke, dir fehlt ein wenig die Übersicht, worum es
> hier geht.
> Was willst du eigentlich?
> Nun, im Grunde willst du ja eine Grade [mm]y=p*x+q[/mm] haben, die
> deine Werte [mm](t_i|b_i)[/mm] gut beschreibt.
> Die Idee bei Regressionsgraden ist nun, die Abstände der
> Punkte von der Graden in y-Richung minimal zu machen.
>  
> Der Abstand der Graden von einem Datenpunkt in y-Richtung
> ist [mm](t|b)_[/mm] ist [mm]d=y(t)-b=p*t+q-b[/mm]
>  
> Diese Abstände bildet man für alle Datenpunkte, und
> addiert sie. Anschließend sucht man die Werte p und q,
> für die diese Abstandssumme minimal wird.
>  Doch halt! Abstände können negativ sein! Dagegen hilft,
> jeden einzelnen Abstand zu quadrieren. Das Wurzelziehen
> läßt man aber sein, weils mathematisch sonst schwierig
> wird. Außerdem haben die quadratischen Abstände einen
> Vorteil: Große Abstände führen zu sehr großen
> Beiträgen, kleine Abstände zu kleineren Beiträgen in der
> Gesamtsumme. Soll heißen: große Abstände beeinflussen
> das ergebnis stärker als kleine.
>
> Nun schauen wir mal deine Gleichung für n=2 an:
>  
> [mm]\pmat{ 1 & t_1 \\ 1 & t_2 } \vektor{x_0 \\ x_1}[/mm] -
> [mm]\vektor{b_1 \\ b_2 }[/mm]
>  
>
> [mm]=\vektor{x_0 +t_1x_1-b_1\\ x_0 +t_2x_1-b_2}[/mm]
>  
> Das, was in den Zeilen steht, ist das [mm]d=y(t)-b=p*t+q-b[/mm] von
> oben, für die einzelnen Punkte.

Bei uns in der Aufgabe, ist ja jetzt die Rede von Minimiere (x [mm] \IR^2) [/mm] f(x), heißt das, ich muss nur [mm] \vektor{x_0 +t_1x_1-b_1\\ x_0 +t_2x_1-b_2} [/mm] bebrachten?? oder doch für alle [mm] x_i [/mm] und [mm] b_i?? [/mm]

>  
> Du siehst, die [mm]x_i[/mm] sind das p und q aus der
> Gradengleichung. Und wenn du die Norm anwendest, bekommst
> du die Summe der Quadrate der Abstände.

D.h. ja deine Matrix von oben kann ich auch so schreibeb:

[mm] \vektor{x_0 +t_1x_1-b_1\\ x_0 +t_2x_1-b_2} [/mm]

[mm] x_0 +t_1x_1=b_1 [/mm]
[mm] x_0 +t_2x_1=b_2 [/mm]

Was meinst du jetzt mit Norm anwenden? muss ich diese Gleichungen jetzt quadrieren??

vielleicht erstmal bis hierher.

Gruß

Bezug
                        
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 23:25 So 23.05.2010
Autor: Event_Horizon

Hallo!


> Bei uns in der Aufgabe, ist ja jetzt die Rede von Minimiere
> (x [mm]\IR^2)[/mm] f(x), heißt das, ich muss nur [mm]\vektor{x_0 +t_1x_1-b_1\\ x_0 +t_2x_1-b_2}[/mm]
> bebrachten?? oder doch für alle [mm]x_i[/mm] und [mm]b_i??[/mm]

Nun, das ist das Beispiel für zwei Punkte. Aber es geht natürlichgh um alle Punkte:

[mm] \vektor{x_0 +t_1x_1-b_1\\ x_0 +t_2x_1-b_2\\ ...\\x_0 +t_nx_1-b_n} [/mm]

Denk dran, es gibt nur [mm] x_0 [/mm] und [mm] x_1 [/mm] (eben die beiden Gradenparameter), von den [mm] t_i [/mm] und [mm] b_i [/mm] kann es sehr viele geben.


Und ja, du sollst das System für [mm] x_0 [/mm] und [mm] x_1 [/mm] minimieren, also Werte dafür finden, für die die Norm minimal wird.

> Was meinst du jetzt mit Norm anwenden? muss ich diese
> Gleichungen jetzt quadrieren??


Nunja, [mm] \left|| \vektor{x \\ y}\right||^2=x^2+y^2 [/mm]
wenn du das anwendest, kommst du eben auf die Summe der quadratischen Abstände, und kannst dann mit dem Ableiten anfangen.


Das ganze ist noch relativ anschaulich, entfernt sich aber auch schnell von dem Matrixansatz, den Marcel verfolgt. Vielleicht solltest du mal schaun, ob Marcels Weg doch der richtige ist. Denn diese Schreibweise ist doch schon sehr ... abstrakt dafür, daß sie auf meinem Lösungsweg sofort eingestampft wird.

Bezug
                                
Bezug
Regressionsgerade: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:32 Mo 24.05.2010
Autor: jaruleking

HI,

> Das ganze ist noch relativ anschaulich, entfernt sich aber auch schnell von dem Matrixansatz, den Marcel verfolgt. Vielleicht solltest du mal schaun, ob Marcels Weg doch der richtige ist. Denn diese Schreibweise ist doch schon sehr ... abstrakt dafür, daß sie auf meinem Lösungsweg sofort eingestampft wird.

Welches findest du jetzt abstrakt? Das was du vorgeschlagen hast, oder das von Marcel??

Ich habe in unserem Skript nochmal nachgeschaut, aber sowas hier [mm] x=(A^TA)^{-1}A^Tb, [/mm] oder wie Marcel es geschrieben hatte [mm] \hat\beta=(X^{T}X)^{-1}X^{T}Y, [/mm] habe ich in dieser Form nicht gefunden.

Wir haben schon was mit Singulärwertzerlegungen gemacht. Meint ihr, das kann man dann drauf anwenden??

Gruß

Bezug
                                        
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 12:56 Mo 24.05.2010
Autor: ullim

Hi,

also mit Singulärwertzerlegung hat das glaube ich nichts zu tun.

Das Modell Ax beschreibt eine Gerade. Mit [mm] x=\vektor{x_0 \\ x_1} [/mm] folgt [mm] (Ax)_i=x_0+x_1*t_i [/mm]

D.h. die i-te Komponente von Ax ist eine Geradengleichung. Wenn die Messung [mm] b_i [/mm] mit eingezogen wird, gilt folgender Zusammenhang.

[mm] x_0+x_1*t_i=b_i+\epsilon_i [/mm] wobei [mm] \epsilon_i [/mm] die Abweichung der Messung von der noch zu bestimmenden Geraden durch die Punkte [mm] (t_i,b_i) [/mm] ist.

Also gilt [mm] \epsilon_i=x_0+x_1*t_i-b_i=(Ax-b)_i [/mm]

Die unbekannten Parameter [mm] x_0 [/mm] und [mm] x_1 [/mm] bekomme ich durch die Forderung, das die Summe der quadratischen Fehler minimal werden soll, also

[mm] F(x_0,x_1)=\summe_{i=1}^{n}\epsilon_i^2=\summe_{i=1}^{n}(x_0+x_1*t_i-b_i)^2=\summe_{i=1}^{n}(Ax-b)_i^2=\parallel{Ax-b}\parallel^2 [/mm] soll minimiert werden.

Jetzt muss Du für [mm] F(x_0,x_1) [/mm] das lokale Minimum finden, indem Du die Nullstellen des Gradieten bzgl. [mm] x_0 [/mm] und [mm] x_1 [/mm] findest.

Also [mm] \bruch{\partial}{\partial x_0}F(x_0,x_1)=0 [/mm] und [mm] \bruch{\partial}{\partial x_1}F(x_0,x_1)=0 [/mm] löst.

Und ab hier kannst Du dich entscheiden ob Du den Ausdruck [mm] \summe_{i=1}^{n}(x_0+x_1*t_i-b_i)^2 [/mm] oder den [mm] \parallel{Ax-b}\parallel^2 [/mm] für die Minimierung benutzt, sie sind ja identisch.

Benutzt Du [mm] \parallel{Ax-b}\parallel^2 [/mm] habe ich dazu schon die Ableitung gezeigt und Du kommst auf die Lösung von Marcel08. Da must Du dann nur alles einsetzten und ausrechnen.

Bei der anderen Lösung gehts wie folgt weiter:

[mm] \bruch{\partial}{\partial x_0}F(x_0,x_1)=2\summe_{i=1}^{n}(x_0+x_1*t_i-b_i)=0 [/mm] und

[mm] \bruch{\partial}{\partial x_1}F(x_0,x_1)=2\summe_{i=1}^{n}(x_0+x_1*t_i-b_i)*t_i=0 [/mm]

Jetzt nach [mm] x_0 [/mm] und [mm] x_1 [/mm] auflösen und Du bist fertig.



Bezug
                                                
Bezug
Regressionsgerade: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:06 Mo 24.05.2010
Autor: jaruleking

Hi

ich bin mir nicht sicher, ob ich die Lösung richtig hinbekomme habe:

> $ [mm] \bruch{\partial}{\partial x_0}F(x_0,x_1)=2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)=0 [/mm] $ und

Also:

[mm] 2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)=0 [/mm]

[mm] \summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)=0 [/mm]

[mm] x_0=\summe_{i=1}^{n}(b_i [/mm] - [mm] x_1t_i) [/mm]


> $ [mm] \bruch{\partial}{\partial x_1}F(x_0,x_1)=2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)\cdot{}t_i=0 [/mm] $

Und hier:

[mm] 2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)\cdot{}t_i=0 [/mm]

[mm] \summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)\cdot{}=0 [/mm]

[mm] x_1 [/mm] = [mm] \bruch{\summe_{i=1}^{n} b_i - x_0}{\summe_{i=1}^{n} t_i} [/mm]

Könnt ihr die Ergebnisse so bestätigen?

Gruß

Bezug
                                                        
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 18:01 Mo 24.05.2010
Autor: ullim

Hi,

> Also:
>
> [mm]2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)=0[/mm]
>  
> [mm]\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)=0[/mm]
>  
> [mm]x_0=\summe_{i=1}^{n}(b_i[/mm] - [mm]x_1t_i)[/mm]
>  
>

Hier ist richtig

[mm] \summe_{i=1}^{n}x_0+\summe_{i=1}^{n}x_1*t_i-\summe_{i=1}^{n}b_i=nx_0+x_1\summe_{i=1}^{n}t_i-\summe_{i=1}^{n}b_i=0 \Rightarrow [/mm]

[mm] x_0=\bruch{1}{n}\summe_{i=1}^{n}b_i-x_1\bruch{1}{n}\summe_{i=1}^{n}t_i=\overline{b}-x_1\overline{t} [/mm]

wobei [mm] \overline{x} [/mm] den arithmetischen Mittelwert bezeichnet. Für [mm] \overline{t} [/mm] und [mm] \overline{b} [/mm] gilt es entsprechend.

> > [mm]\bruch{\partial}{\partial x_1}F(x_0,x_1)=2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)\cdot{}t_i=0[/mm]
>  
> Und hier:
>  
> [mm]2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)\cdot{}t_i=0[/mm]
>  
> [mm]\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)\cdot{}=0[/mm]
>  

Hier kann man [mm] t_i [/mm] nicht einfach kürzen, weil es in der Summe steht und somit kein gemeinsamer Fakor ist. Außerdem sieht dann die Lösung genauso aus wie für [mm] x_0 [/mm] und könnte das Gleichungssystem nicht lösen.




Bezug
                                                                
Bezug
Regressionsgerade: Frage (reagiert)
Status: (Frage) reagiert/warte auf Reaktion Status 
Datum: 19:59 Mo 24.05.2010
Autor: jaruleking

hi nochmal,

also bei [mm] x_1 [/mm] komme ich gerade irgendwie auch nicht auf das richtige Ergebnis, denn ich habe meins mit dem vom Wikipedia verglichen, und komme nicht auf das gleiche.

habe es dieses mal so gemacht:

[mm] 2\summe_{i=1}^{n}(x_0+x_1\cdot{}t_i-b_i)\cdot{}t_i=0 [/mm]

[mm] \summe_{i=1}^{n}x_0 t_i +\summe_{i=1}^{n}x_1\cdot{}t^2_i-\summe_{i=1}^{n}b_i t_i [/mm] = 0

[mm] \summe_{i=1}^{n}x_1\cdot{}t^2_i=\summe_{i=1}^{n}b_i t_i [/mm] - [mm] \summe_{i=1}^{n}x_0 t_i [/mm]

[mm] x_1 \summe_{i=1}^{n}\cdot{}t^2_i=\summe_{i=1}^{n}b_i t_i [/mm] - [mm] x_0 \summe_{i=1}^{n}t_i [/mm]

und damit komme ich dann auf:

[mm] x_1 [/mm] = [mm] \bruch{\summe_{i=1}^{n}b_i t_i - x_0 \summe_{i=1}^{n}t_i }{\summe_{i=1}^{n}\cdot{}t^2_i} [/mm]

kann das so auch stimmen? oder wo steckt der Fehler??

Gruß

Bezug
                                                                        
Bezug
Regressionsgerade: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 20:46 Mo 24.05.2010
Autor: jaruleking

Ok, ich habs doch hinbekommen. Man musste ja nur [mm] x_o [/mm] auch dann einsetzen.

Danke für alles.

Gruß

Bezug
                                                                        
Bezug
Regressionsgerade: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:55 Mo 24.05.2010
Autor: jaruleking

Hi nochmal,

also wie gesagt, die Frage oben hat sich jetzt erledigt. Jedoch habe ich eine andere Frage zu einer Aufgabe, die auf diese Aufgabe aufbaut.

In der folgenden Tabelle gibt t die Länge eines Säuglings bei der Geburt und b die Schwangerschaftsdauer an:

t [cm] -> b [Tage]
48 -> 277.1
49 -> 279.3
50 -> 281.4
51 -> 283.2

Hierbei kann man sich vorstellen, dass die Daten in den 4 Gruppen schon Mittelwerte aus zahlreichen weiteren Messungen sind.

Es wird ein linearer Zusammenhang zwischen der Länge bei der Geburt und der Schwangerschaftsdauer vermutet. Man bestimme mit der Methode der kleinsten Quadrate die beidne Parameter bzw. löse das entsprechende lineare Ausgleichsproblem. Hierbei kann die vohrige Aufgabe benutzt werden.


So, in der vohrigen Aufgabe haben wir ja die folgende Gerade aufgestellt:

[mm] y(t)=(Ax)_i=x_o [/mm] + [mm] x_1 t_i [/mm] mit

[mm] x_0=\bruch{1}{n}\summe_{i=1}^{n}b_i-x_1\bruch{1}{n}\summe_{i=1}^{n}t_i=\overline{b}-x_1\overline{t} [/mm]  und

[mm] x_1= \bruch{\summe_{i=1}^{n}b_i t_i - \overline{b}\summe_{i=1}^{n}t_i}{\summe_{i=1}^{n}t^2_i - \overline{t}\summe_{i=1}^{n}t_i}=\bruch{(\summe_{i=1}^{n}b_i t_i) - n*\overline{b} \overline{t}}{(\summe_{i=1}^{n}t^2_i) - n*(\overline{t})^2} [/mm]

So, wie kann ich jetzt aus der oben gegeben Tabelle [mm] x_o [/mm] und [mm] x_1 [/mm] bestimmen??

Bzw. was ist hier eigentlich [mm] t_i [/mm] und was [mm] \overline{t}, [/mm] ebenso  [mm] b_i [/mm] und was [mm] \overline{b} [/mm]

Danke schon mal für Hilfe.

Gruß

Bezug
                                                                                
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 23:28 Mo 24.05.2010
Autor: Event_Horizon

Hallo!


[mm] t_i [/mm] und [mm] b_i [/mm] sind die einzelnen Einträge in den Spalten deiner Wertetabelle. Mit [mm] \hat{t} [/mm] und [mm] \hat{b} [/mm] sind die Mittelwerte der ganzen Spalten gemeint.

$ [mm] x_0=\overline{b}-x_1\overline{t} [/mm] $  sagt übrigens aus, daß die Grade auf jeden Fall durch den Punkt [mm] (\hat{t}|\hat{b}) [/mm] geht, also sowas wie dem Schwerpunkt aller Wertepaare.



Welche Spalte nun die [mm] t_i [/mm] und welche die [mm] b_i [/mm] sind, ist übrigens EIGENTLICH nicht ganz egal.

Tatsächlich ist es nicht ganz egal, denn je nach dem, wie man das wählt, hast du eine Funktion Größe(Tragezeit) oder Tragezeit(Größe). Und: im ersten Fall wird die Differenz der Größe zwischen Grade und tatsächlichen Daten minimiert, im zweiten Fall wird die Differenz in der Tragezeit minimiert. Da müssen aber nicht zwangsläufig die gleichen ergebnisse bei raus kommen.

Ist der Zusammenhang perfekt linear, so sind Größe(Tragezeit) und Tragezeit(Größe) einfach Umkehrfunktionen zueinander.

Ist der Zusammenhang nicht perfekt linear, so ergeben sich unterschiedliche Ergebnisse, die beiden Funktionen sind nicht mehr Umkehrfunktionen voneinander.  Hieraus läßt sich der Regressionskoeffizient herleiten, der angibt, wie gut die Linearität tatsächlich ist.




Bezug
                                                                                        
Bezug
Regressionsgerade: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 00:23 Di 25.05.2010
Autor: jaruleking

Hi,

also dann nochmal.

t [cm] -> b [Tage]
48 -> 277.1
49 -> 279.3
50 -> 281.4
51 -> 283.2

Also ich habe es jetzt eigentlich genau umgekehrt gemacht, als es in der Spalte ist. Also die [cm] sind bei dir [mm] b_i [/mm] und die [Tage] sind bei mir die [mm] t_i. [/mm] Hoffe man kann das so machen??

So und dann komme ich auf die folgenden Ergebnisse:

$ [mm] x_0=\bruch{1}{n}\summe_{i=1}^{n}b_i-x_1\bruch{1}{n}\summe_{i=1}^{n}t_i=\overline{b}-x_1\overline{t} [/mm] $  

mit [mm] \overline{b}=\bruch{198}{4}=49,5 [/mm] und [mm] \overline{t}=\bruch{1121}{4}=280,25 [/mm]

Damit komme ich dann auf [mm] x_0=49,5 [/mm] - [mm] x_1 [/mm] * 280,25

[mm] x_1= \bruch{\summe_{i=1}^{n}b_i t_i - \overline{b}\summe_{i=1}^{n}t_i}{\summe_{i=1}^{n}t^2_i - \overline{t}\summe_{i=1}^{n}t_i} [/mm]

[mm] =\bruch{(\summe_{i=1}^{n}b_i t_i) - n\cdot{}\overline{b} \overline{t}}{(\summe_{i=1}^{n}t^2_i) - n\cdot{}(\overline{t})^2} [/mm]

= [mm] \bruch{55499,7 - 55489,5}{314181,1 - 314160,25}=0,4892 [/mm]

Und damit kann ich [mm] x_0 [/mm] auch nochmal genauer angeben: [mm] x_0=-87,5983 [/mm]

Könnt ihr diese Werte auch bestätigen??

Und damit würde meine Gleichung ja auch wie folgt lauten:

[mm] y(t)=(Ax)_i=x_o [/mm] + [mm] x_1 t_i=(0,4892)*t_i [/mm] - (87,5983)

Was ich mich jetzt frage, falls ich mich nicht verrechnet und vertan haben sollte. Was sagen mir diese Werte jetzt? Denn irgendwie kann ich damit gerade nichts anfangen.

Vielleicht kann ja wer wieder aushelfen.

Grüße

Bezug
                                                                                                
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 00:40 Di 25.05.2010
Autor: Event_Horizon

Hallo!

Ja, das ist vollkommen korrekt.

Du hast damit eine Grade bestimmt, die deine Datenpunkte beschreibt.

Ich klebe hier mal was aus Excel/openOffice rein, denn das kann das automatisch.
[Dateianhang nicht öffentlich]

Im unteren linken Diagramm ist die Körpergröße gegen die Tragezeit aufgetragen. Das sind die Punkte. Dazu wurde die Regressionsgrade berechnet, die siehst du auch nebst Formel. Und du siehst, die Formel ist die gleiche wie die, die du da raus hast.

Bei genauer Betrachtung wirst du sehen, daß die Punkte nicht 100% exakt auf der Graden liegen. Aber deine Rechnung hat die Grade ermittelt, die am besten auf die Punkte paßt. Und das ist Sinn und Zweck der ganzen Sache hier.

Rechts habe ich die Daten auch mal umgekehrt gegeneinander aufgetragen, und ebenfalls die Grade berechnen lassen. Berechne mal die Umkehrfunktion dieser Graden. Sind die beiden Zahlen darin etwa gleich denen der anderen Graden? Wenn ja, ist das ein eindeutiges Zeichen dafür, daß hier ein linearer Zusammenhang besteht. (Zugegeben. Erstens SIEHT man, daß das paßt, zweitens ist der Vergleich der Zahlen erstmal subjektiv. Aber es ist sicher ne gute Spielerei)

Dateianhänge:
Anhang Nr. 1 (Typ: png) [nicht öffentlich]
Bezug
                                                                                                        
Bezug
Regressionsgerade: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 00:49 Di 25.05.2010
Autor: jaruleking

Super Vielen Dank für die nette Erklärung. Und vor allem, für die graphische Darstellung. Echt nett.

Und damit allen auch einen guten Abend ;-).

Grüße

Bezug
        
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 22:29 So 23.05.2010
Autor: Marcel08

Hallo!



Die KQ-Schätzer für dein lineares Regressionsmodell mit Konstante


[mm] \hat{y_{i}}=\beta_{0}+\beta_ {1}x_{i} [/mm]



erhälst du durch Minimierung der Summe der quadratischen Residuen. Dazu hat man den Ansatz


[mm] \hat\beta=(X^{T}X)^{-1}X^{T}Y [/mm]





Gruß, Marcel

Bezug
        
Bezug
Regressionsgerade: Antwort
Status: (Antwort) fertig Status 
Datum: 00:02 Mo 24.05.2010
Autor: ullim

Hi,

vielleicht noch zur Herleitung der von Marcel08 angegebenen Lösung.

[mm] \bruch{1}{2} \parallel [/mm] Ax-b [mm] \parallel=\bruch{1}{2}(Ax-b)^T(Ax-b)=\bruch{1}{2}(x^TA^TAx-x^TA^Tb-b^TAx+b^Tb) [/mm]

die Ableitung nach x ergibt

[mm] \bruch{d}{d x}\bruch{1}{2} \parallel [/mm] Ax-b [mm] \parallel=\bruch{1}{2}(x^TA^TA+x^TA^TA-b^TA-b^TA)=x^TA^TA-b^TA [/mm]

Um den Ausdruck zu minimalisieren muss gelten [mm] x^T{A^T}A-b^TA=0 [/mm] also

[mm] x^T{A^T}A=b^TA [/mm] also [mm] A^T{A}x=A^Tb [/mm] und daraus folgt

[mm] x=(A^TA)^{-1}A^Tb [/mm]



Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Lineare Gleichungssysteme"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]