matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenStatistik/Hypothesentestslineare Regression
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Philosophie • Religion • Kunst • Musik • Sport • Pädagogik
Forum "Statistik/Hypothesentests" - lineare Regression
lineare Regression < Statistik/Hypothesen < Stochastik < Oberstufe < Schule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Statistik/Hypothesentests"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

lineare Regression: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:24 Mo 24.05.2010
Autor: domerich

Aufgabe
also man soll irgendwie die konstante beta 1 berechnen, ich kann aber nicht nachvollziehen wie

[Externes Bild http://img691.imageshack.us/img691/4159/st1mt.jpg]

also beta 2 hab ich berechnet zu -0,4 soweit so gut
nun braucht man beta 1
die lösung sagt

[mm] y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i [/mm]

das verstehe ich nicht warum soll diese gleichung gelten?

        
Bezug
lineare Regression: Verzerrung des OLS schätzers
Status: (Frage) beantwortet Status 
Datum: 17:46 Mo 24.05.2010
Autor: domerich

Aufgabe
Berechnen Sie die Verzerrung des OLS-Schätzers bei Gültigkeit der modifizierten Annahme (A1’) E(u) = a [mm] \not=0 [/mm]

davon habe ich keine Ahnung! was ist damit gemeint und wie Berechnet man die Verzerrung? was ist die Verzerrung?

danke (auch für wiki links)

Bezug
                
Bezug
lineare Regression: Antwort
Status: (Antwort) fertig Status 
Datum: 19:32 Mo 24.05.2010
Autor: Marcel08

Hallo!



> Berechnen Sie die Verzerrung des OLS-Schätzers bei
> Gültigkeit der modifizierten Annahme (A1’) E(u) = a
> [mm]\not=0[/mm]
>  davon habe ich keine Ahnung! was ist damit gemeint und wie
> Berechnet man die Verzerrung? was ist die Verzerrung?
>  
> danke (auch für wiki links)



Die KQ-Schätzer eines linearen Regressionsmodells sind geprägt von diversen Eigenschaften. Eine dieser Eigenschaften ist eben die Unverzerrtheit des Schätzers: [mm] E(\hat\beta)=\beta. [/mm] Der Erwartungswert des KQ-Schätzers ist also der Regressionsparameter selbst.  


Diese Eigenschaft geht automatisch mit der Annahme E(u)=0 einher, die einen Einfluß eines Fehlerterms im Mittel ausschließt. Man spricht in diesem Zusammenhang auch von einem "erwartungstreuen Schätzer" Zusammengefasst hat man also:


(1) [mm] E(\hat\beta)=\beta\gdw{E(u)=0} [/mm]



Die in der Aufgabenstellung modifizierte Annahme [mm] E(u)=a\not=0 [/mm] liefert dir nun aber sehr wohl einen Störterm, der wiederum mit einer Verzerrung des Schätzers einhergeht. Der Erwartungswert des Residuums ist nicht 0 und somit existent. Die Äquivalenz in (1) modifiziert sich also zu


[mm] E(u)=a\Rightarrow E(\hat\beta)\not=\beta, [/mm] mit [mm] a\not=0 [/mm]




Durch Minimierung des Summe der quadrierten Residuen erhält man zunächst den Ansatz zur Berechnung der KQ- Schätzer im Hinblick auf ein lineares Regressionsmodell zu


[mm] \hat\beta=(X^{T}X)^{-1}X^{T}y [/mm] mit [mm] y=X\beta+u [/mm]



Durch weitere Verrechnungen sollte es dir nun gelingen, die Verzerrung unter der modifizierten Annahme zu berechnen.



Hinweis: Die Unverzerrtheit des KQ-Schätzers ist mit E(u)=0 gegeben zu:


[mm] E(\hat\beta)=E(\beta)+E((X^{T}X)^{-1}X^{T}u)=\beta+(X^{T}X)^{-1}X^{T}E(u)=\beta [/mm]





Gruß, Marcel

Bezug
                        
Bezug
lineare Regression: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:09 Di 25.05.2010
Autor: domerich

danke, das war schön ausführlich. beim rechnen hatte ich trotzdem ein paar probleme:

[mm] \beta_{dach}=(X'X)^{-1}X'(X\beta [/mm] +u)

[mm] =(X'X)^{-1}X'u+(X'X)^{-1}X'X\beta [/mm]

aja ich seh grad ich hatte es falschrum aufgeschoben, die (X'X) kürzen sich

und es bleibt

[mm] (X'X)^{-1}X'u+\beta [/mm]


dann ist

[mm] E(\beta_{dach})=\beta +(X'X)^{-1}X'a [/mm]

jetzt kapier ich das Ende nicht:

die Verzerrung: [mm] E(\beta_{dach})-\beta [/mm] = [mm] (X'X)^{-1}X'a [/mm]

dass das rauskommt ist klar wenn man [mm] \beta [/mm] abzieht aber warum die verzerrung so definiert ist ist mir grad nicht klar.

Einmal haben wir die Verzerrung mit E(u)=Verzerrung oder?
und das  [mm] E(\beta_{dach}) [/mm] eben nicht [mm] \beta [/mm] ist...

danke :)

Bezug
                                
Bezug
lineare Regression: Transformation, Erwartungswert
Status: (Antwort) fertig Status 
Datum: 15:59 Di 25.05.2010
Autor: Marcel08

Hallo!



> danke, das war schön ausführlich. beim rechnen hatte ich
> trotzdem ein paar probleme:
>  
> [mm]\beta_{dach}=(X'X)^{-1}X'(X\beta[/mm] +u)
>  
> [mm]=(X'X)^{-1}X'u+(X'X)^{-1}X'X\beta[/mm]
>
> aja ich seh grad ich hatte es falschrum aufgeschoben, die
> (X'X) kürzen sich
>  
> und es bleibt
>  
> [mm](X'X)^{-1}X'u+\beta[/mm]
>  
>
> dann ist
>  
> [mm]E(\beta_{dach})=\beta +(X'X)^{-1}X'a[/mm]
>  
> jetzt kapier ich das Ende nicht:
>  
> die Verzerrung: [mm]E(\beta_{dach})-\beta[/mm] = [mm](X'X)^{-1}X'a[/mm]
>  
> dass das rauskommt ist klar wenn man [mm]\beta[/mm] abzieht aber
> warum die verzerrung so definiert ist ist mir grad nicht
> klar.



Eine wichtige Erkenntnis lässt sich aus einer weiteren Eigenschaft des Schätzers, nämlich jener der Linearität ziehen. Im Allgemeinen hat man mit dem Regressionsmodell einer linearen Einfachregression


[mm] \hat\beta=Ay, [/mm] mit [mm] A=(X^{T}X)^{-1}X^{T} [/mm] und [mm] y=X\beta+u [/mm]



Durch Einsetzen erhält man dann


[mm] \hat\beta=(X^{T}X)^{-1}X^{T}(X\beta+u) [/mm]



Anwendung des Distributivgesetzes und anschließende Vereinfachung liefert dann


[mm] \beta=(X^{T}X)^{-1}X^{T}X\beta+(X^{T}X)^{-1}X^{T}u=\beta+(X^{T}X)^{-1}X^{T}u [/mm]



Im weiteren Verlauf erhält man durch eine lineare Transformation des Erwartungswertes gemäß


[mm] E(X\pm{Y})=E(X)\pm{E}(Y) [/mm]



die Eigenschaft der Unverzerrtheit des KQ-Schätzers zu


[mm] E(\hat\beta)=E(\beta)+E((X^{T}X)^{-1}X^{T}u)=\beta+(X^{T}X)^{-1}X^{T}E(u)=\beta, [/mm] mit E(u)=0



> Einmal haben wir die Verzerrung mit E(u)=Verzerrung oder?
>  und das  [mm]E(\beta_{dach})[/mm] eben nicht [mm]\beta[/mm] ist...
>  
> danke :)





Gruß, Marcel


Bezug
                                        
Bezug
lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 12:52 Mi 26.05.2010
Autor: domerich

aja jetzt hab ichs kapiert danke

Bezug
        
Bezug
lineare Regression: Antwort
Status: (Antwort) fertig Status 
Datum: 19:36 Mo 24.05.2010
Autor: Marcel08

Hallo!



> also man soll irgendwie die konstante beta 1 berechnen, ich
> kann aber nicht nachvollziehen wie
>  
> [Externes Bild http://img691.imageshack.us/img691/4159/st1mt.jpg]
>  also beta 2 hab ich berechnet zu -0,4 soweit so gut
>  nun braucht man beta 1
>  die lösung sagt
>  
> [mm]y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i[/mm]
>  
> das verstehe ich nicht warum soll diese gleichung gelten?



Müsste jetzt klar sein, oder?





Gruß, Marcel


Bezug
                
Bezug
lineare Regression: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:41 Di 25.05.2010
Autor: domerich

leider nicht wirklich... verstehe nicht was man überhaupt macht

also normalerweise gilt ja

[mm] y_i=x_i\beta+u_i [/mm]

und hier gibt es irgendeine definition dass eben [mm] y_i [/mm] nun [mm] y_i-\overline{y} [/mm] ist und x analog
wenn ich das mal so hinnehme dann verstehe ich auch

[mm] y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i [/mm]

aber warum ist nun [mm] \overline{y}+\overline{x} [/mm] meine konstante [mm] \beta_1 [/mm] ?

0.4*5+3 gibt dann natürlich 5...

Bezug
                        
Bezug
lineare Regression: Mittelwerttransformation
Status: (Antwort) fertig Status 
Datum: 11:26 Do 27.05.2010
Autor: Marcel08

Hallo!




> leider nicht wirklich... verstehe nicht was man überhaupt
> macht



Nun ja, offensichtlich wird in diesem Fall eine Datentransformation durchgeführt, die darin besteht, dass man von jeder einzelnen Beobachtung [mm] x_{i} [/mm] einer Datenreihe den Mittelwert dieser Datenreihe [mm] \overline{x}\equiv\bruch{1}{N}\summe_{i}^{}x_{i} [/mm] subtrahiert.



Auf eine solche "Mittelwerttransformation" wird man beispielsweise aufmerksam, wenn man sich die Mühe macht, die Berechnung des Regressionsparameters [mm] \beta_{1} [/mm] aus dem Regressionsmodell


[mm] y_{i}=\beta_{0}+\beta_{1}x_{i}+u_{i} [/mm]



allgemein herzuleiten. Man erhält diesbezüglich den folgenden Ausdruck


[mm] \beta_{1}=\bruch{\summe_{i}^{}(x_{i}-\overline{x})(y_{i}-\overline{y})}{\summe_{i}^{}(x_{i}-\overline{x})^{2}}=\bruch{\bruch{1}{N}\summe_{i}^{}(x_{i}-\overline{x})(y_{i}-\overline{y})}{\bruch{1}{N}\summe_{i}^{}(x_{i}-\overline{x})^{2}}=\bruch{Cov(y,x)}{Var(x)} [/mm]



Wichtig bei der Mittelwerttransformation ist vor allem die Erkenntnis darüber, dass der Mittelwert einer mittelwerttransformierten Variablen immer 0 ist, denn man hat


[mm] \bruch{1}{N}\summe_{i}^{}(y_{i}-\overline{y})=\bruch{1}{N}\summe_{i}^{}y_{i}-\bruch{1}{N}\summe_{}^{}\overline{y}=\overline{y}-\bruch{1}{N}N\overline{y}=\overline{y}-\overline{y}=0 [/mm]




Und die Moral von der Geschicht':


Für die Berechnung des Steigungsparameters [mm] \beta_{1} [/mm] ist es vollkommen irrelevant, ob du die mittelwerttransformierten oder doch lieber die ursprünglichen Datenreihen verwendest. Die KQ- Schätzung führt über beide Wege immer zum gleichen Ziel.



Den Intercept-Wert [mm] \beta_{0} [/mm] (dieser fällt im Zuge der Mittelwerttransformation heraus und kann deshalb nicht auf diese Weise ermittelt werden) kannst du dann wie gewohnt mit Hilfe der ursprünglichen Daten über die Gleichung


[mm] \beta_{0}=\overline{y}-\beta_{1}\overline{x} [/mm] berechnen.



Du kannst dir das Ganze natürlich auch graphisch vor Augen halten. Dadurch, dass du die Mittelwerte von den entsprechenden Daten abziehst, werden die Koordinaten der transformierten Variable im Verhältnis zu einem neuen Koordinatensystem ermittelt. Der Ursprung des neuen Koordinatensystems liefert der Mittelwert der ursprünglichen Variable [mm] (\overline{x},\overline{y}). [/mm]




> also normalerweise gilt ja >  

> [mm]y_i=x_i\beta+u_i[/mm]
>  
> und hier gibt es irgendeine definition dass eben [mm]y_i[/mm] nun
> [mm]y_i-\overline{y}[/mm] ist und x analog
>  wenn ich das mal so hinnehme dann verstehe ich auch
>  
> [mm]y_i-\overline{y}=-0.4(x_i-\overline{x})+u_i[/mm]
>
> aber warum ist nun [mm]\overline{y}+\overline{x}[/mm] meine
> konstante [mm]\beta_1[/mm] ?
>  
> 0.4*5+3 gibt dann natürlich 5...





Gruß, Marcel


Bezug
        
Bezug
lineare Regression: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 13:21 Mi 26.05.2010
Autor: domerich

Aufgabe
Leiten Sie die Kovarianzmatrix des OLS-Schätzers bei Gültigkeit der modifizierten Annahme [mm] (A2')E(uu')=\Omega\not\sigma^2I [/mm]

hab noch kurz ne frage zu 2b, hab sie zwar raus aber:

warum kann jetzt angenommen werden, dass [mm] \beta{dach} [/mm] etwartungstreu ist? wie kann ich das der aufgabe entnehmen? in a) war es ja offensichtlich nicht der fall.

dann noch eine frage zum vektor rechnen, nach welchen regeln ergibt denn

[mm] [(X'X)^{-1}X'u]*[(X'X)^{-1}X'u]' [/mm]

[mm] [(X'X)^{-1}X'uuX'(X'X)^{-1}] [/mm] (in der lösung uu' ich denke das ist ein schreibfehler, sicher bin ich mir natürlich nicht)

dankeschön :)

Bezug
                
Bezug
lineare Regression: Antwort
Status: (Antwort) fertig Status 
Datum: 22:29 Mi 26.05.2010
Autor: Marcel08

Hallo!



> Leiten Sie die Kovarianzmatrix des OLS-Schätzers bei
> Gültigkeit der modifizierten Annahme
> [mm](A2')E(uu')=\Omega\not\sigma^2I[/mm]
>  hab noch kurz ne frage zu 2b, hab sie zwar raus aber:
>  
> warum kann jetzt angenommen werden, dass [mm]\beta{dach}[/mm]
> etwartungstreu ist? wie kann ich das der aufgabe entnehmen?
> in a) war es ja offensichtlich nicht der fall.




Gegenfrage an dich: Woher entnimmst du, dass A1:E(u)=0 in dieser Aufgabe modifiziert wurde?



Hinweis 1: In der Aufgabenstellung wird lediglich die Annahme


[mm] A2:E(uu^{T})\sigma^{2}I,\sigma^{2}<\infty [/mm] zu [mm] A2':E(uu^{T})=\Omega\not=\sigma^{2}I [/mm] modifiziert.



Hier distanziert man sich also im Zuge einer Modifikation von den Störtermannahmen der "Homoskedastizität" sowie der "Nichtautokorreliertheit".


Um brauchbare Ergebnisse im Zuge einer Regresionsanalyse zu erhalten, muss neben der Annahme E(u)=0 auch die Unkorreliertheit der Residuen gegeben sein. Ferner wird im Allgemeinen eine Varianzgleichheit der besagten Störterme angenommen. Wird beispielsweise letztere verletzt, so liefert die KQ- Schätzung  keine stichhaltigen Schätzer für das entsprechende Regressionsmodell.




> dann noch eine frage zum vektor rechnen, nach welchen
> regeln ergibt denn
>  
> [mm][(X'X)^{-1}X'u]*[(X'X)^{-1}X'u]'[/mm]
>
> [mm][(X'X)^{-1}X'uuX'(X'X)^{-1}][/mm] (in der lösung uu' ich denke
> das ist ein schreibfehler, sicher bin ich mir natürlich
> nicht)



Hinweis 2: Was weisst du über die Transposition (symmetrischer) Matrizen?



  

> dankeschön :)





Gruß, Marcel

Bezug
                        
Bezug
lineare Regression: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 12:02 Di 01.06.2010
Autor: domerich

bei einer symmetrischen matrix ist die transponierte gleich der matrix. ist das hier der fall? warum?

kapier dann immer noch nicht wie man das da errechnet :(

Bezug
                                
Bezug
lineare Regression: Antwort
Status: (Antwort) fertig Status 
Datum: 14:52 Di 01.06.2010
Autor: Marcel08

Hallo!



> bei einer symmetrischen matrix ist die transponierte gleich
> der matrix. ist das hier der fall? warum?

> kapier dann immer noch nicht wie man das da errechnet :(



Eine (reelle) Kovarianzmatrix ist immer symmetrisch, weil natürlich auch die Kovarianz zweier Zufallsvariablen immer symmetrisch ist.


Mittels einer Hauptachsentransformation ist jede symmetrische Matrix zudem diagonalisierbar. Man kann also, aufbauend auf der Eigenschaft der Symmetrie, sogar die Eigenschaft der positiven Semidefinitheit zeigen.





Gruß, Marcel

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Statistik/Hypothesentests"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]