Erwartungstreue Schätzer < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | [mm] X_{1},.....X_{n} [/mm] seinen Stichprobenvariablen aus der [mm] Exp(\lambda)-Verteilung.
[/mm]
(a)Man zeige, dass
[mm] T_{n}(X_{1},....X{n}) [/mm] = [mm] (\bruch{1}{n} \summe_{i=1}^{n} X_{i})^{2} [/mm] = [mm] \overline{X}^{2}
[/mm]
kein Erwartungstreuer Schätzer für [mm] \theta(\lambda) [/mm] = [mm] \bruch{1}{\lambda^{2}} [/mm] ist.
(b)Man berechne den Bias des Schätzers [mm] T_{n}.
[/mm]
(c)Geben Sie einen Erwartungstreuen Schätzer für [mm] \theta(\lambda) [/mm] an.
(d) Man ermittle den Maximum-Likelihood-Schätzer für [mm] \lamdbda [/mm] |
Hallo,
Ich weiß bei den Nummern a) und c) nicht wie ich Anfangen soll. Sollte ich da in der Summe statt [mm] X_{i} [/mm] die Dichtefunktion von [mm] Exp(\lambda) [/mm] einsetzen und dann die Summe berechnen (was laut meinem Taschenrechner zu einem größeren Bruch führt der mich mMn nicht zur Lösung bringt)?
b) ergibt sich dann ja wenn ich a) habe und
d) hier erhalte ich als Lösung [mm] \lambda [/mm] = [mm] \bruch{2}{n+1}
[/mm]
Wäre froh über einen Tipp, der mir hier weiterhilft, ob ich auf dem richtigen weg bin (bei d) bzw wie ich die anderen Punkte berechne.
MfG
tom
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:13 Fr 30.01.2009 | Autor: | luis52 |
Moin Tom,
die Schwierigkeit bei a) besteht darin, den Erwartungswert von [mm] $\overline{X}^2$ [/mm] zu berechnen.
[mm] ($\operatorname{E}[\overline{X}^2]=\operatorname{E}[\overline{X}]^2$ [/mm] waere schoen, ist aber bah!).
Es gilt $ [mm] (\bruch{1}{n} \summe_{i=1}^{n} X_{i})^{2}=\frac{1}{n^2}\summe_{i=1}^{n} X_{i}^2+\frac{1}{n^2}\summe_{i\ne j}X_iX_j$
[/mm]
Den Erwartungswert dieser Summen zu berechnen, sollte dir nicht schwer
fallen. (Beachte, dass die Zufallsvariablen unabhaengig sind.)
Bei d) bist du vollkommen auf dem Holzweg. Wie hast du denn gerechnet?
Kannst du mal schreiben, was ihr im Zusammenhang mit ML so behandelt habt?
vg Luis
|
|
|
|
|
Hallo,
danke erstmal,
>
> Es gilt [mm](\bruch{1}{n} \summe_{i=1}^{n} X_{i})^{2}=\frac{1}{n^2}\summe_{i=1}^{n} X_{i}^2+\frac{1}{n^2}\summe_{i\ne j}X_iX_j[/mm]
>
> Den Erwartungswert dieser Summen zu berechnen, sollte dir
> nicht schwer
> fallen. (Beachte, dass die Zufallsvariablen unabhaengig
> sind.)
Muss ganz ehrlich sein, dass ich hier noch immer nicht weiter weiß. Vll. kannst du mir noch einen Schritt liefern.
>
> Bei d) bist du vollkommen auf dem Holzweg. Wie hast du denn
> gerechnet?
>
> Kannst du mal schreiben, was ihr im Zusammenhang mit ML so
> behandelt habt?
>
[mm] L(\lambda,x_{1}......x{n}) [/mm] = [mm] \produkt_{i=1}^{n} f_{\lambda}(x_{i})
[/mm]
diesen Ansatz habe ich aus meinem Skriptum verwendet und mich im wesentlichen dann noch bei folgendem Posting beedient:
https://matheraum.de/read?t=62864
was mich auf folgende Form brachte:
$ [mm] n\ln(\lambda)- \lambda \sum_{i=1}^{n} x_i [/mm] $
und daraus habe ich dann [mm] \lambda [/mm] ausgerechnet
mfg
tom
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:18 Fr 30.01.2009 | Autor: | luis52 |
> Hallo,
> danke erstmal,
> >
> > Es gilt [mm](\bruch{1}{n} \summe_{i=1}^{n} X_{i})^{2}=\frac{1}{n^2}\summe_{i=1}^{n} X_{i}^2+\frac{1}{n^2}\summe_{i\ne j}X_iX_j[/mm]
Verstehst du die Umformung nicht? Oder was?
>
> >
> > Den Erwartungswert dieser Summen zu berechnen, sollte dir
> > nicht schwer
> > fallen. (Beachte, dass die Zufallsvariablen unabhaengig
> > sind.)
> Muss ganz ehrlich sein, dass ich hier noch immer nicht
> weiter weiß. Vll. kannst du mir noch einen Schritt
> liefern.
>
> >
> > Bei d) bist du vollkommen auf dem Holzweg. Wie hast du denn
> > gerechnet?
> >
> > Kannst du mal schreiben, was ihr im Zusammenhang mit ML so
> > behandelt habt?
> >
> [mm]L(\lambda,x_{1}......x{n})[/mm] = [mm]\produkt_{i=1}^{n} f_{\lambda}(x_{i})[/mm]
>
> diesen Ansatz habe ich aus meinem Skriptum verwendet und
> mich im wesentlichen dann noch bei folgendem Posting
> beedient:
>
> https://matheraum.de/read?t=62864
>
> was mich auf folgende Form brachte:
>
> [mm]n\ln(\lambda)- \lambda \sum_{i=1}^{n} x_i[/mm]
Das ist nur die Log-Likehoodfunktion. Und wann bestimmst du
deren Maximum?
>
> und daraus habe ich dann [mm]\lambda[/mm] ausgerechnet
Der ML-Schaetzer ist das *Maximum* der Log-Likehoodfunktion,
nicht deren Nullstelle. (Siehe deine andere Aufgabe)
vg Luis
|
|
|
|
|
> > Hallo,
> > danke erstmal,
> > >
> > > Es gilt [mm](\bruch{1}{n} \summe_{i=1}^{n} X_{i})^{2}=\frac{1}{n^2}\summe_{i=1}^{n} X_{i}^2+\frac{1}{n^2}\summe_{i\ne j}X_iX_j[/mm]
>
> Verstehst du die Umformung nicht? Oder was?
Summe ist mir klar, wusst nur nicht wies mich weiter bringt...könnte ich auf einfach sowas in der Art machen:
[mm] Var(\overline{X}) [/mm] = [mm] E(\overline{X}^{2}) [/mm] - [mm] E^{2}(\overline{X})
[/mm]
dann umformen und die Varianz und den Erwartungswert von der [mm] Exp(\lambda) [/mm] Verteilung einsetzen, dann hätte ich im Prinzip gezeigt, dass der Schätzer nicht erwartungstreu ist.
Der Fehler den ich dann erhalte ist [mm] \bruch{2}{\lambda^{2}}-\bruch{1}{\lambda^{2}} [/mm] = [mm] \bruch{1}{\lambda^{2}}
[/mm]
Aber wie bekomme ich nun einen Erwartungstreuen Schätzer für [mm] \theta(\lambda)?
[/mm]
> > [mm]n\ln(\lambda)- \lambda \sum_{i=1}^{n} x_i[/mm]
>
>
> Das ist nur die Log-Likehoodfunktion. Und wann bestimmst
> du
> deren Maximum?
>
Ich hab diese Funktion dann abgeleitet, allerdings hab ich die Summe so angeschrieben [mm] \bruch{n*(n+1)}{2} [/mm] und das brachte mich dann auf mein Ergebnis, lasse ich die Summe, dann ist der ML-Schätzer [mm] \bruch{1}{\overline{X}} [/mm] wenn ich mich nicht verrechnet habe
mfg tom
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:15 Sa 31.01.2009 | Autor: | luis52 |
>
> Summe ist mir klar, wusst nur nicht wies mich weiter
> bringt...könnte ich auf einfach sowas in der Art machen:
> [mm]Var(\overline{X})[/mm] = [mm]E(\overline{X}^{2})[/mm] -
> [mm]E^{2}(\overline{X})[/mm]
> dann umformen und die Varianz und den Erwartungswert von
> der [mm]Exp(\lambda)[/mm] Verteilung einsetzen, dann hätte ich im
> Prinzip gezeigt, dass der Schätzer nicht erwartungstreu
> ist.
> Der Fehler den ich dann erhalte ist
> [mm]\bruch{2}{\lambda^{2}}-\bruch{1}{\lambda^{2}}[/mm] =
> [mm]\bruch{1}{\lambda^{2}}[/mm]
Es gilt
[mm] $\operatorname{E}[X^2]=\operatorname{Var}[X]+\operatorname{E}[X]^2=\frac{1}{\lambda^2}+\frac{1}{\lambda^2}=\frac{2}{\lambda^2}$
[/mm]
und
[mm] $\operatorname{E}[X_iX_j]=\operatorname{E}[X_i]\operatorname{E}[X_j]$.
[/mm]
Kommst du damit jetzt klar?
>
> Aber wie bekomme ich nun einen Erwartungstreuen Schätzer
> für [mm]\theta(\lambda)?[/mm]
>
> > > [mm]n\ln(\lambda)- \lambda \sum_{i=1}^{n} x_i[/mm]
> >
> >
> > Das ist nur die Log-Likehoodfunktion. Und wann bestimmst
> > du
> > deren Maximum?
> >
>
> Ich hab diese Funktion dann abgeleitet, allerdings hab ich
> die Summe so angeschrieben [mm]\bruch{n*(n+1)}{2}[/mm] und das
> brachte mich dann auf mein Ergebnis,
Verstehe ich nach wie vor nicht.
> lasse ich die Summe,
> dann ist der ML-Schätzer [mm]\bruch{1}{\overline{X}}[/mm] wenn ich
> mich nicht verrechnet habe
vg Luis
|
|
|
|