Unabhängigkeit ZV,Funktion,EW < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 02:34 Fr 19.04.2013 | Autor: | sissile |
Aufgabe | Lemma:
Wenn [mm] (X_i)_{i \in I} [/mm] unabhängig sind, dann
E( [mm] \prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i))
[/mm]
[mm] \forall [/mm] J [mm] \subset [/mm] I, [mm] g_i [/mm] : [mm] \IR [/mm] -> [mm] \IR [/mm] sofern die Erwartungswerte existieren) |
Beweis im Skriptum:
E( [mm] \prod_{i \in J} g_i (X_i))= \sum_{x_i\in J} P(X_i=x_i \forall i\in [/mm] J) [mm] \prod_{i\in J} g_i (x_i) [/mm] = [mm] \sum_{x_i, i \in J} \prod_{i \in J} P(X_i= x_i) g_i (x_i)
[/mm]
= [mm] \prod_{i\inJ} E[g_i(x_i)]
[/mm]
Fragen zum Beweis:
Wir komme ich auf das erste gleichheitszeichen. Die Definition vom Erwartungswert ist mir bekannt, aber ich seh nicht wie man auf die Form kommt die oben steht. Weil auf die Zufallsvariable [mm] X_i [/mm] eine Funktion angewendet wird! Also wieso z.B in P drinnen die [mm] g_i [/mm] nicht mehr vorkommen! Und warum summiert man über J und nicht [mm] X(\Omega) [/mm] wie sonst?
Frage:
Gilt auch das Umgekehrte?
Also wenn E( [mm] \prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i))
[/mm]
[mm] \forall [/mm] J [mm] \in [/mm] I, [mm] g_i [/mm] : [mm] \IR [/mm] -> [mm] \IR [/mm] gilt,
sind dann [mm] (X_i)_{i\inI} [/mm] unabhängig für alle J [mm] \subset [/mm] I endlich?
Edit:
Definition1: Eine Kollektion [mm] (X_i)_{i \in I} [/mm] von Zufallsvariablen auf [mm] (\Omega, \mathcal{A},P) [/mm] heißt unabhängig, falls die ereignisse [mm] (\{X_i=x_i\})_{i\inI} [/mm] unabhängig sind für jede Wahl von [mm] x_i \in X_i (\Omega)
[/mm]
Defintion2: Eine Kollektion von Eriegnissen [mm] (A_i)_{i \in I} [/mm] heißt unabhängig falls
P( [mm] \bigcap_{i \in J} A_i [/mm] )= [mm] \prod_{i \in J} P(A_i) [/mm] für alle J [mm] \subset [/mm] I endlich
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 08:43 Fr 19.04.2013 | Autor: | luis52 |
> Lemma:
> Wenn [mm](X_i)_{i \in I}[/mm] unabhängig sind, dann
> E( [mm]\prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i))[/mm]
>
> [mm]\forall[/mm] J [mm]\subset[/mm] I, [mm]g_i[/mm] : [mm]\IR[/mm] -> [mm]\IR[/mm] sofern die
> Erwartungswerte existieren)
> Beweis im Skriptum:
> E( [mm]\prod_{i \in J} g_i (X_i))= \sum_{x_i\in J} P(X_i=x_i \forall i\in[/mm]
> J) [mm]\prod_{i\in J} g_i (x_i)[/mm] = [mm]\sum_{x_i, i \in J} \prod_{i \in J} P(X_i= x_i) g_i (x_i)[/mm]
>
> = [mm]\prod_{i\inJ} E[g_i(x_i)][/mm]
>
> Fragen zum Beweis:
> Wir komme ich auf das erste gleichheitszeichen. Die
> Definition vom Erwartungswert ist mir bekannt,
Moin, leider verraetst du nicht, wie *du* den Erwartungswert berechnen wurdest
> aber ich seh
> nicht wie man auf die Form kommt die oben steht. Weil auf
> die Zufallsvariable [mm]X_i[/mm] eine Funktion angewendet wird! Also
> wieso z.B in P drinnen die [mm]g_i[/mm] nicht mehr vorkommen! Und
> warum summiert man über J und nicht [mm]X(\Omega)[/mm] wie sonst?
Schau mal hier, Seite 160, als Start.
>
> Frage:
> Gilt auch das Umgekehrte?
> Also wenn E( [mm]\prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i))[/mm]
>
Nur so viel: Gilt $E[XY]=E[X]E[Y]$ so sind $X_$ und $Y_$ unkorreliert, nicht notwendigerweise unabhaengig.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:04 Fr 19.04.2013 | Autor: | sissile |
Hallo,
das blöde ist ja nur, wir haben [mm] E(g_i (x_i)) [/mm] ja nicht defeniert, wie in dem Skript. Wir haben nur Erwartngswert von einer Zufallsvariablen defeniert.
Ist [mm] g_i (x_i) [/mm] eine Zufallsvariable?
E ( [mm] \prod_{i \in J} g_i (x_i)) [/mm] = [mm] \prod_{i \in J} [/mm] E [mm] [g_i (x_i)] [/mm]
> so sind $ X_ $ und $ Y_ $ unkorreliert, nicht notwendigerweise unabhaengig.
was bedeutet unkorreliert? Wir hatten den begriff nicht,also kann ich ihn auch nicht heranziehen um das zuzeigen oder widerlegen was ich möchte.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 10:09 Sa 20.04.2013 | Autor: | luis52 |
> Ist [mm]g_i (x_i)[/mm] eine Zufallsvariable?
Ja. Betrachte mit $X_$ die Augenzahl beim Werfen eines Wuerfels. $X_$ ist eine Zufallsvariable, aber auch $g(X)_$ mit [mm] $g(x)=x^2$.
[/mm]
Ich versuch's mal ohne den Quantoren-Overkill.
Zunarechst: Wenn diskret verteilte Zufallsvariablen [mm] $X_1,\dots,X_n$
[/mm]
Zufallsvariablen gegeben sind, so sei [mm] $g(X_1,\dots,X_n)$ [/mm] mit
[mm] $g:\IR\to\IR$ [/mm] eine daraus konstruierte Zufallsvariable (z.B.
[mm] $X_1+\dots+X_n$, [/mm] s.u.). Deren Erwartungswert wird berechnet nach
[mm] $E[g(X_1,\dots,X_n)]=\sum_{x_1,\dots,x_n}g(x_1,\dots,x_n)P(X_1=x_1,\dots,X_n=x_n)$.
[/mm]
In deinem Fall ist [mm] $g(x_1,\dots,x_n)=\prod_{i=1}^ng(x_i)$ [/mm] und [mm] $P(X_1=x_1,\dots,X_n=x_n)=\prod_{i=1}^nP(X_i=x_i)$, [/mm] da [mm] $X_1,\dots,X_n$ [/mm] unabhaengig sind ...
>
> E ( [mm]\prod_{i \in J} g_i (x_i))[/mm] = [mm]\prod_{i \in J}[/mm] E [mm][g_i (x_i)][/mm]
>
> > so sind [mm]X_[/mm] und [mm]Y_[/mm] unkorreliert, nicht notwendigerweise
> unabhaengig.
> was bedeutet unkorreliert? Wir hatten den begriff
> nicht,also kann ich ihn auch nicht heranziehen um das
> zuzeigen oder widerlegen was ich möchte.
Verstehe. Betrachte das Experiment Zweimaliges Werfen einer Muenze, bei dem jeweils Kopf oder Wappen auftritt. Es bezeichne $U_$ bzw. $V$ die Anzahl der Koepfe im ersten bzw. zweiten Wurf. Setze $X=U+V$ und $Y=U-V$. Im Nu wirst du bestaetigen, dass $X_$ und $Y_$ nicht unabhaengig sind, dass jedoch $E[XY]=E[X]E[Y]$.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:58 Sa 20.04.2013 | Autor: | sissile |
> $ [mm] E[g(X_1,\dots,X_n)]=\sum_{x_1,\dots,x_n}g(x_1,\dots,x_n)P(X_1=x_1,\dots,X_n=x_n) [/mm] $.
Gilt diese Definition nur wenn [mm] X_1 [/mm] ,.., [mm] X_n [/mm] unabhängig ist oder gilt dies allgemein? Ist das überhaupt eine Definition?
Wo verwendet man im Beweis dann die Unabhängigkeit von [mm] X_i´s?
[/mm]
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:07 Sa 20.04.2013 | Autor: | luis52 |
> >
> [mm]E[g(X_1,\dots,X_n)]=\sum_{x_1,\dots,x_n}g(x_1,\dots,x_n)P(X_1=x_1,\dots,X_n=x_n) [/mm].
> Gilt diese Definition nur wenn [mm]X_1[/mm] ,.., [mm]X_n[/mm] unabhängig ist
> oder gilt dies allgemein?
Allgemein.
> Ist das überhaupt eine Definition?
Ja.
>
> Wo verwendet man im Beweis dann die Unabhängigkeit von
> [mm]X_i´s?[/mm]
In $ [mm] P(X_1=x_1,\dots,X_n=x_n)=\prod_{i=1}^nP(X_i=x_i) [/mm] $.
vg Luis
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:21 Sa 20.04.2013 | Autor: | sissile |
Ahh, jetzt verstehe ich es ;)
Schritte ausgeschrieben:
[mm] E(\prod_{i\inI} g_i (x_i))= \sum_{x_i, i \in J}[ \prod_{i\in I} g_i (x_i)] P(\bigcap_{i \in I} \{x_i = X_i \}) [/mm] = [mm] \sum_{x_i, i \in J} \prod_{i\in I}[ g_i (x_i) P(X_i= x_i)]
[/mm]
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:03 Fr 19.04.2013 | Autor: | tobit09 |
Hallo sissile,
$J$ ist sicherlich als endlich vorausgesetzt, oder?
> Beweis im Skriptum:
> E( [mm]\prod_{i \in J} g_i (X_i))= \sum_{x_i\in J} P(X_i=x_i \forall i\in[/mm]
> J) [mm]\prod_{i\in J} g_i (x_i)[/mm] = [mm]\sum_{x_i, i \in J} \prod_{i \in J} P(X_i= x_i) g_i (x_i)[/mm]
>
> = [mm]\prod_{i\inJ} E[g_i(x_i)][/mm]
>
> Fragen zum Beweis:
> Wir komme ich auf das erste gleichheitszeichen. Die
> Definition vom Erwartungswert ist mir bekannt, aber ich seh
> nicht wie man auf die Form kommt die oben steht. Weil auf
> die Zufallsvariable [mm]X_i[/mm] eine Funktion angewendet wird! Also
> wieso z.B in P drinnen die [mm]g_i[/mm] nicht mehr vorkommen! Und
> warum summiert man über J und nicht [mm]X(\Omega)[/mm] wie sonst?
Es muss [mm] $x_i$, $i\in [/mm] J$ statt [mm] $x_i\in [/mm] J$ heißen. Man könnte auch
[mm] $(x_i)_{i\in J}\in (X_i)_{i\in J}(\Omega)$
[/mm]
schreiben.
Viele Grüße
Tobias
|
|
|
|