bedingte W'keiten < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 16:53 Mi 23.04.2014 | Autor: | James90 |
Guten Tag, ich befasse mich nun mit bedingter Wahrscheinlichkeit.
Definition: Es seien [mm] A,B\subseteq\Omega [/mm] mit $P(B)>0$, dann nennen wir [mm] P(A\mid B)=\frac{P(A\cap B)}{P(B)} [/mm] die bedingte W'keit von [mm] $A\$ [/mm] gegeben [mm] $B\$.
[/mm]
Nun kommen drei Sätze, die ich zeigen will, da in meinem Skript dazu kein Beweis steht.
Sei dazu im folgenden [mm] $B\subseteq\Omega$ [/mm] mit [mm] $P(B)>0\$.
[/mm]
1) [mm] P(*\mid [/mm] B) erfüllt die Kolmogorov'schen Axiome.
z.z.: [mm] $P(\Omega\mid [/mm] B)=1$.
Beweis: [mm] P(\Omega\mid B)=\frac{P(\Omega\cap B)}{P(B)}.
[/mm]
1. Fall: [mm] B=\Omega: \frac{P(\Omega\cap B)}{P(B)}=\frac{P(\Omega\cap \Omega)}{P(\Omega)}=\frac{P(\Omega)}{P(\Omega)}=1, [/mm] denn [mm] P(\Omega)=1.
[/mm]
2. Fall: [mm] B\subset\Omega: \frac{P(\Omega\cap B)}{P(B)}=\frac{P(B)}{P(B)}=1 [/mm] (Beachte: [mm] 0\not=P(B)>0 [/mm] nach Voraussetzung).
Frage: Brauche ich hier strenggenommen die Fälle oder kann ich davon ausgehen, dass $B$ eine echte Teilmenge von [mm] \Omega [/mm] ist?
Eigentlich muss ich hier noch abzählbare Additivität zeigen, aber das lasse ich lieber sein.
2) Totale Wahrscheinlichkeit: [mm] A,B_i\subseteq\Omega [/mm] mit [mm] i\in\IN, [/mm] wobei [mm] B_i [/mm] paarweise disjunkt für alle [mm] i\in\{1,\ldots,n\} [/mm] gilt mit [mm] B=\cup_{i\in\IN}B_i [/mm] und [mm] P(B_i)>0 [/mm] für alle [mm] i\in\IN, [/mm] sodass: [mm] P(A\cap B)=\sum_{i\in\IN}P(B_i)P(A\mid B_i).
[/mm]
Beweis: Mit der Definition der bedingten W'keit folgt:
[mm] P(A\cup B)=P(B)P(A\mid [/mm] B).
Mit der Voraussetzung [mm] B=\cup_{i\in\IN}B_i [/mm] folgt:
[mm] P(A\cup B)=P(B)P(A\mid B)=P(\cup_{i\in\IN}B_i)P(A\mid \cup_{i\in\IN}B_i).
[/mm]
Wegen [mm] B_i [/mm] paarweise disjunkt für alle [mm] i\in\{1,\ldots,n\} [/mm] folgt mit der abzählbaren Additivität:
[mm] P(A\cup B)=P(B)P(A\mid B)=P(\cup_{i\in\IN}B_i)P(A\mid \cup_{i\in\IN}B_i)=\sum_{i\in\IN}P(B_i)*\sum_{i\in\IN}P(A\mid B_i)
[/mm]
Fast richtig. Hier fehlt mir die Argumentation. Cauchy-Produkt bringt mich nicht zum Ergebnis, aber vielleicht liege ich auch falsch?
3) Formel von Bayes: [mm] A,B_i\subseteq\Omega [/mm] mit [mm] i\in\IN [/mm] und P(A)>0, [mm] B_i [/mm] paarweise disjunkt für alle [mm] i\in\{1,\ldots,n\} [/mm] mit [mm] \Omega=\bigcup_{i\in\IN}B_i [/mm] und [mm] P(B_i)>0 [/mm] für alle [mm] i\in\IN, [/mm] dann gilt:
[mm] P(B_i\mid A)=\frac{P(B_i)P(A\mid B_i)}{\sum_{j\in\IN}P(B_j)P(A\mid B_j)}.
[/mm]
Wir nutzen die Definition der bedingten Wahrscheinlichkeit aus und 2), dann gilt
[mm] P(B_i\mid A)=\frac{P(B_i\cap A)}{P(A)}=\frac{\sum_{i\in\IN}P(B_i)P(A\mid B_i)}{P(A)}
[/mm]
Ich habe hier schon viel probiert, aber ohne Erfolg. Zum Beispiel P(A) auch umschreiben durch 2), aber das hat mir leider auch nichts gebracht. Hier brauche ich noch einen Tipp.
Danke und schönen Tag noch.
Grüsse, James.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:27 Do 24.04.2014 | Autor: | luis52 |
>
> Definition: Es seien [mm]A,B\subseteq\Omega[/mm] mit [mm]P(B)>0[/mm], dann
> nennen wir [mm]P(A\mid B)=\frac{P(A\cap B)}{P(B)}[/mm] die bedingte
> W'keit von [mm]A\[/mm] gegeben [mm]B\[/mm].
>
>
>
>
> Nun kommen drei Sätze, die ich zeigen will, da in meinem
> Skript dazu kein Beweis steht.
> Sei dazu im folgenden [mm]B\subseteq\Omega[/mm] mit [mm]P(B)>0\[/mm].
>
> 1) [mm]P(*\mid[/mm] B) erfüllt die Kolmogorov'schen Axiome.
>
> z.z.: [mm]P(\Omega\mid B)=1[/mm].
>
> Beweis: [mm]P(\Omega\mid B)=\frac{P(\Omega\cap B)}{P(B)}.[/mm]
>
> 1. Fall: [mm]B=\Omega: \frac{P(\Omega\cap B)}{P(B)}=\frac{P(\Omega\cap \Omega)}{P(\Omega)}=\frac{P(\Omega)}{P(\Omega)}=1,[/mm]
> denn [mm]P(\Omega)=1.[/mm]
>
> 2. Fall: [mm]B\subset\Omega: \frac{P(\Omega\cap B)}{P(B)}=\frac{P(B)}{P(B)}=1[/mm]
> (Beachte: [mm]0\not=P(B)>0[/mm] nach Voraussetzung).
>
> Frage: Brauche ich hier strenggenommen die Fälle oder kann
> ich davon ausgehen, dass [mm]B[/mm] eine echte Teilmenge von [mm]\Omega[/mm]
> ist?
Ist egal, aus $ [mm] B\subseteq\Omega [/mm] $ folgt stets [mm] $\Omega\cap [/mm] B=B$
>
> Eigentlich muss ich hier noch abzählbare Additivität
> zeigen, aber das lasse ich lieber sein.
Wieso?
>
>
>
>
>
> 2) Totale Wahrscheinlichkeit: [mm]A,B_i\subseteq\Omega[/mm] mit
> [mm]i\in\IN,[/mm] wobei [mm]B_i[/mm] paarweise disjunkt für alle
> [mm]i\in\{1,\ldots,n\}[/mm] gilt mit [mm]B=\cup_{i\in\IN}B_i[/mm]
Muss es nicht heissen [mm]\red{\Omega}=\cup_{i\in\IN}B_i[/mm] ? Ein $B$ ist in 2) nicht vorgegeben.
> [mm]P(B_i)>0[/mm] für alle [mm]i\in\IN,[/mm] sodass: [mm]P(A\cap B)=\sum_{i\in\IN}P(B_i)P(A\mid B_i).[/mm]
>
> Beweis: Mit der Definition der bedingten W'keit folgt:
> [mm]P(A\cup B)=P(B)P(A\mid[/mm] B).
> Mit der Voraussetzung [mm]B=\cup_{i\in\IN}B_i[/mm] folgt:
> [mm]P(A\cup B)=P(B)P(A\mid B)=P(\cup_{i\in\IN}B_i)P(A\mid \cup_{i\in\IN}B_i).[/mm]
M.E. ist zu zeigen [mm] \red{P(A)}=\red{\sum_{i=1}^n}P(B_i)P(A\mid B_i). [/mm] Nochmals: Was ist $B$?
Wenn [mm] $B_1\cup B_2\cup\dots\cup B_n=\Omega$, $B_i\cap B_j=\emptyset$ [/mm] fuer $i [mm] \ne [/mm] j$,
dann ist [mm] $C_1\cup C_2\cup\dots\cup C_n=A [/mm] $ mit [mm] $C_i=A\cap B_i$ [/mm] , [mm] $C_i\cap C_j=\emptyset$ [/mm] fuer $i [mm] \ne [/mm] j$ ...
Es waere gut, wenn du kuenftig bei der Formulierung deiner Fragen
etwas mehr Sorgfalt walten lassen koenntest.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 00:23 So 27.04.2014 | Autor: | James90 |
Danke für deine Hilfe Luis!
> Ist egal, aus [mm]B\subseteq\Omega[/mm] folgt stets [mm]\Omega\cap B=B[/mm]
Stimmt, danke!
> > Eigentlich muss ich hier noch abzählbare Additivität
> > zeigen, aber das lasse ich lieber sein.
>
> Wieso?
Der Beweis der abzählbare Additivität (Kolmogorov'sches Axiom) ist schon nicht gerade einfach.
Daraus folgere ich, dass dieser Beweis, der ähnlich sein wird, auch nicht gerade einfach sein wird.
Zur Totale Wahrscheinlichkeit:
> M.E. ist zu zeigen
> [mm]\red{P(A)}=\red{\sum_{i=1}^n}P(B_i)P(A\mid B_i).[/mm] Nochmals:
> Was ist [mm]B[/mm]?
Nein, das ist bei mir nicht zu zeigen. Ich habe am Anfang geschrieben:
"Nun kommen drei Sätze, die ich zeigen will, da in meinem Skript dazu kein Beweis steht.
Sei dazu im folgenden $ [mm] B\subseteq\Omega [/mm] $ mit $ P(B)>0\ $".
Nun soll bei 2) gezeigt werden: Für jedes Ereignis $A$ und jede Folge [mm] (B_i)_{i\in\IN} [/mm] von paarweise disjunkten Ereignissen mit [mm] B=\bigcup_{i\in\IN}B_i [/mm]
(Vielleicht ist es ein Tippfehler im Skript und da muss stehen: [mm] \Omega=\bigcup_{i\in\IN}B_i [/mm] (siehe 3))???)
und [mm] P(B_i)>0 [/mm] für alle [mm] i\in\IN [/mm] gilt:
[mm] P(A\cap B)=\sum_{i\in\IN}P(B_i)P(A\mid B_i).
[/mm]
Dazu habe ich dann folgenden Beweis angefangen (Copy&Paste):
Beweis: Mit der Definition der bedingten W'keit folgt:
[mm] P(A\cup B)=P(B)P(A\mid [/mm] B).
Mit der Voraussetzung [mm] B=\cup_{i\in\IN}B_i [/mm] folgt:
[mm] P(A\cup B)=P(B)P(A\mid B)=P(\cup_{i\in\IN}B_i)P(A\mid \cup_{i\in\IN}B_i). [/mm]
Wegen [mm] B_i [/mm] paarweise disjunkt für alle [mm] i\in\IN [/mm] folgt mit der abzählbaren Additivität:
[mm] P(A\cup B)=P(B)P(A\mid B)=P(\cup_{i\in\IN}B_i)P(A\mid \cup_{i\in\IN}B_i)=\sum_{i\in\IN}P(B_i)*\sum_{i\in\IN}P(A\mid B_i) [/mm]
Fast richtig. Hier fehlt mir die Argumentation. Cauchy-Produkt bringt mich nicht zum Ergebnis, aber vielleicht liege ich auch falsch?
Bei 3) habe ich noch immer das gleiche Problem:
3) Formel von Bayes: Für jedes Ereignis A und jede Folge [mm] (B_i)_{i\in\IN} [/mm] von paarweisen disjunkten Ereignissen mit [mm] \Omega=\bigcup_{i\in\IN}B_i [/mm] und [mm] P(B_i)>0 [/mm] für alle [mm] i\in\IN [/mm] gilt:
[mm] P(B_i\mid A)=\frac{P(B_i)P(A\mid B_i)}{\sum_{j\in\IN}P(B_j)P(A\mid B_j)}. [/mm]
Wir nutzen die Definition der bedingten Wahrscheinlichkeit aus und 2), dann gilt
[mm] P(B_i\mid A)=\frac{P(B_i\cap A)}{P(A)}=\frac{\sum_{i\in\IN}P(B_i)P(A\mid B_i)}{P(A)} [/mm]
Ich habe hier schon viel probiert, aber ohne Erfolg. Zum Beispiel P(A) auch umschreiben durch 2), aber das hat mir leider auch nichts gebracht.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:30 So 27.04.2014 | Autor: | luis52 |
> Danke für deine Hilfe Luis!
Gerne.
> > > Eigentlich muss ich hier noch abzählbare Additivität
> > > zeigen, aber das lasse ich lieber sein.
> >
> > Wieso?
>
> Der Beweis der abzählbare Additivität (Kolmogorov'sches
> Axiom) ist schon nicht gerade einfach.
> Daraus folgere ich, dass dieser Beweis, der ähnlich sein
> wird, auch nicht gerade einfach sein wird.
Moeglicher Beginn: Seien $ [mm] A_i\subseteq\Omega [/mm] $ mit $ [mm] i\in\IN, [/mm] $ wobei $ [mm] A_i [/mm] $ paarweise disjunkt sind. Dann ist
[mm] $P(\cup_{i\in\IN}A_i\mid B)=\frac{P((\cup_{i\in\IN}A_i)\cap B)}{P(B)}=\frac{P(\cup_{i\in\IN}(A_i\cap B))}{P(B)}=\dots [/mm] $
>
>
>
>
> Zur Totale Wahrscheinlichkeit:
>
> > M.E. ist zu zeigen
> > [mm]\red{P(A)}=\red{\sum_{i=1}^n}P(B_i)P(A\mid B_i).[/mm] Nochmals:
> > Was ist [mm]B[/mm]?
>
> Nein, das ist bei mir nicht zu zeigen. Ich habe am Anfang
> geschrieben:
>
> "Nun kommen drei Sätze, die ich zeigen will, da in meinem
> Skript dazu kein Beweis steht.
> Sei dazu im folgenden [mm]B\subseteq\Omega[/mm] mit [mm]P(B)>0\ [/mm]".
Stimmt, habe ich ueberlesen.
>
> Nun soll bei 2) gezeigt werden: Für jedes Ereignis [mm]A[/mm] und
> jede Folge [mm](B_i)_{i\in\IN}[/mm] von paarweise disjunkten
> Ereignissen mit [mm]B=\bigcup_{i\in\IN}B_i[/mm]
>
> (Vielleicht ist es ein Tippfehler im Skript und da muss
> stehen: [mm]\Omega=\bigcup_{i\in\IN}B_i[/mm] (siehe 3))???)
Nein, das geht auch so.
>
> und [mm]P(B_i)>0[/mm] für alle [mm]i\in\IN[/mm] gilt:
>
> [mm]P(A\cap B)=\sum_{i\in\IN}P(B_i)P(A\mid B_i).[/mm]
>
> Dazu habe ich dann folgenden Beweis angefangen
> (Copy&Paste):
>
> Beweis: Mit der Definition der bedingten W'keit folgt:
> [mm]P(A\cup B)=P(B)P(A\mid[/mm] B).
Du willst doch eine Aussage uber [mm] $P(A\cap [/mm] B)$ machen. Wieso hantierst du dann mit [mm] $P(A\cup [/mm] B)$?
Ansatz : [mm] $P(A\cap B)=P(A\cap(cup_{i\in\IN}B_i)=\dots$ [/mm] (Siehe 1))
>
>
> Bei 3) habe ich noch immer das gleiche Problem:
>
Nutze 2) aus.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:41 So 27.04.2014 | Autor: | James90 |
> > Danke für deine Hilfe Luis!
>
> Gerne.
>
> > > > Eigentlich muss ich hier noch abzählbare Additivität
> > > > zeigen, aber das lasse ich lieber sein.
> > >
> > > Wieso?
> >
> > Der Beweis der abzählbare Additivität (Kolmogorov'sches
> > Axiom) ist schon nicht gerade einfach.
> > Daraus folgere ich, dass dieser Beweis, der ähnlich
> sein
> > wird, auch nicht gerade einfach sein wird.
>
> Moeglicher Beginn: Seien [mm]A_i\subseteq\Omega[/mm] mit [mm]i\in\IN,[/mm]
> wobei [mm]A_i[/mm] paarweise disjunkt sind. Dann ist
>
>
> [mm]P(\cup_{i\in\IN}A_i\mid B)=\frac{P((\cup_{i\in\IN}A_i)\cap B)}{P(B)}=\frac{P(\cup_{i\in\IN}(A_i\cap B))}{P(B)}=\dots[/mm]
Wegen [mm] A_i [/mm] paarweise dijunkt für alle [mm] i\in\IN [/mm] sind die Mengen [mm] $(A_i\cap [/mm] B)$ für alle [mm] i\in\IN [/mm] paarweise disjunkt und es folgt mit dem Kolmogorov'schen Axiom:
[mm] \frac{P(\cup_{i\in\IN}(A_i\cap B))}{P(B)}=\frac{\sum_{i\in\IN}P(A_i\cap B)}{P(B)}
[/mm]
Wegen [mm] B\subseteq\Omega [/mm] und $P(B)>0$ beziehungsweise [mm] P:\mathcal P(\Omega)\to[0,1] [/mm] ist [mm] P(B)\in(0,1] [/mm] eine Konstante und es folgt
[mm] \frac{\sum_{i\in\IN}P(A_i\cap B)}{P(B)}=\sum_{i\in\IN}\frac{P(A_i\cap B)}{P(B)} [/mm] und mit
[mm] $\sum_{i\in\IN}\frac{P(A_i\cap B)}{P(B)}=\sum_{i\in\IN}P(A_i\mid [/mm] B)$ die Behauptung.
Es wäre schön, wenn der Beweis für das Kolmogorov'sche Axiom selbst so einfach wäre....
> > Zur Totale Wahrscheinlichkeit:
> >
> > > M.E. ist zu zeigen
> > > [mm]\red{P(A)}=\red{\sum_{i=1}^n}P(B_i)P(A\mid B_i).[/mm] Nochmals:
> > > Was ist [mm]B[/mm]?
> >
> > Nein, das ist bei mir nicht zu zeigen. Ich habe am Anfang
> > geschrieben:
> >
> > "Nun kommen drei Sätze, die ich zeigen will, da in meinem
> > Skript dazu kein Beweis steht.
> > Sei dazu im folgenden [mm]B\subseteq\Omega[/mm] mit [mm]P(B)>0\ [/mm]".
>
> Stimmt, habe ich ueberlesen.
Kein Problem.
> > Nun soll bei 2) gezeigt werden: Für jedes Ereignis [mm]A[/mm] und
> > jede Folge [mm](B_i)_{i\in\IN}[/mm] von paarweise disjunkten
> > Ereignissen mit [mm]B=\bigcup_{i\in\IN}B_i[/mm]
> >
> > (Vielleicht ist es ein Tippfehler im Skript und da muss
> > stehen: [mm]\Omega=\bigcup_{i\in\IN}B_i[/mm] (siehe 3))???)
>
> Nein, das geht auch so.
> >
> > und [mm]P(B_i)>0[/mm] für alle [mm]i\in\IN[/mm] gilt:
> >
> > [mm]P(A\cap B)=\sum_{i\in\IN}P(B_i)P(A\mid B_i).[/mm]
> >
> > Dazu habe ich dann folgenden Beweis angefangen
> > (Copy&Paste):
> >
> > Beweis: Mit der Definition der bedingten W'keit folgt:
> > [mm]P(A\cup B)=P(B)P(A\mid[/mm] B).
>
> Du willst doch eine Aussage uber [mm]P(A\cap B)[/mm] machen. Wieso
> hantierst du dann mit [mm]P(A\cup B)[/mm]?
Das war ein Tippfehler, sorry.
> Ansatz : [mm]P(A\cap B)=P(A\cap(cup_{i\in\IN}B_i)=\dots[/mm] (Siehe
> 1))
Mit ähnlichen Begründungen wie bei 1) erhalten wir sofort
[mm] P(A\cap B)=P(A\cap(\bigcup_{i\in\IN}B_i)=P(\bigcup_{i\in\IN}(A\cap B_i))=\sum_{i\in\IN}P(A\cap B_i)=\sum_{i\in\IN}P(B_i)\frac{P(A\cap B_i)}{P(B_i)}=\sum_{i\in\IN}P(B_i)P(A\mid B_i)
[/mm]
Passt, oder?
> > Bei 3) habe ich noch immer das gleiche Problem:
> >
>
> Nutze 2) aus.
3) Formel von Bayes: Für jedes Ereignis A und jede Folge [mm] (B_i)_{i\in\IN} [/mm] von paarweisen disjunkten Ereignissen mit [mm] \Omega=\bigcup_{i\in\IN}B_i [/mm] und [mm] P(B_i)>0 [/mm] für alle [mm] i\in\IN [/mm] gilt:
[mm] P(B_i\mid A)=\frac{P(B_i)P(A\mid B_i)}{\sum_{j\in\IN}P(B_j)P(A\mid B_j)}. [/mm]
Das will einfach nicht klappen und ich weiß auch nicht wo ich genau 2) verwenden soll.
[mm] P(B_i\mid A)=\frac{P(B_i\cap A)}{P(A)}=\frac{P(\bigcup_{i\in\IN}(B_i\cap A))}{P(A)}=\frac{P((\bigcup_{i\in\IN}B_i)\cap A)}{P(A)}=\frac{P(\Omega\cap A)}{P(A)}=\frac{P(A)}{P(A)}=1.
[/mm]
Wo liegt mein Fehler hier? Das kann doch nicht sein...
Mir bereits der Nenner mit P(A) auch Sorgen, denn P(A) kann durchaus Null sein..
Danke nochmal!!!
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:17 So 27.04.2014 | Autor: | luis52 |
> > > Danke für deine Hilfe Luis!
> >
> > Gerne.
> >
> > > > > Eigentlich muss ich hier noch abzählbare Additivität
> > > > > zeigen, aber das lasse ich lieber sein.
> > > >
> > > > Wieso?
> > >
> > > Der Beweis der abzählbare Additivität (Kolmogorov'sches
> > > Axiom) ist schon nicht gerade einfach.
> > > Daraus folgere ich, dass dieser Beweis, der ähnlich
> > sein
> > > wird, auch nicht gerade einfach sein wird.
> >
> > Moeglicher Beginn: Seien [mm]A_i\subseteq\Omega[/mm] mit [mm]i\in\IN,[/mm]
> > wobei [mm]A_i[/mm] paarweise disjunkt sind. Dann ist
> >
> >
> > [mm]P(\cup_{i\in\IN}A_i\mid B)=\frac{P((\cup_{i\in\IN}A_i)\cap B)}{P(B)}=\frac{P(\cup_{i\in\IN}(A_i\cap B))}{P(B)}=\dots[/mm]
>
> Wegen [mm]A_i[/mm] paarweise dijunkt für alle [mm]i\in\IN[/mm] sind die
> Mengen [mm](A_i\cap B)[/mm] für alle [mm]i\in\IN[/mm] paarweise disjunkt und
> es folgt mit dem Kolmogorov'schen Axiom:
>
> [mm]\frac{P(\cup_{i\in\IN}(A_i\cap B))}{P(B)}=\frac{\sum_{i\in\IN}P(A_i\cap B)}{P(B)}[/mm]
>
> Wegen [mm]B\subseteq\Omega[/mm] und [mm]P(B)>0[/mm] beziehungsweise
> [mm]P:\mathcal P(\Omega)\to[0,1][/mm] ist [mm]P(B)\in(0,1][/mm] eine
> Konstante und es folgt
>
> [mm]\frac{\sum_{i\in\IN}P(A_i\cap B)}{P(B)}=\sum_{i\in\IN}\frac{P(A_i\cap B)}{P(B)}[/mm]
> und mit
>
> [mm]\sum_{i\in\IN}\frac{P(A_i\cap B)}{P(B)}=\sum_{i\in\IN}P(A_i\mid B)[/mm]
> die Behauptung.
>
> Es wäre schön, wenn der Beweis für das Kolmogorov'sche
> Axiom selbst so einfach wäre....
Was fehlt denn noch?
>
> > > Zur Totale Wahrscheinlichkeit:
> Mit ähnlichen Begründungen wie bei 1) erhalten wir
> sofort
>
> [mm]P(A\cap B)=P(A\cap(\bigcup_{i\in\IN}B_i)=P(\bigcup_{i\in\IN}(A\cap B_i))=\sum_{i\in\IN}P(A\cap B_i)=\sum_{i\in\IN}P(B_i)\frac{P(A\cap B_i)}{P(B_i)}=\sum_{i\in\IN}P(B_i)P(A\mid B_i)[/mm]
>
> Passt, oder?
>
>
>
>
>
>
> > > Bei 3) habe ich noch immer das gleiche Problem:
> > >
> >
> > Nutze 2) aus.
>
> 3) Formel von Bayes: Für jedes Ereignis A und jede Folge
> [mm](B_i)_{i\in\IN}[/mm] von paarweisen disjunkten Ereignissen mit
> [mm]\Omega=\bigcup_{i\in\IN}B_i[/mm] und [mm]P(B_i)>0[/mm] für alle [mm]i\in\IN[/mm]
> gilt:
>
> [mm]P(B_i\mid A)=\frac{P(B_i)P(A\mid B_i)}{\sum_{j\in\IN}P(B_j)P(A\mid B_j)}.[/mm]
>
> Das will einfach nicht klappen und ich weiß auch nicht wo
> ich genau 2) verwenden soll.
>
> [mm]P(B_i\mid A)=\frac{P(B_i\cap A)}{P(A)}=\frac{P(\bigcup_{i\in\IN}(B_i\cap A))}{P(A)}=\frac{P((\bigcup_{i\in\IN}B_i)\cap A)}{P(A)}=\frac{P(\Omega\cap A)}{P(A)}=\frac{P(A)}{P(A)}=1.[/mm]
>
> Wo liegt mein Fehler hier? Das kann doch nicht sein...
> Mir bereits der Nenner mit P(A) auch Sorgen, denn P(A)
> kann durchaus Null sein..
Du musst $P(A)>0$ unterstellen. Nach 2) ist
[mm] $P(B_i\mid A)=\frac{P(B_i\cap A)}{P(A)}= \frac{P(B_i)P(A\mid B_i)}{\sum_{j\in\IN}P(B_j)P(A\mid B_j)}$
[/mm]
(Wenn du [mm] $B=\Omega$ [/mm] in 2) setzt, so [mm] $P(A)=P(A\cap [/mm] B)$).
>
> Danke nochmal!!!
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:33 So 27.04.2014 | Autor: | James90 |
Ich habe meine Idee dazu editiert. Auch wenn es wohl trivial ist verstehe ich es leider nicht.
Danke für die Hilfe.
Grüsse, James.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:01 So 27.04.2014 | Autor: | luis52 |
Na dann woll'n wir mal.
Voraussetzung: $ [mm] A,B_i\subseteq\Omega [/mm] $ mit $ [mm] i\in\IN [/mm] $ und P(A)>0, $ [mm] B_i [/mm] $ paarweise disjunkt für alle $ [mm] i\in\{1,\ldots,n\} [/mm] $ mit $ [mm] \Omega=\bigcup_{i\in\IN}B_i [/mm] $ und $ [mm] P(B_i)>0 [/mm] $ für alle $ [mm] i\in\IN$,
[/mm]
Behauptung:
$ [mm] P(B_i\mid A)=\frac{P(B_i)P(A\mid B_i)}{\sum_{j\in\IN}P(B_j)P(A\mid B_j)} [/mm] $
Zunaechst ist [mm] $P(B_i\mid A)=\frac{P(B_i\cap A)}{P(A)}$.
[/mm]
Zaehler: Es gilt
[mm] $P(A\mid B_i)=\frac{P(A\cap B_i)}{P(B_i)}\iff P(B_i\cap A)=P(B_i)P(A\mid B_i)$
[/mm]
Nenner:
[mm] \begin{matrix}
P(A)&=& P(A\cap \Omega)\\
&=&P(A\cap \bigcup_{j\in\IN}B_j) \\
&=&P( \bigcup_{j\in\IN}(A\cap B_j)) \\
&=&\sum_{j\in\IN}P( A\cap B_j) \\
&=&\sum_{j\in\IN}P( A\mid B_j)P(B_j)
\end{matrix}
[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:10 So 27.04.2014 | Autor: | James90 |
Vielen lieben Dank Luis für deine Hilfe!
Der Beweis ist mir so klar. Ich hing die ganze Zeit daran fest deinen Tipp (Totale Wahrscheinlichkeit) zu benutzen und kam nicht weiter. So wie ich das sehe hast du diese auch nicht benutzt.
Falls du noch einen Tipp hast für:
Für alle Folgen [mm] (A_i)_{i\in\IN} [/mm] von paarweise disjunkten Ereignissen gilt:
[mm] P(\bigcup_{i\in\IN} A_i)=\sum_{i\in\IN}P(A_i). [/mm]
,dann würde ich mich auch freuen, aber ich glaube, dass das nicht wirklich "einfach" ist.
Danke nochmal und schönen Abend noch!
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 05:28 Mo 28.04.2014 | Autor: | tobit09 |
Aufgabe | Sei [mm] $\Omega$ [/mm] eine abzählbare Menge und [mm] $p\colon\Omega\to[0,1]$ [/mm] mit [mm] $\sum_{\omega\in\Omega}p(\omega)=1$.
[/mm]
Warum ist nun [mm] $P\colon\mathcal{P}(\Omega)\to[0,1]$ [/mm] definiert durch
[mm] $P(A):=\sum_{\omega\in A}p(\omega)$
[/mm]
Sigma-additiv (und somit ein Wahrscheinlichkeitsmaß)? |
Hallo Luis und andere Interessierte!
Was du nicht wissen kannst: James meint obige Fragestellung.
Den einfachsten Beweisaufbau, den ich finden konnte, habe ich hier angegeben.
Auch ich würde mich freuen, wenn jemand einen einfacheren Beweis fände oder aber bestätigen könnte, dass er/sie auch keinen einfacheren Beweis sieht.
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 08:56 Mo 28.04.2014 | Autor: | luis52 |
> Sei [mm]\Omega[/mm] eine abzählbare Menge und [mm]p\colon\Omega\to[0,1][/mm]
> mit [mm]\sum_{\omega\in\Omega}p(\omega)=1[/mm].
>
> Warum ist nun [mm]P\colon\mathcal{P}(\Omega)\to[0,1][/mm] definiert
> durch
>
> [mm]P(A):=\sum_{\omega\in A}p(\omega)[/mm]
>
> Sigma-additiv (und somit ein Wahrscheinlichkeitsmaß)?
> Hallo Luis und andere Interessierte!
>
>
> Was du nicht wissen kannst: James meint obige
> Fragestellung.
>
Aha.
Habe mich mal im Internet getummelt. Haeufig ist diese Aussage als Uebungsaufgabe zu beweisen und eine direkte Loesung habe ich nicht gefunden.
Ein Schnellschuss von mir:
[mm] $P(\bigcup_iA_i) [/mm] $ist eine absolut konvergente Reihe und [mm] $\sum_iP(A_i) [/mm] $ ist eine Umordnung dieser Reihe ...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 10:50 Mo 28.04.2014 | Autor: | tobit09 |
Danke für die schnelle Reaktion!
> Ein Schnellschuss von mir:
>
> [mm]P(\bigcup_iA_i) [/mm]ist eine absolut konvergente Reihe und
> [mm]\sum_iP(A_i)[/mm] ist eine Umordnung dieser Reihe ...
Unter einer Umordnung einer Reihe [mm] $\sum_{i=1}^\infty a_i$ [/mm] verstehe ich eine Reihe der Form [mm] $\sum_{j=1}^\infty a_{\sigma(j)}$ [/mm] für eine Bijektion [mm] $\sigma\colon\IN\to\IN$.
[/mm]
(Zumindest macht der mir bekannte Umordnungssatz für absolut konvergente Reihen eine Aussage über in diesem Sinne umgeordnete Reihen.)
In [mm] $\sum_iP(A_i)$ [/mm] kann ich keine derartige "Umordnungsgestalt" erkennen.
Schon eher würde ich von einer "Doppelreihengestalt" sprechen.
Was alle diese Überlegungen noch unberücksichtigt lassen und die Anwendung z.B. von Sätzen über Doppelreihen erschwert:
Jedes [mm] $P(A_i)$ [/mm] kann auch eine endliche Summe anstelle einer unendlichen Reihe darstellen.
|
|
|
|