Median und Binomialverteilung < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 10:27 Mo 01.12.2003 | Autor: | ministel |
Hallo!
Erstmal vorweg: Da ich noch bei meiner Familie bin, kann ich nur relativ selten ins Internet, geschweige denn an einen Computer, deshalb antworte ich jetzt auch erstmal nicht auf das, was noch aussteht, sondern stell nur die beiden Fragen. Werd das aber noch nachholen.
Probleme machen mir also folgende beiden Aufgaben:
2) Die Zufallsvariablen [mm]X_1[/mm] und [mm]X_2[/mm] seien unabhängig und poissonverteilt mit den Parametern [mm]\lambda_1[/mm] und [mm]\lambda_2[/mm]. Zeigen Sie, dass die Verteilung von [mm]X_1[/mm] gegeben [mm]X_1 + X_2 = n[/mm] eine Binomialverteilung mit den Paramtern n und [mm]\frac{\lambda_1}{\lambda_1 + \lambda_2}[/mm] ist.
Dazu hab ich erstmal die Frage, ob es richtig ist, dass das "unabhängig" _nicht_ "stochastisch unabhägig" bedeutet, oder ob doch?
Und dann noch ganz allgemein, was ich genau nachzuweisen habe. Ich weiß schon, steht ja alles drin, aber ich versteh das nicht so ganz.
Soll ich quasi zeigen, dass wenn [mm]\frac{e^{-\lambda_1}*\lambda_1 ^{k!} + e^{-\lambda_2}*\lambda_2^{k}}{k!} = n[/mm] gilt, dass man das dann irgendwie so umschreiben kann, dass am Ende ne Binomialverteilung mit den oben genannten Parametern rauskommt?
3) Als Median einer Zuvallsvariablen X bezeichnet man jede Zahl [mm]m \in \IR[/mm] für die gilt: [mm]P[X \le m] \ge \frac{1}{2}[/mm] und [mm]P[X \ge m] \ge \frac{1}{2}[/mm]
Berechnen Sie alle Mediane einer Bernoulli-Zufallsvariablen mit Parametern [mm]p \in [0,1][/mm] und vergleichen Sie mit dem Erwartungswert.
So, zu erst zur Klärung der Definition. Ich hab hier ein Stochastikbuch, in dem steht, dass ein Median das eben genauso beschriebene wie oben ist, jedoch mit dem Unterschied, dass p = 1/2 sein _muss_. Was davon ist denn nun richtig?
Und falls nun die Definition des Blattes richtig sein sollte: Wie zum Teufel soll das gehen? Ich werd schon halb wahnsinnig damit.
Es muss doch gelten:
[mm]P[X \le m] = \sum_{k=1}^m {n \choose k} p^k (1-p)^{n-k} \ge \frac{1}{2}[/mm] und
[mm]P[X \ge m] = \sum_{k=m}^n {n \choose k} p^k (1-p)^{n-k} \ge \frac{1}{2}[/mm], oder?
Ich kriegs einfach nicht hin, da irgend eine Regelmäßigkeit zu finden, sodass ich tatsächliche alle Mediane für alle n und alle p angeben könnte.
Wisst ihr irgend einen Rat?
Nachricht bearbeitet (Mo 01.12.03 10:32)
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:31 Mo 01.12.2003 | Autor: | Marc |
Hallo ministel,
okay, dann begebe ich mich wieder mal todesmutig in die Grauzonen meines Wissens und Interesses. Ich hoffe, Stefan wird das alles hier noch mal überfliegen und kommentieren.
> 2) Die Zufallsvariablen [mm]X_1[/mm] und [mm]X_2[/mm] seien
> unabhängig und poissonverteilt mit den Parametern
> [mm]\lambda_1[/mm] und [mm]\lambda_2[/mm]. Zeigen Sie, dass die
> Verteilung von [mm]X_1[/mm] gegeben [mm]X_1 + X_2 = n[/mm] eine
> Binomialverteilung mit den Paramtern n und
> [mm]\frac{\lambda_1}{\lambda_1 + \lambda_2}[/mm] ist.
>
> Dazu hab ich erstmal die Frage, ob es richtig ist, dass das
> "unabhängig" _nicht_ "stochastisch unabhägig" bedeutet, oder ob
> doch?
Welche Form der Unabhängigkeit gibt es denn noch, die hier Sinn machen würde?
> Und dann noch ganz allgemein, was ich genau nachzuweisen habe.
> Ich weiß schon, steht ja alles drin, aber ich versteh das nicht
> so ganz.
> Soll ich quasi zeigen, dass wenn
> [mm]\frac{e^{-\lambda_1}*\lambda_1 ^{k!} +
e^{-\lambda_2}*\lambda_2^{k}}{k!} = n[/mm] gilt, dass man das
Das stimmt formal nicht, denn links vom Gleichheitszeichen steht ja eine W'keit, rechts aber ein Ergebnis einer Zufallsvariable (_wovon_ die W'keit zu bestimmen ist.)
> dann irgendwie so umschreiben kann, dass am Ende ne
> Binomialverteilung mit den oben genannten Parametern
> rauskommt?
Du mußt also zeigen:
[mm]P(X_1=k|X_1+X_2=n) = {n \choose k} p^k(1-p)^{n-k}[/mm] mit [mm]p=\frac{\lambda_1}{\lambda_1+\lambda_2}[/mm]
Zunächst einmal ist ja
[mm]P(X_1+X_2=n)[/mm] = [mm]\sum\limits_i P(X_1=i)P(X_2=n-i) [/mm] ("Faltung")
und da [mm]X_1[/mm] und [mm]X_2[/mm] Poisson-verteilt sind:
[mm]P(X_1+X_2=n)[/mm] = [mm]\sum\limits_i \frac{e^{-\lambda_1}*\lambda_1^i}{i!}\frac{e^{-\lambda_2}*\lambda_2^{n-i}}{(n-i)!}[/mm]
Setzen wir nun noch alles zusammen und lassen uns überraschen:
[mm]P(X_1=k|X_1+X_2=n)[/mm]
= [mm] \frac{P(X_1=k \wedge X_1+X_2=n)}{P(X_1+X_2=n)}[/mm]
= [mm] \frac{P(X_1=k \wedge X_2=n-k)}{P(X_1+X_2=n)}[/mm]
(da [mm]X_1[/mm] und [mm]X_2[/mm] unabhängig:)
= [mm] \frac{P(X_1=k)P(X_2=n-k)}{P(X_1+X_2=n)}[/mm]
= [mm] \frac{\frac{e^{-\lambda_1}*\lambda_1^k}{k!}\frac{e^{-\lambda_2}*\lambda_2^{n-k}}{(n-k)!}}
{\sum\limits_i \frac{e^{-\lambda_1}*\lambda_1^i}{i!}\frac{e^{-\lambda_2}*\lambda_2^{n-i}}{(n-i)!}}[/mm]
(klicke auf die Formeln für eine Vergrößerung )
= [mm] \frac{\frac{\lambda_1^k}{k!}\frac{\lambda_2^{n-k}}{(n-k)!}}
{\sum\limits_i \frac{\lambda_1^i}{i!}\frac{\lambda_2^{n-i}}{(n-i)!}}[/mm]
= [mm] \frac{\lambda_1^k}{k!}\frac{\lambda_2^{n-k}}{(n-k)!}*
\left({\sum\limits_i \frac{\lambda_1^i}{i!}\frac{\lambda_2^{n-i}}{(n-i)!}\right)^{-1}[/mm]
= (*)
Hier muß ich mich erst mal besinnen, ich poste es aber schon mal, um es gleich fortzuführen/zu korrigieren (und vielleicht kann ja schon jemand was damit anfangen?)
Fortsetzung:
Nun ist aber
[mm] {\sum\limits_i \frac{\lambda_1^i}{i!}\frac{\lambda_2^{n-i}}{(n-i)!} [/mm]
= [mm] \frac{1}{n!} \sum\limits_i {n \choose i} \lambda_1^i \lambda_2^{n-i} [/mm]
(Binomischer Lehrsatz)
= [mm] \frac{1}{n!} (\lambda_1+\lambda_2)^n [/mm]
und damit folgt für
(*)
= [mm] \frac{\lambda_1^k}{k!}\frac{\lambda_2^{n-k}}{(n-k)!}*
\left(\frac{(\lambda_1+\lambda_2)^n}{n!}\right)^{-1}[/mm]
= [mm] \frac{\lambda_1^k}{k!}\frac{\lambda_2^{n-k}}{(n-k)!}*
\frac{n!}{(\lambda_1+\lambda_2)^n}[/mm]
= [mm] \frac{n!}{k!*(n-k)!} \frac{\lambda_1^k \lambda_2^{n-k}}{(\lambda_1+\lambda_2)^n}[/mm]
= [mm] {n \choose k} \frac{\lambda_1^k \lambda_2^{n-k}}{(\lambda_1+\lambda_2)^k*(\lambda_1+\lambda_2)^{n-k}}[/mm]
= [mm] {n \choose k} \frac{\lambda_1^k }{(\lambda_1+\lambda_2)^k}*\frac{\lambda_2^{n-k}}{(\lambda_1+\lambda_2)^{n-k}}[/mm]
= [mm] {n \choose k} \left(\frac{\lambda_1 }{\lambda_1+\lambda_2}\right)^k*\left(\frac{\lambda_2}{\lambda_1+\lambda_2}\right)^{n-k}[/mm]
= [mm] {n \choose k} \left(\frac{\lambda_1 }{\lambda_1+\lambda_2}\right)^k*\left(\frac{\lambda_1+\lambda_2-\lambda_1}{\lambda_1+\lambda_2}\right)^{n-k}[/mm]
= [mm] {n \choose k} \left(\frac{\lambda_1 }{\lambda_1+\lambda_2}\right)^k*\left(1-\frac{\lambda_1}{\lambda_1+\lambda_2}\right)^{n-k} \Box [/mm]
Puh, hätte nicht gedacht, dass das so schön hinkommt. Und, Stefan, was hälst du davon? Gibt es vielleicht sogar einen Einzeiler?
Gruß,
Marc.
Nachricht bearbeitet (Mo 01.12.03 20:23)
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:19 Di 02.12.2003 | Autor: | ministel |
Vielen, vielen Dank, Marc! Ich konnte irgendwie keine richtige Fragestellung (also in "mathematischen Schriftzeichen") formulieren, sodass ich gar nicht wusste, was ich genau machen soll, aber jetzt ist alles klar, und beim Selbernachrechnen bin ich auch zu dem Ergebnis gekommen.
Nochmal eine Frage zu Aufgabe 3): Also was ich mittlerweile herausgefunden habe, ist, dass der Median bei symmetrischverteilten Zufallsvariablen der Erwartungswert ist, aber irgendwie will mir da kein Beweis gelingen. Weißt du da vielleicht was?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:55 Di 02.12.2003 | Autor: | Marc |
Hallo ministel,
ich war selbst überrascht, dass ich dir helfen konnte.
Die Behauptung, dass bei symmetrisch-verteilten Zufallsvariablen Erwartungswert und Median identisch sind, würde ich so zeigen:
X symmetrisch verteilt [mm]:\Leftrightarrow[/mm] [mm] P(X \le c-t) = P(X \ge c+t) [/mm] für alle [mm] t \ge 0[/mm].
Für speziell t=0 lautet die Bedingung ja dann [mm] P(X \le c) = P(X \ge c) [/mm].
[mm] \Leftrightarrow [/mm] [mm] P(X \le c) = 1-P(X < c) [/mm]
Nun ist aber [mm] 1-P(X < c) \ge 1-P(X \le c) [/mm] und damit
[mm] \Rightarrow [/mm] [mm] P(X \le c) \ge 1-P(X \le c) [/mm]
[mm] \Rightarrow [/mm] [mm] 2P(X \le c) \ge 1 [/mm]
[mm] \Rightarrow [/mm] [mm] P(X \le c) \ge \frac{1}{2} [/mm]
Ebenso müßte auch folgen, dass [mm] P(X \ge c) \ge \frac{1}{2} [/mm]
Damit ist c also ein Median.
Bleibt noch zu zeigen, dass c auch der Erwartungswert ist.
Der Erwartungswert (unserer diskreter Zufallsvariable X) ist ja definiert als
[mm] EX = \sum\limits_i x_i * P(X=x_i) [/mm]
Da X symmetrisch ist, gibt es ein [mm]c[/mm] und [mm]t_i[/mm], so dass
(a) [mm] (x_1,x_2,x_3,\ldots) = (\ldots,c - t_2, c - t_1, c , c+t_1,c+t_2,\ldots) [/mm]
bzw.
(b) [mm] (x_1,x_2,x_3,\ldots) = (\ldots,c - t_2, c - t_1, c+t_1,c+t_2,\ldots) [/mm]
Für den Erwartungswert ergibt sich deshalb
(a) [mm] EX = \sum\limits_i (c-t_i) * P(X=c-t_i)+\sum\limits_i (c+t_i) * P(X=c+t_i) + c*P(X=c) [/mm]
= [mm] \sum\limits_i (c-t_i+c+t_i) * P(X=c-t_i) + c*P(X=c) [/mm]
= [mm] c*\sum\limits_i 2* P(X=c-t_i) + c*P(X=c) [/mm]
= [mm] c*\underbrace{\sum\limits_i P(X=x_i)}_{=1} [/mm]
= c
(b) [mm] EX = \sum\limits_i (c-t_i) * P(X=x_i)+\sum\limits_i (c+t_i) * P(X=x_i) [/mm]
analog
Ich hoffe, das war jetzt nicht zu naiv gedacht...
Viele Grüße,
Marc
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:43 Mi 03.12.2003 | Autor: | Marc |
Hallo ministel,
was ich noch fragen wollte: Wobei können dir denn die Symmetrie-Überlegungen überhaupt helfen? Die Binomial-Verteilung ist doch nur für p=0,5 symmetrisch.
Gruß,
Marc.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:33 Mi 03.12.2003 | Autor: | Stefan |
Hallo Marc, hallo Ministel,
die Aussage (und damit auch der Beweis, in Bezug auf diese Aussage) sind meiner Meinung nach nicht richtig.
Gemäß der Definition aus ministels Vorlesung stelle ich fest:
Die Aussage: "Für symmetrische Verteilungen gilt: Es gibt einen Wert, der zugleich Median und Erwartungswert ist" ist wahr (und von Marc korrekt bewiesen).
Dagegen ist die Aussage: "Für symmetrische Verteilungen gilt: Der Median ist gleich dem Erwartungswert" falsch.
Das kann alleine deswegen schon nicht wahr sein, da der Median i.A. (auch für symmetrische Verteilungen, siehe die Bernoulli-Verteilung mit den Werten 1 und -1) nicht eindeutig bestimmt ist (siehe meine andere Antwort).
Ich nehme mal an, dass der Satz, den ministel zitiert, aus einem anderen Buch/Skript mit einer anderen Definition des Medians stammt.
Aber wie gesagt, ich habe seit 8 Jahren keine diskrete Stochastik mehr gemacht und bin da nicht wirklich drin. Vielleicht irre ich mich ja auch.
Alles Gute
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:24 Mi 03.12.2003 | Autor: | Stefan |
Hallo Marc,
> Puh, hätte nicht gedacht, dass das so schön hinkommt. Und,
> Stefan, was hälst du davon? Gibt es vielleicht sogar einen
> Einzeiler?
Ich habe von dieser diskreten Stochastik nicht besonders viel Ahnung. Aber ich denke nicht, dass es einfacher geht.
Alles Gute
Stefan
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:16 Mi 03.12.2003 | Autor: | Stefan |
Hallo Ministel, hallo Marc,
eigentlich habe ich keine Zeit, aber okay.
Die Aufgabenstellung lautete:
ministel schrieb:
> 3) Als Median einer Zuvallsvariablen X bezeichnet man jede Zahl
> [mm]m \in \IR[/mm] für die gilt: [mm]P[X \le m] \ge
> \frac{1}{2}[/mm] und [mm]P[X \ge m] \ge \frac{1}{2}[/mm]
> Berechnen Sie alle Mediane einer Bernoulli-Zufallsvariablen mit
> Parametern [mm]p \in [0,1][/mm] und vergleichen Sie mit dem
> Erwartungswert.
Es geht also um eine Bernoulli-Zufallsvariable, nicht allgemein um eine binomialverteilte Zufallsvariable.
Dann ist die Aufgabe doch trivial.
Eine Bernoulli-verteilte Zufallsvariable nimmt zwei Werte an, einen mit der Wahrscheinlichkeit p, den anderen mit 1-p.
Nun musst du eine Fallunterscheidung machen.
Für [mm]p=\frac{1}{2}[/mm] sieht die Sache so aus:
Alle Werte zwischen den beiden Werten (inklusive der beiden Werte selbst) sind also nach dieser Definition Mediane. (Aber nur der Mittelwert der beiden Werte ist der Erwartungswert).
Wie sieht es für [mm]p<\frac{1}{2}[/mm] und [mm]p>\frac{1}{2}[/mm] aus?
Der Einfachheit halber legen wir die beiden Punkte mal fest: [mm]x=0[/mm] und [mm]y=1[/mm].
1. Fall: [mm]P(X=0)=p,\ P(X=1)=1-p,\, p<\frac{1}{2}[/mm]
2. Fall: [mm]P(X=0)=p,\ P(X=1)=1-p,\, p>\frac{1}{2}[/mm]
Wie sehen hier die Mediane aus?
Melde dich bitte mal mit einem Lösungsvorschlag. Auch wenn du die Aufgaben schon abgegeben hast, es geht schließlich nicht darum die Punkte zu bekommen, sondern die Dinge zu verstehen.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:24 Mo 08.12.2003 | Autor: | ministel |
Hm, war die Aufgabe dann jetzt falsch oder einfach zu kompliziert gedacht, aber trotzdem richtig?
Es stimmt doch, dass die Verteilung symmetrisch und der Median der Erwartungswert ist, oder nicht?
Ich werd deine Frage versuchen zu beantworten, sobald ich das neue Blatt fertig hab.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:50 Mo 08.12.2003 | Autor: | Stefan |
Hallo ministel,
> Hm, war die Aufgabe dann jetzt falsch oder einfach zu
> kompliziert gedacht, aber trotzdem richtig?
Sie war falsch, denn es ging ja um die Bernoulli-Verteilung.
> Es stimmt doch, dass die Verteilung symmetrisch und der Median
> der Erwartungswert ist, oder nicht?
Wenn es den Median gibt, dann ja. Aber der Median ist halt nicht immer eindeutig bestimmt. Insofern ist es im Allgemeinen falsch.
Liebe Grüße
Stefan
|
|
|
|