beta Risiko bestimmen < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 14:35 Mi 08.11.2006 | Autor: | henrik |
Hallo,
für den Test eines Korrelationskoeffizienten (pearsonsche) verwende ich
den T-Test mit vorgegebenem APLHA (Risiko dass H0 fälschlich abglehnt wird) und n-2 Freiheitsgraden.
H0= Es liegt keine Korrelation vor
H1= Es liegt Korrelation vor
Nun will ich aber auch das BETA-Risko (dass H0 beibehalten wird obwohl H1 zutrifft )angeben.
Zur Verfügung stehen
- N (Anzahl der Messdaten)
- Signifikanzzahl Alpha
[- Schwellenwert für Korrelationskoeffizienten (durch UMstellung der T- Test-Formel, durch N und Alpha bestimmbar) ]
Wie kann man nun verfahren, um das Beta-Risiko zu bestimmen ?
Grüsse
Henrik
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:57 Mi 08.11.2006 | Autor: | luis52 |
Hallo Henrik,
das kann man nicht so einfach beantworten, denn du brauchst ja im
Grunde die Verteilung des Pearson-Koeffizienten $r$ unter der
Alternative [mm] $\rho \ne [/mm] 0$. Unterstellt man eine bivariat normalverteilte
Grundgesamtheit, so gilt
[mm] P(r \le c) \approx \Phi(\sqrt{N-3}(h(c)-h(\rho)))[/mm]. Darin ist [mm]\Phi[/mm] die
Verteilungsfunktion der Standardnormalverteilung und
[mm]h(\rho)=\frac{1}{2}\ln\left(\frac{1+\rho}{1-\rho}\right)[/mm]
ist die sog. Fishersche z-Transformation. Unter diesem Stichwort kannst
du dich vielleicht im Netz schlauer machen.
hth
PS: Ich sehe, du studierst. Schau mal im Buch von
Johnson/Kotz/Balakrishnan: Continuous Univariate Distributions, Volume
2, 2nd edition, Seite 545 ff nach.
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 13:01 Do 09.11.2006 | Autor: | henrik |
hallo hth,
obwohl du meintest dass das nicht so einfach zu beantworten sei:
wäre dann
1- $ [mm] \Phi(\sqrt{N-3}(h(c)-h(\rho))) [/mm] $ das Beta-Risiko ?
wobei C der zuvor ausgerechnete Schwellenwert für den KorrelationsKoeffizienten aufgrund von einem Alpha (zB. mittels T-Test )
ist ?
Danke und Gruss
Henrik
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:51 Do 09.11.2006 | Autor: | luis52 |
> wäre dann
>
> 1- [mm]\Phi(\sqrt{N-3}(h(c)-h(\rho)))[/mm] das Beta-Risiko ?
>
> wobei C der zuvor ausgerechnete Schwellenwert für den
> KorrelationsKoeffizienten aufgrund von einem Alpha (zB.
> mittels T-Test )
> ist ?
Nicht so schnell. Ich vermute, dass du den Test mit der Pruefstatistik
[mm] $T=\frac{\sqrt{N-2}r}{\sqrt{1-r^2}}$
[/mm]
durchfuehrst, wobei
[mm] $r=\sum(x_i-\bar x)(y_i-\bar y)/\sqrt{\sum(x_i-\bar x)^2\sum(y_i-\bar y)^2}$
[/mm]
Pearson-Koeffizient ist, richtig? Dann lehnst die Nullhypothese ab,
wenn [mm] $T^2$ [/mm] groesser ist als der [mm] $(1-\alpha)\times100$%-Punkt [/mm] $c$ der
$t(N-2)$-Verteilung$. Du musst also $P( [mm] T^2 \le [/mm] c)$ (dein Beta-Risiko)
bestimmen, wenn gilt [mm] $\rho\ne [/mm] 0$, was du mit der Approximation der
Verteilung von $R$ und damit [mm] $R^2$ [/mm] hinbekommen solltest.
Melde dich, wenn was unklar bleibt.
hth (Hope this helps )
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 11:06 Fr 10.11.2006 | Autor: | henrik |
meine T - Pruefstatistik (entspricht deiner genannten):
$ [mm] t_{0}= [/mm] r [mm] {\wurzel{ \bruch {N-2}{1-r^2} }} [/mm] $
Wenn dann für die Testgröße $ [mm] t_{0} [/mm] $ gilt :
$ [mm] t_{0} [/mm] > [mm] t_{n-2; 1- \alpha} [/mm] $ , wird $ [mm] H_{0} [/mm] $ verworfen.
Dann wäre das Beta-Risiko :
$ P [mm] (t_{0} [/mm] < c | [mm] H_{1}) [/mm] = [mm] \beta [/mm] $
$ [mm] \approx \Phi(\sqrt{N-3}(h(c)-h(t_{0}))) [/mm] $ ?
Wieso verwendest du $ [mm] T^2 [/mm] $ und nicht $ T $ bzw. dann unten $ [mm] R^2 [/mm] $?
PS.: habe im Netz einiges über Fisher-Z gefunden, aber das wird dort meistens benutzt um das alpha Risiko (als Alternative zum T-Test)oder Konfidenzintervalle anzugeben . Wenn es mal um das Beta-Risiko geht ,wird nur gesagt , man braucht die "Effektgröße", also den Mittelwertsunterschied der beiden Verteilungen von H1 / H0.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:04 Fr 10.11.2006 | Autor: | luis52 |
> meine T - Pruefstatistik (entspricht deiner genannten):
>
> [mm]t_{0}= r {\wurzel{ \bruch {N-2}{1-r^2} }}[/mm]
>
> Wenn dann für die Testgröße [mm]t_{0}[/mm] gilt :
>
> [mm]t_{0} > t_{n-2; 1- \alpha}[/mm] , wird [mm]H_{0} [/mm] verworfen.
>
Nein, du lehnst die Hypothese auch dann ab, wenn
$ [mm] t_0 [/mm] < [mm] -t_{n-2;1-\alpha/2} [/mm] $, da zu kleine oder zu grosse Werte von $r$
(und damit [mm] $t_0$) [/mm] gegen die Hypothese sprechen. (Beachte meine
Unterscheidung zwischen [mm] $\alpha$ [/mm] und [mm] $\alpha/2$.) [/mm] Aequivalent dazu ist
die Aussage: Ich lehne die Hypothese ab, wenn
$ [mm] t_0^2 [/mm] > [mm] t_{n-2;1-\alpha/2}^2$. [/mm] Deswegen die Verwendung von [mm] $T^2$.
[/mm]
> Dann wäre das Beta-Risiko :
>
> [mm]P (t_{0} < c | H_{1}) = \beta[/mm]
>
> [mm]\approx \Phi(\sqrt{N-3}(h(c)-h(t_{0})))[/mm] ?
>
Auch hier nein: Die Approximation gilt fuer $r$ und nicht fuer [mm] $t_0$
[/mm]
(ich verwende deine Notation).
> Wieso verwendest du [mm]T^2 [/mm] und nicht [mm]T[/mm] bzw. dann unten [mm]R^2 [/mm]?
Siehe oben.
hth
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:20 Di 14.11.2006 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|