matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Mathe
  Status Schulmathe
    Status Primarstufe
    Status Mathe Klassen 5-7
    Status Mathe Klassen 8-10
    Status Oberstufenmathe
    Status Mathe-Wettbewerbe
    Status Sonstiges
  Status Hochschulmathe
    Status Uni-Analysis
    Status Uni-Lin. Algebra
    Status Algebra+Zahlentheo.
    Status Diskrete Mathematik
    Status Fachdidaktik
    Status Finanz+Versicherung
    Status Logik+Mengenlehre
    Status Numerik
    Status Uni-Stochastik
    Status Topologie+Geometrie
    Status Uni-Sonstiges
  Status Mathe-Vorkurse
    Status Organisatorisches
    Status Schule
    Status Universität
  Status Mathe-Software
    Status Derive
    Status DynaGeo
    Status FunkyPlot
    Status GeoGebra
    Status LaTeX
    Status Maple
    Status MathCad
    Status Mathematica
    Status Matlab
    Status Maxima
    Status MuPad
    Status Taschenrechner

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenWahrscheinlichkeitstheorierelative entropy
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Geschichte • Erdkunde • Sozialwissenschaften • Politik/Wirtschaft
Forum "Wahrscheinlichkeitstheorie" - relative entropy
relative entropy < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

relative entropy: probability mass functions
Status: (Frage) beantwortet Status 
Datum: 19:29 Do 29.06.2006
Autor: Katya

Aufgabe

Berechnen Sie die relative Entropie der Wahrscheinlichkeitsverteilungen
p = ( 1/2 , 1/2 ), q = ( 1/3 , 2/3 ).

Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.

Könnt ihr mir bitte helfen

Ich habe folgende Formel der relativen Entropy gefunden:

D(p||q) =  [mm] \summe_{x\in X}p(x) [/mm] log p(x)/q(x)

Dafür brauche ich also die 'probability mass functions'. Die wären dann: 1/2, 1/2 und 2/3, 1/3. Jetzt verstehe ich aber nicht wie ich diese Werte in die Formel eingeben muss: Was ist  jetzt in der Formel p(x) ?

Im ersten Fall könnte ich noch darauf kommen, dass p(x) = 1/2
was mache ich dann im zweiten Fall? q(x) = 2/3 oder q(x) = 1/3?

Wie soll es gehen?


Danke

        
Bezug
relative entropy: Antwort
Status: (Antwort) fertig Status 
Datum: 20:16 Do 29.06.2006
Autor: Walde

Hi Ekaterina,

also ich habs []hier nachgelesen und folgendermassen verstanden:

Du hast [mm] p=(p_1,p_2)=(\bruch{1}{2},\bruch{1}{2}) [/mm] und [mm] q=(q_1,q_2)=(\bruch{1}{3},\bruch{2}{3}) [/mm]

und [mm] D(p||q)=\summe_{k}^{}p_k*\log_2(\bruch{p_k}{q_k}) [/mm]

In der Wikipedia hab ich eine Formel gefunden, wo der [mm] \log [/mm] nicht zur Basis 2 war und eine Version mit [mm] \ln [/mm] hab ich auch gefunden, also welche jetzt stimmt oder ob es egal ist, weiss ich nicht. Nimm einfach die aus deiner Vorlesung. Aber so setzt man in die Formel ein:

[mm] D(p||q)=p_1*\log_2(\bruch{p_1}{q_1})+p_2*\log_2(\bruch{p_2}{q_2}) [/mm]

und dann einfach die Zahlen einsetzen.


Hoffe das hat dich ein bisschen weitergebracht.

L G walde

Bezug
        
Bezug
relative entropy: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 14:03 Fr 30.06.2006
Autor: Katya

Danke vielmals für die Antwort. Sie hat mir sehr geholfen. Mit dem Sigma-Zeichen bin ich ja nicht gerade befreundet.  
Jetzt ist das bei der Entropy normal, wenn ich bein Berechnen einen negativen Wert bekomme? Was bedeutet dann dieser negative Wert?


Danke

Bezug
                
Bezug
relative entropy: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 07:19 Sa 01.07.2006
Autor: Walde

Hi Ekaterina,

tut mir leid, von dem informationstechnischen Hintergrund, hab ich keine Ahnung. In der Wikipedia stand was dazu. Es hat,  glaube ich, was mit Bitverschendung (quasi Platzverschwendung) zu tun, wenn man eine Kodierung, die nach q kodiert ist auf Ereignisse anwendet,die sich aber mit W'keiten nach p ereignen. Aber welche Zahl was bedeutet, weiss ich nicht.

L G walde

Bezug
                
Bezug
relative entropy: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 14:20 So 02.07.2006
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.matheraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]