Erwartungswert und Varianz einer NBIN-verteilten ZV

Neue Frage »

zwergnase Auf diesen Beitrag antworten »
Erwartungswert und Varianz einer NBIN-verteilten ZV
Ich möchte gerne den Erwartungswert und die Varianz einer negativen Binomialverteilung zeigen, aber komme gar nicht weiter, besser gesagt scheitert es schon am Anfang. Weiß nicht so recht wie ich das ganze angehen soll und welche umformung nützlich sind um auf [latex]\frac{r}{p}[/latex] zu kommen.

[latex]E(X) = \sum_{k=r}^\infty~  \begin{pmatrix} k - 1 \\ r -1 \end{pmatrix}  p^r (1-p)^{k - r} = \sum_{k=0}^\infty~  \begin{pmatrix} k - 1 + r \\ r -1 \end{pmatrix}  p^r (1-p)^{k} = ???[/latex]

Hat jemand bitte einen Tipp?

Gruß Wink
AD Auf diesen Beitrag antworten »

Der Erwartungswert ist nicht [latex]\sum_k p_k[/latex] wie bei dir, sondern [latex]\sum_k kp_k[/latex].
 
 
zwergnase Auf diesen Beitrag antworten »

Also wäre ein Ansatz:

[latex]E(X) = \sum_{k=r}^\infty~ k\cdot \begin{pmatrix} k - 1 \\ r -1 \end{pmatrix}  p^r (1-p)^{k - r} = \sum_{k=0}^\infty~ (k + r)\cdot \begin{pmatrix} k - 1 + r \\ r -1 \end{pmatrix}  p^r (1-p)^{k} = \dots[/latex]
AD Auf diesen Beitrag antworten »

Zwei Tipps, die richtig angewandt rasch zum gewünschten Ergebnis führen:


(1) Es ist [latex]k\cdot \binom{k-1}{r-1} = \frac{k!}{(r-1)!\cdot (k-r)!} = r\cdot \binom{k}{r}[/latex] für alle [latex]k\geq r\geq 1[/latex].


(2) Wie bei jeder diskreten Verteilung ist die Summe der Einzelwahrscheinlichkeiten gleich Eins, d.h., es gilt

[latex]\sum_k p_k = \sum_{k=r}^{\infty} ~ \binom{k-1}{r-1} p^r (1-p)^{k-r} = 1[/latex],

und das für beliebige (!) ganze Zahlen [latex]r\geq 1[/latex] und reelle Zahlen [latex]0<p<1[/latex].


P.S.: Auf Wunsch von zwergnase wiederhergestellt.
Leopold Auf diesen Beitrag antworten »

@ zwergnase

Zur Berechnung statistischer Kenngrößen für Wahrscheinlichkeitsverteilungen auf der Menge der ganzen Zahlen [latex]k \geq 0[/latex] bietet sich das Konzept der erzeugenden Funktion an. Gilt nämlich [latex]P(X=k) = p_k[/latex] und definiert man hiermit die erzeugende Funktion [latex]g[/latex] durch [latex]g(x) = \sum_{k=0}^{\infty} p_k x^k[/latex], so gilt

[latex]\mathcal{E}(X) = g'(1) \, , \ \ \mathcal{E}(X^2) = g'(1) + g''(1) \, , \ \ \operatorname{Var}(X) = g'(1) - \left( g'(1) \right)^2 + g''(1)[/latex]

sofern die zugehörigen Reihen auch noch bei [latex]x=1[/latex] konvergieren.

Im konkreten Fall heißt das, wenn man wie üblich [latex]q=1-p[/latex] setzt:

[latex]g(x) = \sum_{k=r}^{\infty} {{k-1} \choose {r-1}} p^r q^{k-r} x^k = (px)^r \sum_{k=r}^{\infty} {{k-1} \choose {k-r}} (qx)^{k-r} = (px)^r \sum_{k=0}^{\infty} {{r+k-1} \choose k} (qx)^k[/latex]

Zuletzt wurde [latex]k[/latex] durch [latex]r+k[/latex] substituiert (Indexverschiebung). Nun gilt (da kommt ja auch der Name "negative" Binomialverteilung her):

[latex]{{r+k-1} \choose k} = \frac{r(r+1)(r+2) \cdots (r+k-1)}{k!} = (-1)^k {{-r} \choose k}[/latex]

womit man

[latex]g(x) = (px)^r \sum_{k=0}^{\infty} {{-r} \choose k} (-qx)^k = (px)^r (1-qx)^{-r} = \left( \frac{p}{q} \right)^r \left( \frac{1}{1 - qx} - 1 \right)^r[/latex]

erhält (binomische Reihe). Die Reihe konvergiert mindestens für [latex]|-qx| <1[/latex], also [latex]|x| < \frac{1}{q}[/latex]. Der Konvergenzradius ist daher größer als 1, womit die obigen Formeln für Erwartungswert und Varianz anwendbar sind. Der Rest ist jetzt eine Rechenaufgabe.
zwergnase Auf diesen Beitrag antworten »

@ Arthur Dent: Danke für deine Hilfe, aber wieso hast du deiner Eintrag gelöscht war gerade am rechnen?
Wäre dies meine erste Umformung?
[latex]\sum_{k=r}^\infty ~r \cdot   \begin{pmatrix} k \\ r \end{pmatrix}  p^r\cdot (1-p)^{k - r}[/latex] Muss ich nun den Index auf k = 0 transformieren?
zwergnase Auf diesen Beitrag antworten »

Hallo Leopold, danke für deine Hilfe, da ich noch nie etwas von einer erzeugenden Funktion gehört habe, hier mal ein paar, vielleicht auch triviale, Fragen:


Zitat:
Original von Leopold
@ zwergnase

Zur Berechnung statistischer Kenngrößen für Wahrscheinlichkeitsverteilungen auf der Menge der ganzen Zahlen [latex]k \geq 0[/latex] bietet sich das Konzept der erzeugenden Funktion an. Gilt nämlich [latex]P(X=k) = p_k[/latex] und definiert man hiermit die erzeugende Funktion [latex]g[/latex] durch [latex]g(x) = \sum_{k=0}^{\infty} p_k x^k[/latex], so gilt

[latex]\mathcal{E}(X) = g'(1) \, , \ \ \mathcal{E}(X^2) = g'(1) + g''(1) \, , \ \ \operatorname{Var}(X) = g'(1) - \left( g'(1) \right)^2 + g''(1)[/latex]

Bedeutet g`(1) die Ableitung für X = 1

sofern die zugehörigen Reihen auch noch bei [latex]x=1[/latex] konvergieren.

Im konkreten Fall heißt das, wenn man wie üblich [latex]q=1-p[/latex] setzt:

[latex]g(x) = \sum_{k=r}^{\infty} {{k-1} \choose {r-1}} p^r q^{k-r} x^k = (px)^r \sum_{k=r}^{\infty} {{k-1} \choose {k-r}} (qx)^{k-r} = (px)^r \sum_{k=0}^{\infty} {{r+k-1} \choose k} (qx)^k[/latex]

Zuletzt wurde [latex]k[/latex] durch [latex]r+k[/latex] substituiert (Indexverschiebung). Nun gilt (da kommt ja auch der Name "negative" Binomialverteilung her):

[latex]{{r+k-1} \choose k} = \frac{r(r+1)(r+2) \cdots (r+k-1)}{k!} = (-1)^k {{-r} \choose k}[/latex]

womit man

[latex]g(x) = (px)^r \sum_{k=0}^{\infty} {{-r} \choose k} (-qx)^k = (px)^r (1-qx)^{-r} = \left( \frac{p}{q} \right)^r \left( \frac{1}{1 - qx} - 1 \right)^r[/latex]

Die Rechenschritte muss ich erstmal in Ruhe nachvollziehen, aber wenn ich nun für x = 1 in dein Endergebnis einsetze komme ich dann auf den Erwartungswert r/p???

erhält (binomische Reihe). Die Reihe konvergiert mindestens für [latex]|-qx| <1[/latex], also [latex]|x| < \frac{1}{q}[/latex]. Der Konvergenzradius ist daher größer als 1, womit die obigen Formeln für Erwartungswert und Varianz anwendbar sind. Der Rest ist jetzt eine Rechenaufgabe.
Leopold Auf diesen Beitrag antworten »

1. Ja, [latex]g'(1)[/latex] meint die Ableitung von [latex]g[/latex] an der Stelle [latex]1[/latex].

2. Ja, es ergibt sich [latex]\mathcal{E}(X) = g'(1) = \frac{r}{p}[/latex] .

Erzeugende Funktionen bieten sich immer dann an, wenn man für die Reihe eine geschlossene Formel angeben kann, so daß die Berechnung von Erwartungswert, Varianz usw. auf bloßen Ableitungskalkül hinausläuft. Bei der Verteilung hier läßt ja schon der Name "negative Binomialverteilung" erahnen, worauf das hinauslaufen könnte. Siehe auch hier, wo dein Problem als sechstes Beispiel aufgelistet ist.

Ein weiteres Beispiel: Poisson-Verteilung mit dem Parameter [latex]\mu[/latex]:

[latex]P(Y=k) = \frac{\mu^k}{k!} \operatorname{e}^{-\mu} \, ; \ \ k = 0,1,2,\ldots[/latex]

Hier ist die erzeugende Funktion

[latex]h(x) = \sum_{k=0}^{\infty} \frac{\mu^k}{k!} \operatorname{e}^{-\mu} x^k = \operatorname{e}^{-\mu} \sum_{k=0}^{\infty} \frac{(\mu x)^k}{k!} = \operatorname{e}^{-\mu} \operatorname{e}^{\mu x} = \operatorname{e}^{\mu x - \mu} \, ; \ \ x \in \mathbb{R}[/latex]

[latex]h'(x) = \mu \operatorname{e}^{\mu x - \mu} \, , \ \ \ h''(x) = \mu^2 \operatorname{e}^{\mu x - \mu}[/latex]

[latex]\mathcal{E}(Y) = h'(1) = \mu \, , \ \ \ \operatorname{Var}(Y) = h'(1) - \left( h'(1) \right)^2 + h''(1) = \mu - \mu^2 + \mu^2 = \mu[/latex]
zwergnase Auf diesen Beitrag antworten »

zu 2. [latex](px)^r\cdot (1- qx)^{-r} = (\frac{px}{(1-(1-p)x)})^r = (\frac{px}{(1-x+px}))^r \overset{x = 1}{=} (\frac{p}{p})^r \neq \frac{r}{p}[/latex]

Zu der Poission-Verteilung komme ich später noch, ist mein nächstes Beispiel, erstmal will ich diese Verteilung verstehen.
Leopold Auf diesen Beitrag antworten »

Du hast [latex]g(1)[/latex] berechnet. unglücklich
zwergnase Auf diesen Beitrag antworten »

[latex]G(x) = (\frac{px}{(1-x+px}))^r [/latex] Aber, wenn ich G(x) nach x ableite, also [latex]G`(x) = \frac{d}{dx}(\frac{px}{(1-x+px)})^r [/latex] komme ich nicht auf r/p für x = 1. verwirrt
Leopold Auf diesen Beitrag antworten »

[latex]g(x) = p^r x^r (1-qx)^{-r}[/latex]

[latex]g'(x) = p^r \left( r x^{r-1} (1-qx)^{-r} + rq x^r (1-qx)^{-r-1} \right) = r p^r x^{r-1} (1-qx)^{-r-1}[/latex]

[latex]g'(1) = r p^r (1-q)^{-r-1} = r p^r p^{-r-1} = \frac{r}{p}[/latex]
zwergnase Auf diesen Beitrag antworten »

Oh, jetzt sehe ich es dummer Ableitungsfehler... unglücklich

Danke smile
zwergnase Auf diesen Beitrag antworten »

Gilt immer, dass das zweite Moment die Summe der ersten und zweiten Ableitung der erzeugenden Funktion ist, und warum. Gibt es dazu einen Beweis?

[latex] \mathcal{E}(X^2) = g'(1) + g''(1) \[/latex]
Leopold Auf diesen Beitrag antworten »

Klar gilt das immer, vorausgesetzt, die entsprechenden Reihen konvergieren. Du kannst das auch selber sofort allgemein beweisen. Gehe aus von

[latex]g(x) = \sum_{k=0}^{\infty} p_k \, x^k[/latex]

[latex]g'(x) = \sum_{k=1}^{\infty} k p_k \, x^{k-1} = p_1 + \sum_{k=2}^{\infty} k p_k \, x^{k-1}[/latex]

[latex]g''(x) = \sum_{k=2}^{\infty} k(k-1) p_k \, x^{k-2}[/latex]

und berechne [latex]g'(1) + g''(1)[/latex].
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »