Binomialverteilung

Binomialverteilung
Wahrscheinlichkeitsfunktion

Drei Wahrscheinlichkeitsfunktionen für Binomialverteilungen mit den Parametern ( n ; p ) = ( 20 ; 0 , 5 ) {\displaystyle (n;p)=(20;0{,}5)} , ( n ; p ) = ( 20 ; 0 , 7 ) {\displaystyle (n;p)=(20;0{,}7)} und

( n ; p ) = ( 40 ; 0 , 5 ) {\displaystyle (n;p)=(40;0{,}5)}

Verteilungsfunktion

Drei Verteilungsfunktionen für Binomialverteilungen mit den Parametern ( n ; p ) = ( 20 ; 0 , 5 ) {\displaystyle (n;p)=(20;0{,}5)} , ( n ; p ) = ( 20 ; 0 , 7 ) {\displaystyle (n;p)=(20;0{,}7)} und

( n ; p ) = ( 40 ; 0 , 5 ) {\displaystyle (n;p)=(40;0{,}5)}

Parameter n N + {\displaystyle n\in \mathbb {N} ^{+}} , p [ 0 , 1 ] {\displaystyle p\in [0,1]}
Träger k { 0 , , n } {\displaystyle k\in \{0,\dotsc ,n\}}
Wahrscheinlichkeitsfunktion ( n k ) p k ( 1 p ) n k {\displaystyle \textstyle {n \choose k}\,p^{k}(1-p)^{n-k}}
Verteilungsfunktion I 1 p ( n k , 1 + k ) {\displaystyle I_{1-p}(n-\lfloor k\rfloor ,1+\lfloor k\rfloor )}
Erwartungswert n p {\displaystyle np}
Median i. A. keine geschlossene Formel, siehe unten
Modus ( n + 1 ) p {\displaystyle \lfloor (n+1)p\rfloor } oder ( n + 1 ) p 1 {\displaystyle \lfloor (n+1)p-1\rfloor }
Varianz n p ( 1 p ) {\displaystyle np(1-p)}
Schiefe 1 2 p n p ( 1 p ) ( 0 < p < 1 ) {\displaystyle {\frac {1-2p}{\sqrt {np(1-p)}}}\quad (0<p<1)}
Wölbung 3 + 1 6 p ( 1 p ) n p ( 1 p ) ( 0 < p < 1 ) {\displaystyle 3+{\frac {1-6p(1-p)}{np(1-p)}}\quad (0<p<1)}
Entropie 1 2 log 2 ( 2 π e n p ( 1 p ) ) {\displaystyle {\frac {1}{2}}\log _{2}{\big (}2\pi \mathrm {e} \,np(1-p){\big )}}
+ O ( 1 n ) ( 0 < p < 1 ) {\displaystyle +\operatorname {\mathcal {O}} \left({\frac {1}{n}}\right)\quad (0<p<1)}
Momenterzeugende Funktion ( 1 p + p e t ) n {\displaystyle \left(1-p+p\mathrm {e} ^{t}\right)^{n}}
Charakteristische Funktion ( 1 p + p e i t ) n {\displaystyle \left(1-p+p\mathrm {e} ^{\mathrm {i} t}\right)^{n}}
Wahrscheinlichkeitsfunktion der Binomialverteilung für n = 20 {\displaystyle n=20} ; p = 0 , 1 {\displaystyle p=0{,}1} (blau), p = 0 , 5 {\displaystyle p=0{,}5} (grün) und p = 0 , 8 {\displaystyle p=0{,}8} (rot)
Binomialverteilungen für p = 0 , 5 {\displaystyle p=0{,}5}
mit n {\displaystyle n} und k {\displaystyle k} wie im Pascalschen Dreieck

Die Wahrscheinlichkeit, dass eine Kugel in einem Galtonbrett mit acht Ebenen ( n = 8 {\displaystyle n=8} ) ins mittlere Fach fällt ( k = 4 {\displaystyle k=4} ), ist 70 / 256 {\displaystyle 70/256} .

Die Binomialverteilung ist eine der wichtigsten diskreten Wahrscheinlichkeitsverteilungen.

Sie beschreibt die Anzahl der Erfolge in einer Serie von gleichartigen und unabhängigen Versuchen, die jeweils genau zwei mögliche Ergebnisse haben („Erfolg“ oder „Misserfolg“). Solche Versuchsserien werden auch Bernoulli-Prozesse genannt. Im Urnenmodell wird ein solcher Versuch als Ziehen mit Zurücklegen bezeichnet.

Ist p {\displaystyle p} die Erfolgswahrscheinlichkeit bei einem Versuch und n {\displaystyle n} die Anzahl der Versuche, dann bezeichnet man mit B ( k p , n ) {\displaystyle B(k\mid p,n)} (auch B n , p ( k ) {\displaystyle B_{n,p}(k)} , B ( n , p , k ) {\displaystyle B(n,p,k)} [1] oder B ( n ; p ; k ) {\displaystyle B(n;p;k)} [2]) die Wahrscheinlichkeit, genau k {\displaystyle k} Erfolge zu erzielen (siehe Abschnitt Definition).

Die Binomialverteilung und der Bernoulli-Versuch können mit Hilfe des Galtonbretts veranschaulicht werden. Dabei handelt es sich um eine mechanische Apparatur, in die man Kugeln wirft. Diese fallen dann zufällig in eines von mehreren Fächern, wobei die Aufteilung der Binomialverteilung entspricht. Je nach Konstruktion sind unterschiedliche Parameter n {\displaystyle n} und p {\displaystyle p} möglich.

Obwohl die Binomialverteilung bereits lange vorher bekannt war, wurde der Begriff zum ersten Mal 1911 in einem Buch von George Udny Yule verwendet.[3]

Definition

Wahrscheinlichkeitsfunktion, Verteilungsfunktion, Eigenschaften

Die diskrete Wahrscheinlichkeitsverteilung mit der Wahrscheinlichkeitsfunktion

B ( k p , n ) = { ( n k ) p k ( 1 p ) n k falls k { 0 , 1 , , n } , 0 sonst. {\displaystyle B(k\mid p,n)={\begin{cases}{\binom {n}{k}}p^{k}(1-p)^{n-k}&{\text{falls}}\quad k\in \left\{0,1,\dots ,n\right\},\\0&{\text{sonst.}}\end{cases}}}

heißt die Binomialverteilung zu den Parametern n N {\displaystyle n\in \mathbb {N} } (Anzahl der Versuche) und p [ 0 , 1 ] {\displaystyle p\in \left[0,1\right]} (der Erfolgs- oder Trefferwahrscheinlichkeit). Bei dieser Formel wird die Konvention 0 0 := 1 {\displaystyle 0^{0}:=1} angewendet (siehe dazu null hoch null).

Eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung eine Binomialverteilung ist, heißt binomialverteilt. Die Binomialverteilung mit den Parametern n {\displaystyle n} und p {\displaystyle p} wird mit B ( n , p ) {\displaystyle {\mathcal {B}}(n,p)} oder B i n ( n , p ) {\displaystyle \mathrm {Bin} (n,p)} bezeichnet. Wenn eine Zufallsvariable X {\displaystyle X} die Binomialverteilung B i n ( n , p ) {\displaystyle \mathrm {Bin} (n,p)} besitzt, so wird dies X B i n ( n , p ) {\displaystyle X\sim \mathrm {Bin} (n,p)} notiert.

Die obige Formel kann so verstanden werden: Wir brauchen bei insgesamt n {\displaystyle n} Versuchen genau k {\displaystyle k} Erfolge der Wahrscheinlichkeit p k {\displaystyle p^{k}} und haben demzufolge genau n k {\displaystyle n-k} Fehlschläge der Wahrscheinlichkeit ( 1 p ) n k {\displaystyle (1-p)^{n-k}} . Allerdings kann jeder der k {\displaystyle k} Erfolge bei jedem der n {\displaystyle n} Versuche auftreten, sodass wir noch mit der Anzahl ( n k ) {\displaystyle {\tbinom {n}{k}}} der k {\displaystyle k} -elementigen Teilmengen einer n {\displaystyle n} -elementigen Menge multiplizieren müssen. Denn genau so viele Möglichkeiten gibt es, aus allen n {\displaystyle n} Versuchen die k {\displaystyle k} erfolgreichen auszuwählen.

Die zur Erfolgswahrscheinlichkeit p {\displaystyle p} komplementäre Ausfallwahrscheinlichkeit 1 p {\displaystyle 1-p} wird häufig mit q {\displaystyle q} abgekürzt.

Wie für eine Wahrscheinlichkeitsverteilung notwendig, müssen sich die Wahrscheinlichkeiten für alle möglichen Werte k {\displaystyle k} zu 1 summieren. Dies ergibt sich aus dem binomischen Lehrsatz wie folgt:

k = 0 n ( n k ) p k ( 1 p ) n k = ( p + ( 1 p ) ) n = 1 n = 1 {\displaystyle \sum _{k=0}^{n}{\binom {n}{k}}p^{k}(1-p)^{n-k}=\left(p+\left(1-p\right)\right)^{n}=1^{n}=1}

Eine mit der Wahrscheinlichkeitsfunktion B ( p , n ) {\displaystyle B(\cdot \mid p,n)} verteilte Zufallsgröße X {\displaystyle X} heißt dementsprechend binomialverteilt mit den Parametern n {\displaystyle n} und p {\displaystyle p} sowie der Verteilungsfunktion

F X ( x ) = P ( X x ) = k = 0 x ( n k ) p k ( 1 p ) n k {\displaystyle F_{X}(x)=\operatorname {P} (X\leq x)=\sum _{k=0}^{\lfloor x\rfloor }{\binom {n}{k}}p^{k}(1-p)^{n-k}} ,

wobei x {\displaystyle \lfloor x\rfloor } die Abrundungsfunktion bezeichnet.

Weitere gebräuchliche Schreibweisen der kumulierten Binomialverteilung sind F ( k p , n ) {\displaystyle F(k\mid p,n)} , F ( n , p , k ) {\displaystyle F(n,p,k)} [4] und F ( n ; p ; k ) {\displaystyle F(n;p;k)} .[5]

Herleitung als Laplace-Wahrscheinlichkeit

Versuchsschema: Eine Urne enthält N {\displaystyle N} Bälle, davon sind M {\displaystyle M} schwarz und N M {\displaystyle N-M} weiß. Die Wahrscheinlichkeit p {\displaystyle p} , einen schwarzen Ball zu ziehen, ist also p = M N {\displaystyle p={\frac {M}{N}}} . Es werden nacheinander zufällig n {\displaystyle n} Bälle entnommen, ihre Farbe bestimmt und wieder zurückgelegt.

Wir berechnen die Anzahl der Möglichkeiten, in denen man k {\displaystyle k} schwarze Bälle findet, und daraus die sogenannte Laplace-Wahrscheinlichkeit („Anzahl der für das Ereignis günstigen Möglichkeiten, geteilt durch die Gesamtanzahl der (gleichwahrscheinlichen) Möglichkeiten“).

Bei jeder der n {\displaystyle n} Ziehungen gibt es N {\displaystyle N} Möglichkeiten, insgesamt also N n {\displaystyle N^{n}} Möglichkeiten für die Auswahl der Bälle. Damit genau k {\displaystyle k} dieser n {\displaystyle n} Bälle schwarz sind, müssen genau k {\displaystyle k} der n {\displaystyle n} Ziehungen einen schwarzen Ball aufweisen. Für jeden schwarzen Ball gibt es M {\displaystyle M} Möglichkeiten, und für jeden weißen Ball N M {\displaystyle N-M} Möglichkeiten. Die k {\displaystyle k} schwarzen Bälle können noch auf ( n k ) {\displaystyle {\tbinom {n}{k}}} mögliche Weisen über die n {\displaystyle n} Ziehungen verteilt sein, also gibt es

( n k ) M k ( N M ) n k {\displaystyle {\binom {n}{k}}M^{k}(N-M)^{n-k}}

Fälle, bei denen genau k {\displaystyle k} schwarze Bälle ausgewählt worden sind. Die Wahrscheinlichkeit p k {\displaystyle p_{k}} , unter n {\displaystyle n} Bällen genau k {\displaystyle k} schwarze zu finden, ist also

p k = ( n k ) M k ( N M ) n k N n = ( n k ) ( M N ) k ( N M N ) n k = ( n k ) p k ( 1 p ) n k . {\displaystyle {\begin{aligned}p_{k}&={\binom {n}{k}}{\frac {M^{k}(N-M)^{n-k}}{N^{n}}}\\&={\binom {n}{k}}\left({\frac {M}{N}}\right)^{k}\left({\frac {N-M}{N}}\right)^{n-k}\\&={\binom {n}{k}}p^{k}(1-p)^{n-k}.\end{aligned}}}

Beispiele

Spielwürfel

Die Wahrscheinlichkeit, mit einem fairen Spielwürfel eine 6 zu würfeln, beträgt p = 1 6 {\displaystyle p={\tfrac {1}{6}}} . Die Wahrscheinlichkeit q {\displaystyle q} , dass dies nicht der Fall ist, beträgt q = 1 p = 5 6 {\displaystyle q=1-p={\tfrac {5}{6}}} . Angenommen, man würfelt 10-mal ( n = 10 {\displaystyle n=10} ), dann beträgt die Wahrscheinlichkeit, dass kein einziges Mal eine 6 gewürfelt wird, q 10 = ( 1 p ) 10 = ( 5 6 ) 10 = 9765625 60466176 0,162 {\displaystyle q^{10}=(1-p)^{10}=\left({\tfrac {5}{6}}\right)^{10}={\tfrac {9765625}{60466176}}\approx 0{,}162} . Die Wahrscheinlichkeit, dass genau 2-mal eine 6 gewürfelt wird, beträgt ( 10 2 ) ( 1 6 ) 2 ( 5 6 ) 8 {\displaystyle {\binom {10}{2}}\left({\tfrac {1}{6}}\right)^{2}\left({\tfrac {5}{6}}\right)^{8}} . Allgemein wird die Wahrscheinlichkeit, dass man k {\displaystyle k} -mal eine solche Zahl würfelt ( 0 k 10 ) {\displaystyle (0\leq k\leq 10)} , durch die Binomialverteilung B 10 , 1 6 ( k ) {\displaystyle B_{10,{\tfrac {1}{6}}}(k)} beschrieben.

Häufig wird der durch die Binomialverteilung beschriebene Prozess auch durch ein sogenanntes Urnenmodell illustriert. In einer Urne seien z. B. 6 Kugeln, 1 davon weiß, die anderen schwarz. Man greife nun 10-mal in die Urne, hole eine Kugel heraus, notiere deren Farbe und lege die Kugel wieder zurück. In einer speziellen Deutung dieses Prozesses wird das Ziehen einer weißen Kugel als positives Ereignis mit der Wahrscheinlichkeit p {\displaystyle p} verstanden, das Ziehen einer nicht-weißen Kugel als negatives Ereignis. Die Wahrscheinlichkeiten sind genauso verteilt wie im Beispiel mit dem Spielwürfel.

Münzwurf

Eine Münze wird 7-mal geworfen. Wenn die diskrete Zufallsvariable X {\displaystyle X} die Anzahl der Würfe zählt, mit denen „Zahl“ geworfen wird, ergibt sich für X {\displaystyle X} eine Binomialverteilung mit der Wahrscheinlichkeitsfunktion

P ( X = k ) = B ( k 1 2 , 7 ) = { ( 7 k ) ( 1 2 ) k ( 1 1 2 ) 7 k falls k { 0 , 1 , 2 , 3 , 4 , 5 , 6 , 7 } , 0 sonst. {\displaystyle P(X=k)=B(k\mid {\tfrac {1}{2}},7)={\begin{cases}{\binom {7}{k}}({\tfrac {1}{2}})^{k}(1-{\tfrac {1}{2}})^{7-k}&{\text{falls}}\quad k\in \left\{0,1,2,3,4,5,6,7\right\},\\0&{\text{sonst.}}\end{cases}}}

Die Werte und ihre Wahrscheinlichkeiten lassen sich in folgender Tabelle zusammenfassen:

k {\displaystyle k} 0 {\displaystyle 0} 1 {\displaystyle 1} 2 {\displaystyle 2} 3 {\displaystyle 3} 4 {\displaystyle 4} 5 {\displaystyle 5} 6 {\displaystyle 6} 7 {\displaystyle 7}
p k = P ( X = k ) {\displaystyle p_{k}=P(X=k)} 1 128 {\displaystyle {\frac {1}{128}}} 7 128 {\displaystyle {\frac {7}{128}}} 21 128 {\displaystyle {\frac {21}{128}}} 35 128 {\displaystyle {\frac {35}{128}}} 35 128 {\displaystyle {\frac {35}{128}}} 21 128 {\displaystyle {\frac {21}{128}}} 7 128 {\displaystyle {\frac {7}{128}}} 1 128 {\displaystyle {\frac {1}{128}}}

Der Erwartungswert der Zufallsvariablen X {\displaystyle X} ist

E [ X ] = μ = n p = 7 1 2 = 3 , 5 {\displaystyle \mathrm {E} [X]={\color {BrickRed}\mu }=np=7\cdot {\frac {1}{2}}={\color {BrickRed}3{,}5}} .

Die Varianz der Zufallsvariablen X {\displaystyle X} ist demnach gegeben durch

V a r [ X ] = σ 2 = k = 0 7 ( k μ ) 2 p k = ( 0 3 , 5 ) 2 1 128 + ( 1 3 , 5 ) 2 7 128 + ( 2 3 , 5 ) 2 21 128 + ( 3 3 , 5 ) 2 35 128 + ( 4 3 , 5 ) 2 35 128 + ( 5 3 , 5 ) 2 21 128 + ( 6 3 , 5 ) 2 7 128 + ( 7 3 , 5 ) 2 1 128 = 7 4 = 1 , 75 {\displaystyle {\begin{aligned}\mathrm {Var[X]} =\sigma ^{2}&=\sum _{k=0}^{7}(k-{\color {BrickRed}\mu })^{2}p_{k}=(0-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {1}{128}}+(1-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {7}{128}}+(2-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {21}{128}}+(3-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {35}{128}}\\&\quad +(4-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {35}{128}}+(5-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {21}{128}}+(6-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {7}{128}}+(7-{\color {BrickRed}3{,}5})^{2}\cdot {\frac {1}{128}}={\frac {7}{4}}=1{,}75\end{aligned}}}

Mit dem Verschiebungssatz erhält man ebenfalls den gleichen Wert für die Varianz:

σ 2 = ( k = 0 7 k 2 p k ) μ 2 = 0 2 1 128 + 1 2 7 128 + 2 2 21 128 + 3 2 35 128 + 4 2 35 128 + 5 2 21 128 + 6 2 7 128 + 7 2 1 128 3 , 5 2 = 1 , 75 {\displaystyle \sigma ^{2}=\left(\sum _{k=0}^{7}k^{2}p_{k}\right)-{\color {BrickRed}\mu }^{2}=0^{2}\cdot {\frac {1}{128}}+1^{2}\cdot {\frac {7}{128}}+2^{2}\cdot {\frac {21}{128}}+3^{2}\cdot {\frac {35}{128}}+4^{2}\cdot {\frac {35}{128}}+5^{2}\cdot {\frac {21}{128}}+6^{2}\cdot {\frac {7}{128}}+7^{2}\cdot {\frac {1}{128}}-{\color {BrickRed}3{,}5}^{2}=1{,}75} .

Für die Standardabweichung ergibt sich damit:

σ = σ 2 = 1 , 75 1,323 {\displaystyle \sigma ={\sqrt {\sigma ^{2}}}={\sqrt {1{,}75}}\approx 1{,}323} .

Eigenschaften

Symmetrie

  • Die Binomialverteilung ist in den Spezialfällen p = 0 {\displaystyle p=0} , p = 0 , 5 {\displaystyle p=0{,}5} und p = 1 {\displaystyle p=1} symmetrisch und ansonsten asymmetrisch.
  • Die Wahrscheinlichkeitsfunktion der Binomialverteilung besitzt die Eigenschaft
B ( k | p , n ) = B ( n k | 1 p , n ) für  k { 0 , 1 , , n } {\displaystyle B(k|p,n)=B(n-k|1-p,n)\quad {\text{für }}k\in \{0,1,\dots ,n\}} .

Erwartungswert

Eine binomialverteilte Zufallsvariable X B ( n , p ) {\displaystyle X\sim B(n,p)} besitzt den Erwartungswert E ( X ) = n p {\displaystyle \operatorname {E} (X)=np} .

Beweis

Den Erwartungswert errechnet man direkt aus der Definition E ( X ) = k = 0 n k P ( X = k ) {\displaystyle \operatorname {E} (X)=\sum _{k=0}^{n}kP(X=k)} und der Formel für die Einzelwahrscheinlichkeiten zu

E ( X ) = k = 0 n k ( n k ) p k ( 1 p ) n k = n p k = 0 n k ( n 1 ) ! ( n k ) ! k ! p k 1 ( 1 p ) ( n 1 ) ( k 1 ) = n p k = 1 n ( n 1 ) ! ( n k ) ! ( k 1 ) ! p k 1 ( 1 p ) ( n 1 ) ( k 1 ) = n p k = 1 n ( n 1 k 1 ) p k 1 ( 1 p ) ( n 1 ) ( k 1 ) = n p = 0 n 1 ( n 1 ) p ( 1 p ) ( n 1 ) mit  := k 1 = n p = 0 m ( m ) p ( 1 p ) m mit  m := n 1 = n p ( p + ( 1 p ) ) m = n p 1 m = n p . {\displaystyle {\begin{aligned}\operatorname {E} (X)&=\sum _{k=0}^{n}k{\binom {n}{k}}p^{k}(1-p)^{n-k}\\&=np\sum _{k=0}^{n}k{\frac {(n-1)!}{(n-k)!k!}}p^{k-1}(1-p)^{(n-1)-(k-1)}\\&=np\sum _{k=1}^{n}{\frac {(n-1)!}{(n-k)!(k-1)!}}p^{k-1}(1-p)^{(n-1)-(k-1)}\\&=np\sum _{k=1}^{n}{\binom {n-1}{k-1}}p^{k-1}(1-p)^{(n-1)-(k-1)}\\&=np\sum _{\ell =0}^{n-1}{\binom {n-1}{\ell }}p^{\ell }(1-p)^{(n-1)-\ell }\quad {\text{mit }}\ell :=k-1\\&=np\sum _{\ell =0}^{m}{\binom {m}{\ell }}p^{\ell }(1-p)^{m-\ell }\qquad {\text{mit }}m:=n-1\\&=np\left(p+\left(1-p\right)\right)^{m}=np1^{m}=np.\end{aligned}}}

Alternativ kann man verwenden, dass eine B ( p , n ) {\displaystyle B(\cdot \mid p,n)} -verteilte Zufallsvariable X {\displaystyle X} als eine Summe von n {\displaystyle n} unabhängigen Bernoulli-verteilten Zufallsvariablen X i {\displaystyle X_{i}} mit E ( X i ) = p {\displaystyle \operatorname {E} (X_{i})=p} geschrieben werden kann. Mit der Linearität des Erwartungswertes folgt dann

E ( X ) = E ( X 1 + + X n ) = E ( X 1 ) + + E ( X n ) = n p . {\displaystyle \operatorname {E} (X)=\operatorname {E} (X_{1}+\dotsb +X_{n})=\operatorname {E} (X_{1})+\dotsb +\operatorname {E} (X_{n})=np.}

Alternativ kann man ebenfalls mit Hilfe des binomischen Lehrsatzes folgenden Beweis geben: Differenziert man bei der Gleichung

( a + b ) n = k = 0 n ( n k ) a k b n k {\displaystyle (a+b)^{n}=\sum _{k=0}^{n}{\tbinom {n}{k}}a^{k}b^{n-k}}

beide Seiten nach a {\displaystyle a} , ergibt sich

n ( a + b ) n 1 = k = 0 n k ( n k ) a k 1 b n k {\displaystyle n(a+b)^{n-1}=\sum _{k=0}^{n}k{\tbinom {n}{k}}a^{k-1}b^{n-k}} ,

also

n a ( a + b ) n 1 = k = 0 n k ( n k ) a k b n k {\displaystyle na(a+b)^{n-1}=\sum _{k=0}^{n}k{\tbinom {n}{k}}a^{k}b^{n-k}} .

Mit a = p {\displaystyle a=p} und b = 1 p {\displaystyle b=1-p} folgt das gewünschte Ergebnis.

Varianz

Eine binomialverteilte Zufallsvariable X B ( n , p ) {\displaystyle X\sim B(n,p)} besitzt die Varianz V a r [ X ] = n p ( 1 p ) {\displaystyle \mathrm {Var} [X]=np(1-p)} .

Beweis

Es sei X {\displaystyle X} eine B ( n , p ) {\displaystyle B(n,p)} -verteilte Zufallsvariable. Die Varianz bestimmt sich direkt aus dem Verschiebungssatz Var [ X ] = E [ X 2 ] ( E [ X ] ) 2 {\displaystyle \operatorname {Var} [X]=\operatorname {E} [X^{2}]-\left(\operatorname {E} [X]\right)^{2}} zu

Var [ X ] = k = 0 n k 2 P ( X = k ) ( n p ) 2 = k = 0 n k 2 ( n k ) p k ( 1 p ) n k n 2 p 2 = n 2 p 2 n p 2 + n p n 2 p 2 = n p ( 1 p ) {\displaystyle {\begin{aligned}\operatorname {Var} [X]&=\sum _{k=0}^{n}k^{2}\cdot P(X=k)-(np)^{2}\\&=\sum _{k=0}^{n}k^{2}\cdot {n \choose k}p^{k}(1-p)^{n-k}-n^{2}p^{2}\\&={\cancel {n^{2}p^{2}}}-np^{2}+np{\cancel {-n^{2}p^{2}}}\\&=np(1-p)\end{aligned}}}

oder alternativ aus der Gleichung von Bienaymé, angewendet auf die Varianz unabhängiger Zufallsvariablen, wenn man berücksichtigt, dass die identisch verteilten Zufallsvariablen X i {\displaystyle X_{i}} der Bernoulli-Verteilung mit Var [ X i ] = p ( 1 p ) {\displaystyle \operatorname {Var} [X_{i}]=p(1-p)} genügen, zu

Var [ X ] = Var [ X 1 + + X n ] = Var [ X 1 ] + + Var [ X n ] = n Var [ X 1 ] = n p ( 1 p ) . {\displaystyle \operatorname {Var} [X]=\operatorname {Var} [X_{1}+\dots +X_{n}]=\operatorname {Var} [X_{1}]+\dots +\operatorname {Var} [X_{n}]=n\operatorname {Var} [X_{1}]=np(1-p).}

Die zweite Gleichheit gilt, weil die Einzelexperimente unabhängig sind, sodass die Einzelvariablen unkorreliert sind.

Variationskoeffizient

Aus Erwartungswert und Varianz erhält man den Variationskoeffizienten

VarK ( X ) = 1 p n p . {\displaystyle \operatorname {VarK} (X)={\sqrt {\frac {1-p}{np}}}.}

Schiefe

Die Schiefe ergibt sich zu

v ( X ) = 1 2 p n p ( 1 p ) . {\displaystyle \operatorname {v} (X)={\frac {1-2p}{\sqrt {np(1-p)}}}.}

Wölbung

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

β 2 = 3 + 1 6 p ( 1 p ) n p ( 1 p ) . {\displaystyle \beta _{2}=3+{\frac {1-6p(1-p)}{np(1-p)}}.}

Damit ist der Exzess

γ 2 = 1 6 p ( 1 p ) n p ( 1 p ) . {\displaystyle \gamma _{2}={\frac {1-6p(1-p)}{np(1-p)}}.}

Modus

Der Modus, also der Wert mit der maximalen Wahrscheinlichkeit, ist für p < 1 {\displaystyle p<1} gleich k = n p + p {\displaystyle k=\lfloor np+p\rfloor } und für p = 1 {\displaystyle p=1} gleich n {\displaystyle n} . Falls n p + p {\displaystyle np+p} eine natürliche Zahl ist, ist k = n p + p 1 {\displaystyle k=np+p-1} ebenfalls ein Modus. Falls der Erwartungswert eine natürliche Zahl ist, ist der Erwartungswert gleich dem Modus.

Beweis

Sei ohne Einschränkung 0 < p < 1 {\displaystyle 0<p<1} . Wir betrachten den Quotienten

α k := B ( k + 1 p , n ) B ( k p , n ) = n ! ( k + 1 ) ! ( n k 1 ) ! n ! k ! ( n k ) ! p k + 1 ( 1 p ) n k 1 p k ( 1 p ) n k = n k k + 1 p 1 p {\displaystyle \alpha _{k}:={\frac {B(k+1\mid p,n)}{B(k\mid p,n)}}={\frac {\,{\frac {n!}{(k+1)!(n-k-1)!}}\,}{\frac {n!}{k!(n-k)!}}}\cdot {\frac {p^{k+1}(1-p)^{n-k-1}}{p^{k}(1-p)^{n-k}}}={\frac {n-k}{k+1}}\cdot {\frac {p}{1-p}}} .

Nun gilt α k > 1 {\displaystyle \alpha _{k}>1} , falls k < n p + p 1 {\displaystyle k<np+p-1} und α k < 1 {\displaystyle \alpha _{k}<1} , falls k > n p + p 1 {\displaystyle k>np+p-1} . Also:

k > ( n + 1 ) p 1 α k < 1 B ( k + 1 p , n ) < B ( k p , n ) k = ( n + 1 ) p 1 α k = 1 B ( k + 1 p , n ) = B ( k p , n ) k < ( n + 1 ) p 1 α k > 1 B ( k + 1 p , n ) > B ( k p , n ) {\displaystyle {\begin{aligned}k>(n+1)p-1\Rightarrow \alpha _{k}<1\Rightarrow B(k+1\mid p,n)<B(k\mid p,n)\\k=(n+1)p-1\Rightarrow \alpha _{k}=1\Rightarrow B(k+1\mid p,n)=B(k\mid p,n)\\k<(n+1)p-1\Rightarrow \alpha _{k}>1\Rightarrow B(k+1\mid p,n)>B(k\mid p,n)\end{aligned}}}

Und nur im Fall n p + p 1 N {\displaystyle np+p-1\in \mathbb {N} } hat der Quotient den Wert 1, d. h. B ( n p + p 1 n , p ) = B ( n p + p n , p ) {\displaystyle B(np+p-1\mid n,p)=B(np+p\mid n,p)} .

Median

Es ist nicht möglich, eine allgemeine Formel für den Median der Binomialverteilung anzugeben. Daher sind verschiedene Fälle zu betrachten, die einen geeigneten Median liefern:

  • Ist n p {\displaystyle np} eine natürliche Zahl, dann stimmen Erwartungswert, Median und Modus überein und sind gleich n p {\displaystyle np} .[6][7]
  • Ein Median m {\displaystyle m} liegt im Intervall n p m n p {\displaystyle \lfloor np\rfloor \leq m\leq \lceil np\rceil } .[8] Hierbei bezeichnen {\displaystyle \lfloor \cdot \rfloor } die Abrundungsfunktion und {\displaystyle \lceil \cdot \rceil } die Aufrundungsfunktion.
  • Ein Median m {\displaystyle m} kann nicht zu stark vom Erwartungswert abweichen: | m n p | min { ln 2 , max { p , 1 p } } {\displaystyle |m-np|\leq \min\{\ln 2,\max\{p,1-p\}\}} .[9]
  • Der Median ist eindeutig und stimmt mit m = {\displaystyle m=} round ( n p ) {\displaystyle (np)} überein, wenn entweder p 1 ln 2 {\displaystyle p\leq 1-\ln 2} oder p ln 2 {\displaystyle p\geq \ln 2} oder | m n p | min { p , 1 p } {\displaystyle |m-np|\leq \min\{p,1-p\}} (außer wenn p = 1 / 2 {\displaystyle p=1/2} und n {\displaystyle n} gerade ist).[8][9]
  • Ist p = 1 / 2 {\displaystyle p=1/2} und n {\displaystyle n} ungerade, so ist jede Zahl m {\displaystyle m} im Intervall 1 / 2 ( n 1 ) m 1 / 2 ( n + 1 ) {\displaystyle 1/2(n-1)\leq m\leq 1/2(n+1)} ein Median der Binomialverteilung mit Parametern p {\displaystyle p} und n {\displaystyle n} . Ist p = 1 / 2 {\displaystyle p=1/2} und n {\displaystyle n} gerade, so ist m = n / 2 {\displaystyle m=n/2} der eindeutige Median.

Kumulanten

Analog zur Bernoulli-Verteilung ist die kumulantenerzeugende Funktion

g X ( t ) = n ln ( p e t + q ) {\displaystyle g_{X}(t)=n\ln(pe^{t}+q)} .

Damit sind die ersten Kumulanten κ 1 = n p , κ 2 = n p q {\displaystyle \kappa _{1}=np,\kappa _{2}=npq} und es gilt die Rekursionsgleichung

κ k + 1 = p ( 1 p ) d κ k d p . {\displaystyle \kappa _{k+1}=p(1-p){\frac {d\kappa _{k}}{dp}}.}

Charakteristische Funktion

Die charakteristische Funktion hat die Form

ϕ X ( s ) = ( ( 1 p ) + p e i s ) n = ( q + p e i s ) n . {\displaystyle \phi _{X}(s)=\left(\left(1-p\right)+p\mathrm {e} ^{\mathrm {i} s}\right)^{n}=\left(q+p\mathrm {e} ^{\mathrm {i} s}\right)^{n}.}

Wahrscheinlichkeitserzeugende Funktion

Für die wahrscheinlichkeitserzeugende Funktion erhält man

g X ( s ) = ( p s + ( 1 p ) ) n . {\displaystyle g_{X}(s)=(ps+(1-p))^{n}.}

Momenterzeugende Funktion

Die momenterzeugende Funktion der Binomialverteilung lautet

m X ( s ) = E ( e s X ) = k = 0 n e s k ( n k ) p k ( 1 p ) n k = k = 0 n ( n k ) ( e s p ) k ( 1 p ) n k = ( p e s + ( 1 p ) ) n . {\displaystyle {\begin{aligned}m_{X}(s)&=\operatorname {E} \left(e^{sX}\right)\\&=\sum _{k=0}^{n}\mathrm {e} ^{sk}\cdot {\binom {n}{k}}p^{k}(1-p)^{n-k}\\&=\sum _{k=0}^{n}{\binom {n}{k}}(\mathrm {e} ^{s}p)^{k}(1-p)^{n-k}\\&=\left(p\cdot \mathrm {e} ^{s}+\left(1-p\right)\right)^{n}.\end{aligned}}}

Summe binomialverteilter Zufallsgrößen

Für die Summe Z = X + Y {\displaystyle Z=X+Y} zweier unabhängiger binomialverteilter Zufallsgrößen X {\displaystyle X} und Y {\displaystyle Y} mit den Parametern n 1 {\displaystyle n_{1}} , p {\displaystyle p} und n 2 {\displaystyle n_{2}} , p {\displaystyle p} erhält man die Einzelwahrscheinlichkeiten durch Anwendung der Vandermondeschen Identität

P ( Z = k ) = i = 0 k [ ( n 1 i ) p i ( 1 p ) n 1 i ] [ ( n 2 k i ) p k i ( 1 p ) n 2 k + i ] = ( n 1 + n 2 k ) p k ( 1 p ) n 1 + n 2 k ( k = 0 , 1 , , n 1 + n 2 ) , {\displaystyle {\begin{aligned}\operatorname {P} (Z=k)&=\sum _{i=0}^{k}\left[{\binom {n_{1}}{i}}p^{i}(1-p)^{n_{1}-i}\right]\left[{\binom {n_{2}}{k-i}}p^{k-i}(1-p)^{n_{2}-k+i}\right]\\&={\binom {n_{1}+n_{2}}{k}}p^{k}(1-p)^{n_{1}+n_{2}-k}\qquad (k=0,1,\dotsc ,n_{1}+n_{2}),\end{aligned}}}

also wieder eine binomialverteilte Zufallsgröße, jedoch mit den Parametern n 1 + n 2 {\displaystyle n_{1}+n_{2}} und p {\displaystyle p} . Somit gilt für die Faltung

Bin ( n , p ) Bin ( m , p ) = Bin ( n + m , p ) {\displaystyle \operatorname {Bin} (n,p)*\operatorname {Bin} (m,p)=\operatorname {Bin} (n+m,p)}

Die Binomialverteilung ist also reproduktiv für festes p {\displaystyle p} bzw. bildet eine Faltungshalbgruppe.

Wenn die Summe Z = X + Y {\displaystyle Z=X+Y} bekannt ist, folgt jede der Zufallsvariablen X {\displaystyle X} und Y {\displaystyle Y} unter dieser Bedingung einer hypergeometrischen Verteilung. Dazu berechnet man die bedingte Wahrscheinlichkeit:

P ( X = | Z = k ) = P ( X = Z = k ) P ( Z = k ) = P ( X = Y = k ) P ( Z = k ) = P ( X = ) P ( Y = k ) P ( Z = k ) = ( n 1 ) p ( 1 p ) n 1 ( n 2 k ) p k ( 1 p ) n 2 k + ( n 1 + n 2 k ) p k ( 1 p ) n 1 + n 2 k = ( n 1 ) ( n 2 k ) ( n 1 + n 2 k ) = h ( ; n 1 + n 2 ; n 1 ; k ) {\displaystyle {\begin{aligned}P(X=\ell |Z=k)&={\frac {P(X=\ell \cap Z=k)}{P(Z=k)}}\\&={\frac {P(X=\ell \cap Y=k-\ell )}{P(Z=k)}}\\&={\frac {P(X=\ell )P(Y=k-\ell )}{P(Z=k)}}\\&={\frac {{\binom {n_{1}}{\ell }}p^{\ell }(1-p)^{n_{1}-\ell }{\binom {n_{2}}{k-\ell }}p^{k-\ell }(1-p)^{n_{2}-k+\ell }}{{\binom {n_{1}+n_{2}}{k}}p^{k}(1-p)^{n_{1}+n_{2}-k}}}\\&={\frac {{\binom {n_{1}}{\ell }}{\binom {n_{2}}{k-\ell }}}{\binom {n_{1}+n_{2}}{k}}}\\&=h(\ell ;n_{1}+n_{2};n_{1};k)\end{aligned}}}

Dies stellt eine hypergeometrische Verteilung dar.

Allgemein gilt: Wenn die m {\displaystyle m} Zufallsvariablen X i {\displaystyle X_{i}} stochastisch unabhängig sind und den Binomialverteilungen B ( n i , p ) {\displaystyle B(n_{i},p)} genügen, dann ist auch die Summe X 1 + X 2 + + X m {\displaystyle X_{1}+X_{2}+\dotsb +X_{m}} binomialverteilt, jedoch mit den Parametern n 1 + n 2 + + n m {\displaystyle n_{1}+n_{2}+\dotsb +n_{m}} und p {\displaystyle p} . Addiert man binomialverteilte Zufallsvariablen X 1 , X 2 {\displaystyle X_{1},X_{2}} mit p 1 p 2 {\displaystyle p_{1}\neq p_{2}} , dann erhält man eine verallgemeinerte Binomialverteilung.

Beziehung zu anderen Verteilungen

Beziehung zur Bernoulli-Verteilung

Ein Spezialfall der Binomialverteilung für n = 1 {\displaystyle n=1} ist die Bernoulli-Verteilung. Die Summe von unabhängigen und identischen Bernoulli-verteilten Zufallsgrößen genügt demnach der Binomialverteilung.

Beziehung zur verallgemeinerten Binomialverteilung

Die Binomialverteilung ist ein Spezialfall der verallgemeinerten Binomialverteilung mit p i = p j {\displaystyle p_{i}=p_{j}} für alle i , j { 1 , , n } {\displaystyle i,j\in \{1,\dotsc ,n\}} . Genauer ist sie für festen Erwartungswert und feste Ordnung diejenige verallgemeinerte Binomialverteilung mit maximaler Entropie.[10]

Übergang zur Normalverteilung

Nach dem Satz von Moivre-Laplace konvergiert die Binomialverteilung im Grenzfall n {\displaystyle n\to \infty } gegen eine Normalverteilung, d. h., die Normalverteilung kann als brauchbare Näherung der Binomialverteilung verwendet werden, wenn der Stichprobenumfang hinreichend groß und der Anteil der gesuchten Ausprägung nicht zu klein ist. Mit dem Galtonbrett kann man die Annäherung an die Normalverteilung experimentell nachempfinden.

Es gilt μ = n p {\displaystyle \mu =np} und σ 2 = n p q . {\displaystyle \sigma ^{2}=npq.} Durch Einsetzen in die Verteilungsfunktion Φ {\displaystyle \Phi } der Standardnormalverteilung folgt

B ( k p , n ) Φ ( k + 0 , 5 n p n p q )   Φ ( k 0 , 5 n p n p q ) 1 n p q   1 2 π   exp ( ( k n p ) 2 2 n p q ) . {\displaystyle B(k\mid p,n)\approx \Phi \left({k+0{,}5-np \over {\sqrt {npq}}}\right)-\ \Phi \left({k-0{,}5-np \over {\sqrt {npq}}}\right)\approx {1 \over {\sqrt {npq}}}\cdot \ {\frac {1}{\sqrt {2\pi }}}\,\cdot \ \exp \left(-{{(k-np)}^{2} \over 2npq}\right).}

Wie zu sehen, ist das Ergebnis damit nichts anderes als der Funktionswert der Normalverteilung für x = k {\displaystyle x=k} , μ = n p {\displaystyle \mu =n\cdot p} sowie σ 2 = n p q {\displaystyle \sigma ^{2}=n\cdot p\cdot q} (den man sich anschaulich auch als Flächeninhalt des k {\displaystyle k} -ten Streifens des Histogramms der standardisierten Binomialverteilung mit 1 / σ {\displaystyle 1/\sigma } als dessen Breite sowie Φ ( ( k μ ) / σ ) {\displaystyle \Phi ((k-\mu )/\sigma )} als dessen Höhe vorstellen kann).[11] Die Annäherung der Binomialverteilung an die Normalverteilung wird bei der Normal-Approximation genutzt, um schnell die Wahrscheinlichkeit vieler Stufen der Binomialverteilung zu bestimmen, zumal dann, wenn für diese keine Tabellenwerte (mehr) vorliegen.

Übergang zur Poisson-Verteilung

Eine asymptotisch asymmetrische Binomialverteilung, deren Erwartungswert n p {\displaystyle np} für n {\displaystyle n\rightarrow \infty } und p 0 {\displaystyle p\rightarrow 0} gegen eine Konstante λ {\displaystyle \lambda } konvergiert, kann man durch die Poisson-Verteilung annähern. Der Wert λ {\displaystyle \lambda } ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poisson-Verteilung der Erwartungswert. Diese Annäherung wird auch als Poisson-Approximation, Poissonscher Grenzwertsatz oder als das Gesetz seltener Ereignisse bezeichnet.

B ( k p , n ) = ( n k ) p k ( 1 p ) n k = n ! ( n k ) ! k ! ( n p n ) k ( 1 n p n ) n k = n ( n 1 ) ( n 2 ) ( n k + 1 ) n k ( n p ) k k ! ( 1 n p n ) n k = ( 1 1 n ) ( 1 2 n ) ( 1 k 1 n ) ( n p ) k k ! ( 1 ( n p ) n ) n k λ k k ! e λ , mit λ = n p wenn n und p 0 {\displaystyle {\begin{aligned}B(k\mid p,n)&={n \choose k}p^{k}\,(1-p)^{n-k}={\frac {n!}{(n-k)!\,k!}}\left({\frac {np}{n}}\right)^{k}\left(1-{\frac {np}{n}}\right)^{n-k}\\&={\frac {n(n-1)(n-2)\dotsm (n-k+1)}{n^{k}}}\,{\frac {(np)^{k}}{k!}}\left(1-{\frac {np}{n}}\right)^{n-k}\\&=\left(1-{\frac {1}{n}}\right)\left(1-{\frac {2}{n}}\right)\dotsm \left(1-{\frac {k-1}{n}}\right){\frac {(np)^{k}}{k!}}\left(1-{\frac {(np)}{n}}\right)^{n-k}\\&\to \,{\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda },\quad {\text{mit}}\quad \lambda =n\cdot {}p\quad {\text{wenn}}\quad n\to \infty \quad {\text{und}}\quad p\rightarrow 0\end{aligned}}}

Eine Faustregel besagt, dass diese Näherung brauchbar ist, wenn n 50 {\displaystyle n\geq 50} und p 0 , 05 {\displaystyle p\leq 0{,}05} .

Die Poisson-Verteilung ist also die Grenzverteilung der Binomialverteilung für große n {\displaystyle n} und kleine p {\displaystyle p} , es handelt sich hierbei um Konvergenz in Verteilung.

Beziehung zur geometrischen Verteilung

Die Zahl der Misserfolge bis zum erstmaligen Eintritt eines Erfolgs wird durch die geometrische Verteilung beschrieben.

Beziehung zur negativen Binomialverteilung

Die negative Binomialverteilung hingegen beschreibt die Wahrscheinlichkeitsverteilung der Anzahl der Versuche, die erforderlich sind, um in einem Bernoulli-Prozess eine vorgegebene Anzahl von Erfolgen zu erzielen. In der Tabelle werden beide Verteilungen veranschaulicht:

Deterministisch Zufällig Fragestellung
Binomialverteilung n {\displaystyle n} Versuche X {\displaystyle X} Erfolge Wie viele Erfolge X {\displaystyle X} haben wir in n {\displaystyle n} Versuchen?
Negative Binomialverteilung x {\displaystyle x} Erfolge N {\displaystyle N} Versuche Wie viele Versuche N {\displaystyle N} sind erforderlich, um x {\displaystyle x} Erfolge zu haben?

Beziehung zur hypergeometrischen Verteilung

Bei der Binomialverteilung werden die ausgewählten Stichproben wieder in die Auswahlmenge zurückgeführt, können also zu einem späteren Zeitpunkt erneut ausgewählt werden. Werden im Gegensatz dazu die Stichproben nicht in die Grundgesamtheit zurückgegeben, kommt die hypergeometrische Verteilung zur Anwendung. Die beiden Verteilungen gehen bei großem Umfang N {\displaystyle N} der Grundgesamtheit und geringem Umfang n {\displaystyle n} der Stichproben ineinander über. Als Faustregel gilt, dass für n / N 0 , 05 {\displaystyle n/N\leq 0{,}05} auch bei Nichtzurücklegen der Stichproben die Binomialverteilung statt der mathematisch anspruchsvolleren hypergeometrischen Verteilung verwendet werden kann, da beide in diesem Fall nur unwesentlich voneinander abweichende Ergebnisse liefern.

Beziehung zur Multinomialverteilung

Die Binomialverteilung ist ein Spezialfall der Multinomialverteilung.

Beziehung zur Rademacher-Verteilung

Ist Y {\displaystyle Y} Binomialverteilt zum Parameter p = 0 , 5 {\displaystyle p=0{,}5} und n {\displaystyle n} , so lässt sich Y {\displaystyle Y} als skalierte Summe von n {\displaystyle n} Rademacher-verteilten Zufallsvariablen X 1 , , X n {\displaystyle X_{1},\dotsc ,X_{n}} darstellen:

Y = 0 , 5 ( n + i = 1 n X i ) {\displaystyle Y=0{,}5\left(n+\sum _{i=1}^{n}X_{i}\right)}

Dies wird insbesondere beim symmetrischen Random Walk auf Z {\displaystyle \mathbb {Z} } verwendet.

Beziehung zur Panjer-Verteilung

Die Binomialverteilung ist ein Spezialfall der Panjer-Verteilung, welche die Verteilungen Binomialverteilung, Negative Binomialverteilung und Poisson-Verteilung in einer Verteilungsklasse vereint.

Beziehung zur Betaverteilung

Für viele Anwendungen ist es nötig, die Verteilungsfunktion

i = 0 k B ( i p , n ) {\displaystyle \sum _{i=0}^{k}B(i\mid p,n)}

konkret auszurechnen (beispielsweise bei statistischen Tests oder für Konfidenzintervalle).

Hier hilft die folgende Beziehung zur Betaverteilung:

i = 0 k ( n i ) p i ( 1 p ) n i = Beta ( 1 p ; n k ; k + 1 ) {\displaystyle \sum _{i=0}^{k}{\binom {n}{i}}\cdot p^{i}\cdot (1-p)^{n-i}=\operatorname {Beta} (1-p;n-k;k+1)}

Diese lautet für ganzzahlige positive Parameter a {\displaystyle a} und b {\displaystyle b} :

Beta ( x ; a ; b ) = ( a + b 1 ) ! ( a 1 ) ! ( b 1 ) ! 0 x u a 1 ( 1 u ) b 1 d u {\displaystyle \operatorname {Beta} (x;a;b)={(a+b-1)! \over (a-1)!\cdot (b-1)!}\int _{0}^{x}u^{a-1}(1-u)^{b-1}\,\mathrm {d} u}

Um die Gleichung

i = 0 k ( n i ) p i ( 1 p ) n i = n ! ( n k 1 ) ! k ! 0 1 p u n k 1 ( 1 u ) k d u {\displaystyle \sum _{i=0}^{k}{\binom {n}{i}}\cdot p^{i}\cdot (1-p)^{n-i}={n! \over (n-k-1)!\cdot k!}\int _{0}^{1-p}u^{n-k-1}(1-u)^{k}\,\mathrm {d} u}

zu beweisen, kann man folgendermaßen vorgehen:

  • Die linke und rechte Seite stimmen für p = 0 {\displaystyle p=0} überein (beide Seiten sind gleich 1).
  • Die Ableitungen nach p {\displaystyle p} stimmen für die linke und rechte Seite der Gleichung überein, sie sind nämlich beide gleich n ! ( n k 1 ) ! k ! p k ( 1 p ) n k 1 {\displaystyle -{n! \over (n-k-1)!\cdot k!}\cdot p^{k}\cdot (1-p)^{n-k-1}} .

Beziehung zur Beta-Binomialverteilung

Eine Binomialverteilung, deren Parameter p {\displaystyle p} Beta-verteilt ist, nennt man eine Beta-Binomialverteilung. Sie ist eine Mischverteilung.

Beziehung zur Pólya-Verteilung

Die Binomialverteilung ist ein Spezialfall der Pólya-Verteilung (wähle c = 0 {\displaystyle c=0} ).

Beispiele

Symmetrische Binomialverteilung (p = 1/2)

  • p = 0,5 und n = 4, 16, 64
    p = 0,5 und n = 4, 16, 64
  • Mittelwert abgezogen
    Mittelwert abgezogen
  • Skalierung mit Standardabweichung
    Skalierung mit Standardabweichung

Dieser Fall tritt auf beim n {\displaystyle n} -fachen Münzwurf mit einer fairen Münze (Wahrscheinlichkeit für Kopf gleich der für Zahl, also gleich 1/2). Die erste Abbildung zeigt die Binomialverteilung für p = 0 , 5 {\displaystyle p=0{,}5} und für verschiedene Werte von n {\displaystyle n} als Funktion von k {\displaystyle k} . Diese Binomialverteilungen sind spiegelsymmetrisch um den Wert k = n / 2 {\displaystyle k=n/2} :

Binomialverteilungen mit p = 0,5 (mit Verschiebung um −n/2 und Skalierung) für n = 4, 6, 8, 12, 16, 23, 32, 46
Die gleichen Daten in halblogarithmischer Auftragung
B ( k 1 / 2 ; n ) = B ( n k 1 / 2 ; n ) {\displaystyle B(k\mid 1/2;n)=B(n-k\mid 1/2;n)}

Dies ist in der zweiten Abbildung veranschaulicht. Die Breite der Verteilung wächst proportional zur Standardabweichung σ = n 2 {\displaystyle \sigma ={\frac {\sqrt {n}}{2}}} . Der Funktionswert bei k = n / 2 {\displaystyle k=n/2} , also das Maximum der Kurve, sinkt proportional zu σ {\displaystyle \sigma } .

Dementsprechend kann man Binomialverteilungen mit unterschiedlichem n {\displaystyle n} aufeinander skalieren, indem man die Abszisse k n / 2 {\displaystyle k-n/2} durch σ {\displaystyle \sigma } teilt und die Ordinate mit σ {\displaystyle \sigma } multipliziert (dritte Abbildung oben).

Die nebenstehende Graphik zeigt noch einmal reskalierte Binomialverteilungen, nun für andere Werte von n {\displaystyle n} und in einer Auftragung, die besser verdeutlicht, dass sämtliche Funktionswerte mit steigendem n {\displaystyle n} gegen eine gemeinsame Kurve konvergieren. Indem man die Stirling-Formel auf die Binomialkoeffizienten anwendet, erkennt man, dass diese Kurve (im Bild schwarz durchgezogen) eine Gaußsche Glockenkurve ist:

f ( x ) = 1 2 π e x 2 2 {\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}\,{\mathrm {e} }^{-{\frac {x^{2}}{2}}}} .

Dies ist die Wahrscheinlichkeitsdichte zur Standardnormalverteilung N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} . Im zentralen Grenzwertsatz wird dieser Befund so verallgemeinert, dass auch Folgen anderer diskreter Wahrscheinlichkeitsverteilungen gegen die Normalverteilung konvergieren.

Die zweite nebenstehende Graphik zeigt die gleichen Daten in einer halblogarithmischen Auftragung. Dies ist dann zu empfehlen, wenn man überprüfen möchte, ob auch seltene Ereignisse, die um mehrere Standardabweichungen vom Erwartungswert abweichen, einer Binomial- oder Normalverteilung folgen.

Ziehen von Kugeln

In einem Behälter befinden sich 80 Kugeln, davon sind 16 gelb. Es wird 5-mal eine Kugel entnommen und anschließend wieder zurückgelegt. Wegen des Zurücklegens ist die Wahrscheinlichkeit, eine gelbe Kugel zu ziehen, bei allen Entnahmen gleich groß, und zwar 16/80 = 1/5. Der Wert B ( k 1 5 ; 5 ) {\displaystyle B\left(k\mid {\tfrac {1}{5}};5\right)} gibt die Wahrscheinlichkeit dafür an, dass genau k {\displaystyle k} der entnommenen Kugeln gelb sind. Als Beispiel rechnen wir k = 3 {\displaystyle k=3} :

B ( 3 1 5 ; 5 ) = ( 5 3 ) ( 1 5 ) 3 ( 4 5 ) 2 = 5 4 1 2 1 125 16 25 = 64 1250 = 0,051 2 {\displaystyle B\left(3\mid {\tfrac {1}{5}};5\right)={\binom {5}{3}}\cdot \left({\frac {1}{5}}\right)^{3}\cdot \left({\frac {4}{5}}\right)^{2}={\frac {5\cdot 4}{1\cdot 2}}\cdot {\frac {1}{125}}\cdot {\frac {16}{25}}={\frac {64}{1250}}=0{,}0512}

In ungefähr 5 % der Fälle zieht man also genau 3 gelbe Kugeln.

B(k | 0,2; 5)
k Wahrscheinlichkeit in %
0 0032,768
1 0040,96
2 0020,48
3 0005,12
4 0000,64
5 0000,032
0100
Erw.Wert 0001
Varianz 0000.8

Anzahl der Personen mit Geburtstag am Wochenende

Die Wahrscheinlichkeit, dass eine Person in diesem Jahr an einem Wochenende Geburtstag hat, betrage (der Einfachheit halber) 2/7. In einem Raum halten sich 10 Personen auf. Der Wert B ( k 2 / 7 ; 10 ) {\displaystyle B(k\mid 2/7;10)} gibt (im vereinfachten Modell) die Wahrscheinlichkeit dafür an, dass genau k {\displaystyle k} der Anwesenden in diesem Jahr an einem Wochenende Geburtstag haben.

B(k | 2/7; 10)
k Wahrscheinlichkeit in % (gerundet)
0 0003,46
1 0013,83
2 0024,89
3 0026,55
4 0018,59
5 0008,92
6 0002,97
7 0000,6797
8 0000,1020
9 0000,009063
10 0000,0003625
0100
Erw.Wert 0002,86
Varianz 0002,04

Gemeinsamer Geburtstag im Jahr

253 Personen sind zusammengekommen. Der Wert B ( k 1 / 365 ; 253 ) {\displaystyle B(k\mid 1/365;253)} gibt die Wahrscheinlichkeit an, dass genau k {\displaystyle k} Anwesende an einem zufällig gewählten Tag Geburtstag haben (ohne Beachtung des Jahrganges).

B(k | 1/365; 253)
k Wahrscheinlichkeit in % (gerundet)
0 049,95
1 034,72
2 012,02
3 002,76
4 000,47

Die Wahrscheinlichkeit, dass „irgendjemand“ dieser 253 Personen, d. h. eine oder mehrere Personen, an diesem Tag Geburtstag hat, beträgt somit 1 B ( 0 1 / 365 ; 253 ) = 50.05 % {\displaystyle 1-B(0\mid 1/365;253)=50.05\,\%} .

Bei 252 Personen beträgt die Wahrscheinlichkeit 1 B ( 0 1 / 365 ; 252 ) = 49.91 % {\displaystyle 1-B(0\mid 1/365;252)=49.91\,\%} . Das heißt, die Schwelle der Anzahl von Personen, ab der die Wahrscheinlichkeit, dass mindestens eine dieser Personen an einem zufällig gewählten Tag Geburtstag hat, größer als 50 % wird, beträgt 253 Personen (siehe dazu auch Geburtstagsparadoxon).

Die direkte Berechnung der Binomialverteilung kann aufgrund der großen Fakultäten schwierig sein. Eine Näherung über die Poisson-Verteilung ist hier zulässig ( n > 50 , p < 0 , 05 {\displaystyle n>50,p<0{,}05} ). Mit dem Parameter λ = n p = 253 / 365 {\displaystyle \lambda =np=253/365} ergeben sich folgende Werte:[12]

P253/365(k)
k Wahrscheinlichkeit in % (gerundet)
0 050
1 034,66
2 012,01
3 002,78
4 000,48

Konfidenzintervall für eine Wahrscheinlichkeit

In einer Meinungsumfrage unter n {\displaystyle n} Personen geben k {\displaystyle k} Personen an, die Partei A zu wählen. Bestimme ein 95-%-Konfidenzintervall für den unbekannten Anteil der Wähler, die Partei A wählen, in der Gesamtwählerschaft.

Eine Lösung des Problems ohne Rückgriff auf die Normalverteilung findet sich im Artikel Konfidenzintervall für die Erfolgswahrscheinlichkeit der Binomialverteilung.

Auslastungsmodell

Mittels folgender Formel lässt sich die Wahrscheinlichkeit dafür errechnen, dass k {\displaystyle k} von n {\displaystyle n} Personen eine Tätigkeit, die durchschnittlich m {\displaystyle m} Minuten pro Stunde dauert, gleichzeitig ausführen.

P ( X = k ) = ( n k ) ( m 60 ) k ( 1 m 60 ) n k {\displaystyle P(X=k)={n \choose k}\cdot \left({\frac {m}{60}}\right)^{k}\cdot \left(1-{\frac {m}{60}}\right)^{n-k}}

Statistischer Fehler der Klassenhäufigkeit in Histogrammen

Dieser Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst.
Außerdem ist die Erklärung des Zufallsmechanismus unvollständig. Die n i {\displaystyle n_{i}} sind Zufallsvariablen, andererseits sind die p i {\displaystyle p_{i}} Verteilungsparameter.

Die Darstellung unabhängiger Messergebnisse in einem Histogramm führt zur Gruppierung der Messwerte in Klassen.

Die Wahrscheinlichkeit für n i {\displaystyle n_{i}} Einträge in Klasse i {\displaystyle i} ist gegeben durch die Binomialverteilung

B n , p i ( n i ) {\displaystyle B_{n,p_{i}}(n_{i})} mit n = n i {\displaystyle n=\sum n_{i}} und p i = n i n {\displaystyle p_{i}={\frac {n_{i}}{n}}} .

Erwartungswert und Varianz der n i {\displaystyle n_{i}} sind dann

E ( n i ) = n p i = n i {\displaystyle E(n_{i})=np_{i}=n_{i}} und V ( n i ) = n p i ( 1 p i ) = n i ( 1 n i n ) {\displaystyle V(n_{i})=np_{i}(1-p_{i})=n_{i}\left(1-{\frac {n_{i}}{n}}\right)} .

Damit liegt der statistische Fehler der Anzahl von Einträgen in Klasse i {\displaystyle i} bei

σ ( n i ) = n i ( 1 n i n ) {\displaystyle \sigma (n_{i})={\sqrt {n_{i}\left(1-{\frac {n_{i}}{n}}\right)}}} .

Bei großer Zahl von Klassen wird p i {\displaystyle p_{i}} klein und σ ( n i ) n i {\displaystyle \sigma (n_{i})\approx {\sqrt {n_{i}}}} .

So lässt sich beispielsweise die statistische Genauigkeit von Monte-Carlo-Simulationen bestimmen.

Zufallszahlen

Zufallszahlen zur Binomialverteilung werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Alternativ kann man auch ausnutzen, dass die Summe von Bernoulli-verteilten Zufallsvariablen binomialverteilt ist. Dazu erzeugt man n {\displaystyle n} Bernoulli-verteilte Zufallszahlen und summiert sie auf; das Ergebnis ist eine binomialverteilte Zufallszahl.

Bezeichnungen

Der Aufruf der Wahrscheinlichkeitsfunktion der Binomialverteilung bei Taschenrechnern und Mathematischer Software geschieht meistens mit binom, pdfbin oder Binomialpdf (Binomial probability density function). Die kumulierte Verteilungsfunktion wird mit cdfbin oder Binomialcdf (Binomial cumulative distribution function) abgekürzt.[13]

Weblinks

Commons: Binomialverteilung – Sammlung von Bildern, Videos und Audiodateien
Wikibooks: Binomialverteilung – Lern- und Lehrmaterialien
  • Bernoulli-Versuche und Binomialverteilung
  • Rechner für einfache und kumulierte Wahrscheinlichkeiten der Binomialverteilung
  • Berechnung der Binomialverteilung für einfache und kumulierte Wahrscheinlichkeiten (englisch)
  • Umfangreiches Tabellenwerk (PDF; 10 MB)
  • Binomial- und Normalverteilung – Online-Lehrgang mit dynamischen Arbeitsblättern (Java-Plugin benötigt)
  • Interaktive Simulation Münzwurf – inkl. Aufgabenstellungen (HTML5 ohne Plugin)
  • Interaktive Animation – Universität Konstanz (Java-Plugin benötigt)
  • Interaktive Animation (Flash-Plugin benötigt)
  • Earliest Known Uses of Some of the Words of Probability & Statistics – Kees Verduin.
  • Lernvideo für die Oberstufe
  • Statistische Fehler (Ausführliche Erläuterung aus der Universität Ulm)

Einzelnachweise

  1. Peter Kissel: MAC08 Stochastik (Teil 2). Studiengemeinschaft Darmstadt 2014, S. 12.
  2. Bigalke, Köhler: Mathematik 13.2 Grund- und Leistungskurs. Cornelsen, Berlin 2000, S. 130.
  3. George Udny Yule: An Introduction to the Theory of Statistics. Griffin, London 1911, S. 287.
  4. Peter Kissel: MAC08 Stochastik. Teil 2. Studiengemeinschaft Darmstadt 2014, S. 23.
  5. Bigalke,/ Köhler: Mathematik 13.2 Grund- und Leistungskurs. Cornelsen, Berlin 2000, S. 144 ff.
  6. P. Neumann: Über den Median der Binomial- and Poissonverteilung. In: Wissenschaftliche Zeitschrift der Technischen Universität Dresden. 19. Jahrgang, 1966, S. 29–33. 
  7. Lord, Nick. (July 2010). Binomial averages when the mean is an integer, The Mathematical Gazette 94, 331–332.
  8. a b R. Kaas, J.M. Buhrman: Mean, Median and Mode in Binomial Distributions. In: Statistica Neerlandica. 34. Jahrgang, Nr. 1, 1980, S. 13–18, doi:10.1111/j.1467-9574.1980.tb00681.x (englisch). 
  9. a b K. Hamza: The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions. In: Statistics & Probability Letters. 23. Jahrgang, 1995, S. 21–25, doi:10.1016/0167-7152(94)00090-U (englisch). 
  10. Peter Harremoës: Binomial and Poisson Distributions as Maximum Entropy Distributions. In: IEEE Transactions on Information Theory. 47. Jahrgang. IEEE Information Theory Society, 2001, S. 2039–2041, doi:10.1109/18.930936 (englisch). 
  11. M. Brokate, N. Henze, F. Hettlich, A. Meister, G. Schranz-Kirlinger, Th. Sonar: Grundwissen Mathematikstudium: Höhere Analysis, Numerik und Stochastik. Springer-Verlag, 2015, S. 890.
  12. Im konkreten Fall muss man für die Binomialverteilung ( 364 365 ) 253 {\displaystyle \left({\tfrac {364}{365}}\right)^{253}} ausrechnen und für die Poisson-Verteilung e 253 / 365 {\displaystyle e^{-253/365}} . Beides ist mit dem Taschenrechner einfach. Bei einer Rechnung mit Papier und Bleistift benötigt man mit der Exponentialreihe 8 oder 9 Glieder für den Wert der Poisson-Verteilung, während man für die Binomialverteilung durch mehrfaches Quadrieren auf die 256. Potenz kommt und dann noch durch die dritte Potenz teilt.
  13. Scilab Online Help – Statistics. Abgerufen am 13. Januar 2022. 
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart