Diskrete Verteilung
Diskrete Zufallsvariablen nehmen nur endlich - also abzählbar - viele Werte an. Zu ihnen zählen die Bernoulli Verteilung, Binomialverteilung, Poissonverteilung und hypergeometrische Verteilung. Sie werden durch Wahrscheinlichkeitsfunktionen oder Verteilungsfunktionen beschrieben.
Hier findest du folgende Inhalte
Formeln
Bernoulli-Verteilung
Die Bernoulli Verteilung ist eine diskrete Verteilung, deren Zufallsvariable X nur zwei Werte annimmt: 0 = Misserfolg / Niete bzw. 1 = Erfolg / Treffer. Sie entsteht, wenn man ein Bernoulli Experiment (welches nur 2 mögliche Ausgänge hat) genau 1 Mal ausführt. Die Bernoulli Verteilung ist daher ein Spezialfall der Binomialverteilung für n=1.
X heißt Bernoulli-verteilt mit dem Parameter p:
p ... Wahrscheinlichkeit für das Auftreten vom Ereignis X bei einem Versuch, mit 0 < p < 1
\(\eqalign{ & \Omega = \left\{ {0;1} \right\} \cr & P(X = 1) = p \cr & P\left( {X = 0} \right) = 1 - p \cr}\)
Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung
\(f\left( x \right) = \left\{ {\begin{array}{*{20}{c}} {1 - p}&{für}&{x = 0}\\ p&{für}&{x = 1}\\ 0&{für}&{sonst.} \end{array}} \right.\)
Verteilungsfunktion der Bernoulli-Verteilung
\(F\left( x \right) = P\left( {X \leqslant x} \right) = \sum\limits_{{x_i} \leqslant x} {f\left( {{x_i}} \right)} \)
\(F\left( x \right) = \left\{ {\begin{array}{*{20}{c}} 0&{}&{x < 0}&{}&{}\\ {1 - p}&{}&{x > 0}&{und}&{x < 1}\\ 1&{}&{x \ge 1}&{}&{} \end{array}} \right.\)
Erwartungswert der Bernoulli-Verteilung
\(E\left( X \right) = \mu = \sum\limits_{i = 1}^n {{x_i} \cdot f\left( {{x_i}} \right)} \)
\(E\left( X \right) = 1 \cdot p + 0 \cdot \left( {1 - 0} \right) = p\)
Varianz der Bernoulli-Verteilung
\(Var\left( X \right) = V\left( X \right) = {\sigma ^2} = \sum\limits_{i = 1}^n {{{\left( {{x_i} - E\left( x \right)} \right)}^2} \cdot f\left( {{x_i}} \right)} \)
\({\sigma ^2} = Var\left( X \right) = p \cdot \left( {1 - p} \right)\)
Standardabweichung der Bernoulli-Verteilung
\(\sigma = \sqrt {Var\left( X \right)} = \sqrt {p \cdot \left( {1 - p} \right)} \)
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung mit dem gesparten Geld deinen Erfolg genießen.
Binomialverteilung
Die Binomialverteilung ist eine diskrete Verteilung, der ein mehrstufigen Zufallsexperiment zugrunde liegt. Sie entsteht, wenn man ein Bernoulli Experiment (einstufiges Experiment, welches nur 2 mögliche Ausgänge hat) n Mal gleich und unverändert wiederholt. Die Grundgesamtheit ändert sich also im Laufe der Wiederholungen nicht, d.h. es handelt sich um ein „Ziehen mit Zurücklegen“.
X heißt binomialverteilt mit den 2 Parametern n und p:
- n … Anzahl der Ziehungen bzw. der Wiederholungen vom Zufallsexperiment, wobei n ∈ N
- p ... Laplace-Wahrscheinlichkeit für das Auftreten vom Ereignis X, bei jedem einzelnen der n Versuche, mit 0 < p < 1
- k ... Anzahl der Treffer, d.h. das Ereignis X tritt genau k mal ein, mit k=0, 1, 2, ... n
- X ... Zufallsvariable bzw. Trefferzahl, d.h. das Ereignis X tritt genau, weniger, öfter mindestens,... k mal ein, mit k=0, 1, 2, ... n, wobei die Anzahl der unabhängigen Bernoulli-Versuche n beträgt und p die Erfolgswahrscheinlichkeit beschreibt.
Wahrscheinlichkeitsfunktion der Binomialverteilung
Die Wahrscheinlichkeitsfunktion der Binomialverteilung gibt die Wahrscheinlichkeit dafür an, dass es genau k Treffer gibt:
\(f\left( k \right) = P\left( {X = k} \right) = \left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) \cdot {p^k} \cdot {\left( {1 - p} \right)^{n - k}}\) für k=0, 1, ..,n
Zur Erinnerung: Der Binomialkoeffizient errechnet sich zu: \(\left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) = \dfrac{{n!}}{{k! \cdot \left( {n - k} \right)!}}\)
Bestimmung der Wahrscheinlichkeit einer Binomialverteilung bei unterschiedlichen Grenzen
Ungleichungen im Sprachgebrauch:
- Weniger entspricht <
- Höchstens entspricht \( \le \)
- Mehr entspricht >
- Mindestens entspricht \( \ge \)
genau k Treffer | \(P(X = k) = \left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) \cdot {p^k} \cdot {\left( {1 - p} \right)^{\left( {n - k} \right)}}\) |
höchstens k Treffer | \(P\left( {X \le k} \right) = \sum\limits_{i = 0}^k {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
weniger als k Treffer | \(P\left( {X < k} \right) = \sum\limits_{i = 0}^{k - 1} {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
mindestens k Treffer | \(P\left( {X \ge k} \right) = 1 - P\left( {X \le k - 1} \right) = 1 - \sum\limits_{i = 0}^{k - 1} {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
mehr als k Treffer | \(P\left( {X > k} \right) = 1 - P\left( {X \le k} \right) = 1 - \sum\limits_{i = 0}^k {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
mindestens k aber höchstens m Treffer | \(\begin{array}{l} P\left( {k \le X \ge m} \right) = P\left( {X \le m} \right) - P\left( {X \le k - 1} \right) = \\ = \sum\limits_{i = 0}^m {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} - \sum\limits_{i = 0}^{k - 1} {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \end{array}\) |
Illustration zur Veranschaulichung
Wahrscheinlichkeitsfunktion der Binomialverteilung mit den Parametern n=10 Wiederholungen und einer Erfolgswahrscheinlichkeit von p=0,3
Laplace Bedingung
Wenn die Laplace Bedingung \(\sigma = \sqrt {n \cdot p \cdot \left( {1 - p} \right)} > 3\) erfüllt ist, kann man die Binomialverteilung durch die Normalverteilung annähern.
Sigma-Umgebungen
Der Erwartungswert ist der Wert mit der größten Wahrscheinlichkeit. Links und rechts vom Erwartungswert gruppieren sich die restlichen binomialverteilten Wahrscheinlichkeiten. Wenn die Streuung groß genug ist, kann man die Binomialverteilung durch die Normalverteilung annähern. Um zu prüfen ob diese Näherung zulässig ist, verwendet man die Laplace Bedingung.
Radius der Sigma Umgebung (also Vielfachen der Standardabweichung):
\(\begin{array}{l} 1\sigma \buildrel \wedge \over = P\left( {\mu - \sigma \le X \le \mu + \sigma } \right) \approx 68\% \\ 2\sigma \buildrel \wedge \over = P\left( {\mu - 2\sigma \le X \le \mu + 2\sigma } \right) \approx 95,5\% \\ 3\sigma \buildrel \wedge \over = P\left( {\mu - 3\sigma \le X \le \mu + 3\sigma } \right) \approx 99,7\% \end{array}\)
Verteilungsfunktion der Binomialverteilung
Verteilungsfunktion der Binomialverteilung gibt die Wahrscheinlichkeit dafür an, dass es höchstens k Treffer gibt:
\(F\left( k \right) = P\left( {0 \le X \le k} \right) = \sum\limits_{i = 0}^k {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right)} \cdot {p^i} \cdot {\left( {1 - p} \right)^{n - i}}\)
Erwartungswert der Binomialverteilung
Der Erwartungswert eine Binomialverteilung, deren Zufallsvariable nur 2 Werte (Treffer / Niete) annehmen kann und deren Trefferwahrscheinlichkeit immer p ist, ergibt sich bei n unabhängigen Bernoulli-Versuchen aus dem Produkt von n und p.
\(E\left( X \right) = \mu = n \cdot p\)
Dabei handelt es sich um eine Vereinfachung der nachfolgenden Formel für den Erwartungswert einer diskreten Zufallsvariablen, die mehrere Werte annehmen kann.
Erwartungswert einer diskreten Verteilung
Der Erwartungswert einer diskreten Verteilung, deren Zufallsvariable mehrere Werte X=xi annehmen kann, die ihrerseits mit unterschiedlicher Wahrscheinlichkeit P(X=xi) vorkommen entspricht der Summe der Werte der Zufallsvariablen X=xi multipliziert mit der Wahrscheinlichkeit für das Eintreten von xi also P(X=xi).
\(E(X) = \sum\limits_{i = 1}^n {{x_i} \cdot P\left( {X = {x_i}} \right)} = \mu \)
\(P\left( E \right) = \dfrac{{{\text{Anzahl günstiger Fälle}}}}{{{\text{Anzahl mölicher Fälle}}}}\)
Varianz der Binomialverteilung
Die Varianz einer Binomialverteilung mit den Parametern n und p ist gegeben durch:
\({\sigma ^2} = Var\left( X \right) = n \cdot p \cdot \left( {1 - p} \right)\)
Hierbei ist X eine Zufallsvariable, welche die Anzahl der Treffer in n unabhängigen Bernoulli-Versuchen mit Erfolgswahrscheinlichkeit p beschreibt.
Standardabweichung der Binomialverteilung
\(\sigma = \sqrt {Var(X)} = \sqrt {n \cdot p \cdot \left( {1 - p} \right)} \)
Binomialverteilung → Normalverteilung
Die Binomialverteilung kann bei großen Stichproben, also bei relativ hohem n, durch die Normalverteilung ersetzt werden. Wobei dann für die Normalverteilung - so wie bei der Binomialverteilung - wie folgt gilt:
- Erwartungswert bei großem n: \(E\left( x \right) = \mu = n \cdot p\)
- Standardabweichung bei großem n: \(\sigma = \sqrt {Var(x)} = \sqrt {n \cdot p \cdot \left( {1 - p} \right)} \)
Hat eine Zufallsvariable X eine Normalverteilung mit beliebigen μ und σ, so kann man die Werte der Normalverteilung mit \(z = \dfrac{{X - \mu }}{\sigma }\) in eine Standardnormalverteilung umrechnen.
Das zugehörige \(\Phi \left( {{z}} \right)\) entnimmt man anschließend der entsprechenden Tabelle für die Standardnormalverteilung.
Bei 2 zum Erwartungswert symmetrisch liegenden Wahrscheinlichkeiten kann man den Umstand, dass \(\left| {{z_{oG}}} \right| = \left| {{z_{uG}}} \right|\) ausnützen und aus speziellen Tabellen für die Standardnormalverteilung direkt den Wert für das Intervall D ablesen.
Poissonverteilung
Die Poissonverteilung ist eine diskrete Verteilung, die dann Verwendung findet, wenn die Häufigkeit eines Ereignisses über eine gewisse Zeit betrachtet wird. Sie ist ein Grenzfall der Binomialverteilung. Die Zufallsvariable X der Poissonverteilung ist definiert als die Zahl der Erfolge bei einer sehr hohen Anzahl \(n \to \infty \left( { \ge 100} \right)\) an Bernoulli Experimenten, mit einer sehr kleinen Erfolgswahrscheinlichkeit \(p \to 0\).
1 Parameter
- \(\lambda\) ... Erwartungswert und zugleich Varianz \(E\left( X \right) = \lambda = Var\left( X \right)\)einer poissonverteilten Zufallsgröße
Wahrscheinlichkeitsfunktion der Poissonverteilung
\(f\left( k \right) = P\left( {X = k} \right) = \left\{ {\begin{array}{*{20}{c}} {{e^{ - \lambda }} \cdot \dfrac{{{\lambda ^k}}}{{k!}}}&{k = 0,1,..}\\ 0&{{\rm{sonstige}}} \end{array}} \right.\)
Verteilungsfunktion der Poissonverteilung
\(F\left( X \right) = {e^{ - \lambda }}\sum\limits_{x = 0}^n {\dfrac{{{\lambda ^k}}}{{k!}}}\)
Erwartungswert der Poissonverteilung
\(E\left( X \right) = \lambda\)
Varianz der Poissonverteilung
\(Var\left( X \right) = \lambda \)
Hypergeometrische Verteilung
Die hypergeometrische Verteilung ist eine diskrete Verteilung, deren Zufallsvariable X nur zwei Werte annimmt: 0 = Misserfolg / Niete bzw. 1 = Erfolg / Treffer. Die Grundgesamtheit vermindert sich aber bei jeder Wiederholungen, denn es handelt sich um ein „Ziehen ohne Zurücklegen“. Das Ereignis X tritt genau k mal ein. Die hypergeometrische Verteilung kann durch eine Binomialverteilung approximiert werden, wenn \(\dfrac{N}{n} > 10\)
3 Parameter:
- N ... Anzahl der Elemente in der Grundgesamtheit (am Anfang vom Experiment)
- M ... Anzahl der Elemente (am Anfang vom Experiment) die ein „Erfolg“ sind
- n ... Anzahl der Ziehungen = Stichprobenumfang
- N-M Anzahl der Elemente, die kein "Erfolg" sind
- k … Anzahl der Merkmalsträger in der Stichprobe: \(k \le n;\,\,\,\,\,k \le M;\,\,\,\,\,n - k \le N - M\)
Wahrscheinlichkeitsfunktion der hypergeometrischen Verteilung
\(f\left( k \right) = P\left( {X = k} \right) = \dfrac{{\left( {\begin{array}{*{20}{c}} M\\ k \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} {N - M}\\ {n - k} \end{array}} \right)}}{{\left( {\begin{array}{*{20}{c}} N\\ n \end{array}} \right)}}\)
Verteilungsfunktion der hypergeometrischen Verteilung
\(F\left( X \right) = \sum\limits_{k = 0}^x {\dfrac{{\left( {\begin{array}{*{20}{c}} M\\ k \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} {N - M}\\ {n - k} \end{array}} \right)}}{{\left( {\begin{array}{*{20}{c}} N\\ n \end{array}} \right)}}} \)
Erwartungswert der hypergeometrischen Verteilung
\(E\left( X \right) = \mu = n \cdot \dfrac{M}{N}\)
Varianz der hypergeometrischen Verteilung
\(Var\left( X \right) = V\left( X \right) = {\sigma ^2} = n \cdot \dfrac{M}{N} \cdot \left( {1 - \dfrac{M}{N}} \right) \cdot \dfrac{{N - n}}{{N - 1}}\)
Beispiel österreichisches Lotto "6 aus 45" (in Deutschland: 6 aus 49)
N = 45 ... Grundgesamtheit. Also die Anzahl der möglichen Kugeln, die gezogen werden können.
M=6 ... Anzahl der Elemente, die ein Erfolg sind. Also die Anzahl der gezogenen Kugeln
n=6 ... Anzahl der Ziehungen