dh-Materialien
Mathematische Begriffe
 

Wahrscheinlichkeit


Zwischen unmöglich und sicher nach oben

Diese Kugel kullert nicht aus dem Bildschirm.Niemand wird ernsthaft erwarten, dass diese Kugel irgendwann einmal aus dem Bildschirm kullern wird. Dies ist nach unseren bisherigen Erfahrungen ein unmögliches Ereignis, und die Wahrscheinlichkeit, die wir diesem Ereignis zuordnen, ist gleich 0.
Andererseits sind wir nach dem, was wir zumindest in unseren geografischen Breiten bislang erlebt haben, ganz sicher, dass auch morgen früh wieder die Sonne aufgehen wird (sicheres Ereignis) und erwarten dies deshalb mit der Wahrscheinlichkeit 1.

Die Wahrscheinlichkeit für irgendein zukünftiges Ereignis E liegt demnach irgendwo zwischen 0 und 1.

 P(E)  1


Das Gesetz der großen Zahlen nach oben

Wahrscheinlichkeitsaussagen beziehen sich zwar immer auf einzelne zukünftige Ereignisse als mögliche Resultate eines Zufallsexperimentes, sind aber nur dann sinnvoll, wenn sie auf Beobachtungen beruhen, die während einer sehr großen Zahl von Durchläufen des gleichen Zufallsexperimentes zuvor gemacht worden sind.

Nach dem Drücken des Buttons "Würfeln" wird eine in JavaScript geschriebene Simulation gestartet, die dem n-maligen Würfeln eines idealen Würfels entspricht (-> Quelltext). Es wird gemessen, wie oft die einzelnen Augenzahlen gewürfelt werden (absolute Häufigkeiten). Dividiert man die absoluten Häufigkeitswerte jeweils durch n (Umfang des Zufallsexperiments), so erhält man die zugehörigen relativen Häufigkeiten.

Die sich ergebenden Häufigkeitswerte werden in der Tabelle ausgegeben und anschließend in einem Häufigkeitsdiagramm veranschaulicht. Für n können Werte zwischen 1 und 99999 eingegeben werden.

n = absolute Häufigkeiten relative Häufigkeiten
Augenzahl 1
Augenzahl 2
Augenzahl 3
Augenzahl 4
Augenzahl 5
Augenzahl 6
 1
 2
 3
 4
 5
 6

Mit größer werdendem n stabilisieren sich die relativen Häufigkeiten (empirisches Gesetz der großen Zahlen). Die relative Häufigkeit einer bestimmten Augenzahl beim Würfeln eines idealen Würfels ist (unabhängig von der Augenzahl) bei sehr, sehr großem Umfang des Zufallsexperimentes gleich 1/6.

Allgemein gilt: Der zu erwartende relative Häufigkeitswert eines Ereignisses E bei sehr, sehr, sehr großem Umfang des betreffenden Zufallsexperimentes ist gleich dem Wahrscheinlichkeitswert P(E) dieses Ereignisses. (Die Bezeichnung „P“ kommt vom ersten Buchstaben des englischen Wortes probability.)

Die Wahrscheinlichkeit dafür, dass beim nächsten Wurf eines idealen Würfels eine bestimmte Augenzahl gewürfelt wird, beträgt 1/6 . Aus dieser Aussage lässt sich nicht schließen, was als nächstes tatsächlich gewürfelt wird. Es ist beispielsweise durchaus möglich, dass die Augenzahl „2“ dreimal hintereinander gewürfelt werden wird. Die Wahrscheinlichkeit hierfür ist allerdings eher klein: 1/6·1/6·1/6 0,0046.


Zwei Würfel werden geworfen nach oben

Zu diesem Zufallsexperiment gehört die Ergebnismenge S = {(1;1), (1;2), (1;3), ...(2;1), (2;2), ... (6;6)}. Alle 36 Ergebnisse dieses Zufallsexperimentes sind gleichwahrscheinlich, das heißt, es ist ein sogenanntes Laplace-Experiment. (Beim Würfeln mit einem Würfel handelt es sich auch um ein Laplace-Experiment, was durch das Simulationsexperiment bestätigt werden konnte.)

Jede Teilmenge von S entspricht einem möglichen Ereignis. Zum Beispiel gehört zum Ereignis "Ein Pasch wird gewürfelt" die Menge {(1;1), (2;2), (3;3), (4;4), (5;5), (6;6)}.

Die Berechnung von Wahrscheinlichkeiten im Zusammenhang von Laplace-Experimenten ist nicht schwierig. Für jedes Ereignis E eines Laplaceexperimentes gilt

P(E) = |E|/|S|

Hierbei ist |E| die Anzahl der Elemente in E und |S| die Anzahl der Elemente in S, d.h. die Anzahl aller möglichen Ergebnisse. In einem Gitterdiagramm kann man sich diese Regel gut veranschaulichen.

Von den in der folgenden Tabelle definierten Ereignissen A, B, C, D und S können im darunter stehenden Diagramm jeweils zwei Ereignisse dargestellt werden. Hierbei werden gleichzeitig die zugehörigen Wahrscheinlichkeitswerte berechnet und ausgegeben. (Diese Animation ist mit JavaScript programmiert.)

 "Die Würfelsumme beträgt 10" 100
 "Mindestens eine Zahl ist eine Zwei" 100
 "Ein Pasch wird gewürfelt" 100
 "Zwei Primzahlen werden gewürfelt" 100
 "Irgendein mögliches Ergebnis wird gewürfelt"   100
6 000 000 000 000 000 000
5 000 000 000 000 000 000
4 000 000 000 000 000 000
3 000 000 000 000 000 000
2 000 000 000 000 000 000
1 000 000 000 000 000 000
11 1 2 3 4 5 6

Die Beispiele im Gitterdiagramm führen auf weitere Regeln zur Berechnung von Wahrscheinlichkeiten. Die erste (spezieller Additionssatz) lautet:

P(A B) = P(A) + P(B), falls A B = { }

Mit AB wird hierbei dasjenige Ereignis bezeichnet, welches eintritt, falls A oder B eintritt und ABrepräsentiert dasjenige Ereignis, das eintritt, wenn A und B eintritt. Man kann das auch anders ausdrücken: Das Ereignis AB tritt genau dann ein, wenn mindestens eines der Ereignisse A oder B eintritt, während das Ereignis AB genau dann eintritt, wenn sowohl A, als auch B eintritt. Die Aussage AB = { } bedeutet, dass die Ereignisse A und B kein Ergebnis gemeinsam haben. In diesem Fall heißen die Ereignisse A und B unvereinbar.

Sind A und B nicht miteinander unvereinbar, so gilt statt des speziellen Additionssatzes allgemeiner:

P(A B) = P(A) + P(B) − P(A B).

Die anschauliche Bedeutung der Ausdrücke AB und AB ergibt sich schon aus den Beispielen im Gitterdiagramm, sie lässt sich aber noch allgemeiner verstehen, und zwar mit Hilfe der sogenannten Venn-Diagramme. A und B werden hierbei als Teilmengen einer Grundmenge S aufgefasst.

Teilmenge A einer Grundmenge S   Teilmenge B einer Grundmenge S

Schnittmenge der Teilmengen A und B   Vereinigungsmenge der Teilmengen A und B

Ein Ergebnis s der Ergebnismenge S eines Zufallsexperimentes gehört genau dann zu AB, wenn s zu A und zu B gehört. Zu AB gehört ein Ergebnis s genau dann, wenn s zu A oder zu B gehört (das heißt, wenn s entweder nur zu A oder nur zu B oder zu AB gehört).


Die Kolmogorow’schen Axiome nach oben

Der russische Mathematiker Kolmogorow hat gezeigt, dass alle Aussagen der Wahrscheinlichkeitsrechnung mathematisch streng bewiesen werden können, wenn lediglich drei Eigenschaften für die Wahrscheinlichkeit P axiomatisch festgelegt werden. Hierbei wird P verstanden als Abbildung der Potenzmenge einer vorgegebenen Ergebnismenge S auf das geschlossene Intervall [0; 1] ⊂ ℝ.

(S) = { A:  A S } heißt Potenzmenge von S und ist die Menge aller Teilmengen von S, einschließlich der leeren Menge { } und S selber. Die Definition von P lautet dann wie folgt.

Sei S die Menge aller möglichen Ergebnisse eines wohldefinierten Zufallsexperimentes.
Dann heißt die Funktion

P: (S) [0; 1]

genau dann Wahrscheinlichkeit, wenn Folgendes gilt:

(K1) P(S) = 1
(K2)  P(E)  1  für alle  E  S
(K3) P(A  B) = P(A) + P(B), falls A, B  S und A  B = { }

Hieraus folgt sofort, dass das Komplementärereignis eines Ereignisses E gleich 1 − P(E) ist.
Das Komplementärereignis von E ist genau dasjenige Ereignis E, das eintritt, wenn E nicht eintritt.

Beweis: Aus EE = S und EE = { } folgt wegen (K1) und (K3), dass
1 = P(S) = P(EE) = P(E) + P(E). Hieraus folgt die Behauptung:

P(E) = 1 − P(E).

Diese Regel ist für alle Ereignisse E S gültig, also auch speziell für S.
Also folgt: P({ }) = 1 − P({ }) = 1 − P(S) = 1 − 1 = 0. Damit hat man

P( { } ) = 0.

Seien A und B Ereignismengen eines Zufallsexperimentes mit der Ergebnismenge S. Dann gilt

A P(A) P(B)   und   P(B A) = P(B) − P(A)

Beweis:
Wegen A B folgt B = A(BA) und es ist A(BA) = { }.
Unter Benutzung von (K3) folgt hieraus, dass P(B) = P(A) + P(BA)
und damit P(BA) = P(B) − P(A).
P(A) P(B) folgt mit (K2).

Die Regel zur Berechnung der Wahrscheinlichkeiten von "Oder"-Ereignissen (allgemeiner Additionssatz),

P(A  B) = P(A) + P(B) − P(A ∩ B),

ist im Rahmen von Laplace-Experimenten unmittelbar einleuchtend. Auf Grundlage der Kolmogorow'schen Axiome (K1), (K2) und (K3) kann man diesen Satz für alle möglichen Zufallsexperimente beweisen. Die Einschränkung auf Laplace-Experimente (S ist eine endliche Menge und alle Ergebnisse sind gleichwahrscheinlich) kann fallen gelassen werden.

Beweis:
Für A, B S gilt stets AB = A (BA)  mit A(AB) = { }.
(K3) liefert (●) P(A B) = P(A) + P(AB).
Aus B = (AB) (AB) folgt wegen (AB) (AB) = { } aus demselben Grund
(●●) P(B) = P(AB) + P(AB).
Unter Benutzung der Gleichungen (●) und (●●) folgt
P(AB) = P(A) + P(B) − P(AB), was zu beweisen war.

Die Regel zur Berechnung der Wahrscheinlichkeiten von "Und"-Ereignissen (Multiplikationssatz) lautet

P(A B) = P(A/B)·P(B).

PB(A) = P(A/B) heißt bedingte Wahrscheinlichkeit von A unter der Bedingung B, das ist die Wahrscheinlichkeit des Ereignisses A unter der Voraussetzung, dass das Ereignis B bereits eingetreten ist. Man rechnet leicht nach, dass die durch

PB(A) = P(A B)/P(B)

definierte bedingte Wahrscheinlichkeit PB tatsächlich eine Wahrscheinlichkeit darstellt, das heißt, dass auch für PB die Kolmogorow’schen Axiome gelten.

In dem Fall, wo A und B voneinander stochastisch unabhängig sind, vereinfacht sich der Multiplikationssatz. Ein Ereignis A heißt stochastisch unabhängig vom Ereignis B genau dann, wenn P(A/B) = P(A/B). Das bedeutet, dass die Wahrscheinlichkeit dafür, dass A eintritt, unabhängig davon ist, ob B zuvor eingetreten ist oder eben nicht eingetreten ist. Mit Hilfe dieses neuen Begriffs lässt sich der folgende wichtige Satz formulieren:

Zwei Ereignisse A und B eines Zufallsexperimentes sind genau dann voneinander stochastisch unabhängig, wenn

 P(A B) = P(A)·P(B)

gilt.

Der Beweis dieses Satzes ist ein sogenannter Äquivalenzbeweis, der in zwei Schritten geführt wird.
Zunächst wird gezeigt, dass aus der ersten Aussage (stochastische Unabhängigkeit zweier Ereignisse A und B) die zweite Aussage (P(AB) = P(A)·P(B)) folgt, danach wird die Umkehrung dieser Folgerung bewiesen. Für die Durchführung dieser zwei Schritte wird zunächst gezeigt, dass die Aussage

P(A) = PB(A)·P(B) + PB(A)·P(B)

immer wahr ist.

Beweis:
Für A, B S gilt in jedem Fall A = A S = A (B B) = (A B) (A B).
Wegen (A B) (A ∩ B) = { } folgt mit (K3), dass P(A) = P(A ∩ B) + (A B).
Nach Definition der bedingten Wahrscheinlichkeit gilt
sowohl P(A ∩ B) = PB(A)·P(B) als auch P(A  B) = PB(A)·P(B).
Also hat man insgesamt die Aussage (●) P(A) = PB(A)·P(B) + PB(A)·P(B).
"": Seien A und B stochastisch unabhängig voneinander,
   dann gilt nach Definition
   PB(A) = PB(A) und es folgt mit (●), dass
   P(A) = PB(A)·(P(B) +P(B)) = PB(A)·P(S) = PB(A).
   Hieraus folgt P(AB) = PB(A)·P(B) = P(A)·P(B).
"": Umgekehrt gelte jetzt P(AB) = P(A)·P(B).
   Dann folgt P(A) = PB(A) und mit der Gleichung (●) ergibt sich, dass
   PB(A) = PB(A)·P(B) + PB(A)·P(B)
  PB(A)·(1 − P(B)) =  PB(A)·P(B)
  PB(A) = PB(A), was zu beweisen war.


Anwendungsbeispiel: Endkontrolle von Computern nach oben

Von den in der Firma ElecExe hergestellten Computern sind erfahrungsgemäß 4% fehlerhaft. Bei der Endkontrolle wird ein fehlerhaftes Gerät mit der Wahrscheinlichkeit 0,8 beanstandet. Es kommt durchaus vor, dass ein einwandfreies Gerät beanstandet wird, und zwar mit der Wahrscheinlichkeit 0,1.
Wie groß ist die Wahrscheinlichkeit dafür, dass a) ein bei der Endkontrolle beanstandetes Gerät auch tatsächlich fehlerhaft ist,  b) ein nicht beanstandetes Gerät fehlerfrei ist?

Die in der Aufgabe genannten Eingangsdaten können in der folgenden mit JavaScript programmierten Tabelle verändert werden.

F Ein Gerät ist fehlerhaft. P(F) = 
B/F Ein fehlerfreies Gerät wird beanstandet. P(B/F) = 
B/F Ein fehlerhaftes Gerät wird beanstandet. P(B/F) = 
BF Ein Gerät wird beanstandet und es ist fehlerhaft. P(BF) = P(B/F)·P(F) = 
B Ein Gerät wird beanstandet.  P(B) = P(B/F)·P(F) + P(B/F)·P(F) = 
F/B Ein beanstandetes Gerät ist auch fehlerhaft. P(F/B) = P(BF)/P(B) = 
FB Ein Gerät hat Fehler oder es wird beanstandet. P(FB) = P(F) + P(B) − P(FB) = 
FB Ein Gerät ist fehlerfrei und wird nicht beanstandet.   P(FB) = P(FB) = 1 − P(FB) = 
F/B Ein nicht beanstandetes Gerät ist fehlerfrei. P(F/B) = P(FB)/P(B) = 


Kombinatorik nach oben

Die Berechnung von Wahrscheinlichkeiten ist sehr häufig mit kombinatorischen Problemen verknüpft. Eine alte Frage ist die nach der Wahrscheinlichkeit, sechs Richtige im Lotto zu gewinnen. Um solche Fragen lösen zu können, muss man mindestens die folgenden drei Aussagen verstanden haben, in denen zwei positive natürliche Zahlen n und k vorkommen mit der Eigenschaft, dass k immer kleiner oder gleich n ist. Die Aussagen lauten:

(1) n paarweise verschiedene Dinge kann man auf n! verschiedene Arten anordnen.
(2) Aus n paarweise verschiedenen Dingen kann man
unter Berücksichtigung der Reihenfolge k Dinge
auf n·(n−1)·(n−2)·(n−3)·...·(n−k+1) verschiedene Arten auswählen.
(3) Aus n paarweise verschiedenen Dingen kann man
ohne Berücksichtigung der Reihenfolge k Dinge
auf n·(n−1)·(n−2)·(n−3)·...·(n−k+1)/k! verschiedene Arten auswählen.

Hierbei ist der Ausdruck n! (n Fakultät) wie folgt definiert:

n! = 1, wenn n = 0;
(n+1)! = n!·(n+1) sonst

Zum Beispiel ist 3! = 1·2·3 = 6 oder 5! = 1·2·3·4·5 = 120.

Für den komplizierten Ausdruck, der in der Aussage (3) vorkommt, gibt es eine abkürzende Bezeichnung. Man nennt diesen Ausdruck Binomialkoeffizient von n über k.

Binomialkoeffizient n über k

Man kann hierfür auch binomial(n, k) schreiben.

Für den Fall k = 0 wird für alle natürlichen Zahlen n speziell definiert, dass Folgendes gelten soll:

n über 0 ist gleich 1

Beispielsweise gilt binomial(7, 5) = (7·6·5·4·3)/(1·2·3·4·5) = 21.

Beweis der Aussagen (1), (2) und (3):

In der Aussage (1) geht es um folgende Fragestellung: n voneinander unterscheidbare Objekte sollen auf n Plätze verteilt werden. Wieviele voneinander verschiedene Möglichkeiten hat man?
Der Fall n = 1 ist einfach: Es gibt natürlich nur eine einzige Möglichkeit.

 Objekt 1 

 

Bei n = 2 gibt es immerhin schon 2 verschiedene Möglichkeiten:

 Objekt 1  Objekt 2 

   

Objekt 1 Objekt 2
Objekt 2 Objekt 1

Im Falle n = 3 haben wir für den ersten Platz drei mögliche Belegungen. Wenn der erste Platz bereits belegt ist, dann haben wir für die verbleibenden zwei Plätze noch zwei Möglichkeiten, die übrig gebliebenen zwei Objekte zu verteilen; das macht dreimal zwei Möglichkeiten, also insgesamt 6 Möglichkeiten.

 Objekt 1  Objekt 2  Objekt 3 

     

Im Falle n = 4 haben wir für den ersten Platz vier mögliche Belegungen. Wenn der erste Platz bereits belegt ist, dann haben wir für die verbleibenden drei Plätze noch sechs Möglichkeiten, die übrig gebliebenen drei Objekte zu verteilen (das haben wir eben ausgerechnet). Also gibt es hier viermal sechs Möglichkeiten, also insgesamt 24 Möglichkeiten.

 Objekt 1  Objekt 2  Objekt 3  Objekt 4   

       

Für n = 1, n = 2, n = 3 und n = 4 ist also die Aussage (1) wahr. Wie geht es jetzt weiter? Schritt für Schritt genauso. Im Falle n = 5 gibt es insgesamt 120 Möglichkeiten, im Falle n = 6 sind es 720, u.s.w.
Mal angenommen, wir hätten bis zu einer gewissen Zahl m weitergemacht, dann wissen wir sicher, dass sich m Objekte auf m! verschiedene Arten auf m Plätze verteilen lassen. Nächster Schritt:

Im Falle n = m+1 haben wir für den ersten Platz m+1 mögliche Belegungen. Wenn der erste Platz bereits belegt ist, dann haben wir für die verbleibenden m Plätze noch m! Möglichkeiten, die übrig gebliebenen m Objekte zu verteilen. Also gibt es jetzt m+1mal m! Möglichkeiten, also insgesamt (m+1)! Möglichkeiten.

Dieser Schluss von n = m auf n = m+1 ist für jede beliebige natürliche Zahl möglich, also ist hiermit die Aussage (1) bewiesen. Einen solchen Beweis nennt man in der Mathematik "Beweis mit vollständiger Induktion über n" oder kurz Induktionsbeweis. Man braucht für einen solchen Beweis einen Induktionsanfang (der im vorstehenden Beispiel bereits damit gegeben ist, dass die behauptete Aussage für n = 1 bestätigt wurde) und die Induktionsvoraussetzung (das ist die Annahme, dass die behauptete Aussage bereits bis n = m bewiesen worden ist), um dann den Induktionsschluss durchzuführen (das ist der Nachweis, dass mit der Induktionsvoraussetzung die behauptete Aussage auch für n = m+1 wahr ist).

Auch die Aussage (2) lässt sich mit vollständiger Induktion beweisen, und zwar über k.
Der Induktionsanfang ist mit k = 1 bei einer beliebigen, aber fest gewählten positiven natürlichen Zahl n klar:
aus n paarweise verschiedenen Objekten kann man selbstverständlich auf n verschiedene Arten ein Objekt auswählen.
Angenommen, die Aussage (2) sei für k = m bereits bewiesen.
Dann lassen sich aus n verschiedenen Dingen unter Berücksichtigung der Reihenfolge m Dinge auf Nm verschiedene Arten auswählen mit
Nm = n·(n−1)·(n−2)·(n−3)·...·(n−(m−1)), kurz geschrieben:

Alle Nm Kombinationsmöglichkeiten kann man darstellen in Form einer Tabelle mit Nm Zeilen und m Spalten.
Jede dieser Zeilen lässt sich mit einem der (n−m) übrig gebliebenen Dinge zu einer neuen Zeile der Länge (m+1) kombinieren. Da alle Zeilen der Tabelle nach Induktionsannahme paarweise verschieden sind, gilt das Gleiche auch für die neu gebildeten Zeilen. Andererseits erhält man mit der Gesamtheit der so konstruierten neuen Zeilen alle möglichen Kombinationen von (m+1) Dingen aus insgesamt n vorhandenen Dingen.
Nach Konstruktion sind dies insgesamt Nm·(n−m) Kombinationen, also folgt

 

und damit die Behauptung.

Aussage (3) folgt direkt aus Aussage (1) und Aussage (2).


Anwendungsbeispiel: Lotto "6 aus 49" nach oben

Wie wahrscheinlich ist es (ohne Beachtung der Zusatzzahl) r Richtige im Lotto zu erzielen?

Lösung: Aus 49 Zahlen eines Lottofeldes kann man 6 Zahlen ohne Berücksichtigung der Reihenfolge auf N unterschiedliche Arten zum Ankreuzen auswählen mit  N = binomial(49, 6) = 13983816. Das heißt, es gibt insgesamt fast vierzehn Millionen verschiedene Ankreuzmöglichkeiten. Das Ereignis "r Richtige" tritt genau dann ein, wenn r von den sechs angekreuzten Zahlen in der Glücksmaschine geworfen werden und (6−r) Zahlen nicht geworfen werden. Hierfür gibt es alles in allem N(r)  = N6,r·N43,6−r = binomial(6, r)·binomial(43, 6−r) mögliche Kombinationen. Da alle 49 Zahlen mit gleicher Wahrscheinlichkeit geworfen werden, handelt es sich beim Lottospiel um ein Laplace-Experiment. Also ist die Wahrscheinlichkeit, bei einem Lottofeld genau r Richtige zu erzielen, gleich N(r)/N.

Wenn mehrere Lottofelder ausgefüllt werden, erhöht sich natürlich die Gewinnwahrscheinlichkeit. Sei z die Zahl der ausgefüllten Lottofelder, dann ist zum Beispiel die Wahrscheinlichkeit dafür, mindestens einmal genau r Richtige zu haben, gleich P(r) = 1 − (1 − N(r)/N)z.
Die Wahrscheinlichkeit bei z ausgefüllten Lottofeldern mindestens einmal mindestens r Richtige zu haben, beträgt 1 − (1 − (N(r)+N(r+1)+...N(6))/N)z.
Diese Formeln gelten nur unter der Voraussetzung, dass alle Lottofelder unabhängig voneinander und zufällig angekreuzt werden!

Die folgenden Berechnungen (-> Quelltext) funktionieren mithilfe von JavaScript.

z =
r =

A  Genau r Richtige bei einem Lottofeld P(A) = 
B  Mindestens r Richtige bei einem Lottofeld P(B) = 
C  Mindestens einmal genau r Richtige bei z Lottofeldern P(C) = 
D  Mindestens einmal mindestens r Richtige bei z Lottofeldern   P(D) = 
E  Höchstens r Richtige bei z Lottofeldern P(E) = 

Die Wahrscheinlichkeit, bei einem ausgefüllten Lottofeld höchstens 3 Richtige zu erzielen, ist gleich 0,99901. Dieses Ereignis ist also fast sicher. Die Wahrscheinlichkeit, bei einem ausgefüllten Lottofeld 6 Richtige zu erzielen, ist etwa gleich 0,00000007. Dieses Ereignis ist also fast unmöglich. Immerhin erhöht sich diese Wahrscheinlichkeit auf etwa 0,0000004, wenn sechs Lottofelder zufällig und unabhängig voneinander ausgefüllt werden.

Andererseits: In Deutschland leben derzeit insgesamt ungefähr 82 Millionen Menschen. Wenn man davon ausgeht, dass hiervon jeder Dritte Lotto spielt und dass jeder Lottospieler vier Lottofelder zufällig und unabhängig voneinander ausfüllt, dann ist die Wahrscheinlichkeit dafür, dass niemand in Deutschland 6 Lottorichtige hat, etwa gleich 0,0004. Das bedeutet, dass es ziemlich sicher ist, dass bei einem Lottospiel unter den genannten Voraussetzungen irgendjemand 6 Richtige erzielen wird.


 Home   Back   Top