Sie sind hier: Doktus - Home - Schule - Mathematik - Wahrscheinlichkeitsrechnung
Freunde einladen | Hochgeladene Dokumente: 44764

„Wahrscheinlichkeitsrechnung“

zurück zum Dokument
Eingestellt von:
ScienceFan
Beschreibung:

Tags:
wahrscheinlichkeitsrechnung, stochastik, mathe, mathematik
Das hier eingestellte Dokument stammt von einem privaten Nutzer, Doktus stellt nur das Hosting zur Verfügung.

Kapitel 4 Wahrscheinlichkeitsrechnung
4.1 Zufallsvorg¨nge und Ereignisse a

Der Ausgang der meisten Vorg¨nge ist unbestimmt. So sind die Br¨tchen a o beim morgendlichen Besuch des B¨ckerladens manchmal knusperig, mancha mal aber leider weich. Manchmal wird man sofort bedient, manchmal muss man warten. Wenn man warten muss, ist die Anzahl der Personen, die vor einem steht, nicht immer gleich. Auch die Wartezeit variiert. Die betrachteten Vorg¨nge zeichnen sich dadurch aus, dass sie mit einem von a mehreren Ergebnissen enden k¨nnen, wir aber vor der Durchf¨hrung nicht o u wissen, welches der Ergebnisse eintritt. Wir bezeichnen solche Vorg¨nge als a Zufallsvorg¨nge. a Die Menge aller m¨glichen Ergebnisse des Zufallsvorgangs nennt man Ero gebnismenge . Beispiel 25 Eine M¨nze wird einmal geworfen, wobei entweder KOPF K oder ZAHL Z u auftritt. Die Ergebnismenge ist somit = {K, Z} . Beispiel 26 Eine M¨nze wird zweimal geworfen, wobei bei einem Wurf entweder KOPF u oder ZAHL auftritt. Die Ergebnismenge ist somit = {KK, KZ, ZK, ZZ} . Beispiel 27 Ein W¨rfel wird einmal geworfen. Die Ergebnismenge ist u = {1, 2, 3, 4, 5, 6} . 97

98

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Beispiel 28 Eine M¨nze wird so oft geworfen, bis zum ersten Mal KOPF auftritt. Die u Ergebnismenge ist = {K, ZK, ZZK, ZZZK, . . .} . Beispiel 29 Ein Kunde z¨hlt die Anzahl der Kunden, die vor ihm im B¨ckerladen stehen. a a Die Ergebnismenge ist = {0, 1, 2, 3, . . .} . Beispiel 30 Wir bestimmen die Wartezeit im B¨ckerladen, wobei ein Kunde nicht bereit a ist, l¨nger als 10 Minuten zu warten. Die Ergebnismenge ist a = {x|x , 0 x 10} = [0, 10] . Die Ergebnismengen der ersten drei Beipiele enthalten endlich viele Ergebnisse, die restlichen unendlich viele. Die unendlich vielen Ergebnisse der Beispiele 28 und 29 k¨nnen abgez¨hlt werden w¨hrend dies bei der Ergebnismenge o a a des Beispiels 30 nicht m¨glich ist. o Ergebnismengen heißen diskret, wenn sie endlich viele oder abz¨hlbar una endlich viele Ergbenisse enthalten. Ansonsten heißen sie stetig. Bei Zufallsvorg¨ngen ist man oft an Zusammenfassungen von Ergebnissen a interessiert. Beispiel 26 (fortgesetzt) Beim zweimaligen Wurf einer M¨nze ist man daran interessiert, dass genau u einmal Kopf eintritt. Beispiel 27 (fortgesetzt) Beim einmaligen Wurf eines W¨rfels ist von Interesse, ob eine ungerade Auu genzahl f¨llt. a Eine Zusammenfassung von Ergebnissen aus heißt Ereignis A. Man sagt, dass das Ereignis A eingetreten ist, wenn ein Ergebnis aus A beobachtet wurde. Beispiel 26 (fortgesetzt) Das zugeh¨rige Ereignis ist A = {KZ, ZK}. o Beispiel 27 (fortgesetzt) Das zugeh¨rige Ereignis ist A = {1, 3, 5}. o

¨ 4.1. ZUFALLSVORGANGE UND EREIGNISSE

99

Die Ergebnismenge heißt sicheres Ereignis, da sie immer eintritt. Die leere Menge heißt unm¨gliches Ereignis, da sie niemals eintritt. Die o einelementigen Ereignisse heißen Elementarereignisse. Beispiel 27 (fortgesetzt) Es gibt die Elementarereignisse {1} , {2} , {3} , {4} , {5} , {6}

4.1.1

Operationen zwischen Ereignissen

Da Ereignisse Mengen sind, k¨nnen wir mit ihnen die ublichen Mengenopeo ¨ rationen durchf¨hren. u Beispiel 27 (fortgesetzt) Wir betrachten im Folgenden die Ereignisse: A = {1, 2, 3} B = {1, 3, 5} C = {6}

Definition 4.1 Das Komplement¨rereignis A tritt ein, wenn das Ereignis A nicht eintritt: a A = {x|x , x A} . (4.1)

Man sagt auch, dass A nicht eintritt. Abbildung 4.1 veranschaulicht das Komplement¨rereignis. Dabei ist der schraffierte Teil gleich A. a Abbildung 4.1: Das Komplement¨rereignis im Venn-Diagramm a

A

Beispiel 27 (fortgesetzt) A = {4, 5, 6} B = {2, 4, 6} C = {1, 2, 3, 4, 5}

100

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Definition 4.2 Sind A und B Ereignisse, dann ist die Vereinigung AB der beiden definiert durch A B = {| , A oder B} . (4.2)

Man sagt auch, dass mindestens eines der beiden Ereignisse eintritt. Abbildung 4.2 veranschaulicht die Vereinigung der Ereignisse A und B. Dabei ist der schraffierte Teil gleich A B. Abbildung 4.2: Die Vereinigung der Ereignisse A und B im Venn-Diagramm

A

B

Beispiel 27 (fortgesetzt) Es gilt A B = {1, 2, 3, 5} A C = {1, 2, 3, 6} B C = {1, 3, 5, 6}

Definition 4.3 Sind A und B Ereignisse, dann ist der Durchschnitt A B der beiden definiert durch A B = {| , A und B} . (4.3)

Man sagt auch, das beide Ereignisse gleichzeitig eintreten. Abbildung 4.3 veranschaulicht den Durchschnitt der Ereignisse A und B. Dabei ist der schraffierte Teil gleich A B.

¨ 4.1. ZUFALLSVORGANGE UND EREIGNISSE

101

Abbildung 4.3: Der Durchschnitt der Ereignisse A und B im Venn-Diagramm

A

B

Beispiel 27 (fortgesetzt) Es gilt A B = {1, 3} Definition 4.4 Gilt

AC =

BC =

AB =

(4.4)

f¨r zwei Ereignisse A und B, dann heißen A und B disjunkt oder unveru einbar. Sind die Ereignisse A und B disjunkt, dann k¨nnen sie nicht gleichzeitig o eintreten. Definition 4.5 Sind A und B Ereignisse, dann ist die Differenz A/B der beiden definiert durch A/B = {| , A und B} . (4.5)

Man sagt auch, dass nur A eintritt. Abbildung 4.4 veranschaulicht die Differenz der Ereignisse A und B. Dabei ist der schraffierte Teil gleich A/B.

102

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Abbildung 4.4: Die Differenz der Ereignisse A und B im Venn-Diagramm

A

B

Beispiel 27 (fortgesetzt) Es gilt A/B = {2} A/C = {1, 2, 3} B/C = {1, 3, 5} B/A = {5} C/A = {6} C/B = {6}

F¨r zwei Ereignisse A und B gelten die de Morganschen Regeln u AB =AB und AB =AB. F¨r drei Ereignisse A, B und C gelten die Distributivgesetze u A (B C) = (A B) (A C) und A (B C) = (A B) (A C) . (4.9) (4.8) (4.7) (4.6)

4.2. WAHRSCHEINLICHKEIT

103

4.2

Wahrscheinlichkeit

Bisher haben wir die bei Zufallsvorg¨ngen interessierenden Ereignisse mit a Hilfe von Mengen mathematisch beschrieben. Im t¨glichen Leben bewera ten wir Ereignisse hinsichtlich ihrer Realisierungsm¨glichkeit unterschiedlich. o Wie k¨nnen wir dies quantifizieren? Die Wahrscheinlichkeitsrechnung nimmt o an, dass diese Zahlen irgendwie gegeben sind und bestimmten trivialen Konsistenzbedingungen (Axiomen) gen¨gen. Es ist der Wahrscheinlichkeitstheou rie jedoch v¨llig gleichg¨ltig, woher man in einem konkreten Fall die Zahlen o u bekommt. Intuitiv bedeuten Wahrscheinlichkeiten Grade der Realisierungschance von Ereignissen oder Grade des subjektiven Glaubens an Ereignisse. Wir wollen zun¨chst einige Ans¨tze zur Formalisierung der intuitiven Vora a stellung angeben.

4.2.1

Klassischer Ansatz

Ausgangspunkt ist ein Zufallsvorgang mit endlich vielen Ergebnissen. Die Wahrscheinlichkeit eines Ereignisses A ist definiert durch Anzahl der Ergebnisse in A . Anzahl der Ergebnisse in

P (A) =

(4.10)

Beispiel 28 Wurf eines W¨rfels. Wir unterstellen, dass der W¨rfel fair ist. Es gilt also u u f¨r die Elementarereignisse u 1 P ({i}) = 6 f¨r i = 1, 2, 3, 4, 5, 6. u F¨r A = {1, 2, 3} gilt u 3 1 P (A) = = . 6 2 F¨r B = {1, 3, 5} gilt u 3 1 P (A) = = . 6 2 Den klassischen Ansatz kann man nur verwenden, wenn die Ergebnismenge endlich ist und alle Elementarereignisse gleichwahrscheinlich sind.

104

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

4.2.2

Frequentistischer Ansatz

Eine M¨glichkeit, zu einer Bewertung eines Ereignisses im Rahmen eines Zuo fallsvorgangs zu gelangen, besteht darin, den Zufallsvorgang mehrmals unter identischen Bedingungen zu beobachten und zu z¨hlen, wie oft das interesa sierende Ereignis eingetreten ist. Man sammelt also Erfahrungen uber die ¨ Realisierungsm¨glichkeiten eines Ereignisses durch Beobachten und Z¨hlen. o a Dies ist der klassische Ansatz. Das Ereignis A sei bei den N Durchf¨hrungen des Zufallsvorgangs nN (A)u a mal eingetreten. Wir nennen nN (A) die absolute H¨ufigkeit des Ereignisses A. Setzen wir nN (A) in Beziehung zur Anzahl N der Durchf¨hrungen, so u erhalten wir die relative H¨ufigkeit a hN (A) = nN (A) . N

Da absolute H¨ufigkeiten nichtnegativ sind, gilt a hN (A) 0 f¨r jedes Ereignis A . u (4.11)

Da das sichere Ereignis bei jeder Durchf¨hrung des Zufallsvorgangs eintritt, u gilt hN () = 1 . (4.12)

Sind A und B disjunkte Ereignisse, so kann man bei jeder Durchf¨hrung u des Zufallsvorgangs nur eines der beiden Ereignisse eintreten. Wir k¨nnen o die absolute H¨ufigkeit von A B also dadurch bestimmen, dass wir die a absolute H¨ufigkeit von A und die absolute H¨ufigkeit von B addieren. Es a a gilt also u hN (A B) = hN (A) + hN (B) f¨r disjunkte Ereignisse A und B . (4.13) Wiederholen wir einen Zufallsvorgang immer wieder unter den gleichen Bedingungen und bilden f¨r ein beliebiges Ereignis A die Folge der relativen u H¨ufigkeiten hN (A), N = 1, 2, . . ., dann schwanken die hN (A) mit wacha sendem n immer weniger und scheinen einem Grenzwert zuzustreben. Die Folge der relativen H¨ufigkeiten zeigt ein konvergenzartiges Verhalten. Aba bildung 4.5 zeigt das Verhalten der relativen H¨ufigkeit von KOPF bei 300 a W¨rfen einer M¨nze. u u

4.2. WAHRSCHEINLICHKEIT

105

Abbildung 4.5: Relativen H¨ufigkeit von KOPF bei 300 W¨rfen einer M¨nze a u u

0.8

0.6

relative Haeufigkeit

0.4

0.2

0.0

0

50

100

150 N

200

250

300

Es scheint so, als ob gilt
N

lim hN (A) = p ,

wobei p eine reelle Zahl ist. Es liegt nun nahe, die Chance der Realisierung von Ereignissen uber diesen Grenzwert zu definieren. Die Konvergenz l¨sst a ¨ sich aber in der Realit¨t aber weder verifizieren noch falsifizieren, da wir nur a ein Anfangsst¨ck der Reihe beobachten k¨nnen. u o Eine Bewertung der Chance des Eintretens von Ereignissen uber den Grenz¨ wert der Folge der relativen H¨ufigkeiten ist also nicht m¨glich, da uber die a o ¨ Existenz dieses Grenzwerts nichts bekannt ist.

4.2.3

Axiomatische Definition

Bei vielen Zufallsvorg¨ngen ist zu beobachten, dass die relative H¨ufigkeit a a eines Ereignisses mit wachsender Zahl der Wiederholungen immer weniger schwankt. Es liegt also nahe, den Grad der Unbestimmtheit des Eintretens eines Ereignisses durch eine Zahl zu charakterisieren. Dabei sollte eine zahlenm¨ßige Bewertung von Ereignissen die gleichen Eigenschaften wie die rea lative H¨ufigkeit besitzen. Sie wird Wahrscheinlichkeit P genannt. Kolmoa goroff hat 1933 folgende drei Axiome postuliert, die die Wahhrscheinlichkeit P erf¨llen muss: u

106 Axiom 1:

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

0 P (A) f¨r alle Ereignisse A u Axiom 2: P () = 1 Axiom 3: P (A B) = P (A) + P (B) f¨r disjunkte Ereignisse A und B. u

(4.14)

(4.15)

(4.16)

Schauen wir uns an, welche Konsequenzen wir aus den Axiomen ziehen k¨nnen. o Satz 4.1 Es gilt P (A) = 1 - P (A) . Beweis: Es gilt AA= und A A = . Dann gilt wegen Axiom 2 und Axiom 3: 1 = P () = P (A A) = P (A) + P (A) . Hieraus folgt die Behauptung. Beispiel 28 (fortgesetzt) Mit P (A) = 0.5 gilt P (A) = 1 - P (A) = 1 - 0.5 = 0.5 .

(4.17)

4.2. WAHRSCHEINLICHKEIT Satz 4.2 Es gilt P () = 0. Beweis: Es gilt = . Somit gilt mit Gleichung 4.17 und Axiom 2: P () = 1 - P () = 1 - P () = 1 - 1 = 0 . Satz 4.3 Es gilt P (A B) = P (A) - P (A B) . Beweis: Es gilt A = (A B) (A B) .

107

(4.18)

(4.19)

Die G¨ltigkeit dieser Beziehung kann man Abbildung 4.6 entnehmen. Der u horizontal schraffierte Bereich ist A B und der vertikal schraffierte Bereich A B. Abbildung 4.6: Venn-Diagramm zur Erl¨uterung a

A

B

Wegen (A B) (A B) =

108

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

folgt wegen Axiom 3 P (A) = P ((A B) (A B)) = P (A B) + P (A B) . Also gilt P (A B) = P (A) - P (A B) . Beispiel 28 (fortgesetzt) Es gilt A B = {1, 3} und somit P (A B) = Also gilt P (A B) = P (A) - P (A B) = Satz 4.4 Es gilt P (A B) = P (A) + P (B) - P (A B) . Beweis: Es gilt A B = (A B) B . Die G¨ltigkeit dieser Beziehung kann man Abbildung 4.7 entnehmen. Der u gesamte schraffierte Berich ist A B, der horizontal schraffierte Bereich ist A B und der vertikal schraffierte Bereich B. Abbildung 4.7: Venn-Diagramm zur Erl¨uterung a (4.20) 1 1 1 - = . 2 3 6 1 . 3

A

B

4.2. WAHRSCHEINLICHKEIT Wegen (A B) B = A B B = A = folgt dann wegen Axiom 3 und 4.19 P (A B) = P (A B) B) = P (A B) + P (B) = P (A) + P (B) - P (A B) . Beispiel 28 (fortgesetzt) Es gilt P (A B) = P (A) + P (B) - P (A B) = Satz 4.5 Seien A und B Ereignisse mit A B. Dann gilt P (A) P (B) Beweis: Aus B = (B A) (B A) und (B A) (B A) = folgt wegen Axiom 3: P (B) = P (B A) + P (B A) . Aus AB folgt A B = A. Die G¨ltigkeit dieser Beziehung kann man Abbildung 4.8 entnehmen. u 2 1 1 1 + - = . 2 2 3 3

109

(4.21)

110

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG Abbildung 4.8: Venn-Diagramm

A

B

Somit gilt P (B) = P (B A) + P (B A) = P (A) + P (B A) . Wegen P (B A) 0 folgt also P (B) - P (A) 0 und somit P (A) P (B) . Im t¨glichen Leben wird die Aussage des Satzes beim Vergleich von Wahra scheinlichkeiten oft verletzt. Folgendes Beispiel stammt von Tversky und Kahneman. Beispiel 29 Linda ist 31 Jahre alt. Sie ist ledig, extrovertiert und intellektuell absolut brilliant. Sie hat einen Abschluss in Philosophie. Als Studentin hat sie sich gegen Diskriminierung und soziale Ungerechtigkeit engagiert. Sie hat auch an Demonstrationen gegen Kernkraft teilgenommen. Was ist wahrscheinlicher: A: B: Linda ist Bankangestellte Linda ist Bankangestellte und aktiv in der Frauenbewegung

4.2. WAHRSCHEINLICHKEIT

111

90 Prozent der Befragten hielten die Alternative B f¨r wahrscheinlicher, obu wohl der in Alternative B beschriebene Personenkreis eine Teilmenge des in Alternative A beschriebenen Personenkreises ist. Tversky und Kahneman erkl¨ren diesen Fehlschluss folgendermaßen: a Je detaillierter die Beschreibung eines Sachverhalts ist, um so unwahrscheinlicher ist dieser. Man kann ihn sich aber besser vorstellen, und somit erh¨ht o sich eine Plausibilit¨t. a Der folgende Satz zeigt, dass Wahrscheinlichkeiten normiert sind. Somit kann man sagen, ob eine Wahrscheinlichkeit groß oder klein ist. Satz 4.6 Es gilt: P (A) 1 Beweis: F¨r jedes A A gilt u Aus (4.21) folgt: P (A) P () . Mit Axiom 2 gilt also P (A) 1 . Beispiel 30 Eine M¨nze werde einmal geworfen. Es gilt u = {K, Z} . Wir setzen P ({K}) = p mit 0 p 1. Aufgrund von Satz 4.2 auf Seite 107 gilt P () = 0 . Aufgrund von Axiom 3 gilt P ({K, Z}) = 1 . (4.22)

A

112

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Aufgrund von Satz 4.1 auf Seite 106 gilt P ({Z}) = 1 - P ({K}) = 1 - p . Wir haben jedem Ereignis eine Wahrscheinlichkeit zugeordnet. Wir wissen aber nicht, welcher spezielle Wert f¨r p gew¨hlt werden soll. Sind wir uns u a sicher, dass die M¨nze fair ist, so werden wir p = 0.5 setzen. Wir werden in u der Inferenzstatistik lernen, wie man datengest¨tzt einen geeigneten Wert p u finden kann. Außerdem werden wir Verfahren kennenlernen, mit denen man uberpr¨fen kann, ob eine M¨nze fair ist. u u ¨ Das Beispiel zeigt, wie man bei einer endlichen Ergebnismenge Wahrscheinlichkeiten f¨r Ereignisse konstruieren kann. u Sei = {1 , 2 , . . . , k } . Wir legen Wahrscheinlichkeiten P ({i }) = pi f¨r die Elementarereignisse u {i }, i = 1, 2, . . ., fest. Dabei muss gelten 0 pi 1 und
k

pi = 1 .
i=1

F¨r jedes Ereignis A setzen wir dann u P (A) =
i A

P ({i }) .

Die drei Axiome sind erf¨llt. u Axiom 1: P (A) =
i A

P ({i }) 0 ,

da alle P ({i }) 0. Axiom 2: P () =
i

k

P ({i }) =
i=1

pi = 1 .

Axiom 3: Seien A und B disjunkte Ereignise. Dann gilt P (A B) =
AB

P () =
A

P () +
B

P () = P (A) + P (B) .

4.2. WAHRSCHEINLICHKEIT

113

Beispiel 31 Beim Gleichm¨glichkeitsmodell gehen wir aus von der Ergebnismenge = o u {1 , 2 , . . . , k } und setzen f¨r i = 1, . . . , k: P ({i }) = 1 . k

Die Wahrscheinlichkeit eines beliebigen Ereignisses A ist dann P (A) =
i A

P ({i } =

|A| , ||

wobei |M | die M¨chtigkeit, d.h. die Anzahl der Elemente einer Menge M , a angibt.

4.2.4

Kombinatorik

Oft ist es gar nicht so einfach, die Anzahl der m¨glichen Ergebnisse zu beo stimmen. Wir wollen dies f¨r bestimmte Situationen systematisch angehen. u Dabei gehen wir von einem Grundprinzip aus, das wir zun¨chst an einem a Beispiel veranschaulichen. Beispiel 32 Ein Mann besitzt drei Pullover und zwei Hosen. Die Farben der Pullover sind rot, gelb und blau, w¨hrend die Farben der Hosen schwarz und weiß sind. a Auf wieviele Arten kann sich der Mann kleiden? Er kann den roten Pullover anziehen und zu diesem entweder die schwarze oder die weiße Hose. Er kann den gelben Pullover anziehen und zu diesem entweder die schwarze oder die weiße Hose. Er kann den blauen Pullover anziehen und zu diesem entweder die schwarze oder die weiße Hose. Es gibt also die folgenden 6 M¨glichkeiten: o roter Pullover und schwarze Hose roter Pullover und weiße Hose gelber Pullover und schwarze Hose gelber Pullover und weiße Hose blauer Pullover und schwarze Hose blauer Pullover und weiße Hose

Zu jedem der drei Pullover kann man jede der beiden Hosen anziehen.

114

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Satz 4.7 Seien A = {a1 , . . . , am } und B = {b1 , . . . , bn } Mengen. F¨r das kartesische Produkt u A × B = {(a, b)|a A, b B} gilt |A × B| = |A| · |B| = m · n . (4.24) (4.23)

Beweis: Der Beweis ist offensichtlich, wenn man sich die m¨glichen Ergebnisse folo gendermaßen hinschreibt. b1 a1 a2 . . . ai . . . am (a1 , b1 ) (a2 , b1 ) . . . (ai , b1 ) . . . b2 (a1 , b2 ) (a2 , b2 ) . . . (ai , b2 ) . . . ... ... ... ... ... ... bj (a1 , bj ) (a2 , bj ) . . . (ai , bj ) . . . ... ... ... ... ... ... bn (a1 , bn ) (a2 , bn ) . . . (ai , bn ) . . . (am , bn )

(am , b1 ) (am , b2 ) . . .

(am , bj ) . . .

Hieraus folgt sofort die Verallgemeinerung Satz 4.8 Seien A1 , . . . , Ar endliche Mengen. F¨r das kartesische Produkt u A1 × . . . × Ar = {(a1 , . . . , ar )|ai Ai , i = 1, . . . , r} gilt |A1 × A2 × . . . × Ar | = |A1 | · |A2 | · . . . · |Ar | . (4.26) (4.25)

Beispiel 33 Aus n1 = 5 Wegen von A nach B und n2 = 4 Wegen von B nach C kann man n1 · n2 = 5 · 4 = 20 Reisen von A nach C uber B zusammenstellen. ¨

4.2. WAHRSCHEINLICHKEIT

115

Schauen wir uns nun die klassischen Fragestellung der Kombinatorik an. Diesen liegt folgendes Urnenmodell zugrunde: Ein Urne enth¨lt n Kugeln, die von 1 bis n durchnummeriert a sind. Der Urne werden nacheinander k Kugeln entnommen. Nach jedem Zug notiert man die Nummer der gezogenen Kugel und legt die Kugel entweder zur¨ck (Ziehen mit Zur¨cklegen) oder u u legt die Kugel zur Seite (Ziehen ohne Zur¨cklegen). u Außerdem unterscheiden wir noch, ob die Anordnung ber¨cksichtigt werden u soll oder nicht. Beispiel 34 Wir gehen davon aus, dass die Urne vier Kugeln enth¨lt, die von 1 bis 4 a durchnummeriert sind. U = {1, 2, 3, 4} Wir fangen mit dem Ziehen mit Zur¨cklegen unter Ber¨cksichtigung der Anu u ordnung an. Beispiel 34 (fortgesetzt) Vor dem ersten Zug ist der Zustand der Urne U = {1, 2, 3, 4} und, da wir mit Zur¨cklegen ziehen, ist er vor dem zweiten Zug ebenfalls u U = {1, 2, 3, 4} . Die Zahl auf der ersten gezogenen Kugel ist entweder eine 1, 2, 3 oder 4. Nehmen wir an, es ist eine 1. Dann kann die Zahl auf der zweiten gezogenen Kugel entweder eine 1, 2, 3 oder 4 sein. Wir erhalten also folgende 4 M¨glichkeiten o (1, 1) (1, 2) (1, 3) (1, 4) Zu jeder der anderen 3 ersten Zahlen beim ersten Zug gibt es ebenfalls wieder 4 M¨glichkeiten beim zweiten Zug. Somit gibt es folgende 42 = 16 o M¨glichkeiten: o (1, 1) (1, 2) (1, 3) (1, 4) (2, 1) (2, 2) (2, 3) (2, 4) (3, 1) (3, 2) (3, 3) (3, 4) (4, 1) (4, 2) (4, 3) (4, 4)

116

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Der folgende Satz verallgemeinert das Beispiel. Satz 4.9 Die Anzahl der geordneten Stichproben vom Umfang k aus einer Menge vom Umfang n betr¨gt beim Ziehen mit Zur¨cklegen a u nk . (4.27)

Beweis: Sei B eine Menge mit n Elementen. Die Menge aller m¨glichen geordneten o Stichproben ist beim Ziehen mit Zur¨cklegen u A = {(a1 , . . . , ak )|ai B, i = 1, . . . , k} = B × B × . . . × B . Vor jeder Ziehung enth¨lt die Menge, aus der gezogen wird, also n Elemente. a Aufgrund von Satz 4.8 auf Seite 114 gilt also |A| = |B × B × . . . × B| = |B| · . . . · |B| = |B|k = nk .
k F aktoren

Beispiel 35 a Mit einer Base lassen sich 4, mit zwei Basen 4 · 4 = 42 = 16 Aminos¨uren o kodieren. F¨r 3 Basen haben wir 4 · 4 · 4 = 43 = 64 > 20 M¨glichkeiten. u Tats¨chlich bilden jeweils ein Tripel von Basen die Grundbausteine des gea netischen Codes. Beispiel 36 Ein Byte besteht aus 8 Bits, wobei ein Bit ein Informationseinheit ist, die zwei unterschiedliche Zust¨nde, zum Beispiel 0 oder 1 annehmen kann. In a einem Byte k¨nnen also 2 · 2 · 2 · 2 · 2 · 2 · 2 · 2 = 28 = 256 unterschiedliche o Informationen gespeichert werden. Beispiel 37 Eine Menge M vom Umfang n hat 2n Teilmengen. Diese sieht man folgendermaßen: Ohne Beschr¨nkung der Allgemeinheit nehmen wir an, dass gilt a M = {1, 2, . . . , n - 1, n} . Wir definieren einen Vektor v = (v1 , v2 , . . . , vn } mit vi = 1 falls i in der Teilmenge 0 sonst

4.2. WAHRSCHEINLICHKEIT Ist zum Beispiel M = {1, 2, 3}, so liefert der Vektor v = (1, 0, 1) die Teilmenge {1, 3}, w¨hrend der Vektor a v = (0, 0, 0)

117

die leere Menge liefert. Zu jeder Teilmenge gibt es genau einen Vektor v. Da es 2n Bitvektoren der L¨nge n gibt, hat eine Menge vom Umfang n genau 2n Teilmengen. a Beispiel 38 Das Beispiel stammt von Tversky und Kahnemann. Personen wurde jedes der folgenden beiden Muster gezeigt: Muster 1 X X X X X X X X X X X X X X X X X X

Muster 2 X X X X X X X X X X X X X X X X X X X X X X X X Sie sollten sagen, bei welchem der beiden Muster es mehr Pfade von der ersten Zeile bis zur letzten Zeile gibt, wobei man auf einem beliebigen X der ersten Zeile startet und in jeder der darunterliegenden Zeilen auf genau ein Symbol geht. F¨r Muster 1 gibt es 29 = 512 unterschiedliche Pfade, da man neun Symbole u trifft, und es f¨r jedes dieser Symbole genau 2 M¨glichkeiten gibt. F¨r Muster u o u 2 gibt es 83 = 512 unterschiedliche Pfade, da man drei Symbole trifft, und es

118

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

f¨r jedes dieser Symbole genau 8 M¨glichkeiten gibt. Bei beiden Mustern ist u o die Anzahl der Pfade also gleich. Von den befragten Personen fanden 85 Prozent, dass es bei Muster 1 mehr Pfade gibt. Dies liegt daran, dass man sich die unterschiedlichen Pfade bei Muster 1 leichter vorstellen kann. Wenden wir uns nun dem Ziehen ohne Zur¨cklegen mit Ber¨cksichtigung der u u Anordnung zu. Beispiel 34 (fortgesetzt) Vor dem ersten Zug ist der Zustand der Urne U = {1, 2, 3, 4} . Da wir ohne Zur¨cklegen ziehen, h¨ngt er vor dem zweiten Zug vom Ergebnis u a des ersten Zuges ab. Nehmen wir an, dass die erste gezogenen Kugel eine 1 ist. Dann kann die Zahl auf der zweiten gezogenen Kugel entweder eine 2, 3 oder 4 sein. Wir erhalten also folgende 3 M¨glichkeiten o (1, 2) (1, 3) (1, 4) Zu jeder der anderen 3 ersten Zahlen beim ersten Zug gibt es ebenfalls wieder 3 M¨glichkeiten beim zweiten Zug. Somit gibt es folgende 4 · 3 = 12 o M¨glichkeiten: o (1, 2) (1, 3) (1, 4) (2, 1) (2, 3) (2, 4) (3, 1) (3, 2) (3, 4) (4, 1) (4, 2) (4, 3) Der folgende Satz verallgemeinert das Beispiel. Satz 4.10 Die Anzahl der geordneten Stichproben vom Umfang k aus einer Menge vom Umfang n betr¨gt beim Ziehen ohne Zur¨cklegen a u (n)k = n · (n - 1) · · · (n - k + 1) . (4.28)

Beweis: Sei B eine Menge mit n Elementen. Die Menge aller m¨glichen geordneten o Stichproben ist beim Ziehen ohne Zur¨cklegen u A = {(a1 , . . . , ak )|ai Ai , |Ai | = n - i + 1, i = 1, . . . , k} = A1 × A2 × . . . × Ak .

4.2. WAHRSCHEINLICHKEIT

119

Bei jeder Ziehung enth¨lt die Menge, aus der gezogen wird, also ein Element a weniger, bei der ersten Ziehung n Elemente, bei der zweiten n - 1 Elemente, u.s.w.. Aufgrund von Satz 4.8 auf Seite 114 gilt also |A| = |A1 × A2 × . . . × Ak | = |A1 | · |A2 | · . . . · |Ak | = n · (n - 1) · . . . · (n - k + 1) (n)k wird gelesen als 'n sub k'. Satz 4.11 Es gilt (n)k = Beweis: Es gilt (n)k = n · (n - 1) · · · (n - k + 1) = n · (n - 1) · · · (n - k + 1) · (n - k) · (n - k - 1) · · · 2 · 1 (n - k) · (n - k - 1) · · · 2 · 1 n! . (n - k)! n! . (n - k)!

=

Die Menge aller m¨glichen geordneten Stichproben vom Umfang n aus einer o Menge, die n Elemente enth¨lt, ist also: a n! = n · (n - 1) · . . . · 2 · 1 . Man spricht auch von den Permutationen einer Menge. Wir lesen n! als 'n Fakult¨t'. Wir setzen 0! = 1. a Tabelle 4.1 gibt die Werte von n! f¨r n 10 an. Wir sehen, dass n! sehr u Tabelle 4.1: Werte von n! n n! 0 1 1 1 2 3 2 6 4 24 5 120 6 720 7 5040 8 40320 9 362880 10 3628800

schnell w¨chst. a

120

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Beispiel 39 Wir betrachten die Menge U = {1, 2, 3, 4} . Es gibt 4! = 24 Permutationen der Elemente der Menge U . (1, 2, 3, 4) (2, 1, 3, 4) (3, 1, 2, 4) (4, 1, 2, 3) (1, 2, 4, 3) (2, 1, 4, 3) (3, 1, 4, 2) (4, 1, 3, 2) (1, 3, 2, 4) (2, 3, 1, 4) (3, 2, 1, 4) (4, 2, 1, 3) (1, 3, 4, 2) (2, 3, 4, 1) (3, 2, 4, 1) (4, 2, 3, 1) (1, 4, 2, 3) (2, 4, 1, 3) (3, 4, 1, 3) (4, 3, 1, 2) (1, 4, 3, 2) (2, 4, 3, 1) (3, 4, 3, 1) (4, 3, 2, 1)

Beispiel 40 6 Personen k¨nnen auf 6! = 720 unterschiedliche Arten auf 6 St¨hlen nebeno u einander sitzen. Wir betrachten nun ein Beispiel mit Ziehen mit und ohne Zur¨cklegen. u Beispiel 41 Ein fairer W¨rfel wird sechsmal hintereinander geworfen. Wie groß ist die u Wahrscheinlichkeit, dass alle sechs Augenzahlen auftreten? Wir benutzen das Gleichm¨glichkeitsmodell. Die Anzahl der m¨glichen Ero o gebnisse ist 66 = 46656 , da wir mit Zur¨cklegen 6 Zahlen aus der Menge {1, 2, 3, 4, 5, 6} ziehen. u Die Anzahl der g¨nstigen F¨lle ist u a 6! = 720 , da wir ohne Zur¨cklegen 6 Zahlen aus der Menge {1, 2, 3, 4, 5, 6} ziehen. u Die gesuchte Wahrscheinlichkeit ist also 6! = 0.0154321 . 66 Beispiel 42 In einem Zimmer befinden sich drei Personen. Wie groß ist die Wahrscheinlichkeit, dass mindestens zwei von ihnen am gleichen Tag des Jahres Geburtstag haben? Sei A3 : mindestens zwei der drei Personen haben am gleichen Tag des Jahres Geburtstag. Es ist einfacher, die Wahrscheinlichkeit des Gegenereignisses zu bestimmen. Es gilt

4.2. WAHRSCHEINLICHKEIT

121

A3 : jede der drei Personen hat an einem anderen Tag des Jahres Geburtstag. Wir betrachten wieder das Gleichm¨glichkeitsmodell. o Die Anzahl der m¨glichen F¨lle ist o a 3653 = 48627125 , da wir mit Zur¨cklegen drei Zahlen aus der Menge {1, 2, 3, . . . , 364, 365} zieu hen. Die Anzahl der g¨nstigen F¨lle ist u a (365)3 = 48228180 , da wir ohne Zur¨cklegen drei Zahlen aus der Menge {1, 2, 3, . . . , 364, 365} u ziehen. Es gilt also (365)3 P (A3 ) = = 0.9917958 . 3653 Also gilt P (A3 ) = 1 - P (A3 ) = 0.0082042 . Wie nicht anders zu erwarten war, ist diese Wahrscheinlichkeit ziemlich klein. Ab wievielen Leuten lohnt es sich, darauf zu wetten, dass mindesten zwei am gleichen Tag des Jahres Geburtstag haben? Sei Ak : mindestens zwei von k Leuten haben am gleichen Tag des Jahres Geburtstag. Es gilt (365)k . P (Ak ) = 1 - 365k Wir erhalten speziell P (A20 ) P (A21 ) P (A22 ) P (A23 ) = = = = 0.4114384 0.4436883 0.4756953 0.5072972

Ab 23 Leuten lohnt es sich, darauf zu wetten, dass mindestens zwei am gleichen Tag des Jahres Geburtstag haben. Diese Anzahl ist uberraschend ¨ klein. In einer amerikanischen Talkshow trug ein Teilnehmer dieses Beispiel vor. Der Moderator wollte es gleich uberpr¨fen und fragte: u ¨

122

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG Ich habe am 23. Juli Geburtstag. Wer hat noch am 23. Juli Geburtstag?

Keiner der 74 Zuschauer im Raum meldete sich. Die Wahrscheinlichkeit, dass von 75 Personen in einem Raum mindestens zwei am gleichen Tag des Jahres Geburtstag haben, betr¨gt aber a P (A75 ) = 0.9997199 . Also spricht sehr viel daf¨r, dass etwas an der Frage des Moderators falsch u sein muss. Der Moderator hat einen Fehler gemacht. Im Beispiel wurde nach der Wahrscheinlichkeit gefragt, dass zwei Personen an irgendeinem Tag des Jahres Geburtstag haben. Der Moderator wollte wissen, ob zwei Personen an einem bestimmten Tag des Jahres Geburtstag haben. Sei Bk : mindestens einer von k Personen hat am gleichen Tag wie der Moderator Geburtstag. Wir betrachten wiederum das Gegenereignis Bk : keiner von k Personen hat am gleichen Tag wie der Moderator Geburtstag. Es gilt 364k . P (Bk ) = 365k Es gilt 36475 = 0.1859728 . P (B75 ) = 1 - 36575 F¨r k = 252 gilt u 364252 P (B252 ) = 1 - = 0.499 365252 und f¨r k = 253 gilt u P (B253 ) = 1 - 364253 = 0.5005 . 365253

Erst ab 253 Personen im Raum lohnt es sich zu wetten, dass mindestens einer am gleichen Tag Geburtstag hat wie der Moderator.

4.2. WAHRSCHEINLICHKEIT

123

Nun soll die Anordung nicht wichtig sein. Wir betrachten hier nur das Ziehen ohne Zur¨cklegen. u Beispiel 34 (fortgesetzt) Wir betrachten wieder U = {1, 2, 3, 4} . Wir suchen die Anzahl der M¨glichkeiten, aus U zwei Zahlen ohne Zur¨cko u legen zu ziehen, wobei uns die Reihenfolge der Ziehung egal ist. Die Ziehungen (1, 2) und (2, 1) sind f¨r uns also identisch. u Wir schauen uns also alle M¨glichkeiten beim Ziehen ohne Zur¨cklegen oho u ne Ber¨cksichtigung der Anordnung an und behalten nur die, bei denen die u Zahlen der Gr¨ße nach geordnet sind. Die folgende Tabelle zeigt die Vorgeo hensweise. (1, 2) (2, 1) {1, 2} (1, 3) (3, 1) {1, 3} (1, 4) (4, 1) {1, 4} (2, 3) (3, 2) {2, 3} (2, 4) (4, 2) {2, 4} (3, 4) (4, 3) {3, 4} Der folgende Satz verallgemeinert das Beispiel. Satz 4.12 Eine Menge vom Umfang n hat (n)k k!

(4.29)

Teilmengen vom Umfang k. Beweis: Aus einer Menge vom Umfang n lassen sich (n)k k-Tupel ohne Wiederholung bilden. Jedes solche k-Tupel entsteht aus einer Teilmenge vom Umfang k durch Permutation der k Elemente dieser Teilmenge. Da es k! Permutationen einer Menge gibt, gibt es k!-mal soviele r-Tupel wie Teilmengen vom Umfang k. Sei x die Anzahl der Teilmengen vom Umfang k. Es gilt also (n)k = x · k! und somit x= (n)k . k!

124 Wir setzen

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

n k

=

(n)k k!

(4.30)

und lesen dies als 'n uber k'. ¨ Man spricht auch vom Binomialkoeffizienten. Schauen wir uns einige Eigenschaften der Binomialkoeffizienten an. Satz 4.13 Es gilt n k Beweis: n k Satz 4.14 Es gilt 1. n 0 2. n 1 3. n k 4. n k = n k n-1 k-1 = n n-k =n =1 (n)k n! = k! k! (n - k)! = n! . k! (n - k)!

=

4.2. WAHRSCHEINLICHKEIT 5. n k 6. n k Beweis: = n-1 n-1 + k k-1 = n n-k n-1 k

125

1. Es gibt eine Teilmenge vom Umfang 0 aus einer Menge M . Dies ist die leere Menge. 2. Es gibt n Teilmengen vom Umfang 1 aus einer Menge M vom Umfang n. Dies sind die einelementigen Mengen. 3. Es gibt n M¨glichkeiten, aus n Elementen k ohne Zur¨cklegen zu o u k ziehen, wobei die Reihenfolge keine Rolle spielt. Anstatt die gezogenen Elemente zu betrachten, kann man auch die nicht gezogenen betrachten. 4. n k 5. n k = n n-k = n n-k = n! n · (n - 1)! n = = k! (n - k)! k · (k - 1)! (n - k)! k n-1 n-k-1 n n-k n-1 k-1 n-1 k

=

6. Die Auswahl von k Eklementen aus einer Menge von n Elementen kann so erfolgen: Wir f¨rben eines der Elemente weiß, die anderen schwarz. Dann gibt a es zwei Sorten von Teilmengen vom Umfang k - solche, die das weiße Element enthalten, und solche, die es nicht enthalten. Von der ersten a Sorte gibt es n-1 , da wir k - 1 aus den n - 1 schwarzen aus w¨hlen k-1 n-1 m¨ssen, von der zweiten Sorte gibt es k , da wir k aus den n - 1 u schwarzen aus w¨hlen m¨ssen. a u

126

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Beispiel 43 Beim Lotto werden 6 Kugeln aus 49 Kugeln ohne Zur¨cklegen gezogen, wobei u die Reihenfolge der Ziehung nicht interessiert. Es gibt also 49 6 = (49)6 49 · 48 · 47 · 46 · 45 · 44 = = 13983816 6! 6·5·4·3·2·1

unterschiedliche Ziehungen. Beispiel 44 Wieviele Folgen aus n Kugeln, von denen k schwarz und n-k weiß sind, kann man bilden? Eine Folge ist eindeutig festgelegt, wenn man die Positionen der schwarzen Kugeln kennt. Die Positionen der schwarzen Kugeln erh¨lt man a also, wenn man aus den n Positionen k ohne Zur¨cklegen ausw¨hlt, wobei u a die Reihenfolge der Ziehung irrelevant ist. Es gibt also n k m¨gliche Folgen. o F¨r den Fall n = 4 und k = 2 sind die u gestellt. (1, 2) (1, 3) (1, 4) (2, 3) (2, 4) (3, 4)
4 2

= 6 m¨glichen Folgen zusammeno

ssww swsw swws wssw wsws wwss

Wir betrachten noch ein sehr wichtiges Beispiel, auf das wir in diesem Skript sehr oft zur¨ckkomen werden. u Beispiel 45 Eine Urne enth¨lt N Kugeln, die von 1 bis N durchnummeriert sind. Von a den Kugeln sind K schwarz und die restlichen N - K weiß. Es werden n Kugeln aus der Urne gezogen. Wie groß ist die Wahrscheinlichkeit, dass k der gezogenen Kugeln schwarz sind, wenn 1. mit Zur¨cklegen u 2. ohne Zur¨cklegen u

4.2. WAHRSCHEINLICHKEIT gezogen wird? Sei Ak das Ereignis, dass k der gezogenen Kugeln schwarz sind. Es gilt |Ak | P (Ak ) = . || Wir bestimmen zuerst ||. Es gilt 1. Da aus den N Kugeln n mit Zur¨cklegen gezogen werden, gilt u || = N n . 2. Da aus den N Kugeln n ohne Zur¨cklegen gezogen werden, gilt u || = (N )n . Die k schwarzen und n - k weißen Kugeln k¨nnen auf o Arten angeordnet werden. Zu jeder dieser gibt es beim Ziehen 1. mit Zur¨cklegen u 2. ohne Zur¨cklegen u (K)k (N - K)(n-k) unterscheidbare n - T upel. Es gilt also beim Ziehen 1. mit Zur¨cklegen u P (Ak ) =
n k

127

n k

unterschiedliche

n k

unterschiedlichen Positionen

K k (N - K)(n-k)

K k (N - K)n-k = Nn K N
k

n k

K k (N - K)n-k N k N N -K = n k K N
k

=

n k

N -K N

n-k

K 1- N

n-k

= mit

n k p (1 - p)n-k k p= K . N

128

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

2. ohne Zur¨cklegen u P (Ak ) = Kk (N - K)n-k n Kk (N - K)n-k n! = k Nn k!(n - k)! Nn (K)k (N - K)n-k k! (n - k)! = (N )n n! K k N -K n-k N n

=

4.2.5

Bedingte Wahrscheinlichkeit

Vielfach ist bei Zufallsvorg¨ngen bekannt, dass ein Ereignis B eingetreten ist. a Gesucht ist dann die Wahrscheinlichkeit, dass auch das Ereignis A eintritt. So ist beispielsweise bekannt, dass eine Person weiblich ist, und sucht die Wahrscheinlichkeit, dass sie eine bestimmte Partei w¨hlt. a Wie kann man die Wahrscheinlichkeit eines Ereignisses A bestimmen, wenn man weiß, dass das Ereignis B eingetreten ist? Schauen wir uns ein motivierendes Beispiel an. Beispiel 46 Ein fairer W¨rfel wird einmal geworfen. Die Ergebnismenge ist also u = {1, 2, 3, 4, 5, 6} . Die Wahrscheinlichkeit eines Ereignisses A ergibt sich zu: P (A) = |A| . ||

Sei nun speziell A = {1, 2, 3}, d.h. die gew¨rfelte Augenzahl betr¨gt h¨chsu a o tens 3. Es gilt 3 1 |{1, 2, 3}| = = . P (A) = |{1, 2, 3, 4, 5, 6}| 6 2 Nun seien die Seiten des W¨rfels, auf denen die ungeraden Augenzahlen u stehen, rot gef¨rbt. Sei B das Ereignis, dass eine rote Seite obenliegt, also a B = {1, 3, 5}. Es gilt P (B) = 3 1 |{1, 3, 5}| = = . |{1, 2, 3, 4, 5, 6}| 6 2

Der W¨rfel werde einmal geworfen. Man kann erkennen, dass eine rote Seite u obenliegt, die Augenzahl ist jedoch nicht zu erkennen.

4.2. WAHRSCHEINLICHKEIT

129

Wie groß ist die Wahrscheinlichkeit, dass die Augenzahl h¨chstens 3 betr¨gt? o a Wir wissen also, dass das Ereignis B eingetreten ist und suchen die Wahrscheinlichkeit, dass das Ereignis A eintritt. Dadurch dass das Ereignis B eingetreten ist, ist die Menge der m¨glichen Ergebnisse nicht mehr , sono dern B = {1, 3, 5}. Die Menge der g¨nstigen Ergebnisse ist dann {1, 3}. Die u Wahrscheinlichkeit, dass die gew¨rfelte Augenzahl h¨chstens 3 betr¨gt, wenn u o a man weiß, dass eine ungerade Augenzahl gew¨rfelt wurde, betr¨gt also u a 2 |{1, 3}| = . |{1, 3, 5}| 3 Man spricht von der bedingten Wahrscheinlichkeit von A unter der Bedingung, dass das Ereignis B eingetreten ist, und schreibt hierf¨r u P (A|B) . ¨ Uberlegen wir uns noch einmal, wie wir diese berechnet haben. Dadurch, dass man weiß, dass das Ereignis B eingetreten ist, ist die Menge der m¨glichen o Ergebnisse nicht mehr , sondern B. Die Wahrscheinlichkeit, dass nun A eintritt, ergibt sich aufgrund des Gleichm¨glichkeitsmodells zu o |A B| . |B| Wegen |A B|/|| P (A B) |A B| = = |B| |B|/|| P (B) h¨tten wir die bedingte Wahrscheinlichkeit auch uber P (A B) und P (B) a ¨ bestimmen k¨nnen. Dies legt folgende Definition nahe. o Definition 4.6 Seien A und B Ereignisse. Die bedingte Wahrscheinlichkeit von A gegeben B ist f¨r P (B) > 0 definiert durch u P (A B) P (B)

P (A|B) =

.

(4.31)

Ist P (B) = 0, so ist P (A|B) nicht definiert. P (A|B) erf¨llt die drei Axiome von Kolmogoroff. u Axiom 1:

130 Mit

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

P (A B) 0 und P (B) 0 folgt P (A|B) = Axiom 2: Wegen B = B gilt P (|B) = P ( B) P (B) = = 1. P (B) P (B) P (A B) 0. P (B)

Axiom 3: F¨r zwei disjunkte Ereignisse A und C haben wir zu zeigen: u P (A C|B) = P (A|B) + P (C|B) . Wegen A C = gilt (A B) (C B) = . Also folgt P (A C|B) = P ((A C) B) P ((A B) (C B)) = P (B) P (B) P (A B) + P (C B) P (A B) P (C B) = + P (B) P (B) P (B)

=

= P (A|B) + P (C|B) . Somit gilt: P (A|B) = 1 - P (A|B) . Es gilt aber nicht notwendigerweise: P (A|B) = 1 - P (A|B) . Im Beispiel 46 gilt P (A|B) > P (A). Das folgende Beispiel zeigt, dass auch P (A|B) < P (A) m¨glich ist. o

4.2. WAHRSCHEINLICHKEIT Beispiel 46 (fortgesetzt) Wir betrachten nun das Ereignis C = {2}. Es gilt 1 P (C) = 6 und P (B C) P (C|B) = = 0. P (B)

131

Der Fall P (A|B) = P (A) ist so wichtig, dass wir ihm ein eigenes Kapitel widmen.

4.2.6

Multiplikationss¨tze a

Bei vielen Anwendungen ist die Wahrscheinlichkeit P (A B) gesucht. Sind P (A|B) und P (B) bekannt, so erh¨lt man aus a P (A|B) = P (A B) P (B)

durch Multiplikation mit P (B) die Wahrscheinlichkeit: P (A B) = P (A|B) P (B) . Aus P (B|A) = folgt P (A B) = P (B|A) P (A) . (4.33) (4.32)

P (A B) P (A)

Beispiel 47 In einer Kiste sind 10 Gl¨hbirnen, von denen 4 defekt sind. Zwei Gl¨hbirnen u u werden ohne Zur¨cklegen gezogen. Wie groß ist die Wahrscheinlichkeit, dass u beide defekt sind? Seien D1 : D2 : die erste gezogene Gl¨hbirne ist defekt u die zweite gezogene Gl¨hbirne ist defekt u

132 Um die Regel

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

P (D1 D2 ) = P (D2 |D1 ) P (D1 ) anwenden zu k¨nnen, ben¨tigen wir P (D1 ) und P (D2 |D1 ). o o Vor dem ersten Zug befinden sich 10 Gl¨hbirnen in der Kiste, von denen u 4 defekt sind. Es gilt P (D1 ) = 0.4. Da wir beim ersten Zug eine defekte Gl¨hbirne gezogen haben, befinden sich vor dem zweiten Zug 9 Gl¨hbirnen u u in der Kiste, von denen 3 defekt sind. Also gilt P (D2 |D1 ) = Also gilt P (D1 D2 ) = P (D2 |D1 ) P (D1 ) = 3 4 2 · = . 9 10 15 3 . 9

Dieses Ergebnis h¨tten wir auch mit Hilfe der Kombinatorik und dem Gleicha m¨glichkeitsmodell bestimmen k¨nnen. Es gibt o o 10 2 = 45

M¨glichkeiten, aus den 10 Gl¨hbirnen 2 ohne Zur¨cklegen und ohne Ber¨cko u u u sichtigung der Anordnung auszuw¨hlen. Um die Anzahl der g¨nstigen F¨lle a u a zu bestimmen, schauen wir uns zun¨chst die defekten Gl¨hbirnen an. Es gibt a u 4 2 =6

M¨glichkeiten, aus den 4 defekten Gl¨hbirnen 2 ohne Zur¨cklegen und ohne o u u Ber¨cksichtigung der Anordnung auszuw¨hlen. Zu jeder dieser M¨glichkeiten u a o gibt es 6 =1 0 M¨glichkeit, aus den 6 nicht defekten Gl¨hbirnen 0 ohne Zur¨cklegen und oho u u ne Ber¨cksichtigung der Anordnung auszuw¨hlen. Die gesuchte Wahrscheinu a lichkeit betr¨gt also a 4 2 10 2 6 0 2 4·3·2·1 = . 2 · 1 · 10 · 9 15

=

4.2. WAHRSCHEINLICHKEIT

133

Die Verallgemeinerung auf mehr als zwei Ereignisse liefert der folgende Satz. Satz 4.15 Seien A1 , . . . , An Ereignisse mit P (A1 . . . An-1 ) > 0 . Dann gilt P (A1 . . . An ) = P (An |A1 . . . An-1 ) · P (An-1 |A1 . . . An-2 ) · . . . · P (A2 |A1 ) · P (A1 ) . Beweis: Es gilt (A1 . . . An-1 ) (A1 . . . An-2 ) . . . (A1 A2 ) A1 . Wegen P (A1 . . . An-1 ) > 0. und Satz 4.21 auf Seite 109 folgt 0 < P (A1 . . . An-1 ) P (A1 . . . An-2 ) . . . P (A1 ) . Also gilt P (A1 . . . An ) = P (A1 A2 ) P (A1 . . . An ) P (A1 . . . An-1 ) ··· · P (A1 ) = P (A1 . . . An-1 ) P (A1 . . . An-2 ) P (A1 ) P (An |A1 . . . An-1 ) · P (An-1 |A1 . . . An-2 ) · . . . · P (A2 |A1 ) · P (A1 ) .

Beispiel 47 (fortgesetzt) In einer Kiste sind 10 Gl¨hbirnen, von denen 4 defekt sind. Vier Gl¨hbirnen u u werden ohne Zur¨cklegen gezogen. Wie groß ist die Wahrscheinlichkeit, dass u alle vier defekt sind? Seien f¨r i = 1, 2, 3, 4: u Di : die i-te gezogene Gl¨hbirne ist defekt u

134 Dann ist

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

P (D1 D2 D3 D4 ) = P (D4 |D1 D2 D3 ) · P (D3 |D1 D2 ) · P (D2 |D1 ) · P (D1 ) = 1 2 3 4 · · · = 7 8 9 10 1 . 210

4.2.7

Satz von der totalen Wahrscheinlichkeit

Oft betrachten wir in einer Population ein Merkmal. Durch die einzelnen Merkmalsauspr¨gungen wird die Population in disjunkte Teilpopulationen a zerlegt. Die folgende Definition ubertr¨gt diesen Sachverhalt auf Zufallsa ¨ vorg¨nge. a Definition 4.7 Sei eine Ergebnismenge. Die Ereignisse A1 , A2 , . . . An bilden ein vollst¨ndiges System von Ereignissen, wenn gilt a A1 . . . An = und Ai Aj = f¨r i = j. u Beispiel 48 In einer Population leidet 1 Promille der Bev¨lkerung an einer Krankheit. o Eine Person wird zuf¨llig aus dieser Population gezogen. Die Ergebnismenge a dieses Zufallsvorgangs ist = {k, g}, wobei k f¨r krank und g f¨r gesund u u steht. Sei K = {k} das Ereignis, dass die gezogene Person an der Krankheit a leidet. Dann bilden die Ereignisse K und K ein vollst¨ndiges System von Ereignissen. Es gilt P (K) = 0.001 und P (K) = 0.999. Neben dem Merkmal, das die Population in Teilpopulationen zerlegt, ist ein weiteres Merkmal von Interesse, dessen Wahrscheinlichkeit in jeder der Teilpopulationen bekannt ist. Gesucht ist die Wahrscheinlichkeit des Merkmals in der Population.

4.2. WAHRSCHEINLICHKEIT

135

Beispiel 48 (fortgesetzt) Bei der Diagnose wird ein Test verwendet, der in 90 Prozent der F¨lle einen a Kranken als krank klassifiziert. Weiterhin klassifiziert der Test in 99 Prozent der F¨lle einen Gesunden als gesund. Sei A das Ereignis, dass der Test eine a Person als krank klassifiziert. Es gilt P (A|K) = 0.9 und P (A|K) = 0.99. Also gilt P (A|K) = 0.01 Gesucht ist P (A). Der folgende Satz liefert die L¨sung. o Satz 4.16 Sei eine Ergebnismenge. Die Ereignisse A1 , A2 , . . . An bilden ein vollu st¨ndiges System von Ereignissen mit P (Ai ) > 0 f¨r i = 1, 2, . . . , n. Dann a gilt f¨r jedes Ereignis B u

n

P (B) =
i=1

P (B|Ai )P (Ai ) .

Beweis Es gilt = A1 . . . An und damit wegen Gleichung (4.8) B = B = B (A1 . . . An ) = (B A1 ) . . . (B An ) . Wegen Ai Aj = f¨r i = j, gilt auch u (B Ai ) (B Aj ) = f¨r i = j. Abbildung 4.9 veranschaulicht den Sachverhalt. Dabei ist B der u Kreis.

136

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG Abbildung 4.9: Venn-Diagramm zur Erl¨uterung a

A1

A2

A3

Also folgt P (B) = P ((B A1 ) . . . (B An )) = P (B A1 ) + . . . + P (B An )
n

= P (B|A1 ) P (A1 ) + . . . + P (B|An ) P (An ) =
i=1

P (B|Ai )P (Ai ) .

Man spricht vom Satz von der totalen Wahrscheinlichkeit. Beispiel 48 (fortgesetzt) Es gilt P (K) = 0.001, P (K) = 0.999, P (A|K) = 0.9 und P (A|K) = 0.01. Also gilt P (A) = P (A|K)P (K) + P (A|K)P (K) = 0.9 · 0.001 + 0.01 · 0.999 = 0.01089 . Beispiel 49 Eine Urne enth¨lt N Kugeln, von denen K weiß und die restlichen N - K a schwarz sind. Es werden zwei Kugeln nacheinander gezogen. Wie groß ist die Wahrscheinlichkeit, dass die zweite gezogene Kugel weiß ist? Seien W1 : W2 : die erste gezogene Kugel ist weiß die zweite gezogene Kugel ist weiß

4.2. WAHRSCHEINLICHKEIT Wir betrachten zun¨chst das Ziehen mit Zur¨cklegen. Es gilt a u P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 |W1 )P (W1 ) = = K K K N -K · + · N N N N K N K . N K N -K + N N

137

=

Und nun zum Ziehen ohne Zur¨cklegen. Es gilt u P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 |W1 )P (W1 ) = = K -1 K K N -K · + · N -1 N N -1 N 1 ((K - 1)K + K(N - K)) N (N - 1) 1 (K 2 - K + KN - K 2 )) N (N - 1) 1 K(N - 1) N (N - 1) K . N

=

=

=

Wir sehen, dass beim Ziehen mit Zur¨cklegen und beim Ziehen ohne Zur¨cku u legen die unbedingte Wahrscheinlichkeit f¨r eine weiße Kugel identisch ist, u w¨hrend die bedingten Wahrscheinlichkeiten sich unterscheiden. a Beispiel 50 Bei vielen Fragen kann man sich nicht sicher sein, dass sie wahrheitsgem¨ß a beantwortet werden. So wird nicht jeder zugeben, dass er Drogen genommen hat oder regelm¨ßig Alkohol trinkt. a Von Warner wurde ein Verfahren vorgeschlagen, das es erlaubt die Wahrscheinlichkeit einer positiven Antwort zu bestimmen. Dieses Verfahren ist zweistufig. Wir schauen es uns in der von Hutchinson vorgeschlagenen Form an. Auf der ersten Stufe f¨hrt der Befragte ein Zufallsexperiment durch, u

138

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

dessen Ergebnis er nur selber kennt. Wir lassen den Befragten zweimal eine M¨nze werfen. F¨llt beim ersten Wurf Kopf, so soll er die Frage 1, ansonsten u a die Frage 2 beantworten: Frage 1: Trinken Sie regelm¨ßig Alkohol? a Frage 2: Erschien beim zweiten M¨nzwurf Kopf? u Wir definieren die folgenden Ereignisse: F1 J die Frage 1 wird beantwortet die Antwort ist 'ja'

Wir wissen P (F 1) = 0.5 P (F 1) = 0.5 P (J|F 1) = 0.5 Es gilt P (J) = P (J|F 1) · P (F 1) + P (J|F 1) · P (F 1) = P (J|F 1) · 0.5 + 0.5 · 0.5 = P (J|F 1) · 0.5 + 0.25 . Ist P (J) bekannt, so k¨nnen wir P (J|F 1) bestimmen durch o P (J|F 1) = P (J) - 0.25 = 2 · P (J) - 0.5 . 0.5

4.2.8

Satz von Bayes

Im Beispiel 48 auf Seite 134 haben wir eine Population in zwei Teilpopulationen zerlegt. In der einen Teilpopulation leiden die Personen an einer bestimmten Krankheit, in der anderen nicht. Außerdem m¨ge ein Test existieren, mit o dem man uberpr¨fen kann, ob eine aus der Population ausgew¨hlte Person u a ¨ an der Krankheit leidet. Dieser Test diagnosiziert einen Kranken mit einer Wahrscheinlichkeit von 0.9 als krank und einen Gesunden mit einer Wahrscheinlichkeit von 0.99 als gesund. In der Praxis ist man an diesen bedingten Wahrscheinlichkeiten aber nicht interessiert. Vielmehr unterzieht sich eine Person dem Test und will aufgrund des Ergebnisses einsch¨tzen, ob sie an a der Krankheit leidet oder nicht. Der folgende Satz gibt die L¨sung an. o

4.2. WAHRSCHEINLICHKEIT

139

Satz 4.17 Sei eine Ergebnismenge. Die Ereignisse A1 , A2 , . . . An bilden ein vollu st¨ndiges System von Ereignissen mit P (Ai ) > 0 f¨r i = 1, 2, . . . , n. Dann a gilt f¨r jedes Ereignis B u P (Ai |B) = P (B|Ai )P (Ai )
n

.

P (B|Ai )P (Ai )
i=1

Beweis Wegen P (Ai |B) = und P (B|Ai ) = gilt P (Ai |B)P (B) = P (B|Ai )P (Ai ) . Hieraus folgt P (Ai |B) = P (B|Ai )P (Ai ) . P (B) P (Ai B) P (B) P (Ai B) P (Ai )

a Da A1 , A2 , . . . , An ein vollst¨ndiges System von Ereignissen bildet, gilt aufgrund von Satz 4.16 auf Seite 135
n

P (B) =
i=1

P (B|Ai ) P (Ai )

und damit P (Ai |B) = P (B|Ai )P (Ai )
n

.

P (B|Ai )P (Ai )
i=1

Beispiel 48 (fortgesetzt) Wir wissen P (K) = 0.001 P (A|K) = 0.9 P (K) = 0.999 P (A|K) = 0.01

140

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Gesucht ist P (K|A). Es gilt P (K|A) = P (A|K)P (K) P (A|K)P (K) + P (A|K)P (K) 0.9 · 0.001 0.9 · 0.001 + 0.01 · 0.999

=

= 0.083 . Diese Wahrscheinlichkeit ist uberraschend gering. Woran liegt dies? ¨ Stellen wir uns eine Population von 100000 Personen vor, auf die die obigen Wahrscheinlichkeitsaussagen zutrifft. Somit leiden 100 Personen an der Krankheit, die restlichen 99900 nicht. Von den 100 Personen, die an der Krankheit leiden, werden 90 durch den Test als krank klassifiziert, w¨hrend a von den 99900 Personen, die nicht an der Krankheit leiden, 999 durch den Test als krank klassifiziert werden. Also werden 1089 Personen durch den Test als krank klassifiziert. Unter diesen sind aber nur 99 krank, sodass die gesuchte Wahrscheinlichkeit gleich 90/1089 = 0.083 ist. Diese Wahrscheinlichkeit ist so gering, da die Krankheit sehr selten ist. Das folgende Beispiel stammt wiederum von Kahneman und Tversky. Beispiel 51 In einer Stadt sind 85 Prozent der Taxis gr¨n. Der Rest ist blau. In einer u Nacht ereignet sich ein Unfall mit einem Taxi, wobei der Taxifahrer Fahrerflucht begeht. Ein Zeuge hat den Unfall beobachtet und sagt aus, dass das Taxi blau war. Der Rechtsanwalt der blauen Taxifirma untersucht den Fall genauer. Der Zeuge kann sowohl ein blaues als auch ein gr¨nes Taxi in 80 u Prozent der F¨lle bei Nacht richtig identifizieren. a Von Interesse ist, wie sicher die Aussage des Zeugen ist. Wir suchen also die Wahrscheinlichkeit, dass das Taxi blau war. Seien B: das Taxi ist blau ZB: der Zeuge stuft die Farbe eines Taxis als blau ein Gegeben sind: P (B) = 0.15 P (ZB|B) = 0.8 P (B) = 0.85 P (ZB|B) = 0.8

4.2. WAHRSCHEINLICHKEIT Gesucht ist P (B|ZB). Wir wenden den Satz von Bayes an. P (B|ZB) = P (ZB|B)P (B) P (ZB|B)P (B) + P (ZB|B)P (B) 0.8 · 0.15 0.8 · 0.15 + 0.2 · 0.85

141

=

= 0.41 . Auch hier k¨nnen wir so vorgehen, wie bei der Interpretation des Sachvero halts im letzten Beispiel. Stellen wir uns eine Stadt mit 200 Taxis vor. Von diesen sind 30 blau und 170 gr¨n. Von den blauen Taxis werden 24 richtig als u blau erkannt, w¨hrend von den gr¨nen Taxis 34 f¨lschlich als blau eingestuft a u a werden. Es werden also 58 Taxis f¨r blau gehalten, von denen 24 blau sind. u Die gesuchte Wahrscheinlichkeit betr¨gt somit 24/58 = 0.41. a

4.2.9

Unabh¨ngigkeit a

Beispiel 52 In einer Vorlesung f¨r Erstsemester sitzen 250 Studierende, von denen 100 u weiblich sind. 200 Studierende besitzen einen eigenen PC. Von den Frauen besitzen 80 einen eigenen PC. Eine Person wird zuf¨llig ausgew¨hlt. a a Sei W: C: Es gilt P (C) = und P (C|W ) = 200 = 0.8 250 die Person ist weiblich die Person besitzt einen eigenen PC

P (C W 0.32 = = 0.8 . P (W ) 0.4 Das Wissen, dass eine Person weiblich ist, ¨ndert nichts an der Wahrscheina lichkeit, einen eigenen PC zu besitzen. Wir sagen, dass die beiden Merkmale unabh¨ngig sind. a Definition 4.8 Die Ereignisse A und B heißen unabh¨ngig, wenn gilt a P (A|B) = P (A) .

142

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Satz 4.18 Sind die Ereignisse A und B unabh¨ngig, so gilt a P (A B) = P (A) · P (B) Beweis: Aus P (A|B) = P (A) folgt P (A B) = P (A|B)P (B) = P (A)P (B) . Sind die Ereignisse A und B unabh¨ngig, so ben¨tigt man nur die Wahra o scheinlichkeiten P (A) und P (B), um die Wahrscheinlichkeit zu bestimmen, dass A und B gleichzeitig eintreten. Satz 4.19 Sind die Ereignisse A und B unabh¨ngig, so sind auch die folgenden Paare a von Ereignisse unabh¨ngig: a 1. A und B 2. A und B 3. A und B Beweis: Wir zeigen nur 1.. Die anderen Beweise verlaufen analog. Es ist zu zeigen P (A B) = P (A)P (B) . Es gilt P (A B) = P (A) - P (A B) = P (A) - P (A)P (B) = P (A)(1 - P (B)) = P (A)P (B) . Der folgende Satz zeigt, wie die Begriffe Disjunktheit und Unabh¨ngigkeit a zusammenh¨ngen. a Satz 4.20 Sind A und B disjunkt und gilt P (A) > 0 und P (B) > 0, so sind A und B nicht unabh¨ngig. a .

4.2. WAHRSCHEINLICHKEIT Beweis: Aus AB = folgt P (A|B) = Da gilt P (A) > 0 folgt P (A|B) = P (A) . P (A B) = 0. P (B)

143

Die Aussage des Satzes ist auch intuitiv klar: Sind die Ereignisse disjunkt, so k¨nnen sie nicht gleichzeitig eintreten, und o sind somit im h¨chsten Maße abh¨ngig. Tritt n¨mlich A ein, so tritt B nicht o a a ein und umgekehrt. Wir schauen uns noch ein Beispiel an, das unabh¨ngige Ereignisse verwendet. a Beispiel 53 Oft werden Entscheidungen durch einen M¨nzwurf getroffen. Hierbei wird u unterstellt, dass die verwendete M¨nze fair ist. Dies muss aber nicht der Fall u sein. John von Neumann hat ein Verfahren vorgeschlagen, bei dem man sich mit gleicher Wahrscheinlichkeit f¨r eine der beiden Alternativen entscheidet. u Die M¨nze wird zweimal hintereinander geworfen. F¨llt beim ersten Mal u a Kopf und beim zweiten Mal Zahl, so entscheidet man sich f¨r Alternative u 1. F¨llt beim ersten Mal Zahl und beim zweiten Mal Kopf, so entscheidet a man sich f¨r Alternative 2. F¨llt bei beiden W¨rfen das gleiche Symbol, so u a u wird die M¨nze wiederum zweimal geworfen, und es wird genauso verfahren u wie bei der ersten Runde. Die ganze Prozedur wird solange durchgef¨hrt, bis u zum ersten Mal zwei unterschiedliche Symbole auftreten. Inwiefern ist diese Prozedur fair? a Sei Ki das Ereignis, dass beim i-ten Wurf Kopf f¨llt, i=1,2. Wir unterstellen, dass die Wahrscheinlichkeit f¨r Kopf bei beiden W¨rfen gleich ist, und dass u u u die M¨nze kein Ged¨chtnis hat. Sei P (Ki ) = p die Wahrscheinlichkeit f¨r u a Kopf beim i-ten Wurf. Dann gilt wegen der Unabh¨ngigkeit a P (K1 K2 ) = P (K1 ) · P (K2 ) = p · (1 - p) und P (K1 K2 ) = P (K1 ) · P (K2 ) = (1 - p) · p . Wir sehen, dass die Wahrscheinlichkeiten der beiden Alternativen bei jeder Runde gleich sind.

144

KAPITEL 4. WAHRSCHEINLICHKEITSRECHNUNG

Ein Problem hat die Prozedur jedoch: Es kann sehr lange dauern, bis eine Entscheidung f¨llt. a

Kommentare

Eigenen Kommentar schreiben:

Es stehen noch Zeichen zur Verfügung

von Guest, 16. Dezember 2007

gibt es denn keine einfachere rechnung zum wahrscheinlichkeitsrechnen ??!!!!!!

Es werden 1 – 1 von 1 angezeigt.