Mathematik: Bedingte Wahrscheinlichkeiten
Released by matroid on Di. 02. August 2005 22:11:21 [Statistics]
Written by Kleine_Meerjungfrau - 13216 x read [Outline] Printable version Printer-friendly version -  Choose language   
Mathematik

\(\begingroup\)

Bedingte Wahrscheinlichkeiten

Wer hat noch nicht von ihr gehört: der Schneckeninvasion? Jedes Jahr im Frühling, wenn sich Hobbygärtner wie Oma und Opa über den sprießenden Salat in ihren Gartenbeeten freuen, lassen auch die hungrigen Schnecken nicht auf sich warten. In Scharen bevölkern sie hauptsächlich nachts die Salatköpfe, um ihren Heißhunger zu stillen. Auch richtigen Bauern geht es nicht viel besser, nur sollte deren Ware eigentlich ohne Fleischzulage auf dem Markt landen. Aus diesem Grund könnte sich nun ein Bauer überlegen, ob er mit chemischen Mitteln gegen die Schnecken vorgehen will. Diese Entscheidung macht er daran fest, ob ein bestimmter Prozentsatz an "schneckenverseuchten" Salatköpfen überschritten wird oder nicht. Um solche, gar nicht mal unrealistischen Entscheidungen treffen zu können, bedient sich ein Bauer der bedingten Wahrscheinlichkeit. Es sind aber auch noch andere Situationen denkbar, in denen sie zur Anwendung kommt: vielleicht möchte man wissen, wie zuverlässig ein Wachhund ist. Oder man möchte wissen, ob man zwingend damit rechnen muss in eine Fahrkartenkontrolle zu geraten. Oder man möchte einfach nur wissen, wie wahrscheinlich es ist, dass man beim Skat aus dem Skat zwei Asse bekommt, wenn man bereits eines auf der Hand hat. Ich möchte euch in diesem Artikel mit einigen Beispielen an die Lösung solcher Probleme heranführen. Machen wir uns am besten gleich an die Arbeit.

Die bedingte Wahrscheinlichkeit

Im letzten Artikel habe ich euch gezeigt, wie man Laplace-Wahrscheinlichkeiten berechnet. Damals hatten wir verschiedene Ereignisse und haben für jedes einzeln die Wahrscheinlichkeit berechnet. Die Ereignisse waren unabhängig voneinander. Nun betrachten wir ein Laplace-Experiment mit zwei Ereignissen. Nennen wir sie A und B. Nach dem Muster aus dem letzten Artikel können wir P(A) und P(B) berechnen. Setzen wir aber voraus, dass B schon eingetreten ist, dann kann die Wahrscheinlichkeit, dass Ereignis A eintritt von P(A) abweichen. Die beiden Ereignisse sind jetzt nicht mehr unabhängig voneinander, das Eintreten von Ereignis A wird durch Ereignis B beeinflusst. Wir nennen diese neue Wahrscheinlichkeit P_B\.(A) die \stress\ Wahrscheinlichkeit für A unter der Bedingung B \normal\ oder auch die \stress\ durch B bedingte Wahrscheinlichkeit für A\normal\ . Anstatt P_B\.(A) ist auch noch die Schreibweise P(A\|B) gebräuchlich. Betrachten wir einmal folgendes Bild: Bild A und B seien unsere zwei Ereignisse. E ist die Ergebnismenge, also alle möglichen Ergebnisse. Nehmen wir nun also an, B sei schon eingetreten. Dann stammen die für A möglichen Ergebnisse aus B. Es sind aber nicht alle Ergebnisse aus A günstig, denn A liegt ja nicht vollständig in B. Die günstigen Ergebnisse stammen also alle aus der Schnittmenge A\cut\ B. Mit der Laplace-Formel erhalten wir als Ergebnis P_B\.(A)=P(A\cut\ B)/P(B). Wir können also definieren: \blue\frame\black\big\ Definition 1 \frameoff\ P_B\.(A)=P(A\cut\ B)/P(B) heißt \stress\ bedingte Wahrscheinlichkeit \normal\ von A gegeben \(oder "unter der Voraussetzung"\) B. Betrachten wir zur Veranschaulichung ein \big\ Beispiel 1 Unser Laplace-Experiment sei das Würfeln mit einem normalen, sechsseitigen Würfel. Wir betrachten die Ereignisse A={gerade Augenzahl}={2,4,6} B={4,5,6} Wir können P(A) berechnen: P(A)=3/6=1/2. Vergleichen wir dieses Ergebnis mit P_B\.(A): P_B\.(A)=P(A\cut\ B)/P(B)=P(menge(4,6))/P(menge(4,5,6))=2/3 Wir sehen, dass das zweite Ergebnis größer ist als das erste. \big\ Beispiel 2 Würfeln wir nun zweimal hintereinander und betrachten folgende Ereignisse: C: Augensumme ist 8 D: Im ersten Wurf wird eine 3 gewürfelt Mit welcher Wahrscheinlichkeit ist die Augensumme beider Würfe 8, wenn im ersten Wurf eine 3 gefallen ist? Es gibt insgesamt 36 mögliche Würfelergebnisse. Zu den Ereignissen C und D gibt es die günstigen Ergebnisse C=menge((2\;6), (3\;5), (4\;4), (5\;3), (6\;2)) und D=menge((3\;1), (3\;2), (3\;3), (3\;4), (3\;5), (3\;6)) Der Schnitt der beiden Ereignisse enthält nur das Ergebnis C\cut\ D=menge((3\;5)) Berechnen wir die Wahrscheinlichkeiten der einzelnen Ereignisse, so erhalten wir P(C)=5/36, P(D)=6/36=1/6 und P(C\cut\ D)=1/36 Eingesetzt in die Gleichung für die bedingte Wahrscheinlichkeit erhält man P_D\.(C)=P(C\cut\ D)/P(D)=(1/36)/(1/6)=1/6 Es kann sein, dass sich die Schnittmenge der beiden Ereignisse nicht so leicht bestimmen lässt. An dieser Stelle können wir uns wieder der Baumdiagramme bedienen. Betrachten wir dazu nocheinmal Beispiel 1. Beispiel 1a Wir betrachten also wieder die Ereignisse A={2,4,6} und B={4,5,6} und interessieren uns für die Wahrscheinlichkeit, dass wir eine gerade Zahl würfeln, die zu Ereignis B gehört. Malen wir dazu ein Baumdiagramm: Wie ihr euch vielleicht denken könnt, beschreiben A^c bzw. B^c das Komplement der jeweiligen Ereignisse. Eigentlich ist für uns in diesem Diagramm nur der oberste Ast interessant. Im ersten Schritt bestimmt man die Wahrscheinlichkeit, dass Ereignis B eintritt. Für den zweiten Schritt ist Ereignis B ja schon eingetreten, es liegt also die Ergebnismenge dieses Ereignisses unseren weiteren Überlegungen zugrunde. So erhalten wir für den zweiten Schritt schon die gesuchte Wahrscheinlichkeit P_B\.(A). Auf diese Weise können wir auch alle anderen bedingten Wahrscheinlichkeiten aus dem Baumdiagramm ablesen, beachtet aber bitte, dass sich die genannten Wahrscheinlichkeiten P(B) und P_B\.(A) nur auf den obersten Ast beziehen. Für die anderen Äste heißen diese Wahrscheinlichkeiten natürlich anders. Falls uns jetzt immer noch die Schnittmenge der Ereignisse A und B interessiert, so erhalten wir die, wenn wir die Pfadregel anwenden. Für den obersten Ast ist das 1/2*2/3=1/3. Die Verwendung der Pfadregel liefert sofort den Multiplikationssatz. Die zweite Gleichung ergibt sich dabei aus einer Vertauschung der Ereignisse A und B im obigen Baumdiagramm. \blue\frame\black\big\ Multiplikationssatz Für zwei Ereignisse A und B aus E gilt P(A\cut\ B)=P(A)*P_A\.(B) bzw. \frameoff\ P(A\cut\ B)=P(B)*P_B\.(A). Dabei gilt die erste Gleichung auch für P(B)=0 und die zweite auch für P(A)=0. Nun liegt einem Problem aber nicht immer ein Laplace-Experiment zugrunde. Schauen wir uns also einmal beliebige Zufallsversuche an. Wir können für jedes Zufallsexperiment ein Baumdiagramm erstellen, wie ich es oben gemacht habe, in das Diagramm ist ja nirgends eingegangen, dass wir es mit einem Laplace-Experiment zu tun haben. Folglich gilt aber auch der Multiplikationssatz für beliebige Zufallsexperimente und damit auch die Definition der bedingten Wahrscheinlichkeit von oben, die man auch durch umstellen der Gleichungen im Multiplikationssatz bekommt. Wir haben soweit zwar schon ein gutes Rüstzeug zum Rechnen mit bedingten Wahrscheinlichkeiten, viele Probleme erfordern aber noch weitere Kentnisse.

Der Schichtungssatz

Betrachten wir eine Zerlegung der Ergebnismenge E in mehrere, paarweise disjunkte Ereignisse B_1\., B_2\., ..., B_n\.. Paarweise disjunkt bedeutet, dass sich zwei verschiedene Ereignisse nicht überschneiden, die zugehörigen Flächen im nachfolgenden Bild überlappen sich also nicht. Bild Wir sehen in diesem Bild eine Unterteilung der Ergebnismenge in vier Teilmengen. Genauso wird das Ereignis A in vier Teile geteilt, nämlich A\cut\ B_1\., A\cut\ B_2\., A\cut\ B_3 und A\cut\ B_4\.. Daraus können wir nun den Schichtungssatz formulieren: \blue\frame\black\big\ Schichtungssatz Wenn es eine Zerlegung der Ergebnismenge in n Teile gibt, so dass jeweils zwei Ereignisse einen leeren Schnitt haben und die Vereinigung aller Ereignisse wieder die Ergebnismenge ergibt, so gilt: \align \ \ \ \ \ P(A)=P(A\cut\ B_1\.)+P(A\cut\ B_2\.)+...+P(A\cut\ B_n\.) =P(B_1\.)*P_B_1\.(A)+...+P(B_n\.)*P_B_n\.(A) =sum(P(B_i\.)*P_B_i\.(A),i=1,n) Oft wird der Schichtungssatz auch Formel von der totalen Wahrscheinlichkeit genannt. Bevor wir uns ein erstes Beispiel anschauen, möchte ich noch einen Begriff einführen, der uns im weiteren Verlauf des Artikels zweimal begegnen wird: \blue\frame\black\big\ Definition 2 Zwei Ereignisse A und B heißen \stress unabhängig\normal\ , falls P_B\.(A)=P(A), d.h. P(A\cut\ B)=P(A)*P(B). Mit anderen Worten: Die Ereignisse A und B sind unabhängig, falls zusätzliche Informationen über A in Form von B keinen Einfluss auf die Wahrscheinlichkeit von A haben. Wenden wir nun also den obigen Satz einmal an: Beispiel 3 Zum Ziegenproblem gibt es im Forum schon viele lange und ausführliche Diskussionen. Ich möchte euch deshalb bitten, nicht eine erneute Diskussion in den Kommentaren zum Artikel zu führen. Ich habe dieses Beispiel gewählt, weil ich den Lösungsansatz mit dem Schichtungssatz im Forum nicht gefunden habe und ich ihn euch gerne auch vorstellen möchte, da man das Problem mit Hilfe des Schichtungssatzes kurz und schmerzlos lösen kann. Eine Lösung mittels Baumdiagramm sowie ausführliche Erklärungen zum Problem findet ihr unter anderem hier. Zunächst das Problem: Ihr seid Kandidaten in einer Fernseh-Show und habt die Chance ein Auto zu gewinnen. Versteckt hinter drei Toren befinden sich zwei Stoffziegen und das Auto. Ihr müsst euch für eines der Tore entscheiden und erhaltet den Preis, der sich dahinter verbirgt. Im ersten Schritt deutet ihr also auf eines der Tore, daraufhin öffnet der Spielleiter eines der beiden anderen Tore, hinter dem sich eine Stoffziege befindet. Anschließend fragt er euch, ob ihr nicht doch lieber das andere verschlossene Tor wählen möchtet. Ihr habt also drei Möglichkeiten: A: Ihr bleibt bei eurer im ersten Schritt getroffenen Wahl, B: Ihr gebt eure im ersten Schritt getroffene Wahl auf und entscheidet euch für das andere Tor, C: Ihr werft eine Münze und entscheidet euch so für eines der beiden geschlossenen Tore. Für welche Möglichkeit entscheidet ihr euch? Bestimmen wir zuerst zwei Ereignisse: Z: ihr wählt im ersten Zug ein Ziegentor T: der Showmaster öffnet ein Ziegentor Für Ereignis A ist nun zu berechnen, mit welcher Wahrscheinlichkeit ihr im ersten Schritt die Tür mit dem Auto gewählt habt, also P(Z^c\.). Mit dem Schichtungssatz ist P(A)=P(Z^c\.)=P_T_1\.(Z^c\.)*P(T_1\.)+P_T_2\.(Z^c\.)*P(T_2\.) Der Ereignisraum ist also in die Ereignisse T_1 und T_2 zerlegt, wobei die beiden Ereignisse für die beiden Tore stehen, hinter denen sich die Ziegen befinden. Da ihr auf das Auto gesetzt habt, hat der Showmaster unter den verbleibenden Toren freie Wahl. Wir können nun die einzelnen Wahrscheinlichkeiten bestimmen: der Showmaster hat zwei Tore zur Auswahl die er öffnen kann, jedes öffnet er mit der Wahrscheinlichkeit 1/2. Also P(T_1\.)=P(T_2\.)=1/2 . Für die bedingten Wahrscheinlichkeiten P_T_1\.(Z^c\.) und P_T_2\.(Z^c\.) müssen wir folgende Überlegung anstellen: da es 1 Auto und 2 Ziegen gibt, haben wir mit einer Wahrscheinlichkeit von 1/3 das Tor mit dem Auto gewählt. Nun wird uns eine Ziege gezeigt, aber die beeinflusst ja unsere Entscheidung, ob wir das Tor wechseln wollen oder nicht, in keinster Weise, denn es war ja klar, dass der Showmaster uns eine Ziege zeigen wird. An den Toren und den Preisen, die sich dahinter verbergen, ändert sich auch nichts mehr. Also sind die beiden Ereignisse Z und T nach obiger Definition unabhängig und es gilt P_T\.(Z)=P(Z) und somit auch P_T_1\.(Z^c\.)=P_T_2\.(Z^c\.)=P(Z^c\.). P(Z^c\.) ist aber wie schon erwähnt 1/3. Also ist die Wahrscheinlichkeit, mit Strategie A zu gewinnen P(A)=1/3*1/2+1/3*1/2=1/3 Die Wahrscheinlichkeit, mit Strategie B zu gewinnen, lässt sich ganz ähnlich berechnen. Es geht darum, dass ihr das Tor wechselt, wir müssen also die Wahrscheinlichkeit dafür berechnen, dass ihr zunächst ein Ziegentor wählt. Also P(B)=P(Z)=P_T\.(Z)*P(T)+P_(T^c)\.(Z)*P(T^c\.) Wir rechnen hier mit einer Zerlegung in T und T^c, da der Showmaster nur ein Tor mit einer Ziege hat, das er öffnen kann. Dieses Tor wird er garantiert öffnen, sonst wäre ja der Witz des Spiels weg. P(T) ist also 1 und damit P(T^c\.)=0. P(Z)=2/3, da ihr eines der beiden Ziegentore gewählt habt. Wir können also einsetzen: P(B)=2/3*1+2/3*0=2/3 Ereignis C liegt ein einfaches Laplace-Experiment zugrunde: ihr macht euch überhaupt keine Gedanken, ihr tut das, was euch die Münze sagt. Jede Seite fällt aber mit der Wahrscheinlichkeit 1/2, es gilt also P(C)=1/2 Nun könnt ihr endlich eine Entscheidung fällen: Welche der drei Möglichkeiten wählt ihr? Als zweites Beispiel zu diesem Satz möchte ich den Befall von Bäumen durch Käfer betrachten. Beispiel 4 Auf einem Acker leiden 30% der Salatköpfe an Schneckenbefall. Bei einer Untersuchung während der Ernte werden 97% der tatsächlich befallenen Salatköpfe als befallen eingestuft. Allerdings werden auch 1% der unversehrten Salatköpfe als befallen eingestuft. Mit welcher Wahrscheinlichkeit wird ein Salatkopf als befallen eingestuft? Wie wir der Aufgabe entnehmen können, werden sowohl tatsächlich befallene als auch unversehrte Salatköpfe als befallen eingestuft. Wir können also zwei Ereignisse definieren: A: ein Salatkopf ist befallen B: ein Salatkopf wird als befallen eingestuft Die Ereignisse A_i, die für den Schichtungssatz vorausgesetzt werden, sind hier A und sein Komplement A^c . Wir können also den Schichtungssatz anwenden: P(B)=P_A\.(B)*P(A)+P_(A^c)\.(B)*P(A^c\.) Um in die Gleichung Werte einsetzen zu können, müssen wir diese erst noch bestimmen. Sie gehen allerdings alle aus der Aufgabenstellung hervor: P(A)=0,3 => P(A^c\.)=0,7 P_A\.(B)=0,97 P_(A^c)\.(B)=0,01 Jetzt können wir P(B) berechnen: P(B)=0,97*0,3+0,01*0,7\approx\ 0,298 Die Wahrscheinlichkeit, dass ein Salatkopf als befallen eingestuft wird, liegt also bei ca. 29,8%.

Der Satz von Bayes

Ebenso nützlich wie auch unerlässlich beim Umgang mit bedingten Wahrscheinlichkeiten ist der Satz von Bayes. Ihm liegt auch die Zerlegung der Ergebnismenge in mehrere Ereignisse zugrunde. \blue\frame\black\big\ Satz von Bayes Liegen dieselben Voraussetzungen vor wie beim Schichtungssatz, so gilt: \frameoff\ P_A\.(B_k\.)=(P_B_k\.(A)*P(B_k\.))/sum(P_B_i\.(A)*P(B_i\.),i=1,n) Einen Spezialfall dieser Formel erhält man, wenn man die disjunkten Zerlegungen B und B^c der Ergebnismenge betrachtet. Dazu nimmt man die Gleichungen des Multiplikationssatzes: P(B)*P_B\.(A)=P(A)*P_A\.(B) Mit etwas Umformen kommt man auf \align \ \ \ \ \ P_A\.(B)=(P(B)*P_B\.(A))/P(A) =(P(B)*P_B\.(A))/(P(B)*P_B\.(A)+P(B^c)*P_(B^c)\.(A)) Im letzten Schritt wurde auf den Nenner für A der Schichtungssatz angewandt. Der Beweis für diesen Satz wie auch für den Schichtungssatz ist so einfach, dass ich die Beweise denjenigen, die daran Interesse haben, selbst überlassen und stattdessen ein Beispiel zur Anwendung des Satzes von Bayes machen möchte. Beispiel 5 Wir befinden uns an der Schweizer Grenze. Der Hund eines Zollbeamten bellt, sobald er feinen Schweizer Kaffee riecht. Allerdings ist er nicht ganz zuverlässig: Er entdeckt nur 90% aller Kaffeeschmuggler, bellt dafür aber noch in 5% der Fälle, in denen kein Kaffee geschmuggelt wird. Jeder fünfte Grenzgänger schmuggelt Kaffee. Zwei Personen laufen nun über die Grenze. Bei der ersten bellt der Hund, bei der zweiten nicht. Wie groß ist die Wahrscheinlichkeit, dass der erste tatsächlich Kaffee schmuggelt und der zweite nicht? Bei dieser Aufgabe unterscheiden wir die beiden Ereignisse B: der Hund bellt K: es wird Kaffee geschmuggelt Gesucht ist die Wahrscheinlichkeit dafür, dass Kaffee geschmuggelt wird unter der Voraussetzung, dass der Hund bellt bzw. dass kein Kaffee geschmuggelt wird unter der Voraussetzung, dass der Hund nicht bellt. Vielleicht fragt ihr euch, warum es genau so ist und nicht anders rum. Nun, das kann man sich so vorstellen: ihr fahrt zum Grenzübergang. Dann kommt erst mal ein Zollbeamter mit Hund. Der Hund schlägt nun an oder auch nicht. Erst, wenn der Hund bellt, wir euer Auto genauer unter die Lupe genommen und nach Kaffee gesucht. Ob ihr also Kaffee schmuggelt oder nicht, entscheidet sich erst, wenn der Hund gebellt hat. Dieses Ereignis tritt also zuerst ein. Gut. Schreiben wir das mathematisch auf: Gesucht ist P_B\.(K) und P_(B^c)\.(K^c\.), wobei mit K^c und B^c immer das Gegenereignis gemeint ist, also B^c : der Hund bellt nicht K^c : es wird kein Kaffee geschmuggelt Wir können jetzt den Satz von Bayes auf das Problem anwenden. Wir haben hier den oben erwähnten Spezialfall vorliegen, dass der Ergebnisraum nur in zwei Teile geteilt ist: das Ereignis K und sein Gegenereignis K^c . Um in die Formel einsetzen zu können, benötigen wir noch folgende Wahrscheinlichkeiten: P(K), P(K^c\.), P_(K)\.(B), P_(K^c)\.(B), P_(K^c)\.(B^c\.), P_K\.(B^c\.) Aus der Aufgabe sind bereits P(K), P_K\.(B) und P_(K^c)\.(B) bekannt und wir können daraus weiter folgern: P(K)=0,2 => P(K^c\.)=0,8 P_K\.(B)=0,9 => P_K\.(B^c\.)=0,1 P_(K^c)\.(B)=0,05 => P_(K^c)\.(B^c\.)=0,95 Setzen wir jetzt also endlich diese Werte in unsere Formel ein: makro(a1, 0,9*0,2) makro(a2, 0,9*0,2+0,05*0,8) makro(a3, 0,95*0,8) makro(a4, 0,95*0,8+0,05*0,2) P_B\.(K)=a1()/a2() \approx\ 0,82 P_(B^c)\.(K^c\.)=a3()/a4()\approx\ 0,99 Wir können nun voraussetzen, dass der Hund die beiden Experimente "bellen" und "Kaffee erschnüffeln" unabhängig von einander durchführt, weshalb wir die beiden Wahrscheinlichkeiten multiplizieren dürfen, um das eigentliche Ergebnis der Aufgabe zu bekommen: P_B\.(K)*P_(B^c)\.(K^c\.)=0,82*0,99\approx\ 0,81 Das Ereignis, dass der erste Passant tatsächlich Kaffee schmuggelt und der zweite nicht, tritt also mit einer Wahrscheinlichkeit von 81% ein. Für die Fortgeschritteneren unter euch, hier noch ein etwas komplizierteres Beispiel: Beispiel 6 Einige von euch müssen sicher mit Bus, Straßenbahn oder ähnlichem zur Schule oder Uni fahren. So teuer, wie Fahrkarten mittlerweile sind, überlegt sich vielleicht auch so manch einer ab und zu, ob er nicht schwarz fahren sollte. In öffentlichen Verkehrsmitteln gibt es aber von Zeit zu Zeit auch Fahrkartenkontrollen. Auch Herr K. fährt regelmäßig öffentlich, nämlich mit der U-Bahn. Er ist jetzt schon 36 mal schwarz gefahren, ohne erwischt zu werden. Wie groß ist die Wahrscheinlichkeit, dass er auch beim 37. Mal nicht kontrolliert wird? Man kann das Problem als Urnenproblem auffassen, wobei wir es mit n Urnen zu tun haben, die jeweils n Kugeln enthalten. In der 1. Urne befindet sich 1 weiße und (n-1) schwarze Kugeln, in der 2. Urne befinden sich 2 weiße und (n-2) schwarze Kugeln usw. In der n. Urne schließlich sind n weiße und keine schwarze Kugel. Das U-Bahn fahren fassen wir als Ziehen einer Kugel aus einer Urne auf. Eine weiße Kugel bedeutet dabei, dass das Schwarzfahren erfolgreich ist. Ich möchte die Lösung zunächst allgemein halten und erst später auf unseren konkreten Fall zurückkommen. Definieren wir uns also Ereignisse: A: p-mal weiße Kugel ziehen U_i: U-Bahn fahren ist wie Ziehen aus der Urne U_i Da eine Gleichverteilung über den Hypothesen "das Schwarzfahren ist erfolgreich\/nicht erfolgreich" vorliegt, gilt P(U_i\.)=1/n Wir können nun die Wahrscheinlichkeit berechnen, dass A eintritt, unter der Voraussetzung, dass U_i schon eingetreten ist. Dazu müssen wir nur in die Definition der bedingten Wahrscheinlichkeit einsetzen: P_U_i\.(A)=(i/n)^p Dieser Wert kommt so zustande: in der Urne U_i befinden sich i weiße Kugeln. Die Wahrscheinlichkeit eine davon zu ziehen ist also i/n. Wir wollen nun aber p-mal eine weiße Kugel ziehen, denn es sollen ja beide Ereignisse gelten, A und U_i. Also ist P(A\cut\ U_i\.)=(i/n)^p. Nun können wir auch P_A\.(U_i\.) berechnen: P_A\.(U_i\.)=(P_U_i\.(A)*P(U_i\.))/sum(P_U_k\.(A)*P(U_k),k=1,n)=((i/n)^p*1/n)/(sum((k/n)^p,k=1,n)*1/n)=i^p/sum(k^p,k=1,n) Erinnern wir uns an unser Problem: wir wollen wissen, mit welcher Wahrscheinlichkeit Herr K. bei seiner nächsten U-Bahnfahrt auch nicht kontrolliert wird. Definieren wir dafür ein weiteres, unabhängiges Ereignis B durch B: eine weitere weiße Kugel ziehen Gesucht ist also P_A\.(B): P_A\.(B)=sum(P_(A\cut\ U_i)\.(B),i=1,n)*P_A\.(U_i\.), denn es gilt sum(P(B\cut\ A\cut\ U_i\.)/P(A\cut\ U_i\.),i=1,n)*P(A\cut\ U_i\.)/P(A)=sum(P_A\.(B\cut\ U_i\.),i=1,n)=P_A\.(B) Dies gilt, da U_i eine Zerlegung der Ergebnismenge ist. Außerdem gilt: P_(A\cut\ U_i)\.(B)=P_U_i\.(B)=i/n Damit gilt nun also P_A\.(B)=sum(i/n,i=1,n)*i^p/sum(k^p,k=1,n)=1/n*sum(i^(p+1),i=1,n)/sum(k^p,k=1,n) Um P_A\.(B) abschätzen zu können, benötigen wir noch folgende Tatsache: int(x^r,x,0,n)<=sum(i^r,i=1,n)<=int(x^r,x,1,n+1) <=> n^(r+1)/(r+1)<=sum(i^r,i=1,n)<=((n+1)^(r+1)-1)/(r+1) Damit gilt nun: 1/n\.(n^(p+2)*(p+1))/((p+2)\.[(n+1)^(p+1)-1])<=P_A\.(B)<=1/n\.([(n+1)^(p+2)-1]\.(p+1))/((p+2)\.n^(p+1)) Bilden wir nun den Grenzwert für große n, so erhalten wir lim(n->\inf,P_A\.(B))=(p+1)/(p+2) Dieses Ergebnis ist die Wahrscheinlichkeit für eine weitere kostenlose U-Bahnfahrt. Kommen wir wieder zurück zu unserer ganz konkreten Aufgabe. Herr K. ist bereits 36 mal erfolgreich schwarz gefahren, also ist p=36. Setzen wir das ein, so erhalten wir P_A\.(B)=37/38\approx\ 0,974 An diesem Beispiel sieht man sehr schön, dass sich nicht jedes beliebige Problem mit der Wahrscheinlichkeitsrechnung anpacken lässt. In der Realität ist es doch eher so (zumindest hier in der Region), dass man immer mehr mit einer Kontrolle rechnen muss, je länger schon keine mehr kam. Rein rechnerisch jedoch sinkt die Wahrscheinlichkeit für eine Kontrolle mit jedem erfolgreichen Schwarzfahren.
Ich habe das Berechnen bedingter Wahrscheinlichkeiten mit Hilfe eines Baumdiagramms nur eingeführt, dann aber nicht mehr im Artikel verwendet. Ihr könnt aber natürlich auch die anderen Aufgabe über ein Baumdiagramm lösen, wenn das für euch einfacher ist. Ihr habt nun aufeinander aufbauend Einführungen in die Kombinatorik, Wahrscheinlichkeitsrechnung und bedingte Wahrscheinlichkeiten bekommen. Falls euch dieser Artikel doch noch etwas zu schwer war, dann könnt ihr auch nochmal eine Stufe zurückgehen, unten findet ihr die anderen beiden Artikel verlinkt. Ich hoffe, ihr habt nun das nötige Rüstzeug, um viele der Probleme anzugehen, mit denen ihr in der Schule konfrontiert werdet. Ich wünsche euch viel Erfolg dabei! Zuletzt noch vielen Dank an meine Helferchen fürs Testlesen, Anregungen geben, und die Hilfe beim Diagramme basteln. Bild Codeknacker ans Werk Kartenspiele, Lotto und andere Probleme
\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Wahrscheinlichkeitsrechnung :: Leicht verständlich :: Schüler aufwärts :: Stochastik :: Mathematik :
Bedingte Wahrscheinlichkeiten [von Kleine_Meerjungfrau]  
Berechnung bedingter Wahrscheinlichkeiten, Schichtungssatz/totale Wahrscheinlichkeit, Satz von Bayes - mit Beispielen zu jedem Punkt
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 13216
 
Aufrufstatistik des Artikels
Insgesamt 1655 externe Seitenaufrufe zwischen 2012.01 und 2023.03 [Anzeigen]
DomainAnzahlProz
https://google.com482.9%2.9 %
https://google.de30918.7%18.7 %
http://google.de102061.6%61.6 %
http://google.fr633.8%3.8 %
http://www.uni-protokolle.de432.6%2.6 %
https://google.gr281.7%1.7 %
http://google.dk251.5%1.5 %
http://google.no171%1 %
http://images.google.de150.9%0.9 %
http://google.gr70.4%0.4 %
https://www.startpage.com50.3%0.3 %
http://www.bing.com211.3%1.3 %
http://google.nl40.2%0.2 %
http://r.duckduckgo.com30.2%0.2 %
https://www.bing.com30.2%0.2 %
http://www.onlinemathe.de20.1%0.1 %
https://duckduckgo.com20.1%0.1 %
http://google.com30.2%0.2 %
http://search.conduit.com50.3%0.3 %
http://de.cyclopaedia.net20.1%0.1 %
http://de.yhs4.search.yahoo.com20.1%0.1 %
http://search.webwebweb.com10.1%0.1 %
https://www.ecosia.org10.1%0.1 %
http://suche.t-online.de80.5%0.5 %
http://ecosia.org20.1%0.1 %
http://search.yahoo.com10.1%0.1 %
http://google.at10.1%0.1 %
http://de.search.yahoo.com50.3%0.3 %
http://4fgm.wikispaces.com10.1%0.1 %
http://wissen-unserer-zeit.de10.1%0.1 %
http://www1.delta-search.com10.1%0.1 %
http://www.sm.de10.1%0.1 %
http://de.mg40.mail.yahoo.com10.1%0.1 %
http://10.0.2.1:191010.1%0.1 %
http://johnmacfarlane.net10.1%0.1 %
http://www.webssearches.com10.1%0.1 %
http://www.buzzdock.com10.1%0.1 %

Häufige Aufrufer in früheren Monaten
Insgesamt 1569 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2013-2018 (362x)http://google.de/url?sa=t&rct=j&q=
2020-2023 (246x)https://google.de/
2012-2013 (105x)http://google.de/url?sa=t&rct=j&q=rechnen mit bedingten wahrscheinlichkeiten
201203-04 (66x)http://google.de/url?sa=t&rct=j&q=ziegenproblem baumdiagramm
201206-06 (63x)http://google.de/url?sa=t&rct=j&q=wann nimmt man den satz von bayes
2020-2021 (62x)https://google.de
201301-01 (52x)http://google.de/url?sa=t&rct=j&q=schnitt bedingte wahrscheinlichkeit
2020-2021 (45x)https://google.com/
201205-05 (44x)http://google.de/url?sa=t&rct=j&q=zufallsexperiment zeit und verkehrsmittel
201302-02 (43x)http://google.fr/url?sa=t&rct=j&q=bedingte wahrscheinlichkeit mathematik
2012-2019 (43x)http://www.uni-protokolle.de/foren/viewt/156127,0.html
201306-06 (32x)http://google.de/url?sa=t&rct=j&q=wahrscheinlichkeit version bestimmen mathep...
201304-04 (32x)http://google.de/url?sa=t&rct=j&q=Stochastik Wahrscheinlichkeit Satz von Baye...
201502-02 (31x)http://google.de/url?sa=t&source=web&cd=6&ved=0CCsQFjAF
201303-03 (30x)http://google.de/url?sa=t&rct=j&q=um er funktion des satzes von bayes auf die...
201207-07 (28x)http://google.de/url?sa=t&rct=j&q=wie hoch ist die wahrscheinlichkeit beim sc...
202005-05 (28x)https://google.gr/
201202-02 (25x)http://google.dk/imgres?q=disjunkte
201209-09 (23x)http://google.de/url?sa=t&rct=j&q=rechnen mit bedingter wahrscheinlichkeit
201403-03 (21x)http://google.de/url?sa=t&rct=j&q=normale oder bedingte wahrscheinlichkeit
201201-01 (20x)http://google.fr/url?sa=t&rct=j&q=wahrscheinlichkeiten "beim skat" pdf...
201405-05 (20x)http://google.de/url?sa=t&rct=j&q=bedingte wahrscheinlichkeit schwarzfahrer
201307-07 (19x)http://google.de/url?sa=t&rct=j&q=wahrscheinlichkeiten komplementen durchschn...
201407-07 (17x)http://google.de/url?sa=t&source=web&cd=7&ved=0CCkQFjAG
201406-06 (17x)http://google.no/url?sa=i&rct=j&q=
201212-12 (15x)http://google.de/url?sa=t&source=web&cd=9&ved=0CGMQFjAI
201210-10 (14x)http://google.de/url?sa=t&rct=j&q=unabhängige wahrscheinlichkeit komplemen...
201208-08 (13x)http://google.de/url?sa=t&rct=j&q=mathe aufgaben, bedingte wahrscheinlichkeit
201601-12 (12x)http://images.google.de/url?sa=t&rct=j&q=
201505-05 (12x)http://google.de/url?sa=t&rct=j&q=bedingte wahrscheinlichkeit komplement
201412-12 (7x)http://google.gr/url?sa=t&rct=j&q=
201801-01 (5x)http://google.de/url?sa=i&rct=j&q=
2021-2022 (5x)https://www.startpage.com/
201305-05 (4x)http://www.bing.com/search?q=ziegenproblem zeit pdf&mkt=de-at&x=112&y=20&firs...
201409-09 (4x)http://google.nl/url?sa=t&rct=j&q=
201310-11 (4x)http://www.bing.com/search?q=was hat ziegenproblem mit bedingter Wharscheinli...

[Top of page]

"Mathematik: Bedingte Wahrscheinlichkeiten" | 15 Comments
The authors of the comments are responsible for the content.

Re: Bedingte Wahrscheinlichkeiten
von: FlorianM am: Mi. 03. August 2005 12:36:30
\(\begingroup\)Wunderschöner Artikel! :) Aber von deinen Qualitäten (im Bereich Artikelschreiben)war ich ja schon vorher überzeugt. 😄 Weiter so...\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: trunx am: Mi. 03. August 2005 17:08:54
\(\begingroup\)Hallo, also mit dem Ergebnis für den Schwarzfahrer bin ich nicht einverstanden - angenommen, täglich würden im Mittel x von X Fahrgästen kontrolliert, d.h. die W-keit, in eine Kontrolle zu kommen, beträgt p=x/X. Dann ist m.M. nach unabhängig davon, wie oft jemand schon erfolgreich schwarzgefahren ist, jedesmal von neuem die W-keit erwischt zu werden p (ganz analog zum Ziehen aus einer Urne mit n weißen und m schwarzen Kugeln mit Zurücklegen). bye trunx\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Kleine_Meerjungfrau am: Mi. 03. August 2005 19:40:46
\(\begingroup\)Ich glaube, wir haben da zwei verschiedene Ansätze. Du willst immer sämtliche Fahrgäste mit einbeziehen, ich betrachte nur Herrn K. Wir wissen nicht, wie groß die Chancen sind, dass Herr K. nicht erwischt wird, also sagen wir, in der Urne seien i weiße Kugeln. Es kann sein, alle sind schwarz, das würde bedeuten, es wird immer auf seiner Strecke kontrolliert, es können aber auch lauter weiße sein, dann wird nie kontrolliert. Zwischendinger sind natürlich auch möglich. Die Wahrscheinlichkeit, dass Herr K. nun nicht kontrolliert wird, ist i/n, denn wir müssen in dem Fall ja eine weiße Kugel ziehen. Wir ziehen mit Zurücklegen, da ja die Wahrscheinlichkeit zunächst mal immer gleich sein sollte. Wenn wir p mal eine weiße Kugel mit Zurücklegen ziehen, dann ist die Wahrscheinlichkeit dafür aber (i/n)^p und wie's dann weiter geht, steht ja oben. Gruß kleine Meerjungfrau\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: trunx am: Mi. 03. August 2005 21:09:54
\(\begingroup\)Hi, ich glaube, dass Problem liegt darin, eine Gleichverteilung der Hypothesen Ui anzunehmen. bye trunx\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Nelson am: Mi. 03. August 2005 21:47:23
\(\begingroup\)Hallo Kleine Meerjungfrau, ein echt schöner Artikel, ich muß aber trunx zustimmen. Erweitern wir dein Modell und betrachten nicht nur Hern K. sondern auch Frau O. Die bedauernswerte Frau O. wurde erst vor ein paar Tagen beim Schwarzfahren erwischt, nun steht sie aber im selben Waggon direkt neben Herrn K.. Hieraus ergibt sich unmittelbar: Die Wahrscheinlichkeit erwischt zu werden muß für Herrn K. und Frau O. gleich sein, folgedessen kann doch die Wahrscheinlichkeit gar nicht davon abhängen, wie oft man , wo man , wann man ... vorher schon erwischt worden ist. Kurz und bündig: Für alle Fahrgäste, die sich im selben Waggon befinden, ist die Wahrscheinlichkeit erwischt zu werden gleich groß. Ciao Nelson \(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Kleine_Meerjungfrau am: Do. 04. August 2005 08:24:49
\(\begingroup\)Man darf nicht mehrere Personen betrachten. Man könnte jetzt für Frau O. dieselbe Rechnung anstellen wie für Herrn K., allerdings ist da die Sachlage anders. Sie konnte ja nicht 36 mal glücklich schwarzfahren. Die Wahrscheinlichkeit dafür, dass der Zug, in dem sich die ganzen Leute befinden, kontrolliert wird, ist durch das Urnenmodell gegeben. Die ist auch für alle gleich. Es fahren ja aber nicht alle Leute immer zusammen U-Bahn. Frau O. kann gestern zu einer anderen Zeit gefahren sein als Herr K. oder eine andere Linie. Uns interessiert jetzt aber das ganz konkrete Schwarzfahrerschicksal des Herrn K., das nur für die Personen gleich ist, die immer mit ihm Zug fahren und sonst nie.\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Hans-im-Pech am: Di. 08. November 2005 17:04:35
\(\begingroup\)Ein sehr schöner Artikel und ich schliche mich der Interpretation der Artikelschreiberin zur strittigen Frage an! 😄 Grüße, HiP\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Ex_Mitglied_40174 am: Sa. 25. Februar 2006 18:52:26
\(\begingroup\)hallo! vielleicht ist es eine zu simple frage für euch, aber kurz zum beispiel 1, wenn a und b unabhängig sind, dann gilt doch P(A "und" B) = P(A) * P(A). wie löse ich dann P(A "abhängig von" B) = P(A "und" B)/ P(B). danke schon mal für die hilfe... eva\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Kleine_Meerjungfrau am: Sa. 25. Februar 2006 18:56:27
\(\begingroup\)Aber genau das steht da doch im Beispiel. Wo ist denn dein Problem bei der Ausführung?\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Ex_Mitglied_40174 am: Sa. 25. Februar 2006 19:04:27
\(\begingroup\)gibt es denn keine formel für das berechnen von P(A "abhängig von" B). muss ich das immer über ein baumdiagramm machen?\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Kleine_Meerjungfrau am: Sa. 25. Februar 2006 19:06:35
\(\begingroup\)In Beispiel 1 steht doch eine Formel. Da steht erst eine Definition, das Beispiel ist dann eine Anwendung. Das Baumdiagramm steht erst in Beispiel 1a).\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Ex_Mitglied_40174 am: Sa. 25. Februar 2006 19:19:05
\(\begingroup\)Sorry aber ich weiß nicht welche formel... dass P(A "abängig von" B)/ P(B) = P(A) * P(B)/ P(B) kann doch nicht sein, da sich dann P(B) einfach wegkürzen ließe, oder? du hast dann geschrieben dass sich dieser multiplikationssatz ergibt, aber wie kann ich denn zunächst mal PA(B), bzw. PB(A) berechnen?\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Kleine_Meerjungfrau am: Sa. 25. Februar 2006 19:30:23
\(\begingroup\)Jetzt muss ich mal fragen, was du mit P(A "abhängig von" B) meinst. Um mit Worten zu reden steht da P(A gegeben B)=P(A geschnitten B)/P(B). P(A)*P(B) kannst du in diesem Fall vergessen, weil du hier ja keine unabhängigen Ereignisse hast. Du kannst bei den Aufgaben die Schnittmenge der Ereignisse entweder sehr leicht bestimmen, wie das in Beispiel 1 gemacht wurde oder du kannst ein Baumdiagramm malen wie in 1a). Außerdem gibt es dann ja noch den Schichtungssatz und den Satz von Bayes, die auch in dem Artikel beschrieben werden. Oft brauchst du auch diese Formeln, um die Aufgaben zu lösen, da kommst du dann ohne Schnittmengen aus.\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Ex_Mitglied_40174 am: Sa. 25. Februar 2006 19:37:04
\(\begingroup\)ok, dann ist alles klar, schichtungssatz und satz von bayes haben wir leider nicht gemacht, also muss ich wohl darauf vertrauen, dass mein prof mir so leichte aufgaben stellt, dass ich das mit so leicht bestimmen kann wie in bsp.1 .... danke dass du mir so schnell geholfen hast, lieben gruß und schönen abend noch, eva\(\endgroup\)
 

Re: Bedingte Wahrscheinlichkeiten
von: Helex am: Mi. 19. September 2007 09:51:27
\(\begingroup\)Ein echt guter Artikel, nachdem die Kleine Meerjungfrau erst hier geholfen hat, habe ich hier diesen wunderbaren Artikel von ihr gefunden, das erspart mir viel herumgeblättere in Büchern. Zusammen mit den reichlichen Beispielen und Bildern wird alles sehr sehr verständlich erklärt. Da schlummert wohl ein Lehrertalent in dir? Beste Grüße von Helex! PS: Kannst du vielleicht ein pdf Version hochladen?\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]