Mathematik: Einführung in die Stochastik
Released by matroid on Sa. 21. Mai 2005 14:31:52 [Statistics]
Written by shadowking - 32832 x read [Outline] Printable version Printer-friendly version -  Choose language   
Mathematik

\(\begingroup\) Einführung in die Stochastik Bild Ich hoffe, ich habe mir mit diesem Projekt nicht zu viel vorgenommen. Aufgrund des starken Interesses an den Grundlagen der Wahrschein- lichkeitsrechnung und einem gewissen Mangel an Material hier auf dem Planeten sehe ich es aber als eine gute Idee an, hier etwas Abhilfe zu schaffen. Was ich fürs erste anvisiere, ist folgendes: 1. Ereignisräume und Gleichwahrscheinlichkeit 2. Bayessche Formel, Totale Wahrscheinlichkeit, Unabhängigkeit 3. Bernoulli-Experimente und Binomialverteilung 4. Zufallsvariable, Erwartungswert und Varianz 5. Andere diskrete Verteilungen: a) hypergeometrische Verteilung b) geometrische Verteilung c) Poisson-Verteilung 6. Faltungen 7. Grundsätzliches zu stetigen Verteilungen 8. Gaußsche Verteilung und Zentraler Grenzwertsatz

Zur pdf-Version dieses Artikels: hier 1. Ereignisräume und Gleichwahrscheinlichkeit Das Bertrandsche Paradoxon Als die Wahrscheinlichkeitstheorie erst im Entstehen war, stellte Joseph Bertrand (1822 - 1900) folgendes Problem: "In einem Kreis werde zufällig eine Sehne AP gezogen. Wie wahrscheinlich ist es nun, dass diese Sehne länger ist als eine Seite des demselben Kreis einbeschriebenen gleichseitigen Dreiecks ABC?" Bild Er selbst gab drei mögliche Antworten auf diese Frage, die erstaunlicherweise alle zu verschiedenen Antworten führen: 1. Es gibt einen Durchmesser des Kreises, zu dem die Sehne senkrecht ist. Befindet sich der Schnittpunkt von Sehne und Durchmesser zwischen 1/4 und 3/4 des Durchmessers, so hat die Sehne eine größere Länge als die Dreiecksseite, also ist die Wahrscheinlichkeit 1/2. 2. Die Sehne ist länger als eine Dreiecksseite, wenn der andere Endpunkt auf dem Kreisbogen liegt, den die Seite a vom übrigen Kreis abtrennt. Also ist die entsprechende Wahrscheinlichkeit 1/3. 3. Der Mittelpunkt der Sehne kann nach Belieben gewählt werden. Die Sehne ist genau dann länger als eine Dreiecksseite, wenn sie eine Sekante zu dessen Inkreis ist. Aus Symmetriegründen liegt dann auch der Mittelpunkt im Inkreis. Dieser hat gegenüber dem äußeren Kreis halben Radius, also ist sein Flächeninhalt ein Viertel des großen, und auch die entsprechende Wahrscheinlichkeit ist 1/4. Wie löst man dieses Paradoxon auf? Bertrand hatte nicht angegeben, in welchem Sinne er zufällig meint. Sind, wenn ein Endpunkt A vorgegeben ist, alle anderen möglichen Eckpunkte P gleich wahrscheinlich? Oder sind alle Abstände des Sehnenmittelpunktes vom Kreismittelpunkt gleich wahrscheinlich, oder sogar alle Mittelpunkte von Sehnen in der gesamten Kreisfläche? Das Fazit kann nur lauten: Es muss bekannt sein, aus welchem Bereich etwas zufällig gewählt wird und welche Ereignisse als gleich wahrscheinlich angesehen werden. Ein einfaches Axiomensystem Das gängige Axiomensystem für die Wahrscheinlichkeitstheorie lautet: Gegeben ist ein System (\Omega, \Sigma, p), mit einer Menge \Omega, einem System \Sigma von Teilmengen von \Omega und einer Funktion p: \Sigma -> [0,1] (der Wahrscheinlichkeitsfunktion), für das folgendes gilt: 1. \0 \el \Sigma, 2. falls A \el \Sigma, so gilt A^c \el \Sigma, 3. falls {A_i \| i \el I} eine höchstens abzählbare Familie in \Sigma, so ist union(A_i,i \el I,) \el \Sigma, 4. für jede höchstens abzählbare Familie {A_i \| i \el I} \subset \Sigma gilt: Falls A_i paarweise disjunkt, so ist p(union(A_i,i \el I,)) = sum(p(A_i),i \el I,), 5. p(\Omega) = 1. Für das Ereignis A^c \el \Sigma gilt A \union A^c = \Omega, A \cut A^c = \0. Es heißt vec(Komplement von A). Für A \cut B^c wird auch geschrieben: A \\ B. Dieses Axiomensystem sagt noch nichts aus über konkrete Wahrscheinlichkeiten, außer dass dem unmöglichen Ereignis \0 die Wahrscheinlichkeit Null und dem sicheren Ereignis \Omega die Wahrscheinlichkeit Eins zugeordnet wird. Auf einfache Weise kann man nun die Eigenschaften ° p(A^c) = 1-p(A) $ $ $ \(Spezialfall: p(\0)=0\), ° falls A \subset B, so ist p(A) <= p(B), ° falls {A_i \| i \el I} \subset \Sigma, so ist cut(A_i,i \el I,) \el \Sigma, ° p(A \union B) = p(A) + p(B) - p(A \cut B), aus den Axiomen folgern. Trickreich ist Vorletztes: cut(A_i,i \el I,) = (union(A_i^c,i \el I,))^c, also ist cut(A_i,i \el I,) \el \Sigma. Letzteres zeigt man so: p(A \union B) = p(A) + p(B \cut A^c) $ $ $ $ $ = p(A) + p(B \\ A) $ $ $ $ $ = p(A) + p(B \\ (A \cut B)) $ $ $ $ $ = p(A) + p(B) - p(A \cut B). Zu diesem Ergebnis kann man eine wichtige Verallgemeinerung für endliche Vereinigungen finden, den vec(Satz von Sylvester), auch Einschluss\-Ausschluss\-Formel oder Siebformel genannt. Der Bereich \Omega aller möglichen Ereignisse wird vec(Ereignisraum) bzw. vec(Wahrscheinlichkeitsraum) genannt. Die Teilmengen \Sigma \subset \calP(\Omega) heißen vec(Ereignisse). Gibt es nur eine Möglichkeit, ein Ereignis zu realisieren, so spricht man von einem vec(Elementarereignis). Jetzt müssen aber einmal Nägel mit Köpfen gemacht werden, sprich: Ereignissen konkrete Wahrscheinlichkeiten zugeordnet werden, damit man ein brauchbares, der zu beschreibenden Situation angepasstes vec(Modell) erhält. In den meisten Fällen wird vorausgesetzt \(aber nicht immer darauf hingewiesen\), dass jedes Elementarereignis \omega \el \Omega gleich wahrscheinlich ist. Beispiel: Beim Würfeln mit einem Würfel ist jede Augenzahl von 1 bis 6 ein Elementarereignis und tritt mit Wahrscheinlichkeit 1/6 auf. Das gilt aber nur für faire Würfel, also solche mit 24\-zähliger Drehsymmetrie, die keine versteckten Luftlöcher oder Bleistücke enthalten oder sonstwie manipuliert sind. Ist der Würfel manipuliert, dürfen die Elementarereignisse nicht mehr als gleich wahrscheinlich angesehen werden. Bild 2. Bayessche Formel, Totale Wahrscheinlichkeit, Unabhängigkeit Die Wahrscheinlichkeit für das Eintreten gewisser Ereignisse kann vom Eintreten gewisser anderer Ereignisse abhängig sein. Niemand würde es für gleich wahrscheinlich halten, dass es in den nächsten zehn Minuten zu regnen beginnt, wenn die Sonne aus wolkenlosem Himmel scheint oder es sich bereits mit dunklen Wolken zugezogen hat. Aus dem Wahrscheinlichkeitsraum (\Omega, \Sigma, p) wird durch die Einschränkung auf B \el \Sigma, p(B) > 0, ein anderer Wahrscheinlichkeitsraum (\Omega\', \Sigma\', p'), in dem das sichere Ereignis B sein soll. Man definiert also \Omega\' = B, \Sigma\' = {X \cut B \| X \el \Sigma}, p'(X) = p(X \cut B)/p(B). Dadurch ist sichergestellt, dass in (\Omega\', \Sigma\', p') wieder alle Axiome eines Wahrscheinlichkeitsraumes einschließlich 5. gelten. Für die Wahrscheinlichkeit eines Ereignisses A \el \Sigma vec(unter der Voraussetzung) eines anderen Ereignisses B \el \Sigma, p(B) > 0, schreibt man folgendermaßen: p'(A) = p(A \| B). Wenn man die Wahrscheinlichkeiten für ein bestimmtes Ereignis A unter gewissen Voraussetzungen B_i , \Omega = union(B_i,i \el I,), B_i \cut B_j = \0 für i != j, kennt und daraus die Gesamtwahrscheinlichkeit für A herleiten will, so bietet sich folgende Formel an: p(A) = p(A \cut \Omega) $ $=p(union((A \cut B_i),i \el I,)) $ $=sum(p(A \cut B_i),i \el I) $ $=sum(p(A \| B_i)*p(B_i), i \el I). Zwei Ereignisse A, B \el \Sigma heißen vec(stochastisch) vec(unabhängig), wenn das Eintreten von A unter der Voraussetzung von B sich nicht von der Wahrscheinlichkeit für A unter der Voraussetzung B^c unterscheidet, also gilt p(A \|B) = p(A \|B^c). In diesem Fall kann man die Wahrscheinlichkeit für das Eintreten beider Ereignisse einfach berechnen: p(A) = p((A \cut B) \union (A \cut B^c)) $ $= p(A \|B)*p(B) + p(A \|B^c)*p(B^c) $ $= p(A \|B)*p(B) + p(A \|B)*(1-p(B)) $ $= p(A \|B), also ist p(A \cut B)= p(A \|B)*p(B) = p(A)*p(B). Die stochastische Unabhängigkeit kann man auf mehr als zwei Ereignisse A_1, ..., A_n verallgemeinern; hierzu fordert man aber nicht nur die paarweise stochastische Unabhängigkeit, sondern noch zusätzlich die stochastische Unabhängigkeit jeder Schnittmenge von Ereignissen A_(i_1) \cut ... \cut A_(i_k) von jedem der Ereignisse A_j, j \notel {i_1 ,...,i_k }. Dann überträgt sich die Multiplikationsregel auf alle Ereignisse: p(A_(i_1) \cut ... \cut A_(i_k)) = prod(p(A_(i_j)),j=1,k). 3. Bernoulli-Experimente und Binomialverteilung Kehren wir zu dem Beispiel des fairen Würfels zurück und nehmen an, dass die einzelnen Wurfergebnisse unabhängig sind. Etwas allgemeiner: Wir denken uns ein Experiment, dessen Durchführungen beliebig wiederholbar sind und in dem das günstige Ergebnis immer wieder mit der gleichen Wahrscheinlichkeit p eintritt. Wir wollen die Wahrscheinlichkeit bestimmen, dass unter 20 Versuchen k-mal ein Erfolg eintritt. Daraus folgt, dass 20-k mal das Ereignis "kein Erfolg" eintritt, und wegen der stochastischen Unabhängigkeit darf man die Wahrscheinlichkeiten multiplizieren: p("k\-mal $ Sechs")=m*p^k*(1-p)^(20-k) Das m steht da, weil es mehrere Möglichkeiten für die k Ereignisse gibt, in den 20 Würfen aufzutreten. Dass dies gleich bei den ersten k Würfen passiert, ist zwar ungewöhnlich, aber nicht unwahrscheinlicher als jede andere Auswahl von k aus 20 Positionen, von denen es (20;k) gibt. Wir erhalten p("k\-mal Sechs") = (20;6)*p^k*(1-p)^(20-k) (Hierbei wurde vorausgesetzt, dass die Wahrscheinlichkeit jedes Elementarereignisses aus dem neuen Wahrscheinlichkeitsraum \Omega^~=\Omega^20 gleich ist. Dieses ist bereits dadurch sichergestellt, dass die einzelnen Würfelwürfe für stochastisch unabhängig erklärt wurden.) Diese Verteilung hat ihren Namen von dem Binomischen Lehrsatz, mit dessen Hilfe man auch sogleich zeigt, dass mit Sicherheit Erfolge in irgendeiner Häufigkeit \(schlimmstenfalls eben 0\) eintreten: Ereignisse mit verschiedenen Anzahlen an Erfolgen sind natürlich disjunkt, weshalb man summiert: 1 = 1^20 $ =(p+(1-p))^20 $ = sum((20;k)*p^k*(1-p)^(20-k),k=0,20) $ = sum(p("genau k Erfolge"),k=0,20) $ =p("zwischen 0 und 20 Erfolge"). Was wir uns natürlich schon denken konnten.
4. Zufallsvariable, Erwartungswert und Varianz Oft kommt es, wie beim fortgesetzten Würfeln, gar nicht auf das realisierte Elementarereignis \w an, sondern nur auf eine von diesem abhängige Größe X(\w), etwa die Summe der gewürfelten Augenzahlen. Dieses X bildet den Wahrscheinlichkeitsraum \Omega in irgendeine Menge \calX ab. \(Bei \calX handelt es sich meistens um einen geordneten Zahlbereich, etwa die natürlichen oder die reellen Zahlen.\) Diese Abbildung X nennt man vec(Zufallsvariable). Von dieser Abbildung X: \Omega -> \calX hängt es ab, welcher Wert wie häufig angenommen wird, d.h. p und X zusammen determinieren die Verteilung der Zufallsvariablen. Die Angabe der Verteilung einer Zufallsvariablen X reicht für den Umgang mit X völlig aus. Ein einfaches Beispiel, die Binomialverteilung für ein Bernoulli-Experiment, die einer ganzen Klasse von Elementarereignissen den gleichen Wert, nämlich die Zahl der Erfolge, zuordnet, haben wir bereits aus den einfachen Prinzipien Gleichverteilung und stochastischer Unabhängigkeit hergeleitet. Weil sie so wichtig sind, möchte ich die Begriffe Erwartungswert, Standardabweichung und Varianz bereits hier einführen. Erwartungswert Der vec(Durchschnittswert) einer Zufallsgröße X ist der durchschnittliche Wert, der bei Mittelung über \(praktisch nicht durchführbarer\) unendlich häufige Realisierung von Elementar\- ereignissen aus \Omega herauskommt. Man könnte diesen Durchschnittswert ebenfalls erhalten, indem man alle Bildwerte der Zufallsvariable X mit ihrer Realisierungshäufigkeit bei N Experimenten \(Ausgänge X(\w_i), i \el {1,...,N}\) gewichtet, durch N dividiert und zum Grenzwert N -> \inf übergeht. Die Annahme, dass sich das Verhältnis zwischen der Anzahl der Ereignisse, die zu k \el \calX führen, und der Gesamtzahl N bei zunehmendem N bei p(X=k) = (\|{\w \el \Omega \| X(\w)=k}\|)/\|\Omega\| stabilisiert, eröffnet die Möglichkeit, den Durchschnittswert als Summe über \calX zu berechnen: \mue(X)=1/N*sum(X(\w_i),i=1,N) $ $ $~=1/\|\Omega\|*sum(\|{\w \el \Omega\| X(\w)=k}\|*k,k \el \calX,) $ $ $= sum(p(X=k)*k,k \el \calX), und zwar als mittleren Wert von \calX, in den jedes mögliche Bild k \el \calX mit der Wahrscheinlichkeit des Ereignisses, dass X den Wert k annimmt, gewichtet eingeht. Diese Größe \("mit Auftretenswahrscheinlichkeit unter X gewichtetes Mittel der Werte von \calX\"\) nennen wir vec(Erwartungswert) und bezeichnen sie mit E(X). Bedeutsam ist der Erwartungswert immer dann, wenn es um Entscheidungen der Art geht: Lohnt es sich, an einem Glücksspiel teilzunehmen? Hier ist die vom konkreten Elementarereignis, etwa den 6 aus 49 gezogenen Lottozahlen, abhängige Zufallsvariable der Gewinn, der mir für eine bestimmte Anzahl richtig getippter Zahlen zusteht. Mich als potenziellen Mitspieler interessiert, ob der zu erwartende Gewinn mindestens gleich dem zu zahlenden Spieleinsatz ist. Da die Gewinne im Lotto in Gewinnklassen eingeteilt werden, sie also unter allen Mitspielern geteilt werden, die die gleiche Anzahl Richtiger haben, kann man den Erwartungswert für den Gewinn, also die mit der Wahrscheinlichkeit, k Zahlen richtig getippt zu haben, multiplizierte Gewinnsumme für k Richtige, summiert über k von 0 bis 6, nur sehr schwer vorhersehen. So fällt u.U. nicht auf, dass der einzige Teilnehmer mit positivem Gewinnerwartungswert der Veranstalter, also der Deutsche Lottoblock mit dem Staat als Hauptgesellschafter ist, der mit dem Lottospiel Woche für Woche große Gewinne einspielt. (Zum Modell für das Zahlenlotto später mehr.) In einfacheren Spielsituationen kann die Gewinnerwartung dagegen schon vor dem Spiel abgeschätzt werden. Standardabweichung und Varianz Zur Beschreibung von Experimenten mit quantitativem Ausgang, zu denen man auch den Ausfall einer Klausur zählen kann, reicht es meist nicht aus, nur den Mittelwert zu kennen. So führen eine Klausur, in der genau die Hälfte der Teilnehmer eine "1" und die andere Hälfte eine "5" geschrieben haben, genauso zum Mittelwert "3" wie eine Klausur, in der alle Teilnehmer eine "3" geschrieben haben. Aus nachvollziehbaren Gründen reicht der Mittelwert dem Schulleiter nicht als Information über den Ausgang dieser Klausur. Neben dem Mittelwert beschreibt man ein Experiment noch mit der "mittleren Abweichung vom Mittelwert", der sogenannten Standardabweichung. Diese ist mit Hilfe der Varianz, Abkürzung Var(X), definiert. Kleinere Abweichungen sollen hierbei weniger stark berücksichtigt werden als größere Abweichungen, so dass man über das Quadrat der Differenz von k \el \calX und E(X) mittelt: Var(X) = sum(p(X=k)*(k-E(X))^2,k \el \calX,) = E((X-E(X))^2) Var(X) sagt etwas über den Durchschnittswert der Quadrate dieser Abweichungen aus, also ist \sigma(X) := sqrt(Var(X)) aussagekräftig für die betragsmäßige Abweichung (Standardabweichung). Erwartungswert und Varianz der Binomialverteilung Sei X eine B(N,p)\-verteilte Zufallsvariable, d.h. ein N\-fach mit Wahrscheinlichkeit p wiederholtes Bernoulli\-Experiment. E(X)=sum(p(X=k)*k,k=1,N) $ $ $=sum((N;k)*p^k*(1-p)^(N-k)*k,k=1,N) $ $ $=(1-p)^N*sum((N;k)*(p/(1-p))^k*k,k=1,N) $ $ $=p*(1-p)^(N-1)*sum((N;k)*k*(p/(1-p))^(k-1),k=1,N) $ $ $=p*(1-p)^(N-1)*sum((N;k)*d/dx x^k \|_(x=p/(1-p)),k=1,N) $ $ $=p*(1-p)^(N-1)*d/dx sum((N;k)*x^k \|_(x_p/(1-p)),k=1,N) $ $ $=p*(1-p)^(N-1)*d/dx (1+x)^N \|_(x=p/(1-p)) $ $ $=p*(1-p)^(N-1)*N*(1+x)^(N-1) \|_(x=p/(1-p)) $ $ $=p*(1-p)^(N-1)*N*(1+p/(1-p))^(N-1) $ $ $=p*(1-p)^(N-1)*N*(1/(1-p))^(N-1) $ $ $=p*N. Das Modell liefert also gerade das, was es soll, nämlich die Einzelwahrscheinlichkeit multipliziert mit der Zahl der Einzelexperimente. Etwas anspruchsvoller ist da schon die Bestimmung der Standardabweichung: Var(X)=E((X-E(X))^2) $ $ $ $=sum(p(X=k)*(k-p*N)^2,k=1,N) $ $ $ $=sum((N;k)*p^k*(1-p)^(N-k)*(k^2-2*p*N*k+p^2*N^2),k=1,N) $ $ $ $=p^2*(1-p)^(N-2)*\( sum((N;k)*(p/(1-p))^(k-2)*(k^2-k+k),k=1,N) $ $ $ $ $ $-2*p*N*sum((N;k)*(p/(1-p))^k*k,k=1,N) $ $ $ $ $ $+p^2*N^2*sum((N;k)*(p/(1-p))^k,k=1,N)\) $ $ $ $=p^2*(1-p)^(N-2)*sum((N;k)*(p/(1-p))^(k-2)*k*(k-1),k=1,N) $ $ $ $ $ $+p^2*(1-p)^(N-2)*sum((N;k)*(p/(1-p))^(k-2)*k,k=1,N) $ $ $ $ $ $-2*p*N*E(X) $ $ $ $ $ $+p^2*N^2*1 $ $ $ $=p^2*(1-p)^(N-2)*sum((N;k)*d^2/dx^2 x^k \|_(x=p/(1-p)),k=1,N) $ $ $ $ $ $+p*(1-p)^(N-1)*sum((N;k)*(p/(1-p))^(k-1)*k,k=1,N) $ $ $ $ $ $-2*p*N*p*N $ $ $ $ $ $+p^2*N^2 $ $ $ $=p^2*(1-p)^(N-2)*d^2/dx^2 sum((N;k)*x^k \|_(x=p/(1-p)),k=1,N) $ $ $ $ $ $+p*(1-p)^(N-1)*N*(1/(1-p))^(N-1) $ $ $ $ $ $-p^2*N^2 $ $ $ $=p^2*(1-p)^(N-2)*d^2/dx^2 (1+x)^N \|_(x=p/(1-p))+p*N-p^2*N^2 $ $ $ $=p^2*(1-p)^(N-2)*N*(N-1)*(1/(1-p))^(N-2)+p*N-p^2*N^2 $ $ $ $=p^2*N^2 - p^2*N + p*N - p^2*N^2 $ $ $ $=p*(1-p)*N, also gilt \sigma(X) = sqrt(p*(1-p)*N). Eines sollte hierbei auffallen: Während der Erwartungswert für die Anzahl günstiger Ausgänge linear mit N ansteigt, steigt die Standardabweichung nur mit sqrt(N). Das führt dazu, dass sich die günstigen Ausgänge bei sehr vielen Wiederholungen stärker um den Erwartungswert konzentrieren als bei wenigen. Was wir für die Binomialverteilung also bewiesen haben, gilt auch allgemein für Verteilungen mit endlichem Erwartungswert und endlicher Varianz und ist ein probates Mittel, um mit Bernoulli\-Experimenten die Wahrscheinlichkeit bestimmter Ausgänge zu schätzen, wenn diese unbekannt sind.
5. Andere diskrete Zufallsvariable Nicht immer ist das Bernoulli-Experiment ein adäquates Modell, um Zufallsprozesse zu beschreiben. Es sei nur an die bekannten Urnenexperimente erinnert, mit denen man nur allzu leicht durcheinander gerät: 1. Kugeln aus Urne ziehen mit Wiederholung unter Beachtung der Reihenfolge 2. Kugeln ziehen ohne Wiederholung ohne Beachtung der Reihenfolge 3. Kugeln ziehen ohne Wiederholung unter Beachtung der Reihenfolge 4. Kugeln aus Urne ziehen mit Wiederholung ohne Beachtung der Reihenfolge ... 1. ist mit den Bernoulli-Experimenten bereits bestmöglich modelliert: bei N Kugeln, die nach dem Ziehen jeweils zurückgelegt werden, ändert sich niemals die Wahrscheinlichkeit, eine Kugel mit einer bestimmten Farbe zu erwischen, und man hat jedesmal die Wahl zwischen allen N Kugeln. Das adäquate Modell, die Binomialverteilung, haben wir schon behandelt. 2. unterscheidet sich von dieser Situation wie folgt: Wenn eine Kugel einer bestimmten Farbe aus der Urne entfernt ist, hat sich das Verhältnis der Farben in der Urne geändert, und würde man von nun ab mit Zurücklegen ziehen, kämen andere Häufigkeiten vor als zu Beginn. Daher hat man die Wahrscheinlichkeit bei jedem Zug anzupassen. Außerdem wird nicht mehr zwischen Ausgängen unterschieden, die sich nur hinsichtlich der Reihenfolge der Elementarereignisse unterscheiden: Beim dreimaligen Würfeln wird das Einzelergebnis (1,1,2) von (1,2,1) und von (2,1,1) unterschieden, während es beim Ziehen dreier Karten aus einem Skatspiel keinen Sinn macht, bei den Ereignissen {Pik As, Herz Sieben, Karo Dame} verschiedene Reihenfolgen zu unterscheiden, denn ohne Zurücklegen bleibt es die gleiche Auswahl. Das adäquate Modell zu dieser Situation heißt Hypergeometrische Verteilung. Der Wahrscheinlichkeitsraum ist hier die Menge aller k\-Auswahlen aus einer Menge von N Elementen. Derartige Auswahlen gibt es (N*(N-1)*...*(N-k+1))/k! = N!/((N-k)!*k!) = (N;k), denn für das erste Element hat man die Wahl aus N, für das zweite noch aus N-1 etc., aber da man die Reihenfolge nicht beachtet, führt jede andere der k! Reihenfolgen, in denen diese Elemente gewählt werden, zur gleichen Auswahl, und N*(N-1)*...*(N-k+1) ist durch k! zu teilen. Sind beispielsweise in einer Urne N Kugeln, von denen S schwarz und der Rest weiß sind, so unterscheidet sich eine Auswahl von n Kugeln von einer anderen nur hinsichtlich der Anzahl k der schwarzen Kugeln. Es ist also egal, welche k der S schwarzen und welche n-k der N-S weißen Kugeln man herausgezogen hat. Es gibt (S;k) Möglichkeiten, k Kugeln aus S schwarzen, und (N-S;n-k) Möglichkeiten, die restlichen n-k Kugeln aus den N-S weißen Kugeln zu wählen; alles führt zum gleichen Ergebnis "k schwarze Kugeln". Die Verteilungsfunktion für die Zufallsvariable X = "Anzahl schwarzer Kugeln" ist also: p(X=k) =((S;k)*(N-S;n-k))/(N;n). Diese Verteilung ist die Richtige, um die Chance zu bestimmen, einen Hauptgewinn im Lotto zu erzielen: wenn von den sechs von mir getippten Zahlen am Wochenende alle 6 herausgezogen werden. Dem entspricht nur ein einziges der (49;6) Elementarereignisse, so dass man nur mit der Wahrscheinlichkeit 1 zu 13.983.816 Lotto\-Millionär wird - vorausgesetzt, niemand anders hat die gleichen Zahlen. Die hypergeometrische Verteilung ist auch das Modell der Wahl, wenn man es mit mehr als zwei unterscheidbaren Elementarereignissen zu tun hat, etwa mit Kugeln in W unterscheidbaren Farben in verschiedener Anzahl. Seien in der Urne n_j Kugeln der Farbe j, 1 <= j <= W, und es werden k Kugeln gezogen, so ist \calX die Menge der \IN^W \-Vektoren {(k_1 ,...,k_W) \el \IN^W \| sum(k_j,j=1,W)=k} und dieser kann auf prod((n_j;k_j),j=1,W) Weisen erhalten werden, so dass gilt: p(X=(k_1 ,...,k_W))=((n_1;k_1)(n_2;k_2)*...*(n_W;k_W))/(n_1+n_2+...+n_W;k). Neben den sehr bekannten Fällen "Ziehen mit Zurücklegen und mit Reihenfolge" (Binomialverteilung) und "Ziehen ohne Zurücklegen und ohne Reihenfolge" (hypergeometrische Verteilung) gibt es auch die anderen Kombinationen 3. "Ziehen ohne Zurücklegen mit Reihenfolge" und 4. "Ziehen mit Zurücklegen ohne Reihenfolge". Sie treten aber so selten auf, dass sich für ihre Verteilungen keine Namen eingebürgert haben. Ziehen ohne Wiederholung unter Beachtung der Reihenfolge Unterscheidet sich von der hypergeometrischen Verteilung dadurch, dass zwei Stichproben (\w_1, \w_2, ..., \w_n) anhand der Reihenfolge unterschieden werden können, also zum Beispiel (1,2,3) und (3,1,2) als unterschiedlich gelten. Unterscheidbare Murmeln werden an n Kinder verteilt, so dass jedes Kind eine Murmel bekommt; n <= N. Der Verteiler wählt dabei jedesmal zufällig aus den Murmeln aus. Der Ereignisraum besteht aus den N*(N-1)*...*(N-n+1) Einzelereignissen der Art { Murmel M_1 an Kind 1, M_2 an Kind 2,..., M_n an Kind K_n }. Ziehen mit Wiederholung ohne Beachtung der Reihenfolge Ein Kunde kauft n Gegenstände in einem Laden, dessen Sortiment N Posten P_1 ,...,P_N umfasst. Er kann dabei mehrere Gegenstände einer Sorte kaufen. Am Ende hat er sich für eine Auswahl Gegenstände entschieden, die mit einer aufsteigend geordneten Folge (\w_1, ..., \w_n) von Postennummern aus {1,...,N} beschrieben werden kann: \w_1 <= \w_2 <= ... <= \w_n. Die Unterscheidbarkeit der Artikel kann nun erzwungen werden, indem man die Folge umkehrbar eindeutig auf eine andere Folge abbildet: \w_1 < \w_2 + 1 < \w_3 + 2 < ... < \w_n + n - 1. Diese neuen Postennummern sind aus {1, 2, ..., N+n-1}, und aus diesen Nummern sind die Gegenstände nun ohne Wiederholung ausgewählt, so dass man Modell 2. anwenden kann und erhält, dass der Ereignisraum aus (N+n-1;n) Elementen besteht. Weitere diskrete Zufallsvariable Geometrische Verteilung (negative Binomialverteilung) Zwei Kontrahenten, Schwarz und Weiß, befinden sich in einem Duell mit tödlichen Waffen. Schwarz trifft sein Ziel mit der Wahrscheinlichkeit p, Weiß mit der Wahrscheinlichkeit q. Da q > p, haben beide vereinbart, dass Schwarz anfangen darf. Mit welcher Wahrscheinlichkeit gewinnt Schwarz das Duell im k. Schuss? Voraussetzung dafür, dass Schwarz den k. Schuss überhaupt abgeben kann, ist, dass er die k-1 Schüsse von Weiß überlebt. Beide müssen also ihr Ziel bereits k-1\-mal verfehlt haben, bevor Schwarz dann doch trifft. Hier spielt die Reihenfolge - im Gegensatz zum Bernoulli\-Experiment - sehr wohl eine Reihenfolge, da nach dem ersten Treffer Schluss ist. p("Schwarz trifft im k. Schuss")=(1-p)^(k-1)*(1-q)^(k-1)*p Da in handelsüblichen Revolvern 6 Patronen Platz haben, ist das Duell nach 6 Schusswechseln spätestens vorbei. Schwarz gewinnt das Duell mit der Gesamtwahrscheinlichkeit p("Schwarz gewinnt") = sum(p("Schwarz trifft im k. Schuss"),k=1,6) =sum((1-p)^(k-1)*(1-q)^(k-1)*p,k=1,6) =p*sum((1-p-q+p*q)^k,k=0,5) =p*(1-(1-p-q+p*q)^6)/(p+q-p*q). Falls Nachladen erlaubt ist, das Duell also prinzipiell unend\- lich lange dauert, gibt es einen eleganten Weg, die Rechnung abzukürzen: falls Schwarz nicht sofort trifft, muss er den Gegenschuss von Weiß überleben, bevor er vor der gleichen Situation steht wie zu Beginn. Daher gilt für seine Gewinnwahrscheinlichkeit P(p,q): P(p,q) = p + (1-p)*(1-q)*P(p,q) <=> (1-(1-p-q+p*q))*P(p,q) = p <=> P(p,q) = p/(p+q-p*q). Die gleiche Verteilung nimmt man in Situationen, in denen der erste Erfolg unabhängig von den vorherigen Ausgängen ist. Zum Beispiel ist es völlig unbestimmt, ob ein instabiler Atomkern in der 1., 2., ... oder 1000. Minute nach Beginn einer Messung zerfällt. Da er nur einmal zerfallen kann und seine Zerfallswahrscheinlichkeit p pro Minute positiv ist, ist die Wahrscheinlichkeit, dass der Kern nach k Minuten zerfallen ist: sum((1-p)^(j-1)*p,j=1,k) =p*sum((1-p)^j,j=0,k-1) =p*(1-(1-p)^k)/(1-(1-p)) =1-(1-p)^k. Da die Anzahl N der Kerne so groß ist, dass wesentliche Abweichungen von dem Erwartungswert N*(1-p)^k der nach k Minuten noch nicht zerfallenen Kerne nicht zu erwarten sind, erklärt die geometrische Verteilung das Verhalten radioaktiver Substanzen, mit einer konstanten Halbwertszeit zu zerfallen. Poisson-Verteilung Es werden M Bernoulli-Experimente durchgeführt; die Wahrscheinlichkeit für einen günstigen Ausgang ist 1-1/N. Man denke an das Verteilen von M Geschenken unter N Partygästen; das \nue\-te Experiment verläuft günstig für mich, wenn ich das \nue\-te Geschenk erhalte. Nun wird angenommen, dass die Anzahl der Geschenke und der Gäste beliebig groß werden können, wobei aber das Verhältnis M/N ~= a konstant bleibt. Wie groß ist dann die Wahrscheinlichkeit für mich, genau k Geschenke zu erhalten? Im Grenzfall großer Stichprobenanzahlen bei kleiner, unveränderlicher Ereigniswahrscheinlichkeit kann es ratsam sein, in der Binomialverteilung p(X=k) = (M;k)*(1/N)^k*(1-1/N)^(M-k) $ $ $ $ $= (1-1/N)^M*M!/(k!*(M-k)!)*(1/(N-1))^k 1/(N-1) durch 1/N nach unten, (1-1/N)^M ~= (1-1/N)^(a*N) durch exp(-a) und M!/(M-k)! gegen M^k nach oben abzuschätzen: $ $ $ $ $~=(1-1/N)^(a*N)*(M/N)^k/k! $ $ $ $ $~=exp(-a)*a^k/k! Diese Verteilung approximiert die (eigentlich bessere) Binomialverteilung für kleine Ereigniswahrscheinlichkeiten und große Wiederholungszahlen, ist aber wesentlich einfacher zu handhaben.
6. Faltungen Gegeben seien zwei unabhängige Zufallsvariable X und Y, die beide den gleichen Bildbereich \IN haben. Mit welcher Verteilung wird dann die Zufallsvariable X+Y beschrieben? Dieses sehr häufig auftretende Problem kann folgendermaßen angegangen werden: Die Zufallsvariable X+Y nimmt den Wert k an, wenn X den Wert s annimmt und zugleich Y den Wert k-s. Aufgrund der Unabhängigkeit können die einzelnen Wahrscheinlichkeiten wieder multipliziert werden, und über die möglichen Werte von s ist zu summieren: p(X+Y=k) = sum(p(X=s)*p(Y=k-s),s=0,k) Für diese Verteilungsfunktion hat sich der Name "Faltung" \(engl. convolution\) eingebürgert, denn während der Summationsindex s in X aufwärts läuft, läuft er in Y abwärts. Wenn f(x)=p(X=x) und g(x)=p(Y=x), dann bezeichnet man die Faltung von X und Y auch als Faltung von f und g, Schreibweise f \* g. Diese wird als kommutative und assoziative Verknüpfung auf der Menge der Verteilungsfunktionen verstanden. Man kann z.B. zeigen, dass ° die Faltung zweier binomialverteilter Zufallsvariablen X=B(N,p) und Y=B(M,p) wieder binomialverteilt ist mit X+Y=B(N+M,p), ° die Faltung zweier Poisson-verteilter Zufallsvariablen mit Parametern \lambda_1 und \lambda_2 wieder Poisson\-verteilt ist mit Parameter \lambda_1+\lambda_2. Ersetzt man die Summation im stetigen Fall durch die Integration, lässt sich das Konzept der Faltung auf unabhängige stetige Verteilungen erweitern.
7. Grundsätzliches zu stetigen Verteilungen Bisher haben wir uns nur mit diskreten Wahrscheinlichkeitsräumen befasst, d.h. mit höchstens abzählbar vielen Elementarereignissen. Für viele Situationen der Anwendung reicht dies aber nicht aus; etwa wenn die Körpergröße (oder auch die Intelligenz) von Menschen beschrieben werden sollen, die Werte auf einer kontinuierlichen Skala annehmen. Bevor wir uns aber mit den stetigen Wahrscheinlichkeitsräumen beschäftigen, möchte ich verraten, weshalb wir von Anfang an von einem "System \Sigma von Teilmengen aus \Omega\" gesprochen haben. Man hätte nämlich auf diskreten Wahrscheinlichkeits\- räumen ohne Problem auch \calP(\Omega) dafür nehmen können. Das geht nun nicht mehr und hat mit der Erscheinung zu tun, dass nicht mehr jeder Teilmenge eines stetigen Wahrscheinlichkeitsraumes eine Wahrscheinlichkeit zugeordnet werden kann, denn eine Wahr- scheinlichkeit ist ein spezielles Maß, und es gibt - wie man z.B. in meinem Artikel Das Kugelwunder nachlesen kann - nicht-messbare Mengen. Daher ist die Maßfunktion nur auf \Sigma \subset \calP(\Omega) definiert, die die Eigenschaften einer \sigma\- vec(Algebra) hat. Für unsere Zwecke ist es sinnvoll, nicht allzu weit auf die Probleme des Messens einzugehen, sondern zu sagen, dass das System der von allen offenen Intervallen erzeugten Mengen eine \sigma\-Algebra, die vec(Borel)\-Algebra, ist und dass jedem Intervall seine Breite als Maß zugeordnet wird. Die Idee hinter dem Lebesgue\-Integral ist die, die Klasse der integrierbaren nichtnegativen und beschränkten Funktionen auf einer messbaren Menge X gegenüber der der Riemann\- integrierbaren Funktionen f: X -> [0,a], a \el \IR^(+), wesentlich zu erweitern, indem man den Urbildmengen f^(-1)(W_(n,i)) \subset X des Funktionswertebereiches, W_(n,i) := intervallog(a*i/2^n , a*(i+1)/2^n) <=> $ $ [0,a] = {0} \union union(W_(n,i),i=0,2^n-1) ihr Borelmaß \(genauer: Lebesgue\-Maß, das darüberhinaus Teilmengen von Borelschen Nullmengen das Maß Null zuordnet und sie Lebesgue\-Nullmengen nennt\) zuordnet und das Integral als int(f(x),\mue(x),X,) := lim(n->\inf,sum(a*(i+1)/2^n*\mue(f^(-1)(W_(n,i))),i=0,2^n-1)) definiert. So ist zum Beispiel die "pathologische" Funktion 1_\IQ :[0,1] -> {0,1}, 1_\IQ (x) = \fdef(1, x \el \IQ \cut [0\,1] ; 0, x \el (\IR \cut [0,1])\\ \IQ) , die an keiner Stelle stetig ist, im Sinne des Lebesgue\-Integrals integrierbar, denn die rationalen Zahlen sind eine abzählbare Vereinigung einelementiger Mengen, die alle das Lebesgue\-Maß Null haben. Also "wiegt" \IQ nichts, und es ist int(1_\IQ (x),\mue(x),0,1)=0. Über Verteilungsfunktionen und Dichten Im Sinne der Lebesgue-Messbarkeit macht es bei stetigen Verteilungen keinen Sinn, den einzelnen Werten k der Zufallsvariable X Wahrscheinlichkeiten p(X = k) > w > 0 zuzuweisen - denn da bereits jedes endlich breite Intervall I abzählbar viele rationale Werte enthält, müsste p(X \el I) >= sum(p(X=q),q \el I \cut \IQ,) > \inf*w = \inf gelten, also oberhalb jeder Schranke liegen. Endlich große Wahrscheinlichkeiten machen daher nur für endlich breite Intervalle Sinn. 1 1 Man kann eine Verteilungsfunktion auf einem kontinuierlichen Raum X folgendermaßen konstruieren: jeder Teilmenge A von X wird 1 zugewiesen, falls sie ein festes k enthält; anderenfalls 0. Dieses ist die Dirac- oder Einpunktverteilung. Aus endlich vielen Einpunkt- verteilungen auf X kann man durch Übergang zum (ggf. gewichteten) arithmetischen Mittel Verteilungen auf X konstruieren, die die gleichen Ergebnisse liefern wie ein (gewichtetes) Zählmaß auf den ki. Diese Verteilungen sind nicht stetig, und es sind die einzigen, die einzelnen Elementen von X endlich große Wahrscheinlichkeiten zuordnen. Also definiert man die vec(Verteilungsfunktion) einer stetigen Zufallsvariablen X : \Omega -> \IR wie folgt: F(x) := p(X <= x) = p(X < x). Dann gilt lim(x->-\inf,F(x))=0 $ und $ lim(x->\inf,F(x))=1. Ferner gilt p(X \el ]a,b[) = p(X \el ]a,b]) = p(X \el [a,b[) = p(X \el [a,b]) = p(X < b) - p(X < a) = F(b) - F(a). Dies erinnert an die Praxis, Integrale über einem Intervall mittels einer Stammfunktion auszuwerten. Doch wovon ist F eine Stammfunktion? F' =: f nennt man die vec(Dichte) der Verteilungsfunktion F. Der Umgang mit Dichten in der Wahrscheinlichkeitstheorie macht nur Sinn, wenn sie "hinter Integralzeichen stehen"; der Wert f(x) an einer Stelle x hat dagegen keine Bedeutung. Im folgenden werden wir uns um eine außerordentlich bekannte stetige Verteilungsfunktion kümmern, die enorme praktische Bedeutung hat: die Gaußsche Normalverteilung.
8. Gaußsche Verteilung und Zentraler Grenzwertsatz Es sei \mue \el \IR und \sigma \el \IR_(\*)^(+), dann ist durch \Phi_(\mue,\sigma)(x):=1/(sqrt(2*\pi)*\sigma)*int(exp(-(w-\mue)^2/(2*\sigma^2)),w,-\inf,x) eine stetige Verteilungsfunktion gegeben, denn es gilt int(exp(-t^2),t,-\inf,\inf)=\sqrt(\pi), woraus durch Substitution t -> (w-\mue)/(sqrt(2)*\sigma), $ dw -> sqrt(2)*\sigma*dt die Eigenschaft \Phi_(\mue,\sigma)(\inf) = 1 folgt. Die Dichte dieser Verteilungsfunktion ("Gaußsche Glockenkurve") zierte im Übrigen auch den Carl Friedrich Gauß (1777-1855) gewidmeten 10,- DM-Schein, bevor dieses schöne Geld 2002 dem Euro weichen musste: Bild Die Gaußsche Verteilung \Phi_(\mue,\sigma) ist durch die Angabe von \mue und \sigma bereits völlig determiniert; indem man \mue=0 (Zentrierung) und \sigma=1 (Normierung) setzt, gewinnt man die vec(Gaußsche Normalverteilung). Für diese Verteilung gilt ein außerordentlich bemerkenswerter Satz, der sie sozusagen zur Brot-und-Butter-Verteilung jedes Statistikers macht. Zentraler Grenzwertsatz: Seien X_1 ,..., X_n unabhängige Zufallsvariable mit gleichem Mittelwert \mue = 0 und gleicher Varianz \sigma^2 = 1. Dann gilt lim(n->\inf,p((X_1+...+X_n)/sqrt(n) <= x)) = \Phi_(0,1)(x) =: \Phi(x). Mit anderen Worten: Ganz unabhängig davon, wie die einzelnen Verteilungsfunktionen nun aussehen, die Parameter \mue = 0 und \sigma = 1 sichern bereits, dass ihre normierte n\-fache Faltung sich mit zunehmendem n immer mehr der Gaußschen Normalverteilung annähert. Einen Beweis hierfür möchte ich im Rahmen dieses sowieso schon umfangreichen Artikels nicht geben; eine Skizze könnte so aussehen: Sei \calK eine genügend große Klasse von zentrierten Verteilungsfunktionen auf \IR und N die Abbildung, die jeder zentrierten Verteilungsfunktion \phi(x) mit Varianz \sigma^2 < \inf die zentrierte und normierte Verteilungsfunktion \phi(\sigma*x) zuordnet. Man definiert die Abbildungen F: \calK \cross \calK -> \calK; $ F(\chi,\phi):= \chi \* \phi . Dann zeigt man, dass diese Abbildung F im Sinne irgend einer Metrik d auf \calK die Eigenschaft d(N ° F(\chi,\phi),\Phi) <= min(d(\chi, \Phi),d(\phi,\Phi)) besitzt,so dass F(\chi,.), als einstellige Funktion auf \calK aufgefasst, für jedes \chi \el \calK kontrahierend ist und nach dem Banachschen Fixpunktsatz einem eindeutig bestimmten Fixpunkt zustrebt. Da für diesen Fixpunkt nur \Phi in Frage kommt, folgt, dass für jede Folge {\phi_i \| i \el \IN} in \calK die Iteration T_0 = \phi_0; T_(n+1) := F(\phi_n , T_n ); S_(n+1) := N ° T_(n+1) gegen \Phi konvergiert. Der Satz ist damit für \calK gezeigt, und da \calK genügend groß, z.B. dicht im Raum \calV aller zentrierten und normierten Verteilungsfunktionen liegt, und F stetig auf \calV \cross \calV ist, gilt der Satz tatsächlich für alle zentrierten und normierten Verteilungsfunktionen. \(Beweisskizze ohne Gewähr\) Daher kann man Probleme der folgenden Art ganz bequem durch Verwendung der Gaußschen Verteilung mit passenden Parametern \mue, \sigma lösen: "Ein Flugzeug hat 300 Sitzplätze. Die Erfahrung zeigt, dass 5% aller Passagiere, die einen Flug gebucht haben, diesen nicht antreten. Wieviele Flugtickets darf die Airline maximal für einen Flug verkaufen, damit eine Überbelegung des Fluges zu 99% ausgeschlossen bleibt?" Die Behandlung des Problems mit der Binomialverteilung würde wegen der großen Zahlen sehr aufwändig. Statt dessen bestimmt man die Wahrscheinlichkeit der Überbelegung zu p("Flug mit N Buchungen ist überbelegt") =sum((N;k)*(0,95)^k*(0,05)^(N-k),k=301,N) und fordert sum((N;k)*(0,95)^k*(0,05)^(N-k),k=301,N) < 0,01. Jetzt geht man zur Gaußverteilung mit den gleichen Parametern wie der Binomialverteilung, also \mue = 0,95*N und \sigma = sqrt(0,95*0,05*N) über. Die gaußverteilte Zufallsvariable "Anzahl der belegten Plätze" darf nur in 1% aller Fälle größer als 300 werden: 1/(sqrt(2*\pi)*\sigma)*int(exp(-(x-\mue)^2/(2*\sigma^2)),x,300,\inf) < 0,01, dies ist äquivalent zu 1/sqrt(2*\pi)*int(exp(-t^2/2),t,-\inf,(300-\mue)/\sigma) > 0,99 \(Substitution t -> (x-\mue)/\sigma, $ dx -> \sigma dt, Ausnutzen von p(X < \inf) = 1\). \Phi(x)=1/sqrt(2*\pi)*int(exp(-t^2/2),t,-\inf,x) ist sehr gut tabelliert; zur Not findet man Tabellenwerte in jeder besseren Formelsammlung. Dort liest man den ersten Wert größer 0,99 für x ~= 2,33 ab, woraus man die Ungleichung (300-\mue)/\sigma > 2,33 folgert. Einsetzen der Parameter \mue = 0,95*N und \sigma = sqrt(0,95*0,05*N): 300-0,95*N > 2,33*sqrt(0,95*0,05*N) $\| n := sqrt(N) <=>$ 300-0,95*n^2 > 0,507811...*n <=>$ 300 > 0,95*n^2 + 0,507811...*n <=>$ 315,78947... > n^2 + 0,534537...*n $ $ $ $ $ $ $ $=(n+0,267268...)^2-0,07143... <=>$ 315,8609... > (n+0,267268...)^2 <=>$ +-17,772475... > n + 0,267268... $ \| sinnvolles Ergebnis wählen <=>$ 17,505207... > n $ $ $ $ $ $ $ $ $ $ \| n^2 = N <=>$ 306,43227... > N Also darf die Airline maximal 306 Karten verkaufen, damit eine Überbelegung des Flugzeugs zu 99% ausgeschlossen bleibt. Bild So, das war's erstmal. Ich hoffe, ich habe mit diesem Artikel einen kurzen Überblick über die Stochastik, ihre Ideen, Schwierigkeiten und Anwendungen geben können. Natürlich kann man hiervon keine Wunder erwarten, der Artikel erhebt auch keinen Anspruch auf Vollständigkeit, sofortige Verständlichkeit oder gar Übungsscheingarantie. Vielleicht hat ja jemand das Bedürfnis, das eine oder andere Kapitel hier zu ergänzen, denn Interessantes gibt es in der Stochastik noch vieles.
\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Mathematik :: Wahrscheinlichkeitsrechnung :: Schüler aufwärts :: Bernoulli-Experiment :: Gaußsche Verteilung :: Zentraler Grenzwertsatz :: Stochastik :
Einführung in die Stochastik [von shadowking]  
Ich hoffe, ich habe mir mit diesem Projekt nicht zu viel vorgenommen. Aufgrund des starken Interesses an den Grundlagen der Wahrscheinlichkeitsrechnung und einem gewissen Mangel an Material hier auf dem Planeten ...
1. Ereignisräume und Gleichwahrscheinlichkeit
2. Bayessche Formel, Totale Wahrscheinlichkeit, Unabhängigkeit
3. Bernoulli-Experimente und Binomialverteilung
4. Zufallsvariable, Erwartungswert und Varianz
5. Andere diskrete Verteilungen:
a) hypergeometrische Verteilung
b) geometrische Verteilung
c) Poisson-Verteilung
6. Faltungen
7. Grundsätzliches zu stetigen Verteilungen
8. Gaußsche Verteilung und Zentraler Grenzwertsatz
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 32832
 
Aufrufstatistik des Artikels
Insgesamt 3115 externe Seitenaufrufe zwischen 2012.01 und 2021.11 [Anzeigen]
DomainAnzahlProz
https://www.bing.com80.3%0.3 %
https://google.com280.9%0.9 %
https://matheplanet.com50.2%0.2 %
https://www.ecosia.org20.1%0.1 %
http://google.de213768.6%68.6 %
http://google.lu2508%8 %
http://google.nl1183.8%3.8 %
http://google.hu1163.7%3.7 %
http://www.uni-protokolle.de1093.5%3.5 %
http://google.gr862.8%2.8 %
https://google.de571.8%1.8 %
http://google.it280.9%0.9 %
http://google.es180.6%0.6 %
http://google.pt160.5%0.5 %
http://images.google.de120.4%0.4 %
http://www.facebook.com120.4%0.4 %
http://google.at50.2%0.2 %
http://m.facebook.com60.2%0.2 %
http://google.ch40.1%0.1 %
https://unistuttgart.webex.com30.1%0.1 %
http://www.searchmobileonline.com20.1%0.1 %
http://de.search.yahoo.com80.3%0.3 %
http://www.bing.com290.9%0.9 %
http://r.duckduckgo.com20.1%0.1 %
http://bl156w.blu156.mail.live.com20.1%0.1 %
https://getpocket.com20.1%0.1 %
http://suche.web.de30.1%0.1 %
http://images.search.conduit.com10%0 %
http://de.images.search.yahoo.com50.2%0.2 %
http://suche.t-online.de50.2%0.2 %
http://ecosia.org40.1%0.1 %
http://www.delta-search.com10%0 %
http://ch.search.yahoo.com10%0 %
http://www.ecosia.org20.1%0.1 %
http://it.bing.com10%0 %
http://suche.aol.de10%0 %
https://duckduckgo.com10%0 %
http://google.com40.1%0.1 %
http://search.sweetim.com10%0 %
https://www.qwant.com10%0 %
http://search.babylon.com10%0 %
http://m.bing.com10%0 %
http://de.search-results.com30.1%0.1 %
http://www.buenosearch.com10%0 %
http://yandex.ru10%0 %
http://suche.gmx.net10%0 %
http://it.search.yahoo.com10%0 %
http://www1.delta-search.com10%0 %
http://de.yhs4.search.yahoo.com20.1%0.1 %
http://www.gutefrage.net10%0 %
https://nortonsafe.search.ask.com10%0 %
http://de.ask.com10%0 %
https://www.startpage.com10%0 %
http://www.ask.com10%0 %
http://images.google.at10%0 %
http://searchfunmoods.com10%0 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 8 Aufrufe in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2021.11.11-2021.11.30 (4x)https://www.bing.com/
2021.11.03-2021.11.29 (4x)https://google.com/

Häufige Aufrufer in früheren Monaten
Insgesamt 2986 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2013-2017 (275x)http://google.de/url?sa=t&rct=j&q=
201205-05 (244x)http://google.de/url?sa=t&rct=j&q=zu dumm für stochastik
201206-06 (158x)http://google.lu/url?sa=t&rct=j&q=faltung stochastik
201202-02 (156x)http://google.de/url?sa=t&rct=j&q=verteilen formel von sylvester google book...
201211-11 (150x)http://google.de/url?sa=t&rct=j&q=stochastik satz sylvester
201201-01 (144x)http://google.de/url?sa=t&rct=j&q=zeige: gleichverteilung ist nicht faltung...
201204-04 (143x)http://google.de/url?sa=t&rct=j&q=wahrscheinlichkeitstheorie beweis einschlus...
2013-2017 (133x)http://google.de/url?sa=t&rct=j&q=google books stochastik für dummies
201210-10 (118x)http://google.nl/imgres?q=10 dm schein
201203-03 (116x)http://google.hu/url?sa=t&rct=j&q=stochastik für dummies
201301-01 (112x)http://google.de/url?sa=t&rct=j&q=wahrscheinlichkeitsraum matheplanet
201212-12 (110x)http://google.de/url?sa=t&rct=j&q=zu blöd für stochastik
2012-2019 (109x)http://www.uni-protokolle.de/foren/viewt/156127,0.html
201209-09 (101x)http://google.de/url?sa=t&rct=j&q=stochastik für dummies online
201208-08 (98x)http://google.de/url?sa=t&rct=j&q=wahrscheinlichkeitsräume für dummies
201207-07 (92x)http://google.lu/imgres?q=stochastisch unabhängig
201305-05 (86x)http://google.gr/url?sa=i&rct=j&q=
201304-07 (78x)http://google.de/url?sa=t&rct=j&q=stochastik für dumme
201302-02 (72x)http://google.de/url?sa=t&rct=j&q=x und y seien zufallsvariablen auf einem di...
201401-01 (71x)http://google.de/url?sa=t&rct=j&q=satz von sylvester stochastik wann anwenden
201306-06 (54x)http://google.de/url?sa=t&rct=j&q=stochastische unabhängigkeit zweier funk...
201303-03 (53x)http://google.de/url?sa=t&rct=j&q=wahrscheinlichkeitsraum von bertrands sehne...
201309-09 (43x)http://google.de/url?sa=t&rct=j&q=matroids zufallsprozess
201308-08 (35x)http://google.de/url?sa=t&rct=j&q=stochastik fromelsammlung für dumme
2020-2021 (33x)https://google.de/
201410-10 (28x)http://google.it/url?sa=i&rct=j&q=
2020-2021 (24x)https://google.de
2020-2021 (23x)https://google.com/
201504-04 (20x)http://google.de/url?sa=t&rct=j&q=hypergeometrische verteilung wahrscheinlich...
201405-05 (18x)http://google.es/url?sa=i&rct=j&q=
201501-01 (16x)http://google.pt/url?sa=i&rct=j&q=
201412-12 (15x)http://google.de/url?sa=t&source=web&cd=6&ved=0CCoQFjAF
201406-06 (13x)http://google.de/url?sa=t&rct=j&q=zeigen sie, dass für zwei unabhängige...
2012-2017 (11x)http://images.google.de/url?sa=t&rct=j&q=
2012-2013 (9x)http://www.facebook.com/
201705-12 (7x)http://google.de/url?sa=i&rct=j&q=
2015-2018 (5x)http://google.de/search?q=Stochastik mittelwert bei uswahl ohne Zurücklege...
201507-07 (5x)http://google.de/url?sa=t&source=web&cd=10&ved=0CDUQFjAJ
2016-2017 (4x)http://google.at/search?q=stochastische Grösse Wahrscheinlichkeitsraum zei...
201501-01 (4x)http://m.facebook.com/

[Top of page]

"Mathematik: Einführung in die Stochastik" | 7 Comments
The authors of the comments are responsible for the content.

Re: Einführung in die Stochastik
von: bodzcount am: Sa. 21. Mai 2005 17:03:45
\(\begingroup\)Hi Norbert, dieser Artikel ist genau das Richtige für mich. Ich freue mich schon darauf ihn mal in einer ruhigen Minute zu lesen. Gruß Benjamin\(\endgroup\)
 

Re: Einführung in die Stochastik
von: matroid am: So. 22. Mai 2005 00:23:53
\(\begingroup\)Hallo shadowking, als ich zuerst nur den Titel gelesen hatte, dachte ich: 'Das ist eine sehr gute Idee, dieses Thema hat hier immer gefehlt.' Und genau das schreibst Du selbst: "... und einem gewissen Mangel an Material hier ..." Ich danke Dir, daß Du diese Lücke schließt. Ich finde Deine Artikel immer brillant. Gruß Matroid\(\endgroup\)
 

Re: Einführung in die Stochastik
von: Gockel am: So. 22. Mai 2005 16:51:43
\(\begingroup\)@chef: Glaub mir: Norbert und du seid nicht die einzigen, denen das aufgefallen ist. Petra und ich haben genau dieselbe Idee gehabt... mfg Gockel.\(\endgroup\)
 

Re: Einführung in die Stochastik
von: Juergen am: Mo. 23. Mai 2005 11:10:22
\(\begingroup\)Hallo Norbert, ein schöner Artikel. Aber an einem Punkt muss ich "rummeckern": Im Abschnitt über die Faltung schreibst du, dass \ die Faltung zweier geometrisch verteilter Zufallsvariablen mit Parametern \nue_1 und \nue_2 wieder geometrisch verteilt ist mit Parameter \nue_1+\nue_2 ist Das ist verkehrt. Eh ich jetzt die Faltungsformel (seitenlang) umrechne, versuch ich es mit einem anderen Weg. \ Nach deinen Formeln ist die "Einzelwahrscheinlichkeit" einer mit Parameter p geometrisch verteilten Zufallsgröße X P(X=k)=p*(1-p)^(k-1) für k \el \IN Das schreib ich nur noch mal mit hin, weil in der Lit. verschiedenene Arten der Def. der geometrischen Verteilung vorkommen, die dann auch auf andere Erwartungswerte führen. Mit dieser Def. ist der Erwartungswert von X dann gerade der Kehrwert des Parameters: E(X)=1/p Sei Y eine weitere mit Parameter r geometrisch verteilte Zufallsgröße Y, so gilt E(Y)=1/r. Weiter sagst du X+Y ist dann geometrisch verteilt mit Parameter p+r. Dann ergibt sich E(X+Y)=1/(p+r)!=1/p+1/r=E(X)+E(Y) im Widerspruch zur Additivität des Erwartungswertes. Somit ist die geometrische Verteilung nicht "faltungsstabil". Gruß Jürgen EDIT: Die erwähnte Passage ist jetzt gestrichen. Danke.\(\endgroup\)
 

Re: Einführung in die Stochastik
von: Hans-im-Pech am: Do. 02. Juni 2005 18:12:51
\(\begingroup\)Hallo shadowking, mit Deinem sehr interessanten Artikel konntest Du scheinbar ein Loch auf dem Planeten und etliche Wissenslücken bei mir beheben! Vielen Dank dafür und viele Grüße, HiP PS: Als Ergänzung zu Punkt (5) ist vielleicht auch der eine Woche später verfasste Artikel der Kleinen Meerjungfrau interessant. article.php?sid=817&mode=nested&order=0\(\endgroup\)
 

Re: Einführung in die Stochastik
von: Ex_Mitglied_40174 am: Mo. 22. Januar 2007 05:39:10
\(\begingroup\)Ich find das schön das sich jemand die ganze Mühe gemacht hat. Trotz dessen das es sehr nerven aufreibend sein kann so etwas zusammen zu stellen oder gar erstmal austellen. Also allen ich zieh den Hut. Natürlich hab ich mich sehr gefreut dazu so eine schöne Seite im I-net zu finden, weil wir den ganzen Kram im Unerricht durch nehemn und ich dort kein Wort verstehe...^^ naja genug des Geschwafels...ich find diese Einführung richtig gut gelungen und möchte mich bei dem/den verfassern der Seite sehr bedanken...\(\endgroup\)
 

Re: Einführung in die Stochastik
von: Ex_Mitglied_40174 am: Fr. 01. Februar 2013 14:13:26
\(\begingroup\)Hi, guter Artikel, aber ich glaube, da ist noch ein Fehler drin: Bei der Berechnung von Erwartungswert und Varianz müssen die Summen, m.E. bei 0 beginnen. Danke und Gruß \(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]