Partner von azubiworld.com - Logo
 
Mathematik online lernen im Mathe-Forum. Nachhilfe online
Startseite » Forum » Approximationen in der Stochstaik, wann sinnvoll?

Approximationen in der Stochstaik, wann sinnvoll?

Universität / Fachhochschule

Verteilungsfunktionen

Tags: Verteilungsfunktion

 
Antworten Neue Frage stellen Im Forum suchen
Neue Frage
Ilja52

Ilja52 aktiv_icon

20:03 Uhr, 11.01.2021

Antworten
Hallo, ich habe eine Frage zur Approximation von Verteilungen. Warum sollte man z.B die Binomialverteilung durch die Normalverteilung approximieren? Ich verstehe wie man die Approximation anwendet und welche Bedingungen erfüllt werden müssen, jedoch frage ich mich warum man dies tun sollte und was hat der "Zentrale Grenzwertsatz" damit zu tun?
Ich weiß z.B, dass ich bei der Aufgabe 7.3 (Bild) approximieren muss, jedoch frage ich mich warum und welche Verteilung wäre dafür am besten geeignet?

Screenshot 2021-01-11 200142

Für alle, die mir helfen möchten (automatisch von OnlineMathe generiert):
"Ich bräuchte bitte einen kompletten Lösungsweg." (setzt voraus, dass der Fragesteller alle seine Lösungsversuche zur Frage hinzufügt und sich aktiv an der Problemlösung beteiligt.)
Antwort
HAL9000

HAL9000 aktiv_icon

10:06 Uhr, 14.01.2021

Antworten
> jedoch frage ich mich warum man dies tun sollte und was hat der "Zentrale Grenzwertsatz" damit zu tun?

Die Binomialverteilung B(n,p) kann man sich vorstellen als Summe von n unabhängig identisch verteilten B(1,p)-verteilten Zufallsgrößen (Bernoulli-Verteilung) X1,,Xn, d.h. jeweils mit P(Xi=0)=1-p und P(Xi=1)=p. Für solche Summen Sn=X1++Xn von unabhängig identisch verteilten Zufallsgrößen Xi mit existenter Varianz greift nun mal der Zentrale Grenzwertsatz (ZGWS).


Warum man dies tun sollte? Ich nenne mal zwei Gründe (Beispiele), es gibt sicher mehr:


1) Einige der Gründe haben sich tatsächlich mit der heute breit verfügbaren Rechentechnik teilweise erledigt: Rechne mal eine Binomialwahrscheinlichkeit

P(Xnm)=k=0m(nk)pk(1-p)n-k(*)

z.B. für n=1000,p=0.2 und m=210 "von Hand" aus, d.h., Blatt Papier und Bleistift und Rechenstab. Ok, als Zugeständnis vielleicht einen einfachen Taschenrechner (ohne Statistikfunktionen) - ist dennoch eine ziemliche Zumutung. Die Näherung dieser Wahrscheinlichkeit via

P(Xnm)Φ(m+0.5-npnp(1-p))

ist hingegen noch recht gut zu Fuß zu bewältigen, natürlich unter Hinzunahme einer Tabelle für die Standardnormalverteilungsfunktion Φ.

D.h., heutzutage kann man tatsächlich vieles direkt mit der Binomialverteilung berechnen, was noch vor Jahrzehnten am katastrophal aufwändigen Rechenaufwand gescheitert ist. Das betrifft dann auch damit im Zusammenhang stehende Rechnungen zum Binomialtest bzw. Konfidenzintervall der Binomialwahrscheinlichkeit, welche man "modern" dann wirklich tatsächlich direkt mit der Binomialverteilung durchführt, während man früher notgedrungen eher auf die Normalverteilungsapproximation gesetzt hat.

Das heißt allerdings nicht, dass für diese Art von Rechnungen sich die Approximation mittlerweile vollkommen erledigt hat - es haben sich nur die Grenzen verschoben: Wenn z.B. n>1012 ist (etwa durch Betrachtung irgendwelcher Mikroteilchen oder gar Moleküle), dann wírd man selbst mit heutiger Rechentechnik ungern solche Summen wie (*) ausrechnen wollen. Zumal die Approximation per ZGWS umso genauer wird, je größer n ist.


2) Beweistechnisch hat es oft Vorteile, mit der Approximation zu arbeiten. Da der ZGWS allein aber keine "echte" Kleiner- oder Größer-Abschätzung bietet, geschieht dies oft in Kombination weiter gehender Aussagen zur Güte dieser Approximation, z.B. der Berry-Esseen-Ungleichung

de.wikipedia.org/wiki/Satz_von_Berry-Esseen


P.S: Deine Aufgabe hier zählt übrigens zu 1), d.h., kann heute mit entsprechend verfügbarer Technik (z.B. TR mit Binomialverteilungsfunktionen) auch direkt mit Binomialverteilung gerechnet werden. Wenn die Musterlösung sagt, dass man das mit Normalverteilung rechnen "muss", dann sind die Autoren dieser Musterlösung nicht ganz auf der Höhe der Zeit...