Chebyshovs Theorem, woraus es besteht, Anwendungen und Beispiele
Die Chebyshovs Theorem (oder Chebyshovs Ungleichheit) ist eines der wichtigsten klassischen Ergebnisse der Wahrscheinlichkeitstheorie. Es erlaubt uns, die Wahrscheinlichkeit eines Ereignisses in Form einer Zufallsvariablen X zu schätzen, indem wir uns eine Dimension liefern, die nicht von der Verteilung der Zufallsvariablen, sondern von der Varianz von X abhängt.
Der Satz ist nach dem russischen Mathematiker Chebyshev Pafnuty (auch geschrieben als Tschebyscheff oder Tchebycheff) benannt, der, obwohl er nicht die ersten zu sein, diesen Satz auszusprechen, war der Erste, der eine Demonstration im Jahr 1867 geben.
Diese Ungleichheit oder Eigenschaften sind solche, deren Chebyshev Ungleichheit genannt wird hauptsächlich durch die Berechnung Dimensionen approximate Wahrscheinlichkeit verwendet.
Index
- 1 Was ist das?
- 2 Anwendungen und Beispiele
- 2.1 Grenzen von Wahrscheinlichkeiten
- 2.2 Demonstration der Grenzwertsätze
- 2.3 Stichprobenumfang
- 3 Ungleichheiten geben Tschebyschow an
- 4 Referenzen
Was ist das?
In der Studie der Wahrscheinlichkeitstheorie tritt auf, wenn die Verteilungsfunktion einer Zufallsvariablen X bekannt ist, können Sie Ihren Erwartungswert berechnen können, oder mathematische Erwartung E (X) - und die Varianz Var (X), vorausgesetzt, dass diese Beträge existieren. Das Gegenseitige ist jedoch nicht unbedingt wahr.
Das heißt, zu wissen, E (X) und Var (X) nicht notwendigerweise die Verteilungsfunktion von X erhalten, also Mengen P (| X |> k) für ein k> 0, sind sehr schwer zu bekommen. Aber dank Chebyshovs Ungleichung ist es möglich, die Wahrscheinlichkeit der Zufallsvariablen zu schätzen.
Tschebyscheffsche Satz sagt uns, dass wenn wir eine Zufallsvariable X auf einem Probenraum S mit einer Wahrscheinlichkeitsfunktion p, und wenn k> 0, dann gilt:
Anwendungen und Beispiele
Unter den vielen Anwendungen, die Chebyshovs Theorem besitzt, kann folgendes erwähnt werden:
Ausdünnung von Wahrscheinlichkeiten
Dies ist die häufigste Anwendung und verwendet wird, eine Obergrenze für P erhalten wird (| XE (X) | ≥ k), wobei k> 0, nur die Varianz und die Erwartung der Zufallsvariablen X, ohne dass die Wahrscheinlichkeitsfunktion zu kennen .
Beispiel 1
Angenommen, die Anzahl der Produkte, die in einer Firma pro Woche hergestellt werden, ist eine Zufallsvariable mit einem Durchschnittswert von 50.
Wenn bekannt ist, dass die Varianz einer Produktionswoche gleich 25 ist, dann was kann sagen, dass wir über die Wahrscheinlichkeit, dass in dieser Woche die Produktion um mehr als 10 an die Medien unterscheidet?
Lösung
Wir müssen die Ungleichheit von Chebyshov anwenden:
Daraus kann man ableiten, dass die Wahrscheinlichkeit, dass in der Produktionswoche die Anzahl der Artikel um mehr als 10 übersteigt, höchstens 1/4 beträgt.
Demonstration der Grenzwertsätze
Die Ungleichheit von Tschebyschow spielt eine wichtige Rolle bei der Demonstration der wichtigsten Grenzwertsätze. Als Beispiel haben wir folgendes:
Schwaches Gesetz der großen Zahlen
Dieses Gesetz besagt, dass eine gegebene Sequenz X1, X2, ..., Xn, ... von unabhängigen Zufallsvariablen mit derselben durchschnittlichen Verteilung E (xi) = μ und die Varianz Var (X) = σ2und eine bekannte durchschnittliche Stichprobe von:
Dann müssen Sie für k> 0:
Oder, gleichwertig:
Demonstration
Zuerst bemerken wir folgendes:
Da X1, X2, ..., Xn unabhängig sind, folgt daraus:
Daher ist es möglich, Folgendes zu bestätigen:
Dann müssen wir mit Chebyshovs Theorem:
Schließlich ergibt sich das Theorem aus der Tatsache, dass die Grenze nach rechts Null ist, wenn n gegen unendlich geht.
Es sollte angemerkt werden, dass dieser Test nur für den Fall durchgeführt wurde, in dem die Varianz von Xi existiert; das heißt, es divergiert nicht. Wir beobachten also, dass der Satz immer wahr ist, wenn E (Xi) existiert.
Chebyshovs Grenzwertsatz
Wenn X1, X2, ..., Xn, ... ist eine Folge von unabhängigen Zufallsvariablen, so dass es eine C <Unendlichkeit, so dass Var (Xn) ≤ C für alle natürlichen n, dann für jedes k> 0:
Demonstration
Da die Folge der Varianzen gleichmäßig begrenzt ist, haben wir Var (Sn) ≤ C / n für alle natürlichen n. Aber wir wissen das:
Dadurch, dass n gegen unendlich geht, ergeben sich folgende Ergebnisse:
Da eine Wahrscheinlichkeit den Wert 1 nicht überschreiten kann, wird das gewünschte Ergebnis erhalten. Als Konsequenz dieses Satzes könnten wir den besonderen Fall von Bernoulli erwähnen.
Wenn ein Versuch wird n mal wiederholt, unabhängig mit zwei möglichen Ergebnissen (Erfolg und Misserfolg), wobei P die Wahrscheinlichkeit des Erfolgs in jedem Experiment ist und X ist der Zufallsvariable die Anzahl der Erfolge darstellt, dann für jeden k> 0 du musst:
Stichprobenumfang
In Bezug auf die Varianz, Ungleichheit Chebyshev ermöglicht es uns, eine Stichprobengröße n zu finden, dass die Wahrscheinlichkeit, dass ausreicht, um sicherzustellen | Sn-μ |> = k so klein wie gewünscht erfolgt, so dass eine Annäherung zum Durchschnitt.
Genauer gesagt, entweder X1, X2, ... Xn Probengrße unabhängige Zufallsvariablen n und annehmen, dass E (xi) = μ und die Varianz σ2. Wegen Chebyshovs Ungleichheit müssen wir also:
Nun sei δ> 0 festgelegt. Wir müssen:
Beispiel
Angenommen, X1, X2, ... Xn sind eine Stichprobe von unabhängigen Zufallsvariablen mit Bernoulli-Verteilung, so dass sie den Wert 1 mit der Wahrscheinlichkeit p = 0,5 annehmen.
Wie groß sollte die Stichprobe sein, um zu garantieren, dass die Wahrscheinlichkeit, dass die Differenz zwischen dem arithmetischen Mittelwert Sn und seinem Erwartungswert (der größer als 0,1 ist) kleiner oder gleich 0 ist?
Lösung
Wir haben das E (X) = μ = p = 0.5 und das Var (X) = σ2= p (1-p) = 0,25. Für die Ungleichheit von Tschebischow müssen wir für jedes k> 0:
Nun, wenn wir k = 0,1 und δ = 0,01 nehmen, müssen wir:
Auf diese Weise wird gefolgert, dass eine Stichprobengröße von mindestens 2500 erforderlich ist, um sicherzustellen, dass die Ereigniswahrscheinlichkeit | Sn - 0,5 |> = 0,1 kleiner als 0,01 ist.
Ungleichheiten geben Chebyshov
Es gibt verschiedene Ungleichheiten in Bezug auf die Ungleichheit von Tschebyschow. Eine der bekanntesten ist die Markov-Ungleichung:
In diesem Ausdruck ist X eine nicht negative Zufallsvariable mit k, r> 0.
Markov-Ungleichheit kann verschiedene Formen annehmen. Sei zum Beispiel Y eine nicht negative Zufallsvariable (also P (Y> = 0) = 1) und nehme an, dass E (Y) = μ existiert. Nehmen wir auch an, dass (E (Y))r=μr existiert für eine ganze Zahl r> 1. Dann:
Eine andere Ungleichung ist die von Gauß, die uns sagt, dass bei einer unimodalen Zufallsvariablen X mit einer Mode bei Null, dann für k> 0,
Referenzen
- Kai Lai Chung Elementare Propositionstheorie mit stochastischen Prozessen. Springer-Verlag New York Inc
- Kenneth.H. Rosen, Diskrete Mathematik und ihre Anwendungen. S.A.MCGRAW-HILL / INTERAMERICANA DE ESPAÑA.
- Paul L. Meyer. Wahrscheinlichkeit und statistische Anwendungen. S.A. ALHAMBRA MEXIKANISCHE.
- Seymour Lipschütz Ph.D. 2000 Diskrete Mathematik löste Probleme. McGRAW-HÜGEL.
- Seymour Lipschütz Ph.D. Theorie und Probleme der Wahrscheinlichkeit. McGRAW-HÜGEL.