1. Les mathématiques en ECS 1 - cpgedupuydelome.frcpgedupuydelome.fr/IMG/pdf/chap1-2.pdf ·...
Embed Size (px)
Transcript of 1. Les mathématiques en ECS 1 - cpgedupuydelome.frcpgedupuydelome.fr/IMG/pdf/chap1-2.pdf ·...

12. Variables aléatoires réelles discrètes finies
12.1 Généralités12.1.1 Définitions et notations
Définition 12.1.1 Soit (Ω,P (Ω)) un espace probabilisable fini. On appelle variable aléatoireréelle discrète finie sur Ω (VARDF sur Ω) toute application X de RΩ.
■ Exemple 12.1 On modélise le lancer de deux dés par une probabilité uniforme sur l’ensemble�1,6�2. Alors, la somme des numéros obtenus sur les deux dés se modélise par la VARDF, notéeX, définie par X : �1,6�2 →R, (i , j ) �→ i + j . ■
Notation 12.1. Pour X une VARDF sur Ω, comme pour toute application, on peut considérerl’image directe d’un sous-ensemble de Ω par X et l’image réciproque d’un sous-ensemble de R parX. Dans le cadre des probabilités, la notation standard pour l’image directe ne diffère pas de celleutilisée ailleurs en mathématiques. Par exemple, on note :
X(Ω) = X({ω1, ...,ωn}) = {X(ω1), ...,X(ωn)} .
Par contre, la notation standard en probabilités pour l’image réciproque diffère de celle utiliséeailleurs en mathématiques. En probabilités, les images réciproques sont notées avec des crochets.Ainsi, on a :
X−1(A) = [X ∈ A] = {ω ∈Ω | X(ω) ∈ A} .
Cette notation se généralise à n’importe quelle proposition Q portant sur des éléments de R :
[X vérifie Q] = {ω ∈Ω | X(ω) vérifie Q} .
■ Exemple 12.2 On reprend les mêmes objets que ceux de l’exemple précédent. On a alors[X = 3] = {(1,2), (2,1)} ou encore [X ≤ 3] = {(1,1), (1,2), (2,1)}. ■
Notation 12.2. Une application constante sur Ω est une VARDF sur Ω. On la note généralement
via la valeur de sa constante, i.e. pour un réel a, on notea : Ω −→ R
ω �−→ a.

160 Chapitre 12. Variables aléatoires réelles discrètes finies
Théorème 12.1.1 — Opérations usuelles. Soient X et Y deux VARDF sur un espace probabi-lisable fini (Ω,P (Ω)). Soient λ ∈R et f une fonction réelle définie sur un intervalle I de R telque X(Ω) ⊂ I. Alors, on peut définir les VARDF suivantes :
(i)X+Y : Ω −→ R
ω �−→ X(ω)+Y(ω)
(addition)
(ii)λ.X : Ω −→ R
ω �−→ λ×X(ω)
(multiplication par un scalaire)
(iii)X×Y : Ω −→ R
ω �−→ X(ω)×Y(ω)
(multiplication)
(iv)f ◦X : Ω −→ R
ω �−→ f (X(ω))
(transfert)
Démonstration. Ceci découle directement des résultats usuels sur les applications réelles. ■
R On remarque que l’on ne parle pas de composition pour les VARDF mais de transfert. C’estdû au fait que l’on utilise une fonction f qui permet de passer d’une VARDF à une autre (i.e.X à f ◦X), mais que f n’est pas, en soi, une VARDF : ce n’est qu’une fonction de transfert.
Théorème 12.1.2 — Système complet associés à une VARDF. Soit X une VARDF sur unespace probabilisable fini (Ω,P (Ω)). La famille ([X = x])x∈X(Ω) forme une partition de Ω.
Démonstration. C’est très direct. Si ω ∈Ω alors, par la définition d’une application, l’image deωpar X, X(ω), est définie de manière unique dans X(Ω). Ainsi, ω appartient à un unique ensemblede la famille ([X = x])x∈X(Ω). ■
12.1.2 Loi de probabilité et fonction de répartitionDéfinition 12.1.2 — Loi de probabilité. Soit X une VARDF sur un espace probabilisé fini(Ω,P (Ω),P). On appelle loi de probabibilité de X l’application LX définie par :
LX : X(Ω) −→ [0,1]x �−→ P([X = x])
.
Notation 12.3. Pour simplifier, on note souvent P(X = x) et, plus généralement, P(X vérifie Q) aulieu de P([X = x]) et P([X vérifie Q]).
Exercice 12.1 Déterminer la loi de probabilité LX , où X est la VARDF de l’exemple 12.1. ■

12.2 Espérance et variance 161
Définition 12.1.3 — Égalité en loi. Soient X et Y des VARDF sur un espace probabilisé fini
(Ω,P (Ω),P). On dit que X et Y sont égales en loi si LX =LY. On note alors, XL= Y.
Exercice 12.2 On modélise un lancer de pièce par une probabilité uniforme sur un ensemble{p, f }. Déterminer la loi de X, définie par X(p) = 0 et X( f ) = 1, puis de Y = 1−X, définie parY(p) = 1 et Y( f ) = 0. En déduire qu’il peut y avoir égalité en loi sans avoir égalité. ■
Définition 12.1.4 — Fonction de répartition. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). On appelle fonction de répartition de X et on note FX la fonction définiepar :
FX : R −→ [0,1]x �−→ P(X ≤ x)
.
Exercice 12.3 Faire la représentation graphique, pour x ∈ [0,15], de la fonction de répartitionde X, définie comme dans l’exemple 12.1. ■
Théorème 12.1.3 — Caractérisation de la loi par la fonction de répartition. Soient X et Ydeux VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On a l’équivalence suivante :
XL= Y ⇔∀x ∈R, FX(x) = FY(x) .
Démonstration. Il suffit d’écrire X(Ω) = {x1, ..., xn} avec x1 < x2 < ... < xn . On remarque alorsque FX(x) = �
1≤i≤nxi≤x
P(X = xi ). Réciproquement, on a P(X = x1) = FX(x1) et, si i ∈ �2,n�, on a
P(X = xi ) = FX(xi )−FX(xi−1). Donc FX est définie entièrement par sa loi et réciproquement. ■
12.2 Espérance et variance12.2.1 Espérance mathématique
Définition 12.2.1 — Espérance mathématique d’une VARDF. Soit X une VARDF sur unespace probabilisé fini (Ω,P (Ω),P) telle que X(Ω) = {x1, ..., xn}. On appelle espérance mathé-

162 Chapitre 12. Variables aléatoires réelles discrètes finies
matique de X (ou simplement espérance de X) le réel, noté E(X), tel que :
E(X) =n�
i=1xi P(X = xi ) .
R L’espérance mathématique permet souvent de modéliser le gain moyen dans un jeu dehasard.
R On déduit directement de la définition de l’espérance que deux VARDF qui sont égales enloi ont la même espérance.
Exercice 12.4 Calculer l’espérance de X, où X est la VARDF de l’exemple 12.1. ■
Théorème 12.2.1 — Théorème de transfert. Soient X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P) telle que X(Ω) = {x1, ..., xn} et g une fonction réelle définie sur X(Ω). On a :
E(g (X)) =n�
i=1g (xi )P(X = xi ) .
Démonstration. La démonstration de ce théorème n’étant pas au programme, on l’admet. Maiselle ne présente pas de difficulté particulière. ■
Exercice 12.5 Retrouver le résultat de l’exercice précédent en posant Y = 14−X. ■
12.2.2 VarianceDéfinition 12.2.2 — Variance d’une VARDF. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). On appelle variance de X le réel, noté V(X), tel que :
V(X) = E�(X−E (X))2� .
R De même que pour l’espérance, on déduit directement de la définition de la variance quedeux VARDF de même loi ont même variance.

12.2 Espérance et variance 163
Théorème 12.2.2 — Positivité de la variance. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). Alors, on a :
(i) V(X) ≥ 0(ii) V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)).
Démonstration. Il suffit d’utiliser le théorème de transfert appliqué à la formule de la variance.
Ceci permet d’écrire V(X) =n�
i=1(xi −E(X))2P(X = xi ) ≥ 0, car c’est une somme de termes positifs.
On voit alors que xi = E(X) tant que P(X = xi ) �= 0, ce qui permet de conclure pour le casV(X) = 0. ■
Théorème 12.2.3 — Formule de Koenig-Huygens. Soit X une VARDF sur un espace proba-bilisé fini (Ω,P (Ω),P). Alors, on a :
V(X) = E(X2)− (E(X))2 .
Démonstration. On a V(X) =n�
i=1(xi − E(X))2P(X = xi ) =
n�i=1
(x2i − 2E(X)xi + E(X)2)P(X = xi ) =
n�i=1
x2i P(X = xi )− 2E(X)
n�i=1
xi P(X = xi )+E(X)2n�
i=1P(X = xi ) = E(X2)− 2E(X)2 +E(X)2 = E(X2)−
E(X)2. ■
Exercice 12.6 Calculer la variance de X, où X est la VARDF de l’exemple 12.1. ■
Définition 12.2.3 — Écart-type d’une VARDF. Soit X une VARDF sur un espace probabiliséfini (Ω,P (Ω),P). On appelle écart-type de X le réel, noté σ(X), tel que :
σ(X) =�
V(X) .
12.2.3 Transferts usuelsThéorème 12.2.4 — Transfert linéaire. Soient X une VARDF sur un espace probabilisé fini(Ω,P (Ω),P) et a,b deux réels. Alors, on a :
(i) E(aX+b) = aE(X)+b(ii) V(aX+b) = a2V(X)
Démonstration. Pour l’espérance, il suffit d’utiliser le théorème de transfert puis la linéarité dela somme. Pour la variance, il suffit de passer par la formule de Koenig-Huygens ainsi que laformule (i). ■

164 Chapitre 12. Variables aléatoires réelles discrètes finies
Exercice 12.7 Donner le détail des étapes décrites dans la démonstration du théorèmeprécédent. ■
Définition 12.2.4 — Variable centrée et réduite. Soit X une VARDF sur un espace probabi-lisé fini (Ω,P (Ω),P). On dit que X est centrée lorsque E(X) = 0. On dit que X est centrée etréduite lorsque E(X) = 0 et V(X) = 1. Si V(X) �= 0, on appelle variable centrée réduite associéeà X la VARDF, notée X∗, définie par :
X∗ = X−E(X)
σ(X).
R Les propriétés des transferts linéaires permettent de vérifier que X∗ est bien une variablecentrée et réduite.
12.3 Lois usuelles12.3.1 Loi certaine
Définition 12.3.1 Soit X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On dit que Xsuit une loi certaine de paramètre a ∈R si P(X = a) = 1.
Théorème 12.3.1 Soit X une VARDF suivant une loi certaine de paramètre a ∈R. Alors, on a :
E(X) = a et V(X) = 0 .
Démonstration. Pour l’espérance, c’est immédiat. Pour la variance, il suffit d’appliquer le théo-rème sur la positivité de la variance. ■
12.3.2 Loi uniformeDéfinition 12.3.2 Soient X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P) et E unepartie finie non vide de R. On dit que X suit une loi uniforme sur E si X(Ω) = E et, pour toutx ∈ E, P(X = x) = 1
|E| . On note alors X �→U (E).
Théorème 12.3.2 Soit X une VARDF telle que X �→U (�1,n�). Alors, on a :
E(X) = n +1
2et V(X) = n2 −1
12.
Démonstration. On a E(X) = �nk=1
kn = 1
n
�n(n+1)
2
�= n+1
2 et V(X) = E(X2)−E(X)2 =��n
k=1k2
n
�−
(n+1)2
4 = 1n
�n(n+1)(2n+1)
6
�− (n+1)2
4 = (n +1) 2(2n+1)−3(n+1)12 = (n+1)(n−1)
12 = n2−112 . ■

12.3 Lois usuelles 165
Exercice 12.8 Soient a,b ∈ Z tels que a < b et X une VARDF telle que X �→ U (�a,b�). Dé-terminer l’espérance et la variance de X. On posera X = g (Y) où Y �→U (�1,n�) et g est unefonction de transfert linéaire. ■
12.3.3 Loi de BernoulliDéfinition 12.3.3 Soient X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On dit queX suit une loi de Bernoulli de paramètre p ∈]0,1[ si X(Ω) = {0,1}, P(X = 1) = p et P(X = 0) =1−p. On note alors X �→B(p).
Théorème 12.3.3 Soit X une VARDF telle que X �→B(p). Alors, on a :
E(X) = p et V(X) = p(1−p) .
Démonstration. On a E(X) = 0×(1−p)+1×p = p et V(X) = E(X2)−E(X)2 = p−p2 = p(1−p). ■
12.3.4 Loi binomialeDéfinition 12.3.4 Soient X une VARDF sur un espace probabilisé fini (Ω,P (Ω),P). On ditque X suit une loi binomiale de paramètres n ∈N∗ et p ∈]0,1[ si X(Ω) = �0,n� et, pour toutk ∈ �0,n�, P(X = k) = �n
k
�pk (1−p)n−k . On note alors X �→B(n, p).
R Une loi de Bernoulli est une loi binomiale de paramètres 1 et p. Qui plus est, une VARDFde loi binomiale de paramètres n et p permet de modéliser les résultats cumulés de nitérations d’une expérience aléatoire dont les résultats sont modélisés par une VARDF deloi de Bernoulli de paramètre p.
Théorème 12.3.4 Soit X une VARDF telle que X �→B(n, p). Alors, on a :
E(X) = np et V(X) = np(1−p) .
Démonstration. On a E(X) = �nk=0 k
�nk
�pk (1− p)n−k = �n
k=1 k�n
k
�pk (1− p)n−k . Or, ∀k ∈ �1,n�,
k�n
k
� = n�n−1
k−1
�. D’où E(X) = �n
k=1 n�n−1
k−1
�pk (1− p)n−k = np
�n−1k=0
�n−1k
�pk (1− p)n−1−k = np(p +
1− p)n−1 = np. De même, on a E(X2) = �nk=0 k2
�nk
�pk (1− p)n−k = np
�n−1k=0(k + 1)
�n−1k
�pk (1−
p)n−1−k = np(1+ (n −1)p). Ainsi, V(X) = np(1+ (n −1)p)− (np)2 = np(1−p). ■
Exercice 12.9 On considère une urne de N boules avec b boules blanches et N−b boulesnoires. Les boules blanches sont gagnantes et rapporte un euro, les boules noires ne rap-portent rien. On effectue le tirage d’une boule. Comment peut-on modéliser les gains obte-nus ? Même question si on effectue n tirages successifs avec remise. ■
