Théorèmes de convergence pour les sommes de...

46
Chapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes Université d’Artois Faculté des Sciences Jean Perrin Probabilités (Master 1 Mathématiques-Informatique) Daniel Li 1 Existence de suites de variables aléatoires indépendantes suivant une loi donnée Définition 1.1 Soit F un ensemble de v.a.r. X R. On dit que les v.a.r. de F sont indépendante si X 1 ,...,X n sont indépendantes pour tout choix d’un nombre fini de v.a.r. X 1 ,...,X n dans F . Pour une suite (X n ) n1 de v.a.r., dire qu’elle est indépendante revient à dire que X 1 ,...,X n sont indépendantes pour tout n 1. 1.1 Cas de deux variables aléatoires réelles Soit Q une mesure de probabilité sur R. Considérons sa fonction de répartition, définie, pour x R, par : F (x)= Q(] -∞,x]) . On sait que F est croissante et continue à droite. Lorsque F est continue et strictement croissante, F a un inverse. Dans le cas général, on peut définir un pseudo-inverse (ou inverse généralisé de Paul Lévy), à partir de la remarque suivante : pour tout t ]0, 1[, l’ensemble : {s R ; F (s) t} est un intervalle. On définit le pseudo-inverse de F en posant, pour t ]0, 1[ : G(t) = inf {s R ; F (s) t} . 1

Transcript of Théorèmes de convergence pour les sommes de...

Page 1: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Chapitre 3

Théorèmes de convergencepour les sommes de variables

aléatoires indépendantes

Université d’ArtoisFaculté des Sciences Jean PerrinProbabilités (Master 1 Mathématiques-Informatique)Daniel Li

1 Existence de suites de variables aléatoiresindépendantes suivant une loi donnée

Définition 1.1 Soit F un ensemble de v.a.r. X : Ω → R. On dit que les v.a.r.de F sont indépendante si X1, . . . , Xn sont indépendantes pour tout choix d’unnombre fini de v.a.r. X1, . . . , Xn dans F .

Pour une suite (Xn)n>1 de v.a.r., dire qu’elle est indépendante revient à direque X1, . . . , Xn sont indépendantes pour tout n > 1.

1.1 Cas de deux variables aléatoires réellesSoit Q une mesure de probabilité sur R.Considérons sa fonction de répartition, définie, pour x ∈ R, par :

F (x) = Q(]−∞, x]) .

On sait que F est croissante et continue à droite.Lorsque F est continue et strictement croissante, F a un inverse. Dans le cas

général, on peut définir un pseudo-inverse (ou inverse généralisé de PaulLévy), à partir de la remarque suivante : pour tout t ∈] 0, 1 [, l’ensemble :

s ∈ R ; F (s) > t

est un intervalle. On définit le pseudo-inverse de F en posant, pour t ∈] 0, 1 [ :

G(t) = infs ∈ R ; F (s) > t .

1

Page 2: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Comme F est continue à droite, la borne inférieure est atteinte et l’on a :

s ∈ R ; F (s) > t = [G(t),+∞ [ . (1.1)

G est clairement croissante, et elle est continue à gauche ; en effet, sitn t, alors : ⋂

n>1

[G(tn),+∞ [= [G(t),+∞ [ ,

car, si s > G(tn) pour tout n > 1, on a F (s) > tn pour tout n > 1 ; doncF (s) > t.

On pourra vérifier à titre d’exercice que G[F (s)] 6 s pour tout s ∈ R et queF [G(t)] > t pour tout t ∈] 0, 1 [.

Proposition 1.2 (Paul Lévy) Le pseudo-inverse G : ] 0, 1 [→ R de la fonctionde répartition de Q est une v.a.r. et sa loi est Q.

Plus généralement, si U : Ω →] 0, 1 [ est une v.a.r. de loi uniforme sur ] 0, 1 [,alors H = G U : Ω → R est une v.a.r. dont la loi est Q.

Preuve. G est mesurable car elle est croissante ; c’est donc une v.a.r. .Notons maintenant que (1.1) s’écrit :

G(t) 6 s ⇐⇒ F (s) > t ;

donc :

FH(x) = PH

(]−∞, x]

)= P (H 6 x) = P

(ω ; G

(U(ω)

)6 x

)= P

(ω ; F (x) > U(ω)

)= FU

(F (x)

)= F (x) ,

2

Page 3: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

ce qui prouve que PH = Q.

Notons qu’avec Ω =] 0, 1 [, on peut prendre U(ω) = ω.

On en déduit le résultat suivant.

Proposition 1.3 Etant données deux lois de probabilité Q1 et Q2 sur R, onpeut trouver un espace de probabilité (Ω,A ,P ) et deux v.a.r. indépendantesX1, X2 : Ω → R dont les lois sont Q1 et Q2 respectivement.

Preuve. Par la proposition précédente, il existe deux v.a.r. G1, G2 : ] 0, 1 [→ Rde lois respectives Q1 et Q2. Il s’agit de les rendre indépendantes.

Considérons Ω =] 0, 1 [×] 0, 1 [, muni de sa tribu borélienne et de la mesurede Lebesgue P = λ2. Posons, pour ω = (t1, t2) ∈] 0, 1 [2 :

X1(t1, t2) = G1(t1)X2(t1, t2) = G2(t2) .

Les v.a.r. X1 et X2 ont pour lois Q1 et Q2 :

FXj(x) = P

(Xj(t1, t2) 6 x

)= P

(Gj(tj) 6 x

)= Qj(]−∞, x]) ,

et comme :

P(X1,X2)([a, b]× [c, d]) = P(G1(x1) ∈ [a, b] et G2(x2) ∈ [c, d])

= λ2

(G−1

1 ([a, b])×G−12 ([c, d])

= λ(G−1

1 ([a, b])).λ

(G−1

2 ([c, d]))

= λ2

(G−1

1 ([a, b])×] 0, 1 [).λ2

(] 0, 1 [×G−1

2 ([c, d]))

= λ2

(X−1

1 ([a, b])).λ2

(X−1

2 ([c, d]))

= PX1([a, b]).PX2([c, d]) ,

on a P(X1,X2) = PX1 ⊗ PX2 , ce qui prouve que X1 et X2 sont indépendantes.

Cette méthode s’étend pour obtenir une suite infinie de v.a.r. indépendantesde lois données. Mais pour cela, il faudrait d’abord définir ce qu’est un produitinfini d’espaces de probabilité. On ne le fera pas et nous allons voir une autreméthode. Il est néanmoins essentiel d’en retenir l’idée : les v.a.r. indépendantess’obtiennent comme fonctions définies sur des espaces-produits et qui ne sontfonctions que de coordonnées différentes.

3

Page 4: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

1.2 Cas généralNous allons définir une suite infinie particulière de v.a.r. indépendantes.

Commençons par rappeler que tout nombre réel t ∈ [0, 1[ a un unique déve-loppement dyadique :

t =∞∑

n=1

εn(t)2n

,

avec εn(t) = 0 ou 1 et les εn(t) n’étant pas tous égaux à 1 à partir d’un certainrang (développement dyadique propre – de toute façon, l’ensemble des t quiont un développement dyadique impropre est dénombrable, et donc de mesurenulle).

Prouvons d’abord que les fonctions εn : [0, 1[→ 0, 1 sont mesurables ; ceseront donc des v.a.r., définies sur Ω = [0, 1[, avec pour probabilité la mesurede Lebesgue.

Notons que si

t =+∞∑k=1

εk(t)2k

,

alors, si E (x) est la partie entière de x, et An ∈ N :

2n−1t = An +εn(t)

2+εn+1(t)

22· · · = E (2n−1t) +

εn(t)2

++∞∑k=1

εn+k(t)2k+1

·

Comme le développement dyadique de t est propre, une infinité des εk(t), pourk > n+ 1, est nulle ; on a donc :

+∞∑k=1

εn+k(t)2k+1

<+∞∑k=1

12k+1

=12·

Ainsi : εn(t) = 0 ⇐⇒ 0 6 2n−1t− E (2n−1t) <

12

εn(t) = 1 ⇐⇒ 12

6 2n−1t− E (2n−1t) < 1.

Introduisons alors la fonction indicatrice R : R → 0, 1 définie par :

R(t) =

0 si 0 6 t− E (t) < 1/21 si 1/2 6 t− E (t) < 1;

on a, d’après ce qui précède :

εn(t) = R(2n−1t).

Il est alors clair que chaque εn est mesurable et que (P étant la mesure deLebesgue sur [0, 1[) :

P (εn = 0) = P (εn = 1) =12

;

4

Page 5: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Ce sont donc des v.a.r. de Bernoulli.

Pour voir que la suite (εn)n>1 est indépendante, raisonnons par récurrence ;supposons ε1, . . . , εn indépendantes, et soit, pour a1, . . . , an+1 ∈ 0, 1 :

An = t ∈ [0, 1[ ; ε1(t) = a1, . . . , εn(t) = an .

An est l’intervalle [tn, 1[ des nombres t dont le développement dyadique com-mence par :

0, a1a2 . . . an .

La v.a.r. εn+1 prend la valeur 0 sur la première moitié de cet intervalle et lavaleur 1 sur la seconde moitié. Donc :

P (An ∩ εn+1 = an+1) =12

P (An) ,

de sorte que, grâce à l’hypothèse de récurrence :

P (ε1 = a1, . . . , εn = an, εn+1 = an+1) =1

2n+1=

n+1∏k=1

P (εk = ak) ,

ce qui achève la preuve.

Proposition 1.4 Soit (Zn)n>1 une suite indépendante de v.a.r. de Bernoulli,prenant les valeurs 0 et 1 avec probabilité 1/2. Alors la somme :

U =∞∑

n=1

Zn

2n

suit la loi uniforme sur [0, 1[.

Preuve. Comme on ne s’intéresse qu’aux lois, on peut prendre des réalisationsparticulires des v.a.r. ; et, avec les réalisations ci-dessus en termes de dévelop-pement dyadique ; dans ce cas, la proposition exprime simplement le fait que,pour tout t ∈ [0, 1[, on a :

t =∞∑

n=1

εn(t)2n

·

Théorème 1.5 Pour toute suite Pk de lois de probabilité sur R, il existe unesuite indépendante de v.a.r. Xk : [0, 1[→ R telle que, pour tout k > 1, la loi PXk

de Xk soit Pk.

Preuve. Donnons-nous une bijection :

N∗ × N∗ −→ N∗

(k, l) 7−→ n(k, l) ,

5

Page 6: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

et posons, pour tout k > 1 :

Uk =∞∑

l=1

εn(k,l)

2l·

La Proposition 1.4 nous dit que les Uk, k > 1, suivent toutes la loi uniformesur [0, 1[ ; elles sont de plus indépendantes, car la définition de chacune d’ellesne fait intervenir que des éléments différents de la suite indépendante (εn)n>1.Notons maintenant Gk le pseudo-inverse de la fonction de répartition de Pk ;la Proposition 1.2 nous dit que Xk = Gk Uk suit la loi Pk. De plus, la suite(Xk)k>1 est indépendante puisque (Uk)k>1 l’est.

2 Modes de convergence

2.1 Convergence presque sûre et convergence en moyenneCes convergences sont bien connues ; nous allons simplement faire quelques

rappels.

Soit (Xn)n>1 une suite de v.a.r., définies sur le même espace de probabilité(Ω,A ,P ).

• On dit que (Xn)n>1converge presque sûrement (en abrégé : p.s.) vers lav.a.r. X, et l’on notera Xn

p.s.−−−→n→∞

X, si :

P(ω ∈ Ω ; Xn(ω)−−−→

n→∞X(ω)

)= 1 .

• Si r > 1, et que Xn, X ∈ Lr(P ) (c’est-à-dire qu’elles ont des momentsd’ordre r), on dit que (Xn)n>1 converge en moyenne d’ordre r, et l’on écrit

XnLr

−−−→n→∞

X ou Xn‖ ‖r−−−→

n→∞X, si :

‖Xn −X‖r −−−→n→∞

0.

Les cas les plus usuels sont r = 1 ; on dit alors qu’il y a convergence en moyenne,et r = 2 ; on dit alors qu’il y a convergence en moyenne quadratique.

On a les liens suivant entre ces convergences.1) Comme P (Ω) = 1, si r1 6 r2, on a :

‖Xn −X‖r1 6 ‖Xn −X‖r2 ;

en particulier la convergence en moyenne quadratique entraîne la convergenceen moyenne.

2) Le Théorème de convergence dominée dit que si Xnp.s.−−−→

n→∞X et s’il existe

Y ∈ Lr(Ω) telle que |Xn| 6 Y p.s., pour tout n > 1, alors XnLr

−−−→n→∞

X.

3) D’autre part, si XnLr

−−−→n→∞

X, on peut extraire une sous-suite (Xnk)k>1 qui

converge p.s. vers X.

6

Page 7: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

2.2 Convergence en probabilité

Définition 2.1 On dit que la suite de v.a.r. Xn)n>1 converge en proba-bilité vers la v.a.r. X si, pour tout ε > 0, on a :

P(|Xn −X| > ε

)−−−→n→∞

0 .

On notera XnP−−−→

n→∞X.

On notera que, dans la dans la définition de la convergence en probabilité,on peut toujours se resteindre à prendre ε plus petit qu’un nombre ε0 > 0 donnéà l’avance, puisque, plus ε est petit, plus la probabilité P (|Xn − X| > ε) estgrande. D’autre part, on peut remplacer P (|Xn−X| > ε) par P (|Xn−X| > ε).

Il est utile de remarquer que l’on a le critère suivant :

Proposition 2.2 La suite (Xn)n>1 converge en probabilité vers X si et seule-ment si :

(∀ε > 0) (∃N > 1) n > N =⇒ P (|Xn −X| > ε) 6 ε.

Preuve. Que la condition soit nécessaire est clair. Inversement, si l’on a cettecondition, pour tout a > 0 donné, on a, si 0 < ε 6 a, pour n > N :

P (|Xn −X| > a) 6 P (|Xn −X| > ε) 6 ε,

ce qui montre que P (|Xn −X| > a) −→n→∞

0.

Exemple. Sur Ω = [0, 1[, la suite définie, pour n = 2k + l, 0 6 l 6 2k−1, k > 0,par :

Xn = 1I[ l

2k, l+1

2k

]converge en probabilité vers 0, car, pour ε 6 1, on a :

P (|Xn| > ε) =12k

si 2k 6 n < 2k+1 .

Toutefois, cette suite ne converge en aucun point de Ω.

Il est immédiat de voir que siXnP−−−→

n→∞X et Yn

P−−−→n→∞

Y , alorsXn+YnP−−−→

n→∞X+Y

et aXnP−−−→

n→∞aX, pour tout a ∈ R. On a aussi :

Proposition 2.3 Si XnP−−−→

n→∞X et Yn

P−−−→n→∞

Y , alors XnYnP−−−→

n→∞XY .

7

Page 8: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Preuve. Soit ε > 0 et δ > 0 donnés, arbitraires.On a |XnYn −XY | 6 |X| |Yn − Y |+ |Yn| |Xn −X|, donc :

P (|XnYn −XY | > ε) 6 P (|X| |Yn − Y | > ε/2) + P (|Yn| |Xn −X| > ε/2).

Soit a > 0 tel que P (|X| > a) 6 δ/4. Comme YnP−−−→

n→∞Y , il existe n0 > 1 tel

que, pour n > n0, on ait P (|Yn − Y | > ε/2a) 6 δ/4. Alors, pour n > n0 :

P (|X| |Yn − Y | > ε/2) 6 P (|X| > a) + P (|X| 6 a et |X| |Yn − Y | > ε/2)6 P (|X| > a) + P (|Yn − Y | > ε/2a) 6 δ/2.

Choisissons maintenant b > 0 tel que P (|Y | > b) 6 δ/8. On a :

P (|Yn| |Xn −X| > ε/2) 6 P (|Yn − Y | > ε/2a) + P (|Y | > b)+ P (|Yn − Y | 6 ε/2a ; |Y | 6 b et |Yn| |Xn −X| > ε/2);

et comme |Yn − Y | 6 ε/2a et |Y | 6 b entraînent |Yn| 6 b+ ε/2a, on obtient :

P (|Yn| |Xn −X| > ε/2) 6 P (|Yn − Y | > ε/2a) + P (|Y | > b)+ P (|Xn −X| > ε/[2b+ ε/a]).

Alors, comme XnP−−−→

n→∞X, il existe n1 > 1, que l’on peut choisir > n0, tel que,

pour n > n1, on ait P (|Xn −X| > ε/[2b + ε/a]) 6 δ/8. Comme n1 > n0, on adonc, pour n > n1 :

P (|Yn| |Xn −X| > ε/2) 6 δ/4 + δ/8 + δ/8 = δ/2 ,

et donc P (|XnYn −XY | > ε) 6 δ.

Remarque. Soit L0(Ω,P ) l’espace de toutes les (classes de) v.a.r. X : Ω → R.La convergence en probabilité peut être définie, comme on pourra le vérifier enexercice, par l’une des deux distances suivantes :

d1(X,Y ) = E( |X − Y |

1 + |X − Y |

)d2(X,Y ) = infε > 0 ; P (|X − Y | > ε) 6 ε .

Pour ces distances, L0(P ) est un espace vectoriel topologique, non localementconvexe, et il est complet pour ces distances.

Voyons quels liens il y a avec les convergences précédentes.

Proposition 2.4 La convergence en moyenne d’ordre r entraîne la convergenceen probabilité : si Xn

Lr

−−−→n→∞

X, alors XnP−−−→

n→∞X.

Preuve. Il suffirait de le faire pour r = 1, puisque la convergence dans Lr

entraîne la convergence en moyenne ; mais cela résulte immédiatement de l’in-égalité très utile suivante :

8

Page 9: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Lemme 2.5 (inégalité de Markov) Pour toute Y ∈ Lr(P ), on a, pour toutε > 0 :

P (|Y | > ε) 61εr

E (|Y |r) .

mais dont la preuve est immédiate :

E (|Y |r) >∫|Y |>ε

|Y |r dP > εr P (|Y | > ε) .

Cette inégalité est souvent appelée inégalité de Bienaymé-Tchebychev,qui en est un cas particulier, pour r = 2, lorsque l’on centre la v.a.r. :

P (|Y − E (Y )| > ε) 61ε2

Var (Y ) .

Proposition 2.61) La convergence presque sûre entraîne la convergence en probabilité : si

Xnp.s.−−−→

n→∞X, alors Xn

P−−−→n→∞

X.

2) Si XnP−−−→

n→∞X, on peut extraire une sous-suite qui converge presque sûre-

ment vers X.

On retrouve le fait que s’il y a convergence en moyenne d’ordre r, alors il ya une sous-suite qui converge presque sûrement.

Cette proposition peut se prouver directement, mais il est plus intéressant depasser par le lemme suivant, qui est fondamental pour la convergence presquesûre : il exprime la convergence presque sûre comme une convergence uniformeen probabilité. Il explique aussi pourquoi, lorsque l’on veut montrer des conver-gences presque sûres, on a besoin de montrer ce que l’on appelle des inégalitésmaximales, c’est-à-dire des inégalités portant sur la borne supérieure de famillesde fonctions, ou plutôt de leur valeurs absolues.

Lemme 2.7 (Lemme fondamental pour la convergence presque sûre)Une suite de v.a.r. (Xn)n>1 converge presque sûrement vers 0 si et seulement

si :

Yn = supk>n

|Xk|P−−−→

n→∞0 .

Preuve. Remarquons tout d’abord que YnP−−−→

n→∞0 si et seulement si, pour tout

ε > 0, on a P (|Yn| > ε)−−−→n→∞

0 (on a mis > ε au lieu de > ε).Pour tout ε > 0 et tout n > 1, posons :

En(ε) = |Xn| > ε

et :E(ε) = lim

n→∞En(ε) =

⋂n>1

⋃k>n

Ek(ε) .

9

Page 10: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Remarquons maintenant que Xn(ω)−−−→n→∞

0 si et seulement si :

(∀ε > 0) (∃n > 1) (∀k > n) |Xk(ω)| 6 ε ;

par conséquent :

ω ∈ Ω ; Xn(ω) −−−→n→∞

0 =⋃ε>0

E(ε) =⋃j>1

E(1/j) ,

de sorte que :

Xnp.s.−−−→

n→∞0 ⇐⇒ P

(E(ε)

)= 0 , ∀ε > 0 .

Mais P(E(ε)

)= limn→∞ P

( ⋃k>nEk(ε)

), et cela donne le résultat puisque :⋃

k>n

Ek(ε) =

supk>n

|Xk| > ε.

Preuve de la Proposition 2.6. Le 1) résulte immédiatement du lemme.Pour le 2), on utilisera un autre lemme, qui donne un critère pratique de

convergence presque sûre.

Lemme 2.8 Soit (Xk)k>1 une suite de v.a.r. . Si l’on a :

∞∑k=1

P (|Xk| > ε) < +∞

pour tout ε > 0, alors Xkp.s.−−−→

k→∞0.

Preuve. Il suffit de remarquer que la condition entraîne :

P(E(ε)

)= P

(lim

k→∞Ek(ε)

)= 0,

par le Lemme de Borel-Cantelli.

On peut alors terminer la preuve de la Proposition 2.6 : si XnP−−−→

k→∞X, on

peut trouver une suite strictement croissante d’entiers nk, k > 1, tels que :

P (|Xnk−X| > 1/2k) 6

12k·

Alors, pour tout ε > 0, on a, lorsque 1/2k 6 ε :

P (|Xnk−X| > ε) 6 P (|Xnk

−X| > 1/2k) 612k

,

de sorte que∑∞

k=1 P (|Xnk−X| > ε) < +∞.

10

Page 11: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Bien sûr, la condition :∑∞

k=1 P (|Xnk−X| > ε) < +∞, ∀ε > 0, est équiva-

lente à∑∞

k=1 P (|Xnk−X| > ε) < +∞, ∀ε > 0. Elle est vérifiée dès qu’il existe

un r > 1 tel que :∞∑

k=1

‖Xk‖rLr(P ) =

∞∑k=1

E (|Xk|r) < +∞ ,

d’après l’inégalité de Markov. Mais, dans ce cas, la conclusion Xkp.s.−−−→

k→∞0 résulte

du Théorème de convergence monotone :∫Ω

( ∞∑k=1

|Xk|r)dP =

∞∑k=1

( ∫Ω

|Xk|r dP)

=∞∑

k=1

E (|Xk|r) < +∞ ,

qui entraîne∑∞

k=1 |Xk|r < +∞ presque sûrement, et donc, en particulier,Xk

p.s.−−−→k→∞

0.

3 Convergence des séries de variables aléatoiresréelles indépendantes

3.1 Loi du 0–1 de KolmogorovSoit

(Bn

)n>1

une suite de sous-tribus de A .On note :

σ(Bn,Bn+1, . . .)

la tribu engendrée par Bn,Bn+1, . . . .

Définition 3.1 La tribu :

B∞ =⋂n>1

σ(Bn,Bn+1, . . . )

est appelée tribu asymptotique de la suite(Bn

)n>1

.

Intuitivement, les événements de B∞ décrivent se qui se passe à l’infini,relativement à la suite

(Bn

)n>1

.L’exemple de base est donné par la :

Proposition 3.2 Si An ∈ Bn pour tout n > 1, alors :

limn→∞

An ∈ B∞ et limn→∞

An ∈ B∞ .

11

Page 12: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Remarque. Etant donnés An ∈ A , n > 1, on peut toujours choisir Bn =∅, An, A

cn,Ω ; les événements lim

n→∞An et lim

n→∞An sont donc toujours asymp-

totiques (pour ce choix de tribus).

Preuve. Comme limn→∞

An =(

limn→∞

Acn

)c

, il suffit de montrer que limn→∞

An ∈B∞.

Or, pour tout n > m, on a :⋂k>n

Ak ∈ σ(Bm,Bm+1, . . . ) .

Comme la suite( ⋂

k>nAk

)n>1

est croissante, on a, pour tout m > 1 :

limn→∞

An =⋃n>1

( ⋂k>n

Ak

)=

⋃n>m

( ⋂k>n

Ak

)∈ σ(Bm,Bm+1, . . . ) ,

ce qui donne bien le résultat annoncé.

Proposition 3.3 Si, pour tout n > 1, Xn : Ω → R est une v.a.r. Bn-mesurable, alors lim

n→∞Xn et lim

n→∞Xn sont des v.a.r. B∞-mesurables.

Preuve. Il suffit de faire la preuve pour X = limn→∞

Xn. La v.a.r. Yn = infk>nXk

est σ(Bn,Bn+1, . . .)-mesurable ; donc supn>m Yn est σ(Bm,Bm+1, . . .)-mesu-rable. Mais, pour tout m > 1, X = supn>m Yn ; donc X est σ(Bm,Bm+1, . . .)-mesurable pour tout m > 1, et donc B∞-mesurable.

Corollaire 3.4 L’ensemble de convergence :

ω ∈ Ω ; limn→+∞

Xn(ω) existe

est dans la tribu asymptotique B∞.

Remarque. Les v.a.r. Xn étant données, on peut toujours prendre Bn =σ(Xn), ou Bn = σ(Xn, Xn+1, . . .) ; dans ces deux cas, on a σ(Bn,Bn+1, . . .) =σ(Xn, Xn+1, . . .), et l’ on a donc la même tribu asymptotique.

L’intérêt de la tribu asymptotique est :

Théorème 3.5 (loi du 0–1 de Kolmogorov)Si les tribus Bn, pour n > 1, sont indépendantes, alors tout B ∈ B∞

est indépendant de lui-même, et donc P (B) = 0 ou P (B) = 1 .

12

Page 13: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Preuve. Pour tout m < n, les deux tribus :

σ(B1, . . . ,Bm) et σ(Bn,Bn+1, . . .)

sont indépendantes ; donc σ(B1, . . . ,Bm) et B∞ sont indépendantes pour toutm > 1.

Notons :C =

⋃m>1

σ(B1, . . . ,Bm).

C est stable par intersection finie (car la suite(σ(B1, . . . ,Bm)

)m>1

est crois-sante), contient Ω, et tout élément de C est indépendant de tout élément de B∞.Par le critère d’indépendance vu au Chapitre 1 (Proposition 4.9), les tribus :

σ(C ) = σ(B1,B2, . . .) et B∞

sont indépendantes.Comme B∞ ⊆ σ(B1,B2, . . .), B∞ est indépendante d’elle-même, et donc,

pour tout B ∈ B∞, on a :

P (B) = P (B ∩B) = P (B).P (B) ;

donc P (B) = 0 ou P (B) = 1.

Corollaire 3.6 Si les v.a.r. Xn, n > 1, sont indépendantes, alors les v.a.r.lim

n→∞Xn et lim

n→∞Xn sont p.s. constantes.

Preuve. Prenons Bn = σ(Xn). On sait que X = limn→∞

Xn est B∞-mesurable.

Si P (X = −∞) = 1 (respectivement P (X = +∞) = 1), alors X p.s.= −∞

(respectivement +∞).Sinon, comme les tribus B1,B2, . . . sont indépendantes, on a, par la loi du

0–1 : P (X = −∞) = P (X = +∞) = 0. X est donc p.s. à valeurs dans R. Deplus, pour tout x ∈ R :

FX(x) = P (X 6 x) = 0 ou 1 ;

donc si l’on pose a = supx ∈ R ;FX(x) = 0, alors a ∈ R, et FX(x) = 0 pourx < a, FX(x) = 1 pour x > a. Comme FX est continue à droite, on a FX(a) = 1.Donc FX = 1I[a,+∞ [, de sorte que X p.s.

= a.

Remarque. Nous avons vu que si les événements An, n > 1, sont indépendants,alors lim

n→∞An est asymptotique, et donc de probabilité 0 ou 1 par la loi du 0–1.

On peut en fait voir cela directement, et même le préciser.

13

Page 14: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Proposition 3.7 (Lemme de Borel-Cantelli) Si les événements An, n >1, sont indépendants, on a :

a) P ( limn→∞

An) = 0 ⇐⇒∞∑

n=1

P (An) < +∞ ;

b) P ( limn→∞

An) = 1 ⇐⇒∞∑

n=1

P (An) = +∞.

Preuve. Nous avons déjà vu que, même sans indépendance :+∞∑n=1

P (An) < +∞ =⇒ P (limn→∞An) = 0 .

Mais, d’autre part, on a aussi :∞∑

n=1

P (An) = +∞ =⇒ P (limn→∞An) = 1 ;

en effet, comme les Acn, n > 1, sont indépendants, on a :

P( N⋂

k=n

Ack

)=

N∏k=n

P (Ack) =

N∏k=n

(1− P (Ak)

)6

N∏k=n

exp(− P (Ak)

)= exp

(−

N∑k=n

P (Ak))−−−−→N→+∞

0 ;

donc P( ⋂

k>nAck

)= 0, et donc :

P(

limn→∞

Acn

)= P

( ⋂k>n

Ack

)= 0 .

Exemple. Si l’on joue à “pile ou face”, et que An est l’événement “obtenir “face”au neme lancer”, comme P (An) = 1/2 pour tout n > 1, on a

∑∞n=1 P (An) =

+∞, donc P ( limn→∞

An) = 1 : presque sûrement, on aura une infinité de fois“face”. De même, on aura une infinité de fois “pile”.

Remarque. L’indépendance est essentielle. Par exemple, si Ω = [0, 1] et An =[0, 1/n], on a

∑∞n=1 P (An) =

∑∞n=1

1n = +∞, mais lim

n→∞An = 0.

3.2 Convergence des séries de variables aléatoires réellesindépendantes

Nous supposerons ici que les v.a.r. Xn prennent leurs valeurs dans R, et pasdans R .

Commençons par un corollaire de la loi du 0–1 .

14

Page 15: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Proposition 3.8 Soit (Xn)n>1 une suite de v.a.r. indépendantes. Alors :

C =ω ∈ Ω ;

∑n>1

Xn(ω) converge

est de probabilité 0 ou 1.

Preuve. Posons Sn = X1 + · · ·+Xn.Il faut faire attention que les v.a.r. S1, S2, . . . ne sont pas indépendantes.Néanmoins, si l’on prend Bn = σ(Xn), les tribus B1,B2, . . . sont indépen-

dantes, et, pour tout n > 1 :

C =ω ∈ Ω ;

∑k>n

Xk(ω) converge∈ σ(Bn,Bn+1, . . .) ;

donc C ∈ B∞.

Un premier critère de convergence pour la série est donné par le :

Théorème 3.9 (Théorème de Kolmogorov) Si les v.a.r. Xn, n > 1, sontdans L2(P ), sont indépendantes et centrées : E (Xn) = 0, alors :

∞∑n=1

‖Xn‖22 =∞∑

n=1

E (X2n) < +∞ =⇒

∞∑n=1

Xn converge p.s. .

Exemple. Soit (εn)n>1 une suite indépendante de v.a.r. telles que P (εn =−1) = P (εn = 1) = 1/2 (choix de signes aléatoire), alors la série

∑n>1

εn

converge p.s. dès que α > 1/2 (alors qu’elle ne converge pour tout choix designes que si α > 1). Si εn(ω0) = (−1)n, pour tout n > 1, alors

∑n>1

εn(ω0)nα est

alternée et converge pour tout α > 0.

Si l’on ne suppose pas les Xn centrées, les Xn−E (Xn) le sont de toute façon,et le théorème devient :

Corollaire 3.10 Si les Xn, n > 1, sont dans L2(P ) et sont indépendantes,alors :

∞∑n=1

Var (Xn) < +∞ =⇒∞∑

n=1

(Xn − E (Xn)

)converge p.s. .

Remarque. Les Xn étant indépendantes et centrées, elles sont orthogonalesdans L2(P ). Par conséquent, la condition

∑∞n=1 ‖Xn‖22 =

∑∞n=1 E (X2

n) < +∞équivaut à la convergence de la série

∑∞n=1Xn pour la norme dans l’espace

L2(P ) (c’est-à-dire en moyenne quadratique). Il en résulte qu’il y a convergence

15

Page 16: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

de la série en probabilité. Cela entraîne qu’une sous-suite de la suite des sommespartielles converge presque sûrement. Le Théorème de Kolmogorov donne laconvergence presque sûre de la suite des sommes partielles elle-même.

En fait, nous verrons un théorème, dû à Paul Lévy, disant que pour des v.a.r.indépendantes Xn, la convergence en probabilité de la série

∑n>1Xn équivaut

à sa convergence presque sûre. Mais il est préférable de connaître la remarquableinégalité de Kolmogorov, ci-dessous, qui donne directement le théorème. On peutdonner une preuve directe du théorème de Paul Lévy utilisant les mêmes idées(voir D. Revuz, p. 138, ou L. Breiman, p. 45–46), mais on suivra un cheminlégèrement différent.

Théorème 3.11 (inégalité de Kolmogorov) Si les v.a.r. Xn, n > 1, sontdans L2(P ) et sont indépendantes et centrées, alors, pour tout a > 0, ona :

P(

supn>1

∣∣∣ n∑k=1

Xk

∣∣∣ > a)

61a2

∞∑k=1

E (X2k) .

C’est ce que l’on appelle une “inégalité maximale” ; il est naturel, comme onl’a dit, de devoir montrer une telle inégalité, puisque l’on cherche à prouver uneconvergence presque sûre. Cette inégalité de Kolmogorov généralise l’inégalité deBienaymé-Tchebychev (Markov) qui correspond au cas d’une seule v.a.r. (c’est-à-dire si X2 = X3 = · · · = 0). Contrairement à celle de Bienaymé-Tchebychev,sa preuve n’est pas évidente.

On peut aussi remarquer que l’orthogonalité des Xn permet d’écrire queE

( ∑nk=1X

2k

)=

∑nk=1 E (X2

k), et donc l’inégalité de Bienaymé-Tchebychevs’écrit :

P(∣∣∣ n∑

k=1

Xk

∣∣∣ > a)

61a2

n∑k=1

E (X2k) 6

1a2

∞∑k=1

E (X2k) ;

on voit donc le renforcement apporté par l’inégalité de Kolmogorov ; c’est cequi permet de passer de la convergence en probabilité à la convergence presquesûre.

Preuve du Théorème à partir de l’inégalité. On applique l’inégalité pourla suite Xm+1, Xm+2, . . . :

P(

supn>m

∣∣∣ n∑k=m+1

Xk

∣∣∣ > a)

61a2

∞∑k=m+1

E (X2k) .

Posons Sn =∑n

k=1Xk .Comme :

Sn2 − Sn1 6 |Sn2 − Sm|+ |Sn1 − Sm| ,

16

Page 17: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

on a :supn>m

Sn − infn>m

Sn 6 2 supn>m

|Sn − Sm| ,

donc :

P(

supn>m

Sn− infn>m

Sn > 2a)

6 P(

supn>m

|Sn−Sm| > a)

61a2

∞∑k=m+1

E (X2k)−−−→

m→∞0 .

Comme

limn→∞

Sn − limn→∞

Sn = limm→∞

[supn>m

Sn − infn>m

Sn

]= inf

m>1

[supn>m

Sn − infn>m

Sn

],

on a, pour tout m > 1 :supn>m

Sn − infn>m

Sn > 2a⊇

lim

n→∞Sn − lim

n→∞Sn > 2a

;

on obtient donc :P

(lim

n→∞Sn − lim

n→∞Sn > 2a

)= 0 .

Comme c’est vrai pour tout a > 0, cela signifie que :

limn→∞

Sn = limn→∞

Sn p.s. .

La suite (Sn)n>1 a donc presque sûrement une limite. Cette limite est presquesûrement finie car on a vu, juste avant la preuve, que, grâce à l’orthogonalitédes Xn dans L2(P ), la série

∑n>1Xn converge en probabilité vers une v.a.r.

X ∈ L2(P ). Cette v.a.r. X est finie p.s. et est limite en probabilité de la suite(Sn)n>1. Elle coïncide donc avec sa limite presque sûre, qui est donc bien finiepresque sûrement.

Preuve de l’inégalité de Kolmogorov. Introduisons la v.a.r. :

νa : Ω → 1, 2, . . . ,+∞

définie par :

νa(ω) =

+∞ si

∣∣∣∣ n∑k=1

Xk(ω)∣∣∣∣ 6 a , ∀n > 1 ,

minn > 1 ;

∣∣∣∣ n∑k=1

Xk(ω)∣∣∣∣ > a

sinon.

.

On a :

ν(ω) < +∞ =⇒∣∣∣∣ νa(ω)∑

k=1

Xk(ω)∣∣∣∣ > a .

17

Page 18: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

νa(ω) est le premier instant (c’est-à-dire le premier indice) où la somme vadépasser a.

On a :

νa 6 n =⋃

m6n

∣∣∣∣ m∑k=1

Xk(ω)∣∣∣∣ > a

; (3.1)

donc :

νa < +∞ =⋃n>1

νa 6 n =⋃

m>1

∣∣∣∣ m∑k=1

Xk(ω)∣∣∣∣ > a

=

supm>1

∣∣∣∣ m∑k=1

Xk(ω)∣∣∣∣ > a

,

et il s’agit par conséquent de montrer que :

P (νa < +∞) 61a2

∞∑n=1

E (X2n) .

Introduisons alors les v.a.r. Yn définies par :

Yn(ω) = Xn(ω)1Iνa>n(ω) =Xn(ω) si n 6 νa(ω)

0 si n > νa(ω) .

On a :∞∑

n=1

Yn(ω) =νa(ω)∑n=1

Xn(ω) ,

de sorte que, pour calculer la somme des Yn(ω), on calcule celle des Xn(ω), ens’arrêtant à l’indice νa(ω). On dit que la v.a.r. νa est un temps d’arrêt.

Maintenant :• comme |Yn| 6 |Xn|, on a Yn ∈ L2(P ) ;• la suite (Yn)n>1 est orthogonale dans L2(P ). En effet, commençons par

remarquer que (3.1) entraîne :

νa 6 n ∈ σ(X1, . . . , Xn), ∀n > 1 ;

donc :νa > m = νa 6 m− 1c ∈ σ(X1, . . . , Xm−1) ,

et donc Ym est σ(X1, . . . , Xm)-mesurable. Par conséquent, pour m < n, la v.a.r.1Iνa>nYm est σ(X1, . . . , Xn−1)-mesurable, donc indépendante de Xn. Il en ré-sulte que :

E (YnYm) = E (Xn.1Iνa>nYm) = E (Xn) E (1Iνa>nYm) = 0 ;

18

Page 19: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Comme :

νa(ω) < +∞ =⇒∣∣∣∣ νa(ω)∑

n=1

Xn(ω)∣∣∣∣ > a =⇒

∣∣∣∣ ∞∑n=1

Yn(ω)∣∣∣∣ > a ;

on obtient :

P (νa < +∞) 6 P(∣∣∣∣ ∞∑

n=1

Yn(ω)∣∣∣∣ > a

)

61a2

E([ ∞∑

n=1

Yn

]2)(Bienaymé-Tchebychev)

=1a2

∞∑n=1

‖Yn‖2L2(P ) (par orthogonalité)

61a2

∞∑n=1

‖Xn‖2L2(P ) =1a2

∞∑n=1

E (X2n) .

Le Théorème de Kolmogorov a une réciproque partielle.

Théorème 3.12 Si les v.a.r. Xn, n > 1, sont indépendantes, et centrées,et si |Xn| 6 M , ∀n > 1 , alors la convergence p.s. de la série

∑n>1Xn

entraîne∑+∞

n=1 E (X2n) < +∞ .

Remarquons que, puisque |Xn| 6 M , on a Xn ∈ L∞(P ), donc Xn ∈ L2(P ).

Nous allons donner deux preuves de ce résultat. La première reprend lesidées de la preuve du Théorème de Kolmogorov ; la seconde, plus élémentaire,utilise une inégalité très utile, bien que très simple, due à Paley et Zygmund.

Preuve 1. On utilisera de nouveau le temps d’arrêt νa.1) Fixons n > 1.

a) Par définition, sur l’ensemble νa = n, on a∣∣∣∣ n−1∑

k=1

Xk

∣∣∣∣ 6 a .

Comme |Xn| 6 M par hypothèse, on a :∣∣∣∣ n∑k=1

Xk

∣∣∣∣ 6 a+M sur νa = n .

b) Comme νa = n ∈ σ(X1, . . . , Xn), on a, par indépendance, pourk > n :∫

νa=nX2

k dP = E(1Iνa=nX

2k

)= E

(1Iνa=n

)E (X2

k) = P (νa = n) E (X2k) .

19

Page 20: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

c) De même, puisque E (Xk) = 0, on a, pour k > n et k 6= k′ :∫νa=n

Xk′Xk dP = E (1Iνa=nXk′) E (Xk) = 0 .

d) Donc, pour N > n :∫νa=n

( N∑k=1

Xk

)2

dP =∫νa=n

( n∑k=1

Xk

)2

dP +N∑

k=n+1

∫νa=n

X2k dP .

On obtient ainsi :∫νa=n

( N∑k=1

Xk

)2

dP 6 (a+M)2P (νa = n) + P (νa = n)N∑

k=n+1

E (X2k)

6 P (νa = n)[(a+M)2 +

N∑k=n+1

E (X2k)

].

2) En sommant pour 1 6 n 6 N , cela donne :∫νa6N

( N∑k=1

Xk

)2

dP 6 P (νa 6 N)[(a+M)2 +

N∑k=1

E (X2k)

]. (3.2)

3) Notons maintenant que :

νa > N =⇒∣∣∣∣ N∑

k=1

Xk

∣∣∣∣ 6 a ;

donc :∫νa>N

( N∑k=1

Xk

)2

dP 6 a2 P (νa > N) 6 (a+M)2 P (νa > N) . (3.3)

4) En additionnant (3.2) et (3.3), on obtient :

E[( N∑

k=1

Xk

)2]

6 (a+M)2 + P (νa 6 N)N∑

k=1

E (X2k) .

Mais, les v.a.r. Xn, n > 1, étant indépendantes et centrées, sont orthogonales ;

donc E[( ∑N

k=1Xk

)2]=

∑Nk=1 E (X2

k), et l’on obtient :

P (νa > N)N∑

k=1

E (X2k) 6 (a+M)2 .

20

Page 21: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Faisons tendre N vers +∞ ; cela donne :

P (νa = +∞)∞∑

k=1

E (X2k) 6 (a+M)2 .

5) Utilisons maintenant la convergence p.s. de la série∑

n>1Xn. Elle im-plique qu’il existe a > 0 tel que :

P(

supn>1

∣∣∣ n∑k=1

Xk

∣∣∣ 6 a)> 0 ,

car sinon on aurait P(

supn>1

∣∣∣ ∑nk=1Xk

∣∣∣ > m)

= 1, pour tout m > 1, et l’on

aurait donc P(

supn>1

∣∣∣ ∑nk=1Xk

∣∣∣ = +∞)

= 1.Mais cela signifie que pour cet a > 0 :

P (νa = +∞) > 0 ,

ce qui termine la démonstration.

Preuve 2. On commencera par montrer une inégalité simple, mais utile.

Proposition 3.13 (inégalité de Paley-Zygmund) Soit X une v.a.r. po-sitive, non nulle, et dans L2. Alors, pour tout λ ∈]0, 1[, on a :

P(X > λE (X)

)> (1− λ)2

[E (X)]2

E (X2)·

Preuve. Soit A l’événement(X > λE (X)

). Utilisons l’inégalité de Cauchy-

Schwarz pour écrire :

E (X) = E (X1IAc) + E (X1IA) 6 λE (X) + [E (X2)]1/2[E (1IA)]1/2

= λE (X) + P (A)1/2[E (X2)]1/2 ;

d’où (1− λ) E (X) 6 P (A)1/2[E (X2)]1/2, ce qui donne le résultat.

Preuve 2 du Théorème 3.12. On utilisera seulement le fait que la v.a.r. :

S = supn>1

|Sn| = supn>1

|X1 + · · ·+Xn|

est finie presque sûrement.Sans perdre de généralité, on peut supposer que M = 1.Comme X1, . . . , XN sont indépendantes et centrées, elles sont orthogonales

dans L2(P ), et doncN∑

n=1E (X2

n) = E (S2N ). Notons cette valeur par σ2

N .

21

Page 22: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

L’inégalité de Paley-Zygmund donne :

P (S2 > σ2N/2) > P (S2

N > σ2N/2) >

14

σ4N

E (S4N )

·

Majorons E (S4N ). On a :

S4N =

∑ 4!α1! . . . αN !

Xα11 · · ·XαN

N ,

où la somme porte sur tous les N -uples d’entiers tels que α1 + · · · + αN = 4.D’où, par indépendance :

E (S4N ) =

∑ 4!α1! · · ·αN !

E (Xα11 ) · · ·E (XαN

N ) .

Mais un αi égal à 1 donne une contribution nulle car les Xi sont centrées ; donc :

E (S4N ) =

∑ 4!(2β1)! · · · (2βN )!

E (X2β11 ) · · ·E (X2βN

N ) ,

où la somme porte cette fois sur tous lesN -uples d’entiers tels que β1+· · ·+βN =2. Comme |Xn| 6 1, on obtient :

E (S4N ) 6 6

( N∑i=1

E (X4i ) +

∑i 6=j

E (X2i )E (X2

j ))

6 6( N∑

i=1

E (X2i ) +

∑i 6=j

E (X2i )E (X2

j ))

6 6(σ2N + σ4

N ) .

Revenant à l’inégalité de Paley-Zygmund, on obtient donc :

P (S2 > σ2N/2) >

124

σ4N

σ2N + σ4

N

·

Si l’on avait σ2 = limN→∞ σ2N = +∞, cela donnerait, par passage à la limite

monotone : P (S2 = +∞) > 1/24 , ce qui contredirait P (S < +∞) = 1.On a donc bien

∑∞n=1 E (X2

n) = σ2 < +∞.

On peut supprimer l’hypothèse que les variables soient centrées (E (Xn) = 0)de la façon suivante.

Corollaire 3.14 Si les Xn sont indépendantes et si |Xn| 6 M , ∀n > 1, alorsla convergence p.s. de

∑n>1Xn entraîne

∑∞n=1 Var (Xn) < +∞.

Preuve. Soit (X ′n)n>1 une suite indépendante de v.a.r., et elle-même indépen-

dante de la suite (Xn)n>1, telle que X ′n ait la même loi que Xn pour tout

n > 1.La v.a.r. Xs

n = Xn −X ′n est appelée la symétrisée de Xn.

22

Page 23: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Elle est centrée : E (Xsn) = E (Xn)−E (X ′

n) = 0, et |Xsn| 6 |Xn|+|X ′

n| 6 2M .De plus, si la série

∑n>1Xn converge p.s.,

∑n>1X

′n aussi, et donc

∑n>1X

sn

aussi.Le Théorème 3.12 dit alors que

∑∞n=1 E (Xs

n2) < +∞. Mais :

E (Xsn

2) = Var (Xsn) = Var (Xn−X ′

n) = Var (Xn)+Var (X ′n) = 2Var (Xn) .

Nous pouvons maintenant énoncer le résultat principal.

Théorème 3.15 (Théorème des trois séries de Kolmogorov)Si les Xn, n > 1, sont des v.a.r. indépendantes, alors la série

∑n>1Xn

converge presque sûrement si et seulement si les trois séries de nombres sui-vantes convergent :

a)∑

n>1 P (|Xn| > M) ; b)∑

n>1 Var (X [M ]n ) ; c)

∑n>1 E (X [M ]

n ) ,

où X [M ]n est la v.a.r. Xn tronquée en M : X [M ]

n = Xn.1I|Xn|6M .

On remarquera que si les conditions b) et c) sont vérifiées pour un M > 0,elles le sont pour tout M > 0 : il suffit de multiplier les variables Xn par unemême constante.

Preuve.1) Supposons que

∑n>1Xn converge p.s.. Alors :

a) Xnp.s.−−−→

n→∞0 ; on a donc P ( lim

n→∞|Xn| > M) = 0. Mais

limn→∞

|Xn| > M⊇ lim

n→∞|Xn| > M .

Comme les événements An = |Xn| > M sont indépendants, le lemme deBorel-Cantelli donne

∑∞n=1 P (|Xn| > M) < +∞.

b) Les v.a.r.X [M ]n étant indépendantes et bornées parM , on peut utiliser

le Théorème 3.12 (ou plutôt le Corollaire 3.14) puisque∑

n>1X[M ]n converge

p.s. : en effet, on a Xnp.s.−−−→

n→∞0 ; donc, presque sûrement, |Xn| 6 M , pour n

assez grand, c’est-à-dire que, presque sûrement, X [M ]n (ω) = Xn(ω), pour n assez

grand ; on obtient donc∑

n>1 Var (X [M ]n ) < +∞.

c) Le Théorème de Kolmogorov appliqué à la v.a.r. centrée X[M ]n −

E (X [M ]n ) donne alors la convergence p.s. de

∑n>1

(X

[M ]n − E (X [M ]

n )), et donc

la convergence de∑

n>1 E (X [M ]n ) puisque

∑n>1X

[M ]n converge p.s. par le b).

2) Réciproquement, si les trois séries convergent, la condition b) permet,comme ci-dessus, d’appliquer le Théorème de Kolmogorov à X

[M ]n − E (X [M ]

n )

23

Page 24: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

et d’obtenir la convergence p.s. de∑

n>1

(X

[M ]n − E (X [M ]

n )). La condition c)

entraîne alors la convergence p.s. de∑

n>1X[M ]n .

Par ailleurs, la condition a) entraîne que P(

limn→∞

|Xn| > M)

= 0, via

le lemme de Borel-Cantelli ; comme |Xn| > M = Xn 6= X[M ]n , on a donc

Xn = X[M ]n p.s., pour n assez grand, et l’on obtient la convergence p.s. de∑

n>1Xn.

Remarque. 1) Si les Xn sont symétriques, alors les X [M ]n aussi ; on a donc

E (X [M ]n ) = 0 ; la condition c) est par conséquent automatiquement vérifiée.

2) Si les Xn sont positives, alors :

Var (X [M ]n ) 6 E (X [M ]

n

2) 6 E (M.X [M ]

n ) = M.E (X [M ]n ) ,

et dans ce cas, la condition b) résulte de la condition c).

Donnons une application, importante, de ce théorème.

Théorème 3.16 Soit (an)n>1 une suite de nombres complexes, et (Zn)n>1

une suite i.i.d. centrée non nulle, dans L2. Alors la série∑

n>1 anZn convergepresque sûrement si et seulement si

∑∞n=1 |an|2 < +∞.

Preuve. On peut supposer les an réels et aussi ‖Z1‖2 = 1 (et donc ‖Zn‖2 = 1pour tout n > 1).

Si la série∑∞

n=1 |an|2 converge, le Théorème de Kolmogorov donne immé-diatement la convergence p.s. de

∑∞n=1 anZn, puisque ‖Zn‖2 = 1.

Réciproquement, si la série converge p.s., appliquons le Théorème des troisséries à la suite (anZn)n>1, avec le troncage en M = 1.

On a∑∞

n=1 P (|Z1| > 1/|an|) < +∞ ; donc, en particulier :

P (|Z1| 6 1/|an|)−−−→n→∞

1 .

Mais E (Y 1IA)−−−−→P (A)→1

E (Y ) pour toute v.a.r. intégrable Y ; donc :

E[(Z

[1/|an|]1

)2]−−−→n→∞

E (Z21 ) = ‖Z1‖22 = 1 .

De même E[Z

[1/|an|]1

]−−−→n→∞

E (Z1). Comme la v.a.r. Z1 est centrée, on a E (Z1) =0, et donc :

Var (Z [1/|an|]1 ) = E

[(Z

[1/|an|]1

)2]− [E

(Z

[1/|an|]1

)]2−−−→n→∞

1 ,

de sorte que a2nVar (Z [1/|an|]

1 ) ∼ a2n, et donc

∑∞n=1 a

2n < +∞, puisque le Théo-

rème des trois séries nous dit que∑∞

n=1 a2nVar (Z [1/|an|]

1 ) < +∞.

24

Page 25: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

4 Lois des grands nombresOn appelle ainsi les théorèmes donnant l’existence de limites pour les moyen-

nes empiriques :

Xn =X1 + · · ·+Xn

Il y a beaucoup d’énoncés de ce type. On distingue les lois faibles desgrands nombres, qui donnent des limites en probabilité (en fait souvent enmoyenne ou en moyenne quadratique), et les lois fortes des grands nombres,qui donnent des limites presques sûres. Il est bien sûr plus intéressant de savoirqu’il se passe quelquechose presque sûrement, que de savoir que cela se passeen moyenne. On donne en général les deux types de lois car les lois faibles sontplus faciles à prouver. De plus, bien que, basiquement, on suppose les v.a.r. Xn

indépendantes et de même loi, on peut affaiblir les hypothèses pour obtenir deslois faibles, alors que les lois fortes n’ont pas lieu. Il existe donc un grand nombrede types d’énoncés. Nous allons en donner quelques-uns.

4.1 Lois faibles des grands nombresDans le premier énoncé, dû à Tchebychev, nous supposons les v.a.r. dans L2

et non corrélées.

Théorème 4.1 (Tchebychev) Loi faible des grands nombres, cas L2

Si les v.a.r. Xn ∈ L2 sont centrées et non corrélées, et si :

1n2

n∑k=1

E (X2k)−−−→

n→∞0 ,

alors :Xn =

X1 + · · ·+Xn

n

L2

−−−→n→∞

0 .

En particulier : X1+···+Xn

n

P−−−→n→∞

0 .

Preuve. La preuve est très simple. Notons d’abord que, les v.a.r. étant centréeset non corrélées, elles sont orthogonales dans L2 ; donc :

‖Xn‖22 =1n2

n∑k=1

‖Xk‖22 =1n2

n∑k=1

E (X2k)−−−→

n→∞0 .

Cas particulier. Si les Xn ∈ L2 sont centrées, non corrélées, et de même loi,alors E (X2

k) = σ2, pour tout k > 1 ; donc :

1n2

n∑k=1

E (X2k) =

1n2

· (nσ2)−−−→n→∞

0 .

25

Page 26: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

On obtient donc :

Corollaire 4.2 Si les Xn ∈ L2 sont i.i.d., de moyenne m, alors :

Xn =X1 + · · ·+Xn

n

L2

−−−→n→∞

m.

Avant de donner un énoncé valable dans L1, rappelons que si X ∈ L1, alors :• (∀ε > 0) (∃δ > 0) P (A) 6 δ =⇒

∫A|X| dP 6 ε (absolue continuité) ;

• lima→+∞

∫|X|>a

|X| dP = 0 .

Pour une partie F ⊆ L1(P ), ces propriétés peuvent être vérifiées uniformé-ment :

Définition 4.3 Si F ⊆ L1(P ), on dit que :1) F est équicontinue si :

(∀ε > 0) (∃δ > 0) P (A) 6 δ =⇒( ∫

A

|X| dP 6 ε , ∀X ∈ F)

;

2) F est équi-intégrable si :

lima→+∞

[sup

X∈F

∫|X|>a

|X| dP]

= 0 .

Exemple. S’il existe Y ∈ L1(P ) telle que |X| 6 Y , pour tout X ∈ F , alors Fest équi-intégrable.

On pourra vérifier à titre d’exercice que F est équi-intégrable si et seulementsi elle est équicontinue et bornée dans L1(P ).

D’autre part, on montre (Théorème de Dunford-Pettis) que F est équi-intégrable si et seulement si F est relativement compact pour la topologie faiblede L1(P ).

On a :

Théorème 4.4 (Loi faible des grands nombres, cas L1)Si les v.a.r. Xn sont indépendantes, dans L1, et ont la même moyenne

m = E (Xn), et si Xn ; n > 1 est équi-intégrable, alors XnP−−−→

n→∞m .

26

Page 27: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Corollaire 4.5 (Khintchine) Si les Xn ∈ L1 sont i.i.d., alors :

XnP−−−→

n→∞m = E (X1) .

Preuve. Comme les Xn ∈ L1 ont la même loi, elles ont d’une part la même

espérance, et d’autre part∫|Xn|>a

|Xn| dP ne dépend pas de n, de sorte que

Xn ; n > 1 est équi-intégrable.

Preuve du Théorème. On peut supposer m = 0. Soit ε > 0.Par l’équi-intégrabilité, il existe M > 0 tel que :

E(|Xn| 1I|Xn|>M

)6 ε2.

Tronquons les Xn en M :

Yn = X [M ]n = Xn.1I|Xn|6M ,

et posons Zn = Xn − Yn = Xn.1I|Xn|>M.On a :

Xn = Xn − E (Xn) = [Y n − E (Y n)]− [Zn − E (Zn)] ;

donc :

P (|Xn| > 2ε) 6 P (|Y n − E (Y n)| > ε) + P (|Zn − E (Zn)| > ε) .

Or :• l’inégalité de Bienaymé-Tchebychev donne :

P (|Y n − E (Y n)| > ε) 61ε2

Var (Y n)

=1ε2

n∑k=1

Var (Yk)n2

(par indépendance)

61ε2

n∑k=1

E (Y 2k )

n26

1ε2

1n2

× nM2 (car |Yk| 6 M)

=M2

nε2;

• d’autre part, par l’inégalité de Markov :

P (|Zn − E (Zn)| > ε) 61ε

E (|Zn − E (Zn)|) 61ε× 2 E (|Zn|)

62ε× 1n

n∑k=1

E (|Zk|)

62nε

n∑k=1

E (|Xk| 1I|Xk|>M) 62nε

× nε2 = 2ε .

27

Page 28: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Donc :

P (|Xn| > 2ε) 6M2

nε2+ 2ε 6 3ε

pour n assez grand. Par la Proposition 2.2, cela montre que XnP−→

n→∞0.

4.2 Lois fortes des grands nombres

Théorème 4.6 (Rajchman) Loi forte des grands nombres, cas L2

Si les Xn sont dans L2, sont indépendantes et centrées, alors, pourtoute suite croissante de nombres réels un > 0 tendant vers +∞, on a :

∞∑n=1

E (X2n)

u2n

< +∞ =⇒ 1un

n∑k=1

Xkp.s.−−−→

n→∞0 .

Le cas le plus usuel est un = n ; on obtient en particulier :

Corollaire 4.7 Si les Xn ∈ L2 sont i.i.d., de moyenne m, alors :

Xn =1n

n∑k=1

Xkp.s.−−−→

n→∞m.

Preuve. En effet, on peut appliquer le théorème à Xn−m car E((Xn−m)2

)=

Var (Xn) = σ2 ne dépend pas de n et donc :

∞∑n=1

E((Xn −m)2

)n2

= σ2∞∑

n=1

1n2

< +∞ .

Remarque. Avec les hypothèses du corollaire et les v.a.r. Xn centrées, on peutmême prendre un =

√n(log n)α pour tout α > 1/2 ; on a donc, pour tout

α > 1/2 :

1√n(log n)α

n∑k=1

Xkp.s.−−−→

n→∞0 . (4.1)

Preuve du Théorème 4.6. Le Théorème de Kolmogorov, appliqué à Xn/un

nous dit que la série∑n>1

Xn

unconverge p.s. . Il suffit donc d’utiliser le lemme

suivant.

28

Page 29: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Lemme 4.8 (Lemme de Kronecker) Pour toute suite croissante de nom-bres réels un > 0 tendant vers +∞, et pour toute suite de nombres réels xn

telle que∑n>1

xn

unconverge dans R, on a :

1un

n∑k=1

xk −−−→n→∞

0 .

Preuve. Posons u0 = 0 et, pour n > 1 :

vn = un − un−1 > 0 , zn =n∑

k=1

xk

uk·

Alors :∞∑

n=1

vn = +∞

etz = lim

n→∞zn existe dans R.

On a, en posant z0 = 0 :n∑

k=1

xk =n∑

k=1

ukxk

uk=

n∑k=1

uk(zk − zk−1)

= u1(z1 − z0) + u2(z2 − z1) + · · ·+ un(zn − zn−1)= u1z0 + (u1 − u2)z1 + (u2 − u3)z2 + · · ·+ (un−1 − un)zn−1 + unzn

= −(v1z0 + v2z1 + · · ·+ vnzn−1) + (v1 + · · ·+ vn)zn

=n∑

l=1

vl(zn − zl−1).

Donnons-nous ε > 0 et choisissons pε > 1 tel que pour n > p > pε on ait :

supl>p

|zn − zl−1| 6 ε.

Alors, pour n > p > pε :∣∣∣ 1un

n∑k=1

xk

∣∣∣ 61un

p∑l=1

vl |zn − zl−1|+1un

n∑l=p+1

vl supl>p

|zn − zl−1|

61un

( p∑l=1

vl

)2 sup

l>1|zl|+

1un

n∑l=p+1

vl ε

=1unup .2 sup

l>1|zl|+

1un

(un − up) ε ;

29

Page 30: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

d’où, en faisant tendre n vers +∞ :

limn→∞

∣∣∣ 1un

n∑k=1

xk

∣∣∣ 6 ε,

ce qui prouve le lemme, puisque ε > 0 était arbitraire.

Théorème 4.9 (Kolmogorov) Loi forte des grands nombres, cas L1

Si les Xn sont dans L1 et sont i.i.d., de moyenne m, on a :

Xn =1n

n∑k=1

Xkp.s.−−−→

n→∞m.

Preuve. On peut supposer, en remplaçant Xn par Xn − E (Xn) que m = 0.Nous allons nous ramener au cas L2, en utilisant les v.a.r. tronquées :

Yn = Xn 1I|Xn|6n .

Comme |Yn| 6 n, on a Yn ∈ L2 ; les Y ′n = Yn − E (Yn) sont donc dans L2, et

elles sont indépendantes et centrées. De plus :

∞∑n=1

E (Y ′2n)

n2=

∞∑n=1

Var (Yn)n2

6∞∑

n=1

E (Y 2n )

n2=

∞∑n=1

1n2

∫Rx21I|x|6n dPX1(x)

=∫

Rx2

( ∞∑n=1

1n2

1In>|x|

)dPX1(x) 6

∫R(1 + |x|) dPX1(x) < +∞ ,

car :

∑n>|x|

1n2

61x2

+∑

n>nx+1

1n2

61x2

+∫ +∞

nx

dt

t26

1x2

+∫ +∞

|x|

dt

t2=

1x2

+1|x|

.

30

Page 31: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Par conséquent, le cas L2 de la loi forte des grands nombres dit que :

1n

n∑k=1

Y ′k

p.s.−−−→n→∞

0 .

Mais :

E (Yn) = E (Xn.1I|Xn|6n) = E (X1.1I|X1|6n)−−−→n→∞

E (X1) = 0 ,

par convergence dominée. Donc :

1n

n∑k=1

E (Yk)−−−→n→∞

0 ,

et :1n

n∑k=1

Yk =1n

n∑k=1

Y ′k +

1n

n∑k=1

E (Yk)p.s.−−−→

n→∞0 .

Il reste à voir que limn→∞(Xn−Yn) = 0 presque sûrement. Mais cela résultedu lemme de Borel-Cantelli :

∞∑n=1

P (Xn 6= Yn) =∞∑

n=1

P (|Xn| > n) =∫

R

( ∞∑n=1

1I|x|>n

)dPX1(x)

6∫

R|x| dPX1(x) = E (|X1|) < +∞

entraîne :

P ( limn→∞

|Xn − Yn| > 0) 6 P ( limn→∞

|Xn − Yn| > 0) = P ( limn→∞

Xn 6= Yn) = 0 .

5 Le Théorème-Limite Central

5.1 IntroductionNous avons vu (voir (4.1)) que si les Xn ∈ L2 sont i.i.d. et centrées, alors

Sn = X1 + · · ·+Xn vérifie, pour tout α > 1/2 :

Sn√n(log n)α

p.s.−−−→n→∞

0 .

Une question naturelle est de trouver l’ordre de grandeur de Sn. Nous venonsde voir que Sn croît moins vite que

√n(log n)α pour tout α > 1/2.

D’un autre côté, si Xn ∼ N (0, 1) pour tout n > 1, alorsSn√n

aussi. Donc

pour tout R > 0, on a :

P( SN√

N> R

)=

1√2π

∫ +∞

R

e−x2/2 dx = KR > 0 .

31

Page 32: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Or : ⋂n>1

supk>n

Sk√k

> R⊆

lim

n→∞

Sn√n

> R

;

donc :

P(

limn→∞

Sn√n

> R)

> lim↓n→∞

P(

supk>n

Sk√k

> R)

> limn→∞

P( Sn√

n> R

)= KR > 0.

Comme limn→∞

Sn√n

est p.s. constante par la loi du 0–1, cette constante ne peut

être que +∞ ; donc limn→∞

Sn√n

p.s.= +∞, de sorte que, dans ce cas, Sn croît plus

vite que√n.

L’ordre de grandeur doit donc se trouver entre√n et

√n(log n)α, α > 1/2.

Il revient à Khintchine d’avoir trouvé cet ordre de grandeur pour les v.a.r. deBernoulli (1924) ; le cas général est dû à Hartman et Wintner (1941).

Théorème 5.1 (Loi du logarithme itéré) Si les v.a.r. Xn ∈ L2 sonti.i.d. et centrées, d’écart-type σ, alors, presque sûrement, l’ensemble des va-

leurs d’adhérence deSn√

n log(log n)est tout l’intervalle [−σ

√2,+σ

√2] .

En particulier limn→∞

Sn√n log(log n)

p.s.= σ

√2 et lim

n→∞

Sn√n log(log n)

p.s.= −σ

√2.

La preuve est difficile, et on ne la donnera pas. Il faut en retenir qu’il n’ya pas de limite p.s. , et pas de “bon” ordre de grandeur pour avoir une limitepresque sûre.

Pour trouver un ordre de grandeur, nous allons introduire une notion deconvergence plus faible : la convergence en loi.

5.2 Convergence en loi

Définition 5.2 On dit que la suite de v.a.r. (Xn)n>1 converge en loi (ouaussi converge en distribution) vers la v.a.r. X si :

E[f(Xn)

]−−−→n→∞

E[f(X)

], ∀f ∈ Cb(R) .

On note XnL−−−→

n→∞X .

32

Page 33: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Cb(R) est l’ensemble des fonctions continues bornées sur R. f(X) et f(Xn)sont des notations pour f X et f Xn.

Remarque importante. La condition s’écrit aussi :∫Rf(x) dPXn(x)−−−→

n→∞

∫Rf(x) dPX(x) , ∀f ∈ Cb(R) ;

on voit donc que cette convergence ne fait intervenir que la loi des v.a.r. Xn etX. C’est donc une convergence concernant les lois des v.a.r. et pas les v.a.r. elle-mêmes. En particulier, et contrairement aux autres convergences, les différentesv.a.r. Xn et X peuvent très bien ne même pas être définies sur le même espacede probabilité.

Il en résulte des comportements d’apparence inhabituels pour cette conver-gence.

Exemple. Soit deux v.a.r. différentes X et Y , mais ayant la même loi. Alors,si l’on pose Xn = X, pour tout n > 1, on a Xn

L−−−→n→∞

X et XnL−−−→

n→∞Y , bien que

X 6= Y .Supposons maintenant que X soit symétrique, i.e. ait la même loi que (−X)

(par exemple X ∼ N (0, 1), ou X v.a.r. telle que P (X = 1) = P (X = −1) =1/2), alors, en prenant Xn = X pour tout n > 1, et Y = −X, on a Xn

L−−−→n→∞

X

et XnL−−−→

n→∞(−X), bien que 2X = Xn + Xn 6L−−−→

n→∞X + (−X) = 0, et X2 =

(Xn)(Xn) 6L−−−→n→∞

(X)(−X) = −X2.

Ces précautions étant prises, on a :

Proposition 5.3 Si XnP−−−→

n→∞X, alors Xn

L−−−−→n→+∞

X.

Nous utiliserons le lemme suivant, disant que, dans la définition de la conver-gence en loi, il suffit de tester sur les fonctions continues à support compact, aulieu de toutes les fonctions continues bornées sur R.

Lemme 5.4 Pour que XnL−−−→

n→∞X, il suffit (et il faut) que :

E[f(Xn)

]−−−→n→∞

E[f(X)

], ∀f ∈ K (R) = D0(R) .

Preuve. Soit f ∈ Cb(R) arbitraire.

33

Page 34: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Prenons une suite croissante vers 1I de fonctions positives ϕk ∈ K (R). Alorsfϕk ∈ K (R), et l’on a :

|E [f(Xn)]− E [f(X)]| 6 |E [(fϕk)(Xn)]− E [(fϕk)(X)]|

+ ‖f‖∞[ ∫

R(1I− ϕk) dPXn

+∫

R(1I− ϕk) dPX

].

Mais, pour k fixé, on a : E [(fϕk)(Xn)]−−−→n→∞

E [(fϕk)(X)] et donc :∫R(1I− ϕk) dPXn

= 1−∫

Rϕk dPXn

−−−→n→∞

1−∫

Rϕk dPX =

∫R(1I− ϕk) dPX .

(On notera qu’il est essentiel que PX et PXnsoient des probabilités, de sorte

que∫

R dPXn=

∫R dPX = 1 : il n’y a pas de perte de masse).

Donc :

limn→∞

|E [f(Xn)]− E [f(X)]| 6 2 ‖f‖∞∫

R(1I− ϕk) dPX .

Il reste à faire tendre k vers l’infini, et à utiliser le Théorème de convergencemonotone pour obtenir :

limn→∞

∣∣E [f(Xn)]− E [f(X)]∣∣ = 0 .

Preuve de la Proposition 5.3.Si f ∈ K (R), alors f est uniformément continue.Soit alors ε > 0, et choisissons δ > 0 tel que :

|x− x′| 6 δ =⇒ |f(x)− f(x′)| 6 ε .

Choisissons ensuite N > 1 tel que :

n > N =⇒ P (|Xn −X| > δ) 6 ε .

Alors, pour n > N :

|E [f(Xn)]− E [f(X)]| 6∫|Xn−X|6δ

|f(Xn)− f(X)| dP +∫|Xn−X|>δ

|f(Xn)− f(X)| dP

6 ε+ 2‖f‖∞P (|Xn −X| > δ)6 (1 + 2‖f‖∞) ε .

En général, la convergence en loi n’entraîne pas la convergence en probabilité,puisque l’on peut avoir Xn

L−−−→n→∞

X et YnL−−−→

n→∞Y sans que Xn + Yn ne converge

en loi vers X + Y . Toutefois, dans certains cas, c’est cependant vrai. Voyons-enun tout de suite.

Proposition 5.5 Si les Xn sont définies sur le même espace de probabilité, etsi Xn

L−−−→n→∞

a1I, la limite étant une v.a.r. constante, alors XnP−−−→

n→∞a1I .

34

Page 35: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Preuve. En effet, soit ε > 0 et ϕε continue sur R, nulle hors de [a − ε, a + ε]telle que 0 6 ϕε 6 1 et ϕε(a) = 1 . Alors :

XnL−−−→

n→∞a1I =⇒ E [ϕε(Xn)]−−−→

n→∞E [ϕε(a1I)] =

∫Rϕε dδa = ϕε(a) = 1 .

Donc, pour tout ε > 0 :

P (|Xn − a1I| > ε) = 1− P (Xn ∈ [a− ε, a+ ε]) = 1−∫

R1I[a−ε,a+ε] dPXn

6 1−∫

Rϕε dPXn

= 1− E [ϕε(Xn)]−−−→n→∞

0 .

Le critère suivant est d’un usage constant.

Théorème 5.6 XnL−−−→

n→∞X si et seulement si :

ΦXn(t)−−−→

n→∞ΦX(t) , ∀t ∈ R .

Preuve. La condition nécessaire est évidente car x 7→ eixt est continue et bornéesur R.

Inversement, si ΦXn(t)−−−→

n→∞ΦX(t) pour tout t ∈ R, alors, pour toute f ∈

L1(R), on a, en utilisant les Théorèmes de Fubini et de convergence dominée :∫Rf(x) dPXn

(x) =∫

R

[ ∫Rf(t) e−2πixt dt

]dPXn

(x)

=∫

Rf(t)ΦXn

(−2πt) dt

−−−→n→∞

∫Rf(t)ΦX(−2πt) dt =

∫Rf(x) dPX(x) .

Comme FL1(R) = f ; f ∈ L1(R) est dense dans C0(R), on obtient, pourtoute g ∈ C0(R) ⊇ K (R) :∫

Rg(x) dPXn(x)−−−→

n→∞

∫Rg(x) dPX(x) .

On peut alors démontrer le Théorème-Limite central (TLC), parfois appeléThéorème de la limite centrée.

35

Page 36: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Théorème 5.7 (Paul Lévy) Théorème-Limite CentralSoit (Xn)n>1 une suite i.i.d. de v.a.r. Xn ∈ L2(P ), de moyenne m et de

variance σ2. Alors :

X1 + · · ·+Xn − nm

σ√n

L−−−→n→∞

Z0 ∼ N (0, 1) .

Remarque. Posons Sn = X1 + · · ·+Xn ; le théorème s’écrit :

Sn − nm

σ√n

L−−−→n→∞

Z0 ∼ N (0, 1) .

On notera que la loi forte des grands nombres dit que :

Sn − nm

σ√n(log n)α

p.s.−−−→n→∞

0 , ∀α > 12

,

et que la loi du logarithme itéré dit que :

limn→∞

Sn − nm

σ√n log(log n)

p.s.=√

2 ; limn→∞

Sn − nm

σ√n log(log n)

p.s.= −

√2 .

Le bon ordre de grandeur de (Sn−nm)/σ pour la convergence presque sûre est√n log(log n), mais il n’y a pas de limite ; lorsque l’on remplace cette valeur par

la valeur plus petite√n, on a une convergence, en loi, vers N (0, 1).

Preuve. Soit Φ la f.c. commune des v.a.r. centrées X ′k = Xk − m. Comme

X ′k ∈ L2, Φ est deux fois dérivable et a donc un développement limité d’ordre 2

au voisinage de 0 :

Φ(u) = 1− σ2

2u2 + o (u2),

(puisque Φ′(0) = iE (X ′k) = 0 et que Φ′′(0) = −E (X ′

k2) = −σ2).

Alors, si :

Yn =1

σ√n

n∑k=1

(Xk −m) ,

l’indépendance donne :

ΦYn(t) =

( t

σ√n

)]n

=[1− t2

2n+ o n

( t2n

)]n

−−−→n→∞

e−t2/2 .

On notera que le o n

(t2

n

)apparaissant dans la formule ci-dessus est un terme

complexe. Toutefois, on peut définir log(1 + u) =∑∞

k=1(−1)k+1

k uk pour u ∈ Cde module |u| < 1 ; le calcul habituel reste donc valable.

Il y a eu beaucoup de perfectionnements du TLC. Il est souhaitable, parexemple, de supprimer la condition, trop forte, que les v.a.r. Xn possèdent lamême loi. Dans cette direction, on citera le résultat suivant.

36

Page 37: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Théorème 5.8 (TLC de Lindeberg, 1922) Soit Xn ∈ L2(P ) des v.a.r. cen-trées et indépendantes, et notons σSn l’écart-type de Sn = X1 + · · ·+Xn.

Si l’on a la condition de Lindeberg :

(∀ε > 0) gn(ε) =1σ2

Sn

n∑k=1

∫|Xk|>εσSn

X2k dP −−−→

n→∞0 , (L)

alors :Sn

σSn

L−−−→n→∞

Z0 ∼ N (0, 1) .

La preuve est un peu calculatoire.Il faut noter que la condition de Lindeberg (L) est vérifiée si les Xn ont la

même loi (ce qui donne le TLC), ou encore si elles sont bornées par une mêmeconstante. Elle peut paraître artificielle, mais Feller a montré (1935) qu’elle étaitnécessaire, à condition de demander que :

maxk6n

Var (Xk)Var (Sn)

−−−→n→∞

0 ,

condition qui est vérifiée lorsque la condition de Lindeberg l’est :

Var (Xk) =∫|x|<εσSn

x2 dPXk+

∫|x|>εσSn

x2 dPXk6 ε2σ2

Sn+

n∑j=1

∫|x|>εσSn

x2 dPXk.

5.3 Convergence en loi et fonction de répartition

Proposition 5.9 On a XnL−−−→

n→∞X si et seulement si FXn

(x)−−−→n→∞

FX(x)pour tout x ∈ R tel que FX soit continue en x.

Bien sûr, s’il y a convergence des fonctions de répartition pour tout x ∈ R, il yaura convergence en loi ; mais la convegence en loi n’entraîne pas la convergencepartout des fonctions de répartition.

Exemple. Si P (Xn = −1/n) = P (Xn = 1/n) = 1/2, on aXn ∼ 12 (δ−1/n+δ1/n),

et :

FXn(x) =

0 si x < −1/n1/2 si −1/n 6 x < 1/n1 si x > 1/n

−−−→n→∞

F ∗(x) =

0 si x < 01/2 si x = 01 si x > 0 .

F ∗ n’est pas une fonction de répartition (elle n’est pas continue à droite en 0),mais, pour tout x 6= 0, on a F ∗(x) = 1I[0,+∞[(x), qui est la fonction de répartition

de X = 0. Donc XnL−−−→

n→∞0 .

37

Page 38: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

En fait, XnP−−−→

n→∞0 car, lorsque n > 1/ε, on a P (|Xn| > ε) = 0.

Notons que si la v.a.r. limite X a une densité, alors sa fonction de répar-tition FX est continue sur R ; dans ce cas, la convergence en loi équivaut àla convergence des fonctions de répartitions en tout point. En particulier, siZ0 ∼ N (0, 1), FZ0 est continue et le TLC signifie que pour tous les a < b, ona :

P(a 6

Sn − nm

σ√n

6 b)−−−→n→∞

1√2π

∫ b

a

e−x2/2 dx .

Preuve de la Proposition.1) Supposons que Xn

L−−−→n→∞

X .Soit, pour chaque k > 1, ϕk : R → R définie par :

ϕk(t) =

1 si t 6 xaffine sur [x, x+ 1/k]0 si t > x+ 1/k .

Alors ϕk est continue et bornée sur R, 0 6 ϕk 6 1I, et la suite (ϕk)k>1 décroîtvers 1I]−∞,x] .

Pour k fixé :

FXn(x) 6 E [ϕk(Xn)]−−−→

n→∞E [ϕk(X)] 6 FX(x+ 1/k) .

Donc limn→∞

FXn(x) 6 FX(x), en utilisant la continuité à droite de FX .

De même, si ψk : R → R est définie par :

ψk(t) =

1 si t 6 x− 1/kaffine sur [x− 1/k]0 si t > x ,

ψk est continue et bornée sur R, 0 6 ψk 6 1I, et la suite (ψk)k>1 croît vers1I]−∞,x[ ; et, puisque, pour k fixé :

FXn(x) > E [ψk(Xn)]−−−→

n→∞E [ψk(X)] > FX(x− 1/k) ,

on obtient, en utilisant l’hypothèse sur la continuité de FX en x :

limn→∞

FXn(x) > FX(x) .

2) Inversement, soit ∆ l’ensemble des points de discontinuité de FX . Poura, b 6∈ ∆, on a, par hypothèse :

PXn(]a, b]) = FXn(b)− FXn(a)−−−→n→∞

FX(b)− FX(a) = PX(]a, b]) .

Soit f ∈ K (R) = D 0(R) continue à support compact, et soit ε > 0.

38

Page 39: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Comme ∆ est dénombrable (car FX est croissante), on peut trouver, grâceà la continuité uniforme de f sur R, une fonction en escalier :

ϕ =k∑

j=1

cj1I]aj ,bj ] ,

avec aj , bj 6∈ ∆, pour tout j 6 k, telle que ‖f − ϕ‖∞ 6 ε . Alors :∫RϕdPXn

=k∑

j=1

cjPXn(]aj , bj ])−−−→

n→∞

k∑j=1

cjPX(]aj , bj ]) =∫

RϕdPX ;

donc :

limn→∞

∣∣∣∣ ∫Rf dPXn

−∫

Rf dPX

∣∣∣∣ 6 limn→∞

( ∫R|f − ϕ| dPXn

+∫

R|f − ϕ| dPX

)6 2ε .

6 Quelques utilisations de la convergence en loi

6.1 Espaces gaussiens

Théorème 6.1 Toute limite en loi de v.a.r. gaussiennes est encore gaus-sienne.

Rappelons que l’on considère les constantes comme des v.a.r. gaussiennes(dégénérées).

Preuve. Soit Xn ∼ N (mn, σ2n) telles que Xn

L−−−→n→∞

X. On a :

ΦX(t) = limn→∞

ΦXn(t) = limn→∞

exp(imnt−

12σ2

nt2), ∀t ∈ R .

Alors :a) la suite (σn)n>1 converge.En effet, on a :

|ΦX(t)| = limn→∞

e−12 σ2

nt2 , ∀t ∈ R .

Or ΦX(0) = 1 et ΦX est continue ; donc pour |t| 6 δ, on a |ΦX(t)| > 1/2 > 0,de sorte que l’on peut écrire :

log |ΦX(t)| = limn→∞

(− 1

2σ2

nt2),

39

Page 40: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

et cela entraîne la convergence de (σn)n>1.b) la suite (mn)n>1 converge.Notons pour cela σ = limn→∞ σn. On a donc :

limn→∞

ei mnt = ΦX(t)e12 σ2t2 = l(t) , ∀t ∈ R .

Nous allons alors montrer que :i) la suite (mn)n>1 est bornée.

En effet, comme |l(t)| = 1, il existe un borélien B borné tel que∫

B

l(t) dt 6= 0

(sinon, on aurait l = 0 presque partout) ; on a donc, par convergence dominée :

limn→∞

∫B

ei mnt dt =∫

B

l(t) dt 6= 0 .

Si (mn)n>1 n’étaitpas bornée, elle aurait une sous-suite (mnk)k>1 telle que

|mnk| −−−→

k→∞+∞ . Mais, cela contredirait le fait que la transformée de Fourier

d’une fonction intégrable tend vers 0 à l’infini :

lim|x|→+∞

∫B

eixt dt = lim|x|→+∞

1IB(− x

)= 0 .

ii) la suite (mn)n>1 n’a qu’une seule valeur d’adhérence.En effet, si m et m′ sont deux valeurs d’adhérence, on doit avoir :

l(t) = eimt = eim′t

pour tout t ∈ R, d’où m = m′ en dérivant par rapport à t, puis en prenantt = 0.

c) Il résulte de ce qui précède que ΦX(t) = exp(imt− 1

2σ2t2

), et par consé-

quent X ∼ N (m,σ2) (si σ = 0, ΦX(t) = eimt, et X est presque sûrementconstante, égale à m).

Conséquence importante. Rappelons d’abord que si X est une gaussienne,alors X ∈ Lr(P ) pour tout r > 1. Si maintenant G ⊆ Lr(P ) est une partie deLr(P ) formée de gaussiennes, son adhérence est encore formée de gaussiennes,puisque la convergence dans Lr(P ) entraîne la convergence en probabilité, doncla convergence en loi. Dans la définition suivante, la condition que G soit ferméest donc peu importante, car son adhérence sera aussi composée de gaussiennes.

Définition 6.2 On appelle sous-espace gaussien tout sous-espace vectorielfermé G de L2(P ) qui est entièrement formé de v.a.r. gaussiennes.

Remarque importante. Par contre, le fait que G soit un sous-espace vectoriela la conséquence essentielle suivante : pour tout choix de X1, . . . , Xn ∈ G , on

40

Page 41: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

a a1X1 + · · ·+ anXn ∈ G ; donc a1X1 + · · ·+ anXn est une gaussienne, et cecipour tous a1, . . . , an ∈ R. Cela signifie que le vecteur aléatoire (X1, . . . , Xn) estun vecteur gaussien.

Il en résulte en particulier que si une suite (Xn)n>1 de v.a.r. centrées estorthogonale dans L2(P ) (en particulier, si c’est une base orthonormée de L2(P )),alors cette suite est indépendante.

On a :

Théorème 6.3 Si G est un sous-espace gaussien de L2(P ), il est fermé danstous les espaces Lr(P ) pour 1 6 r < +∞, et toutes les normes ‖ ‖r sontéquivalentes sur G .

En particulier, G est un sous-espace hilbertien (donc réflexif) de L1(P ).

Preuve. C’est un principe général pour tout sous-espace vectoriel fermé de L2

qui est contenu dans tous les Lr. En effet :a) Si r > 2 : et si des Xn ∈ G vérifient ‖Xn − X‖r −−−→

n→∞0, alors, puisque

‖Xn −X‖2 6 ‖Xn −X‖r, on a ‖Xn −X‖2−−−→n→∞

0, et donc X ∈ G . G est doncfermé dans Lr, et il résulte du Théorème des isomorphismes de Banach qu’ilexiste Cr > 0 telle que : ‖X‖r 6 Cr‖X‖2, pour tout X ∈ G .

b) Si 1 6 r 6 2, comme ‖X‖1 6 ‖X‖r 6 ‖X‖2, il suffit de montrer que ‖ ‖1et ‖ ‖2 sont équivalentes sur G . Mais l’inégalité de Cauchy-Schwarz donne :

‖X‖22 =∫

Ω

X2 dP =∫

Ω

|X|1/2|X|3/2 dP 6

( ∫Ω

|X| dP)1/2( ∫

Ω

|X|3 dP)1/2

= ‖X‖1/21 ‖X‖3/2

3 6 ‖X‖1/21

(C3‖X‖2

)3/2,

d’où ‖X‖2 6 C33‖X‖1.

6.2 Séries de v.a.r. indépendantes

Théorème 6.4 (Paul Lévy) Si des v.a.r. Xn, n > 1, sont indépen-dantes, les convergences presque sûre, en probabilité, et en loi de la série∑

n>1Xn sont équivalentes.

Pour montrer cela, il suffit de montrer, puisque la convergence p.s. en-traîne toujours la convergence en probabilité, qui elle-même entraîne toujoursla convergence en loi, que cette dernière entraîne la convergence p.s. pour lesséries de v.a.r. indépendantes.

Il sera pratique d’utiliser le résultat suivant, sorte de “critère de Cauchy”pour la convergence en loi.

41

Page 42: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Théorème 6.5 (Théorème de continuité de Paul Lévy) Soit (Xn)n>1

une suite de variables aléatoires réelles. Si les fonctions caractéristiques ΦXn,

n > 1, convergent ponctuellement vers une fonction Φ continue en 0, alors(Xn)n>1 converge en loi vers une v.a.r. X et Φ est la fonction caractéristiquede X.

Preuve. Posons µn = PXn. Comme l’ensemble des probabilités sur R est une

partie de la boule unité du dual de l’espace de Banach séparable C0(R), on peutextraire une sous-suite w∗-convergente (µnk

)k>1, vers une mesure µ de norme6 1. µ est clairement une mesure positive.

Il s’agit maintenant de montrer que µ est une probabilité, c’est-à-dire qu’iln’y a pas de perte de masse, et donc que µ(R) = 1. Cela terminera la preuvepuisque si X est une v.a.r. de loi PX = µ, les Φk = ΦXnk

, k > 1, convergerontdonc ponctuellement vers ΦX , et ainsi on aura Φ = ΦX . Ensuite, comme lasuite entière (ΦXn

)n>1, converge vers Φ = ΦX , on a bien convergence en loi de(Xn)n>1 vers X.

Pour la conservation de la masse, notons d’abord que, puisque ΦXn(0) = 1,on a Φ(0) = 1. Considérons le noyau de Cauchy K(x) = 1

π(1+x2) et l’unitéapprochée :

Kn(x) =n

π(1 + n2x2)·

Comme (Kn)n>1 est une unité approchée, et comme Φ est continue en 0, on a :∫RKn(x)Φ(x) dx = (Kn ∗ Φ)(0)−−−→

n→∞Φ(0) = 1.

Mais, pour tout n > 1, le Théorème de convergence dominée (puisque |Φk(x)| 61 et Kn ∈ L1(R)) et le Théorème de Fubini donnent :∫

RKn(x)Φ(x) dx = lim

k→∞

∫RKn(x)Φk(x) dx

= limk→∞

∫RKn

(− t

)dµnk

(t) =∫

RKn

(− t

)dµ(t) ,

puisque Kn ∈ C0(R). Il reste à remarquer que Kn(−t/2π) = e−|t|/n−−−→n→∞

1, desorte que : ∫

RKn(−t/2π) dµ(t)−−−→

n→∞

∫Rdµ = µ(R) .

On a donc µ(R) = Φ(0) = 1.

Remarque. On n’a utilisé que la continuité de Φ en 0, mais elle entraîne lacontinuité sur R ; en effet, l’inégalité de Cauchy-Schwarz donne |Φn(t + h) −Φn(t)|2 6 2

(1−Re Φn(h)

), et donc, en passant à la limite : |Φ(t+h)−Φ(t)|2 6

2(1− Re Φ(h)

).

42

Page 43: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Maintenant, pour prouver le Théorème 6.4, allons utiliser les inégalités sui-vantes, qui permettrons d’appliquer le Théorème des trois séries.

Proposition 6.6 (inégalités de troncature) Pour toute v.a.r. X, on a,pour tout t > 0 :

1)∫ 1/t

−1/t

x2 dPX(x) =∫

Ω

X21I|X|61/t dP 63t2

(1− Re ΦX(t)

).

2) P(|X| > 1/t)

)6

7t

∫ t

0

(1− Re ΦX(u)

)du .

Preuve.1) Utilisons l’inégalité :

1− cosu >u2

2− u4

24,

valable pour tout u ∈ R. Elle donne :

1− Re ΦX(t) =∫

R

(1− cos(tx)

)dPX(x) >

∫R

12t2x2

(1− t2x2

12

)dPX(x)

>∫|x|<1/t

12t2x2 × 11

12dPX(x) =

1124t2

∫|x|<1/t

x2 dPX(x) .

2) Utilisons le théorème de Fubini :

1t

∫ t

0

(1− Re ΦX(u)

)du =

1t

∫ t

0

( ∫R

(1− cos(ux)

)dPX(x)

)du

=∫

R

(1− sin(tx)

tx

)dPX(x)

>∫|x|>1/t

(1− sin(tx)

tx

)dPX(x)

>17

P(|X| > 1/t

),

car :|v| > 1 =⇒ sin v

v6

67

,

qui est évident si v > 7/6, et vient de :

sin vv

6 1− v2

6+

v4

120= ϕ(v) 6 ϕ(1) =

101120

<76

pour 1 6 v 6 7/6.

Preuve du Théorème 6.4. Posons Sn = X1 + · · · + Xn . Par hypothèseSn

L−−−→n→∞

X .

43

Page 44: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

Pour tout t ∈ R, on a :

ΦX(t) = limn→∞

ΦXn(t) = limn→∞

ΦX1(t) . . .ΦXn(t) =∞∏

k=1

ΦXk(t) .

Comme on l’a dit, les inégalités de troncature vont servir à vérifier les condi-tions du Théorème des trois séries. Comme ces inégalités ne font intervenir queles parties réelles des fonctions caractéristiques, nous allons nous ramener àdes v.a.r. dont la fonction caractéristique est réelle, grâce au lemme suivant,immédiat à vérifier.

Lemme 6.7 Pour toute v.a.r. X, la fonction caractéristique de sa symétriséeXs vaut ΦXs(t) = |ΦX(t)|2, pour tout t ∈ R .

Il sera pratique ici de définir la symétrisée Xs, non pas sur Ω, mais sur Ω×Ω.On posera donc :

Xs : Ω× Ω −→ R(ω, ω′) 7−→ X(ω)−X(ω′) .

Ecrivons alors :

ΦXs(t) = |ΦX(t)|2 =∞∏

k=1

|ΦXk(t)|2 =

∞∏k=1

ΦXsk(t) .

Comme ΦXs(0) = 1, et comme ΦXs est continue, il existe δ > 0 tel queΦXs(t) > 1/2 pour |t| 6 δ. Pour ces valeurs, on a :

− log(ΦXs(t)

)=

∞∑k=1

[− log

(ΦXs

k(t)

)]>

∞∑k=1

[1− ΦXs

k(t)

].

Vérifions alors les hypothèses du Théorème des trois séries pour∑

k>1Xsk :

(a) la deuxième inégalité de troncature s’écrit :

P(|Xs

k| > 1/δ)

67δ

∫ δ

0

(1− ΦXs

k(t)

)dt ,

d’où, puisque 1− ΦXsk(t) > 0 :

∞∑k=1

P(|Xs

k| > 1/δ)

67δ

∫ δ

0

[ ∞∑k=1

(1− ΦXs

k(t)

)]dt

67δ

∫ δ

0

[− log

(ΦXs(t)

)]dt 6

7δ× δ log 2 = 7 log 2 < +∞ ;

(b) les v.a.r. Xsk étant symétriques, les variables tronquées en 1/δ :(

Xsk

)[1/δ] = Xsk.1I|Xs

k|61/δ

44

Page 45: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

sont aussi symétriques ; donc E[(Xs

k

)[1/δ]] = 0, et ainsi la convergence de la

série∑

k>1 E[(Xs

k

)[1/δ]] est évidente ;

(c) puisque E[(Xs

k

)[1/δ]] = 0, on a Var[(Xs

k

)[1/δ]] = E([(

Xsk

)[1/δ]]2) ; lapremière inégalité de troncature permet alors d’écrire :

∞∑k=1

Var[(Xs

k

)[1/δ]] =∞∑

k=1

∫ 1/δ

−1/δ

x2 dPXsk(x)

63δ2

∞∑k=1

[1− ΦXs

k(δ)

]6

3δ2

[− log

(ΦXs(δ)

)]< +∞ .

Le Théorème des trois séries nous dit alors que la série∑

k>1Xsk converge

presque sûrement, c’est-à-dire que pour presque tout (ω, ω′) ∈ Ω × Ω, la série∑k>1

[Xk(ω)−Xk(ω′)

]converge. Par le Théorème de Fubini, cela signifie aussi

que, pour presque tout ω′ ∈ Ω, la série∑

k>1

[Xk(ω) −Xk(ω′)

]converge pour

presque tout ω ∈ Ω. Fixons un tel ω′ ∈ Ω, et posons ak = −Xk(ω′). La série∑k>1(Xk + ak) converge donc p.s. . Elle converge donc en loi.Mais, par hypothèse,

∑k>1Xk converge en loi. Bien qu’en général on ne

puisse pas conclure sur la convergence en loi de la différence, ici les ak sont desconstantes, et cela va permettre de terminer.

Posons Z =∑∞

k=1(Xk + ak). Puisque ΦX(0) = ΦZ(0) = 1, il existe δ > 0 telque |ΦZ(t)| > 1/2 et |ΦX(t)| > 1/2 pour |t| 6 δ. Comme :

ΦZ(t) = limn→∞

n∏k=1

Φ(Xk+ak)(t) = limn→∞

n∏k=1

[eiaktΦXk

(t)],

on obtient : limn→∞

n∏k=1

eiakt =ΦZ(t)ΦX(t)

· Notons sn =∑n

k=1 ak ; d’après ce qui

précède, la suite (eitsn)n>1 converge pour |t| 6 δ. Mais l’ensemble des t ∈ R pourlesquels cette suite converge est un sous-groupe de R (car si eitsn −−−→

n→∞L(t) et

eit′sn −−−→n→∞

L(t′), alors ei(t−t′)sn −−−→n→∞

L(t)L(t′)). Comme il contient l’intervalle

[−δ, δ], c’est donc R tout entier. Ainsi eitsn −−−→n→∞

L(t) pour tout t ∈ R, et la

fonction L est continue en 0, puisqu’elle est égale à ΦZ(t)ΦX(t) sur [−δ, δ]. Comme

eitsn = Φsn1I(t) est la fonction caractéristique de la v.a.r. constante sn1I, celaprouve, grâce au Théorème de continuité de Paul Lévy, que (sn1I)n>1 convergeen loi. Mais la loi de sn1I est la masse de Dirac δsn , et il est maintenant facilede voir que si (δsn)n>1 converge vers une mesure µ non nulle pour la topologie∗-faible σ

(M (R),C0(R)

), la suite (sn)n>1 converge dans R. En effet, d’abord,

la suite (sn)n>1 est bornée, car si elle ne l’était pas, on pourait en extraireune sous-suite (snk

)k>1 tendant vers −∞ ou vers +∞ ; mais alors, pour toutef ∈ C0(R), on aurait f(snk

)−−−→k→∞

0, et donc µ(f) = limk→∞ f(snk) = 0, c’est-

à-dire µ = 0, ce qui a été exclu. Ensuite, si (sn)n>1 est bornée par M , en

45

Page 46: Théorèmes de convergence pour les sommes de …li.perso.math.cnrs.fr/textes/Proba/PROBA03.pdfChapitre 3 Théorèmes de convergence pour les sommes de variables aléatoires indépendantes

prenant une fonction f0 ∈ C0(R) telle que f0(x) = x pour |x| 6 M , on asn = f0(sn) = δsn(f0)−−−→

n→∞µ(f0).

Ainsi donc, la série∑k>1

ak est convergente.

Il ne reste plus qu’à dire que la convergence de∑

k>1 ak et la convergencep.s. de

∑k>1(Xk + ak) entraînent la converge p.s. de la série

∑k>1Xk.

46