Signaux aléatoires - Departement Electronique Univ...

25
S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 1 Signaux aléatoires A. Définitions A.1. Description probabiliste La notion de signal aléatoire est plus ou moins intuitive. Mais pour être capable de les traiter nous devons en donner une définition formelle. Un signal aléatoire peut être défini comme une fonction x(t,α) à deux paramètres. Le premier représente le temps (continu ou discret) et l’autre une variable aléatoire. Pour une valeur donnée de α, x α (t) = x(t,α) est une réalisation du signal temporel. On parle aussi d’échantillon ou de trajectoire (fig. 10-1). A chaque instant t, X(t) = x(t,α) est une variable aléatoire. Le signal aléatoire peut donc être décrit par une densité de probabilité que nous noterons p(x,t) ou une fonction de répartition F(x,t). Nous avons : [ ] x ) t ( X P ) t , x ( F = [ ] x ) t , x ( F ) t , x ( p dx x ) t ( X x P dx ) t , x ( p = + < = La densité p(x,t) est dite densité de probabilité du premier ordre. Il est également important de pouvoir décrire les relations pouvant exister entre tout couple de variables aléatoires prises à deux instants t 1 et t 2 . Pour cela nous définissons la fonction de répartition et la densité de probabilité de deuxième ordre, avec : [ ] 2 2 1 1 2 2 1 1 x ) t ( X ; x ) t ( X P ) t , x ; t , x ( F = 2 1 2 2 1 1 2 2 2 1 1 x x ) t , x ; t , x ( F ) t , x ; t , x ( p = De manière similaire nous pouvons également définir des probabilités d’ordres supérieurs. A.2. Stationnarité Un signal aléatoire est dit stationnaire (au sens strict) si toutes ses propriétés statistiques, à tous les ordres, sont invariantes dans le temps. C’est-à-dire que les deux signaux X(t) et Y(t) = X(t + τ) ont les mêmes propriétés statistiques. Dans la pratique on se limite très souvent aux signaux aléatoires stationnaires du deuxième ordre, pour lesquels les propriétés statistiques d’ordre 1 et 2 sont indépendantes des instants d’observation. Nous avons alors :

Transcript of Signaux aléatoires - Departement Electronique Univ...

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 1

Signaux aléatoires A. Définitions

A.1. Description probabiliste La notion de signal aléatoire est plus ou moins intuitive. Mais pour être capable de les traiter nous devons en donner une définition formelle. Un signal aléatoire peut être défini comme une fonction x(t,α) à deux paramètres. Le premier représente le temps (continu ou discret) et l’autre une variable aléatoire. Pour une valeur donnée de α, xα(t) = x(t,α) est une réalisation du signal temporel. On parle aussi d’échantillon ou de trajectoire (fig. 10-1). A chaque instant t, X(t) = x(t,α) est une variable aléatoire. Le signal aléatoire peut donc être décrit par une densité de probabilité que nous noterons p(x,t) ou une fonction de répartition F(x,t). Nous avons :

[ ]x)t(XP)t,x(F ≤=

[ ]x

)t,x(F)t,x(pdxx)t(XxPdx)t,x(p

∂∂=⇒+<≤=

La densité p(x,t) est dite densité de probabilité du premier ordre. Il est également important de pouvoir décrire les relations pouvant exister entre tout couple de variables aléatoires prises à deux instants t1 et t2. Pour cela nous définissons la fonction de répartition et la densité de probabilité de deuxième ordre, avec :

[ ]22112211 x)t(X;x)t(XP)t,x;t,x(F ≤≤=

21

22112

2211 xx

)t,x;t,x(F)t,x;t,x(p

∂∂∂

=

De manière similaire nous pouvons également définir des probabilités d’ordres supérieurs.

A.2. Stationnarité Un signal aléatoire est dit stationnaire (au sens strict) si toutes ses propriétés statistiques, à tous les ordres, sont invariantes dans le temps. C’est-à-dire que les deux signaux X(t) et Y(t) = X(t + τ) ont les mêmes propriétés statistiques. Dans la pratique on se limite très souvent aux signaux aléatoires stationnaires du deuxième ordre, pour lesquels les propriétés statistiques d’ordre 1 et 2 sont indépendantes des instants d’observation. Nous avons alors :

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 2

)x(p)t,x(pet)x(F)t,x(F ==

2x

2x

22x µ)x(E)t,x(Eetµ)x(E)t,x(E σ+====

12212211212211 ttavec),x,x(p)t,x;t,x(pet),x,x(F)t,x;t,x(F −=ττ=τ= La probabilité du premier ordre est indépendante du temps et celle du deuxième ordre ne dépend que de l’intervalle séparant les deux instants d’observation.

Fig. 10-1 : Quatre réalisations ou échantillons d’un même processus stochastique

A.3. Ergodisme Considérons un échantillon (ou trajectoire) d’un signal aléatoire, que nous notons x(t) pour alléger l’écriture. C’est un signal temporel dont nous pouvons calculer la valeur moyenne :

∫∞→=

T

0Tdt)t(x

T

1limx

Un signal aléatoire est dit ergodique si ses valeurs moyennes statistiques sont identiques à ses valeurs moyennes temporelles. C’est-à-dire pour un signal stationnaire :

∫∫ ∞→

∞+

∞−=⇔=

T

0

n

T

nnn dt)t(xT

1limdx)x(pxx)x(E

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 3

Il est alors possible d’estimer les propriétés statistiques d’un signal aléatoire par l’analyse temporelle d’un de ses échantillons. B. Autocorrélation et densité spectrale de puissance

B.1. Fonction d’autocorrélation La fonction d’autocorrélation statistique d’un signal aléatoire X(t) est définie par :

[ ] )xx(E)t(X)t(XE)t,t(R 212121X == Soit :

∫ ∫∞+

∞−

∞+

∞−= 2122112121X dxdx)t,x;t,x(pxx)t,t(R

en se souvenant que x1 = X(t1) et x2 = X(t2). La fonction d’autocovariance est définie comme la variance du couple x1 et x2 :

)x(E)x(E)xx(E)t,t(C 212121X −= Pour un signal stationnaire, la densité de probabilité du deuxième ordre ne dépend que de l’intervalle τ = t2 – t1. Il en est donc de même pour les fonctions d’autocorrélation et d’autocovariance :

2XX212121X )x(E)(R)(Cetdxdx),x,x(pxx)(R −τ=ττ=τ ∫ ∫

∞+

∞−

∞+

∞−

Nous avons les propriétés suivantes :

)(C)(Cet)(R)(R XXXX τ=τ−τ=τ−

2xX

2x

2x

2X )0(Cetµ)x(E)0(R σ=σ+==

RX(0) représente l’espérance mathématique de la puissance du signal. L’inégalité de Cauchy-Schwartz permet de montrer que :

2x

2xX

2x

2xXXXX µ)(Rµet)0(C)(C;)0(R)(R σ+≤τ≤σ−≤τ≤τ

Cela permet d’introduire la fonction d’autocovariance normalisée :

)0(C

)(C)(

X

XX

τ=τρ

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 4

B.2. Densité spectrale de puissance Nous avons vu, dans le chapitre 8, que pour un signal déterministe la densité spectrale d’énergie est égale à la transformée de Fourier de son autocorrélation. Nous avons un résultat comparable pour les signaux aléatoires stationnaires. C’est le théorème de Wiener-Khintchine : La densité spectrale de puissance d’un signal aléatoire stationnaire est égale à la transformée de Fourier de sa fonction d’autocorrélation statistique.

[ ])(RTF)(S XX τ=ν En effet nous avons alors :

[ ])(STF)(R X1

X ν=τ − C’est-à-dire :

νν=τ τνπ∞+

∞−∫ de)(S)(R 2jXX

Pour τ = 0 nous avons :

νν== ∫∞+

∞−d)(S)0(R)x(E XX

2

L’espérance mathématique de la puissance du signal aléatoire est égale à l’intégrale sur tout le spectre en fréquence de la densité spectrale de puissance.

B.3. Périodogramme et théorème de Wiener-Khintchine La transformée de Fourier d’un signal aléatoire n’est pas nécessairement définie. Considérons le signal aléatoire mutilé XT(t) qui se confond avec X(t) sur l’intervalle [0, T] et est nul à l’extérieur. La transformée de tout échantillon xT(t) de ce signal aléatoire tronqué existe :

[ ] ∫ ω−=T

0

tjT dte)t(x)t(xTF

Ce qui nous permet de définir une grandeur aléatoire, la transformée de Fourier du signal aléatoire TF[XT(t)], qui correspond à l’ensemble des transformées des échantillons de XT(t). Le périodogramme d’un échantillon donné xT(t) est défini par :

[ ] 2Tx )t(xTF

T

1)T,( =νΦ

Nous pouvons écrire :

∫ ∫∫∫ −ω−ωω− ==νΦT

0

T

0

)ut(jT

0

ujT

0

tjx dudte)u(x)t(x

T

1due)u(xdte)t(x

T

1)T,(

Calculons l’espérance mathématique de ce périodogramme :

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 5

[ ] [ ]∫ ∫ −ω−=νΦT

0

T

0

)ut(jx dudte)u(x)t(xE

T

1)T,(E

[ ] ∫ ∫ −ω−=νΦT

0

T

0

)ut(jXx dudte)u,t(R

T

1)T,(E

Si le signal est stationnaire nous avons :

[ ] ∫ ∫ −ω−−=νΦT

0

T

0

)ut(jXx dudte)ut(R

T

1)T,(E

Effectuons un changement de variable avec v = t – u. Il vient :

[ ] ∫ ∫∫ ∫ −ω−− ω− =−=νΦ

T

0

t

Tt

vjX

T

0

Tt

t

vjXx dtdve)v(R

T

1dtdve)v(R

T

1)T,(E

Le domaine d’intégration est défini par :

tvTtetTt0 ≤≤−≤≤ C’est un losange dans le plan (t, v). Si nous inversons l’ordre d’intégration, le domaine d’intégration peut se mettre sous la forme :

≤≤≤≤

+≤≤≤≤−

TtvTv0pour

Tvt00vTpour

0

Tv

T

-T

t

Fig. 10-2 : Domaine d’intégration pour calcul de l’espérance mathématique d’un périodogramme

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 6

Le losange se décompose en deux triangles. Nous pouvons donc écrire :

[ ] ∫ ∫∫ ∫ ω−−

+ ω− +=νΦT

0

T

v

vjX

0

T

Tv

0

vjXx dvdte)v(R

T

1dvdte)v(R

T

1)T,(E

[ ] ∫∫ ω−−

ω− −++=νΦT

0

vjX

0

T

vjXx dve)v(R)vT(

T

1dve)v(R)Tv(

T

1)T,(E

Ce qui nous donne :

[ ] ∫−ω−

−=νΦ

T

T

vjXx dve)v(R

T

v1)T,(E

Nous pouvons reconnaître une fonction triangle de base [-T, T]. Nous pouvons donc écrire :

[ ] ∫∫∞+

∞−

ω−

ω−

Λ=

Λ=νΦ dve)v(RT

vdve)v(R

T

v)T,(E vj

X

T

T

vjXx

Soit encore :

[ ]

τΛτ=νΦT

)(RTF)T,(E Xx

A la limite lorsque T tend vers l’infini :

[ ] ∫∞+

∞−ω−

∞→=νΦ dte)t(R)T,(Elim tj

XxT

L’espérance mathématique du périodogramme tend vers la densité spectrale de puissance. C. Exemple On considère le signal aléatoire défini par :

)t(sinA)t(X ϕ+ω= où A et ω sont des constantes et où la phase aléatoire ϕ est uniformément distribuée sur l’intervalle [0, 2π[. Calculons ses fonctions de répartition F(x, t) et densité de probabilité p(x, t). Partons de la définition :

[ ]x)t(XP)t,x(F ≤= Notons φ(t) la phase instantanée modulo 2π :

)2(t)t( πϕ+ω≡φ

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 7

Nous pouvons raisonner sur un dessin et chercher le domaine de définition de la phase instantanée, selon x. Nous distinguons quatre cas :

[ ]π≤

π

−π∪

≤≤

−π≤≤−

∅−<

2,0xA

2,A

xsinarc

A

xsinarc,0Ax0

A

xsinarc2,

A

xsinarc0xA

Ax

A un instant t donné, la phase instantanée est une variable aléatoire uniformément distribuée sur [0, 2π[. Dans chacun des cas la probabilité est donc proportionnelle à la largeur du domaine de définition. Le calcul est facile et se résume à :

[ ]

>∀=

−∈∀

π+=

−<∀=

Ax1)x(F

A,AxA

xarcsin

1

2

1)x(F

Ax0)x(F

La fonction de répartition ne dépend pas de t. Pour la densité de probabilité nous avons :

x

)t,x(F)t,x(p

∂∂=

Ce qui nous donne :

[ ]A,AxxA

1)x(p

22−∈∀

−π=

D. Couple de signaux aléatoires

D.1. Fonctions d’intercorrélation et d’intercovariance Une fonction d’intercorrélation de deux processus aléatoires X(t) et Y(t) est définie par :

[ ])t(Y)t(XE)t,t(R 2121XY = Soit :

∫ ∫∞+

∞−

∞+

∞−= 2122112121XY dydx)t,y;t,x(pyx)t,t(R

avec x1 = X(t1) et y2 = Y(t2).

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 8

Pour des signaux stationnaires, la densité de probabilité du deuxième ordre ne dépend que de l’intervalle τ = t2 – t1. Il en est donc de même pour la fonction d’intercorrélation :

[ ] ∫ ∫∞+

∞−

∞+

∞−τ=τ+=τ 212121XY dydx),y,x(pyx)t(Y)t(XE)(R

Inversons les indices X et Y, il vient :

[ ])t(X)t(YE)(RYX τ+=τ Les signaux étant stationnaires, cette espérance mathématique est invariante sous une translation temporelle, par exemple t → t-τ :

[ ] [ ] [ ])t(Y)t(XE)t(X)t(YE)t(X)t(YE τ−=τ−=τ+ Donc :

)(R)(R XYYX τ−=τ On définit une fonction d’intercovariance par :

)y(E)x(E)t,t(R)t,t(C 21XY21XY −= soit pour des signaux stationnaires :

)y(E)x(E)(R)(C XYXY −τ=τ L’inégalité de Cauchy-Schwartz permet de montrer que :

)0(C)0(C)(Cet)0(R)0(R)(R YXXYYXXY ≤τ≤τ

Deux signaux sont orthogonaux si :

0)(R)(R YXXY =τ=τ Deux signaux sont non corrélés si :

)y(E)x(E)t,t(R0)t,t(C)t,t( 21XY21XY21 =⇔=∀ La fonction d’intercovariance normalisée est définie par :

)0(C)0(C

)(C)(

YX

XYXY

τ=τρ

nulle lorsque les signaux sont décorrélés.

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 9

D.2. Somme de signaux aléatoires Considérons la somme de deux signaux aléatoires : Z(t) = X(t) + Y(t). Elle a pour fonction d’autocorrélation :

[ ][ ]{ })t(Y)t(X)t(Y)t(XE)(RZ τ++τ++=τ Soit en développant :

[ ] [ ] [ ] [ ])t(Y)t(YE)t(X)t(YE)t(Y)t(XE)t(X)t(XE)(RZ τ++τ++τ++τ+=τ

Ce qui nous donne :

)(R)(R)(R)(R)(R YYXXYXZ τ+τ+τ+τ=τ

L’espérance mathématique d’une somme étant égale à la somme des espérances, nous avons pour la fonction d’intercovariance :

[ ]2Z2

ZZ )y(E)x(E)(R)z(E)(R)(C +−τ=−τ=τ Donc :

)(C)(C)(C)(C)(C YYXXYXZ τ+τ+τ+τ=τ Et si les deux signaux sont non corrélés :

)(C)(C)(C YXZ τ+τ=τ

D.3. Densités spectrales mutuelles Les fonctions de densité spectrale mutuelle sont définies par :

[ ][ ])(RTF)(S

)(RTF)(S

YXYX

XYXY

τ=ν

τ=ν

Elles vérifient :

)(S)(S *XYYX ν=ν

On peut montrer que :

)(S)(S)(S YX2

XY νν≤ν

D.4. Fonction de cohérence Par analogie avec la fonction d’intercovariance normalisée nous pouvons définir une fonction de cohérence par :

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 10

)(D)(D

)(D)(

YX

2XY

XY ννν

=νΓ

avec : [ ][ ]

[ ])(CTF)(D

)(CTF)(D

)(CTF)(D

XYXY

YY

XX

τ=ν

τ=ν

τ=ν

Lorsque la corrélation est maximum, X(t) = Y(t), nous avons :

1)(D)(D

)(D)(

XX

2XX

XX =νν

ν=νΓ

Lorsque les signaux sont décorrélés nous avons :

0)(0)(D0)(C XYXYXY =νΓ⇔=ν⇔=τ E. Processus stochastiques remarquables

E.1. Processus gaussiens De nombreux processus dans la nature sont gaussiens, ou peuvent y être assimilés en première approximation. C’est en particulier le cas lorsqu’ils résultent de la superposition d’un grand nombre de phénomènes aléatoires indépendants (théorème de la limite centrale). Un processus stochastique X(t) est gaussien si pour toute partition t1, t2, …, tn le vecteur aléatoire [x(t1), x(t2), …, x(tn)] est gaussien. La fonction d’autocorrélation statistique s’écrit alors :

[ ] )t()t()t,t()t(µ)t(µ)t(x)t(xE)t,t(R 2121212121X σσρ+== Un processus gaussien est stationnaire si les valeurs moyennes et les covariances sont indépendantes du temps. On parle de bruit blanc gaussien si les variables aléatoires x(tk) sont mutuellement indépendantes. Un bruit blanc gaussien a pour fonction d’autocorrélation statistique :

[ ] )(µ)t(x)t(xE)(R 22X τδσ+=τ+=τ

Ce qui nous donne pour sa densité spectrale de puissance :

22X )(µ)(S σ+νδ=ν

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 11

Un bruit blanc gaussien n’ayant pas de réalité physique on définit un bruit gaussien à bande limitée par sa densité spectrale. Par exemple :

νσ+νδ=ννB

P)(µ)(S 22X

Ce qui donne pour les fonctions d’autocorrélation et d’autocovariance statistique :

)B2(csinB2µ)(R 22X τπσ+=τ νν

)B2(csinB2)(C 2X τπσ=τ νν

E.2. Bruit blanc Un bruit blanc (par analogie avec la lumière visible) est un processus aléatoire stationnaire dont la fonction de densité spectrale est constante :

ν∀=ν A)(SX La fonction d’autocorrélation s’obtient en prenant la transformée de Fourier inverse :

)(A)(RX τδ=τ Donc x(t1) et x(t2) sont orthogonaux pour t1 ≠ t2. Un tel processus n’est pas réalisable physiquement, sa puissance est en effet infinie :

∞=νν∫∞+

∞−d)(SX

C’est pourquoi on définit le bruit blanc à bande passante limitée :

ν≤νν≤ν

ν≤ν≤ν≤=ν

21

21X

oupour0

0pourA)(S

On note Bν = ν2 - ν1. Considérons deux cas intéressants. Le premier correspond à un spectre de type passe-bas avec : ν1 = 0 et ν2 = Bν. Calculons la fonction d’autorrélation correspondante :

ν

ν

ν

ν

+

τυπ

τυπ

τπ=ν=τ ∫

B

B

2jB

B

2jX 2j

eAdeA)(R

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 12

τπτπ

=τπ

−=τ ντπ−τπ νν

2

)B2sin(A2

2j

eeA)(R

B2jB2j

X

Ce qui nous donne :

)B2(csinBA2)(RX τπ=τ νν

Cette fonction d’autocorrélation est nulle pour :

0kavecB2

kkB20)(RX ≠=τ⇔π=τπ⇔=τ

νν

Le second cas correspond à un spectre de type passe-bande avec : ν1 ≠ 0. Calculons la fonction d’autorrélation correspondante, le domaine d’intégration couvre deux bandes :

∫∫ν

ν

τυπν−

ν−

τυπ ν+ν=τ2

1

1

2

deAdeA)(R 2j2jX

Soit : 2

1

1

2

2j

eA

2j

eA)(R

2j2j

X

ν

ν

τυπν−

ν−

τυπ

τπ+

τπ=τ

Ce qui nous donne :

τπ−+

τπ−=τ

τυπτυπτυπ−τυπ−

2j

eeA

2j

eeA)(R

1221 2j2j2j2j

X

Soit encore :

[ ])2sin()2sin(A

)(R 12X τνπ−τνπτπ

Exprimons les deux fréquences ν2 et ν1 en fonction de la fréquence centrale et de la largeur de la bande passante :

2avec

B

B

210

02

01 ν+ν=ν

τ+ν=ν

τ−ν=ν

ν

ν

Avec ces notations nous avons :

[ ]

τπ=β

τνπ=αβ+α−β+α

τπ=τ

νB

2

avec)sin()sin(A

)(R0

X

Ce qui donne :

)Bsin()2cos(A2

)sin()cos(A2

)(R 0X τπτνπτπ

=βατπ

=τ ν

Soit encore : )B(csin)2cos(BA2)(R 0X τπτνπ=τ νν

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 13

E.3. Processus aléatoire à bande étroite Un processus stochastique qui peut s’écrire :

)tsin()t(A)tcos()t(A)t(X 0201 ω−ω=

où A1 et A2 sont des processus aléatoires stationnaires non corrélés suivant une même loi de probabilité d’espérance mathématique nulle et d’écart-type faible devant ω0 est un processus stochastique à bande étroite. Etudions en effet la densité spectrale d’un tel processus. Commençons par la fonction d’autocorrélation statistique :

[ ]

[ ] [ ]

[ ] [ ]

[ ] [ ]

[ ] [ ])t(sin)tsin()t(a)t(aE

)t(cos)tsin()t(a)t(aE

)t(sin)tcos()t(a)t(aE

)t(cos)tcos()t(a)t(aE

)t(x)t(xE)(R

0022

0012

0021

0011

X

τ+ωωτ++

τ+ωωτ+−

τ+ωωτ+−

τ+ωωτ+=

τ+=τ

Comme A1 et A2 obéissent à la même loi de probabilité :

[ ] [ ] )(R)t(a)t(aE)t(a)t(aE A2211 τ=τ+=τ+

Comme A1 et A2 sont de moyenne nulle et non corrélés :

[ ] [ ] 0)t(a)t(aE)t(a)t(aE 2121 =τ+=τ+ Avec un peu de trigonométrie nous obtenons donc :

)cos()(R)(R 0AX τωτ=τ

Nous pouvons maintenant calculer la densité spectrale du processus :

[ ] [ ])cos(TF*)(S)(RTF)(S 0AXX των=τ=ν

Or :

[ ] [ ] 00000 2avec)()(2

1)cos(TF πν=ων+νδ+ν−νδ=τω

Donc :

[ ]∫∞+

∞−ν+−νδ+ν−−νδν=ν du)u()u()(S

2

1)(S 00AX

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 14

[ ])(S)(S2

1)(S 0A0AX ν+ν+ν−ν=ν

Nous pouvons effectuer un changement de variables en introduisant deux variables aléatoires R et Φ telles que :

Φ=

Φ=

sinRA

cosRA

2

1

soit encore :

+=

1

2

22

21

A

Atana

AAR

Nous avons alors :

[ ])t(tcos)t(R)t(X 0 Φ+ω=

R est appelé enveloppe et Φ phase, alors que A1 est la composante en phase et A2 la composante en quadrature. Supposons que ces composantes en phase et en quadrature suivent une loi normale de variance σ2. Elles décrivent alors un processus gaussien à bande étroite. A tout instant t, que nous oublions dans les expressions suivantes pour en alléger l’écriture, nous avons :

σ−

σπ=

σ−

σπ=

2

22

22

21

12

aexp

2

1)a(pet

2

aexp

2

1)a(p

Comme les deux variables sont indépendantes la densité conjointe est :

σ

+−

σπ=

2

22

21

2212

aaexp

2

1)a,a(p

Ce qui nous donne pour la densité conjointe des deux autres variables aléatoires :

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 15

ϕ

σ−

σπ=ϕϕ ddrr

2

rexp

2

1ddr),r(p

2

2

2

Celle-ci peut se factoriser. Les variables instantanées r et ϕ sont donc indépendantes et elles ont pour densités de probabilité :

[2,0[pour2

1)(p

0rpour2

rexp

r)r(p

2

2

2

π∈ϕπ

σ−

σ=

La variable r suit une loi de Rayleigh et ϕ une distribution uniforme.

E.4. Processus Markoviens Un processus stochastique X(t) est markovien si pour toute partition croissante t1, t2, …, tn la densité de probabilité vérifie :

p[x(tn)=xn | x(tn-1)=xn-1, …, x(t1)=x1] = p[x(tn)=xn | x(tn-1)=xn-1] Toute l’information sur le passé est concentrée dans le dernier état observé. La probabilité conditionnelle p[x(tn)=xn | x(tn-1)=xn-1] est appelée densité de probabilité de transition. La formule de Bayes, qui permet d’exprimer la probabilité d’observer un événement A lorsque celui-ci connaît un nombre fini N de causes possibles :

∑=

=N

1i

)i(p)iA(p)A(p

peut se généraliser pour un processus markovien, en écrivant :

∫∞+

∞−== 00000 dx)t,x(p)x)t(xt,x(p)t,x(p

La connaissance de la densité de probabilité à un instant donné et de la densité de probabilité de transition caractérise totalement un processus markovien.

E.5. Marche aléatoire

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 16

La marche aléatoire X(t) est un processus markovien à temps discret et à états discrets défini de la manière suivante : A chaque instant t = nT, la variable x(t) est augmentée ou diminuée avec une égale probabilité d’une quantité s, avec la condition initiale x(t = 0) = 0.

Nous avons donc :

∑=

=n

1iix)nT(x

où chaque variable xi peut prendre une des deux valeurs ±s avec une probabilité ½. Ces variables sont mutuellement non corrélées. Nous avons :

0)xx(Ej,iets)x(E,0)x(Ei ji22

ii =∀==∀

Nous pouvons donc calculer l’espérance et la moyenne quadratique de x(t). Nous avons :

[ ] [ ] 22 sn)nT(xEet0)nT(xE == Nous pouvons également calculer la densité de probabilité de cette variable aléatoire. Si à l’instant nT la variable a subi k incrémentations, et donc n-k décrémentations, elle a pour valeur :

s)nk2(s)kn(sk)nT(x −=−−=

La probabilité d’avoir x(nT) = ms est donc égale à la probabilité d’avoir k incrémentations avec :

2

mnk

+=

qui admet au plus une solution. Donc :

[ ]

[ ] nonsi0sm)nT(xP

existe2

mnksi

2

Csm)nT(xP

n

kn

==

+===

E.6. Processus de Wiener Nous pouvons généraliser le processus discret de la marche aléatoire en un processus continu en remplaçant la somme discrète et le tirage entre deux valeurs par une intégration par rapport au temps d’un bruit blanc de moyenne nulle. Soit B(t) un bruit blanc de moyenne nulle, nous nous intéressons au signal X(t) défini comme :

∫=t

0

du)u(B)t(X

avec

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 17

)()(R 2B τδσ=τ

Calculons l’espérance et la moyenne quadratique de ce signal.

[ ] [ ] 0du)u(bEdu)u(bE)t(xEt

0

t

0

==

= ∫∫

[ ] [ ]∫ ∫∫∫ =

=

t

0

t

0

t

0

t

0

2 dvdu)v(b)u(bEdv)v(bdu)u(bE)t(xE

En reconnaissant la fonction d’autocorrélation statistique du bruit blanc il vient :

[ ] ∫ ∫∫ ∫ −δσ=−=t

0

t

0

2t

0

t

0B

2 dvdu)vu(dvdu)vu(R)t(xE

Soit :

[ ] tdv)t(xE 2t

0

22 σ=σ= ∫

En résumé :

[ ] [ ] t)t(xEet0)t(xE 22 σ== Lorsque le bruit blanc est gaussien le processus stochastique X(t) ainsi construit par intégration est un processus de Wiener, qui permet de décrire le mouvement brownien. Calculons la fonction d’autocorrélation statistique de ce processus :

[ ] [ ]∫ ∫∫∫ =

==

1 221 t

0

t

0

t

0

t

02121X dvdu)v(b)u(bEdv)v(bdu)u(bE)t(x)t(xE)t,t(R

Donc :

∫ ∫ −δσ=1 2t

0

t

0

221X dvdu)vu()t,t(R

Supposons t1 ≤ t2 nous pouvons décomposer l’intégrale double sur deux domaines :

∫ ∫∫ ∫∫ ∫ −δ+−δ=−δ1 2

1

1 11 2 t

0

t

t

t

0

t

0

t

0

t

0

dvdu)vu(dvdu)vu(dvdu)vu(

Le second terme est nul puisque nous avons u < v. Nous avons donc :

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 18

1

t

0

t

0

tdvdu)vu(1 2

=−δ∫ ∫

De même pour t2 ≤ t1 nous avons :

2

t

0

t

0

tdvdu)vu(1 2

=−δ∫ ∫

C’est-à-dire :

)t,tmin()t,t(R 212

21X σ= F. Filtrage linéaire des signaux aléatoires Considérons un système linéaire invariant soumis en entrée à un signal aléatoire. Le signal de sortie est également un signal aléatoire que nous cherchons à caractériser. Si le signal d’entrée est gaussien il en est de même pour le signal de sortie :

∫∞+

∞−−= du)ut(h)u(e)t(s

Nous savons en effet que la superposition de signaux gaussiens est gaussienne.

F.1. Description statistique du signal de sortie Pour les autres signaux nous cherchons à caractériser les propriétés statistiques des signaux de sortie à l’aide de leurs moments, variance et covariance. Pour un signal en entrée stationnaire nous avons :

∫∫∫∞+

∞−

∞+

∞−

∞+

∞−−=−=

−= du)ut(h)e(Edu)ut(h)u,e(Edu)ut(h)u(eE)t,s(E

Donc le moment d’ordre 1 ne dépend pas du temps :

où H(0) est le gain statique du filtre (en réponse à un signal d’entrée constant). Déterminons la fonction d’autocorrélation statistique du signal de sortie. En notant :

)0(H)e(Edu)u(h)e(E)s(E == ∫∞+

∞−

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 19

∫∫∞+

∞−

∞+

∞−−τ+=τ+−= dv)v(h)vt(e)t(setdu)u(h)ut(e)t(s

nous avons pour le produit :

∫ ∫∞+

∞−

∞+

∞−−τ+−=τ+ dvdu)v(h)u(h)vt(e)ut(e)t(s)t(s

Ce qui nous donne :

[ ] [ ]∫ ∫∞+

∞−

∞+

∞−−τ+−=τ+=τ dvdu)v(h)u(h)vt(e)ut(eE)t(s)t(sE)(RS

La fonction d’autocorrélation statistique du signal de sortie RS est donc reliée à la fonction d’autocorrélation statistique du signal d’entrée RE :

∫ ∫∞+

∞−

∞+

∞−−+τ=τ dvdu)v(h)u(h)uv(R)(R ES

Exprimons RE en fonction de la densité spectrale du signal d’entrée SE :

∫ ∫ ∫∞+

∞−

∞+

∞−

∞+

∞−

−+τνπ νν=τ dvdu)v(h)u(hde)(S)(R )uv(2jES

Soit :

∫ ∫ ∫∞+

∞−

∞+

∞−

∞+

∞−

νπνπ−τνπ νν=τ dvdue)v(he)u(hde)(S)(R v2ju2j2jES

L’intégration sur u donne :

)(Hdue)u(h u2j ν=∫∞+

∞−

νπ−

L’intégration sur v donne :

)(Hdve)v(h *v2j ν=∫∞+

∞−

νπ

Nous pouvons donc écrire :

∫∞+

∞−

τνπ ννν=τ de)(S)(H)(R 2jE

2S

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 20

En prenant la transformation de Fourier inverse il vient :

)(S)(H)(S E2

S νν=ν

Nous retrouvons un résultat similaire à celui obtenu pour les signaux déterministes. Pour la valeur quadratique moyenne du signal de sortie nous avons :

[ ] ∫∞+

∞−ννν== d)(S)(H)0(R)t(sE E

2S

2

Celle-ci est donc indépendante de t. Nous avons également :

[ ] ∫ ∫∞+

∞−

∞+

∞−−== dvdu)v(h)u(h)uv(R)0(R)t(sE ES

2

Pour un système causal nous avons aussi :

[ ] ∫ ∫∞+ ∞+

−=0 0

E2 dvdu)v(h)u(h)uv(R)t(sE

Effectuons un changement de variable en posant u = v-w, il vient :

[ ] ∫ ∫∞+

∞−

∞+

∞−−= dvdw)v(h)wv(h)w(RsE E

2

Ce qui écrit sous la forme :

[ ] dwdv)v(h)wv(h)w(RsE E2 ∫ ∫

∞+

∞−

∞+

∞−

−=

fait apparaître l’autocovariance temporelle de la réponse impulsionnelle du filtre Ch(t). Nous avons alors :

[ ] dt)t(C)t(RsE hE2 ∫

∞+

∞−=

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 21

F.2. Intercorrélation entrée-sortie Calculons l’intercorrélation statistique entre les signaux d’entrée et de sortie d’un filtre :

[ ])t(s)t(eE)(RES τ+=τ

Nous pouvons écrire :

[ ] ∫∫∞+

∞−

∞+

∞−−τ=−τ+=τ du)u(h)u(Rdu)u(h)ut(e)t(eE)(R EES

Soit : )(h*)(R)(R EES ττ=τ

Ce qui nous donne en prenant la transformée de Fourier :

)(S)(H)(S EES νν=ν

F.3. Bande équivalente de bruit Un filtre idéal est un système linéaire invariant dont la fonction de transfert harmonique est constante sur une certaine bande passante Bν et nulle ailleurs. Un filtre idéal est donc caractérisé par deux informations : son gain et sa bande passante. Par définition, le filtre idéal équivalent à un filtre réel a pour gain le gain maximum du filtre réel et sa bande passante est telle que si les deux filtres sont soumis à un même bruit blanc en entrée les valeurs moyennes quadratiques des signaux en sortie sont identiques. Considérons par exemple un filtre passe-bas réel caractérisé par sa fonction de transfert harmonique H(ν). Notons Hmax son gain maximum. Le filtre passe-bas idéal équivalent a donc une fonction de transfert harmonique de la forme :

≤ν=ν

ν

ν

Bpour0

BpourH)(H

max

Supposons les deux filtres soumis en entrée à un même bruit blanc décrit par sa densité spectrale de puissance :

2E )(S σ=ν

Calculons la moyenne quadratique du signal de sortie des deux filtres. Pour le filtre réel nous avons :

[ ] ∫∫∞+

∞−

∞+

∞−ννσ=ννν= d)(Hd)(S)(H)t(sE 22

E2

réel2

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 22

et pour le filtre idéal :

[ ] ν+

∞+

∞−σ=νσ=ννν= ∫∫

ν

ν

BH2dHd)(S)(H)t(sE 2max

2B

B

2max

2E

2idéal

2

La bande passante du filtre idéal doit être telle que ces deux valeurs quadratiques soient égales. Cela nous donne pour sa largeur :

∫∞+

∞−ν νν= d)(H

H2

1B 2

2max

Ce que le théorème de Parseval nous permet d’écrire sous la forme :

2max

h22max H2

)0(Cdt)t(h

H2

1B == ∫

∞+

∞−ν

G. Signaux pseudo-aléatoires Il est très souvent utile de pouvoir simuler des séquences ressemblant à un signal aléatoire. Commençons par la simulation d’une variable aléatoire uniformément distribuée.

G.1. Séquence pseudo-uniforme Le principe de base pour engendrer une séquence ressemblant à une variable aléatoire uniformément distribuée consiste à utiliser la série définie par :

)b(xax n1n ≡+ Selon le choix des paramètres a, b et x0 il est possible d’obtenir de cette façon une séquence de valeurs pseudo-aléatoires indépendantes uniformément distribuées entre 0 et b. Il existe des algorithmes plus raffinés qui permettent d’engendrer de très longues séquences de valeurs pseudo-aléatoires indépendantes uniformément distribuées entre 0 et 1. La première valeur d’une telle séquence est définie par une ou plusieurs graines. L’utilisation des mêmes graines permet de pouvoir réutiliser la même séquence aléatoire, par exemple pour effectuer des contrôles. S’il est nécessaire d’engendrer une longue séquence en plusieurs fois. Il faut sauvegarder les graines à la fin d’une génération et les utiliser pour engendrer la suite. A partir de ces séquences uniformes nous pouvons engendrer des séquences pseudo-aléatoires suivant d’autres lois de probabilité.

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 23

G.2. Fonction de répartition inversible Considérons une loi de probabilité de densité f pour laquelle la fonction de répartition F est inversible.

∫∞−

=x

du)u(f)x(F

Soit u une variable aléatoire uniformément distribuée sur l’intervalle [0, 1]. Cherchons la loi de probabilité de la variable aléatoire définie par :

)u(Fx 1−= La probabilité d’avoir x à dx près est donnée par :

[ ]( ))dxx(F),x(FuPdx)x(p +∈= Comme la variable aléatoire u est uniformément distribuée cette probabilité est donnée par la largeur de l’intervalle, donc :

dx)x(fdx)x(dx

dF)x(F)dxx(Fdx)x(p ==−+=

La variable aléatoire x suit la loi de probabilité originale.

G.3. Fonction de répartition non inversible Considérons une loi de probabilité de densité f pour laquelle la fonction de répartition F n’est inversible et pour laquelle l’intervalle de définition est fini. La méthode des retirages est une technique possible pour engendrer une séquence pseudo-aléatoire suivant la loi de probabilité. Notons fmax la valeur maximale de la loi de distribution et [xmin, xmax] l’intervalle de définition. La méthode est la suivante. On effectue deux tirages indépendants :

- x : uniforme sur [xmin, xmax] ; - u : uniforme entre 0 et fmax.

et on garde la valeur x si u ≤ f(x). Comme les deux tirages sont indépendants la probabilité de garder x à dx près peut s’écrire :

maxminmax f

)x(f

xx

dxdx)x(p

−=

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 24

En fait nous sommes intéressés par la probabilité d’avoir x à dx près parmi les tirages efficaces :

effP

)x(p)efficacex(p =

Chaque tirage appartient à un rectangle alors qu’un tirage efficace se situe sous la courbe f(x). La probabilité d’avoir un tirage efficace est donc égal au rapport des surfaces :

maxminmaxmaxminmax

x

xeff f)xx(

1

f)xx(

dx)x(f

P

max

min

−=

−=∫

Nous avons donc :

)x(f)efficacex(p =

Ainsi dans la séquence pseudo-aléatoire ainsi obtenue chaque élément suit la loi de probabilité souhaitée.

G.4. Variable gaussienne pseudo-aléatoire Les signaux gaussiens jouant un rôle très important il est essentiel de savoir engendrer une séquence pseudo-aléatoire gaussienne. Soient u et v deux variables aléatoires indépendantes de densité de probabilité uniforme sur l’intervalle [0, 1]. Etudions les deux variables aléatoires définies par :

−π=

−π=

)vln(2)u2sin(y

)vln(2)u2cos(x

Nous savons que les densités de probabilité conjointes vérifient :

[ ] dydx)y,x(

)v,u()y,x(v),y,x(ufdydx)y,x(f UVXY ∂

∂=

Calculons le jacobien :

v

2

)vln(2v

)u2sin(

)vln(2v

)u2cos(

)vln(2)u2cos(2)vln(2)u2sin(2

)v,u(

)y,x( π=

−π−

−π−

−ππ−ππ−

=∂∂

S. Tisserant – ESIL – Traitement du signal – 2007-2008 10 - 25

Comme les deux variables u et v sont uniformes sur [0, 1] nous avons pour la densité de probabilité conjointe de x et y :

π=

∂∂=

2

v

)y,x(

)v,u()y,x(p

Il nous reste à exprimer v en fonction de x et y. Nous remarquons que :

2/)yx(22 22

ev)vln(2yx +−=⇔−=+ Ce qui nous donne :

ππ=

π=

−−+−

2

e

2

e

2

e)y,x(p

2/y2/x2/)yx( 2222

Les deux variables x et y sont donc deux variables normales centrées réduites indépendantes.