Inférence/calibration (?) bayésienne

57

Transcript of Inférence/calibration (?) bayésienne

Page 1: Inférence/calibration (?) bayésienne

Inférence/calibration (?)bayésienneJulien Papaïx (avec l'aide de Samuel Soubeyrand et d'Emily Walker)

Ecole-chercheurs Mexico 27 - 28 mars 2018 1 / 44

Page 2: Inférence/calibration (?) bayésienne

Introduction à la modélisation hiérarchique

bayésienne

Ecole-chercheurs Mexico 27 - 28 mars 2018 2 / 44

Page 3: Inférence/calibration (?) bayésienne

Modélisation paramétrique

Observations y1, . . . , yn, avec

y = (y1, . . . , yn) ∼ [y|θ], θ paramètre inconnu.

Objectif : estimer le paramètre θ à partir de l'échantillon y1, . . . , yn.

Exemple : régression linéaire classique, y ∼ N(Xβ, σ2I ), c'est à dire

yi = β0 + β1 ∗ x1i + . . .+ εi , avec εi ∼ N(0, σ2).

Ecole-chercheurs Mexico 27 - 28 mars 2018 3 / 44

Page 4: Inférence/calibration (?) bayésienne

Une approche classique : le maximum de vraisemblance

Vraisemblance : mesure de l'adéquation entre la distribution observéesur un échantillon aléatoire et une loi de probabilité supposée décrire uneréalité sur la population dont l'échantillon est issu.

On cherche la valeur de θ qui maximise la vraisemblance, c'est à dire oncherche la valeur de θ qui rend l'observation de y la plus probable.

Ecole-chercheurs Mexico 27 - 28 mars 2018 4 / 44

Page 5: Inférence/calibration (?) bayésienne

Approche bayésienne : formule de Bayes

Le paramètre inconnu θ devient une variable aléatoire au même

titre que les observations.

⇒ on cherche donc à caractériser la distribution a posteriori desparamètres, [θ|y], à l'aide de la formule de Bayes.

[θ|y] = [θ][y|θ][y]

Ecole-chercheurs Mexico 27 - 28 mars 2018 5 / 44

Page 6: Inférence/calibration (?) bayésienne

Approche bayésienne : principe général

Connaissance a priori

[ ]Θ

Θ

Ecole-chercheurs Mexico 27 - 28 mars 2018 6 / 44

Page 7: Inférence/calibration (?) bayésienne

Approche bayésienne : principe général

Connaissance a priori

[ ]Θ

ΘDonnées

+

Vraisemblance

[y

Données

+

Vraisemblance

]Θ( )

++=

2110

,~ σµββµ

ii

ii

Ny

x K

Ecole-chercheurs Mexico 27 - 28 mars 2018 6 / 44

Page 8: Inférence/calibration (?) bayésienne

Approche bayésienne : principe général

Connaissance a priori

[ ]Θ

ΘDonnées

+

Vraisemblance

[y

Connaissance après

mise à jour

[ ]yΘ

ΘDonnées

+

Vraisemblance

]Θ( )

++=

2110

,~ σµββµ

ii

ii

Ny

x K

Ecole-chercheurs Mexico 27 - 28 mars 2018 6 / 44

Page 9: Inférence/calibration (?) bayésienne

Approche bayésienne : estimation

Problème → multiples intégrales à calculer :

I [θ|y] = [θ][y|θ]/[y], avec [y] =∫

Θ([y|α][α])dα,

I calcul des distributions marginales si θ est multivarié,

I modèles à variables latentes...

Ecole-chercheurs Mexico 27 - 28 mars 2018 7 / 44

Page 10: Inférence/calibration (?) bayésienne

Approche bayésienne : estimation

Problème → multiples intégrales à calculer :

I [θ|y] = [θ][y|θ]/[y], avec [y] =∫

Θ([y|α][α])dα,

I calcul des distributions marginales si θ est multivarié,

I modèles à variables latentes...

Ecole-chercheurs Mexico 27 - 28 mars 2018 7 / 44

Page 11: Inférence/calibration (?) bayésienne

Approche bayésienne : estimation

Problème → multiples intégrales à calculer :

I [θ|y] = [θ][y|θ]/[y], avec [y] =∫

Θ([y|α][α])dα,

I calcul des distributions marginales si θ est multivarié,

I modèles à variables latentes...

Ecole-chercheurs Mexico 27 - 28 mars 2018 7 / 44

Page 12: Inférence/calibration (?) bayésienne

Approche bayésienne : estimation

Problème → multiples intégrales à calculer :

I [θ|y] = [θ][y|θ]/[y], avec [y] =∫

Θ([y|α][α])dα,

I calcul des distributions marginales si θ est multivarié,

I modèles à variables latentes...

Ecole-chercheurs Mexico 27 - 28 mars 2018 7 / 44

Page 13: Inférence/calibration (?) bayésienne

Approche bayésienne : estimation

Problème → multiples intégrales à calculer :

I [θ|y] = [θ][y|θ]/[y], avec [y] =∫

Θ([y|α][α])dα,

I calcul des distributions marginales si θ est multivarié,

I modèles à variables latentes...

Utilisation de méthodes numériques stochastiques permettant degénérer un échantillon issu de la distribution a posteriori .

Ecole-chercheurs Mexico 27 - 28 mars 2018 7 / 44

Page 14: Inférence/calibration (?) bayésienne

Approche bayésienne : estimation

Problème → multiples intégrales à calculer :

I [θ|y] = [θ][y|θ]/[y], avec [y] =∫

Θ([y|α][α])dα,

I calcul des distributions marginales si θ est multivarié,

I modèles à variables latentes...

Utilisation de méthodes numériques stochastiques permettant degénérer un échantillon issu de la distribution a posteriori .

Ecole-chercheurs Mexico 27 - 28 mars 2018 7 / 44

Page 15: Inférence/calibration (?) bayésienne

Modèle hiérarchique

Processus

d’observation

Processus

biologiquebiologique

Paramètres

Hyper

Paramètres

Ecole-chercheurs Mexico 27 - 28 mars 2018 8 / 44

Page 16: Inférence/calibration (?) bayésienne

Exemple non hiérarchique

[θ|y ]︸︷︷︸a posteriori

∝ [θ]︸︷︷︸a priori

[y |θ]︸︷︷︸vraisemblance

Ecole-chercheurs Mexico 27 - 28 mars 2018 9 / 44

Page 17: Inférence/calibration (?) bayésienne

Exemple non hiérarchique

[θ1, θ2|x , y ]︸ ︷︷ ︸a posteriori

∝ [θ1][θ2]︸ ︷︷ ︸a priori

[y |θ1, θ2, x ]︸ ︷︷ ︸vraisemblance

Ecole-chercheurs Mexico 27 - 28 mars 2018 9 / 44

Page 18: Inférence/calibration (?) bayésienne

Exemple non hiérarchique

[θ1, θ2|x , y ]︸ ︷︷ ︸a posteriori

∝ [θ1][θ2]︸ ︷︷ ︸a priori

[y |θ1, θ2, x ]︸ ︷︷ ︸vraisemblance

Exemple : régression linéaire classiqueA priori

θ2 ∼ U(0, 10),θ1 ∼ N(0, 1000),Vraisemblance

yi ∼ N(θ1xi , θ22).

Ecole-chercheurs Mexico 27 - 28 mars 2018 9 / 44

Page 19: Inférence/calibration (?) bayésienne

Exemple non hiérarchique

Processus

d’observation

Processus

biologiquebiologique

Paramètres

Hyper

Paramètres

Ecole-chercheurs Mexico 27 - 28 mars 2018 10 / 44

Page 20: Inférence/calibration (?) bayésienne

Exemple non hiérarchique

Processus

d’observation

Processus

biologique [ ]xy ,, 21 θθ

Modèle non

hiérarchique

biologique

Paramètres

Hyper

Paramètres

[ ]xy ,, 21 θθ

Ecole-chercheurs Mexico 27 - 28 mars 2018 10 / 44

Page 21: Inférence/calibration (?) bayésienne

Un premier cas hiérarchique : la variabilité individuelle

Variabilité additionnelle : le paramètre θ1 varie entre individus ou sites.

Ecole-chercheurs Mexico 27 - 28 mars 2018 11 / 44

Page 22: Inférence/calibration (?) bayésienne

Un premier cas hiérarchique : la variabilité individuelle

Variabilité additionnelle : le paramètre θ1 varie entre individus ou sites.

[θ1, θ2, θ3|x , y ] ∝ [y |θ1, θ2, x ] vraisemblance× [θ1|θ3, θ4][θ2] a priori× [θ3][θ4] hyper a priori

Ecole-chercheurs Mexico 27 - 28 mars 2018 11 / 44

Page 23: Inférence/calibration (?) bayésienne

Un premier cas hiérarchique : la variabilité individuelle

[θ1, θ2, θ3|x , y ] ∝ [y |θ1, θ2, x ][θ1|θ3, θ4][θ2][θ3][θ4]

Exemple : régression linéaire mixte

hyper a priori

θ4 ∼ U(0, 10),θ3 ∼ N(0, 1000),A priori

θ2 ∼ U(0, 10),θ1,i ∼ N(θ3, θ

24),

Vraisemblance

yi ∼ N(θ1,ixi , θ22).

Ecole-chercheurs Mexico 27 - 28 mars 2018 11 / 44

Page 24: Inférence/calibration (?) bayésienne

Un premier cas hiérarchique : la variabilité individuelle

Processus

d’observation

Processus

biologique [ ]xy ,, 21 θθ

Modèle non

hiérarchique

biologique

Paramètres

Hyper

Paramètres

[ ]xy ,, 21 θθ

Ecole-chercheurs Mexico 27 - 28 mars 2018 12 / 44

Page 25: Inférence/calibration (?) bayésienne

Un premier cas hiérarchique : la variabilité individuelle

Processus

d’observation

Processus

biologique [ ]xy ,, 21 θθ

Modèle non

hiérarchique

[ ]xy ,, 21 θθ

Modèle avec

variabilité

additionnelle

biologique

Paramètres

Hyper

Paramètres

[ ]xy ,, 21 θθ

[ ]31 θθ [ ]2θ

[ ]3θ

Ecole-chercheurs Mexico 27 - 28 mars 2018 12 / 44

Page 26: Inférence/calibration (?) bayésienne

Modèle avec processus identi�é

Processus

d’observation

Processus

biologique [ ]xy ,, 21 θθ

Modèle non

hiérarchique

[ ]xy ,, 21 θθ

Modèle avec

variabilité

additionnelle

[ ]xy ,, 21 θθ

[ ]3θx

Processus

biologique

explicite

biologique

Paramètres

Hyper

Paramètres

[ ]xy ,, 21 θθ

[ ]31 θθ [ ]2θ

[ ]3θ

[ ]3

[ ]1θ [ ]2θ [ ]3θ

Ecole-chercheurs Mexico 27 - 28 mars 2018 13 / 44

Page 27: Inférence/calibration (?) bayésienne

Intégration de di�érentes sources de données

Processus

d’observation

Processus

biologique [ ]xy ,, 21 θθ

Modèle non

hiérarchique

[ ]xy ,, 21 θθ

Modèle avec

variabilité

additionnelle

[ ]xy ,, 21 θθ

[ ]3θx

Processus

biologique

explicite

Sources

diversifiées

[ ]3θx

[ ]xy ,, 21 θθ [ ]4,θxz

biologique

Paramètres

Hyper

Paramètres

[ ]xy ,, 21 θθ

[ ]31 θθ [ ]2θ

[ ]3θ

[ ]3

[ ]1θ [ ]2θ [ ]3θ

3

[ ]1θ [ ]2θ [ ]3θ [ ]4θ

D’après Clark, 2005

Ecole-chercheurs Mexico 27 - 28 mars 2018 14 / 44

Page 28: Inférence/calibration (?) bayésienne

Estimation des distributions a posteriori à

l'aide de méthodes numériques

Ecole-chercheurs Mexico 27 - 28 mars 2018 15 / 44

Page 29: Inférence/calibration (?) bayésienne

Pourquoi utiliser des méthodes numériques ?I Ce que l'on cherche à quanti�er en bayésien :

I la loi a posteriori

f (θ | Y ) =f (Y | θ)π(θ)∫

Θf (Y | α)π(α)dα

I et ses caractéristiques : moments a posteriori, maximum a posteriori,quantiles a posteriori, intervalles de crédibilité...

I Exemple : Nombre de succès sur n essais indépendantsI modèle binomial : Y | θ ∼ Binomiale(n, θ)I prior beta : θ ∼ Beta(a, b)I posterior 1 : θ | Y ∼ Beta(a+ Y , b + n − Y )

1. Détail du calcul :

f (θ | Y ) =CYn θ

Y (1− θ)n−Y θa−1(1−θ)b−1

B(a,b)∫1

0CYn α

Y (1− α)n−Y αa−1(1−α)b−1

B(a,b)dα

=θ(a+Y )−1(1− θ)(b+n−Y )−1

B(a + Y , b + n − Y )

Ecole-chercheurs Mexico 27 - 28 mars 2018 16 / 44

Page 30: Inférence/calibration (?) bayésienne

Pourquoi utiliser des méthodes numériques ?I Ce que l'on cherche à quanti�er en bayésien :

I la loi a posteriori

f (θ | Y ) =f (Y | θ)π(θ)∫

Θf (Y | α)π(α)dα

I et ses caractéristiques : moments a posteriori, maximum a posteriori,quantiles a posteriori, intervalles de crédibilité...

I Mais la loi a posteriori peut être di�cilement calculableI Modèle avec nombreux paramètres et variables latentes :

f (θ1, . . . , θK | Y ) =f (Y | θ1, . . . , θK )π(θ1, . . . , θK )∫

Θ1· · ·

∫ΘK

f (Y | θ1, . . . , θK )π(α1, . . . , αK )dα1 · · · dαK

I Les intégrales multiples (grande dimension) rendent di�cile le calculde la posterior jointe f (θ1, . . . , θK | Y ), des posteriors marginalesf (θk | Y ), des moments a posteriori E(θqi | Y )...

Ecole-chercheurs Mexico 27 - 28 mars 2018 17 / 44

Page 31: Inférence/calibration (?) bayésienne

Pourquoi utiliser des méthodes numériques ?

I Ce que peuvent les méthodes numériques :I générer un échantillon issu de la loi a posterioriI sans passer par le calcul d'intégrales multiples

I A quoi sert cet échantillon ?

I connaître intimement la loi aposteriori

I estimer la densité a posteriori

I estimer les moments a posterioriex : E(θ | Y ) ≈ 1

I

∑Ii=1

θ(i)

I estimer des intervalles decrédibilité

I ...

θ

Den

sity

0 10 20 300.

000.

050.

100.

150.

20

Ecole-chercheurs Mexico 27 - 28 mars 2018 18 / 44

Page 32: Inférence/calibration (?) bayésienne

Ré-échantillonnage (sampling importance resampling)

Méthode numérique basé sur l'échantillonnage d'importance :

Extrait de Parent et Bernier (2007)

Ecole-chercheurs Mexico 27 - 28 mars 2018 19 / 44

Page 33: Inférence/calibration (?) bayésienne

Ré-échantillonnage (sampling importance resampling)

Algorithme

1. Tirer un I -échantillon {θ(1), . . . , θ(I )} dans la prior π

2. Attribuer à chaque θ(i) le poids wi =f (Y |θ(i))∑Ij=1 f (Y |θ(j))

3. Tirer avec remise (tirage multinomial) J valeurs dans le I -échantillon{θ(1), . . . , θ(I )} avec les probabilités w1, . . . ,wI

Illustration des contributions de la prior etde la vraisemblance dans la méthode deré-échantillonnage :

Ecole-chercheurs Mexico 27 - 28 mars 2018 20 / 44

Page 34: Inférence/calibration (?) bayésienne

Ré-échantillonnage (sampling importance resampling)

Algorithme

1. Tirer un I -échantillon {θ(1), . . . , θ(I )} dans la prior π

2. Attribuer à chaque θ(i) le poids wi =f (Y |θ(i))∑Ij=1 f (Y |θ(j))

3. Tirer avec remise (tirage multinomial) J valeurs dans le I -échantillon{θ(1), . . . , θ(I )} avec les probabilités w1, . . . ,wI

Amélioration possible de l'algorithmeI en tirant l'I -échantillon dans une loi auxiliaire gI et en corrigeant les poids wi

Ecole-chercheurs Mexico 27 - 28 mars 2018 21 / 44

Page 35: Inférence/calibration (?) bayésienne

Ré-échantillonnage : Appli à un modèle métapopulationnel

Données de présence/absence d'un pathogène

I sur un ensemble de sites hôtes x1, . . . , xnI à trois dates successives successives t = 1, t = 2 et t = 3

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

Noir : site vide, Y (x , t) = 0Rouge : site occupé, Y (x , t) = 1

Ecole-chercheurs Mexico 27 - 28 mars 2018 22 / 44

Page 36: Inférence/calibration (?) bayésienne

Ré-échantillonnage : Appli à un modèle métapopulationnel(suite)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

] Noir : site vide, Y (x , t) = 0Rouge : site occupé, Y (x , t) = 1

I Probabilités de transitions :I 1→ 0 : θ1 (probabilité d'extinction)I 1→ 1 : 1− θ1I 0→ 1 : 1− exp{−S(x , t)} (probabilité de colonisation)I 0→ 0 : exp{−S(x , t)}

où S(x , t) =∑n

j=1Y (xj , t − 1) θ2

2πθ23exp

(− ||x−xj ||θ3

)I Lois a priori :

I θ1 ∼ Uniforme(0, 1)I θ2 ∼ Exponentielle(1)I θ3 ∼ Exponentielle(1)

Ecole-chercheurs Mexico 27 - 28 mars 2018 23 / 44

Page 37: Inférence/calibration (?) bayésienne

Ré-échantillonnage : Appli à un modèle métapopulationnel(suite)

Etapes de l'algorithme SIR (100 jeux de paramètres simulés) :

PRIOR

theta1

Freq

uenc

y

0.0 0.2 0.4 0.6 0.8 1.0

05

10

PRIOR

theta2

Freq

uenc

y

0 1 2 3 4 5

020

40

PRIOR

theta3

Freq

uenc

y

0 1 2 3 4 5

020

40

0 20 40 60 80 100

0.00

0.10

POIDS

Index

poids

0.0 0.2 0.4 0.6 0.8 1.0

0.00

0.10

POIDS

theta1

poids

0 1 2 3 4 5

0.00

0.10

POIDS

theta2

poids

0 1 2 3 4 5

0.00

0.10

POIDS

theta3

poids

POSTERIOR

theta1

Freq

uenc

y

0.0 0.2 0.4 0.6 0.8 1.0

040

80

POSTERIOR

theta2

Freq

uenc

y

0 1 2 3 4 5

010

25

POSTERIOR

theta3

Freq

uenc

y0 1 2 3 4 5

040

80

Ecole-chercheurs Mexico 27 - 28 mars 2018 24 / 44

Page 38: Inférence/calibration (?) bayésienne

Ré-échantillonnage : Appli à un modèle métapopulationnel(suite)

I Données (noir : vide, Y (x , t) = 0 ; rouge : occupé, Y (x , t) = 1) :

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]x[

,2]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

I Distributions a posteriori obtenues par la méthode deré-échantillonnage (105 jeux de paramètres simulés) :

θi

Density

0.0 0.4 0.8

04

812

θi

Density

0 2 4 6

0.0

0.2

0.4

θi

Density

0 2 4 6

0.0

1.0

Ecole-chercheurs Mexico 27 - 28 mars 2018 25 / 44

Page 39: Inférence/calibration (?) bayésienne

Ré-échantillonnage : LimitesI Doublons dans l'échantillon a posteriori

I Beaucoup de vecteurs de paramètres θ générés peuvent ne pas êtreretenus dans l'échantillon a posteriori (�rendement� faible)

θiD

en

sity

0.0 0.4 0.8

04

81

2

θi

De

nsity

0 2 4 6

0.0

0.2

0.4

θi

De

nsity

0 2 4 6

0.0

1.0

I Problème de la loi auxilliaire d'exploration...

Ecole-chercheurs Mexico 27 - 28 mars 2018 26 / 44

Page 40: Inférence/calibration (?) bayésienne

MCMC : Présentation

I Méthodes de Monte Carlo par Chaînes de Markov

I Algorithmes utilisés dans WinBugs, OpenBUGS, Jags...

I Algorithmes séquentiels : une séquence de réalisations dépendantes(i.e. une chaîne) de θ est générée

I Exploration ciblée de l'espace des paramètres (et des variableslatentes)

I Qu'est-ce qu'une chaîne ?

0 1000 2000 3000 4000 5000

01

02

03

04

0

Iteration

θ

0e+00 1e+05 2e+05 3e+05 4e+05 5e+05

010

2030

40

Iteration

θ

Counts

θ

0 200 400 600 800 1200

01

02

03

04

0

Ecole-chercheurs Mexico 27 - 28 mars 2018 27 / 44

Page 41: Inférence/calibration (?) bayésienne

MCMC : Echantillonneur de Gibbs

Algorithme

0. Initialisation : donner des valeurs initiales aux K composantes de θ :

θ(0) = (θ(0)1, . . . , θ

(0)K )

i . A l'itération i ∈ {1, . . . , I} :I Générer θ

(i)1

selon la loi f (θ1 | Y , θ(i−1)2

, . . . , θ(i−1)K )

I Générer θ(i)2

selon la loi f (θ2 | Y , θ(i)1, θ

(i−1)3

, . . . , θ(i−1)K )

I Générer θ(i)3

selon la loi f (θ3 | Y , θ(i)1, θ

(i)2, θ

(i−1)4

, . . . , θ(i−1)K )

I · · ·I Générer θ

(i)K selon la loi f (θK | Y , θ(i)

1, . . . , θ

(i)K−1

)

Extrait de Parent et Bernier (2007)

Ecole-chercheurs Mexico 27 - 28 mars 2018 28 / 44

Page 42: Inférence/calibration (?) bayésienne

MCMC : Algorithme de Metropolis-Hastings

I Généralisation du MCMC�Gibbs

I Une loi de proposition arbitraire remplace la loi conditionnelle

I La mise à jour des paramètres n'est pas systématique (étaped'acceptation-rejet)

I La loi de proposition intervient dans la proba de mise à jour

Ecole-chercheurs Mexico 27 - 28 mars 2018 29 / 44

Page 43: Inférence/calibration (?) bayésienne

MCMC : Algorithme de Metropolis-Hastings (suite)

Algorithme

0. Initialisation : donner des valeurs initiales aux K composantes de θ :

θ(0) = (θ(0)1, . . . , θ

(0)K )

i , k . A l'itération i ∈ {1, . . . , I}, pour chaque k :

I Générer θcandk selon la loi de proposition g(θk | θ(i−1)k )

I Mettre à jour le paramètre (θ(i)k = θcandk ) avec la probabilité 2 :

min

[1,

Posterior(θcandk )g(θ(i−1)k | θcandk )

Posterior(θ(i−1)k )g(θcandk | θ(i−1)

k )

]

= min

[1,

(Vraisemblance × Prior)(θcandk )g(θ(i−1)k | θcandk )

(Vraisemblance × Prior)(θ(i−1)k )g(θcandk | θ(i−1)

k )

]

I Ne pas mettre à jour (θ(i)k = θ

(i−1)k ) sinon

2. Expression de la probabilité de mise à jour :

min

1, f (Y | θ(i)1:k−1, θ

candk , θ

(i−1)k+1:K )π(θ

(i)1:k−1, θ

candk , θ

(i−1)k+1:K )g(θ

(i−1)k | θcandk )

f (Y | θ(i)1:k−1, θ

(i−1)k , θ

(i−1)k+1:K )π(θ

(i)1:k−1, θ

(i−1)k , θ

(i−1)k+1:K )g(θcandk | θ(i−1)

k )

Ecole-chercheurs Mexico 27 - 28 mars 2018 30 / 44

Page 44: Inférence/calibration (?) bayésienne

MCMC : Algorithme de Metropolis-Hastings (suite)

I Connaissance nécessaire de la loi cible (la loi a posteriori) qu'à uneconstante près

f (θ1, . . . , θK | Y ) ∝ f (Y | θ1, . . . , θK )π(θ1, . . . , θK )

I Mise à jour par bloc

I Algorithmes hybrides combinant Gibbs et M-H

I Comme dans le MCMC�Gibbs, période de chau�e (burn-in) etrégime de croisière (stationnaire)

I Contrairement au MCMC�Gibbs, choix des lois de proposition(paramètres de réglages, tuning)

I Question de la convergence de la chaîne vers son régime de croisière(vrai aussi pour le MCMC�Gibbs)

Ecole-chercheurs Mexico 27 - 28 mars 2018 31 / 44

Page 45: Inférence/calibration (?) bayésienne

MCMC : Choix des lois de proposition g

I La rapidité de convergence de la chaîne dépend du choix des lois deproposition (formes et valeurs des paramètres)

Extrait de Roberts and Rosenthal

(2001)

I Tirage indépendant de la valeur courante du paramètre

ex1 : g(θ | θ(i−1)) est la densité d'une Normale(µ, σ2)ex2 : g(θ | θ(i−1)) est la densité d'une Gamma(α, β)

I Marche aléatoire homogène

ex1 : g(θ | θ(i−1)) est la densité d'une Normale(θ(i−1), σ2)

ex2 : g(θ | θ(i−1)) est la densité d'une Gamma(( θ(i−1)

σ)2, σ2

θ(i−1) ) tq

E(θ | θ(i−1)) = θ(i−1) et Var(θ | θ(i−1)) = σ2

I Taux de mise à jour à viser (par essai�erreur) : 25%

I Méthodes adaptatives

Ecole-chercheurs Mexico 27 - 28 mars 2018 32 / 44

Page 46: Inférence/calibration (?) bayésienne

MCMC : Diagnostics de convergence des chaînes

I Quelle convergence ?I Convergence vers la stationaritéI Convergence des moyennes empiriques

La chaîne a-t-elle exploré toutes les facettes de la distribution cible ?I Convergence vers un échantillonnage i.i.d.

I Un exemple de diagnostic : la méthode de Gelman�Rubin qui estbasée

I sur plusieurs chaînes initialisées di�éremmentI sur les variances inter-chaîne et intra-chaîne

0 5000 10000 15000 20000 25000

020

40

Iteration

θ

Ecole-chercheurs Mexico 27 - 28 mars 2018 33 / 44

Page 47: Inférence/calibration (?) bayésienne

MCMC : Qualité de l'ajustementrépliquer/simuler les données

Principe :A chaque itération, une donnée est simulée selon le modèle supposé et lesvaleurs courantes des paramètres

⇒ simulation d'un jeux de données conforme aux hypothèses faites.

Ecole-chercheurs Mexico 27 - 28 mars 2018 34 / 44

Page 48: Inférence/calibration (?) bayésienne

MCMC : Qualité de l'ajustementBayesian p-Values

L'idée : comparer le défault d'ajustement du modèle pour les vraiesdonnées avec celui du modèle pour les données répétées.

I Choix de la mesure de distance en fonction de ce que l'on veutquanti�er (valeurs extrèmes...).

I Problème : les données sont utilisées deux fois, pour générer lesdonnées répliquées et dans la comparaison.

I Méthode peu discréminante, non conseillée pour faire du choix demodèle (facteurs de Bayes).

Ecole-chercheurs Mexico 27 - 28 mars 2018 35 / 44

Page 49: Inférence/calibration (?) bayésienne

MCMC : Appli à un modèle métapopulationnel (suite)I Données (noir : vide, Y (x , t) = 0 ; rouge : occupé, Y (x , t) = 1) :

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x[,1]

x[,2

]

I MCMC hybride :I Gibbs pour le paramètre de survie θ1 :

θ1 | Y , θ2, θ3 ∼ Beta(1+∑x,t

[Yxt : 1→ 0], 1+∑x,t

[Yxt : 1→ 1])

I Metropolis-Hastings par bloc pour les paramètres de colonisation(θ2, θ3) avec pour lois de propositions :

θ2 | θ(i−1)2

∼ Gamma

((θ

(i−1)2

0.5

)2

,0.52

θ(i−1)2

)

θ3 | θ(i−1)3

∼ Gamma

((θ

(i−1)3

0.2

)2

,0.22

θ(i−1)3

)

Ecole-chercheurs Mexico 27 - 28 mars 2018 36 / 44

Page 50: Inférence/calibration (?) bayésienne

MCMC : Appli à un modèle métapopulationnel (suite)

20 premières itérations de l'algorithm MCMC hybride :

0 5 10 15 20

0.5

0.6

0.7

0.8

0.9

1.0

Iteration

theta

1

0 5 10 15 20

0.0

0.5

1.0

1.5

2.0

2.5

Iteration

theta

2

0 5 10 15 20

0.0

0.5

1.0

1.5

Iteration

theta

3

Ecole-chercheurs Mexico 27 - 28 mars 2018 37 / 44

Page 51: Inférence/calibration (?) bayésienne

MCMC : Appli à un modèle métapopulationnel (suite)

I Chaînes :

0e+00 6e+04

0.5

0.7

0.9

Iteration

theta

1

0e+00 6e+04

02

46

8Iteration

theta

20e+00 6e+04

0.0

1.0

2.0

Iteration

theta

3

I Distributions a posteriori :

theta 1

Density

0.0 0.4 0.8

05

10

15

theta 2

Density

0 2 4 6 8

0.0

0.2

0.4

theta 3

Density

0 2 4 6 8

0.0

0.5

1.0

1.5

Ecole-chercheurs Mexico 27 - 28 mars 2018 38 / 44

Page 52: Inférence/calibration (?) bayésienne

Conclusions

Ecole-chercheurs Mexico 27 - 28 mars 2018 39 / 44

Page 53: Inférence/calibration (?) bayésienne

MCMC : Di�cultés d'utilisation

I Paramètres de réglageI longueur de la période de chau�e (Gibbs et M�H)I longueur de la chaîne (Gibbs et M�H)I sous-échantillonnage de la chaîne (Gibbs et M�H)I formes et paramètres des lois de propositions (M�H)

I Dimension élevée

I Di�culté d'explorer toute la loi a posteriori

I Ex. des lois a posteriorimultimodales avec faiblesprobas entre les modes

I Problème de captureautour des modes locaux

I Comment améliorerl'exploration ?

Extrait de Parent & Bernier (2007)

Ecole-chercheurs Mexico 27 - 28 mars 2018 40 / 44

Page 54: Inférence/calibration (?) bayésienne

Les outils et logiciels

I INLA (Integrated Nested Laplace Approximations) : R-INLA

I MCMC (Markov Chain Monte Carlo) : WinBUGS, OpenBUGS,JAGS, Nimble

I HMC (Hamiltonian Monte Carlo) : R-Stan

I PMC (Population Monte Carlo) : BIIPS, Nimble

Ecole-chercheurs Mexico 27 - 28 mars 2018 41 / 44

Page 55: Inférence/calibration (?) bayésienne

Méthode particulaire : Principe

Simuler N chaînes de Markov en parallèle, en éliminant celles loin dumode et en multipliant celles qui sont proches

Extrait de Parent & Bernier (2007)

Ecole-chercheurs Mexico 27 - 28 mars 2018 42 / 44

Page 56: Inférence/calibration (?) bayésienne

ABC : PrincipeI Di�culté d'évaluer la distribution a posteriori

f (θ1, . . . , θK | Y ) =f (Y | θ1, . . . , θK )π(θ1, . . . , θK )∫

Θ1· · ·

∫ΘK

f (Y | θ1, . . . , θK )π(α1, . . . , αK )dα1 · · · dαK

I Ré-échantillonnage, MCMC Gibbs ou M�H, Méthode particulaire : ilsu�t de pouvoir calculer

I la vraisemblance f (Y | θ1, . . . , θK )I les conditionnelles f (θk | Y , θ−k)

I Mais si ces calculs ne sont pas possibles ?(exemple des modèles de coalescence)

Avec le calcul bayésienapproché (ABC) : il su�t depouvoir simuler Y sachantθ1, . . . , θK

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

theta

S

Ecole-chercheurs Mexico 27 - 28 mars 2018 43 / 44

Page 57: Inférence/calibration (?) bayésienne

Merci !

Ecole-chercheurs Mexico 27 - 28 mars 2018 44 / 44