Probabilidade limite J
-
Upload
dino-beghetto -
Category
Documents
-
view
40 -
download
0
description
Transcript of Probabilidade limite J
Exemplo
• Suponha que a chance de chover amanhã depende das condições climáticas anteriores somente através da informação se está ou não chovendo hoje. Considere que:
– Se está chovendo hoje a probabilidade de chover amanhã é α; e,
– Se não está chovendo hoje, choverá amanhã com probabilidade β.
Se considerarmos que:
• O processo está no estado 0 quando chove; e,
• O processo está no estado 1 quando não chove.
Este procedimento é uma cadeia de Markov?
Def:
Seja {Xn, n=0, 1, ...} um processo estocástico que assumeum número finito ou enumerável de valores. O processoXn é uma cadeia de Markov se:
P{Xn+1=j|Xn = i, Xn-1 = in-1, ...., X0 = i0} = P{Xn+1=j|Xn = i} = Pij
• Este procedimento é uma cadeia de Markovcom dois estados {0; 1} e a matriz de transiçãoé dada por:
Considere que α = 0,7 e β = 0,4.
• Qual é a probabilidade de que choverá daqui aquatro dias dado que está chovendo hoje?
1
1
1
0P
10
Equações de Chapman-Kolmogorov• Probabilidade de transição em n-passos .
• Equações de Chapman-Kolmogorov são um método para calcular as probabilidades de transição desses n-passos.
ou seja
n
ijP
0,,0},|{ jiniXjXPP kkn
n
ij
jimnPPP m
kj
k
n
ik
mn
ij ,e0,todopara,0
mnmn PPP )(
Voltando ao exemplo
• Se α = 0,7 e β = 0,4, a matriz de transição do processo é definida por:
• Para calcular a probabilidade de que choverá daqui a quatro dias dado que está chovendo hoje, basta
6,04,0
3,07,0P
224 PPP
A probabilidade desejada então é:
4332,05668,0
4251,05749,0
48,052,0
39,061,0.
48,052,0
39,061,0
48,052,0
39,061,0
6,04,0
3,07,0.
6,04,0
3,07,0
4
2
P
P
5749,0
}0|0{
}0|0{
222
22
00
04
4
00
XXPP
XXPP
4286,05714,0
4285,05715,0
4332,05668,0
4251,05749,0.
4332,05668,0
4251,05749,08 P
• Segue que P(8) = P4.P4 é dado por:
• P(16)=P8.P8
Probabilidades limites
4285,05714,0
4285,05714,016 P
• Note que a matriz P(16) é quase idêntica a matriz P(8)
que, por sua vez, é muito parecida com a matriz P(4).E ainda, que cada uma das linhas da matriz sãoidênticas.
• Pode-se dizer que parece que converge para
algum valor quando n ∞, e que além disto, é o mesmo para todos os is
• Ou seja, parece existir uma probabilidade limite de que o processo estará no estado j após um grande número de transições, e este valor é independente do estado inicial.
n
ijP
Mas isso acontece sempre?
Vamos testar uma matriz de transição, qualquer, no R.
P<-matrix(c(0.7,0.4,0,0.2,0.6,0,0.1,0,1),3,3)P2<-P%*%PP2P4<-P2%*%P2P4P8<-P4%*%P4P8P16<-P8%*%P8P16P32<-P16%*%P16P32P64<-P32%*%P32P64P128<-P64%*%P64P128P256<-P128%*%P128P256
• Para fazer a heurística anterior mais precisa, algumas propriedades adicionais dos estados de uma cadeia de Markov precisam ser considerados:
• O estado i é dito ter período d se onde n nãoé divisível por d, e d é o mair inteiro com essapropriedade.
• Um estado com período 1 é dito ser aperiódico.
• Se o estado i tem período d, e os estados i e j sãocomunicantes, então o estado j também tem períodod.
0n
ijP
• Para qualquer estado i, seja fi a probabilidade que,partindo do estado i, o processo sempre voltará oestado i. O estado i é dito ser recorrente se fi=1 etransitório se fi<1.
• Se o estato i é recorrente, então ele é dito serrecorrente positivo se, iniciando em i, o tempoesperado até o processo retornar para o estado i éfinito.
• Obs: Estados recorrentes não positivos são chamados derecorrentes nulos, mas em cadeias de Markov de estado finito todosos estados recorrentes são recorrentes positivos.
• Estados aperiódicos, recorrentes positivos são chamados de ergódicos.
• A cadeia de Markov é dita ser irredutível se todos os estados se comunicam entre si.
Teorema 1:
Para uma cadeia de Markov ergódica irredutível, o limite abaixo existe e é independente de i:
Então πj é a única solução não negativa de
00
1com,0,j
jij
i
ij jP
0,lim
jPn
ijn
j
(1)
Distribuição estacionária• πj é a probabilidade limite que o processo estará no
estado j no tempo n.
Seja {Xn, n ≥ 0} uma cadeia de Markov com matriz detransição P. Se para cada j, πj são números reais nãonegativos e satisfaz a equação (1), então π édenominada uma distribuição estacionária para acadeia de Markov.
• Se π é uma distribuição estacionária, então
n
ij
i
ij P
0
Voltando ao exemplo
Se consideramos que:
• O processo está no estado 0 quando chove; e,
• O processo está no estado 1 quando não chove.
As probabilidade limites π0 e π1 são dadas por:
1
,)1(1
,
10
101
100
430,01
1
571,01
1
0
Exemplo 2
• Considere que uma pessoa pode se sentir alegre (A), mais ou menos (M) ou mal humorada (H) em um dia qualquer.
• Se a pessoa está alegre hoje, amanhã ela pode se sentir A, M ou H com probabilidades 0,5; 0,4 ou 0,1, respectivamente.
• Se está mais ou menos, amanhã pode se sentir A, M ou H com probabilidades 0,3; 0,4 ou 0,3.
• Se está mal humorada, amanhã pode se sentir A, M ou H com probabilidades 0,2; 0,3 ou 0,5.
• Se Xn representar o estado de humor de uma pessoa no n-ésimo dia, então {Xn, n≥0} é uma cadeia de Markov com três estados. {A=0, M=1, H=2}.
• A matriz de transição é dada por:
5,03,02,0
3,04,03,0
1,04,05,0
P
• No longo prazo, qual é a proporção de pessoas que está no processo em cada um dos três estados?
1
5,03,01,0
3,04,04,0
2,03,05,0
210
2102
2101
2100
62
18,
62
23,
62
22210
Mobilidade de classes
• Um problema de interesse para sociólogos édeterminar a proporção da sociedade que muda declasse social.
• Um possível modelo matemático seria assumir queas transições entre as classes de gerações sucessivasem uma família podem ser representadas comotransições de uma cadeia de Markov.
• Assume-se que a atividade profissional de umacriança depende somente da atividade profissionalde seus pais.
• Suponha que tal modelo é apropriado e que a matriz de probabilidades de transição é dada por:
• Ou seja, supõe-se que o filho de um trabalhador de classe média irá atingir uma ocupação de classe superior, média ou baixa, com respectivas probabilidades 0,05; 0,70 ou 0,25.
49,050,001,0
25,070,005,0
07,048,045,0
P
• As probabilidades limites πj são:
• Ou seja, a sociedade na qual a mobilidade social entre classes pode ser descrita por uma cadeia de Markov com essa matriz de transição tem, ao longo do tempo, 7% de pessoas em empregos de classe alta, 62% de empregos na classe média e 31% na classe baixa.
1
49,025,007,0
50,070,048,0
01,005,045,0
210
2102
2101
2100
31,0
,62,0
,07,0
2
1
0
Cadeia de Markov em Genética
• Considere uma grande população de indivíduos, onde cada um deles possui um determinado par de genes. Os genes de cada indivíduo é classificado como sendo do tipo A ou do tipo a.
• Assume-se que a proporção de indivíduos cujos pares de genes são AA, aa ou Aa são, respectivamente, p0, q0 e r0 (p0 + q0 + r0=1).
• Cada indivíduo contribui com um de seus genes, aleatoriamente, para a prole resultante.
• Supondo-se que o acasalamento ocorre ao acaso, e quecada indivíduo é igualmente provável de acasalar comqualquer outro indivíduo, estamos interessados emdeterminar a proporção de indivíduos na próximageração cujos genes serão AA, aa ou Aa (p, q e r).
• Facilmente obtém-se essas proporções concentrando aatenção em uma pessoa da próxima geração e, emseguida, determinando as probabilidades do par degenes desse indivíduo.
• Escolher aleatoriamente um pai e, em seguida, escolheraleatoriamente um dos seus genes é equivalente aapenas escolher aleatoriamente um gene da populaçãototal de genes.
• Observando os genes do pai, tem se que um geneescolhido ao acaso será do tipo A comprobabilidade:
P{A} = P{A|AA}p0 + P{A|aa}q0 + P{A|Aa}r0
= 1p0 + 0q0 + ½ r0
= p0 + ½ r0
• Similarmente, será do tipo a com probabilidade:
P{a} = P{a|AA}p0 + P{a|aa}q0 + P{a|Aa}r0
= 0p0 + 1q0 + ½ r0
= q0 + ½ r0
• Portanto, um membro escolhido aleatoriamente dapróxima geração será do tipo AA com probabilidade:
p = P{A}P{A} = (p0 + ½ r0)2,
• Será do tipo aa com probabilidade:
q = P{a}P{a} = (q0 + ½ r0)2,
• E será do tipo Aa com probabilidade:
r = 2P{A}P{a} = 2(p0 + ½ r0) (q0 + ½ r0)
• Se considerarmos o conjunto de genes total de próxima geração, a fração dos genes que são do tipo A, (p+ ½ r), não será alterada a partir da geração anterior.
Lei de Hardy - Weinberg
• Portanto, as frações do capital genético, que são A e a são as mesmas que na geração inicial.
• Esta é a lei de Hardy-Weinberg que diz que considerando o acasalamento ao acaso, em todas as sucessivas gerações após a inicial, as porcentagens da população com pares de genes AA, aa e Aa permanecerão fixas nos valores de p, q, e r.
• Suponha agora que os genes da população se estabilizaram nos percentuais p, q, r, e deseja-se acompanhar a história genética de um indivíduo e seus descendentes.
• (Para simplificar, suponha que cada indivíduo tem exatamente uma prole.)
• Então, para um determinado indivíduo, defina Xn como o estado genético de seu descendente na n-ésima geração.
• Determine a matriz de transição desta cadeia de Markov e determine as probabilidades limites:
• Respostas:
• Suponha que o número de famílias que chegam em um hotelem dias sucessivos, são variáveis aleatórias independentesPoisson com média λ.
• Também suponha que o número de dias que uma famíliapermanece no hotel é uma variável aleatória geométrica comparâmetro p, 0 <p <1.
• Ou seja, uma família que passou a noite anterior no hotel,independentemente de quanto tempo já passou no hotel, faráo check-out no dia seguinte com probabilidade q.
• Suponha também que todas as famílias agem de formaindependente uma das outras.
• Considere Xn o número de famílias que chegam no hotel noinício do n-ésimo dia.
• Pede-se:– A matriz de transição da Cadeia de Markov;
– E[Xn|X0=i];
– A distribuição estacionária da cadeia de Markov.