P X a,Y b P X P Y b - math.unipd.ittonolo/didattica/Matematica_D/2004/8-9settimana.pdf · La...

38
Due variabili aleatorie X ed Y si dicono in- dipendenti se comunque dati due numeri reali a e b si ha P {X = a, Y = b} = P {X = a}P {Y = b}

Transcript of P X a,Y b P X P Y b - math.unipd.ittonolo/didattica/Matematica_D/2004/8-9settimana.pdf · La...

Due variabili aleatorie X ed Y si dicono in-

dipendenti se comunque dati due numeri reali

a e b si ha

P{X = a, Y = b} = P{X = a}P{Y = b}

Una variabile aleatoria χ che assume i soli valori

1, 2, ..., n e detta binomiale con parametri

(n, p) se

p(i) = P{X = i} =

(ni

)pi(1− p)n−i.

Il valore atteso di una tale variabile binomiale

e np; la varianza e np(p− 1).

La variabile aleatoria Xi che vale 1 se l’i-esima

prova ha successo e 0 altrimenti, e una variabile

di Bernoulli. Chiaramente

X = X1 + .... + Xn

e una somma di variabili indipendenti.

Ebbene si ha

np = E[X] =n∑

i=1

E[Xi] =n∑

i=1

p = np.

Analogamente per la varianza

np(1− p) = V ar(X) =n∑

i=1

V ar(Xi).

Una variabile aleatoria χ che assume i soli valori

1, 2, ... e detta di Poisson con parametro λ

se

p(i) = P{X = i} = e−λλi

i!, i = 0,1,2, ...

La variabile di Poisson ha valore atteso e vari-

anza uguali a λ.

Se X1 e X2 sono due variabili di Poisson in-

dipendenti con parametri λ1 e λ2, allora X1 +

X2 e una variabile di Poisson con parametro

λ1 + λ2

In generale la somma di due variabili aleato-

rie X ed Y ha media uguale alla somma delle

medie. Affinche la medesima cosa capiti per

la varianza e necessario che le variabili in ques-

tione siano indipendenti. Se questo non capita,

interviene un fattore di correzione che dipende

da una quantita detta covarianza delle due

variabili:

V ar(X +Y ) = V ar(X)+V ar(Y )+2Cov(X, Y ).

Sia F un fenomeno per il quale:

1. La probabilita che F si verifichi esattamente

una volta in un intervallo di tempo pari ad h

sia uguale a λh + o(h).

2. La probabilita che F si verifichi due o piu

volte in un intervallo di tempo pari ad h sia

uguale a o(h).

3. Siano n e j1, ..., jn numeri naturali. Dati n

intervalli di tempo disgiunti, indichiamo con Ei

l’evento “nel i-esimo intervallo di tempo F si e

verificato ji volte”. Ebbene gli eventi E1, ...,

En sono indipendenti.

Diremo allora che F e un processo di Poisson.

Il numero di volte N(t) che F si verifica in un

intervallo di tempo t e una variabile aleatoria

di Poisson con parametro λt. La costante λ,

che indica il numero di volte che F si verifi-

ca nell’unita di tempo, deve essere verificata

empiricamente.

In California si e valutato empiricamente che

si verificano due terremoti al mese. Supponi-

amo che il verificarsi di un terremoto soddisfi

le proprieta di un processo di Poisson.

Determinare la probabilita che vi siano almeno

quattro terremoti nei prossimi tre mesi e che

ve ne sia almeno uno nella prossima settimana.

Diciamo geometrica ogni variabile aleatoria

alla quale corrisponde una densita discreta del

tipo

p(n) = (1− p)n−1p.

Corrisponde alla ripetizione di una prova, che

ha probabilita p di successo, sino a quando non

si ottiene un successo.

Determinare il valore atteso di una variabile

aleatoria geometrica.

Diciamo ipergeometrica ogni variabile aleato-

ria alla quale corrisponde una densita discreta

del tipo

p(i) =

(mi

)(N −mn− i

)(

Nn

)per fissati N , n, m. Corrisponde alla estrazione

di n palline da un’urna contenente N palline,

di cui m bianche e le altre nere, e la variabile

aleatoria conta il numero di palline bianche

selezionate.

Diciamo continua una variabile aleatoria X

per la quale esiste una funzione non negati-

va f : R → R con la proprieta che per ogni

sottoinsieme misurabile B di R

P{X ∈ B} =∫B

f(x)dx

La funzione f e detta densita continua di X.

Il numero di ore che un computer funziona pri-

ma di rompersi e una variabile aleatoria con-

tinua con densita continua del tipo

f(x) =

{λe−

x100 x ≥ 0

0 x < 0

Determinare il parametro λ e quindi determinare

la probabilita che il computer funzioni tra 50 e

150 ore prima di rompersi, e che funzioni per

meno di 100 ore.

Il valore atteso di una variabile continua con

densita continua f e

E[X] =∫ ∞−∞

xf(x)dx.

Se g : R → R e una funzione e X una variabile

aleatoria continua, allora

E[g(X)] =∫ ∞−∞

g(x)f(x)dx

Calcolare il valore atteso di eX con X variabile

aleatoria continua con densita continua

f(x) =

{2x 0 ≤ x ≤ 10 altrimenti

La varianza di una variabile aleatoria continua

X e

V ar(X) = E[(X − µ)2].

Continua a valere la formula

V ar(X) = E[X2]− (E[X])2.

Calcolare il valore atteso e la varianza della

variabile aleatoria continua X con densita con-

tinua

f(x) =

{2x 0 ≤ x ≤ 10 altrimenti

Valgono ancora le formule

V ar(aX+b) = a2V ar(X), E[aX+b] = aE[X]+b.

La somma di due variabili aleatorie continue X

ed Y ha media uguale alla somma delle medie.

Affinche la medesima cosa capiti per la vari-

anza e necessario che le variabili in questione

siano indipendenti. Se questo non capita, in-

terviene un fattore di correzione che dipende

da una quantita detta covarianza delle due

variabili:

V ar(X +Y ) = V ar(X)+V ar(Y )+2Cov(X, Y ).

Diciamo che una variabile aleatoria X e uni-

formemente distribuita su un intervallo [α, β]

della retta reale se la sua densita continua f e

costante nell’intervallo [α, β] e 0 altrove. Nec-

essariamente f deve valere 1/(β−α) nell’inter-

vallo [α, β].

L’autobus numero 9 parte dalla stazione og-

ni 15 minuti a partire dai minuti 00. Se la

mattina uno arriva alla fermata in un momen-

to uniformemente distribuito tra le 7 e le 7.30,

determinare la probabilita che attenda meno di

5 minuti la partenza dell’autobus. E qual’e la

probabilita che attenda la partenza per piu di

10 minuti?

Diciamo che X e una variabile aleatoria nor-

male con parametri (µ, σ2) se la sua densita

continua e data da

f(x) =1√2π

e−(x−µ)2/2σ2

σ, x ∈ R.

I parametri µ e σ2 rappresentano il valore at-

teso e la varianza della variabile normale.

Se X e una variabile normale con parametri µ

e σ2, allora dati a, b ∈ R, la variabile Y = aX+b

e normale con parametri aµ + b e a2σ2.

In particolare Z =X − µ

σe una variabile nor-

male con parametri 0 e 1; una tale variabile

normale e detta avere distribuzione standard.

La funzione di distribuzione di una variabilealeatoria normale X con distribuzione standardsi indica tradizionalmente con Φ:

Φ(y) = P{X ≤ y} =∫ y

−∞

1√2π

e−x2/2

A pag. 203 del libro avete la tabella. Si ten-ga presente che Φ(−x) = 1 − Φ(x), pertantoΦ(−2) = 1−Φ(2).

Se Y e una variabile normale con parametri µe σ2, con funzione di distribuzione F , allora

F (a) = P{Y ≤ a} = P{Y − µ

σ≤

a− µ

σ} = Φ(

a− µ

σ)

Sia X una variabile normale con parametri µ =

3 e σ2 = 9. Determinare P{2 < X < 5}, P{X >

0} e P{|X − 3| > 6}.

Sia X una variabile continua uniformemente

distribuita su (0,1). Si consideri la variabile

Y = Xn. Determinare la funzione di distribuzione

e la densita continua di Y .

Diseguaglianza di Markov Se X e una vari-

abile aleatoria che assume solo valori non neg-

ativi, allora per ogni a > 0 si ha

P{X ≥ a} ≤E[X]

a

Diseguaglianza di Chebyshev Se X e una

variabile aleatoria con valore atteso µ e varian-

za σ2, allora per ogni k > 0 si ha

P{|X − µ| ≥ k} ≤σ2

k2

Teorema. (Legge debole dei grandi numeri)

Siano X1, ..., Xn variabili aleatorie indipenden-

ti con la medesima funzione di distribuzione,

ciascuna con media e varianza finite E[Xi] = µ

e V ar(Xi) = σ2. Allora, per ogni ε > 0 si ha

P

{∣∣∣∣X1 + ... + Xn

n− µ

∣∣∣∣ ≥ ε

}→ 0 n →∞.

Teorema del limite centrale

Sia X1, X2, ... una sequenza di variabile aleato-rie indipendenti con la medesima funzione didistribuzione, con media µ e varianza σ2. Al-lora la funzione di distribuzione di

X1 + ... + Xn − nµ

σ√

n

tende alla distribuzione normale standard pern → ∞. Pertanto per −∞ < a < ∞, si ha cheper n →∞

P

{X1 + ... + Xn − nµ

σ√

n≤ a

}→

1√2π

∫ a

−∞e−x2/2dx

Quando n e grande, una variabile binomiale X

con parametri (n, p) puo essere approssimata

con una variabile normale XN con parametri

E[X] = np e V ar(X) = np(1− p).

Determinare la probabilita che lanciando 40

volte una moneta si ottenga 20 volte testa.

Un astronomo deve misurare in anni luce ladistanza di una stella. Il subitaneo cambio dicondizioni atmosferiche, normali errori di mis-urazione etc. fanno si che piu che una misura,riesca ad ottenere una stima della reale distan-za. Supponendo che diverse misurazioni sianovariabile aleatorie tra loro indipendenti, con lamedesima distribuzione, aventi media comuned (la distanza reale della stella), e varianza co-mune pari a 4 anni luce, quante misure e nec-essario fare per poter essere ragionevolmentesicuri che la distanza stimata abbia un marginedi errore inferiore a 0.5 anni luce?

Il numero di studenti che fanno il primo com-

pitino di Matematica D in teledidattica e una

variabile aleatoria di Poisson con media 90.

Decido che se i partecipanti sono almeno 100,

ho bisogno di due aule, altrimenti ne basta

una sola. Qual’e la probabilita che vengano

utilizzate davvero due aule?

Lanciamo dieci dadi. Determinare la proba-

bilita che la somma sia compresa tra 30 e 40

inclusi.

Teorema (Legge dei grandi numeri)

Sia X1, X2, ... una sequenza variabili aleatorie

indipendenti, con la medesima distribuzione,

tutte aventi media finita µ. Allora con proba-

bilita 1,

X1 + ... + Xn

n→ µ n →∞.