% &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con...

40

Transcript of % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con...

Page 1: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

������������ ����������

�������������������������������������� ���!�����������"����#� �����$���� ���%�&����'����

Page 2: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

MÉTODOS ESTADÍSTICOSAPLICADOS

Pedro Sánchez Algarra (autor y coordinador)Xavier Baraza SánchezFerran Reverter ComasEsteban Vegas Lozano

Publicacions i Edicions

UNIVERSITAT DE BARCELONAU

B

TEXTOS DOCENTS

311

Departament d’Estadística

Page 3: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

7

Indi

ce

ÍNDICE

INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

PRÓLOGO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1. VARIABLE ALEATORIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.1. Concepto de variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.2. Función de distribución de probabilidad de una variable aleatoria . . . . . . . . . . . . . . . . . . . 191.3. Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.3.1. Propiedades de la función de densidad de probabilidad (o de cuantía) en el casodiscreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.4. Variables aleatorias absolutamente continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.4.1. Definición y propiedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.4.2. Comparación del caso discreto con el absolutamente continuo . . . . . . . . . . . . . . . . 26

1.5. Distribución conjunta de dos variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271.5.1. Distribución bivariantes discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281.5.2. Funciones de densidad marginales en el caso discreto . . . . . . . . . . . . . . . . . . . . . . . 291.5.3. Distribuciones bivariantes absolutamente continuas. . . . . . . . . . . . . . . . . . . . . . . . . 30

1.6. Independencia estocástica de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311.6.1. Independencia de dos variables aleatorias en el caso discreto . . . . . . . . . . . . . . . . . 311.6.2. Independencia de dos variables aleatorias en el caso absolutamente continuo. . . . . 31

1.7. Función de distribución condicional de X en el caso discreto . . . . . . . . . . . . . . . . . . . . . . . 321.8. Función de distribución condicional de Y en el caso discreto . . . . . . . . . . . . . . . . . . . . . . . 321.9. Función de densidad condicional de X en el caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . 321.10. Función de densidad condicional de Y en el caso discreto. . . . . . . . . . . . . . . . . . . . . . . . . 331.11. Función de densidad condicional de X en el caso absolutamente continuo . . . . . . . . . . . . 331.12. Función de densidad condicional de Y en el caso absolutamente continuo . . . . . . . . . . . . 331.13. Esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

1.13.1. Sentido probabilístico de la esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . 341.13.2. Esperanza matemática de una variable aleatoria discreta . . . . . . . . . . . . . . . . . . . 341.13.3. Esperanza matemática de una variable aleatoria absolutamente continua . . . . . . 351.13.4. Significado de la esperanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Page 4: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

8

1.13.5. Propiedades de la esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361.13.6. Esperanza matemática condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

1.14. Varianza de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381.14.1. Varianza de una variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381.14.2. Varianza de una variable aleatoria absolutamente continua . . . . . . . . . . . . . . . . . 391.14.3. Propiedades de la varianza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

1.15. Teorema de Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401.16. Momentos de una variable aleatoria X respecto del origen . . . . . . . . . . . . . . . . . . . . . . . . 43

1.16.1. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431.16.2. Caso absolutamente continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

1.17. Momentos centrales de una variable aleatoria X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441.17.1. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441.17.2. Caso absolutamente continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

1.18. Momento de dos variables aleatorias respecto del origen . . . . . . . . . . . . . . . . . . . . . . . . . 451.18.1. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451.18.2. Caso absolutamente continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

1.19. Momento centrales de dos variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451.19.1. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451.19.2. Caso absolutamente continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

1.20. Covarianza de dos variables aleatorias X e Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461.20.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

1.21. Coeficiente de correlación lineal de Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471.22. Desigualdad de Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471.23. Propiedades del coeficiente de correlación de Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

2. DISTRIBUCIONES DISCRETAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.2. Distribución de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

2.2.1. Función de cuantía. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.2.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.2.3. Cálculo de la esperanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522.2.4. Cálculo de la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

2.3. Distribución binominal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532.3.1. Función de cuantía. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 542.3.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552.3.3. Propiedad fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562.3.4. Cálculo de la esperanza y la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2.5. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592.5.1. Cálculo de la esperanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602.5.2. Cálculo de la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.5.3. Propiedades de la distribución de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

Page 5: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

9

Indi

ce

2.5.4. Aproximación de la distribución binominal por la distribución de Poisson . . . . . . . 642.6. Distribución hipergeométrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

2.6.1. Cálculo de la función de cuantía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 672.6.2. Cálculo de la esperanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 692.6.3. Cálculo de la la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

2.7. Distribución geométrica o de Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 742.7.1. Cálculo de la función de cuantía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 742.7.2. Cálculo de la esperanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 752.7.3. Cálculo de la la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

2.8. Distribución binominal negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 772.9. Aplicaciones informáticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

3. DISTRIBUCIONES ABSOLUTAMENTE CONTINUAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 853.1. Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

3.1.1. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 863.1.2. Esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 873.1.3. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

3.2. Distribución normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 893.2.1. Definición. Función de densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 903.2.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 923.2.3. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 943.2.4. Distribución normal reducida o estandarizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 943.2.5. Áreas bajo la curva normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 973.2.6. Tablas de la normal reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 983.2.7. La distribución normal como límite de la distribución binomial . . . . . . . . . . . . . . 102

3.3. Distribuciones Gamma, Exponencial y Ji-Cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1043.3.1. Función Gamma de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1043.3.2. Distribución Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1053.3.3. Distribución exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1053.3.4. Distribución ji-cuadrado de Pearson (X

2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1073.3.5. Esperanza y varianza de la distribución Gamma. . . . . . . . . . . . . . . . . . . . . . . . . . . 1093.3.6. Esperanza y varianza de la distribución Exponencial . . . . . . . . . . . . . . . . . . . . . . . 1093.3.7. Esperanza y varianza de la distribución ji-cuadrado . . . . . . . . . . . . . . . . . . . . . . . 110

3.4. Distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1103.5. Distribución F de Fisher-Snedecor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1123.6. Ejemplo con ordenador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

4. DISTRIBUCIONES DE LOS ESTADÍSTICOS EN EL MUESTREO . . . . . . . . . . . . . . . . . . 1234.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1234.2. Muestreo aleatorio simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1234.3. Estadístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

Page 6: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

10

4.4. Estadístico suma muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1264.5. Estadístico media muestral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1274.6. Distribución muestral del estadístico suma muestral a partir de una población normal . . 1284.7. Distribución muestral del estadístico media muestral a partir de una población normal. . 129

4.7.1. El tamaño de la muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1294.8. Distribución muestral del estadístico suma muestral a partir de una población no

normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1304.9. Distribución muestral del estadístico media muestral a partir de una población no

normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1304.10. Distribución muestral de una proporción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1314.11. Distribución muestral de la diferencia de dos proporciones . . . . . . . . . . . . . . . . . . . . . . 1334.12. Distribución muestral del estadístico varianza muestral en una población normal . . . . . 1344.13. Teorema de Fisher en una población normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1364.14. Teorema de Fisher en dos poblaciones normales independientes . . . . . . . . . . . . . . . . . . 1384.15. Distribución del estadístico cociente de varianzas muestrales corregidas en dos

poblaciones normales independientes con igualdad de varianzas . . . . . . . . . . . . . . . . . . 140

5. ESTIMACIÓN PUNTUAL DE PARÁMETROS Y MÉTODOS DE ESTIMACIÓN . . . . . . . 1435.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1435.2. Estimador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1435.3. Error cuadrático medio del estimador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1445.4. Propiedades deseables de los estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

5.4.1. Estimadores centrados o insesgados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1465.4.2. Cota de Cramér-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1495.4.3. Estimador de mínima varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1505.4.4. Estimador eficiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1505.4.5. Estimador consistente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1545.4.6. Estimador suficiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

5.5. Revisión detallada de los conceptos de verosimilitud e información . . . . . . . . . . . . . . . . 1605.6. Métodos de estimación puntual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

5.6.1. Método de la máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1665.6.2. Método de los momentos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

6. CONTRASTE DE HIPÓTESIS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1776.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1776.2. Regiones críticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1796.3. Región crítica óptima o prepotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

6.3.1. Lema de Neyman-Pearson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1996.4. Test de Razón de Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

6.4.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199

Page 7: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

11

Indi

ce

7. ESTIMACIÓN POR INTERVALOS DE CONFIANZA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2257.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2257.2. Intervalo de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2257.3. Métodos de construcción de intervalos de confianza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

7.3.1. Método pivotal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2267.3.2. Método general de Neyman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

7.4. Intervalos de confianza para una muestra en una población normal . . . . . . . . . . . . . . . . . 234 7.4.1. Intervalos de confianza para la media de una población normal, con desviación

típica σ conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2347.4.2. Intervalo de confianza para la media de una población normal con desviación

típica σ desconocida y muestra de tamaño pequeño . . . . . . . . . . . . . . . . . . . . . . . . 2367.4.3. Intervalo de confianza para la media de una población “no normal” y muestras

de tamaño grande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2377.4.4. Determinación del tamaño muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2387.4.5. Intervalo de confianza para la varianza de una población normal con μ

desconocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2397.4.6. Intervalo de confianza para la varianza de una población normal con μ

conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2407.4.7. Región de confianza simultánea para (μ, σ2) en una población normal . . . . . . . . . 2417.4.8. Intervalo de confianza de una proporción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2427.4.9. Determinació del tamaño muestral para estimar la rpoporción p de una

población . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2447.5. Intervalos de confianza para dos muestras en dos poblaciones normales . . . . . . . . . . . . . 245

7.5.1. Intervalo de confianza para la diferencia de medias de dos poblaciones normalesindependientes, con varianzas conocidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245

7.5.2. Intervalo de confianza para la diferencia de medias de dos poblacionesindependientes no necesariamente normales, con varianzas σ1

2 y σ22

desconocidas y muestras de tamaño grande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2467.5.3. Intervalo de confianza para la diferencia de medias de dos poblaciones

normales independientes con varianzas iguales y desconocidas. . . . . . . . . . . . . . . 2477.5.4. Intervalo de confianza para la diferencia de medias de dos poblaciones

normales independientes con varianzas distintas y desconocidas y muestras de tamaño pequeño. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249

7.5.5. Intervalo de confianza para la diferencia de medias en poblaciones normales: Datos apareados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250

7.5.6. Intervalo de confianza del coeciente de varianzas en poblaciones normalesindependientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251

8. CONTRASTES DE HIPÓTESIS EN EL SUPUESTO DE NORMALIDAD. . . . . . . . . . . . . . 2558.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2558.2. Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255

Page 8: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

12

8.3. El p-valor de un contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2558.4. Contrastes para la media de una población normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

8.4.1. Test de dos colas con varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2568.4.2. Test de una cola con varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2578.4.3. Test de dos colas con varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258

8.5. Contrastes para la varianza de una población normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2598.6. Contrastes de una proporción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2618.7. Test F de comparación de varianzas en dos poblaciones normales independientes. . . . . . 2628.8. Contrastes de dos distribuciones normales independientes . . . . . . . . . . . . . . . . . . . . . . . . 264

8.8.1. Contraste de medias con varianzas conocidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2648.8.2. Contraste de la diferencia de medias en poblaciones normales independientes

con varianzas desconocidas, pero supuestamente iguales:Muestras independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265

8.8.3. Contraste de la diferencia de medias en poblaciones normales independientescon varianzas desconocidas y distintas: Muestras independientes . . . . . . . . . . . . . 268

8.9. Contraste de igualdad de medias para datos apareados . . . . . . . . . . . . . . . . . . . . . . . . . . . 2718.10. Comparación de proporciones en muestras apareadas. Variables-respuesta

dicotómicas (o dicotomizadas). Test de McNemar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2758.11. Contraste de la diferencia de proporciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2848.12. Ejemplo con ordenador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283

9. REGRESIÓN LINEAL SIMPLE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2939.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2939.2. Modelo de regresión lineal simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2949.3. Estimadores mínimo-cuadráticos de los coeficientes de la regresión . . . . . . . . . . . . . . . . 295

9.3.1. Resúmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2979.3.2. Otras expresiones de la suma de cuadrados del erros . . . . . . . . . . . . . . . . . . . . . . . 297

9.4. Propiedades de los estimadores β0 y β1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2989.5. Estimación de σ2

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3019.6. Fórmula fundamental de descomposición de la variabilida en la regresión lineal y su

relación con el coeficiente de correlación de Pearson. . . . . . . . . . . . . . . . . . . . . . . . . . . . 3029.7. Distribución de los estimadores β0 y β1 de los coeficientes de regresión en el muestreo . 3089.8. Distribución del estadístico SSE/σ2

en el muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3099.9. Inferencias estadísticas acerca de los parámetros de la regresión . . . . . . . . . . . . . . . . . . . 311

9.9.1. Inferencias relacionadas con β1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3129.9.2. Inferencias relacionadas con β0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3149.9.3. Inferencias relacionadas con β0 + β1X en X = x0 . . . . . . . . . . . . . . . . . . . . . . . . . 3159.9.4. Intervalo de predicción de una respuesta futura en X = x0 . . . . . . . . . . . . . . . . . . 317

9.10. Ejemplo con ordenador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319

TABLAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327

Page 9: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

17

Pról

ogo

PRÓLOGO

Es un hecho incuestionable que los métodos estadísticos constituyen una herramienta imprescindible para aquellos profesionales e investigadores que han de manejar datos y obtener conclusiones de tales informaciones. Por este motivo, la Estadística está pisando con fuerza en ámbitos del conocimiento sumamente diversificados (Ingeniería, Ciencias Experimentales, Medicina, Psicología, Económicas, Sociología, etc.), y para todos ellos se ofrecen conceptos de desarrollo teórico de fácil aplicabilidad.

Con esta obra se facilita al lector un material completo y consistente –teoría, ejercicios y problemas- que contribuya al afianzamiento de sus conocimientos de Estadística, y le aporte un motivo de reflexión sobre los diversos conceptos utilizados y sus aplicaciones. El amplio corpus de conocimiento estadístico ha obligado a un disciplinado esfuerzo de contención para evitar una extensión desmesurada de la obra, dado el desplegamiento de contenidos que ofrece esta disciplina en la actualidad.

El contenido de la obra se estructura en nueve capítulos. En los tres primeros se tratan las variables aleatorias y las diferentes distribuciones discretas y absolutamente continuas, y, son básicos para comprender el cuarto, relativo a la distribución de los estadísticos en el muestreo. En los capítulos cinco y seis se trata el tema de la estimación puntual de parámetros, los diferentes métodos de estimación y la teoría sobre el contraste de hipótesis. Los capítulos siete y ocho se refieren a la estimación por intervalos de confianza y al contraste de hipótesis paramétrico. Finalmente, el capítulo nueve se dedica a la regresión lineal simple.

Diversos capítulos del texto están ilustrados con una aplicación práctica, utilizando el paquete estadístico Statgraphics Plus, versión 5.1. Entendemos que esta vertiente relativa a aplicaciones resulta de suma utilidad para quienes pretendan adquirir una sólida formación estadística, y les ofrece un apoyo indudable desde este segundo flanco, sin duda rele-vante.

Esta obra, fruto de la experiencia docente en diversas titulaciones en las cuales la Estadística tiene un papel relevante, se ha concebido con la idea de que pueda contribuir a los estudiantes de estas titulaciones a adquirir los conocimientos básicos de la disciplina, y teniendo especialmente en cuenta la realidad coyuntural que nos envuelve, en un momento de discusión e implantación de nuevos planes de estudio, que suponen una reducción del tiempo dedicado a la materia, pero no de los contenidos.

Page 10: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

19

1. V

aria

ble

alea

tori

a

1. VARIABLE ALEATORIA

1.1 Concepto de variable aleatoria

Sea un espacio de probabilidades ( ), , PaΩ , donde a es una álgebra de sucesos. Si el álgebra son las “partes de Ω” , una variable aleatoria X es toda aplicación del espacio muestral

Ω en la recta real .a ( ( )a =℘ Ω )

:

( )

X

Xω ω

Ω ⎯⎯→∈ ∈

⎯⎯→

siendo ( )X ω el valor de la variable aleatoria.

Obsérvese que X aplica a cada suceso elemental en un punto de la recta real y que con un mismo Ω se pueden definir infinitas variables aleatorias distintas.

1.2 Función de distribución de probabilidad de una variable aleatoria

[ ]( )F x P X x x= ≤ ∀ ∈�Obsérvese que esta función solamente existe para variables aleatorias porque si X es una

variable aleatoria, el conjunto

[ ] { }( )X x X xω ω≤ = ∈Ω ≤ ⊂ Ω

es un suceso.

La función de distribución cumple las siguientes propiedades:

1) 0 ( ) 1F x x≤ ≤ ∀ ∈�

La demostración es trivial, pues por definición, ( )F x es una probabilidad y la misma está comprendida entre 0 y 1.

Page 11: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

20

2) lim ( ) 0 ; lim ( ) 1x x

F x F x→−∞ →+∞

= =

En efecto, se puede demostrar:

[ ] { }

{ } { }( )

lim ( ) lim lim ( )

lim ( ) ( )

0

x x x

x

F x P X x P X x

P X x P X

P

ω ω

ω ω ω ω

→−∞ →−∞ →−∞

→−∞

= ≤ = ∈Ω ≤ =

⎡ ⎤= ∈Ω ≤ = ∈Ω ≤ −∞⎢ ⎥⎣ ⎦= ∅ =

=

[ ] { }

{ } { }( )

lim ( ) lim lim ( )

lim ( ) ( )

1

x x x

x

F x P X x P X x

P X x P X

P

ω ω

ω ω ω ω

→+∞ →+∞ →+∞

→+∞

= ≤ = ∈Ω ≤ =

⎡ ⎤= ∈Ω ≤ = ∈Ω ≤ +∞⎢ ⎥⎣ ⎦= Ω =

=

3) ( )F x es no decreciente. Esto significa que

( ) ( )1 2 1 2 1 2,si x x F x F x x x< ⇒ ≤ ∀ ∈�

En efecto:

{ } { }1 2 1 2( ) ( )x x X x Xω ω ω ω< ⇒ ∈Ω ≤ ⊂ ∈Ω ≤ x

y teniendo en cuenta que

( ) ( )si A B entonces P A P B⊆ ≤

resulta

[ ] [1P X x P X x≤ ≤ ≤ ]2 o lo que es lo mismo ( ) ( )1 2F x F x≤

4) [ ] ( ) ( )P a X b F b F a< ≤ = −

En efecto:

[ ] [ ] [ ]X b X a a X b≤ = ≤ + < ≤

Aplicando a los dos miembros de la igualdad la probabilidad, se tiene:

[ ] [ ] [ ]{ }P X b P X a a X b≤ = ≤ + < ≤

Por ser los sucesos [ ]X a≤ y [ ]a X b< ≤ mutuamente excluyentes

[ ] [ ] [ ]P X b P X a P a X b≤ = ≤ + < ≤

Page 12: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

21

1. V

aria

ble

alea

tori

a

Despejando [ ]P a X b< ≤ resulta:

[ ] [ ] [ ]P a X b P X b P X a< ≤ = ≤ − ≤

y teniendo presente la definición de función de distribución queda:

[ ] ( ) ( )P a X b F b F a< ≤ = −

que es lo que se quería comprobar.

5) ( )F x es continua a la derecha, es decir,

lim ( ) ( )x ax a

F x F a a→>

= ∀ ∈�

Se ha de demostrar que

lim ( ) ( ) 0x ax a

F x F a a→>

− = ∀ ∈�

En efecto:

[ ]

lim ( ) ( ) lim ( ) lim ( )

lim ( ) ( ) lim ( ) ( )

x a x a x ax a x a x a

x a x ax a x a

F x F a F x F a

F x F a F x F a

→ →> >

→ →> >

− = −

− = −

→>

Teniendo presente la propiedad (4) resulta:

[ ]

[ ]

[ ]

{ }

( ]

( )

lim ( ) ( ) lim

lim ( ) ( ) lim

lim ( ) ( )

lim ( ) ( ) ( )

lim ( ) ( ) ,

lim ( ) ( ) 0

x a x ax a x a

x a x ax a x a

x ax a

x ax a

x ax a

x ax a

F x F a P a X x

F x F a P a X x

F x F a P a X a

F x F a P a X a

F x F a P a a

F x F a P

ω ω

→ →> >

→ →> >

→>

→>

→>

→>

− = < ≤

⎧ ⎫⎪ ⎪− = < ≤⎨ ⎬⎪ ⎪⎩ ⎭

− = < ≤

− = ∈Ω < ≤

− =

− = ∅ =

que es lo que se quería comprobar.

Interesa estudiar dos casos concretos, que son el caso discreto y el caso absolutamente continuo.

Page 13: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

22

1.3 Variables aleatorias discretas

Se dice que una variable aleatoria X sigue una distribución discreta, si el conjunto de valores que toma con probabilidad no nula, es finito o infinito numerable. Esto quiere decir que existe una sucesión de números reales , tal que: 1 2, , , ,nx x x� �

[ ][ ]

01,2, , ,0

i i

i

P X x pi n

P X x

= = ≠=

≠ =� �

En el caso discreto más que la función de distribución se utiliza la función de densidad de probabilidad que en este caso se define así:

( ) [ ] 01,2, , ,( ) 0

i i i

i

f x P X x pi nf x si x x

= = = ≠== ≠ � �

Son ejemplos de variables discretas, el numero de accidentes por año en una planta química, el número de piezas defectuosas producidas por una máquina, etc.

1.3.1 Propiedades de la función de densidad de probabilidad (o de cuantía) en el caso discreto

1) 0 ( ) 1f x x≤ ≤ ∀ ∈�

La demostración es trivial, por ser la función de densidad en el caso discreto una probabilidad.

2) ( )( )

1

1n o

ii

f x∞

=

=∑

3) [ ] ( )( )i

ix x

F x P X x f x≤

= ≤ = ∑

F(x) es la función de distribución de la variable aleatoria X o probabilidad acumulada.

Ejemplo 1.1

Supóngase que en una bolsa hay tres monedas de un €, dos monedas de 50 céntimos de € y una moneda de 10 céntimos de €. Además, que todas las monedas son del mismo tamaño y que no se pueden diferenciar con el tacto. Si se escogen dos monedas, primero una y después otra, sin devolver la primera a la bolsa, y consideramos la variable aleatoria X correspondiente a la ganancia del juego, determinar:

a) La función de densidad de probabilidad. b) La función de distribución. c) P(X = 1) d) P(X < 1,5) e) P(0,60 < X < 1,5)

Page 14: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

23

1. V

aria

ble

alea

tori

a

Solución:

a) Podemos esquematizar el resultado del juego mediante la siguiente tabla

Primera moneda Segunda moneda Ganancia Probabilidad

1€ 1€ 2€ 3/6·2/5=1/5

1€ 50cens 1,5€ 3/6·2/5= 1/5

1€ 10cens 1,1€ 3/6·1/5=1/10

50cens 1€ 1,5€ 2/6·3/5=1/5

50cens 50cens 1€ 2/6·1/5=1/15

50cens 10cens 60cens 2/6·1/5=1/15

10cens 1€ 1,1€ 1/6·3/5=1/10

10cens 50cens 60cens 1/6·2/5=1/15

Se trata de una variable discreta con función de densidad

X f(x)=P(X=x)

2 1/5

1,5 2/5

1,1 2/10

1 1/15

0,60 2/15

b) Para hallar la función de distribución de X tengamos en cuenta su definición

)()( xXPxF ≤= .

Entonces

⎪⎪⎪⎪

⎪⎪⎪⎪

≥<≤

<≤<≤

<≤<

=

2125,115/125,11,115/6

1,1115/3160,015/2

60,00

)(

xx

xx

xx

xF

c) Observando la función de cuantia del apartado a) tenemos que

15/1)1( ==XP

d) Observando la función de distribución en el apartado b) tenemos que

15/6)1,1()5,1( =≤=< XPXP

Page 15: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

24

e) Teniendo en cuenta que se trata de una variable aleatoria discreta, la probabilidad pedida viene dada por

15/4)1,1()1()5,16,0( ==+==<< XPXPXP

1.4 Variables aleatorias absolutamente continuas

Cuando X es una variable aleatoria absolutamente continua, toma una infinidad (no numerable) de valores, por lo que no resulta apropiado hallar la probabilidad de cada valor de la variable, es de esperar que cada uno de ellos tenga probabilidad nula. Por tanto, se admitirá que para cualquier número real a se verifica , y sólo son susceptibles de tener probabilidad no nula los intervalos.

( ) 0P X a= =

Son ejemplos de variables aleatorias absolutamente continuas, la conversión de una reacción química, el espesor de una lámina, el tiempo de vida de un instrumento, etc.

1.4.1 Definición y propiedades

Se dice que una variable aleatoria X es absolutamente continua si existe una función f(x)denominada función de densidad tal que su función de distribución F(x) se puede escribir así:

( ) ( )x

F x f t dt x−∞

= ∀ ∈∫ �

La función f(x) verifica las siguientes propiedades:

1) ( ) 0f x ≥

2) ( ) 1f x dx+∞

−∞

=∫

En efecto, ya que,

( ) lim ( ) lim ( ) 1x

x xf x dx f t dt F x

+∞

→+∞ →+∞−∞ −∞

= = =∫ ∫

3) '( ) ( )F x f x= , cuando f(x) sea continua en x.

4) ( ) (b

a

P x a b f x dx< ≤ = ∫ )

En efecto,

( ) ( ) ( ) ( ) ( )b a

P a X b F b F a f x dx f x dx−∞ −∞

< ≤ = − = −∫ ∫

Page 16: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

25

1. V

aria

ble

alea

tori

a

pero siendo ,a b<

( ) ( ) ( )b a b

a

f x dx f x dx f x dx−∞ −∞

= +∫ ∫ ∫

y entonces resulta:

( ) ( ) ( ) ( ) ( )a b a b

a a

P a X b f x dx f x dx f x dx f x dx−∞ −∞

< ≤ = + − =∫ ∫ ∫ ∫

La propiedad (1) expresa que la curva representativa de la función de densidad f(x) se encuentra por encima del eje de abscisas. La propiedad (2) expresa que el área total bajo la curva de la función de densidad vale la unidad.

Ejemplo 1.2

Sea X una variable absolutamente continua de función de densidad de probabilidad:

2(1 ) (0,3)( )

0 (Xk x si x

f xsi x

⎧ ⋅ + ∈= ⎨

∉⎩ 0,3)

Se pide:

a) Hallar la constante k y la función de distribución de probabilidad.

b) Probabilidad de que X esté comprendido entre 1 y 2.

c) Probabilidad de que X sea menor que 1.

d) Sabiendo que X es mayor que 1, probabilidad de que sea menor que 2.

Solución:

a) Se verifica:

( ) 1f x dx+∞

−∞

=∫0 3

0 3

( ) ( ) ( ) 1f x dx f x dx f x dx+∞

−∞

+ + =∫ ∫ ∫

Al ser si , las integrales primera y tercera son nulas y entonces queda: ( ) 0f x = (0,3)x ∉

3

0

( ) 1f x dx =∫ ; ( )3

2

0

1 1k x dx+ =∫ ; 33

0

13xk x

⎡ ⎤+ =⎢ ⎥

⎣ ⎦

112 112

k k⋅ = ⇒ =

Page 17: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

26

La función de distribución asociada a la función de densidad de probabilidad es:

3

0 0

1( ) ( ) 0 312 31 3

x

si x

xF x f t dt x si x

si x−∞

≤⎧⎪

⎛ ⎞⎪= = + <⎨ ⎜ ⎟⎝ ⎠⎪

⎪ ≥⎩

∫ <

b)

( )232

2

1 1

1 1 1 8 1(1 2) 1 2 112 12 3 12 3 3 18

xP X x dx x⎡ ⎤ ⎛ ⎞< < = + = + = + − − =⎢ ⎥ ⎜ ⎟

⎝ ⎠⎣ ⎦∫

5

c)

1 1( 1) ( 1) (1) 112 3 9

P X P X F ⎛ ⎞< = ≤ = = + =⎜ ⎟⎝ ⎠

1

d) Es una probabilidad condicionada:

[ ] [ ]( ) [ ] [ ]( )( ) ( )1 2 (1 2) 5 /18 52 1

1 1 1 8/ 9P X X P XP X X

P X P X> ∩ < < <

< > = = = => − ≤ 16

1.4.2 Comparación del caso discreto con el absolutamente continuo

En el caso discreto, ( ) ( )f x P X x= = . En el caso absolutamente continuo, ( ) ( )f x P X x≠ = .

Es decir, en el discreto, la función de densidad representa una probabilidad y, por tanto, no puede valer más de 1. En el absolutamente continuo, la función de densidad de probabilidad no representa una probabilidad y, por tanto, puede valer más de 1. No obstante, en el caso absolutamente continuo, ( )f x dx se interpreta como la probabilidad infinitesimal de que la variable aleatoria Xalcance valores dentro del intervalo ( , )x x dx+ (véase la figura 1.1).

f(x)

X x x+ dx

f(x)

Figura 1.1

En el discreto, la probabilidad de que X tome un valor cualquiera a es:

( )P X a 0= ≥

En el absolutamente continuo, la probabilidad de que X tome un valor cualquiera a es nula; es decir:

( ) ( ) ( )a

a

P X a P a X a f x dx= = < < = =∫ 0

Page 18: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

27

1. V

aria

ble

alea

tori

a

En el caso discreto, nos valemos de puntos para introducir la probabilidad, mientras que en el absolutamente continuo, nos valemos de intervalos, debido a ser nula la probabilidad en cada punto.

En el discreto, cualquier probabilidad es la suma de probabilidades asociadas a puntos. En el absolutamente continuo, cualquier probabilidad es una integral definida, asociada a un intervalo, verificándose:

( ) ( ) ( ) ( ) ( ) ( ) (b

a

P a X b P a X b P a X b P a X b F b F a f x dx< ≤ = < < = ≤ < = ≤ ≤ = − = ∫ )

)

1.5 Distribución conjunta de dos variables aleatorias

Sea un espacio de probabilidades y, X e Y dos variables aleatorias definidas sobre él. Cada una de ellas es una aplicación de

( , , PaΩΩ en ; por tanto, el par aleatorio (X, Y) permite definir una

aplicación de Ω en el producto cartesiano �

� � como sigue:

Y

X

ω

Ω

(x,y)

( )

( )

, :

( ), ( ) ( , )

X Y

X Y xω ω ω

Ω ⎯⎯→ ×∈ ∈

⎯⎯→ =

� �

y

Se define una función de dos variables, que es la función de distribución conjunta del par aleatorio (X, Y), de la siguiente manera:

[ ] [ ]{ }( , ) ( ) ( )= ∈Ω ≤ ∩ ≤F x y P X x Y yω ω ω

o en forma resumida:

[ ] [ ]{ }( , ) = ≤ ∩ ≤F x y P X x Y y

La función de distribución ( , )F x y tiene las siguientes propiedades:

1) 0 ( , ) 1≤ ≤F x y

2) y lim ( , ) 0→−∞

→−∞

=x

oy

F x y lim ( , ) 1→+∞

→+∞

=x

ey

F x y

Page 19: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

28

3) 1lim ( , ) ( )→+∞

=x fija

y

F x y F x siendo 1( )F x la función de distribución marginal de la variable aleatoria X.

2lim ( , ) ( )→+∞

=y fija

x

F x y F y siendo 2 ( )F y la función de distribución marginal de la variable aleatoria Y.

4) [ ] [ ]{ } ( , ) ( , ) ( , ) ( , )< ≤ ∩ < ≤ = − − +P a X b c Y d F b d F a d F b c F a c

a

Y

Xb

d

c(a ,c)

(a ,d) (b ,d)

(b ,c)

Existen dos casos diferenciados: el caso discreto y el caso absolutamente continuo.

1.5.1 Distribuciones bivariantes discretas

Supóngase que X e Y son ambas discretas, o sea:

1 2

1 2

: , , , ,: , , , ,

n

m

X x x xY y y y

� �� �

Entonces el par aleatorio (X, Y) tomará los valores ( ),i jx y .

La función de densidad conjunta en el caso discreto, se define así:

( ) [ ]( ) ( ), ,i j i j ij i jf x y P X x Y y p P x y⎡ ⎤= = ∩ = = =⎣ ⎦

La función de densidad conjunta verifica las siguientes propiedades:

1) 0 ( , )≤ ≤i jf x y 1

)

2) 1=∑∑ iji j

p

3) (( , ) ,≤≤

= ∑ij

i jx xy y

F x y f x y siendo ( , )F x y la función de distribución conjunta del par

aleatorio (X, Y).

Page 20: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

29

1. V

aria

ble

alea

tori

a

1.5.2 Funciones de densidad marginales en el caso discreto

Conociendo la distribución conjunta del par (X, Y) es posible determinar las distribuciones de Xe Y por separado, denominadas distribuciones marginales.

La función de densidad marginal de la variable aleatoria X viene dada por:

[ ]1( ) = = = ∑i ij

ijf x P X x p

En efecto,

[ ] [ ]( )⎡ ⎤= = = ∩ =⎣ ⎦�i ij

jX x X x Y y

Los sucesos de la forma [ ] ⎡ ⎤= ∩ =⎣ ⎦i jX x Y y son mutuamente excluyentes, por tanto:

[ ] [ ]( )⎡ ⎤= = = ∩ = =⎣ ⎦∑ ∑i i jj j

P X x P X x Y y pij

Análogamente, la función de densidad marginal de la variable aleatoria Y viene dada por:

2 ( ) ⎡ ⎤= = =⎣ ⎦ ∑j j ii

jf y P Y y p

Ejemplo 1.3

Supónganse las variables aleatorias discretas X e Y con función de probabilidad conjunta dada por la siguiente tabla:

Y X y1=4 y2=5

x1=3 0,17 0,10x2=10 0,13 0,30x3=12 0,25 0,05

Se pide:

a) Hallar las funciones de densidad marginales.

b) Hallar los valores de la función de distribución conjunta ( )2 1,F x y , ( )2 2,F x y y ( )3 2,F x y .

c) Determinar y .(10'5,5)f (10'5, 5)F

d) Función de distribución marginal de ( )1 2:X F x .

e) Función de distribución marginal de ( )2 2:Y F y .

Solución:

a) La función de densidad marginal de X se obtendrá sumando, para cada valor de X, los valores de la función de densidad conjunta, resultando:

( ) [ ]1 1 1(3) 3 (3, 4) (3, 5) 0,17 0,10 0,27f x f P X f f= = = = + = + =

( ) [ ]1 2 1(10) 10 (10, 4) (10, 5) 0,13 0,30 0,43f x f P X f f= = = = + = + =

( ) [ ]1 3 1(12) 12 (12, 4) (12, 5) 0,25 0,05 0,30f x f P X f f= = = = + = + =

Page 21: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

30

Se verifica que:

1 1 1 2 1 3( ) ( ) ( ) 0,27 0,43 0,30 1f x f x f x+ + = + + =

5

La función de densidad marginal de Y se obtendrá sumando, para cada valor de Y, los valores de la función de densidad conjunta, resultando:

( ) [ ]2 1 2 (4) 4 (3, 4) (10, 4) (12, 4) 0,17 0,13 0,25 0,5f y f P Y f f f= = = = + + = + + =

( ) [ ]2 2 2 (5) 5 (3, 5) (10, 5) (12, 5) 0,10 0,30 0,05 0,45f y f P Y f f f= = = = + + = + + =

Se verifica que:

2 1 2 2( ) ( ) 0,55 0,45 1f y f y+ = + =

b)

( ) [ ] [ ]( )2 1, (10, 4) 10 4 (3, 4) (10, 4) 0,17 0,13 0,30F x y F P X Y f f= = ≤ ∩ ≤ = + = + =

( ) [ ] [ ]( )2 2, (10, 5) 10 5

(3, 4) (3, 5) (10, 4) (10, 5) 0,17 0,10 0,13 0,30 0,70

F x y F P X Y

f f f f

= = ≤ ∩ ≤ =

= + + + = + + + =

( ) [ ] [ ]( )3 2, (12, 5) 12 5

(3, 4) (3, 5) (10, 4) (10, 5) (12, 4) (12, 5) 1

F x y F P X Y

f f f f f f

= = ≤ ∩ ≤ =

= + + + + + =

c)[ ] [ ]( ) [ ]( ) ( )(10'5, 5) 10'5 5 5 0f P X Y P Y P= = ∩ = = ∅ ∩ = = ∅ =

[ ] [ ]( )(10'5, 5) 10'5 5 (3,4) (3,5) (10,4) (10,5) 0,7F P X Y f f f f= ≤ ∩ ≤ = + + + =

d) Función de distribución marginal ( )1 2:X F x

[ ]1 2 1 1 1( ) (10) 10 (3) (10) 0,17 0,10 0,13 0,30 0,7F x F P X f f= = ≤ = + = + + + =

e) Función de distribución marginal ( )2 2:Y F y

[ ]2 2 2 2 2( ) (5) 5 (4) (5) 0,17 0,13 0,25 0,10 0,30 0,05 1F y F P Y f f= = ≤ = + = + + + + + =

1.5.3 Distribuciones bivariantes absolutamente continuas

Se dice que el par aleatorio (X, Y) tiene una distribución conjunta bivariante absolutamente continua si existe una función ( , )f x y , llamada función de densidad bivariante, tal que:

( , ) ( , )−∞ −∞

= ∫ ∫yx

F x y f u v du dv

Se verifica:

1) ( , ) 0≥f x y

2) ( ), 1+∞ +∞

−∞ −∞

=∫ ∫ f x y dx dy

Page 22: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

31

1. V

aria

ble

alea

tori

a

3)2 ( , ) ( , )∂

=∂ ∂F x y f x yx y

si f es continua en (x, y).

4) [ ] [ ]( ) ( ),< < ∩ < < = ∫ ∫b d

a c

P a X b c Y d f x y dx dy

5) ( , )f x y no es exactamente una probabilidad, pero ( , )f x y dx dy se interpreta como la probabilidad infinitesimal sobre el rectángulo de vértices (x, y), (x+dx, y), (x, y+dy) y (x+dx, y+dy). Es decir:

[ ] [ ]( )( , ) = < < + ∩ < < +f x y dx dy P x X x dx y Y y dy

1.5.4. Funciones de densidad marginales en el caso absolutamente continuo

En el caso absolutamente continuo las funciones de densidad marginales son:

1

2

( ) ( , )

( ) ( , )

f x f x y dy

f y f x y d

+∞

−∞

+∞

−∞

=

=

∫ x

, ) ( ) ( )

1.6 Independencia estocástica de variables aleatorias

Dos variables aleatorias, X e Y, son estocásticamente independiente si, y sólo si, la función de distribución conjunta es el producto de las funciones de distribución marginales. Esto se cumple en general, o sea, tanto en el caso discreto como en el caso absolutamente continuo.

1 2, (⇔ = ⋅X Y variables aleatorias independientes F x y F x F y

En efecto:

[ ] [ ]( ) [ ]( ) [ ]( ) 1 2( , ) ( ) ( )= ≤ ∩ ≤ = ≤ ⋅ ≤ = ⋅F x y P X x Y y P X x P Y y F x F y

1.6.1 Independencia de dos variables aleatorias en el caso discreto

Dos variables aleatorias, X e Y, son estocásticamente independientes si, y sólo si, la función de densidad conjunta es el producto de las funciones de densidad marginales.

( ) ( ) ( )1 2,i j i jf x y f x f y= ⋅

para todo par de números reales ( ),i jx y .

En efecto,

( ) [ ]( ) [ ]( ) ( ) ( ) ( )1 2,i j i j i j i jf x y P X x Y y P X x P Y y f x f y⎡ ⎤ ⎡ ⎤= = ∩ = = = ⋅ = = ⋅⎣ ⎦ ⎣ ⎦

1.6.2 Independencia de dos variables aleatorias en el caso absolutamente continuo

Dos variables aleatorias, X e Y, son estocásticamente independientes si, y sólo si, la función de densidad conjunta es el producto de las funciones de densidad marginales.

( ) ( ) ( )1 2,f x y f x f y= ⋅

Page 23: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

32

En efecto, por la propiedad (3) de la sección 1.5.3.

[ ]

[ ] [ ] [ ]

221 2

1 2 2 1

2 1 1 2

( ) ( )( , )( , )

( ) ( ) ( ) ( )

( ) ( ) ( ) ( )

F x F yF x yf x yx y x y

F x F y F y F xy x y x

f y f x f x f y

∂ ⋅∂= =

∂ ∂ ∂ ∂

∂ ∂ ∂ ∂⎧ ⎫= ⋅ = ⋅⎨ ⎬∂ ∂ ∂ ∂⎩ ⎭

= ⋅ = ⋅

=

1.7 Función de distribución condicional de X en el caso discreto

La función de distribución condicional de X en el caso discreto se define así:

( ) ( )( )2

,i ji j

j

F x yG x y

F y=

con ( )2 0jF y > .

Es aquella que asigna a cada número real xi la probabilidad de que X sea menor o igual que xi,bajo la condición de que Y sea menor o igual que yj, es decir,

( ) [ ]( ) [ ]( )( )

( )( )2

,i j i ji j i j

jj

P X x Y y F x yG x y P X x Y y

F yP Y y

⎡ ⎤≤ ∩ ≤⎣ ⎦⎡ ⎤= ≤ ≤ = =⎣ ⎦ ⎡ ⎤≤⎣ ⎦

1.8 Función de distribución condicional de Y en el caso discreto

Viene dada por la expresión siguiente:

( ) ( )( )1

,i jj i

i

F x yH y x

F x=

con ( )1 0iF x > .

En efecto:

( ) [ ]( ) [ ]( )[ ]( )

[ ]( )[ ]( )

( )( )1

,

j ij i j i

i

i j i j

ii

P Y y X xH y x P Y y X x

P X x

P X x Y y F x yF xP X x

⎡ ⎤≤ ∩ ≤⎣ ⎦⎡ ⎤= ≤ ≤ =⎣ ⎦ ≤

⎡ ⎤≤ ∩ ≤⎣ ⎦= =≤

=

1.9 Función de densidad condicional de X en el caso discreto

Viene dada por la siguiente expresión:

( ) ( ) ( )( )2

,i ji j i j

j

f x yg x y g x Y y

f y= = =

con ( )2 0jf y > .

Page 24: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

33

1. V

aria

ble

alea

tori

aEn efecto,

( ) [ ]( ) [ ]( )( )

( )( )2

,i j i ji j i j

jj

P X x Y y f x yg x y P X x Y y

f yP Y y

⎡ ⎤= ∩ =⎣ ⎦⎡ ⎤= = = = =⎣ ⎦ ⎡ ⎤=⎣ ⎦

1.10 Función de densidad condicional de Y en el caso discreto

Viene dada por la siguiente expresión:

( ) ( ) ( )( )1

,i jj i j i

i

f x yh y x h y X x

f x= = =

con ( )1 0if x > .

En efecto,

( ) [ ]( ) [ ]( )[ ]( )

[ ]( )[ ]( )

( )( )1

,j i i j i jj i j i

ii i

P Y y X x P X x Y y f x yh y x P Y y X x

f xP X x P X x

⎡ ⎤ ⎡ ⎤= ∩ = = ∩ =⎣ ⎦ ⎣ ⎦⎡ ⎤= = = = = =⎣ ⎦ = =

1.11 Función de densidad condicional de X en el caso absolutamente continuo

Es una función de x, que viene dada por la siguiente expresión:

( ) ( )( )

00

2 0

,f x yg x y

f y=

con ( )2 0 0f y > .

1.12 Función de densidad condicional de Y en el caso absolutamente continuo

Es una función de y que viene dada por la siguiente expresión:

( ) ( )( )

00

1 0

,f x yh y x

f x=

con ( )1 0 0f x > .

Observación: La fórmula general de la función de densidad conjunta en el caso discreto es:

a) ( ) ( ) ( ) ( ) ( )1 2,i j i j i i j jf x y f x h y x g x y f y= ⋅ = ⋅

En el caso particular de que las variables aleatorias X e Y son estocásticamente independientes, se sabe que se cumple:

b) ( ) ( ) ( )1 2,i j i jf x y f x f y= ⋅

Comparando a) y b) resulta: Si las variables aleatorias X e Y son estocásticamente independientes se verifica que

( ) ( )1i j ig x y f x=

cualquiera que sea yj y ( ) ( )2j i jh y x f y=

cualquiera que sea xi.

Page 25: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

34

O sea, si las variables aleatorias X e Y son estocásticamente independientes se verifica que cada distribución condicional de X, para cada uno de los valores posibles de Y, es igual que la distribución marginal de X y que cada distribución condicional de Y, para cada uno de los valores posibles de X, es igual que la distribución marginal de Y.

1.13 Esperanza matemática

1.13.1 Sentido probabilístico de la esperanza matemática

Supóngase que se han realizado N pruebas, en las cuales la variables aleatoria X ha tomado f1

veces el valor x1, f2 veces el valor x2, ..., fn el valor xn; además, 1 2 nf f f N+ + + =� . En este caso, la suma de todos los valores tomados por X, es igual a

1 1 2 2 n nx f x f x f+ + +� .

Se halla la media aritmética X de todos los valores tomados por la variable aleatoria, para lo cual se divide la suma obtenida por el número total de pruebas:

1 1 2 2 n nx f x f x fXN

+ + +=

� (1.1)

La relación f1/N es la frecuencia relativa 1Rf del valor x1, f2/N es la frecuencia relativa

2Rf de x2,etc., por tanto, la expresión (1.1) se puede escribir como:

1 21 2 nR R n RX x f x f x f= + + +� (1.2)

Supóngase que el número de pruebas es bastante grande. Entonces la frecuencia relativa es aproximadamente igual a la probabilidad de aparición del suceso (esto se demostrará posteriormente).

Sustituyendo en (1.2) las frecuencias relativas por las correspondientes probabilidades, se obtiene:

[ ] [ ] [ ]1 1 2 2 n nX x P X x x P X x x P X x= + = + + =� � .

El segundo miembro de esta igualdad aproximada es la esperanza de la variable aleatoria X, o sea: ( )E X .

El sentido probabilístico del resultado obtenido es: La esperanza matemática es aproximadamente igual (tanto más exacto, cuanto mayor es el número de pruebas) a la media aritmética de los valores observados de la variable aleatoria.

Dicho de otra forma: La esperanza matemática es una generalización del concepto de media aritmética.

1.13.2 Esperanza matemática de una variable aleatoria discreta

Supóngase que X es una variable aleatoria que alcanza los valores: con las probabilidades:

1 2, , , ,nx x x� �( ) ( ) ( )1 2, , , ,nf x f x f x� � siendo

( ) [ ]i if x P X x= =

Se definirá como esperanza matemática de la variable aleatoria X a la expresión:

[ ] ( )( ) ( )

1 1

( )n o n o

i i ii i

iE X x P X x x f∞ ∞

= =

= = =∑ ∑ x (1.3)

Page 26: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

35

1. V

aria

ble

alea

tori

a

Si la variable aleatoria X toma infinitos valores, la expresión de ( )E X es una serie.

Si la serie es convergente, la ( )E X existe. Si la serie es divergente u oscilante, la esperanza no existe (no esta definida).

A la esperanza de una variable aleatoria X también se la llama valor esperado o valor medio de la variable aleatoria X.

Ejemplo 1.4 (continuación de 1.1)

¿Cuál es la ganancia esperada del juego?

Solución:Para hallar la ganancia esperada del juego deberemos hallar .)(XE

37,1512

525,1

1021,1

1511

15260,0)( =++++=XE €.

1.13.3 Esperanza matemática de una variable aleatoria absolutamente continua

Supóngase que se tiene una variable aleatoria X con función de densidad ( )f x . La esperanza Xse define así:

( ) ( )E X x f x d+∞

−∞

x= ⋅ ⋅∫ (1.4)

Ejemplo 1.5 (continuación de 1.2)

¿Cuál es la esperanza matemática de X?

Solución:

Hallaremos la esperanza de X a partir de su definición. Esto es

∫∞

∞−

= dxxfxxE X )()( .

Resulta

[ ] [ ]1633

481

29

121

41

21

121)1(

121)( 3

043

02

3

0

2 =⎟⎠⎞

⎜⎝⎛ +=⎟

⎠⎞

⎜⎝⎛ +=+= ∫ xxdxxxxE .

1.13.4 Significado de la esperanza

1) La esperanza es el valor medio teórico de los valores que alcanza la variable aleatoria. Es una medida de centralización.

Page 27: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

36

2) La esperanza matemática de una variable aleatoria X se interpreta como el centro de gravedad de la distribución.

Xx1 x2 x3 x4

f(x4)f(x1)f(x2) f(x3)

E(X)

Xx1 x2 x3 x4

E(X)

3) Si la variable aleatoria X describe la ganancia ó pérdida en un juego, la esperanza matemática indica la ganancia media que se espera obtener por cada jugada. Si la esperanza es cero, se dice que el juego es equitativo, si la esperanza es positiva se dice que el juego es favorable y si la esperanza es negativa se dice que el juego es desfavorable.

1.13.5 Propiedades de la esperanza matemática

Antes de establecer las propiedades de la esperanza enunciaremos los dos siguientes teoremas:

Teorema 1.1: Si X es una variable aleatoria con función de densidad ( )f x e es otra variable aleatoria construida a partir de la variable aleatoria X, mediante la función g, la E(Y) en el caso discreto viene dada por:

)(XgY =

( ) ( )( ) i ii

E Y g x f= x∑

y en el caso absolutamente continuo por:

( ) ( ) ( )E Y g x f x+∞

−∞

= ∫ dx

Teorema 1.2: Sean X e Y dos variables aleatorias con función de densidad conjunta ( , )f x y .Construyamos la variable aleatoria ( , )Z g X Y= .

En el caso discreto, la ( )E Z viene dada por:

( ) ( )( ) , ,i j i ji j

E Z g x y f x= ⋅ y∑∑

y en el caso absolutamente continuo por:

( ) ( , ) ( , )E Z g x y f x y d+∞ +∞

−∞ −∞= ⋅∫ ∫ x dy

)

Propiedades:

1) La esperanza matemática de una constante c es igual a la misma constante.

2) La esperanza matemática de la suma de varias variables aleatorias es igual a la suma de las esperanzas matemáticas de los sumandos. Para el caso de dos variables aleatorias X e Y, se tiene:

( ) ( ) (E X Y E X E Y+ = + .

Page 28: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

37

1. V

aria

ble

alea

tori

a

p p3) Un factor constante se puede sacar fuera del signo de esperanza matemática:

( ) ( )E cX c E X= ⋅

4) Teniendo en cuenta las propiedades anteriores:

( ) ( ) ( )E aX bY c aE X bE Y c+ + = + +

5) La esperanza matemática del producto de dos variables aleatorias independientes es igual al producto de sus esperanzas matemáticas:

( ) ( ) ( )E X Y E X E Y⋅ = ⋅

1.13.6 Esperanza matemática condicional

La distribución condicional de las probabilidades es una característica importante de la esperanza matemática condicional.

Se denomina esperanza matemática condicional de una variable aleatoria discreta Y para X = x(x es un valor posible determinado de X) el producto de los valores posibles de Y por sus probabilidades condicionales:

( ) ( )j jj

E Y X x y h y x= = ∑ (1.5)

En el caso absolutamente continuo:

( ) ( )E Y X x y h y x dy+∞

−∞

= = ∫ (1.6)

donde ( )h y x es la función de densidad condicionada de la variable aleatoria Y cuando X = x.

Análogamente se determina la esperanza matemática condicional de la variable aleatoria X para Y = y (siendo y un valor posible determinado Y).

Ejemplo 1.6

La distribución conjunta de dos variables aleatorias X e Y está dada por la siguiente tabla:

Y X y1 = 3 y2 = 6

x1 = 1 0,15 0,30x2 = 3 0,06 0,10x3 = 4 0,25 0,03x3 = 8 0,04 0,07

Determinar la esperanza matemática condicional de la variable aleatoria Y si X = x1 = 1.

Solución:

Hallamos 1 1( )f x , para ello sumamos las probabilidades de la primera fila de la tabla:

( )1 1 1(1) 0,15 0,30 0,45f x f= = + =

Esta propiedad se cumple tanto si las variables aleatorias X e Y son estocásticamente independientes como si son dependientes.

Page 29: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

38

Hallamos la distribución condicional de las probabilidades de la variable aleatoria Y para X = x1 = 1:

( ) ( ) ( )

( ) ( ) ( )

1 11

2 11

1,3 0,15 13 1(1) 0,45 31,6 0,30 26 1(1) 0,45 3

fh y x h

ff

h y x hf

= = = =

= = = =

Hallamos la esperanza matemática condicional pedida aplicando la fórmula:

( ) ( ) ( ) ( ) ( ) ( )2

1 1 1 1 1 2 2 11

1 23 3 1 6 6 1 3 63 3j j

jE Y X x y h y x y h y x y h y x h h

=

= = = ⋅ + ⋅ = ⋅ + ⋅ = ⋅ + ⋅ =∑ 5

1.14 Varianza de una variable aleatoria

La varianza mide la dispersión media de los valores de una variable respecto a su valor medio. En el caso de una muestra 1 2, , , nx x � x , la dispersión de un valor ix respecto a X , se puede medir por

( 2i )x X− y la media aritmética de esta dispersión es:

( ) ( ) [ ]2 22

1 1

n ni

i i Ri i

fis x X x X f X x

N= =

= − ⋅ = − ⋅ =∑ ∑llamada varianza de la muestra. Su generalización para una variable aleatoria es:

Si X es una variable aleatoria con esperanza finita E(X), se llama varianza de X, a la esperanza de la nueva variable [ ]2( )Y X E X= − , es decir:

[ ]22 var ( ) ( )X E X E Xσ = = − (1.5)

La raíz cuadrada positiva de var ( )X se llama desviación típica o desviación estándar y se indica por σ .

Observación: El número var ( )X está expresado en unidades cuadradas de X. Esto es, si X se mide en minutos, entonces var ( )X está expresada en (minutos)2. Esta es una razón para considerar la desviación estándar que se expresa en las mismas unidades que X.

1.14.1 Varianza de una variable aleatoria discreta

Supóngase que X es una variable aleatoria que alcanza los valores: con las probabilidades:

1 2, , , ,nx x x� �

( ) ( ) ( )1 2, , , ,nf x f x f x� �

siendo

( ) [ ]i if x P X x= =

La varianza de la variable aleatoria X viene dada por la expresión:

[ ] [ ] [ ] ( )( ) ( )

2

1 1

var ( ) ( ) ( )n o n o

i i ii i

2iX x E X P X x x E X f x

∞ ∞

= =

= − ⋅ = = − ⋅∑ ∑ (1.6)

Page 30: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

39

1. V

aria

ble

alea

tori

a

Ejemplo 1.7 (continuación de 1.1):

Hallar la varianza y la desviación estándar.

Solución:De la definición

18,051)37,12(

52)37,15,1(

102)37,11,1(

151)37,11(

152)37,160,0()var( 22222 =−+−+−+−+−=X

Finalmente, la desviación estándar es

( ) var( ) 0,18 0, 43X Xσ = = =

1.14.2 Varianza de una variable aleatoria absolutamente continua

Supóngase que se tiene una variable aleatoria X absolutamente continua con función de densidad ( )f x .

La varianza de la variable aleatoria X viene dada por la expresión:

[ ]2var ( ) ( ) ( )X x E X f x dx+∞

−∞

= − ⋅ ⋅∫ (1.7)

1.14.3 Propiedades de la varianza:

1) La varianza es siempre positiva o nula dado que [ ]2( ) 0X E X− ≥ .

2) La varianza se puede obtener también mediante la fórmula:

( )2 2var ( ) ( )X E X E X= − (1.8)

3) La varianza de una constante es nula

var ( ) 0c = (1.9)

4) Si c es una constante:

var ( ) var ( )X c X+ = (1.10)

5) Si c es una constante:

2var ( ) var ( )cX c X= (1.11)

6) Si X e Y son variables aleatorias estocásticamente independientes entonces:

var ( ) var ( ) var ( )X Y X Y+ = + (1.12)

y

var ( ) var ( ) var ( )X Y X Y− = + (1.13)

Page 31: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

40

7) Si X e Y son variables aleatorias cualesquiera entonces:

var ( ) var ( ) var ( ) 2cov( , )X Y X Y X Y+ = + + (1.14)

y, de forma equivalente,

var ( ) var ( ) var ( ) 2cov( , )X Y X Y X Y− = + − (1.15)

8) Si X e Y son dos variables aleatorias estocásticamente independientes entonces:

2 2var ( ) var ( ) var ( )aX bY c a X b Y+ + = + (1.16)

9) Si X e Y son dos variables aleatorias cualesquiera entonces:

2 2var ( ) var ( ) var ( ) 2 cov( , )aX bY a X b Y ab X Y+ = + + (1.17)

y, de forma equivalente. 2 2var ( ) var ( ) var ( ) 2 cov( , )aX bY a X b Y ab X Y− = + − (1.18)

Ejemplo 1.8 (continuación de1 1.2):

Hallar la varianza y la desviación estándar.

Solución:

Para hallar la varianza, tendremos en cuenta la igualdad

2 2var( ) ( ) ( )X E X E X= −

Hallemos .)( 2XE

[ ] [ ]524

5243

327

121

51

31

121)1(

121)(

30

530

33

0

222 =⎟⎠⎞

⎜⎝⎛ +=⎟

⎠⎞

⎜⎝⎛ +=+= ∫ xxdxxxXE

Por tanto,

1280699

1633

524)var(

2

=⎟⎠⎞

⎜⎝⎛−=X

Finalmente, la desviación estándar es

( ) var( ) 0,546 0,739X Xσ = = =

1.15 Teorema de Tchebychev

Sea X una variable aleatoria con distribución cualquiera y con esperanza y varianza finitas. La probabilidad de que la variable aleatoria X caiga dentro de k desviaciones estándar de la media es al

menos 211k

⎛ ⎞−⎜ ⎟⎝ ⎠

.

Page 32: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

41

1. V

aria

ble

alea

tori

aEsto es,

( ) 211P k X kk

μ σ μ σ− < < + ≥ −

o en forma más resumida:

{ } 211P X kk

μ σ− < ≥ −

Haciendo h kσ= , se puede escribir:

{ }2

21P X hhσμ− < ≥ −

siendo μ la esperanza matemática de la variable aleatoria X y σ2 su varianza.

El teorema de Tchebychev también se puede expresar así:

{ }2

2P X hhσμ− ≥ ≤

es decir, la probabilidad de que la variable aleatoria X se aparte de su esperanza en una cantidad mayor o igual que h (h >0) es menor o igual que .2 2/ hσ

Únicamente se demostrará el caso absolutamente continuo, dejando el caso discreto como ejercicio para el lector.

Demostración:

A partir de la definición previa de la varianza de X, se puede escribir:

( )22 2

2 2 2

2 2

( ) ( )

( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( )

k k

k k

k

k

E X x f x dx

x f x dx x f x dx x f x dx

x f x dx x f x dx

μ σ μ σ

μ σ μ σ

μ σ

μ σ

σ μ μ

μ μ μ

μ μ

+∞

−∞

− + +∞

−∞ − +

− +∞

−∞ +

= − = − =

= − + − + −

≥ − + −

∫ ∫ ∫

∫ ∫

ya que la segunda de las tres integrales no es negativa. Como x kμ σ− ≥ siempre que x kμ σ≥ + ó

x kμ σ≤ − , se tiene ( )2 2 2x kμ σ− ≥ en las dos integrales restantes. De aquí se desprende que:

2 2 2 2 2

2 2 2

( ) ( )

( ) ( )

k

k

k

k

k f x dx k f x d

k f x dx f x dx

μ σ

μ σ

μ σ

μ σ

σ σ σ

σ σ

− +∞

−∞ +

− +∞

−∞ +

≥ +

⎛ ⎞⎜ ⎟+ ≤⎜ ⎟⎝ ⎠

∫ ∫

∫ ∫

x

Page 33: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Dividiendo los dos miembros de la desigualdad por 2 2k σ se tiene:

21( ) ( )

k

k

f x dx f x dxk

μ σ

μ σ

− +∞

−∞ +

+ ≤∫ ∫

Multiplicando por (–1) los dos miembros de la desigualdad:

21( ) ( )

k

k

f x dx f x dxk

μ σ

μ σ

− +∞

−∞ +

− − ≥∫ ∫ −

Sumando 1 a los dos miembros de la desigualdad:

211 ( ) ( ) 1

k

k

f x dx f x dxk

μ σ

μ σ

− +∞

−∞ +

− − ≥∫ ∫ −

Teniendo presente que

( ) ( ) ( ) 1k k

k k

f x dx f x dx f x dxμ σ μ σ

μ σ μ σ

− + +∞

−∞ − +

+ + =∫ ∫ ∫

resulta:

( ) 21( ) 1

k

k

f x dx P k X kk

μ σ

μ σ

μ σ μ σ+

= − < < + ≥ −∫

que es lo que se quería comprobar.

Para el teorema establece que la variable aleatoria X tiene por lo menos una probabilidad de de caer entre dos desviaciones estándar de la media. Es decir, tres cuartas partes o más de las observaciones de cualquier distribución se encuentran en el intervalo

2k =21 (1/ 2) 3/ 4− =

2μ σ± . Análogamente el teorema afirma que al menos de las observaciones de cualquier distribución se encuentran en el intervalo

8/ 93μ σ± .

El teorema de Tchebychev proporciona la cota inferior de la probabilidad, pero no su valor exacto. Se sabe que la probabilidad de que una variable aleatoria caiga dentro de dos desviaciones estándar alrededor de su media no puede ser menor de , pero no se sabe el valor exacto de la probabilidad. En el caso de que se conozca la distribución de probabilidad que sigue la variable aleatoria X se podrá determinar el valor exacto de la probabilidad.

3/ 4

Ejemplo 1.9

Una variable aleatoria X tiene una media 100μ = , una varianza 2 16σ = , y una distribución de probabilidad desconocida. Acotar:

a) .( )84 116P X< <

b) { }100 8P X − ≥

42

Page 34: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Solución:

a) [ ] 2

1 15(84 116) 100 (4) (4) 100 (4) (4) 14 16

P X P X< < = − ⋅ < < + ⋅ ≥ − =

b){ } { }

( )( )[ ]

100 8 1 100 8

1 8 100 8

1 92 108

1 100 (2) (4) 100 (2) (4)14

P X P X

P X

P X

P X

− ≥ = − − < =

= − − < − < =

= − < < =

= − − ⋅ < < + ⋅

ya que

[ ] 3100 (2) (4) 100 (2) (4)4

P X− ⋅ < < + ⋅ ≥ .

Multiplicando por los dos miembros de la desigualdad: ( 1)−

[ ] 3100 (2) (4) 100 (2) (4)4

P X− − ⋅ < < + ⋅ ≤ −

y finalmente sumando 1 a los dos lados miembros resulta:

[ ] 11 100 (2) (4) 100 (2) (4)4

P X− − ⋅ < < + ⋅ ≤

1.16 Momentos de una variable aleatoria X respecto del origen

Dada una variable aleatoria X, se llama momento de orden r (respecto del origen), a la esperanza de la variable rX :

( )rrm E X=

si existe.

1.16.1 Caso discreto

Sea X una variable aleatoria discreta con función de densidad ( )f x . El momento de orden r(respecto del origen) de la variable aleatoria X es:

( ) ( )r rrm E X x f x= = ∑

Se observa que el momento de 1er orden (respecto del origen) es la esperanza ó media:

1 ( ) ( )m E X x f x μ= = ⋅ =∑

43

Page 35: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

44

1.16.2 Caso absolutamente continuo

Sea X una variable aleatoria continua con función de densidad ( )f x . El momento de orden r(respecto del origen) de la variable aleatoria X es:

( ) ( )r rrm E X x f x dx

+∞

−∞

= = ∫

El momento de 1er orden (respecto del origen) es la esperanza ó media:

1 ( ) ( )m E X xf x dx μ+∞

−∞

= = =∫

1.17 Momentos centrales de una variable aleatoria X

Dada una variable aleatoria X, se denomina momento central de orden r (respecto de la esperanza de X), a la esperanza de la variable [ ]( ) rX E X− , o sea:

[ ]( ) rr E X E Xμ = −

1.17.1 Caso discreto

Sea X una variable aleatoria discreta con función de densidad ( )f x . El momento central de orden r de la variable aleatoria X viene dado por:

[ ] [ ]( ) ( ) ( )r rr E X E X x E X f xμ = − = −∑

Obsérvese que el momento central de 2º orden es la varianza X, representada por var ( )X y también por 2σ :

[ ] [ ] ( )2 2 2 22 ( ) ( ) ( ) ( ) var( )E X E X x E X f x x f x Xμ μ σ= − = − = − = =∑ ∑

1.17.2 Caso absolutamente continuo

Sea X una variable aleatoria continua con función de densidad ( )f x . El momento central de orden r de la variable aleatoria X viene dado por:

[ ] [ ]( ) ( ) ( )r rr E X E X x E X f x dxμ

+∞

−∞

= − = −∫

El momento central de 2º orden es la varianza de X:

[ ] ( )2 2 22 ( ) ( ) var ( )E X E X x f x dx Xμ μ σ

+∞

−∞

= − = − = =∫

Page 36: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

45

1. V

aria

ble

alea

tori

a1.18 Momento de dos variables aleatorias respecto del origen

Sea X1 y X2 dos variables aleatorias. Se denomina momento de orden (respecto del origen) de las variables aleatorias X

1 2r r+1 y X2 a la expresión:

( )1 21 2 1 2

r rr rm E X X= ⋅

si existe la esperanza.

1.18.1 Caso discreto

Sean X1 y X2 dos variables aleatorias discretas con función de densidad conjunta ( )1 2,f x x . El momento de orden (respecto del origen) de las variables aleatorias X1 2r r+ 1 y X2 es:

( ) ( )1 2 1 21 2 1 2 1 2 1 2

1 2

,r r r rr rm E X X x x f x x= ⋅ = ∑∑

1.18.2 Caso absolutamente continuo

Sean X1 y X2 dos variables aleatorias continuas con función de densidad conjunta ( )1 2,f x x . El momento de orden (respecto del origen) de las variables aleatorias X1 2r r+ 1 y X2 es:

( ) ( )1 2 1 21 2 1 2 1 2 1 2 1,r r r rr rm E X X x x f x x dx dx

+∞ +∞

−∞ −∞

= ⋅ = ∫ ∫ 2

1.19 Momentos centrales de dos variables aleatorias

Sean X1 y X2 dos variables aleatorias. Se denomina momento central de orden (respecto de las esperanzas de X

1 2r r+1 y X2) de las variables aleatorias X1 y X2 a la expresión:

( ) ( ){ }1 2

1 2 1 1 2 2r r

r r E X E X X E Xμ = ⎡ − ⎤ ⋅ ⎡ − ⎤⎣ ⎦ ⎣ ⎦

)

1.19.1 Caso discreto

Sean X1 y X2 dos variables aleatorias discretas con función de densidad conjunta ( 1 2,f x x . El momento central de orden de las variables aleatorias X1r r+ 2 1 y X2 es:

( ) ( ){ }( ) ( ) ( )

1 2

1 2

1 2

1 1 2 2

1 1 2 2 11 2

,

r rr r

r r

E X E X X E X

2x E X x E X f x x

μ = ⎡ − ⎤ ⋅ ⎡ − ⎤ =⎣ ⎦ ⎣ ⎦

= ⎡ − ⎤ ⎡ − ⎤⎣ ⎦ ⎣ ⎦∑∑

Page 37: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

46

1.19.2 Caso absolutamente continuo

Sean X1 y X2 dos variables aleatorias continuas con función de densidad conjunta ( )1 2,f x x . El momento central de orden de las variables aleatorias X1r r+ 2 1 y X2 es:

( ) ( ){ }( ) ( ) ( )

1 2

1 2

1 2

1 1 2 2

1 1 2 2 1 2 1,

r rr r

r r

E X E X X E X

2x E X x E X f x x dx dx

μ

+∞ +∞

−∞ −∞

= ⎡ − ⎤ ⋅ ⎡ − ⎤ =⎣ ⎦ ⎣ ⎦

= ⎡ − ⎤ ⎡ − ⎤⎣ ⎦ ⎣ ⎦∫ ∫

1.20 Covarianza de dos variables aleatorias X e Y

La covarianza de dos variables aleatorias X e Y es por definición el momento central de orden 1 + 1. Es decir:

[ ] [ ]{ }11cov( , ) ( ) ( )X Y E X E X Y E Yμ= = − ⋅ − (1.19)

La covarianza entre las variables aleatorias X e Y se representa por cov( , )X Y y también por

XYσ .

1.20.1 Propiedades

La covarianza tiene las siguientes propiedades:

1) cov( , ) ( ) ( ) ( )X Y E X Y E X E Y= ⋅ − ⋅

2) cov( , ) cov( , )X Y Y= X

3) cov( , ) cov( , )X a Y X Y+ =

4) cov( , ) cov( , )aX Y a X Y=

5) cov( , ) cov( , )aX bY ab X Y=

6) cov( , ) cov( , ) cov( , )X Y Z X Z Y Z+ = +

7) Combinando las propiedades anteriores:

cov( , )cov( , ) cov( , ) cov( , ) cov( , )

aX bY c dZ eW fad X Z ae X W bd Y Z be Y W

+ + + + == + + +

8) Si X e Y son variables aleatorias estocásticamente independientes su covarianza es cero. El recíproco no es cierto; es decir puede ser nula la covarianza de dos variables aleatorias y no ser éstas independientes.

La covarianza proporciona una medida del grado de dependencia entre X e Y. La covarianza tiene el inconveniente de que es proporcional a la magnitud de las variables aleatorias. Es decir, da el

Page 38: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

47

1. V

aria

ble

alea

tori

a

grado de dependencia pero no estandarizado. Para dar este grado de dependencia de forma estándar se utiliza otro concepto que se llama coeficiente de correlación de Pearson, designado por ρ .

1.21 Coeficiente de correlación lineal de Pearson

Sean X e Y las variables aleatorias con momentos de segundo orden finitos y varianzas no nulas. Al valor:

cov( , )( , )var( ) var( )

X YX YX Y

ρ =

se le denomina coeficiente de correlación lineal de Pearson entre X e Y.

El coeficiente de correlación es una cantidad adimensional.

Teorema: Si X e Y son dos variables aleatorias estocásticamente independientes, entonces 0ρ = .

En efecto:

cov( , )( , )var( ) var( )

X YX YX Y

ρ =

Si X e Y son independientes, entonces por la propiedad (1) de la covarianza, y al ser cero la covarianza, el coeficiente de correlación

cov( , ) 0X Y =ρ también será cero.

Observación: El recíproco del teorema no es verdadero. Esto es, se puede tener 0ρ = , y aún así X e Yno necesitan ser independientes. Si 0ρ = se dice que las variables aleatorias X e Y están incorrelacionadas, pero podrían ser estocásticamente dependientes. Así los conceptos “nocorrelacionadas” e “independientes” no son, en general, equivalentes.

1.22 Desigualdad de Schwarz

Sean V y W dos variables aleatorias sobre un espacio de probabilidades ( ) con momentos de primer y segundo orden finitos. Se verifica:

, , PaΩ

[ ] ( ) ( )2 2 2( )E V W E V E W⋅ ≤ ⋅

y si

[ ] ( ) ( )2 2 2( )E V W E V E W⋅ = ⋅

entonces W a para una cierta constante a, es decir, entre las variables V y W existe una relación de dependencia lineal.

V=

Demostración: Considérese la siguiente función de la variable real t:

[ ]2( )q t E V t W= + ⋅ .

Puesto que [ , se tiene que para todo t. Desarrollando se obtiene: ]2 0V tW+ ≥ ( ) 0q t ≥

( ) ( ) ( )2 2 2 2 2( ) 2 2q t E V tVW t W E V tE V W t E W⎡ ⎤= + + = + ⋅ +⎣ ⎦2

Page 39: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

48

Así es un polinomio de segundo grado en t. En general, si un polinomio de 2º grado tiene la propiedad de que para todo t, significa que su gráfica corta el eje t

en un sólo punto o en ninguno, como se indica en la figura siguiente.

( )q t2( )q t a t bt c= + + ( ) 0q t ≥

t

q(t)

0t

q(t)

0

Esto, a su vez, indica que el discriminante be ser 2 4b a− c de 0≤ , puesto que b asignificaría que tiene dos raíces reales distintas. Aplicando esta conclusión a la función que se consideró anteriormente se obtiene:

2 4 0c− >( )q t

[ ] ( ) ( )2 2 24 ( ) 4 0E V W E V E WΔ = ⋅ − ≤

Dividiendo por 4 resulta:

[ ] ( ) ( )2 2 2( )E V W E V E W 0⋅ − ⋅ ≤

[ ] ( ) ( )2 2 2( )E V W E V E W⋅ ≤

que es la desigualdad de Schwarz.

Si el discriminante es cero, entonces para un solo valor t 0t= se verifica , es decir,( ) 0q t =

[ ]20 0E V t W+ =

pero esto implica que

0 0V t W+ = ,

o sea

0

1W V at

= − = V

con0

1at−

= .

1.23 Propiedades del coeficiente de correlación de Pearson

1) 11 ≤≤− ρ .

2) Si , o bien, 12 =ρ 1±=ρ , entre las variables aleatorias X e Y existe una relación lineal Y = aX + b.

3) ),(),( XYYX ρρ =

Page 40: % &ˆ - publicacions.ub.es · Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño ... con varianza conocida

Mét

odos

est

adís

ticos

apl

icad

os

49

1. V

aria

ble

alea

tori

a

49

4) 1=),( XXρ

5) 1−=− ),( XXρ

6) ),(),( YXdcYbaX ρρ =++ si 0≠ca,