Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

25
Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud

Transcript of Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

Page 1: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

Análisis previos de los datos

Nicolás Arturo Núñez Gómez. Ph. D

Facultad de Salud

Page 2: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

Escalas de medición.

No métrica: Nominal y Ordinal

Métrica: Intervalo y razón

Escalas sumadas: Σ(indicadores)

Page 3: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

Error de medida. “Grado en que los valores observados no son representativos de los valores verdaderos”. Ruido blanco.

Valor observado = verdadero + ruido.

Medida, tabulación, informante, análisis.

Validez. Teórica, precisión

Confiabilidad. Repetición de medida y control del error de medida

Page 4: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

Significación estadística.

Resultados de un modelo de análisis de datos

Significación práctica

Aplicabilidad y predictibilidad del modelo en la vida de las familias, las empresas y elestado

Page 5: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

Significación estadística frente a potencia estadística

Inferencia estadística de los valores de una población o la relación de variables de una muestra escogida aleatoriamente.

hipótesis nula (Ho) que se formula y por tanto se quiere contrastar o rechazar.

Hipótesis alternativa (H1) cualquier que sea diferente de la formulada, y que sea contraria a Ho.

Page 6: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

• Interpretar una inferencia se debe definir:

Nivel de error aceptable, α nivel de significación . Positivo FalsoError Tipo I.- Se rechaza H0 cuando ésta es verdadera

Potencia de la prueba = 1- β. Error Tipo II.- Se acepta HError Tipo II.- Se acepta H00 cuando ésta es falsa cuando ésta es falsa

Potencia: efecto tamaño, α y tamaño muestra. Α=0.05 y β=80

Page 7: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

EL VALOR TEORICO

Combinación lineal de variables con ponderaciones determinadas empíricamente. El investigador especifica las variables, mientras que las ponderaciones son objeto específico de determinación por parte de la técnica multivariante, Un valor teórico de n variables ponderadas (X1a Xn) puede expresarse matemáticamente así:

Valor teórico = w1X1 + w2X2 + w3X3 + … + wnXn

donde Xnes la variable observada y Wnes la ponderación determinada por la técnica multiva riante.

Page 8: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

ESCALAS DE MEDIDA

Escalas de medidas no metricas:escalas nominales escalas ordinales

Escalas de medidas métricas:

escalas de intervalosescalas de razón

Page 9: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

ERROR DE MEDIDA Y MEDIDAS MULTIVARIANTES

El error de medida es el grado en que los valores observados no son representativos de los valores «verdaderos».

El error de medida; errores en la entrada de datos, imprecisión en la medición

el valor observado obtenido representa tanto el nivel «verdadero» como el «ruido».

Page 10: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

El objetivo del investigador de reducir el error de medida puede seguir varios caminos

La validez es el grado en que la medida representa con precisión lo que se supone que representa.

Si la misma medida se realiza repetidas veces, por ejemplo, las medidas más fiables mostrarán una mayor consistencia que las medidas menos fiables.

Page 11: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

SIGNIFICACION ESTADISTICA FRENTE A POTENCIA ESTADISTICA

Para interpretar las inferencias estadísticas, se debe especificar los niveles aceptables de error estadístico.

El nivel de error de Tipo I, también conocido como alfa (α). El error de Tipo I es la probabilidad de rechazar la hipótesis

nula cuando es cierta.Expresado en términos más sencillos, la posibilidad de que

la prueba muestre significación estadística cuando en realidad no está presente (el caso de un «positivo falso»).

Especificando un nivel alfa, el investigador fija los márgenes admisibles de error especificando la probabilidad de concluir que la significación existe cuando en realidad no existe.

Page 12: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

el error de Tipo II o beta (β).

El error de Tipo II es la probabilidad de fallar en rechazar la hipótesis nula cuando es realmente falsa.

Una probabilidad más interesante es 1 - β, denominado la potencia del test de inferencia estadística.

Potencia es la probabilidad de rechazar correctamente la hipótesis nula cuando debe ser rechazada. Por tanto, la potencia es la probabilidad de que la inferencia estadística se indique cuando esté presente.

Page 13: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

La potencia

1.Efecto tamaño

2.Alfa (α)

3.El tamaño de la muestra

Page 14: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

REPRESENTACION PARA EL ANALISIS MULTIVARIANTE INTERPRETACION

1. ESTABLECER LA SIGNIFICACION PRACTICA ASI COMO LA ESTADISTICA

2. TAMAÑO MUESTRAL AFECTA A TODOS LOS RESULTADOS

3. CONOCER LOS DATOS

4. PROCURAR LA PARSIMONIA DEL MODELO

5. ATENDER A LOS ERRORES

6. VALIDAR LOS RESULTADOS

Page 15: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

Pasos para desarrollar una investigación

con métodos cuantitativos en economía Definir el problema de investigación: objetivos y

técnicas multivariantes

Recolección de bases de datos

Evaluación de supuestos básicos: normalidad, linealidad, ξ~N(0,σ2), varianza constante.

Estimación del modelo y ajuste

Interpretación del valor teórico

Validación del modelo

Diagrama de flujo de decisiones

Page 16: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

16

Los casos atípicos son observaciones con características diferentes de las demás.

Su principal problema radica en que son elementos que pueden no ser representativos de la población pudiendo distorsionar seriamente el comportamiento de los contrastes y resultados estadísticos.

Datos D Atípicos

Page 17: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

17

Tipos de outliers

Los casos atípicos pueden clasificarse en 4 categorías:

1.Los que surgen de un error de procedimiento, tales como la entrada de datos o un error de codificación. 2. observación que ocurre como consecuencia de un acontecimiento extraordinario. En este caso, el outlier no representa ningún segmento válido de la población y puede ser eliminado del análisis.

3. observaciones cuyos valores caen dentro del rango de las variables observadas, pero que son únicas en la combinación de los valores de dichas variables. Estas observaciones deberían ser retenidas en el análisis pero estudiando qué influencia ejercen en los procesos de estimación de los modelos considerados.4. las observaciones extraordinarias para las que el investigador no tiene explicación. En estos casos lo mejor que se puede hacer es replicar el análisis con y sin dichas observaciones con el fin de analizar su influencia sobre los resultados. Si dichas observaciones son influyentes el analista debería reportarlo en sus conclusiones y debería averiguar el por qué de dichas observaciones.

Page 18: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

18

Identificación de outliers

Los casos atípicos pueden identificarse desde una perspectiva univariante o multivariante.

La perspectiva univariante utilizar gráficamente histogramas o diagramas de caja o bien numéricamente, mediante el cálculo de puntuaciones tipificadas.

Para muestras de 80 o incluso menos observaciones, las pautas sugeridas identifican como atípicos aquellos casos con valores estándar de 2.5 o superiores, para el resto 3.

Page 19: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

19

pares de variables mediante un gráfico de dispersión. Casos que se ubiquen fuera del rango del resto de las observaciones pueden identificarse como puntos aislados en el gráfico de dispersión. Para ayudar a determinar el rango esperado de las observaciones, se puede superponer sobre el gráfico de dispersión una elipse que represente un intervalo de confianza especificado para una distribución normal bivariante.

Page 20: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

20

Page 21: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

21

Tipos de valores ausentesSe distinguen las dos situaciones siguientes:

1)Datos ausentes prescindibles: son resultado de procesos que se encuentran bajo el control del investigador y pueden ser identificados explícitamente. En estos casos no se necesitan soluciones específicas para la ausencia de datos dado que dicha ausencia es inherente a la técnica usada.

2)2) Datos ausentes no prescindibles: son resultado de procesos que no se encuentran bajo el control del investigador y/o no pueden ser identificados explícitamente.

Page 22: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

22

Según este grado el proceso de datos ausentes sepuede clasificar del siguiente modo:

a)Datos ausentes aleatorios (MCAR), este es el mayor grado de aleatoriedad y se da cuando los datos ausentes son una muestra aleatoria simple de la muestra, sin un proceso subyacente que tiende a sesgar los datos observados. En este caso se podría solucionar el problema sin tener cuenta el impacto de otras variables

b) Datos ausentes no aleatorios: en este caso existen patrones sistemáticos en el proceso de datos ausentes y habría que evaluar la magnitud del problema calibrando, en particular, el tamaño de los sesgos introducidos por dichos patrones. Si éstos son grandes habría que atacar el problema directamente intentando averiguar cuáles son dichos valores.

Page 23: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

23

Aproximaciones al tratamiento de datos ausentes

a)Utilizar sólo los casos completos: conveniente si el tamaño muestral no se reduce demasiado.

b) Supresión de casos y/o variables con una alta proporción de datos ausentes. Esta supresión deberá basarse en consideraciones teóricas y empíricas. En particular, si algún caso tiene un dato ausente en una variable dependiente, habitualmente excluirlo puesto que cualquier proceso de imputación puede distorsionar los modelos estimados.

Así mismo una variable independiente con muchos datos ausentes podrá eliminarse si existen otras variables muy similares con datos observados

Page 24: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

24

c) Imputar valores a los datos ausentes utilizando valores válidos de otras variables y/o casos de la muestra

Métodos de imputación

Los métodos de imputación pueden ser de tres tipos:

1) Métodos de disponibilidad completa que utilizan toda la información disponible a partir de un subconjunto de casos para generalizar sobre la muestra entera. Se utilizan habitualmente para estimar medias, varianzas y correlaciones

Page 25: Análisis previos de los datos Nicolás Arturo Núñez Gómez. Ph. D Facultad de Salud.

25

2) Métodos de sustitución que estiman valores de reemplazo para los datos ausentes, sobre la base de otra información existente en la muestra. Así se podría sustituir observaciones con datos ausentes por observaciones no muestrales o sustituir dichos datos por la media de los valores observados o mediante regresión sobre otras variables muy relacionadas con aquella a la que le faltan observaciones.

3) Métodos basados en modelos que construyen explícitamente el mecanismo por el que se producen los datos ausentes y lo estiman por máxima verosimilitud. Entran en esta categoría el algoritmo EM o los procesos de aumento de datos.