Revista Comunicaciones en Estadística Vol. 6 No. 2

145
τ τ τ FACULTAD DE ESTADÍSTICA Editorial JORGE IVÁN VÉLEZ & JUAN CARLOS CORREA Una prueba de independencia completa basada en la FDR CRISTIAN FERNANDO TÉLLEZ & VÍCTOR IGNACIO LÓPEZ RÍOS Propuesta para aumentar los puntos experimentales en diseños D-óptimos bayesianos DANNA LESLEY CRUZ REYES Cópulas en geoestadística o lo que se puede hacer con coordenadas y estructuras de dependencia LILIANA VANESSA PACHECO & JUAN CARLOS CORREA Comparación de intervalos de confianza para el coeficiente de correlación JUAN FELIPE DÍAZ & JUAN CARLOS CORREA Comparación entre árboles de regresión CART y regresión lineal LUIS CARLOS SILVA En defensa de la racionalidad bayesiana: a propósito de Mario Bunge y su “Filosofía para médicos” Comentarios sobre el artículo de Luis Carlos Silva ANDRÉS GUTIÉRREZ ROJAS Acerca de la defensa de la racionalidad bayesiana y la obra de Mario Bunge JAIRO FÚQUENE El caso de la estadística bayesiana objetiva como una posibilidad en ensayos clínicos JORGE ORTIZ PINILLA Mario Bunge y la estadística bayesiana Réplica de Luis Carlos Silva LUIS CARLOS SILVA La larga vida científica que le espera a Thomas Bayes Vol. 6, N. o 2, julio-diciembre de 2013 Certificado SC 4289-1 Comunicaciones en Estadística Bogotá, D. C. Colombia Vol. 6, N. o 2 pp. 99-242 ISSN: 2027-3335 Julio-diciembre 2013

description

La revista Comunicaciones en Estadística es una publicación del Centro de Investigaciones y Estudios Estadísticos (CIEES) adscrito a la Facultad de Estadística de la Universidad Santo Tomás. La periodicidad de esta revista es semestral, el primer número se publica en junio y el segundo en diciembre, de cada año. El objetivo de esta publicación es divulgar artículos originales e inéditos en cualquier temética de la estadística teórica y aplicada. La finalidad de esta revista es motivar la cultura de la investigación estadística, y por ende, su público objetivo está en todos aquellos investigadores que utilicen cualquier método estadístico en el desarrollo de sus proyectos. La revista Comunicaciones en Estadística publica artículos originales teóricos, aplicaciones de técnicas estadísticas en cualquier rama del saber que conlleven a publicaciones inéditas así como también, cartas al editor surgidas de la discusión de artículos ya publicados en esta Revista. A continuación se presentan al

Transcript of Revista Comunicaciones en Estadística Vol. 6 No. 2

τττFACULTAD DE ESTADÍSTICA

Editorial

JORGE IVÁN VÉLEZ & JUAN CARLOS CORREAUna prueba de independencia completa basada en la FDR

CRISTIAN FERNANDO TÉLLEZ & VÍCTOR IGNACIO LÓPEZ RÍOSPropuesta para aumentar los puntos experimentales en diseños D-óptimos bayesianos

DANNA LESLEY CRUZ REYESCópulas en geoestadística o lo que se puede hacer con coordenadas y estructuras de dependencia

LILIANA VANESSA PACHECO & JUAN CARLOS CORREAComparación de intervalos de confianza para el coeficiente de correlación

JUAN FELIPE DÍAZ & JUAN CARLOS CORREAComparación entre árboles de regresión CART y regresión lineal

LUIS CARLOS SILVAEn defensa de la racionalidad bayesiana: a propósito de Mario Bunge y su “Filosofía para médicos”

Comentarios sobre el artículo de Luis Carlos Silva

ANDRÉS GUTIÉRREZ ROJAS Acerca de la defensa de la racionalidad bayesiana y la obra de Mario Bunge

JAIRO FÚQUENE El caso de la estadística bayesiana objetiva como una posibilidad en ensayos clínicos

JORGE ORTIZ PINILLA Mario Bunge y la estadística bayesiana

Réplica de Luis Carlos Silva

LUIS CARLOS SILVA La larga vida científica que le espera a Thomas Bayes

Vol.

6, N

.o 2,

julio

-dic

iem

bre

de

201

3

Certificado SC 4289-1

Comunicaciones en

Estadística

Bogotá, D. C.Colombia

Vol. 6, N.o 2 pp. 99-242ISSN:

2027-3335Julio-diciembre 2013

Universidad Santo Tomás Facultad de Estadística

Centro de Investigaciones y Estudios Estadísticos (CIEES)

Revista Comunicaciones en Estadística

ISSN: 2027-3335 (impresa)

ISSN: 2339-3076 (online)

Julio-diciembre 2013

Vol. 6, N.° 2

Bogotá, D. C., Colombia

Indexada en IBN Publindex (categoría C)

REVISTA COMUNICACIONES EN ESTADÍSTICA

Directora Hanwen Zhang, M. Sc.

COMITÉ EDITORIAL

Jorge Eduardo Ortiz, Ph. D. Universidad Santo Tomás

Elkin Castaño, M. Sc. Universidad Nacional de Colombia

Andrés Gutiérrez, M. Sc. Universidad Santo Tomás

Liliam Cardeño Acero, Ph. D. Universidad de Antioquia

Heivar Yesid Rodríguez, M. Sc. Universidad Santo Tomás

Cristiano Ferraz, Ph. D. Universidad Federal de Pernambuco

Amparo Vallejo Arboleda, Ph. D. Universidad de Antioquia

Sander Rangel, M. Sc. Universidad Santo Tomás

COMITÉ CIENTÍFICO

Juan Carlos Salazar, Ph. D. Universidad Nacional de Colombia

Luis Francisco Rincón Suárez, M. Sc. Universidad Santo Tomás

Brenda Betancourt, M. Sc. University of California, Santa Cruz

José Domingo Restrepo, Ph. D. Universidad de Antioquia

Daniel Andrés Díaz Pachón, Ph. D. University of Miami

Isabel García Arboleda, M. Sc. CIMAT, México

CONSEJO EDITORIAL PARTICULAR

Fr. Carlos Mario Alzate Montes, O. P. Rector General

Fr. Eduardo González Gil, O. P. Vicerrector Académico General

Fr. Jaime Monsalve Trujillo, O. P. Vicerrector Administrativo y Financiero General

Eduardo Franco Martínez Coordinador editorial

Dr. Henry Borja Orozco Director Unidad de Investigación

Fr. Javier Antonio Hincapié Ardila Director Ediciones USTA

Fr. Érico Juan Macchi Céspedes, O. P. Vicerrector General de Universidad Abierta y a Distancia

(VUAD)

Hecho el depósito que establece la ley ISSN: 2027-3335 (impresa) ISSN: 2339-3076 (online) © Derechos reservados Universidad Santo Tomás Bogotá, D. C., Colombia

UNIVERSIDAD SANTO TOMÁS Ediciones USTA Carrera 13 No. 54-39, Bogotá, Colombia Teléfonos: 235 1975-249 71 21 http://www.usta.edu.co [email protected]

Publicación del Centro de Investigaciones y Estudios Estadísticos (CIEES)

Revista Comunicaciones en Estadıstica

Contenido

Editorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105-108

JORGE IVAN VELEZ & JUAN CARLOS CORREA

Una prueba de independencia completa basada en la FDR . . . . . . . . . . . . . . 109-120

CRISTIAN FERNANDO TELLEZ PINEREZ & VICTOR IGNACIO

LOPEZ RIOS

Propuesta para aumentar los puntos experimentales en disenos D-optimos

bayesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .121-137

DANNA LESLEY CRUZ REYES

Copulas en geoestadıstica o lo que se puede hacer con coordenadas y estructuras

de dependencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139-156

LILIANA VANESSA PACHECO & JUAN CARLOS CORREA

Comparacion de intervalos de confianza para el coeficiente de correlacion

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157-174

JUAN FELIPE DIAZ & JUAN CARLOS CORREA

Comparacion entre arboles de regresion CART y regresion lineal . . . . . . . . 175-195

LUIS CARLOS SILVA

En defensa de la racionalidad bayesiana: a proposito de Mario Bunge y su

“Filosofıa para medicos” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197-212

Comentarios sobre el artıculo de Luis Carlos Silva

ANDRES GUTIERREZ ROJAS

Acerca de la defensa de la racionalidad bayesiana y la obra de Mario Bunge

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213-220

JAIRO FUQUENE

El caso de la estadıstica bayesiana objetiva como una posibilidad en ensayos

clınicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .221-224

JORGE ORTIZ PINILLA

Mario Bunge y la estadıstica bayesiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 225-229

Replica de Luis Carlos Silva

LUIS CARLOS SILVA

La larga vida cientıfica que le espera a Thomas Bayes . . . . . . . . . . . . 231-235

Revista Comunicaciones en Estadıstica

Content

Editorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105-108

JORGE IVAN VELEZ & JUAN CARLOS CORREA

A test for complete Independence based on FDR . . . . . . . . . . . . . . . . . . . . . . . 109-120

CRISTIAN FERNANDO TELLEZ PINEREZ & VICTOR IGNACIO

LOPEZ RIOS

Proposal to increase experimental points in Bayesian D-optimal design

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121-137

DANNA LESLEY CRUZ REYES

Copulas in geostatistic or what can be done with coordinates and dependency

structures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139-156

LILIANA VANESSA PACHECO & JUAN CARLOS CORREA

Comparison of confidence intervals for the correlation coefficient . . . . . . . . . 157-174

JUAN FELIPE DIAZ & JUAN CARLOS CORREA

Comparison between CART regression trees and linear regression . . . . . . . 175-195

LUIS CARLOS SILVA

In defense of Bayesian rationality: about Mario Bunge and his “Philosophy for

physicians” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197-212

Comments on article by Luis Carlos Silva

ANDRES GUTIERREZ ROJAS

About the defense of Bayesian rationality and work of Mario Bunge

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213-220

JAIRO FUQUENE

The case for objective Bayesian statistics as a possibility in clinical trials

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221-224

JORGE ORTIZ PINILLA

Mario Bunge and the bayesian statistics . . . . . . . . . . . . . . . . . . . . . . . . . .225-229

Rejoinder by Luis Carlos Silva

LUIS CARLOS SILVA

The long scientific life that waits for Thomas Bayes . . . . . . . . . . . . . 231-235

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 105–108

Editorial

Hanwen Zhanga

[email protected]

En el numero 11 de la revista Comunicaciones en Estadıstica queremos, por medio

de esta editorial, compartir con nuestros lectores la buena noticia de la categori-

zacion de la Revista en la II actualizacion Publindex de Colciencias del 2012, la

categorıa otorgada por Colciencias es C, y esperamos mantenernos en esta cate-

gorıa en la I actualizacion Publindex del 2013, que se encuentra en proceso en este

momento, en busca de mejorar la categorıa en futuras actualizaciones de Colcien-

cias. Queremos expresar nuestros mas sinceros agradecimientos a los miembros

del Comite Editorial y Cientıfico, los autores que nos confiaron sus resultados de

investigacion, los arbitros que nos ayudaron a mantener la calidad de la Revista, y

obviamente a los lectores que son nuestra motivacion; por otro lado, queremos re-

conocer el apoyo que hemos recibido en el proceso editorial por parte de Ediciones

USTA, la Unidad de Investigacion y la decanatura de la Facultad de Estadıstica

de la Universidad Santo Tomas.

En el primer artıculo de este numero los profesores Velez y Correa nos traen una

nueva prueba de independencia completa en el contexto del analisis multivariado,

la cual esta basada en la tasa de falsos descubrimientos. Los estudios de simulacion

muestran que esta nueva prueba tiene mayor robustez frente al numero de variables

y al tamano muestral, comparado con otras pruebas existentes en la literatura.

Los profesores Tellez y Lopez nos comparten su propuesta para mejorar los disenos

D-optimos bayesianos, aumentando el numero de puntos de soporte tal que la

aplicacion de las pruebas de bondad de ajuste resulten factibles.

En el campo de la geoestadıstica, Cruz nos presenta el uso de las funciones copula

mostrando tres metodos: el indicador y el kriging disyuntivo, el kriging simple y

la generalizacion del kriging trans-gaussiano.

El cuarto artıculo de este numero lo traen Pacheco y Correa desde Medellın, y

nos presentan una revision de diferentes intervalos existentes para el coeficiente de

correlacion en una distribucion normal bivariada. Adicionalmente, en un estudio

de simulacion, los autores comparan estos intervalos en terminos de la probabilidad

de cobertura y la longitud, proporcionando conclusiones que pueden ser utiles para

la comunidad.

aEditora. Revista Comunicaciones en Estadıstica. Universidad Santo Tomas.

105

106 Hanwen Zhang

El quinto artıculo nos ilustra el uso de los arboles de regresion CART, los autores

Dıaz y Correa consideran la comparacion en el nivel predictivo de estos modelos

frente a los conocidos modelos de regresion lineal, y encontraron que en el momento

en que se dispone de una muestra grande de datos, los arboles de regresion arrojan

un menor error de prediccion cuando el modelo ajustado es erroneo.

Este numero de la Revista finaliza con cinco artıculos de discusion acerca de la

filosofıa de la estadıstica bayesiana. La iniciativa la dio el renombrado investigador

Luis Carlos Silva desde Cuba, a raız de la reciente publicacion del libro Filosofıa

para medicos del ilustre filosofo argentino Mario Bunge. Silva hace reflexiones sobre

las fuertes crıticas de Bunge hacia la estadıstica bayesiana y revela las falencias del

razonamiento de Bunge. Posteriormente, Gutierrez, Fuquene y Ortiz responden a

la discusion de Silva desde diferentes puntos de vista, y, finalmente, Silva concluye

el foro de discusion replicando estas reflexiones.

Esperamos que este numero sea de utilidad para nuestros lectores, y poder contar

con sus valiosos comentarios y crıticas constructivas.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Editorial 107

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 105–108

Editorial

In issue 11 of the journal Communications in Statistics we wish, through this

Editorial, to share with our readers the good news of the categorization of the

Journal in the II update of Publindex Colciencias 2012, the category granted by

Colciencias is C, and we expect to maintain this category in the I update of

Publindex 2013, currently in process, in search of improving the category in future

Colciencias updates.

We want to express out most sincere thanks to the members of the Editorial

and Scientific Committee, the authors who trusted their research results, the peer

reviewers who helped us keep the Journal’s quality, and of course our readers who

are our motivation; also, we want to acknowledge the support we have received in

the editorial process by USTA Editions, the Research Unit and dean’s office of the

Faculty of Statistics of Universidad Santo Tomas.

In the first article of this issue professors Velez and Correa bring us new evidence

of complete independence in the context of multivariate analysis which is based on

the false discovery rates. Simulation studies show that this new evidence is more

robust with regards to the number of variables and sample size, compared with

other existing evidence in literature.

Professors Tellez and Lopez share their proposal to improve the Bayesian D-

optimal designs, increasing the number of support points so that the application

of the goodness of fit tests results feasible.

In the geostatistics field, Cruz presents us the use of copula functions showing three

methods: indicator and disjunctive kriging, simple kriging and generalization of the

trans-Gaussian kriging.

The fourth article of this issue is brought by Pacheco and Correa from Medellin,

and presents us a review of various existing intervals for the correlation coefficient

in a bivariate normal distribution. Additionally, in a simulation study, authors

compare these intervals in terms of coverage and longitude probability, providing

conclusions that might be useful for the community.

The fifth article illustrated us the use of CART regression trees, authors Diaz and

Correa consider the comparison at predictive level of these models with regards to

known models of linear regression, and found that when there is a large sample of

data, the regression trees show a lower prediction error when the adjusted model

is erroneous.

This issue of the Journal ends with five articles of discussion on the philosophy of

Bayesian statistics. The initiative was given by renowned researcher Luis Carlos

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

108 Hanwen Zhang

Silva from Cuba, following recent publication of the book Philosophy for physi-

cians by illustrious Argentinean philosopher Mario Bunge. Silva reflects on Bunge’s

strong criticism towards Bayesian statistics and reveals the flaws of Bunge’s reaso-

ning. Afterwards, Gutierrez, Fuquene and Ortiz reply to Silva’s discussion from

several points of view, and, finally, Silva concludes the discussion forum replying

to these reflections.

We hope this issue is useful to our readers, and to have their valuable comments

and constructive criticism.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en EstadısticaDiciembre 2013, Vol. 6, No. 2, pp. 109–120

Una prueba de independencia completa basada

en la FDR

A test for complete Independence based on FDR

Jorge Ivan Veleza

[email protected] Carlos Correab

[email protected]

Resumen

El analisis e interpretacion de datos multivariados se facilita enormemente si las

variables son independientes. En la practica, este supuesto se verifica a traves de

una prueba de independencia completa. Proponemos una nueva prueba de inde-

pendencia completa basada en la tasa de falsos descubrimientos (FDR, en ingles),

y reportamos los resultados de un estudio de simulacion en el que se comparan los

niveles de significancia real de esta propuesta y otras pruebas comunmente utiliza-

das. Encontramos que el nivel de significancia real solo se mantiene por debajo del

teorico para la prueba basada en la FDR, y que este es independiente del tamano

de muestra y el numero de variables. Finalmente, ilustramos nuestra propuesta

con dos ejemplos.

Palabras clave: independencia completa, tasa de falsos descubrimientos, matriz

de correlacion.

Abstract

Analysis and interpretation of multivariate data is largely facilitated if the variables

are independent. In the practice, this supposition is verified through a test for

complete independence. We propose a new test for complete independence based

on the false discovery rate (FDR), and report the results of a simulation study

which compares the real significance levels of this proposal and other tests generally

used. We found that the real significance level only remains under the theoretical

one for the test based on FDR, and that this is regardless the size of the sample

and number of variables. Finally, we illustrate our proposal with two examples.

Keywords: complete independence, false discovery rate, correlation matrix.

aTranslational Genomics Group, Genome Biology Department, John Curtin School of MedicalResearch, The Australian National University, Canberra, ACT, Australia. Grupo de Neurocien-cias de Antioquia, Universidad de Antioquia, Colombia. Grupo de Investigacion en Estadıstica,Universidad Nacional de Colombia, sede Medellın, Colombia.

bGrupo de Investigacion en Estadıstica, Universidad Nacional de Colombia, sede Medellın,Colombia. Profesor asociado, Escuela de Estadıstica, Universidad Nacional de Colombia, sedeMedellın, Colombia.

109

110 Jorge Ivan Velez & Juan Carlos Correa

1. Introduccion

Desarrollos relativamente recientes en genetica y procesamiento de imagenes han

dado lugar a experimentos y aplicaciones cuyos resultados corresponden a grandes

conjuntos de datos. En la actualidad, una de las areas mas importantes en el

campo de la investigacion medica es el estudio de niveles de expresion de m genes

en n1 casos y n2 controles utilizando microarreglos (Nguyen et al. 2002, Dudoit

et al. 2002).

Por lo general, en este tipo de estudios el interes se centra en determinar aquellos

genes para los que sus niveles de expresion difieren significativamente entre ambos

grupos, o aquellos pares de genes para los cuales su correlacion es estadısticamente

significativa para alguna probabilidad de error tipo I α predeterminada. En el

primer caso, la deteccion de diferencias significativas permite determinar que genes

se encuentran alterados en los casos y no en los controles (Dudoit et al. 2002),

mientras en el segundo el coeficiente de correlacion corresponde a un proxy que

cuantifica una potencial interaccion entre un par de genes.

Dado un conjunto de datos con p variables numericas, independencia completa se

refiere a probar

H0: Σ = D(σ2

1, σ2

2, . . . , σ2

p) (1)

donde Σ es la matriz de varianzas-covarianzas, D(·) corresponde a una matriz

diagonal cuyas componentes son σ2

1, σ2

2, . . . , σ2

p, con σ2

i la varianza de la i-esima

variable, i = 1, 2, . . . , p. Si P es la matriz de correlacion, lo anterior se reduce a

probar H0: P = Ip, con Ip una matriz diagonal de orden p. Si se rechaza H0 para

algun nivel de significancia α, esto indica que por lo menos una de las correlaciones

entre pares de variables es estadısticamente diferente de cero. En el caso de estudios

con microarreglos, rechazar la hipotesis de independencia completa indicarıa que

existe al menos un par de genes que interactuan.

En la literatura, se encuentran disponibles la prueba basada en la razon de verosi-

militud (LRT, en ingles) (Wilks 1935, Morrison 2005), y las aproximaciones segun

Box (1949), Bartlett (1954) y Schott (2005) para probar H0. El rechazo o no de

H0 en (1) puede contextualizarse de diferentes maneras, por ejemplo, en regresion

lineal, es deseable que las covariables del modelo sean ortogonales, i.e., no exista

multicolinealidad (no se rechace H0). Sin embargo, la existencia de correlacion es

deseable en analisis de componentes principales y analisis factorial. En el primer

caso, permite reducir la dimensionalidad del problema; en el segundo, las pruebas

de independencia completa se utilizan para determinar si es recomendable realizar

este tipo de analisis.

En este trabajo proponemos una metodologıa basada en la tasa de falsos descubri-

mientos (FDR, en ingles) y comparamos su desempeno con los metodos mencio-

nados previamente. Finalmente, ilustramos nuestra propuesta con dos conjuntos

de datos, uno relacionado con un experimento taxonomico (Anderson 1935) y otro

sobre medidas de los pies (Correa 2006).

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Una prueba de independencia completa basada en la FDR 111

2. Pruebas de independencia completa

Supongamos que se tiene una matriz de datos (continuos)Xn×p donde n correspon-

de al numero de observaciones y p al numero de variables. La matriz de correlacion

muestral R esta dada por

R =

1 r12 · · · r1pr21 1 · · · r2p...

.... . .

...

rp1 rp2 · · · 1

(2)

donde rij = sij (siisjj)−1/2, sij = (n − 1)−1

nk=1

(xki − xi)(xkj − xj) y sii =

var(xi), i, j = 1, 2, . . . , p.

Bajo normalidad multivariada, esto es, si X ∼ Np(µ,Σp), Wilks (1935) mostro que

para probar (1) el estadıstico de prueba es

Λ = |R|n/2 (3)

La distribucion de Λ es aun motivo de extensa investigacion (Mudholkar et al.

1982).

2.1. Razon de verosimilitud (LRT)

La prueba LRT (Morrison 2005, Seccion 1.9) considera el estadıstico de prueba

G = −[n− (2p+ 5)/6] log |R| (4)

Bajo H0, G tiene una distribucion χ2 con p(p − 1)/2 grados de libertad. Schott

(2005) mostro que G tiene un pobre desempeno cuando p → ∞ debido a que

|R| → 0.

2.2. Aproximacion de Box

De acuerdo con Box (1949), la distribucion de Λ en (3) puede aproximarse como:

P [C ≤ z] ≈ Pχ2

w ≤ z

+γ2m2

Pχ2

w+4≤ z − Pχ2

w ≤ z+O(m−3) (5)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

112 Jorge Ivan Velez & Juan Carlos Correa

con C = −n log |R|, γ2 = p(p − 1)(2p2 − 2p − 13)/288, m = n − (2p + 11)/6,w = p(p− 1)/2 y χ2

w una variable χ2 con w grados de libertad.

2.3. Aproximacion de Bartlett

Morrison (1976) menciona que Bartlett (1954) propuso aproximar el estadıstico

Q = −[n− (2p+ 11)/6] log |R| (6)

utilizando una χ2

p(p−1)/2. El estadıstico Q, ademas de ser mucho mas simple de

calcular que la aproximacion de Box, no utiliza la expansion de Taylor de tercer

orden, lo cual garantiza esta converja mucho mas rapido a la distribucion lımite.

Mudholkar et al. (1982) mostraron que el estadıstico Q tiene un mejor desempeno

que la aproximacion en (5).

2.4. Aproximacion de Schott

Schott (2005) propone una prueba de independencia completa basada en probar

las hipotesis

H0: ρi,j = 0 vs. H1: ρi,j = 0 i > j (7)

donde ρi,j es el (i, j)-esimo elemento de la matriz de correlacion P . El estadıstico

de prueba esta dado por

Z = tn,p/σtn,p(8)

donde

tn,p =

p∑

i=2

i−1∑

j=1

r2i,j − 2p(p− 1)/n,

σtn,p= n−2(n+2)−1p(p−1)(n−1) y ri,j es el estimador de ρi,j . Bajo independencia

completa, Z ∼ N(0, 1). Para p > n, esta prueba mostro tener un mejor desempeno

que la prueba LRT (Schott 2005).

2.5. Propuesta basada en FDR

La tasa de falsos descubrimientos (FDR, en ingles) esta definida como la propor-

cion de hipotesis nulas verdaderas que resultan ser rechazadas dentro del total de

hipotesis rechazadas (Benjamini & Hochberg 1995). Para una revision sobre este

y otros metodos, ver Schaffer (1995) y Correa (2011).

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Una prueba de independencia completa basada en la FDR 113

Tabla 1: Posibles resultados cuando se prueban m hipotesis. T : cierto; F : falso,D: descubrimiento (rechazo de H0); N : no descubrimiento. Fuente: modificado deBenjamini & Hochberg (1995)

Acepto H0 Rechazo H0 Total

H0 Verdadera NT DF m0

H0 Falsa NF DT m1

Total N D m

En la Tabla 1 presentamos los posibles resultados cuando se realizan m prue-

bas de hipotesis independientes. A partir de esta informacion, la FDR se define

formalmente como (Benjamini & Hochberg 1995)

FDR = E

(DF

D

∣∣∣∣D > 0

)P (D > 0) (9)

y el procedimiento FDR (Benjamini & Hochberg 1995) se reduce a:

1. Probar m hipotesis independientes H0,1, H0,2, . . . , H0,m a partir de las cua-

les se obtienen los estadısticos de prueba T0,1, T0,2, . . . , T0,m y los valores pp0,1, . . . , p0,m, respectivamente.

2. Calcular κ como

κ = max

i : p

(i) ≤i

(10)

para algun nivel de significancia α ∈ (0, 1).

3. Rechazar H0,1, H0,2, . . . , H0,κ. Si no existe tal κ, ninguna hipotesis nula

podra ser rechazada.

Nuestra propuesta para realizar la prueba de independencia completa implica pro-

bar (7) para la l-esima componente de la matriz de correlacion R en (2) y aplicar

el procedimiento FDR descrito anteriormente, de tal manera que para una matriz

de datos (continuos) Xn×p deben calcularse p(p− 1)/2 coeficientes de correlacion,

estadısticos de prueba y valores p. Una vez calculado el l-esimo coeficiente de co-

rrelacion muestral rl, el estadıstico de prueba es tl = rl(n− 2)1/2(1− r2l )−1/2 y el

valor−p puede calcularse como pl = P (tl > tn−2), l = 1, 2, . . . , p(p− 1)/2. Recha-zaremos H0 en (1) si κ ≥ 1. En el Apendice A presentamos una implementacion

de nuestra propuesta en R (R Core Team 2013).

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

114 Jorge Ivan Velez & Juan Carlos Correa

3. Estudio de simulacion y resultados

3.1. Estudio de simulacion

El desempeno de nuestra propuesta y las aproximaciones antes mencionadas se

evaluo a traves de un estudio de simulacion. Para ello, implementamos un algorıtmo

en R que funciona de la siguiente manera1:

1. Generacion de datos. Defina la tripleta (n, p, ρ) y genere una muestra alea-

toria de tamano n de una distribucion normal p-variada con matriz de

correlacion P = (1 − ρ) Ip + ρ1p1′

p. Se utilizaron 10 ≤ n ≤ 200, p =

2, 5, 10, 30, 50, 100.

2. Aproximaciones LRT, Box, Bartlett y Schott. Estime la matriz de correlacion

muestral R y determine si se rechaza H0 en (1) con las aproximaciones LRT,

Bartlett, Box y Schott.

3. Prueba basada en la FDR. A partir de la matriz de correlacion R, determine

el valor de κ como se describe en la seccion 2.5. Rechace H0 en (1) si κ ≥ 1.

4. Tasa de rechazos. Repita los pasos 1–3, B veces. Calcule la tasa de rechazos

(TdRs) para cada metodo como la proporcion de veces que se rechaza H0 en

las B muestras.

Con el proposito de estimar el de cada una de las pruebas, se determino su desem-

peno bajo H0, es decir, con P = Ip (equivalente a ρ = 0). En total se evaluaron

240 escenarios de simulacion. En todos ellos, la probabilidad de error tipo I fue

α = 0.05 y B = 10000.

3.2. Resultados

Los resultados obtenidos se presentan en la Figura 1. A diferencia de las demas

pruebas para independencia completa, nuestra propuesta basada en la FDR man-

tiene niveles de significancia reales cercanos al 5% independiente del tamano de

muestra n y el numero de variables p. Las pruebas tradicionales presentan TdRs

cercanos al 5% solo para n > 100 y p ≤ 10 (panel superior, Figura 1). Sin embargo,

la prueba de Schott para p = 2 y la de Box para p = 5 y p = 10, son claras excep-

ciones. Para p > 2, la prueba LRT presenta las TdRs mas altas independiente del

tamano de muestra.

1El programa en R se encuentra disponible a peticion del lector.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Una prueba de independencia completa basada en la FDR 115

45678910

2050

80110

140

170

200

(a)

200

51015202530

2050

80110

140

170

200

(b)

200

010203040

2050

80110

140

170

200

(c)

020406080100

2050

80110

140

170

200

(d)

200

020406080100

2050

80110

140

170

200

(e)

200

020406080100

2050

80110

140

170

200

(f)

Tam

año

de m

uest

ra (n

)

Tasa de Rechazos (%)

FDR

BoxBartlett

Schott

LRT

p=2

p=5

p=10

p=30

p=

50

p=10

0

Figura

1:Nivel

design

ificanciarealdelasaproximaciones

LRT,Box,

Bartlett,Schott

ynuestrapropuesta

basadaen

laFDR

comofunciondel

taman

odemuestranyel

numerodevariables

p.Fuen

te:elaboracionpropia.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Una prueba de independencia completa basada en la FDR 115

45678910

2050

80110

140

170

200

(a)

200

51015202530

2050

80110

140

170

200

(b)

200

010203040

2050

80110

140

170

200

(c)

020406080100

2050

80110

140

170

200

(d)

200

020406080100

2050

80110

140

170

200

(e)

200

020406080100

2050

80110

140

170

200

(f)

Tam

año

de m

uest

ra (n

)

Tasa de Rechazos (%)

FDR

BoxBartlett

Schott

LRT

p=2

p=5

p=10

p=30

p=

50

p=10

0

Figura

1:Nivel

design

ificanciarealdelasaproximaciones

LRT,Box,

Bartlett,Schott

ynuestrapropuesta

basadaen

laFDR

comofunciondel

taman

odemuestranyel

numerodevariables

p.Fuen

te:elaboracionpropia.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

116 Jorge Ivan Velez & Juan Carlos Correa

Cuando p ≥ 30, las TdRs de las pruebas clasicas son superiores al nivel de signifi-

cancia nominal del 5% en muchos ordenes de magnitud. A excepcion de la prueba

de Box, las TdRs son cercanas al nivel nominal cuando p = 30 y n > 120. Sin

embargo, para p = 50 y p = 100 este comportamiento es menos evidente y las

TdRs varıan considerablemente. Para p ≥ 30 (panel inferior, Figura 1) las unicas

pruebas evaluadas con resultados consistentes, i.e., que igualan o tienden rapida-

mente al nivel nominal cuando n aumenta, son nuestra propuesta y la prueba de

Schott.

4. Ejemplos

4.1. Datos taxonomicos

Anderson (1935) presenta un conjunto de datos, ahora clasicos, correspondiente a

medidas (en centımetros) del ancho y la longitud del sepalo y los petalos en 150

flores iris de tres especies diferentes (setosa, versicolor y virginica, Figura 2)2. Los

datos, disponibles en R, corresponden a mediciones de estas cuatro caracterısticas

en 50 flores de cada especie.

Setosa Versicolor Virginica

Figura 2: Especies setosa, versicolor y virginica de la variedad de flores iris. Fuente:ver nota de pie.

Para ilustrar el uso de nuestra propuesta se hicieron dos tipos de analisis. En el

primero, se analizo el conjunto de datos sin dividir por especie; en el segundo,

se realizo dicha division. En el primer caso, todas las pruebas de independencia

rechazaron H0 en (1), excepto la prueba de Box (LRT: G = 711.77, p = 1.75 ×10−150; Bartlett: Q = 706.96, p = 1.92× 10−149; Schott: Z = 115.79, p < 10−150).

Resultados similares se obtienen al realizar el analisis de independencia completa

por especie.

2Imagenes tomadas de www.alaska-in-pictures.com/data/media/10/wild-iris_8865.jpg,http://goo.gl/nEGwEr y http://goo.gl/7PRWSf

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Una prueba de independencia completa basada en la FDR 117

4.2. Medidas de pies

Correa (2006) presenta datos3 correspondientes a mediciones de la longitud (x1) y

la amplitud (x2) maxima del pie, la amplitud maxima del talon (x3), la longitud

maxima del dedo grande (x4) y la amplitud maxima del dedo grande (x5) en

n = 10 personas.

La matriz de correlacion muestral (diagonal inferior) y los respectivos valores p(diagonal superior) al probar (7) son

D =

x1 x2 x3 x4 x5

x1 − 0.0018 0.5881 0.1413 0.0107x2 0.8507 − 0.7924 0.3767 0.1589x3 0.1956 −0.0958 − 0.9448 0.1963x4 0.4998 0.3141 0.0253 − 0.1989x5 0.7600 0.4814 0.4461 0.4438 −

,

de tal manera que rx1,x2= 0.8507 y el correspondiente valor p es 0.0018.

La hipotesis de independencia completa es rechazada al utilizar nuestra propuesta

basada en la FDR. Este resultado es equivalente al obtenido con cualquiera de

las aproximaciones clasicas (LRT: G = 24.45, p = 6.48 × 10−3; Box: C = 32.61,p = 4.48 × 10−4; Bartlett: Q = 21.19, p = 1.97 × 10−2; Schott: Z = 3.42, p =

3.10× 10−4).

5. Discusion

El analisis multivariado de datos se simplifica en gran medida si se asume que

las p variables disponibles son independientes. La principal ventaja de tener datos

con estas caracterısticas radica en que cada una de las variables podrıa analizarse

utilizando metodos univariados. Ahora, si el supuesto de independencia completa

no se cumple y aun ası este se asume, podrıan obtenerse resultados alejados de la

realidad, especialmente cuando el estudio de relaciones entre variables, como en

experimentos con microarreglos, es de gran importancia.

En este artıculo hemos presentado una nueva prueba de independencia completa,

basada en la FDR, que consiste en realizar p(p−1)/2 pruebas de hipotesis indepen-dientes sobre igual numero de coeficientes de correlacion de una matriz de datos

(continuos) Xn×p, y que ofrece una alternativa facil de implementar en cualquier

programa de analisis estadıstico (ver Apendice A para nuestra implementacion en

R). A diferencia de otras pruebas de independencia completa tambien evaluadas,

el nivel de significancia real de esta nueva alternativa es comparable con el nivel

teorico nominal (en este caso del 5%) y no depende del numero de variables p ni

del tamano de muestra n. En la practica, estas tres propiedades son deseables. Por

3Disponibles bajo solicitud expresa del lector.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

118 Jorge Ivan Velez & Juan Carlos Correa

otro lado, la potencia de nuestra propuesta basada en la FDR es comparable o su-

perior a las obtenidas con las demas aquı mencionadas4. Este resultado garantiza,

en cierta medida, que nuestra propuesta representa una mejor alternativa a las ya

existentes.

Tabla 2: Tiempos de ejecucion (en segundos) de la prueba de independencia com-pleta basada en la FDR para combinaciones de n y p. Fuente: elaboracion propia

n|p 100 200 500 1000 1500 2000 3000 5000

500 0.007 0.029 0.199 0.960 2.549 5.219 13.256 42.116

1000 0.011 0.043 0.283 1.239 3.298 6.572 16.253 50.630

2000 0.017 0.071 0.456 1.919 4.787 9.017 22.076 67.222

3000 0.024 0.097 0.643 2.688 6.321 11.701 28.206 84.214

5000 0.038 0.158 0.960 3.930 9.424 17.226 39.996 117.902

Uno de los problemas que podrıan presentarse en la implementacion y aplicacion

de esta prueba es el costo computacional (e.g., tiempo de ejecucion). Por ejem-

plo, para p = 5000 e independiente del tamano de muestra, es necesario calcular

12,497,500 coeficientes de correlacion, probar igual numero de hipotesis y compu-

tar los respectivos valores−p. Sin embargo, los tiempos de ejecucion en R (ver

Tabla 2) son relativamente cortos; el procedimiento tarda menos de 120 segundos5

para p = n = 5000.

Posibles direcciones de investigacion podrıan estar enfocadas a la evaluacion de

nuestra propuesta en presencia de datos faltantes. Puesto que la prueba FDR

se basa en el calculo de coeficientes de correlacion y la determinacion de si al

menos uno es significativo, el problema se reduce a escoger diferentes metodos

para el calculo de estos (e.g., usando toda la informacion, solo la informacion

completa, o solo la informacion completa por pares de variables) y calcular el nivel

de significancia real de la prueba.

Agradecimientos

Los autores agradecen los comentarios y sugerencias de un revisor anonimo, quien

ayudo a mejorar sustancialmente la version previa de este documento. El trabajo

de JIV fue financiado parcialmente por The Eccles Scholarship in Medical Sciences,

The Fenner Merit Scholarship y The Australian National University (ANU) High

Degree Research Scholarship. JIV agradece el apoyo del dr. Mauricio Arcos-Burgos

de ANU.

Recibido: 10 de abril de 2013

Aceptado: 14 de mayo de 2013

4Los resultados se encuentran disponibles a peticion del lector.5Se utilizo R version 3.0.0 Patched (2013-04-08 r62531) en un MacBook Pro con 8GB de RAM

y procesador 2.3 GHz Intel Core i7.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Una prueba de independencia completa basada en la FDR 119

Referencias

Anderson, E. (1935), ‘The irises of the Gaspe peninsula’, Bulletin of the AmericanIris Society 59, 2–5.

Bartlett, M. (1954), ‘A note on multiplying factors for various χ2 approximations’,

Journal of the Royal Statistical Society, Ser. B (Methodological) 16, 296–298.

Benjamini, Y. & Hochberg, Y. (1995), ‘Controlling the false discovery rate: A

practical and powerful approach to multiple testing’, Journal of the RoyalStatistial Society, Series B (Methodological) 57(1), 389–400.

Box, G. (1949), ‘A general distribution theory for a class of likelihood criteria’,

Biometrika 36, 317–346.

Correa, J. C. (2006), Control de la proporcion de hipotesis rechazadas equivocada-mente, Curso de Estadıstica Genetica, Universidad de Antioquia.

Correa, J. C. (2011), ‘Diagnosticos de regresion usando la FDR (Tasa de Descu-

brimientos Falsos)’, Comunicaciones en Estadıstica 3(2), 109–118.

Dudoit, S., Yang, Y.-H., Callow, M. J. & Speed, T. P. (2002), ‘Statistical methods

for identifying differentially expressed genes in replicated cDNA experiments’,

Statistica Sinica 12, 111–139.

Morrison, D. F. (1976), Multivariate statistical methods, 2 edn, New York:

McGraw-Hill.

Morrison, D. F. (2005), Multivariate statistical methods, 4 edn, Belmont, CA:

Brooks/Cole.

Mudholkar, G. S., Trivedi, M. C. & Lin, T. (1982), ‘An approximation to the dis-

tribution of the likelihood ratio statistic for testing complete independence’,

Technometrics 24(2), 139–143.

Nguyen, D. V., Bulak Apart, A., Wang, N. & Carrol, R. J. (2002), ‘DNAmicroarray

experiments: biological and technological aspects’, Biometrics 58, 701–717.

R Core Team (2013), R: A language and environment for statistical computing, RFoundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0.

*http://www.R-project.org/

Schaffer, J. P. (1995), ‘Multiple hypothesis testing: A review’, Annu. Rev. Psychol.46, 561–84.

Schott, J. R. (2005), ‘Testing for complete independence in high dimensions’, Bio-metrika 92(4), 951–956.

Wilks, S. S. (1935), ‘On the independence of k sets of normally distributed statis-

tical variables’, Econometrika 3, 309–26.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

120 Jorge Ivan Velez & Juan Carlos Correa

A. Apendice. Programa en R para la prueba deindependencia completa basada en la FDR

## Calculo del valor p para los coef. de correlacion de una matriz X

cor.pvalue <- function(X, method = "pearson", use = "complete") dfr <- nrow(X) - 2

R <- cor(X, method = method, use = use)

above <- row(R) < col(R)

r2 <- R[above]^2

Fstat <- r2 * dfr/(1 - r2)

R[above] <- 1 - pf(Fstat, 1, dfr)

R[above]

## Prueba de independencia completa basada en la FDR

fdrci <- function(x, alpha = 0.05) p <- cor.pvalue(x)

p <- p.adjust(p, method = "fdr")

ifelse(any(p <= alpha), "Rechace H0", "No rechace H0")

## Ejemplo con una normal 5-variada independiente, n = 100

set.seed(1)

X <- matrix(rnorm(100 * 5), ncol = 5)

fdrci(X)

## [1] "No rechace H0"

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 121–137

Propuesta para aumentar los puntosexperimentales en disenos D-optimos bayesianos

Proposal to increase experimental points in Bayesian

D-optimal design

Cristian Fernando Tellez Pinereza

[email protected]

Vıctor Ignacio Lopez Rıosb

[email protected]

Resumen

Uno de los criterios de uso mas frecuente para la obtencion de disenos optimos

es el D-optimalidad, el cual proporciona los puntos experimentales donde se mi-

nimiza el volumen del elipsoide de confianza asociado al vector de parametros en

el modelo propuesto. A diferencia del diseno D-optimo clasico, el diseno D-opti-

mo bayesiano no necesariamente tiene tantos puntos de soporte como parametros

tiene el modelo. En este artıculo se considera el caso en donde el diseno D-opti-

mo promediado por una a priori particular tiene tantos puntos de soporte como

el numero de parametros del modelo. Esta situacion puede no ser tan favorable

cuando el modelo no se tiene especificado con total certeza, dado que no serıa posi-

ble realizar pruebas de falta de ajuste para el modelo. En este artıculo se propone

una metodologıa que permite aumentar el numero de puntos de soporte del diseno

con el fin de que, con el diseno resultante, se pueda aplicar la prueba de bondad

de ajuste. Finalmente, se ejemplifica la metodologıa con un modelo exponencial.

Palabras clave: D-optimalidad bayesiano, bondad de ajuste, D-eficiencia, incre-

mento puntos experimentales, disenos optimos.

Abstract

One of the most frequent used criteria to obtain optimal designs is D-optimality

designs, which provides experimental points where the volume of confidence ellip-

soid associated to the vector of parameters in the proposed model is minimized.

Unlike the classical D-optimal design, the Bayesian D-optimal design does not

necessarily have as many support points as the model parameters. This article

considers the case where D-optimal design averaged by a specific a priori has as

many support points as the number of parameters of the model. This situation

aDocente tiempo completo. Fundacion Universitaria Los Libertadores, Colombia.bProfesor Asociado. Universidad Nacional de Colombia, sede Medellın, Colombia.

121

122 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

may not be as favorable when the model is not specified with complete certainty,

since it would not be possible to conduct tests due to lack of fitness for the model.

This article proposes a methodology that allows increasing the number of support

points of the design in order that, with the resulting design, goodness of fitness

test can be applied. Finally, the methodology is exemplified with an exponential

model.

Keywords: Bayesian D-optimality, goodness of fit, D-efficiency, increase in expe-

rimental points, optimal designs.

1. Introduccion

En trabajos de investigacion, usualmente se tiene el interes de modelar el com-

portamiento de una variable de interes Y a traves de un conjunto de k−variables

explicativas x =(x1, x2, ..., xk), por medio de un modelo estadıstico que describa

esta posible relacion. Este modelo puede tener la forma:

Y (x) = η(x; θ) + ǫ, (1)

donde η(x; θ) es una funcion del vector de parametros desconocido θ ∈ Rp, x toma

valores en un espacio de diseno χ y ǫ, el error aleatorio, se asume que tiene media

cero y varianza constante σ2.

En este artıculo se analizara un modelo no lineal, en donde la matriz de informacion

depende de θ.

La teorıa de los disenos optimos en el contexto de la estadıstica bayesiana presen-

ta algunos resultados o criterios de optimalidad, que son utiles para determinar

las condiciones experimentales o niveles de las covariables donde se debe expe-

rimentar para obtener estimaciones optimas de los parametros del modelo bajo

estudio. Por ejemplo, Argumedo-Galvan & Lopez (2011) realizan una generaliza-

cion de la metodologıa propuesta por O’Brien (1995) para el aumento del numero

de puntos de soporte en un diseno D-optimo local. Cardona et al. (2012) realizaron

una caracterizacion de los disenos optimos obtenidos a traves de dos funciones de

utilidad asociados al D-optimalidad bayesiano para estimar en forma optima los

parametros de dos modelos no lineales, entre otras.

Este artıculo propone e implementa una estrategia que busca el aumento del nume-

ro de puntos experimentales del diseno D-optimo obtenido a partir de una distri-

bucion apriori. Para ello se adapta la propuesta de O’Brien (1995) y de Cardona

et al. (2012). Se deduce explıcitamente la expresion para la funcion de sensibilidad

asociada al criterio en terminos de una constante de ponderacion (δ), la eficiencia

que se quiere alcanzar con el nuevo diseno y el numero de parametros del mode-

lo. Se determina la mejor eleccion para δ, al maximizar la potencia de la prueba

de falta de ajuste del modelo en estudio. Finalmente, se evalua la bondad de la

metodologıa en el modelo exponencial, vıa simulacion.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 123

2. Diseno optimo bayesiano

A continuacion se ilustran algunos conceptos basicos de la teorıa clasica de disenos

optimos para modelos no lineales, y se dan resultados importantes del enfoque

bayesiano asociados con algunos criterios de optimalidad.

2.1. Diseno exacto

Sean x1, ..., xd una sucesion de d puntos distintos, y ri el numero de repeticiones

del punto xi, entonces se define un diseno exacto como una medida de probabilidad

discreta ξN , en el espacio de diseno χ, representado por:

ξ =

[x1 · · · xdr1N · · · rd

N

], (2)

donde∑d

i=1 ri = N , siendo N el numero total de corridas experimentales. La

primera fila denota los puntos del espacio de diseno, χ, donde toman las mediciones

de la variable respuesta y la segunda fila contiene los pesos wi = ξ(xi) = riN ,

indicando la proporcion de mediciones para ser tomadas en cada punto.

2.2. Diseno continuo

A diferencia del diseno exacto, los pesos wi pueden ser cualquier numero entre cero

y uno, no se exige que sean numeros racionales. Aunque en la practica todos los

disenos son exactos, desde el punto de vista de la obtencion de estos es recomen-

dable usar los disenos aproximados por las ventajas que ofrece el usar el analisis

convexo.

2.3. Matriz de informacion

Para cada diseno ξ se define la matriz de informacion:

M(ξ; θ) =

χ

f(x; θ)fT (x; θ)dξ(x), (3)

y como el diseno es una medida discreta con soporte finito, entonces (3) es equi-

valente a:

M(ξ; θ) =d∑

i=1

f(xi; θ)fT (xi; θ)wi, (4)

donde f(x; θ) = ∂η(x;θ)∂θ . En este caso la matriz de informacion depende del vector

de parametros, θ.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

124 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

2.4. Criterios de optimalidad

La teorıa de disenos optimos, Kiefer (1959), esta relacionada con la seleccion de

un diseno ξ que maximiza algun funcional de la matriz de informacion. Ası, los

criterios de optimalidad (Lopez & Ramos 2007) son definidos como juicios que

maximizan algun funcional real (con un significado estadıstico) de la matriz de

informacion sobre la clase de todos los disenos aproximados definidos en χ.

El criterio D-optimalidad se define como el siguiente funcional:

ψ (ξ) := ψ (M (ξ))

= |M−1 (ξ; θ) |. (5)

Busca aquel diseno que minimiza un funcional escalar de la varianza gene-

ralizada asintotica asociada a los estimadores de maxima verosimilitud del

vector de parametros dada por:

det(M−1 (ξ)

),

donde det(A) denota la funcion determinante de la matriz A. Segun lo ex-

puesto en Atkinson et al. (2007), es mas conveniente el uso de una funcion

convexa dada por el logaritmo natural, puesto que se facilitan los calculos

y ademas la funcion logaritmo natural del determinante es convexa, ası un

diseno ξD se dice que es D-optimo si minimiza − log(|M(ξ)|) o equivalente-

mente maximiza log(|M(ξ)|).

El criterio G-optimalidad, propuesto por Kiefer (1959), consiste en encontrar

el diseno que minimiza la varianza de la respuesta predicha mas grande. Es

decir, un diseno ξ∗ es G-optimo si minimiza el maximo de la funcion d (x; ξ, θ)sobre todo los x ∈ χ. Es decir,

mınξ

maxx∈χ

d (x; ξ, θ) = maxx∈χ

d (x; ξ∗, θ) (6)

donde d(x; ξ, θ) = fT (x; θ)M−1(ξ; θ)f(x; θ) representa la funcion de varianza

de la respuesta predicha estandarizada.

Existen otros criterios de optimalidad que no se exploran en este artıculo, pa-

ra ello se pueden consultar los trabajos de Lopez & Ramos (2007), Atkinson

et al. (2007).

2.5. Teorema de equivalencia para un diseno D-optimo

Kiefer &Wolfowitz (1959) mostraron la equivalencia entre el criterio D-optimalidad

y G-optimalidad, el cual se puede enunciar de la siguiente manera:

Un diseno ξ∗ con matriz de momentos M(ξ∗), definida positiva, es D-optimo sı y

solo si es G-optimo sı y solo si:

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 125

maxxǫχ

d(x; ξ∗) = p.

Donde p es el numero de parametros del modelo.

El maximo de la funcion de varianza de la respuesta predicha se obtiene en los

puntos de soporte del diseno D-optimo y es igual al numero de parametros del mo-

delo, en caso de D-optimalidad, el peso de cada punto de soporte es inversamente

proporcional a p, ωi =1p .

2.6. Eficiencia de un diseno

Una forma de medir la eficiencia de un diseno, ξ, con respecto al diseno Dπ(ξ)-optimo, ξ∗, es a partir del cociente del criterio de optimalidad evaluado tanto en

ξ, como ξ∗, es decir,

efDπ(ξ) =

Dπ (ξ)

Dπ (ξ∗), (7)

de donde 0 < efDπ(ξ) ≤ 1. Un diseno ξ es comparable con un diseno Dπ−optimo

en la medida que su eficiencia sea cercana a uno, (ver Lopez (2008)).

efD(ξ) =

[|M(ξ; θ)|

|M(ξ∗; θ)|

]1/p. (8)

Al tomar la p-esima raız cuadrada se obtiene una medida de eficiencia que tiene

las dimensiones de una razon de varianza. La efD(ξ) permite determinar la ca-

pacidad del diseno ξ para estimar de manera eficiente los parametros del modelo

en comparacion con el diseno D-optimo, ξ∗D. La D-eficiencia se puede interpretar

como el numero de replicas requeridas del diseno para que sea tan eficiente como

el diseno D-optimo (Atkinson et al. 2007).

2.7. Criterio D-optimalidad bayesiano

Los disenos D-optimos locales maximizan log|M (ξ; θ0) |, donde θ0 representa un

valor apriori de θ. Si ademas es posible tener una distribucion apriori π(θ) para el

vector de parametros θ, el diseno D-optimo promediado π(θ) puede ser obtenido

al maximizar:

Dπ(ξ) =

Θ

log|M(ξ; θ)|π(θ)dθ, (9)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

126 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

donde Θ es el soporte de la distribucion π(θ). Para este criterio, se define la funcion

de sensibilidad para un diseno ξ, d(x; ξ), como:

d(x; ξ) =

Θ

d(x; ξ, θ)π(θ)dθ, (10)

donde d(x; ξ, θ) = fT (x; θ)M−1(ξ; θ)f(x; θ). Un diseno que maximice la funcion

dada en (9) se denomina diseno Ψπ-optimo.

La matriz de informacion para un diseno D-optimo bayesiano, la cual depende de

un vector de parametros θ. esta dada por:

M (ξ; θ) =

χ

f (x; θ) fT (x; θ) ξ (dx) ,

= =∑

x∈Soporte(ξ)

f(x; θ)fT (x; θ)ξ(x), (11)

Para este caso el teorema de equivalencia asociado es: un diseno ξ∗ es Dπ- optimo

si φ(x; ξ) = p−∫Θtr[fT (x; θ)M−1(ξ∗ : θ)f(x; θ)]π(θ) ≤ 0 y la igualdad se cumple

en los puntos de soporte del diseno.

La funcion φ(x; ξ) se conoce como la derivada direccional asociada al criterio de

optimalidad y varıa dependiendo del criterio utilizado (Atkinson et al. 2007).

En la Tabla 1 se muestra la derivada direccional asociada a diferentes versiones

del criterio de optimalidad bayesiano.

Tabla 1: Versiones del criterio de optimalidad bayesianos junto con su respectivaderivada direccional asociada. Fuente: elaboracion propia.

Criterio Ψ M (ξ; θ) Derivada direccional φ (x; ξ)

I Eθlog[|M−1|

]p− Eθ

trM−1M (ξx; θ)

II log[Eθ

(|M−1|

)]p− Eθ

|M−1|trM−1M (ξx; θ) /Eθ|M

−1|

III log[|Eθ

(M−1

)|]

p− Eθ

trM−1Eθ

(M−1

)M−1M (ξx; θ)

IV log[Eθ (|M |)]−1

p− Eθ

|M |trM−1M

(ξ; θ

)/Eθ|M |

V log[|Eθ (M) |]−1

p− tr (Eθ (M))−1

M (ξx; θ)

donde M−1 = M−1 (ξ; θ) . En este artıculo se utiliza la version I.

3. El problema de la falta de ajuste en el disenoD-optimo

La estrategia para obtener disenos con puntos extras ha sido trabajada por O’Brien

(1992), O’Brien (1995), Chaloner & Larntz (1989), entre otros. O’Brien (1995)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 127

recomienda la siguiente estrategia para obtener disenos con puntos de soporte

extras:

3.1. Algoritmo

1. Encontrar el diseno D-optimo local, ξD. Este diseno tendra p puntos de

soporte (Gaffke 1987).

2. Construir el diseno:

ξN =p

p+ 1ξD +

1

p+ 1ξx, (12)

donde ξD es el diseno D-optimo local encontrado (1) y ξx es un diseno con

un solo punto, es decir, tiene concentrado todo su peso en el punto x.

3. Fijar un valor mınimo para la eficiencia que se desea alcanzar con el nuevo

diseno, denotado por de, valor entre 0 y 1, y encontrar los t valores de x tal

que:

d(x; ξD, θ0

)= p

[(p+ 1

pde

)p

− 1

]. (13)

4. Por ultimo, tomar como diseno seudo-optimo aquel diseno que tenga r1 repli-cas en los p puntos de soporte del diseno D-optimo ξD, y r2 replicas en los tpuntos de soporte obtenidos en el paso anterior.

La propuesta de O’Brien (1995) da igual peso a cada punto de soporte del nuevo

diseno, ξN , con lo cual surgen los siguientes interrogantes: ¿Que ocurre si la pon-

deracion dada a los nuevos puntos es δ y a los puntos del diseno Ψπ-optimo es

1− δ? ¿Que estrategias se pueden proponer para la escogencia del valor de δ?

La respuesta a ambos interrogantes sera el objetivo de las siguientes secciones.

4. Generalizacion

Se propone construir el nuevo diseno a partir de:

ξN = (1− δ)ξD + δξx, (14)

o de forma explıcita

ξN =

x1 · · · xp x1−δp · · · 1−δ

p δ

. (15)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

128 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

Donde ξD es el diseno Dπ-optimo asumiendo que este tiene p puntos de soporte, la

constante δ determina el peso en el diseno ξx, diseno que tiene su peso concentrado

en el punto x.

Una expresion equivalente para la funcion de sensibilidad del diseno Dπ usando el

nuevo diseno ξN = (1− δ) ξD + δξx y asumiendo la D-eficiencia del diseno ξN fija

se puede escribir como:

d(x; ξD) =

∫(|M (ξD; θ) |m − 1)

1− δ

δπ(θ)dθ. (16)

con m = εpfξD(ξN )− 1, εfξD (ξN ) la Dπ eficiencia del diseno ξN y p el numero de

parametros del modelo.

Con los x’s que satisfacen la ecuacion (16) y los puntos de soporte del diseno Dπ-

optimo, se forma el nuevo diseno ξN el cual tendra los p puntos del diseno Dπ y

los s nuevos puntos adicionales, es decir, tendra p+ s puntos de soporte.

A continuacion se muestra un algoritmo para la escogencia del δ.

4.1. Escogencia del δ

A partir del diseno Dπ-optimo, el numero de corridas experimentales (N), la efi-

ciencia del diseno ξN y una rejilla fija para δ, se encuentra el diseno ξiN dado por

(1− δi) ξD + δiξx para un δi fijo en la rejilla. El diseno ξN es transformado a un

diseno exacto de tamano N mediante la metodologıa de Fedorov & Hackl (1997).

Dado los disenos exactos asociados a cada δ en la rejilla, se define una estrategia

para determinar el peso δ (lo cual implica escoger uno o varios disenos) de tal forma

que el diseno resultante maximice la potencia de la prueba de falta de ajuste del

modelo propuesto. El algoritmo para calcular la potencia de la prueba de falta de

ajuste se desarrolla en dos pasos. En el primer paso se encuentra una distribucion

empırica para el estadıstico −2log (Λ) para muestras pequenas, donde Λ es la

razon de verosimilitud entre el modelo que se asume es correcto (modelo bajo

H0) y un modelo distinto al considerado, en el cual el conjunto de parametros sea

subconjunto del modelo anterior (modelo bajo H1). En el segundo paso se calcula

la potencia de la prueba. Es decir,

I. Distribucion del estadıstico −2log (Λ) en muestras pequenas

1. Fijar un numero de simulaciones Nsim.

2. Para el diseno exacto se calculan las medias; estas se calculan evaluando

los puntos de soporte del diseno exacto y usando como estimacion de θsu valor local, es decir,

µi = η (xi, θ0) , (17)

donde xi son los puntos de soporte del diseno.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 129

3. Para el diseno exacto, se simulan observaciones de la variable respuesta

segun el modelo para trabajar (Modelo bajo H0 cierta en la prueba de

falta de ajuste), para el que se asume que el termino del error es normal

con media cero, varianza constante e independientes y tomando como

varianza para el error la obtenida en un estudio previo.

4. Para las observaciones de la variable respuesta generada en el paso 3

y los puntos de soporte del diseno exacto, se hace el ajuste del mo-

delo propuesto mediante mınimos cuadrados no lineales (ajuste bajo

H0 cierta).

5. Para el ajuste en el paso 4, se calcula el estadıstico:

χo = −2log (Λ) , (18)

donde Λ es la razon de verosimilitudes entre el modelo bajo H0 (modelo

propuesto) y el modelo bajo H1(modelo general) en la prueba de falta

de ajuste.

6. Para el numero de simulaciones fijo Nsim se computa un vector de

cuantiles al 1, 5 y 10% de la distribucion empırica −2log (Λ) (QempA),

luego se incrementa ese numero de simulaciones, por ejemplo el doble

y se computa otro vector de cuantiles al 1,5 y 10% (QempB) y fijando

un error se calcula la norma euclidiana:

||QempA −QempB|| < ǫ, (19)

Si la diferencia en la ecuacion (19) es pequena, el numero de simulacio-

nes Nsim para la distribucion empırica de −2log (Λ) es aquella con la

que se obtuvo QempA, de lo contrario se incrementa y ası sucesivamente

hasta que se cumpla la ecuacion (19).

7. Se repiten los pasos 5 y 6 un numero Nsim de veces y se encuentra la

distribucion empırica del estadıstico −2log (Λ) para muestras pequenas.

II. Calculo de la potencia de la prueba de falta de ajuste del modelo

1. Se perturban las medias obtenidas en el paso 2 de la estimacion de la

distribucion empırica con un γ fijo; siendo γ el factor de perturbacion de

las medias; adicionalmente, se toma el cuadrado medio del error (MSE)

obtenido en un estudio previo como varianza para el error. Para el diseno

exacto, se simulan observaciones de la variable respuesta conforme el

modelo para trabajar, donde se asume que el termino del error es normal

con media cero, varianza constante y ademas independiente (modelo

bajo H1 cierto), es decir,

Yip = µip + ǫi, (20)

donde µip = µi ± γj , con γj una perturbacion fija. Las medias per-

turbadas para el diseno exacto, ǫi ∼ N (0,MSE) y Yip las respuestas

simuladas bajo H1 para el diseno.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

130 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

2. Para el diseno exacto, con cada perturbacion de las medias, se hace el

ajuste del modelo propuesto mediante mınimos cuadrados no lineales

(ajuste bajo H0 falsa), es decir, se tienen tantos ajustes como pertur-

baciones hayan considerado.

3. Para cada ajuste en el paso 2, se calcula el estadıstico χ0 dado en la

ecuacion (18).

4. Se repiten los pasos del 1 al 3 Nsim veces y a partir de esto se obtiene la

potencia de la prueba de falta de ajuste para los niveles de significancia

del 1, 5 y 10% para el diseno exacto mediante:

Potencia de la prueba = P (rechazar H0|H0 falsa)

= P (χ0 > QEmpi)

=# de rechazos de la prueba

Nsim

Donde QEmpi es el vector de cuantiles calculado de la distribucion

empırica al 1, 5 y 10%. Se tendra por cada nivel de significancia tantas

potencias como perturbaciones haya.

5. Se promedian las potencias obtenidas en el paso 2 por cada nivel de

significancia y se toman estas como valor representativo.

Los procedimientos I y II deben ser repetidos para cada uno de los δ’s de

la rejilla.

5. Aplicacion de la metodologıa

Como una aplicacion para evidenciar los resultados obtenidos en este artıculo,

se utiliza un modelo de decrecimiento exponencial en un estudio que investiga la

accion conjunta de mezclas de acidos fenolicos en la inhibicion del crecimiento de

las raıces del tipo de hierba perennial ryegrass (Lolium perenne L.) y su significado

en investigacion alelopatica, datos tomados de Inderjit & Olofsdotter (2002). El

termino alelopatica se refiere a los efectos perjudiciales o beneficos que son directa

o indirectamente el resultado de la accion de compuestos quımicos que, liberados

por una planta, ejercen su accion en otra.

La idea es entonces, obtener disenos que maximicen la prueba de falta de ajus-

te para el modelo de decrecimiento exponencial. Para obtener estos disenos se

tomo como distribucion apriori, una distribucion uniforme discreta alrededor de

los valores locales ΘT = [θ0, θ1], con el fin de incorporar informacion asociada al

desconocimiento de estos parametros. A continuacion se muestra el procedimiento

para encontrar dichos disenos.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 131

5.1. Modelo y estimacion del modelo

Los datos correspondientes al estudio de la toxicidad del acido ferulico son presen-

tados en la Figura 1, donde se observa la tendencia exponencial de la longitud de

la raız en funcion de la concentracion.

Figura 1: Dispersion de los datos de longitud de la raız en terminos de la concen-tracion de acido ferulico. Fuente: elaboracion propia.

La parte determinıstica del modelo propuesto para explicar la relacion entre estas

dos variables es la siguiente:

η (x, θ0, θ1) = θ0exp

(−

x

θ1

), (21)

donde x es la concentracion de acido en la planta y la respuesta del modelo es

la longitud de la raız. En el modelo anterior la funcion que relaciona la variable

explicativa con la variable respuesta es no lineal en los parametros, los valores

ajustados de θ0 y θ1 se obtuvieron con la funcion nls de la librerıa nlstools del

paquete R, estos se muestran en la Tabla 2 y el modelo ajustado se muestra en la

Figura 2.

Tabla 2: Parametros estimados por mınimos cuadrados no lineales para el modelode decrecimiento exponencial. Fuente: elaboracion propia.

Estimacion Error estandar Valor t Pr(> |t|)θ0 9.2 0.65 13.98 0.00

θ1 4.1 0.58 7.03 0.00

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 131

5.1. Modelo y estimacion del modelo

Los datos correspondientes al estudio de la toxicidad del acido ferulico son presen-

tados en la Figura 1, donde se observa la tendencia exponencial de la longitud de

la raız en funcion de la concentracion.

Figura 1: Dispersion de los datos de longitud de la raız en terminos de la concen-tracion de acido ferulico. Fuente: elaboracion propia.

La parte determinıstica del modelo propuesto para explicar la relacion entre estas

dos variables es la siguiente:

η (x, θ0, θ1) = θ0exp

(−

x

θ1

), (21)

donde x es la concentracion de acido en la planta y la respuesta del modelo es

la longitud de la raız. En el modelo anterior la funcion que relaciona la variable

explicativa con la variable respuesta es no lineal en los parametros, los valores

ajustados de θ0 y θ1 se obtuvieron con la funcion nls de la librerıa nlstools del

paquete R, estos se muestran en la Tabla 2 y el modelo ajustado se muestra en la

Figura 2.

Tabla 2: Parametros estimados por mınimos cuadrados no lineales para el modelode decrecimiento exponencial. Fuente: elaboracion propia.

Estimacion Error estandar Valor t Pr(> |t|)θ0 9.2 0.65 13.98 0.00

θ1 4.1 0.58 7.03 0.00

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

132 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

0 5 10 15 20 25 300

24

68

Concentración

Cre

cim

ient

o

Figura 2: Curva ajustada para modelo de decrecimiento exponencial. Fuente: ela-boracion propia.

5.2. Diseno Dπ-optimo para el modelo de decrecimiento

exponencial

A continuacion se mostrara el procedimiento para hallar un diseno Dπ-optimo

cuando la distribucion π es una distribucion uniforme discreta. En este caso el

diseno Dπ-optimo sera aquel que minimice la siguiente funcion:

ψ (ξ) =

Θ

− log |M(ξ, θ)|dπ(θ) =d∑

i=1

− log |M(ξ, θi)|1

d, (22)

donde d es el numero de puntos de la distribucion uniforme considerada. Los datos

de la distribucion uniforme considerada son mostrados en la Tabla 3:

Tabla 3: Observaciones de la distribucion uniforme. Fuente: elaboracion propia

θ0 θ19.44667 3.6234

10.49630 3.6234

13.64519 3.6234

9.44667 3.2940

10.49630 3.2940

13.64519 3.2940

9.44667 2.3058

10.49630 2.3058

13.64519 2.3058

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 133

Para obtener la matriz de informacion se requiere calcular las derivadas de la

funcion η con respecto a cada parametro, dichas derivadas son mostradas en el

siguiente vector:

f(x; θ0, θ1) =

exp

x

θ1

,θ0xexp

− x

θ1

θ21

T

. (23)

Para minimizar la funcion dada en la ecuacion (22), se utilizo la funcion nlminbde la librerıa DEoptim del paquete estadıstico R Development Core Team. Se

verifico que la funcion de sensibilidad asociada alcanzaba su maximo en p = 2,

numero de parametros del modelo y el maximo se alcanza en los puntos de soporte

del diseno dado en la ecuacion (24):

ξD =

0.94 3.8270.5 0.5

(24)

Figura 3: Grafico de la funcion de sensibilidad d (t, ξD, θ0) modelo de decrecimientoexponencial. Fuente: elaboracion propia.

5.3. Disenos seudooptimos utilizando la metodologıapropuesta

El diseno Dπ-optimo, dado en la ecuacion (24) solo tiene dos puntos de soporte,

con los cuales no es posible realizar pruebas de bondad de ajuste. A continuacion se

mostrara el procedimiento para aumentar dicho numero a partir de la metodologıa

propuesta en la seccion 4.1.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

134 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

En la Tabla 4 se muestran los disenos seudo-optimos donde se incorpora el nuevo

punto que satisface la ecuacion (16) donde δ ∈ (0.285, 0.5) con incrementos de 0.05,N = 20 corridas experimentales y EfξDπ

(ξN ) = 0.95. Los lımites del intervalo para

δ se escogieron de tal forma que existiera solucion para la ecuacion (16) y con la

condicion de que el nuevo diseno otorgara al menos el 50% al diseno D-optimo.

Tabla 4: Disenos seudo-optimos con tres puntos de soporte. Fuente: elaboracionpropia

δ ξN

0.285 ξN1=

0.94 3.827 6.8220.35 0.35 0.3

0.335 ξN2=

0.94 3.827 7.630.35 0.35 0.3

0.385 ξN3=

0.94 3.827 8.3140.3 0.3 0.4

0.435 ξN4=

0.94 3.827 8.930.27 0.27 0.46

0.485 ξN5=

0.94 3.827 9.500.25 0.25 0.5

5.4. Distribucion empırica del estadıstico −2Log(Λ) y calculode potencia de los disenos seudooptimos

La metodologıa consiste en escoger los disenos que maximicen la prueba de falta

de ajuste del modelo. Siguiendo el algoritmo mostrado en la seccion 4.1. En la

Tabla 5 se muestra el numero de simulaciones y la diferencia, en norma, de los

cuantiles calculados con las distribuciones empıricas.

De acuerdo con los resultados de la Tabla 5 y con un ǫ = 0.05, el numero de

simulaciones apropiado para encontrar la distribucion empırica del estadıstico

−2Log(Λ) es Nsim = 10000 para los disenos ξN1hasta ξN4

y para el diseno ξN5es

de Nsim = 5000.

Tabla 5: Normas de las diferencias de los cuantiles para distintos Nempi. Fuente:elaboracion propia

Nempi ||QempA,(1−α) −QempD,(1−α)||ξN1

ξN2ξN3

ξN4ξN5

500 0.26 0.36 0.231 0.31 0.16

1000 0.20 0.27 0.20 0.24 0.09

2000 0.11 0.14 0.128 0.16 0.07

5000 0.08 0.09 0.11 0.07 0.028

10000 0.03 0.012 0.02 0.019 0.0152

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 135

Para determinar la mejor eleccion de la constante de ponderacion δ, se realiza un

estudio de simulacion descrito en la seccion 4.1, de tal forma que el diseno para

escoger sera aquel que maximice la potencia de la prueba de falta de ajuste.

Despues de realizar el proceso de simulacion propuesto se halla el grafico de las

potencias para los cinco disenos seudo-optimos con diferentes valores de α, verFigura 4. Se observa que el diseno seudo-optimo que presenta la mayor potencia

de la prueba de falta de ajuste es el diseno ξN1el cual es:

ξN1=

0.94 3.827 6.8220.35 0.35 0.3

, (25)

Figura 4: Potencia de la prueba de falta de ajuste con N = 20. Fuente: elaboracionpropia.

Este diseno permite validar el supuesto de falta de ajuste del modelo, lo cual como

ya se menciono, es muy util cuando no se tiene certeza del modelo. Tambien, se

interpreta de la siguiente manera: de las 20 corridas experimentales, siete se deben

realizar con una concentracion de 0.94 mM, otras siete con una concentracion de

3.827 mM y las 6 restantes se haran con una concentracion 6.822 mM.

En la Figura 5 se muestra el grafico de dispersion con los puntos de soporte del

diseno (25).

6. Conclusion y discusion

A partir del estudio realizado en este artıculo, con el fin de aumentar el numero

de puntos de soporte en un diseno Dπ-optimo se puede concluir lo siguiente:

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

136 Cristian Fernando Tellez Pinerez & Vıctor Ignacio Lopez Rıos

0 5 10 15 20 25 30

0

2

4

6

8

10

Concentración(mM)

Cre

cim

ient

o

Figura 5: Puntos de soportes del diseno seudo-optimo. Fuente: elaboracion propia.

Se realizo una generalizacion de la metodologıa de O’Brien (1995) para adi-

cionar puntos de soporte a los disenos D-optimos, desde el punto de vista de

los disenos Dπ-optimo, se encontro una expresion para la funcion de sensibi-

lidad en terminos del numero de parametros p, la constante de ponderacion

δ, y la eficiencia del diseno ξN . Esta expresion fue utilizada para encontrar

los disenos seudo-optimos con mas de p puntos de soporte, que permitan

validar el supuesto de falta de ajuste del modelo.

Para el modelo de decrecimiento exponencial se encontro que, utilizando la

metodologıa, todos los disenos resultantes tienen potencias altas.

Es indispensable seguir investigando con otras alternativas para el aumento

del numero de puntos de soporte del diseno optimo y proponer otras metodo-

logıas para otros criterios de optimalidad, como por ejemplo, c-optimalidad,

entre otros.

Recibido: 18 de abril de 2013

Aceptado: 1 de agosto de 2013

Referencias

Argumedo-Galvan, S. & Lopez, V. (2011), ‘Estrategia de adicion de puntos de

soporte para un diseno D-optimo’, VIII Coloquio Internacional de EstadısticaMetodos Estadısticos Aplicados a Finanzas y Gestion de Riesgo pp. 1–17.

Atkinson, A., Donev, A. & R., T. (2007), Optimum experimental designs with SAS,Oxford University Press, New York.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Propuesta para aumentar los puntos experimentales 137

Cardona, J., Lopez, V. I. & Correa, J. C. (2012), ‘Disenos optimos bayesianos para

estimacion de parametros en farmacocinetica’, Comunicaciones en Estadıstica5(1), 97–112.

Chaloner, K. & Larntz (1989), ‘Optimal bayesian design applied to logistic regres-

sion experiments’, Journal of Statistical 1, 191–208.

Fedorov, V. & Hackl, P. (1997), ‘Model oriented design of experiments.’, LectureNotes in Statistics .

Gaffke, N. (1987), ‘On D-optimality of exact linear regression designs with mini-

mum support’, Journal of Statistical Planning and Inference 15, 189–204.

Inderjit, J. C. & Olofsdotter, M. (2002), ‘Joint action of phenolic acid mixtures and

its significance in allelopathy research’, Physiologia Plantarum 114, 422–428.

Kiefer, J. (1959), ‘Optimum experimental designs’, Journal of the Royal StatisticalSociety 21, 272–319.

Kiefer, J. & Wolfowitz, J. (1959), ‘Optimum designs in regression problems’, An-nals of Mathematical Statistics 30(2), 271–294.

Lopez, V. I. (2008), Disenos optimos para discriminacion y estimacion en mode-

los no lineales, PhD thesis, Centro de Investigacion en Matematicas, A.C,

Guanajuato, Mexico.

Lopez, V. I. & Ramos, R. (2007), ‘Una introduccion a los disenos optimos’, RevistaColombiana de Estadıstica 30(1), 37–51.

O’Brien, T. (1992), ‘A note on quadratic designs for nonlinear regression models’,

Biometrika 79, 847–859.

O’Brien, T. (1995), ‘Optimal design and lack of fit in nonlinear regression models’,

Statistical modelling, Lecture Notes in Statistics 104, 201–206.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en EstadısticaDiciembre 2013, Vol. 6, No. 2, pp. 139–156

Copulas en geoestadıstica o lo que se puede hacer

con coordenadas y estructuras de dependencia

Copulas in geostatistic or what can be done with coordinates and

dependency structures

Danna Lesley Cruz Reyesa

[email protected]

Resumen

Es comun en geoestadıstica utilizar metodos como el variograma o el coeficiente

de correlacion para describir la dependencia espacial, y kriging para realizar inter-

polacion y prediccion, pero estos metodos son sensibles a valores extremos y estan

fuertemente influenciados por la distribucion marginal del campo aleatorio. Por

tanto, pueden conducir a resultados poco fiables. Como alternativa a los mode-

los tradicionales de geoestadıstica se considera el uso de las funciones copula. La

copula es ampliamente usada en el campo de las finanzas y ciencias actuariales y

debido a sus resultados satisfactorios empezaron a ser consideradas en otras areas

de aplicacion de las ciencias estadısticas. En este trabajo se muestra el efecto de

las copulas como una herramienta que presenta un analisis geoestadıstico bajo to-

do el rango de cuantiles y una estructura de dependencia completa, considerando

modelos de tendencia espacial, distribuciones marginales continuas y discretas y

funciones de covarianza. Se presentan tres metodos de interpolacion espacial: el

primero corresponde al indicador kriging y kriging disyuntivo, el segundo metodo

se conoce como el kriging simple y el tercer metodo es una prediccion plug-in y la

generalizacion del kriging trans-gaussiano. Estos metodos son utilizados con base

en la funcion copula debido a la relacion que existe entre las copulas bivariadas y

los indicadores de covarianzas. Se presentan resultados obtenidos para un conjunto

de datos reales de la ciudad de Gomel que contiene mediciones de isotopos radio-

activos, consecuencia del accidente nuclear de Chernobil. Finalmente, se estudian

las copulas discretas y se aplican a un conjunto de datos simulados, esto permite

realizar una extension a los trabajos usuales de copulas en geoestadıstica.

Palabras clave: copulas, geoestadıstica, estadıstica espacial, estadıstica compu-

tacional, tendencia.

aInvestigadora Semillero IPREA. Departamento de Matematicas. Universidad Distrital Fran-cisco Jose de Caldas. Colombia

139

140 Danna Lesley Cruz Reyes

Abstract

It is common in geostatistics to use methods such as the variogram or the correla-

tion coefficient to describe spatial dependence, and kriging to make interpolation

and predictions, but these methods are sensitive to extreme values and are strongly

influenced by marginal distribution of the random field. Hence they can lead to

unreliable results. As an alternative to traditional models in geostatistics are con-

sidered the use of the copula functions. Copula is widely used in the finance and

actuary fields and due to satisfactory results they started to be considered in other

areas of application of statistical sciences. This work shows the effect of copulas

as a tool that presents a geostatistical analysis under the range of quantiles and

a dependence structure, considering models of spatial tendency, continuous and

discrete marginal distributions and covariance functions. Three interpolation met-

hods are shown: the first is the kriging indicator and disjunctive kriging, the second

method is known as the simple kriging and the third method is a plug-in prediction

and the generalization of the trans-Gaussian kriging, these methods are used based

on the copula function due to the existing relationship between bivariate copulas

and covariance indicators. Results are presented for a set of actual data in the city

of Gomel that contains measurements of radioactive isotopes, consequence of the

Chernobyl nuclear accident. Finally, discrete copulas are studied and applied to

a set of simulated data, this allows an extension of the usual works of copulas in

Geostatistics.

Keywords: copulas, geostatistics, spatial statistics, computational statistics, trend.

1. Introduccion

Las copulas describen la estructura de dependencia entre variables aleatorias, no es

extrano que la palabra copula insinua vınculo o union, proviene del latın y su signi-

ficado es conexion o lazo que une dos cosas distintas, fue utilizada por primera vez

por Sklar en su celebre teorema en 1959, para describir funciones de distribucion

multivariadas definidas sobre el cubo unidad [0, 1]n enlazando variables aleatorias

con funciones de distribucion de una sola dimension (Ayyad et al. 2008).

En geoestadıstica se analizan las realizaciones de un campo aleatorio Z(s) : s ∈D donde D ⊂ R

n, cuya realizacion, z(s) representa el valor de interes registrado

en la medicion con respecto a cierto sistema de referencia s.

En la actualidad existen herramientas para modelar la variabilidad espacial. La

primera fue usada en principios de los cincuenta por Danie G. Krige, en Sudafrica,

para ampliar tecnicas estadısticas para la estimacion de las reservas de minerales

(Bardossy & Li 2008). En los anos sesenta el trabajo de Krige fue formalizado por

el matematico Georges Matheron, desde entonces ha sido ampliamente utilizado

en areas como la minerıa, la industria petrolera, hidrologıa, meteorologıa, ocea-

nografıa, el control del medio ambiente, la ecologıa del paisaje y la agricultura.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 141

A pesar de estos desarrollos, el modelado espacial a menudo se basa en hipotesis

gaussianas, que muchas veces no se consideran realistas para los tipos de datos y

se reportan datos atıpicos que causan problemas en las investigaciones (Bardossy

& Li 2008).

Bardossy en el ano 2006 fue el pionero en proponer el uso de copulas para des-

cribir variabilidad espacial, Bardossy & Li (2008) realizan modelacion de campos

aleatorios continuos, Kazianka & Pilz (2010) adoptan la metodologıa de Bardossy

y realiza una extension considerando modelos de tendencia y campos aleatorios

discretos, Kazianka & Pilz (2011) muestran como se incorporan en un marco ba-

yesiano mediante la asignacion de probabilidades apriori de todos los parametros

del modelo, en este trabajo se propone una extension a estos modelos incluyendo

las copulas radialmente asimetricas que resultan mas eficientes que las hasta ahora

usadas.

Con el fin de describir la estructura de dependencia en un campo aleatorio en el

area de geoestadıstica, se enfoca en los metodos clasicos como propiedades de sua-

vizamiento de los campos aleatorios, la funcion de autocorrelacion, variogramas y

tecnicas para la interpolacion espacial, kriging simple, kriging universal, cokriging,kriging disyuntivo, kriging bayesiano entre otros (Diggle & Ribeiro 2007). En este

trabajo se presenta el analisis de estructura de dependencia a traves de copulas

proponiendo una familia de copulas radialmente asimetricas.

Bardossy & Li (2008) proponen una familia de distribuciones que se obtienen a

traves de una transformacion no-monotonica de la copula gaussiana multivariante,

llamada copula V−transformada. En este trabajo se proponen dos extensiones

de esta metodologıa: la primera es la inclusion de tendencia y la segunda es el

metodo de indicador kriging e interpolacion usando copulas que se presentaran

mas adelante.

El trabajo se organiza de la siguiente manera. La seccion 2, describe como las

copulas seran implementas en los campos aleatorios, en la seccion 3, se presenta

un metodo de exploracion de datos utilizando las funciones copula. La seccion 4 se

refiere a la copula gaussiana mientras que la Seccion 5 se presenta la familia de las

copulas no gaussianas. Los resultados de la estimacion y la copula son presentados

en la Seccion 6, para analizar el conjunto de datos llamados Gomel, en la Seccion

7 se presentan copulas discretas y finalmente, en la ultima seccion se presentan las

conclusiones.

2. Descripcion del campo aleatorio usando copulas

Bardossy (Bardossy & Li 2008) presento un metodo diferente a los metodos clasi-

cos mencionados en la introduccion para el modelado de dependencia espacial

por medio de copulas, se pretende describir todas las distribuciones multivariadas

necesarias del campo aleatorio por medio de copulas.

Se asume un campo aleatorio estacionario Z(x)|x ∈ D, donde D ∈ R2 es el

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

142 Danna Lesley Cruz Reyes

area de interes. Se nota h el vector de separacion entre dos puntos. Sea FZ la

distribucion univariante del proceso espacial, debido a que el campo aleatorio es

estacionario FZ es la misma para cada localizacion x ∈ D.

Con el teorema de Sklar, se puede establecer un modelo multivariante del campo

tomando FZ = F1 = F2 = · · · = Fn tal que, su destitucion conjunta H(x1, . . . , xn)

de las variables x1, . . . , xn,

H(x1, . . . , xn) = C(F1, F2, . . . , Fn), (1)

Entonces, la relacion entre dos localizaciones separadas por el vector h esta carac-

terizada por la distribucion bivariante:

P (Z(x) ≤ z1, Z(x+ h) ≤ z2) = Ch(FZ(z1), FZ(z2)),

Por tanto, la estructura de dependencia quedarıa descrita por la funcion copula

Ch en funcion del vector h, esto implica que la copula podrıa describir la estruc-

tura completa de dependencia a diferencia de los variogramas que solo describen

con respecto a la media. Por otro lado, la eleccion de la copula C sera determi-

nada aplicando varias familias de copulas al modelo y comparando los diferentes

resultados.

Es de esperarse que no todas las familias de copulas continuas sean apropiadas para

este modelo, de manera natural se puede suponer una copula simetrica, debido a

que la dependencia entre dos localizaciones x1 y x2 es la misma que x2 y x1, de

manera general se tiene que:

Ch(u1, . . . , un) = Ch(uπ(1), . . . , uπ(1)), (2)

para una permutacion arbitraria π.

Ademas, se deben anadir las siguientes restricciones:

Cuando h → ∞ entonces, Ch(u) → Πn(x), ya que se quiere independencia

sobre localizaciones muy alejadas entre sı,

Cuando h → 0 entonces, Ch(u) → Mn(x) o equivalentemente, en localiza-

ciones muy proximas entre sı, se quiere dependencia muy fuerte.

Donde, la Πn(x) representa la copula de independencia y Mn(x) la copula mınima.

Estas condiciones son fundamentales para la construccion de la copula, permite

realizar un filtro de las copulas que se podrıan proponer, por ejemplo, la familia

Farlie-Gumbel-Morgenstern, no son utiles.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 143

3. Copulas empıricas bivariadas

Las copulas empıricas son usadas por primera vez en el area de geoestadıstica,

por Haussler quien implemento las copulas bivariadas empıricas, describiendo la

estructura de dependencia entre variables aleatorias. En este artıculo se consideran

este tipo de copulas como una metodologıa de exploracion de datos, de tal forma

que se pueda considerar la forma de la distribucion que puedan tener, para esto

el campo aleatorio debe cumplir la condicion de estacionariedad fuerte y como

consecuencia se pueden obtener las siguientes ventajas (Haslauer et al. 2010):

La distribucion marginal, que podrıa distorsionar la estructura de depen-

dencia, se filtra usando copulas. Ası, quedarıa definida unicamente por los

datos.

La copula permiten una mejora en la cuantificacion de la incertidumbre en

la interpolacion.

Un modelo estocastico completo es la columna vertebral para el analisis

geoestadıstico.

3.1. Algoritmo para la aplicacion de las copulas empıricasbivariadas

Las copulas son usadas para explorar la estructura de dependencia entre dos va-

riables aleatorias sin considerar las distribuciones marginales de cada variable. Las

copulas empıricas son el caso mas simple de construccion, pero no es computacio-

nalmente optimo, aun ası, estas copulas se pueden evaluar en diferentes direcciones

y angulos para cada par de puntos y generar una idea de la forma de la estructura

de dependencia del campo aleatorio.

Segun Haslauer (Haslauer et al. 2010) se debe considerar el campo aleatorio es-

tacionario, la construccion de la copula correspondiente se puede realizar con el

siguiente algoritmo:

1. Se calcula la copula empırica marginal FZ(z) de las observaciones.

2. Para algun vector h dado, se calcula el conjunto S(h):

S(h) = (FZ(z(si)), FZ(z(sj)))||si − sj | ≈ h (3)

3. Debido a que S(h) es un conjunto de pares de puntos definidos en el cuadrado

unidad, se puede calcular la funcion de densidad de la copula empırica dado

un vector h usando la siguiente ecuacion:

gi,j = c∗(2i− 1

2k,2j − 1

2k

)

=k2

|S(h)|; (u, v) ∈ S(h)|

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 143

3. Copulas empıricas bivariadas

Las copulas empıricas son usadas por primera vez en el area de geoestadıstica,

por Haussler quien implemento las copulas bivariadas empıricas, describiendo la

estructura de dependencia entre variables aleatorias. En este artıculo se consideran

este tipo de copulas como una metodologıa de exploracion de datos, de tal forma

que se pueda considerar la forma de la distribucion que puedan tener, para esto

el campo aleatorio debe cumplir la condicion de estacionariedad fuerte y como

consecuencia se pueden obtener las siguientes ventajas (Haslauer et al. 2010):

La distribucion marginal, que podrıa distorsionar la estructura de depen-

dencia, se filtra usando copulas. Ası, quedarıa definida unicamente por los

datos.

La copula permiten una mejora en la cuantificacion de la incertidumbre en

la interpolacion.

Un modelo estocastico completo es la columna vertebral para el analisis

geoestadıstico.

3.1. Algoritmo para la aplicacion de las copulas empıricasbivariadas

Las copulas son usadas para explorar la estructura de dependencia entre dos va-

riables aleatorias sin considerar las distribuciones marginales de cada variable. Las

copulas empıricas son el caso mas simple de construccion, pero no es computacio-

nalmente optimo, aun ası, estas copulas se pueden evaluar en diferentes direcciones

y angulos para cada par de puntos y generar una idea de la forma de la estructura

de dependencia del campo aleatorio.

Segun Haslauer (Haslauer et al. 2010) se debe considerar el campo aleatorio es-

tacionario, la construccion de la copula correspondiente se puede realizar con el

siguiente algoritmo:

1. Se calcula la copula empırica marginal FZ(z) de las observaciones.

2. Para algun vector h dado, se calcula el conjunto S(h):

S(h) = (FZ(z(si)), FZ(z(sj)))||si − sj | ≈ h (3)

3. Debido a que S(h) es un conjunto de pares de puntos definidos en el cuadrado

unidad, se puede calcular la funcion de densidad de la copula empırica dado

un vector h usando la siguiente ecuacion:

gi,j = c∗(2i− 1

2k,2j − 1

2k

)

=k2

|S(h)|; (u, v) ∈ S(h)|

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

144 Danna Lesley Cruz Reyes

donde i−1k < u < i

k ,j−1k < v < j

k , y |S(h)| denota el numero de parejas que

tienen como vector de separacion h.

4. Copula gaussiana

Debido a que los campos aleatorios mas importantes son los gaussianos, es de espe-

rarse que las copulas tambien lo sean, la copula gaussiana definida en la ecuacion 4

con marginal FZ = Φµ,σ2 , donde µ y σ denota la media y varianza respectivamente,

es muy utilizada en campos aleatorios,

CGΣ = Φ0,Σ(Φ

−1(u1), . . . ,Φ−1(un)). (4)

Las ventajas de trabajar con estas copulas es que son invariantes bajo transforma-

ciones estrictamente crecientes de las variables aleatorias, ademas de cumplir con

las condiciones anteriormente dadas para campos aleatorios. La copula gaussiana

se convierte en una funcion de h, suponiendo que la funcion de correlacion sigue

uno de los modelos parametricos conocidos, por ejemplo, el modelo Matern.

La copula gaussiana toma la forma:

C(u1, u2; θ) = ΦG(Φ−1(u1),Φ

−1(u2)),

donde Φ es la funcion de distribucion normal estandar y ΦG(u1, u2) es la distri-

bucion normal bivariada con parametro de correlacion θ restringido al intervalo

(−1, 1).

La copula normal permite por igual, grados de dependencia positiva o negativa,

y por esto que es una de las mas utilizadas. Pero a pesar de esto, esta copula

es simetrica y en muchos casos, los datos reales no cumplen esta propiedad; para

solucionar este problema se utiliza una nueva familia de copulas que permiten

asimetrıa en los datos y se presenta en la siguiente seccion.

5. Familia de copulas no gaussianas

En este capıtulo se presenta una familia de copulas asimetricas multivariadas no

gaussianas, debido a la necesidad que surge en geoestadıstica para solucionar la

asimetrıa por naturaleza de este tipo de datos, la copula gaussiana no solo expresa

simetrıa, sino tambien dependencia de simetrıa radial, tal que los cuantiles altos y

bajos de la distribucion tienen propiedades iguales de dependencia. Este supuesto

pocas veces se cumple con datos reales.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 145

La construccion de una familia de copulas no es trivial, actualmente existen nu-

merosas copulas, pero no cumplen las condiciones necesarias para ser utilizadas

en geoestadıstica, y en otros casos la construccion es imposible debido a pro-

blemas computacionales. Por tanto, se presenta la siguiente definicion de copula

V-transformada:

Sea Y ∼ N(0,Γ) una variable aleatoria n− dimensional con media 0T = (0, . . . , 0)y matriz de correlacion Γ. Todas las marginales se suponen con varianza unitaria.

Sea X definida para cada coordenada j = 1, . . . , n de tal forma:

Xj =

k(Yj −m)α Yj ≥ m,

m− Yj Yj < m,

donde k es una constante positiva y α y m numeros reales arbitrarios, a manera de

ejemplo, en la Figura 1, se presentan algunas transformaciones, se puede observar

que la copula recibe este nombre debido a la forma de V en la grafica.

−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.50

0.5

1

1.5

2

2.5

3

3.5

Variable Normal

Nor

mal

tran

form

ada

m=0, k=1, alpha=1m=0.5, k=2.5, alpha =0.5m=0.5, k=2, alpha =0.5

Figura 1: Transformaciones V -normal. Fuente: elaboracion propia.

La funcion de distribucion marginal de X es:

H(x) = P (X ≤ x)

= P (Y <(xk

) 1

α

+m) + P (Y > x−m)

= Φ((xk

) 1

α

+m)− Φ(−x+m)

y la funcion de densidad:

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

146 Danna Lesley Cruz Reyes

h(x) =1

(xk

) 1

α−1

φ((xk

) 1

α

+m) + φ(−x+m)

tal que Φ(.) y φ(.) son las funciones de distribucion y densidad de la normal

estandar, respectivamente.

La consecuencia mas importante es que para valores menores que m, los cuales

son los valores menores en el espacio original, se convierten, en el nuevo espacio en

los valores mayores; tal que el valor m se convierte en el valor mas pequeno para

el nuevo espacio, en cuanto a los valores mayores que m en el espacio original,

la transformacion produce un concentramiento o una division dependiendo de la

configuracion de k y α. Este efecto produce que la dependencia asociada con los

valores cercanos o iguales a m influya en la dependencia de los valores bajos en el

nuevo espacio (Jing 2010).

El efecto de la transformacion tambien puede explicarse por el cambio en la distri-

bucion marginal. La Figura 2 muestra como la densidad en la distribucion cambia

despues de la transformacion. Se pueden notar las siguientes caracterısticas:

Por lo general, los datos se dispersan despues de la transformacion.

Si los valores de k y α son invariables, pero el valor de m incrementa, la den-

sidad esta mas concentrada a la mediana y la distribucion es mas simetrica.

Si k = 1, α = 1 la transformada V−normal se aproxima a la distribucion χ2

con un grado de libertad.

La Figura 3 muestra la densidad de algunas copulas bivariadas, en todos los casos

ρ = 0.8 pero m va aumentando, tal que m = 0, 1.3, 15 y 50. Se puede notar que

las copulas son asimetricas y similares a los resultados de la distribucion empırica.

Ademas, cada vez que incrementa m la distribucion es mas simetrica, ası que se

puede concluir que si m → ∞ la copula converge a la copula gaussiana (Jing 2010).

Para m = 0, k = 1 y α = 1 la copula que se genera es la copula χ2, en la figura se

ubica en la esquina superior derecha.

6. Catastrofe en Chernobil

En abril de 1986, ocurrio el peor accidente nuclear en Chernobil en la antigua

Union Sovietica (ahora Ucrania). La central nuclear de Chernobil, situada a 100

kilometros al norte de Kiev, tenıa 4 reactores. En un dıa de abril a las 1:23 a.m.

la reaccion en cadena en un reactor perdio el control, la creacion de explosiones

y una bola de fuego volo el acero pesado del reactor y la tapa de concreto. El

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 147

Figura 2: Transformaciones V -Normal con parametros: m = 0, k = 1 y α = 1

(esquina superior izquierda), m = 0, k = 3 y α = 1 (esquina superior derecha),m = 0, k = 2.5 y α = 0.5 (esquina inferior izquierda) y m = 1, k = 2.5 y α = 0.5(esquina inferior izquierda). Fuente: elaboracion propia.

Figura 3: Copula V−transformada normal. Fuente: elaboracion propia.

desastre destruyo el reactor Chernobil-4 y mato a 30 personas, entre ellas 28 por

exposicion a la radiacion, 209 mas fueron tratadas por envenenamiento agudo por

radiacion y entre estos, 134 casos fueron confirmados. Grandes areas de Bielorrusia,

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

148 Danna Lesley Cruz Reyes

Ucrania, Rusia y mas alla estaban contaminadas en diversos grados. El desastre

de Chernobil fue un evento unico y el unico accidente en la historia de la energıa

nuclear comercial. Ahora, 26 anos despues del accidente todavıa mas de 3 millones

de ninos sufren de estos efectos, la zona alrededor del reactor todavıa esta muy

contaminada, la naturaleza esta muerta y no hay vida silvestre. En la region de

Gomel el gobierno ruso construyo una red donde se estudia la concentracion de la

cantidad de radiactividad. El conjunto de datos que se utiliza son mediciones de

Cs137, un isotopo radiactivo.

Se analiza el conjunto de datos que corresponde a 148 localizaciones xi = (x1i, x2i)T ,

i = 1, . . . , 148 en la region de Gomel. Los datos son observados diez anos despues

del accidente de Chernobil. En la Figura 4 se muestran las realizaciones donde se

encontro el isotopo radiactivo (cruces rojas), se puede ver que la mayorıa de los

valores son pequenos, sin embargo, en la parte noreste, noroeste y sur de la region

algunos valores relativamente grandes se producen.

El analisis de datos en copulas bivariadas permite la prediccion, en la Figura 4

se muestran las localizaciones observadas marcadas con una x roja, y los puntos

azules la grilla de interpolacion, donde se realizaran las respectivas predicciones.

−150 −100 −50 0 50 100 150−150

−100

−50

0

50

100

150

Figura 4: Observaciones y datos interpolados de los datos de Gomel. Fuente: ela-boracion propia.

Para encontrar una marginal univariada apropiada, se prueban las distribuciones

univariadas normal, gamma, transformacion box-cox, el valor generalizado extremo

(GEV) y la distribucion de log-normal, para todas ellas se calculan las estimaciones

de maxima verosimilitud, asumiendo que las observaciones son independientes. De

esta forma, la eleccion que se toma sera de la distribucion marginal box-cox con

parametro γ = 0.0032.

La seleccion de una copula gaussiana se puede justificar por medio del ajuste de

bondad que se presenta en Genest (Genest & Remillard 2008), es recomendable

realizar un numero grande de simulaciones, pero en este caso es casi imposible, ya

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 149

que la complejidad computacional es muy alta, por tanto, segun Genest (Genest

& Remillard 2008) se pueden realizar 150 simulaciones, los resultados de la prueba

muestran que:

Tabla 1: Valor p para el estadıstico de eleccion de la copula gaussiana. Fuente:elaboracion propia

Resultado p−valor con 95%

h 0− 10 10− 20 90− 100

Tn 0.33 0.999 0.99Sn 0.99 0.99 0.999

Los valores de la prueba de Kolmogorov−Smirnovparecen ser menores que los valo-

res de p para el de Cramer−vonMises prueba puesto que la prueba de Kolmogorov−Smirnov es insensible a valores extremos. Ademas, no existe un p− valor signifi-

cantemente pequeno, por tanto, se puede asumir que el modelo propuesto se ajusta

a los datos. A pesar de esto, se puede comparar en la Figura 5 la copula empırica

con la teorica, mostrando de manera grafica que el modelo no puede ser simetrico.

0 0.2 0.4 0.6 0.8 10

0.5

1

lag=

10

0 0.2 0.4 0.6 0.8 10

0.5

1

lag=

20

0 0.2 0.4 0.6 0.8 10

0.5

1

lag=

40

0 0.2 0.4 0.6 0.8 10

0.5

1

lag=

60

0 0.5 10

0.5

1

0

10

20

30

0 0.5 10

0.5

1

5

10

15

20

0 0.5 10

0.5

1

2468101214

0 0.5 10

0.5

1

246810

Figura 5: Grafico de dispersion de los pares de datos de rango transformados, esdecir, densidad de la copula empırica bivariado (columna de la izquierda), copulateorica bivariada gaussiana (columna de la derecha). Fuente: elaboracion propia.

Aun ası, se realiza la estimacion de los parametros, se utiliza el modelo de correla-

cion Matern incluyendo un termino efecto de pepita, con los valores de ν1 ∈ [0,∞]

que corresponde al parametro de rango, ν2 ∈ [0, 1] el parametro del efecto pepita y

κ es el parametro de suavizamiento. Entonces, se deben calcular cinco parametros,

los parametros correspondientes a la transformacion Box−cox, γ, y los parame-

tros de la funcion de correlacion θ = (ν1, ν2, κ). Los resultados son: γ = 0, 090,ν1 = 61.92, ν2 = 0.0539 y κ = 0.8650.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

150 Danna Lesley Cruz Reyes

Para la copula no gaussiana se estudiara la copula V−transformada, se selecciona

la distribucion marginal log Normal, con esto se pretende tomar en cuenta la

propiedad fundamental de las copula que permite a la estructura de dependencia

no ser influenciada con las distribuciones marginales. De la misma forma que en

la anterior seccion, la seleccion de la copula V se puede justificar por medio del

ajuste de bondad de Genest (Genest & Remillard 2008), los resultados de la prueba

muestran que:

Tabla 2: Valor p para el estadıstico de eleccion de la copula V - Normal. Fuente:elaboracion propia

h 0− 10 10− 20 90− 100

Tn 0.99 0.999 0.99Sn 0.99 0.99 0.99

Al realizar una comparacion con los valores p de la copula gaussiana, se puede

notar que son mas bajos que los de la copula V− transformada. Por tanto, se

puede asumir que el modelo propuesto se ajusta a los datos. Se puede comparar

en las Figura 7) y 8 la copula empırica con la teorica, mostrando un mejor ajuste

que la copula gaussiana de la 5.

0 0.2 0.4 0.6 0.8 10

0.5

1

lag=

20

0 0.2 0.4 0.6 0.8 10

0.5

1

lag=

40

0 0.2 0.4 0.6 0.8 10

0.5

1

lag=

60

0 0.5 10

0.5

1

5

10

15

20

25

0 0.5 10

0.5

1

5

10

15

0 0.5 10

0.5

1

2

4

6

Figura 6: Grafico de dispersion de los pares de datos de rango transformados, esdecir, densidad de la copula empırica bivariado (columna de la izquierda), copulateorica bivariada χ2-copula (columna de la derecha). Fuente: elaboracion propia.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 151

En este caso, se debe calcular 6 parametros, los parametros correspondientes a

la marginal Log Normal µ y σ2, a la funcion de correlacion, que en este caso

se usara Matern θ = (ν1, ν2, κ) y el parametro correspondiente a la copula V ,

m = 1, 27, k = 1 y α = 1. Los resultados son: µ = 0, 595, σ = 1, 37, ν1 = 100, 023,ν2 = 0, 0576 y κ = 10.

En ausencia de datos de prueba, que se utiliza para realizar una adecuada valida-

cion cruzada como un metodo cuantitativo para evaluar el desempeno del modelo,

se utiliza el valor de MSE y las respectivas predicciones para cada modelo se

pueden observar en la Figura 7.

Tabla 3: Valores de MSE para modelos de dependencia. Fuente: elaboracion propia

V−transformada gaussiana

16.835 17.9995

−100 −50 0 50 100

−100

−80

−60

−40

−20

0

20

40

60

80

100

5

10

15

20

25

Figura 7: Datos Gomel: Prediccion de la media para modelos gaussianos. Fuente:elaboracion propia.

El valor de MSE = 16, 835 resulta menor para la copula no gaussiana, esto de-

muestra un mejor desempeno del modelo. Ademas en la Figura 8 se observa que

los intervalos de confianza son mucho mas cortos para los modelos basados en la

copula V− transformada, un hecho que tambien se refleja en las predicciones de

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

152 Danna Lesley Cruz Reyes

−100 −50 0 50 100

−100

−80

−60

−40

−20

0

20

40

60

80

100

2

4

6

8

10

12

14

16

18

20

Figura 8: Datos Gomel: Prediccion de la desviacion estandar para modelos gaus-sianos. Fuente: elaboracion propia.

las desviaciones estandar.

7. Copula discreta

En las secciones anteriores se ha descrito la forma como se utilizan las copulas

para construir estructuras de dependencia, pero unicamente se consideran variables

aleatorias con distribuciones marginales continuas y en algunos casos se puede

presentar la necesidad de implementar otro tipo de copulas.

En algunos casos geoestadısticos, se pueden tener variables aleatorias cuyas rea-

lizaciones pertenezcan al conjunto de los numeros naturales, de tal forma que, lo

mas conveniente es utilizar distribuciones discretas. En el marco de este artıculo,

donde el principal objetivo es utilizar copulas para datos geoestadısticos y siguien-

do el teorema de Sklar (1) el cual garantiza la existencia de la copula para una

funcion de distribucion conjunta H(X,Y ) de las variables aleatorias X e Y , se

propone una extension a este teorema considerando X y Y variables aleatorias

discretas. Kazianka (Kazianka & Pilz 2010) introduce copulas en geoestadıstica

para marginales discretas, con base en este ultimo artıculo se realiza este capıtulo,

sin embargo, se considera por una metodologıa diferente para realizar la inferencia

y estimacion de parametros, ya que la complejidad computacional de Kazianka es

alta.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 153

7.1. Inferencia para copulas con marginales discretasen geoestadıstica

Las copulas con marginales discretas no difieren demasiado para el caso continuo,

se deben tener en cuenta los anteriores resultados, pero se aplican de la misma

forma.

La estructura de dependencia esta caracterizada por las familias de copulas pa-

rametricas, por ejemplo, la copula gaussiana definida como:

Cµ,Σ(u, v) = ΦΣ(φ−1(u), φ−1(v)) (5)

Por tanto, es posible realizar una estimacion de maxima verosimilitud, consideran-

do un modelo generativo donde los marginales uniformes se generan a partir de la

densidad de la copula, y a su vez, se utilizan para generar las variables discretas

con el uso de la distribucion inversa de la marginal de las funciones de distribu-

cion. Esta marginal puede ser de cualquier familia parametrizada de distribuciones

univariantes discretas.

A manera de ejemplo, se utiliza la simulacion realizada por Diggle (Diggle &

Ribeiro 2007) con respuestas Poisson y un proceso gaussiano en el programa R.

Se considero un proceso gaussiano para simular las localizaciones con µ = 0.5mσ2 = 3 y funcion de correlacion Matern con κ = 1.5 y φ = 0.2. Las realizaciones sonexponenciales con media Poisson, µi = exp(0.5+z(xi)). EL resultado y el computo

de la copula se realiza en MATLAB. En la Figura 9 se muestra la simulacion

realizada.

De la misma forma que procedio anteriormente, se realiza una exploracion de datos

de la estructura de dependencia utilizando la copula empırica, en la Figura 10 se

muestra la estructura de dependencia para lags = 0.15, 0.19, 0.198, 0.21, se puede

notar una clara simetrıa en los puntos lo que puede indicar una copula gaussiana.

Esta copula se presenta en la Figura 11.

Los resultados muestran que es posible construir una estructura de dependencia

para copulas con marginales discretas, para el caso bivariado y que ademas re-

sulta flexible para la estructura de dependencia, sin embargo, matematicamente,

la generalizacion de este metodo no es una tarea trivial debido a la complejidad

computacional que se puede presentar para un caso multivariado (n > 2).

8. Conclusion

Si la estructura de dependencia entre una poblacion es relativamente homogenea,

entonces, las copulas pueden ser utiles, en el sentido de que se puede estimar a

partir de una muestra mucho menor que la necesaria, por ejemplo, para una ma-

triz de covarianza completa. Por otra parte, si las dependencias dentro de una

poblacion varıan notablemente para diferentes pares de datos, la copula gaussiana

carece de la flexibilidad para capturar las dependencias extremas. En tales casos,

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

154 Danna Lesley Cruz Reyes

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0

2

4

6

8

10

12

14

Figura 9: Simulacion proceso gaussiano con marginales Poisson. Fuente: elabora-cion propia.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

lag=

0.15

Figura 10: Copula empırica para simulacion proceso gaussiano con marginalesPoisson, h = 0.15. Fuente: elaboracion propia.

se puede aplicar otra copula de la familia elıptica, ya que esta parametrizada por la

misma matriz de covarianza de la copula gaussiana. Sin embargo, la copula gaus-

siana se prohıbe para dimensiones altas, ya que la evaluacion de la probabilidad

requiere un numero exponencial de evaluaciones de la gaussiana multivariada, que

se debe calcular numericamente convirtiendo el analisis en una labor imposible.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Copulas en geoestadıstica 155

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

lag=

0.2

0 0.5 10

0.5

1

0

20

40

60

80

100

Figura 11: Copula gaussiana con marginales Poisson. Fuente: elaboracion propia.

Este artıculo es producto de la tesis de maestrıa dirigida por el profesor Edilberto

Cepeda de la Universidad Nacional de Colombia.

Recibido: 04 de junio de 2013

Aceptado: 20 de septiembre de 2013

Referencias

Ayyad, C., Mateu, J. & Porcu, E. (2008), Inferencia y modelizacion mediantecopulas, Universidad Jaume.

Bardossy, A. & Li, J. (2008), ‘Geostatistical interpolation using copulas’, WaterResources Research 44(7).

Diggle, P. & Ribeiro, P. (2007), Model-based Geostatistics, Springer Series in Sta-

tistics, Springer.

Genest, C. & Remillard, B. (2008), ‘Validity of the parametric bootstrap for

goodness-of-fit testing in semiparametric models’, Annales de I’institut HenriPoincare (B) Probabilites et Statistiques 44(6), 1096–1127.

Haslauer, C., Li, J. & Bardossy, A. (2010), ‘Application of copulas in geostatis-

tics’, geoENV VII Geostatistics for Environmental Applications. QuantitativeGeology and Geostatistics 16, 395–404.

Jing, L. (2010), Application of copulas as a new geostatistical tool, PhD thesis,

Universitat Stuttgart, Holzgartenstr. 16, 70174 Stuttgart.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

156 Danna Lesley Cruz Reyes

Kazianka, H. & Pilz, J. (2010), ‘Copula based geostatistical modeling of continuous

and discrete data including covariates’, Stochastic environmental research andrisk assessment 24(5), 661–673.

Kazianka, H. & Pilz, J. (2011), ‘Bayesian spatial modeling and interpolation using

copulas’, Computers & Geosciences 37(3), 310–319.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 157–174

Comparacion de intervalos de confianza parael coeficiente de correlacion

Comparison of confidence intervals for the correlation coefficient

Liliana Vanessa Pachecoa

[email protected] Carlos Correab

[email protected]

Resumen

La construccion de intervalos de confianza para la estimacion de la correlacion en

la distribucion normal bivariable y multivariable, ρ, es un problema importante

en el trabajo estadıstico aplicado. Uno de los propositos principales de este tra-

bajo es hacer una revision de los diferentes procedimientos para su construccion.

Se realizo ademas, un estudio de simulacion para analizar el comportamiento de

los niveles de confianza reales y compararlos con los teoricos, analizar el compor-

tamiento de las longitudes de los intervalos de confianza logrados por los nueve

metodos considerados y determinar cual metodologıa provee los intervalos mas

cortos. Ası como tambien se obtuvo un indicador que resume de manera mas efec-

tiva la calidad del intervalo analizado.

Palabras clave: coeficiente de correlacion, estimacion, intervalo de confianza.

Abstract

The construction of confidence intervals to estimate the correlation in the normal

bivariate and multivariate distribution, ρ, is an important problem in applied sta-

tistical work. One of the main purposes of this work is to make a review of the

different procedures for their construction. In addition, a simulation study was

conducted to analyze the behavior of real confidence levels and compare them to

theoretical ones, analyze the behavior of the lengths of the confidence intervals

achieved by the nine methods considered and determine which methodology pro-

vides the shortest intervals. Likewise an indicator that summarizes more effectively

the quality of the analyzed interval was also obtained.

Keywords: correlation coefficient, estimation, confidence interval.

aUniversidad Nacional de Colombia, sede Medellın. Escuela de Estadıstica. Colombia.bUniversidad Nacional de Colombia, sede Medellın. Escuela de Estadıstica. Colombia.

157

158 Liliana Vanessa Pacheco & Juan Carlos Correa

1. Introduccion

El coeficiente de correlacion es una de las medidas estadısticas mas usadas dentro

del trabajo aplicado. Algunas de sus propiedades fueron estudiadas por Zheng &

Matis (1994), donde presentan y demuestran las que consideron las mas destacadas:

1. |R| ≤ 1.

2. Si |R| = 1 entonces los pares (x1, y1), (x2, y2), . . . , (xn, yn) yacen en una lınea

recta.

3. Recıprocamente, si los (x1, y1), (x2, y2), . . . , (xn, yn) yacen en una lınea recta,

entonces |R| = 1.

Debido a su amplia utilizacion, varias son sus interpretaciones. Falk & Well (1997)

sustentan que el coeficiente de correlacion de Pearson, ρ, es ampliamente usado en

campos como la educacion, psicologıa, y todas las ciencias sociales, y el concepto

es empleado en diversas metodologıas de tipo estadıstico.

La estimacion del coeficiente de correlacion por medio de intervalos es importante,

y para ello se disponen de diversos metodos. La metodologıa quiza mas conocida es

la propuesta originalmente por Fisher en la cual se realiza una transformacion del

coeficiente de correlacion muestral, r, y asumiendo normalidad asintotica, se desa-

rrolla un intervalo para el coeficiente de correlacion poblacional ρ (Krishnamoorthy

& Xia 2007). Tambien se conocen transformaciones adicionales hechas por Hote-

lling (1953) a la propuesta inicial de Fisher.

El problema para el analista es la carencia de reglas sobre cual formula es preferi-

ble. Para esto se pretende realizar un estudio de simulacion que permita analizar

el comportamiento de los niveles de confianza reales y compararlos con los teoricos

para los diversos intervalos disponibles. Ası como tambien, hacer una comparacion

de las longitudes del intervalo obtenido por las diferentes metodologıas y la imple-

mentacion de un indicador que permita relacionar los dos criterios de evaluacion

anteriormente mencionados.

Algunas de las metodologıas empleadas para la construccion de los intervalos de

confianza pueden encontrarse en Fisher (1921), Hotelling (1953), Pawitan (2001),

Efron (1979) y Krishnamoorthy & Xia (2007).

Ademas, en Krishnamoorthy & Xia (2007) se pueden encontrar los resultados de

estudios comparativos realizados previamente para tres metodos de construccion

de intervalos, en los cuales la metodologıa consistio en la obtencion de lımites

superiores para ρ bajo diferentes escenarios: Tamanos de muestra pequenos (n=5,

n=10, n=20 y n=30) y valores de r positivos; y el calculo de la probabilidad

P (R ≤ r|n, ρU ). Estos estudios mostraron que, en particular, el mejor metodo

para construir intervalos unilaterales para ρ en muestras pequenas es el de pivote

generalizado.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 159

2. Intervalos de confianza

2.1. Metodo I: basado en la transformacion Arcotangente

Este intervalo puede considerarse el intervalo clasico para este parametro y fue

propuesto por Fisher (1921). Debido a que la distribucion del coeficiente de corre-

lacion muestral no es centrada y/o simetrica, el calculo de intervalos de confianza

a partir de los cuantiles de la distribucion no se hace sencillo. Por tanto, Fisher

propone la transformacion arcotangente hiperbolico:

r = tanh(z) ⇔ z =1

2log

1 + r

1− r(1)

y demostro que z tiene una distribucion aproximadamente normal cuando el ta-

mano muestral es grande. Dicha distribucion normal se caracteriza por una media

ξ = 1

2log

(1+ρ1−ρ

)y varianza 1

n−3. El intervalo hallado a partir de la transformacion

Arcotangente hiperbolico tiene la siguiente forma:

(tanh

(arctanh(r) −

zα/2√n− 3

), tanh

(arctanh(r) +

zα/2√n− 3

))(2)

donde zα2es el percentil superior α/2 de la distribucion normal estandar.

2.1.1. Modificaciones a la transformacion Arcotangente

Teniendo en cuenta el hecho de que la transformacion propuesta por Fisher fun-

ciona adecuadamente siempre y cuando los tamanos muestrales sean grandes, se

hizo necesario encontrar la manera de reducir el error al trabajar esta transfor-

macion en muestras pequenas. Hotelling (1953) estudio esta situacion y propuso 4

transformaciones zi con i = 1, . . . , 4, para la transformacion z original de Fisher,

las cuales tambien, asintoticamente tienen una distribucion Normal con media ξiy varianza 1

n−1:

z1 = z −7z + r

8(n− 1)ξ1 = ξ −

7ξ + ρ

8(n− 1)(3)

z2 = z −7z + r

8(n− 1)−

119z + 57r + 3r2

384(n− 1)2ξ2 = ξ −

7ξ + ρ

8(n− 1)−

119ξ + 57ρ+ 3ρ2

384(n− 1)2

(4)

z3 = z −3z + r

4(n− 1)ξ3 = ξ −

3ξ + ρ

4(n− 1)(5)

z4 = z−3z + r

4(n− 1)−

23z + 33r − 5r2

96(n− 1)2ξ4 = ξ−

3ξ + ρ

4(n− 1)−23ξ + 33ρ− 5ρ2

96(n− 1)2(6)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

160 Liliana Vanessa Pacheco & Juan Carlos Correa

2.2. Metodo II: Intervalo de la razon de verosimilitud

Kalbfleish (1985) y Pawitan (2001) presentan la metodologıa para construir inter-

valos de verosimilitud. Un intervalo de la razon de verosimilitud para θ es definido

como el conjunto de valores parametrales con valores altamente verosımiles:θ,

L(θ)

L(θ)> c

(7)

para un valor c ∈ (0, 1) y donde θ es el estimador muestral del parametro θ

Sabiendo que 2 logL(θ)

L(θ)

d→ χ2

1, la probabilidad de cubrimiento aproximada para

este tipo de intervalos esta dada por:

P

(L(θ)

L(θ)> c

)= P

(2 log

L(θ)

L(θ)< −2 log c

)(8)

≈ P(χ2

1< −2 log c

). (9)

Luego, para cualquier valor 0 < α < 1 el punto de corte c es:

c = exp

[−1

2χ2

1,1−α

](10)

donde χ2

1,1−α es el 100(1− α) percentil de una χ2

1. Por tanto:

P

(L(θ)

L(θ)> c

)= P

(χ2

1< χ2

1,1−α

)= 1− α. (11)

Si L(ρ) es la funcion de verosimilitud, se define la funcion de verosimilitud relativacomo:

R(ρ) =L(ρ)

L(r)(12)

El conjunto de valores de ρ para los cuales R(ρ) > c es llamado intervalo de100× c% de verosimilitud para ρ. Los intervalos del 14.7% y del 3.6% de verosi-

militud corresponden a intervalos de confianza de niveles del 95% y 99% aproxi-

madamente.

Lo que se debe hacer entonces es hallar las raıces que nos dan los lımites del

intervalo. Para el caso del parametro ρ tenemos que un intervalo de confianza del

95% se halla encontrando el par de raıces tal que

R(ρ) =L(ρ)

L(r)(13)

=

(1− ρ2

1− r2

) (n−1)

2

∫∞

0

(coshw − ρr)−(n−1) dw∫

0

(coshw − r2)−(n−1) dw

≥ K(k, α) (14)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 161

donde K(k, α) es el valor crıtico mınimo con el cual aseguramos una confianza

deseada, ya sea del 95% o 99%, por ejemplo.

2.3. Metodo III: Bootstrap

La primera aplicacion del metodo bootstrap fue en la determinacion del intervalo

de confianza del coeficiente de correlacion en el artıculo seminal de Efron (1979).

A partir de la muestra (x1, y1), (x2, y2), . . . , (xn, yn) se calculan las estimacio-

nes de maxima verosimilitud del vector de medias y de la matriz de varianzas

y covarianzas de la distribucion normal bivariable.

Se generan M muestras de tamano n de una distribucion normal bivariable

con parametros µ y Σ. Y para cada una de estas muestras se estima el

parametro ρ, por ejemplo, para la muestra j el valor del estimador para el

coeficiente de correlacion es rj .

Para los rj , j = 1, . . . ,M , se construye un histograma y se calculan los

percentiles 0.025 y 0.975 los cuales se denotaran: r0.025i y r

0.975i .

Y el intervalo de Bootstrap para ρ esta dado por r0.025i y r

0.975i como lımite

inferior y superior respectivamente.

2.4. Metodo IV: Intervalo de Jeyaratnam

Jeyaratnam propone un intervalo para el coeficiente de correlacion de la distribu-

cion normal bivariada y este tiene la siguiente forma (Krishnamoorthy & Xia 2007):

(r − w

1− rw,r + w

1 + rw

)(15)

donde

w =

tn−2,1−α/2√

n−2√1 +

(tn−2,1−α/2)2

n−2

(16)

y tm,p denota el p-esimo cuantil de la distribucion t-Student con m grados de

libertad.

2.5. Metodo V: Test generalizado para ρ

Segun el artıculo publicado por Krishnamoorthy & Xia (2007), los autores citados

proponen un algoritmo para construir un intervalo de confianza para ρ a partir de

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 161

donde K(k, α) es el valor crıtico mınimo con el cual aseguramos una confianza

deseada, ya sea del 95% o 99%, por ejemplo.

2.3. Metodo III: Bootstrap

La primera aplicacion del metodo bootstrap fue en la determinacion del intervalo

de confianza del coeficiente de correlacion en el artıculo seminal de Efron (1979).

A partir de la muestra (x1, y1), (x2, y2), . . . , (xn, yn) se calculan las estimacio-

nes de maxima verosimilitud del vector de medias y de la matriz de varianzas

y covarianzas de la distribucion normal bivariable.

Se generan M muestras de tamano n de una distribucion normal bivariable

con parametros µ y Σ. Y para cada una de estas muestras se estima el

parametro ρ, por ejemplo, para la muestra j el valor del estimador para el

coeficiente de correlacion es rj .

Para los rj , j = 1, . . . ,M , se construye un histograma y se calculan los

percentiles 0.025 y 0.975 los cuales se denotaran: r0.025i y r

0.975i .

Y el intervalo de Bootstrap para ρ esta dado por r0.025i y r

0.975i como lımite

inferior y superior respectivamente.

2.4. Metodo IV: Intervalo de Jeyaratnam

Jeyaratnam propone un intervalo para el coeficiente de correlacion de la distribu-

cion normal bivariada y este tiene la siguiente forma (Krishnamoorthy & Xia 2007):

(r − w

1− rw,r + w

1 + rw

)(15)

donde

w =

tn−2,1−α/2√

n−2√1 +

(tn−2,1−α/2)2

n−2

(16)

y tm,p denota el p-esimo cuantil de la distribucion t-Student con m grados de

libertad.

2.5. Metodo V: Test generalizado para ρ

Segun el artıculo publicado por Krishnamoorthy & Xia (2007), los autores citados

proponen un algoritmo para construir un intervalo de confianza para ρ a partir de

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

162 Liliana Vanessa Pacheco & Juan Carlos Correa

la distribucion del pivote generalizado para el coeficiente de correlacion:

Gρij=

j∑

k=1

bikbjk

√∑ik=1

b2ik

√∑jk=1

b2jk

(17)

para i > j. Que en el caso bivariado lo anterior se expresa de la siguiente forma:

Gρ21=

b21√b221

+ b222

(18)

Y simplificando la expresion anterior, se tiene:

Gρ21=

r∗V22 − V21√(r∗V22 − V21)2 + V 2

11

(19)

Donde r∗ =r

√1− r2

y V es una matriz triangular inferior, las Vij ’s son indepen-

dientes con V 2

ii ∼ χ2

n−i para i = 1, . . . , p y Vij ∼ N(0, 1) para i < j. Para mayor

detalle, se sugiere remitirse al desarrollo completo para la obtencion de los Gρijy

la matriz V , que se encuentra en Krishnamoorthy & Xia (2007).

Entonces, segun los autores, para un r dado la distribucion de Gρ no depende

de algun parametro que sea desconocido, y el intervalo se calcula empleando el

siguiente algoritmo:

Algoritmo 1 Generar valores del pivote Gρij

Requiere Un n y ρ fijo

Calcular: r∗ = ρ/√1− ρ2

Para: i = 1 hasta m Haga

Generar: Z0 ∼ N(0, 1).Generar: U1 ∼ χ2

n−1.

Generar: U2 ∼ χ2

n−2.

Calcular: Qi =r∗√U2− Z0√

(r∗√U2− Z0)2 + U1

Fin del ciclo.

Luego, los percentiles α2y (1 − α

2) de los valores calculados para el pivote Gρij

mediante el mencionado algoritmo conforman los lımites del intervalo de confianza

al 100(1− α)% para ρ.

3. Resultados de la simulacion

Para comparar los nueve metodos de construccion de intervalos de confianza en

este caso se realizo una simulacion en R en la cual se consideraron combinaciones

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 163

de (ρ, n) con valores de ρ = 0.0, 0.1, 0.2, . . . , 0.9 y de n = 5, 10, 20, 50, 100; un

vector de medias µ =

[1

1

]y∑

=

(1 ρρ 1

).

Para cada pareja se realizaron 1000 replicas y se calcularon las formulas previas a

un nivel de confianza del 95% (Este es conocido como el nivel nominal). Para cada

metodo y combinacion se calculo la mediana de la longitud de los 1000 intervalos

calculados y la proporcion de intervalos que cubren el verdadero valor de ρ, estoes lo que se llama el nivel de confianza real. Los resultados se encuentran en las

tablas 1 al 5 y en las Figuras 1 y 2.

De las graficas y las tablas observamos que las longitudes mas amplias en los

intervalos se encuentran en los tamanos de muestra mas pequenos, siendo el caso

de n = 5 donde los nueve tipos de intervalo alcanzan las mayores longitudes para

el respectivo valor de ρ. Ademas, vemos que a medida que se amplıa el valor de

ρ para un tamano de muestra particular, las longitudes son cada vez menores, lo

que sugiere que los intervalos de confianza alcanzan menores longitudes cuando el

valor verdadero de ρ se va acercando a 1.

Con respecto al nivel real alcanzado por cada intervalo se observa que cada uno

de los metodos cuando el tamano muestral es bastante pequeno, por ejemplo,

n = 5, tienen una probabilidad de cobertura diferente a la deseada 95%, y no

es homogenea en cada valor de ρ, es decir, que en cada metodo se observa que

algunas veces el nivel real supera al nominal y a veces es al contrario, conforme

se varıa el valor de ρ. Los mas cercanos a 95% de nivel real, cuando n = 5 son

ArcTanh, Jeyaratnam y P.G; y el que se comporta peor es Bootstrap. A medida

que aumenta el tamano de muestra se nota una tendencia en todos los intervalos

a estar cerca del nivel nominal deseado, 95%.

3.1. Indice de resumenes

A manera de resumen se presenta un ındice que senala la calidad de las metodo-

logıas anteriormente mencionadas. Este ındice busca favorecer a aquellos metodos

que presenten longitudes de intervalo pequenos y niveles reales de confianza cer-

canos o mayores al 95%:

I = (2− LI)NR

NN(20)

donde:

LI: Mediana de la longitud del intervalo.

NR: Promedio del nivel real del intervalo.

NN: Nivel nominal de los intervalos, que en este caso es 0.95.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

164 Liliana Vanessa Pacheco & Juan Carlos Correa

Tabla

1:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra5.Fuen

te:elaboracionpropia

n=

5

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

1.6233

1.6864

1.4864

1.6766

1.6056

1.6267

1.5718

1.5880

1.5498

Nivel

0.9010

0.9530

0.9270

0.9500

0.9290

0.9360

0.9190

0.9240

0.9430

0.1

Longitud

1.6392

1.6903

1.4905

1.6806

1.6102

1.6311

1.5770

1.5928

1.5346

Nivel

0.9130

0.9470

0.9330

0.9460

0.9340

0.9380

0.9260

0.9310

0.9440

0.2

Longitud

1.6221

1.6848

1.4848

1.6750

1.6038

1.6249

1.5699

1.5861

1.5360

Nivel

0.9120

0.9610

0.9440

0.9590

0.9490

0.9520

0.9380

0.9450

0.9490

0.3

Longitud

1.6003

1.6678

1.4671

1.6576

1.5837

1.6056

1.5487

1.5654

1.5235

Nivel

0.8920

0.9390

0.9140

0.9340

0.9120

0.9220

0.9040

0.9080

0.9420

0.4

Longitud

1.5846

1.6597

1.4588

1.6492

1.5741

1.5964

1.5386

1.5556

1.4994

Nivel

0.9130

0.9470

0.9360

0.9450

0.9370

0.9400

0.9280

0.9310

0.9600

0.5

Longitud

1.5141

1.6095

1.4081

1.5979

1.5157

1.5399

1.4772

1.4955

1.4397

Nivel

0.8940

0.9550

0.9290

0.9540

0.9290

0.9370

0.9180

0.9240

0.9420

0.6

Longitud

1.2966

1.4664

1.2712

1.4522

1.3534

1.3821

1.3086

1.3298

1.3934

Nivel

0.9170

0.9590

0.9410

0.9570

0.9390

0.9450

0.9330

0.9340

0.9540

0.7

Longitud

1.1093

1.3313

1.1492

1.3153

1.2061

1.2374

1.1578

1.1806

1.2438

Nivel

0.8760

0.9350

0.9140

0.9330

0.9170

0.9200

0.9010

0.9130

0.9590

0.8

Longitud

0.8765

1.1527

0.9949

1.1353

1.0195

1.0521

0.9698

0.9931

1.0838

Nivel

0.8970

0.9510

0.9270

0.9490

0.9360

0.9410

0.9250

0.9310

0.9520

0.9

Longitud

0.4787

0.7521

0.6612

0.7355

0.6314

0.6598

0.5896

0.6090

0.7449

Nivel

0.8960

0.9550

0.9170

0.9510

0.9330

0.9390

0.9240

0.9290

0.9460

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

164 Liliana Vanessa Pacheco & Juan Carlos Correa

Tabla

1:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra5.Fuen

te:elaboracionpropia

n=

5

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

1.6233

1.6864

1.4864

1.6766

1.6056

1.6267

1.5718

1.5880

1.5498

Nivel

0.9010

0.9530

0.9270

0.9500

0.9290

0.9360

0.9190

0.9240

0.9430

0.1

Longitud

1.6392

1.6903

1.4905

1.6806

1.6102

1.6311

1.5770

1.5928

1.5346

Nivel

0.9130

0.9470

0.9330

0.9460

0.9340

0.9380

0.9260

0.9310

0.9440

0.2

Longitud

1.6221

1.6848

1.4848

1.6750

1.6038

1.6249

1.5699

1.5861

1.5360

Nivel

0.9120

0.9610

0.9440

0.9590

0.9490

0.9520

0.9380

0.9450

0.9490

0.3

Longitud

1.6003

1.6678

1.4671

1.6576

1.5837

1.6056

1.5487

1.5654

1.5235

Nivel

0.8920

0.9390

0.9140

0.9340

0.9120

0.9220

0.9040

0.9080

0.9420

0.4

Longitud

1.5846

1.6597

1.4588

1.6492

1.5741

1.5964

1.5386

1.5556

1.4994

Nivel

0.9130

0.9470

0.9360

0.9450

0.9370

0.9400

0.9280

0.9310

0.9600

0.5

Longitud

1.5141

1.6095

1.4081

1.5979

1.5157

1.5399

1.4772

1.4955

1.4397

Nivel

0.8940

0.9550

0.9290

0.9540

0.9290

0.9370

0.9180

0.9240

0.9420

0.6

Longitud

1.2966

1.4664

1.2712

1.4522

1.3534

1.3821

1.3086

1.3298

1.3934

Nivel

0.9170

0.9590

0.9410

0.9570

0.9390

0.9450

0.9330

0.9340

0.9540

0.7

Longitud

1.1093

1.3313

1.1492

1.3153

1.2061

1.2374

1.1578

1.1806

1.2438

Nivel

0.8760

0.9350

0.9140

0.9330

0.9170

0.9200

0.9010

0.9130

0.9590

0.8

Longitud

0.8765

1.1527

0.9949

1.1353

1.0195

1.0521

0.9698

0.9931

1.0838

Nivel

0.8970

0.9510

0.9270

0.9490

0.9360

0.9410

0.9250

0.9310

0.9520

0.9

Longitud

0.4787

0.7521

0.6612

0.7355

0.6314

0.6598

0.5896

0.6090

0.7449

Nivel

0.8960

0.9550

0.9170

0.9510

0.9330

0.9390

0.9240

0.9290

0.9460

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 165

Tabla

2:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra10.Fuen

te:elaboracionpropia

n=

10

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

1.1964

1.2101

1.1349

1.2146

1.1890

1.1928

1.1753

1.1782

1.1521

Nivel

0.9460

0.9560

0.9510

0.9570

0.9510

0.9520

0.9490

0.9500

0.9570

0.1

Longitud

1.1960

1.2102

1.1350

1.2147

1.1891

1.1930

1.1754

1.1783

1.1456

Nivel

0.9360

0.9470

0.9410

0.9490

0.9430

0.9440

0.9390

0.9400

0.9470

0.2

Longitud

1.1841

1.1956

1.1220

1.2002

1.1745

1.1784

1.1608

1.1637

1.1393

Nivel

0.9270

0.9500

0.9410

0.9500

0.9430

0.9440

0.9390

0.9400

0.9460

0.3

Longitud

1.1494

1.1667

1.0968

1.1713

1.1460

1.1494

1.1318

1.1347

1.1105

Nivel

0.9160

0.9310

0.9250

0.9340

0.9260

0.9260

0.9210

0.9220

0.9570

0.4

Longitud

1.0879

1.1161

1.0523

1.1207

1.0949

1.0988

1.0812

1.0841

1.0698

Nivel

0.9460

0.9660

0.9600

0.9660

0.9630

0.9630

0.9580

0.9590

0.9520

0.5

Longitud

0.9960

1.0308

0.9770

1.0354

1.0097

1.0135

0.9961

0.9990

0.9997

Nivel

0.9350

0.9550

0.9460

0.9560

0.9450

0.9450

0.9440

0.9440

0.9590

0.6

Longitud

0.8717

0.9138

0.8731

0.9183

0.8934

0.8971

0.8802

0.8830

0.8713

Nivel

0.9300

0.9460

0.9370

0.9480

0.9370

0.9380

0.9340

0.9340

0.9620

0.7

Longitud

0.7072

0.7581

0.7331

0.7623

0.7392

0.7426

0.7271

0.7296

0.7578

Nivel

0.9280

0.9460

0.9420

0.9470

0.9410

0.9420

0.9390

0.9400

0.9440

0.8

Longitud

0.4859

0.5427

0.5349

0.5461

0.5272

0.5299

0.5173

0.5194

0.5887

Nivel

0.9250

0.9420

0.9390

0.9430

0.9410

0.9410

0.9390

0.9390

0.9580

0.9

Longitud

0.2707

0.3157

0.3186

0.3180

0.3055

0.3073

0.2991

0.3004

0.3340

Nivel

0.9420

0.9600

0.9480

0.9600

0.9570

0.9570

0.9510

0.9530

0.9450

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

166 Liliana Vanessa Pacheco & Juan Carlos Correa

Tabla

3:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra20.Fuen

te:elaboracionpropia

n=

20

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

0.8571

0.8696

0.8408

0.8720

0.8632

0.8639

0.8580

0.8585

0.8395

Nivel

0.9500

0.9630

0.9560

0.9630

0.9580

0.9590

0.9560

0.9560

0.9570

0.1

Longitud

0.8524

0.8631

0.8348

0.8655

0.8567

0.8574

0.8515

0.8520

0.8351

Nivel

0.9330

0.9330

0.9260

0.9360

0.9280

0.9280

0.9260

0.9260

0.9450

0.2

Longitud

0.8416

0.8492

0.8221

0.8516

0.8429

0.8436

0.8378

0.8383

0.8209

Nivel

0.9310

0.9400

0.9370

0.9400

0.9390

0.9390

0.9370

0.9370

0.9490

0.3

Longitud

0.8101

0.8173

0.7927

0.8197

0.8112

0.8118

0.8062

0.8067

0.7870

Nivel

0.9320

0.9420

0.9440

0.9430

0.9420

0.9420

0.9410

0.9410

0.9520

0.4

Longitud

0.7551

0.7659

0.7451

0.7682

0.7599

0.7606

0.7551

0.7556

0.7500

Nivel

0.9390

0.9480

0.9430

0.9490

0.9460

0.9460

0.9460

0.9460

0.9440

0.5

Longitud

0.6815

0.6900

0.6744

0.6921

0.6844

0.6850

0.6800

0.6804

0.6877

Nivel

0.9370

0.9440

0.9380

0.9440

0.9420

0.9420

0.9410

0.9410

0.9510

0.6

Longitud

0.5814

0.5936

0.5837

0.5955

0.5886

0.5891

0.5845

0.5849

0.5870

Nivel

0.9400

0.9480

0.9440

0.9480

0.9460

0.9460

0.9440

0.9440

0.9440

0.7

Longitud

0.4691

0.4850

0.4804

0.4866

0.4806

0.4811

0.4772

0.4775

0.4810

Nivel

0.9540

0.9600

0.9530

0.9610

0.9590

0.9590

0.9580

0.9580

0.9490

0.8

Longitud

0.3391

0.3565

0.3563

0.3577

0.3531

0.3535

0.3504

0.3507

0.3549

Nivel

0.9370

0.9450

0.9440

0.9450

0.9430

0.9430

0.9420

0.9420

0.9510

0.9

Longitud

0.1823

0.1935

0.1958

0.1942

0.1915

0.1917

0.1899

0.1901

0.1931

Nivel

0.9430

0.9480

0.9430

0.9480

0.9470

0.9470

0.9470

0.9470

0.9450

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

166 Liliana Vanessa Pacheco & Juan Carlos Correa

Tabla

3:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra20.Fuen

te:elaboracionpropia

n=

20

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

0.8571

0.8696

0.8408

0.8720

0.8632

0.8639

0.8580

0.8585

0.8395

Nivel

0.9500

0.9630

0.9560

0.9630

0.9580

0.9590

0.9560

0.9560

0.9570

0.1

Longitud

0.8524

0.8631

0.8348

0.8655

0.8567

0.8574

0.8515

0.8520

0.8351

Nivel

0.9330

0.9330

0.9260

0.9360

0.9280

0.9280

0.9260

0.9260

0.9450

0.2

Longitud

0.8416

0.8492

0.8221

0.8516

0.8429

0.8436

0.8378

0.8383

0.8209

Nivel

0.9310

0.9400

0.9370

0.9400

0.9390

0.9390

0.9370

0.9370

0.9490

0.3

Longitud

0.8101

0.8173

0.7927

0.8197

0.8112

0.8118

0.8062

0.8067

0.7870

Nivel

0.9320

0.9420

0.9440

0.9430

0.9420

0.9420

0.9410

0.9410

0.9520

0.4

Longitud

0.7551

0.7659

0.7451

0.7682

0.7599

0.7606

0.7551

0.7556

0.7500

Nivel

0.9390

0.9480

0.9430

0.9490

0.9460

0.9460

0.9460

0.9460

0.9440

0.5

Longitud

0.6815

0.6900

0.6744

0.6921

0.6844

0.6850

0.6800

0.6804

0.6877

Nivel

0.9370

0.9440

0.9380

0.9440

0.9420

0.9420

0.9410

0.9410

0.9510

0.6

Longitud

0.5814

0.5936

0.5837

0.5955

0.5886

0.5891

0.5845

0.5849

0.5870

Nivel

0.9400

0.9480

0.9440

0.9480

0.9460

0.9460

0.9440

0.9440

0.9440

0.7

Longitud

0.4691

0.4850

0.4804

0.4866

0.4806

0.4811

0.4772

0.4775

0.4810

Nivel

0.9540

0.9600

0.9530

0.9610

0.9590

0.9590

0.9580

0.9580

0.9490

0.8

Longitud

0.3391

0.3565

0.3563

0.3577

0.3531

0.3535

0.3504

0.3507

0.3549

Nivel

0.9370

0.9450

0.9440

0.9450

0.9430

0.9430

0.9420

0.9420

0.9510

0.9

Longitud

0.1823

0.1935

0.1958

0.1942

0.1915

0.1917

0.1899

0.1901

0.1931

Nivel

0.9430

0.9480

0.9430

0.9480

0.9470

0.9470

0.9470

0.9470

0.9450

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 167

Tabla

4:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra50.Fuen

te:elaboracionpropia

n=

50

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

0.5461

0.5519

0.5441

0.5526

0.5504

0.5505

0.5491

0.5491

0.5408

Nivel

0.9530

0.9530

0.9510

0.9530

0.9520

0.9520

0.9510

0.9510

0.9480

0.1

Longitud

0.5421

0.5483

0.5406

0.5490

0.5468

0.5469

0.5455

0.5455

0.5389

Nivel

0.9470

0.9540

0.9540

0.9540

0.9540

0.9540

0.9540

0.9540

0.9530

0.2

Longitud

0.5295

0.5343

0.5272

0.5350

0.5329

0.5330

0.5316

0.5316

0.5271

Nivel

0.9570

0.9580

0.9580

0.9580

0.9580

0.9580

0.9570

0.9570

0.9370

0.3

Longitud

0.5075

0.5114

0.5050

0.5120

0.5100

0.5100

0.5087

0.5087

0.5010

Nivel

0.9420

0.9490

0.9490

0.9500

0.9490

0.9490

0.9490

0.9490

0.9340

0.4

Longitud

0.4660

0.4696

0.4646

0.4702

0.4683

0.4683

0.4671

0.4672

0.4686

Nivel

0.9400

0.9410

0.9380

0.9410

0.9390

0.9390

0.9390

0.9390

0.9390

0.5

Longitud

0.4211

0.4240

0.4203

0.4245

0.4228

0.4229

0.4217

0.4218

0.4187

Nivel

0.9370

0.9430

0.9430

0.9430

0.9420

0.9420

0.9410

0.9410

0.9350

0.6

Longitud

0.3576

0.3623

0.3601

0.3627

0.3612

0.3613

0.3603

0.3603

0.3594

Nivel

0.9510

0.9570

0.9580

0.9570

0.9560

0.9560

0.9560

0.9560

0.9530

0.7

Longitud

0.2819

0.2869

0.2862

0.2873

0.2861

0.2861

0.2853

0.2854

0.2942

Nivel

0.9370

0.9500

0.9500

0.9500

0.9500

0.9500

0.9490

0.9500

0.9550

0.8

Longitud

0.2046

0.2096

0.2098

0.2099

0.2090

0.2090

0.2084

0.2085

0.2076

Nivel

0.9420

0.9470

0.9430

0.9470

0.9470

0.9470

0.9460

0.9460

0.9400

0.9

Longitud

0.1095

0.1126

0.1132

0.1127

0.1122

0.1123

0.1119

0.1119

0.1126

Nivel

0.9520

0.9550

0.9530

0.9550

0.9550

0.9550

0.9530

0.9530

0.9500

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

168 Liliana Vanessa Pacheco & Juan Carlos Correa

Tabla

5:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra100.Fuen

te:elaboracionpropia

n=

100

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

0.3874

0.3912

0.3882

0.3914

0.3907

0.3907

0.3902

0.3902

0.3858

Nivel

0.9470

0.9530

0.9510

0.9530

0.9530

0.9530

0.9520

0.9520

0.9330

0.1

Longitud

0.3846

0.3887

0.3858

0.3890

0.3882

0.3882

0.3877

0.3877

0.3824

Nivel

0.9510

0.9530

0.9510

0.9530

0.9520

0.9520

0.9520

0.9520

0.9460

0.2

Longitud

0.3763

0.3788

0.3760

0.3790

0.3783

0.3783

0.3778

0.3778

0.3735

Nivel

0.9470

0.9510

0.9500

0.9510

0.9500

0.9500

0.9490

0.9500

0.9320

0.3

Longitud

0.3558

0.3595

0.3571

0.3597

0.3590

0.3590

0.3586

0.3586

0.3554

Nivel

0.9420

0.9450

0.9440

0.9450

0.9430

0.9430

0.9430

0.9430

0.9430

0.4

Longitud

0.3297

0.3314

0.3295

0.3316

0.3309

0.3310

0.3305

0.3305

0.3291

Nivel

0.9490

0.9490

0.9480

0.9490

0.9490

0.9490

0.9490

0.9490

0.9450

0.5

Longitud

0.2952

0.2970

0.2956

0.2972

0.2966

0.2966

0.2962

0.2962

0.2943

Nivel

0.9500

0.9560

0.9540

0.9560

0.9560

0.9560

0.9560

0.9560

0.9560

0.6

Longitud

0.2530

0.2552

0.2544

0.2554

0.2549

0.2549

0.2546

0.2546

0.2518

Nivel

0.9480

0.9530

0.9530

0.9530

0.9510

0.9510

0.9510

0.9510

0.9500

0.7

Longitud

0.2018

0.2041

0.2037

0.2042

0.2038

0.2038

0.2036

0.2036

0.2023

Nivel

0.9420

0.9510

0.9490

0.9510

0.9510

0.9510

0.9510

0.9510

0.95500

0.8

Longitud

0.1420

0.1440

0.1441

0.1441

0.1438

0.1438

0.1436

0.1436

0.1441

Nivel

0.9350

0.9380

0.9410

0.9390

0.9380

0.9380

0.9380

0.9380

0.9530

0.9

Longitud

0.0750

0.0761

0.0763

0.0762

0.0760

0.0760

0.0759

0.0759

0.0772

Nivel

0.9380

0.9420

0.9420

0.9420

0.9410

0.9410

0.9410

0.9410

0.9460

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

168 Liliana Vanessa Pacheco & Juan Carlos Correa

Tabla

5:Longitudynivel

deconfianza

delosintervalos.

Taman

odemuestra100.Fuen

te:elaboracionpropia

n=

100

ρBootstrap

Arctanh

L.R

Jeyaratnam

Z1

Z2

Z3

Z4

P.G

0.0

Longitud

0.3874

0.3912

0.3882

0.3914

0.3907

0.3907

0.3902

0.3902

0.3858

Nivel

0.9470

0.9530

0.9510

0.9530

0.9530

0.9530

0.9520

0.9520

0.9330

0.1

Longitud

0.3846

0.3887

0.3858

0.3890

0.3882

0.3882

0.3877

0.3877

0.3824

Nivel

0.9510

0.9530

0.9510

0.9530

0.9520

0.9520

0.9520

0.9520

0.9460

0.2

Longitud

0.3763

0.3788

0.3760

0.3790

0.3783

0.3783

0.3778

0.3778

0.3735

Nivel

0.9470

0.9510

0.9500

0.9510

0.9500

0.9500

0.9490

0.9500

0.9320

0.3

Longitud

0.3558

0.3595

0.3571

0.3597

0.3590

0.3590

0.3586

0.3586

0.3554

Nivel

0.9420

0.9450

0.9440

0.9450

0.9430

0.9430

0.9430

0.9430

0.9430

0.4

Longitud

0.3297

0.3314

0.3295

0.3316

0.3309

0.3310

0.3305

0.3305

0.3291

Nivel

0.9490

0.9490

0.9480

0.9490

0.9490

0.9490

0.9490

0.9490

0.9450

0.5

Longitud

0.2952

0.2970

0.2956

0.2972

0.2966

0.2966

0.2962

0.2962

0.2943

Nivel

0.9500

0.9560

0.9540

0.9560

0.9560

0.9560

0.9560

0.9560

0.9560

0.6

Longitud

0.2530

0.2552

0.2544

0.2554

0.2549

0.2549

0.2546

0.2546

0.2518

Nivel

0.9480

0.9530

0.9530

0.9530

0.9510

0.9510

0.9510

0.9510

0.9500

0.7

Longitud

0.2018

0.2041

0.2037

0.2042

0.2038

0.2038

0.2036

0.2036

0.2023

Nivel

0.9420

0.9510

0.9490

0.9510

0.9510

0.9510

0.9510

0.9510

0.95500

0.8

Longitud

0.1420

0.1440

0.1441

0.1441

0.1438

0.1438

0.1436

0.1436

0.1441

Nivel

0.9350

0.9380

0.9410

0.9390

0.9380

0.9380

0.9380

0.9380

0.9530

0.9

Longitud

0.0750

0.0761

0.0763

0.0762

0.0760

0.0760

0.0759

0.0759

0.0772

Nivel

0.9380

0.9420

0.9420

0.9420

0.9410

0.9410

0.9410

0.9410

0.9460

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 169

Figura

1:Amplitudporcadaintervalo.Fuen

te:elaboracionpropia.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

170 Liliana Vanessa Pacheco & Juan Carlos Correa

Figura

2:Nivel

realalcanzadoporcadaintervalo.Fuen

te:elaboracionpropia.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 171

Y ademas, cabe aclarar que el ındice esta limitado a 2 porque el rango parametral

de ρ es desde -1 hasta 1, es decir, una longitud equivalente a dos unidades. Y por

lo anterior el codigo de la simulacion que se empleo en este estudio esta restringido

para no tener en cuenta posibles resultados para ρ mayores que 1, o en su defecto,

menores que -1.

El rango de este ındice corresponde a (0, 2.1052) dado que si el nivel real, NR,

se acerca al 100% y/o la longitud maxima es lo mas pequena posible, entonces

I sera cercano a 2.1052; o si la longitud o el nivel real del intervalo es cercana a

cero entonces el I = 0. Luego, a valores mayores del ındice propuesto, mejor el

intervalo obtenido. Las siguientes tablas muestran los resultados a partir del ındice

propuesto, donde se resalta por cada valor de ρ el mejor metodo:

Tabla 6: Indice de resumen: Tamano de muestra 5. Fuente: elaboracion propian = 5

ρ Bootstrap ArcTanh LR Jayaratnam Z1 Z2 Z3 Z4 P.G

0 0.3572 0.3145 0.5011 0.3234 0.3856 0.3677 0.4142 0.4007 0.4468

0.1 0.3467 0.3087 0.5003 0.3180 0.3832 0.3642 0.4123 0.3990 0.4624

0.2 0.3626 0.3187 0.5119 0.3280 0.3957 0.3758 0.4246 0.4117 0.4635

0.3 0.3752 0.3282 0.5126 0.3366 0.3996 0.3827 0.4294 0.4153 0.4724

0.4 0.3991 0.3391 0.5332 0.3488 0.4199 0.3993 0.4506 0.4355 0.5058

0.5 0.4572 0.3925 0.5787 0.4037 0.4735 0.4537 0.5051 0.4906 0.5555

0.6 0.6789 0.5386 0.7218 0.5517 0.6390 0.6146 0.6790 0.6588 0.6091

0.7 0.8212 0.6580 0.8185 0.6723 0.7662 0.7384 0.7987 0.7874 0.7632

0.8 1.0607 0.8481 0.9807 0.8637 0.9660 0.9388 1.0030 0.9866 0.9180

0.9 1.4347 1.2544 1.2922 1.2657 1.3440 1.3246 1.3717 1.3601 1.2497

Tabla 7: Indice de resumen: Tamano de muestra 10. Fuente: elaboracion propian = 10

ρ Bootstrap ArcTanh LR Jayaratnam Z1 Z2 Z3 Z4 P.G

0 0.8002 0.7948 0.8660 0.7911 0.8118 0.8088 0.8238 0.8218 0.8541

0.1 0.7921 0.7873 0.8568 0.7844 0.8049 0.8019 0.8150 0.8130 0.8517

0.2 0.7961 0.8044 0.8696 0.7998 0.8194 0.8164 0.8294 0.8274 0.8570

0.3 0.8201 0.8166 0.8794 0.8147 0.8324 0.8291 0.8416 0.8397 0.8960

0.4 0.9082 0.8987 0.9576 0.8941 0.9174 0.9135 0.9265 0.9245 0.9321

0.5 0.9881 0.9743 1.0186 0.9706 0.9850 0.9813 0.9975 0.9946 1.0097

0.6 1.1045 1.0816 1.1114 1.0794 1.0914 1.0889 1.1009 1.0981 1.1429

0.7 1.2628 1.2366 1.2562 1.2337 1.2488 1.2467 1.2581 1.2569 1.2342

0.8 1.4741 1.4450 1.4480 1.4431 1.4588 1.4560 1.4654 1.4634 1.4231

0.9 1.7147 1.7019 1.6778 1.6996 1.7069 1.7050 1.7026 1.7048 1.6571

De las anteriores tablas se observa que, segun el criterio establecido para con-

cluir con el ındice de resumen propuesto, en tamanos de muestra pequenos y para

correlaciones menores que 0.7 (dentro de las empleadas en este estudio), el me-

jor metodo para la construccion de intervalos de confianza para el coeficiente de

correlacion agrupando las caracterısticas deseadas (longitud del intervalo corta y

mayor porcentaje de cobertura) es el de la razon de verosimilitud. Le sigue el

metodo Bootstrap en calidad. El metodo menos eficiente es el de la Trasforma-

cion de Fisher. Esto es apenas logico de esperar ya que establece que z tiene una

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 171

Y ademas, cabe aclarar que el ındice esta limitado a 2 porque el rango parametral

de ρ es desde -1 hasta 1, es decir, una longitud equivalente a dos unidades. Y por

lo anterior el codigo de la simulacion que se empleo en este estudio esta restringido

para no tener en cuenta posibles resultados para ρ mayores que 1, o en su defecto,

menores que -1.

El rango de este ındice corresponde a (0, 2.1052) dado que si el nivel real, NR,

se acerca al 100% y/o la longitud maxima es lo mas pequena posible, entonces

I sera cercano a 2.1052; o si la longitud o el nivel real del intervalo es cercana a

cero entonces el I = 0. Luego, a valores mayores del ındice propuesto, mejor el

intervalo obtenido. Las siguientes tablas muestran los resultados a partir del ındice

propuesto, donde se resalta por cada valor de ρ el mejor metodo:

Tabla 6: Indice de resumen: Tamano de muestra 5. Fuente: elaboracion propian = 5

ρ Bootstrap ArcTanh LR Jayaratnam Z1 Z2 Z3 Z4 P.G

0 0.3572 0.3145 0.5011 0.3234 0.3856 0.3677 0.4142 0.4007 0.4468

0.1 0.3467 0.3087 0.5003 0.3180 0.3832 0.3642 0.4123 0.3990 0.4624

0.2 0.3626 0.3187 0.5119 0.3280 0.3957 0.3758 0.4246 0.4117 0.4635

0.3 0.3752 0.3282 0.5126 0.3366 0.3996 0.3827 0.4294 0.4153 0.4724

0.4 0.3991 0.3391 0.5332 0.3488 0.4199 0.3993 0.4506 0.4355 0.5058

0.5 0.4572 0.3925 0.5787 0.4037 0.4735 0.4537 0.5051 0.4906 0.5555

0.6 0.6789 0.5386 0.7218 0.5517 0.6390 0.6146 0.6790 0.6588 0.6091

0.7 0.8212 0.6580 0.8185 0.6723 0.7662 0.7384 0.7987 0.7874 0.7632

0.8 1.0607 0.8481 0.9807 0.8637 0.9660 0.9388 1.0030 0.9866 0.9180

0.9 1.4347 1.2544 1.2922 1.2657 1.3440 1.3246 1.3717 1.3601 1.2497

Tabla 7: Indice de resumen: Tamano de muestra 10. Fuente: elaboracion propian = 10

ρ Bootstrap ArcTanh LR Jayaratnam Z1 Z2 Z3 Z4 P.G

0 0.8002 0.7948 0.8660 0.7911 0.8118 0.8088 0.8238 0.8218 0.8541

0.1 0.7921 0.7873 0.8568 0.7844 0.8049 0.8019 0.8150 0.8130 0.8517

0.2 0.7961 0.8044 0.8696 0.7998 0.8194 0.8164 0.8294 0.8274 0.8570

0.3 0.8201 0.8166 0.8794 0.8147 0.8324 0.8291 0.8416 0.8397 0.8960

0.4 0.9082 0.8987 0.9576 0.8941 0.9174 0.9135 0.9265 0.9245 0.9321

0.5 0.9881 0.9743 1.0186 0.9706 0.9850 0.9813 0.9975 0.9946 1.0097

0.6 1.1045 1.0816 1.1114 1.0794 1.0914 1.0889 1.1009 1.0981 1.1429

0.7 1.2628 1.2366 1.2562 1.2337 1.2488 1.2467 1.2581 1.2569 1.2342

0.8 1.4741 1.4450 1.4480 1.4431 1.4588 1.4560 1.4654 1.4634 1.4231

0.9 1.7147 1.7019 1.6778 1.6996 1.7069 1.7050 1.7026 1.7048 1.6571

De las anteriores tablas se observa que, segun el criterio establecido para con-

cluir con el ındice de resumen propuesto, en tamanos de muestra pequenos y para

correlaciones menores que 0.7 (dentro de las empleadas en este estudio), el me-

jor metodo para la construccion de intervalos de confianza para el coeficiente de

correlacion agrupando las caracterısticas deseadas (longitud del intervalo corta y

mayor porcentaje de cobertura) es el de la razon de verosimilitud. Le sigue el

metodo Bootstrap en calidad. El metodo menos eficiente es el de la Trasforma-

cion de Fisher. Esto es apenas logico de esperar ya que establece que z tiene una

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

172 Liliana Vanessa Pacheco & Juan Carlos Correa

Tabla 8: Indice de resumen: Tamano de muestra 20. Fuente: elaboracion propian = 20

ρ Bootstrap ArcTanh LR Jayaratnam Z1 Z2 Z3 Z4 P.G

0 1.1429 1.1458 1.1665 1.1434 1.1463 1.1468 1.1492 1.1487 1.1690

0.1 1.1270 1.1165 1.1357 1.1177 1.1168 1.1161 1.1194 1.1189 1.1587

0.2 1.1352 1.1386 1.1617 1.1363 1.1437 1.1430 1.1462 1.1458 1.1778

0.3 1.1673 1.1727 1.1996 1.1716 1.1787 1.1781 1.1824 1.1819 1.2155

0.4 1.2304 1.2315 1.2456 1.2305 1.2348 1.2341 1.2396 1.239160 1.2421

0.5 1.3004 1.3017 1.3088 1.2996 1.3045 1.3039 1.3074 1.3070 1.3136

0.6 1.4036 1.4034 1.4073 1.4015 1.4054 1.4049 1.4065 1.406163 1.4040

0.7 1.5373 1.5309 1.5243 1.5309 1.5337 1.5332 1.5356 1.535321 1.5174

0.8 1.6381 1.6348 1.6332 1.6335 1.6347 1.6343 1.6356 1.6353 1.6468

0.9 1.8042 1.8026 1.7909 1.8019 1.8027 1.8025 1.8042 1.8041 1.7973

Tabla 9: Indice de resumen: Tamano de muestra 50. Fuente: elaboracion propian = 50

ρ Bootstrap ArcTanh LR Jayaratnam Z1 Z2 Z3 Z4 P.G

0 1.4584 1.4526 1.4574 1.4519 1.4526 1.4525 1.4524 1.4524 1.4561

0.1 1.4532 1.4578 1.4655 1.4571 1.4593 1.4592 1.4606 1.4606 1.4657

0.2 1.4813 1.4780 1.4852 1.4773 1.4794 1.4793 1.4792 1.4792 1.4527

0.3 1.4799 1.4870 1.4934 1.4880 1.4884 1.4884 1.4897 1.4897 1.4737

0.4 1.5178 1.5159 1.5160 1.5153 1.5139 1.5139 1.5151 1.5150 1.5136

0.5 1.5572 1.5643 1.5680 1.5638 1.5639 1.5638 1.5633 1.5632 1.5563

0.6 1.6441 1.6497 1.6537 1.6493 1.6491 1.6490 1.6500 1.6500 1.6457

0.7 1.6945 1.7131 1.7138 1.7127 1.7139 1.7139 1.7128 1.7146 1.7147

0.8 1.7801 1.7847 1.7769 1.7844 1.7853 1.7853 1.7840 1.7839 1.7734

0.9 1.8944 1.8973 1.8927 1.8971 1.8976 1.8976 1.8939 1.8939 1.8873

Tabla 10: Indice de resumen: Tamano de muestra 100. Fuente: elaboracion propian = 100

ρ Bootstrap ArcTanh LR Jayaratnam Z1 Z2 Z3 Z4 P.G

0 1.6075 1.6138 1.6134 1.6136 1.6143 1.6143 1.6131 1.6131 1.5853

0.1 1.6171 1.6163 1.6158 1.6161 1.6151 1.6151 1.6156 1.6156 1.6107

0.2 1.6185 1.6229 1.6240 1.6227 1.6217 1.6217 1.6204 1.6222 1.5956

0.3 1.6303 1.6318 1.6325 1.6317 1.6289 1.6289 1.6293 1.6293 1.6324

0.4 1.6685 1.6668 1.6669 1.6666 1.6673 1.6672 1.6677 1.6677 1.6621

0.5 1.7048 1.7137 1.7115 1.7135 1.7141 1.7141 1.7145 1.7145 1.7164

0.6 1.7433 1.7503 1.7511 1.7501 1.7469 1.7469 1.7472 1.7472 1.7482

0.7 1.7830 1.7977 1.7944 1.7976 1.7981 1.7980 1.7982 1.7982 1.8071

0.8 1.8286 1.8325 1.8383 1.8343 1.8327 1.8327 1.8329 1.8329 1.8616

0.9 1.9006 1.9076 1.9074 1.9075 1.9057 1.9057 1.9058 1.9058 1.9146

distribucion aproximadamente normal cuando el tamano muestral es grande. Este

comportamiento cambia cuando se comienza a aumentar el tamano de muestra,

ya que cuando este es igual a 20, en correlaciones pequenas (de 0 a 0.4), el mejor

metodo para construir los intervalos es el que parte del pivote generalizado. Se

observa que en el resto de las correlaciones algunos de los metodos tambien muy

eficientes son el de la razon de verosimilitud, Bootstrap y la Transformacion de

Fisher modificada Z3. En este caso resulta complicado afirmar cual metodo es el

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion de intervalos de confianza para el coeficiente de correlacion 173

menos efectivo, ya que las diferencias en el ındice de resumen para el resto de los

metodos son mınimas, y por tanto no muy significativas.

El metodo de la razon de verosimilitud en tamanos de muestra iguales a 50 dan

los mejores resultados para estos intervalos de confianza y en menor medida el

del pivote generalizado y la transformacion de Fisher modificada Z1. Cabe aclarar

que, las diferencias que hicieron que cada uno de estos metodos sobresaliese en el

respectivo caso, fueron mınimas, es decir, con tamanos de muestra grandes, todos

los metodos ofrecen ındices de resumen casi iguales y por tanto, decidir cual es

mejor se hace indiferente.

4. Conclusiones

Los procedimientos que se tuvieron en cuenta para la construccion de intervalos de

confianza para el coeficiente de correlacion en una distribucion normal bivariada,

ρ, difieren en calidad dependiendo del tamano de muestra empleado para ello. Se

pudo observar que, en el caso de muestras pequenas (n = 5 y n = 10), los que mejor

desempeno tuvieron fueron los de razon de verosimilitud y Bootstrap. El metodo

de razon de verosimilitud ofrece longitudes cortas de intervalo y nivel de confianza

real mas cercano al nivel nominal establecido en este estudio de simulacion, 95%

para correlaciones desde 0 hasta 0.7. En los casos restantes, es decir, correlaciones

de 0.8 y 0.9, el metodo Bootstrap supera al anterior.

Cuando n = 20, el metodo que se comporta mejor en la gran mayorıa de las

correlaciones consideradas es el de pivote generalizado. Le sigue en orden de calidad

de intervalo obtenido por el metodo de razon de verosimilitud. Cuando n = 50 y

n = 100, todos los metodos tienen un comportamiento casi igual. Las longitudes

de intervalo para cada uno de estos dos casos (n = 50 y n = 100) disminuyen

considerablemente a lo observado en el caso anterior, es decir, en comparacion con

n = 20, como se puede evidenciar en las tablas.

En la mayorıa de los casos, el metodo de Bootstrap ofrece niveles de confianza

reales menores que los de los demas metodos. Se observa un detalle muy particu-

lar con respecto a esta caracterıstica y todos los metodos a excepcion del pivote

generalizado: los niveles de confianza reales son muy parecidos entre sı cuando el

tamano de muestra es muy grande (n=100).

Recibido: 5 de mayo de 2013

Aceptado: 14 de agosto de 2013

Referencias

Efron, B. (1979), ‘Computers and theory of statistics: Thinking the unthinkable’,

SIAM Review 21(4), 460–480.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

174 Liliana Vanessa Pacheco & Juan Carlos Correa

Falk, R. & Well, A. (1997), ‘Many faces of the correlation coefficient’, Journal ofStatistics Education 5(3).

Fisher, R. (1921), ‘On the “probable error” of a coefficient of correlation deduced

from a small sample’, Metron 1, 3–32.

Hotelling, H. (1953), ‘New light on the correlation coefficient and its transforms’,

Journal of the Royal Statistical Society 15(2), 193–232.

Kalbfleish, J. (1985), Probability and statistical inference, Springer-Verlag: NewYork.

Krishnamoorthy, I. & Xia, Y. (2007), ‘Inferences on correlation coefficients: One-

sample, independent and correlated cases’, Journal of Statistical Planningand Inference 137(7), 2362–2379.

Pawitan, Y. (2001), In all likelihood, Clarendon Press: Oxford.

Zheng, Q. & Matis, J. (1994), ‘Correlation coefficient revisited’, The AmericanStatistician 48(3), 240–241.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 175–195

Comparacion entre arboles de regresion CARTy regresion lineal

Comparison between CART regression trees and linear regression

Juan Felipe Dıaza

[email protected] Carlos Correab

[email protected]

Resumen

La regresion lineal es el metodo mas usado en estadıstica para predecir valores de

variables continuas debido a su facil interpretacion, pero en muchas situaciones

los supuestos para aplicar el modelo no se cumplen y algunos usuarios tienden a

forzarlos llevando a conclusiones erroneas. Los arboles de regresion CART son una

alternativa de regresion que no requiere supuestos sobre los datos por analizar y es

un metodo de facil interpretacion de los resultados. En este trabajo se comparan a

nivel predictivo la regresion lineal con CART mediante simulacion. En general, se

encontro que cuando se ajusta el modelo de regresion lineal correcto a los datos, el

error de prediccion de regresion lineal siempre es menor que el de CART. Tambien

se encontro que cuando se ajusta erroneamente un modelo de regresion lineal a

los datos, el error de prediccion de CART es menor que el de regresion lineal solo

cuando se tiene una cantidad de datos suficientemente grande.

Palabras clave: simulacion, error de prediccion, regresion lineal, arboles de cla-

sificacion y regresion CART.

Abstract

Linear regression is the most widely used method in statistics to predict values

of continuous variables due to its easy interpretation, but in many situations the

suppositions to apply the model are not met and some users tend to force them

leading them to erroneous conclusions. CART regression trees is a regression al-

ternative that does not require suppositions on the data to be analyzed and is

a method of easy interpretation of results. This work compares predictive levels

of linear regression with CART through simulation. In general, it was found that

when the correct linear regression model is adjusted to the data, the prediction

aMaestrıa en Ciencias - Estadıstica. Universidad Nacional de Colombia, sede Medellın,

Colombia.bProfesor Asociado. Universidad Nacional de Colombia, sede Medellın, Colombia.

175

176 Juan Felipe Dıaz & Juan Carlos Correa

error of linear regression is always lower than that of CART. It was also found that

when linear regression model is erroneously adjusted to the data, the prediction

error of CART is lower than that of linear regression only when it has a sufficiently

large amount of data.

Keywords: simulation, prediction error, linear regression, CART classification

and regression trees.

1. Introduccion

El modelo lineal clasico ha sido utilizado extensivamente y con mucho exito en

multiples situaciones. Tiene ventajas que lo hacen muy util para el usuario, de-

bido a que es facil de interpretar, facil de estimar y poco costoso. La facilidad

de interpretacion de este modelo lo ha popularizado bastante y no es raro ver su

ajuste en situaciones inapropiadas, por ejemplo, en respuestas que son discretas

o sesgadas; y el desespero por parte de los usuarios por aproximarse a el, por

ejemplo, mediante transformaciones de los datos, sin considerar los cambios en la

estructura del error. Por lo anterior, es necesario un modelo que tenga similares

ventajas y que no sea tan rıgido con los supuestos, para que el usuario final lo

pueda aplicar tranquilamente.

Los arboles de clasificacion y regresion (CART) es un metodo que utiliza datos

historicos para construir arboles de clasificacion o de regresion, los cuales son usa-

dos para clasificar o predecir nuevos datos. Estos arboles CART pueden manipular

facilmente variables numericas y categoricas. Entre otras ventajas esta su robus-

tez a outliers, la invarianza en la estructura de sus arboles de clasificacion o de

regresion a transformaciones monotonas de las variables independientes, y sobre

todo, su interpretabilidad.

Desde el planteamiento de los arboles de clasificacion y regresion CART por Leo

Breiman y otros en 1984 (Breiman et al. 1984), se presento gran interes en la

utilizacion de esta metodologıa por parte de la comunidad cientıfica debido a su

facil implementacion en todo tipo de problemas y su clara interpretacion de los

resultados.

Muchos investigadores despues de la publicacion del libro de Breiman (Breiman

et al. 1984) han planteado variaciones del metodo en sus distintas etapas, pero

en muchos casos la idea inicial del particionamiento recursivo es la misma, otros

han aplicado CART y sus variaciones en distintos campos como la medicina, la

biologıa y el aprendizaje de maquinas. Algunos investigadores han comparado es-

ta metodologıa con otras tecnicas de modelamiento como Tamminen, Laurinen y

Roning (Tamminen et al. 1999) quienes en 1999, debido a que el sistema fısico de

los humanos es altamente no lineal y la regresion lineal tradicional no puede ser

usada como modelo de aproximacion, compararon los arboles de regresion con las

redes neuronales en un conjunto de datos obtenidos por un metodo de medicion

de aptitud aerobica, concluyendo que las redes neuronales son una potente herra-

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 177

mienta de aproximacion, pero se dificulta la interpretacion del modelo, mientras

que los arboles de regresion son faciles de visualizar y su estructura es mas com-

prensible. Ankarali, Canan, Akkus, Bugdayci y Ali Sungur (Ankarali et al. 2007)

en 2007 compararon los metodos de arboles de clasificacion y regresion logıstica en

la determinacion de factores de riesgo sociodemograficos que influyen en el estado

de depresion de 1447 mujeres en periodos separados de posparto, y concluyeron

que los arboles de clasificacion dan informacion mas detallada sobre el diagnostico

mediante la evaluacion conjunta de una gran cantidad de factores de riesgo que el

modelo de regresion logıstica.

El problema central es comparar por medio de un estudio de simulacion, a nivel

predictivo, el metodo no parametrico CART con el metodo parametrico Regresion

lineal, dos tecnicas que tienen similares ventajas en cuanto a la simplicidad de sus

modelos y su facil interpretacion de los resultados. En la seccion 2 se presenta

el metodo CART: particionamiento recursivo, arboles de clasificacion y arboles de

regresion. En la seccion 3 se describe el estudio de simulacion: errores de prediccion

y pasos. En las secciones 4 y 5 se simulan conjuntos de datos cuyo verdadero modelo

es un modelo de regresion lineal y se ajusta a estos datos tanto los modelos de

regresion correctos como modelos de regresion incorrectos, para comparar luego

sus errores de prediccion con los errores de prediccion de arboles de regresion

ajustados a los mismos datos. En las secciones 6 y 7 se dan las conclusiones y

agradecimientos.

2. CART

2.1. Particionamiento recursivo

El algoritmo conocido como particionamiento recursivo es el proceso paso a paso

para construir un arbol de decision y es la clave para el metodo estadıstico no

parametrico CART (Izenman 2008).

Sea Y una variable respuesta y sean p variables predictoras x1, x2, . . . , xp, donde

las x´s son tomadas fijas y Y es una variable aleatoria. El problema estadıstico

es establecer una relacion entre Y y las x´s de tal forma que sea posible prede-

cir Y basado en los valores de las x´s. Matematicamente, se quiere estimar la

probabilidad condicional de la variable aleatoria Y ,

P [Y = y|x1, x2, . . . , xp]

cuando la variable Y es discreta, o un funcional de su probabilidad tal como la

esperanza condicional

E[Y |x1, x2, . . . , xp].

cuando la variable Y es continua.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

178 Juan Felipe Dıaz & Juan Carlos Correa

2.1.1. Elementos de la construccion del arbol

Segun Zhang & Singer (2010) para ilustrar las ideas basicas considere el diagrama

de la Figura 1.

Figura 1: Ejemplo arbol. Fuente: modificado de Zhang & Singer 2010.

El arbol tiene tres niveles de nodos. El primer nivel tiene un unico nodo en la cima

(el cırculo) llamado nodo raız. Un nodo interno (el cırculo) en el segundo nivel, y

tres nodos terminales (las cajas) que estan respectivamente en el segundo y tercer

nivel. El nodo raız y el nodo interno son particionados cada uno en dos nodos en

el siguiente nivel, los cuales son llamados nodos hijos izquierdo y derecho.

El nodo raız contiene una muestra de sujetos desde la cual se aumenta el arbol,

es decir, desde donde se desprenden los demas nodos. Estos sujetos constituyen

lo que se llama una muestra de aprendizaje, la cual puede ser la muestra total en

estudio o una parte de esta.

El objetivo del particionamiento recursivo es acabar en nodos terminales que sean

homogeneos en el sentido de que ellos contengan solo puntos o cırculos Figura 1b.

Una medida cuantitativa de la homogeneidad de un nodo es la nocion de impureza,

para la cual se define el siguiente indicador:

Impureza del nodo =# sujetos que cumplen la caracterıstica en el nodo

# total de sujetos en el nodo. (1)

En la Figura 1, si la caracterıstica es ser cırculo, el nodo hijo izquierdo del nodo

raız tiene impureza igual a 1, debido a que en este nodo solo hay cırculos, pero,

si la caracterıstica es ser punto, la impureza es igual a 0, debido a que no hay

ningun punto en este nodo. Notese que en el nodo hijo derecho del nodo raız el

numero de cırculos es aproximadamente igual al numero de puntos, teniendo este

nodo una medida de la impureza de aproximadamente 0.5 independientemente de

si la caracterıstica sea ser cırculo o punto. Mientras mas homogeneo sea el nodo el

lımite del cociente en la ecuacion (1) es 0 o 1.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 179

2.1.2. Division de un nodo

Para dividir el nodo raız en dos nodos homogeneos, se debe seleccionar entre los

rangos de todas las variables predictoras el valor de la division que mas lleve al

lımite de 0 o 1 el cociente en la ecuacion (1) para cada nodo hijo. En la Figura

1 a) se selecciono como division el valor c2 entre el rango de la variable x3. El

proceso continua para los dos nodos hijos, teniendo en cuenta para cada nodo el

rango resultante de la variable con la que se dividio el nodo padre y el rango de

las demas variables involucradas.

Antes de seleccionar la mejor division, se debe definir la bondad de una division.

Se busca una division que resulte en dos nodos hijos puros (u homogeneos). Sin

embargo, en la realidad los nodos hijos son usual y parcialmente puros. Ademas,

la bondad de una division debe poner en una balanza la homogeneidad (o la

impureza) de los dos nodos hijos simultaneamente.

2.1.3. Nodos terminales

El proceso de particionamiento recursivo continua hasta que el arbol sea saturado

en el sentido de que los sujetos en los nodos descendientes no se pueden partir en

una division adicional. Esto sucede, por ejemplo, cuando en un nodo queda solo un

sujeto. El numero total de divisiones permitidas para un nodo disminuye cuando

aumentan los niveles del arbol. Cualquier nodo que no pueda o no sea dividido es un

nodo terminal. El arbol saturado generalmente es bastante grande para utilizarse,

porque los nodos terminales son tan pequenos que no se puede hacer inferencia

estadıstica razonable, debido a que los datos quedan ”sobre-ajustados”, es decir,

el arbol alcanza un ajuste tan fiel a la muestra de aprendizaje que cuando en la

practica se aplique el modelo obtenido a nuevos datos los resultados pueden ser

muy malos, y por tanto, no es necesario esperar hasta que el arbol sea saturado.

En lugar de esto, se escoge un tamano mınimo de nodo apriori. Se detiene la

division cuando el tamano del nodo es menor que el mınimo. La escogencia del

tamano mınimo depende del tamano de muestra (uno por ciento) o se puede tomar

simplemente como cinco sujetos (los resultados generalmente no son significativos

con menos de cinco sujetos).

Breiman et al. (1984) argumentan que dependiendo del lımite de parada, el par-

ticionamiento tiende a terminar muy pronto o muy tarde. En consecuencia, ellos

hacen un cambio fundamental introduciendo un segundo paso llamado “poda”.

La poda consiste en encontrar un subarbol del arbol saturado que sea el mas “pre-

dictivo” de los resultados y menos vulnerable al ruido en los datos. Los subarboles

se obtienen podando el arbol saturado desde el ultimo nivel hacia arriba. Por

ejemplo, el arbol de la Figura 2a es un subarbol del arbol de la Figura 2b.

Los pasos de particionamiento y poda se pueden ver como variantes de los procesos

paso a paso forward y backward en regresion lineal.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

180 Juan Felipe Dıaz & Juan Carlos Correa

Figura 2: El nodo 1 se divide en los nodos 2 y 3, luego, el nodo 2 se divide en los

nodos 3 y 4. Fuente: modificado de Zhang & Singer 2010.

2.2. Arboles de clasificacion

Los arboles de clasificacion y regresion (CART) fueron desarrollados en los anos

ochenta por Breiman, Freidman, Olshen y Stone en el libro Classification and

regression trees (Breiman et al. 1984).

La metodologıa CART utiliza datos historicos para construir arboles de clasifica-

cion o de regresion, los cuales son usados para clasificar o predecir nuevos datos.

Estos arboles CART pueden manipular facilmente como variable respuesta varia-

bles numericas y categoricas. Entre otras ventajas esta su robustez a outliers, la

invarianza en la estructura de sus arboles de clasificacion o de regresion a trans-

formaciones monotonas de las variables independientes, y sobre todo, su interpre-

tabilidad.

Esta metodologıa consiste de tres pasos:

Construccion del arbol saturado.

Escogencia del tamano correcto del arbol.

Clasificacion de nuevos datos usando el arbol construido.

La construccion del arbol saturado se hace con particionamiento recursivo. La

diferencia en la construccion de los arboles de clasificacion y los arboles de regresion

es el criterio de division de los nodos, es decir, la medida de impureza y la bondad

de una division es diferente para los arboles de clasificacion y de regresion. En esta

seccion se considera primero la construccion de arboles de clasificacion.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 181

2.2.1. Determinacion de la division de un nodo

Sea Y una variable dicotomica con valores 0 y 1, y sea τ un nodo. Para construir

el arbol saturado, en el proceso de particionamiento recursivo se tiene que, si τes el nodo menos impuro la impureza es 0 y debe tener como resultado P [Y =

1|τ ] = 0 o P [Y = 1|τ ] = 1. El nodo τ es mas impuro cuando su impureza es 1

con P [Y = 1|τ ] = 1

2. Por tanto, la funcion impureza tiene una forma concava y se

puede definir formalmente como

i(τ) = φ(P [Y = 1|τ ]), (2)

donde φ tiene las siguientes propiedades,

(i) φ ≥ 0 y

(ii) para cualquier p ∈ (0, 1), φ(p) = φ(1 − p) y φ(0) = φ(1) < φ(p).

Las escogencias mas comunes de funciones de impureza para la construccion de

arboles de clasificacion son:

φ(p) = min(p, 1− p), (mınimo error o error de Bayes)

φ(p) = −p log(p)− (1 − p) log(1− p), (entropıa)

φ(p) = p(1− p), (ındice Gini)

donde, se define 0 log(0) := 0.

Ademas, se define la bondad de una division s como

∆I(τ) = i(τ)− P [τL]i(τL)− P [τR]i(τR), (3)

donde τ es el nodo padre del nodo izquierdo τL y del nodo derecho τR, y P [τL] yP [τR] son respectivamente las probabilidades de que un sujeto caiga dentro de los

nodos τL y τR.

La ecuacion (3) mide el grado de reduccion de la impureza cuando se pasa del

nodo padre a los nodos hijos. Se selecciona s tal que ∆I(τ) sea maxima.

2.2.2. Determinacion de los nodos terminales

Una vez se tiene construido el arbol saturado se inicia la etapa de poda. La po-

da consiste en encontrar el subarbol del arbol saturado con la mejor calidad en

cuanto a que sea lo mas predictivo posible y lo menos sensible al ruido de los

datos. Es decir, se debe definir una medida de calidad de un arbol. Para esto se

debe recordar que el objetivo de los arboles de clasificacion es el mismo que el

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

182 Juan Felipe Dıaz & Juan Carlos Correa

del particionamiento recursivo: extraer subgrupos homogeneos de la poblacion o

muestra en estudio. Para alcanzar este objetivo se debe tener certeza de que los

nodos terminales son homogeneos, es decir, la calidad de un arbol es simplemente

la calidad de sus nodos terminales. Por tanto, para un arbol T se define

R(T ) =∑

τ∈ ˜T

P[τ ]r(τ), (4)

donde T es el conjunto de nodos terminales de T , P[τ ] es la probabilidad de que

un sujeto pertenezca al nodo τ y r(τ), es una medida de calidad del nodo τ la cual

es similar a la suma de cuadrados de los residuales en regresion lineal.

El proposito de la poda es seleccionar el mejor subarbol, T ∗, de un arbol saturado

inicialmente, T0, tal que R(T ∗) sea mınimo.

Una escogencia obvia para r(τ) es la medida de impureza del nodo τ , aunque en ge-

neral se toma como el costo de mala clasificacion, es decir, r(τ) =∑l

i=1c(j|i)P[Y =

i|τ ], donde c(i|j) es el costo de mala clasificacion de que un sujeto de la clase j seaclasificado en la clase i, con i, j = 1, . . . , l. Cuando i = j, se tiene la clasificacion

correcta y el costo deberıa ser cero, es decir, c(i|i) = 0.

Generalmente, es difıcil en la practica medir el costo relativo c(j|i) para i = j, ypor tanto, no se puede asignar el costo de mala clasificacion de cada nodo antes

de aumentar cualquier arbol, incluso cuando se conoce el perfil del arbol. Por otra

parte, existe suficiente evidencia empırica en la literatura que demuestra que el

uso de una funcion de impureza como la entropıa usualmente lleva a arboles utiles

con tamanos de muestra razonables.

Estimacion del costo de mala clasificacion

Sea Rs(τ) la proporcion de elementos mal clasificados del nodo τ , tambien conocida

como estimacion por resustitucion del costo de mala clasificacion para el nodo τ .Se define la estimacion por resustitucion del costo de mala clasificacion para el

arbol T como,

Rs(T ) =∑

τ∈ ˜T

Rs(τ). (5)

Zhang & Singer (2010) afirman que esta estimacion por resustitucion generalmente

subestima el costo. Ademas, Breiman et al. (1984) prueban que a medida que

aumentan los nodos en el arbol disminuye la estimacion por resustitucion (5), y

como consecuencia, este estimador tiene el problema de seleccionar arboles sobre-

ajustados.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 183

2.2.3. Costo-complejidad

El tamano del arbol es importante a la hora de dar conclusiones sobre la muestra

o poblacion en estudio, debido a que un arbol con una gran cantidad de nodos

puede tener problemas de sobreajuste. Una medida de la calidad de un arbol debe

tener en cuenta tanto la calidad de los nodos terminales como el tamano del arbol

(numero de nodos del arbol), y tener en cuenta solo el costo de mala clasificacion

puede llevar a arboles muy grandes.

Se define el costo-complejidad del arbol T como

Rα(T ) = R(T ) + α|T |, (6)

donde α (≥ 0) es el parametro de complejidad y |T | es el numero de nodos termi-

nales en T llamado complejidad del arbol T . La diferencia entre R(T ) y Rα(T )

como una medida de la calidad del arbol reside en que Rα(T ) penaliza un gran

arbol.

Aunque se dijo anteriormente que la aproximacion por resustitucion tiene sus

problemas al estimar el costo de mala clasificacion para un nodo, es muy util al

estimar el costo-complejidad.

El uso del costo-complejidad permite construir una secuencia de subarboles opti-

mos anidados (ver Zhang & Singer 2010) desde cualquier arbol T dado. La idea

es construir una secuencia de subarboles anidados para un arbol saturado T , mi-

nimizando el costo-complejidad Rα(T ), y seleccionar como subarbol final el que

tenga el mas pequeno costo de mala clasificacion de estos subarboles.

Cuando se tiene una muestra de prueba, estimar R(T ) es sencillo para cualquier

subarbol T , porque solo se necesita aplicar los subarboles a la muestra de prueba

y luego se escoge el mejor valor de α, pero, si no se tiene una muestra de prueba,

se pueden crear muestras artificiales utilizando el proceso de validacion cruzada

(ver Zhang & Singer 2010) para estimar R(T ) y ası escoger el mejor valor de α.

2.3. Arboles de regresion

En la construccion de arboles de clasificacion se indico que es necesario una medida

de impureza dentro de un nodo, es decir, un criterio de division de nodo para

construir un gran arbol y luego un criterio de costo-complejidad para podarlo.

Estas directrices generales se aplican cada vez que se intenta desarrollar metodos

basados en arboles. Para la construccion de arboles de clasificacion la variable

respuesta debe ser categorica, mientras que para la construccion de arboles de

regresion la variable respuesta debe ser continua. En general, la metodologıa para

construir arboles de clasificacion y arboles de regresion es la misma, por tanto, los

pasos vistos anteriormente para construir arboles de clasificacion son aplicables en

la construccion de arboles de regresion. La diferencia radica en la escogencia de la

funcion impureza para dividir un nodo y en la estimacion del costo-complejidad

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

184 Juan Felipe Dıaz & Juan Carlos Correa

para podar el arbol. Para una respuesta continua, una escogencia natural de la

impureza para un nodo τ es la varianza de la respuesta dentro del nodo:

i(τ) =∑

sujeto i∈τ

(Yi − Y (τ))2, (7)

donde Y (τ) es el promedio de Yi´s dentro del nodo τ . Para dividir un nodo τ en

dos nodos hijos, τL y τR, se define la bondad de una division s como

∆I(τ) = i(τ)− i(τL)− i(τR). (8)

A diferencia de la ecuacion (3), la ecuacion (8) no necesita pesos. Ademas, se puede

hacer uso de i(τ) para definir el costo del arbol como

R(T ) =∑

τ∈ ˜T

i(τ), (9)

y luego sustituirlo en la ecuacion (6) para formar el costo-complejidad.

3. Descripcion del estudio de simulacion

3.1. Medidas del error de prediccion

Suponga que se tiene un conjunto de datos (x1, y1), (x2, y2), . . . , (xn, yn) que sigueun modelo de regresion lineal:

yi = β0 + β1xi1 + . . .+ βpxip + εi, donde εi ∼ N(0, σ2), i = 1, . . . , n. (10)

De lo anterior se sabe que

yverdi = E(yi) = β0 + β1xi1 + . . .+ βpxip, i = 1, . . . , n.

Se ajusta un modelo de regresion lineal a los datos (x1, y1), (x2, y2), . . . , (xn, yn),luego, los valores predichos son de la forma:

yregi = β0 + β1xi1 + . . .+ βpxip, i = 1, . . . , n,

donde, β0, β1, . . . , βp son las estimaciones por mınimos cuadrados de los parametros

β0, β1, . . . , βp.

Por tanto, el error de prediccion por regresion lineal se calcula como

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 185

EPRL =

ni=1

(yregi − yverdi)2

n. (11)

Ademas, se ajusta un arbol de regresion a los datos (x1, y1), (x2, y2), . . . , (xn, yn),obteniendo un arbol de l nodos terminales. Sean C1, C2, . . . , Cl las clases corres-

pondientes a los l nodos terminales, luego, los valores predichos por el arbol de

regresion son de la forma:

ycarti =

rk si xi ∈ Ck ; k = 1, . . . , l

0 si en otro caso

donde,

rk =

yi|xi ∈ Ck, i = 1, . . . , n

#(yi|xi ∈ Ck, i = 1, . . . , n); k = 1, . . . , l.

Por tanto, el error de prediccion por CART se calcula como

EPCART =

ni=1

(ycarti − yverdi)2

n. (12)

3.2. Pasos del estudio de simulacion

Los conjuntos de datos simulados en este trabajo se generan de modelos de regre-

sion lineal de la forma:

Yi = F (xi1, xi2, . . . , xip) + εi, donde εi ∼ N(0, σ2), i = 1, . . . , n (13)

donde

E[Yi] = F (xi1, xi2, . . . , xip) = β0+

p

j=1

βjxij = β0+

p

j=1

βjgj(xi) = f(xi), i = 1, . . . , n

(14)

mediante los siguientes pasos:

1. Se especifican las funciones g1(x), . . . , gp(x) y valores de los parametros

β0, β1, . . . , βp en la ecuacion (14).

2. Se genera una secuencia de n numeros x1, x2, . . . , xn igualmente espaciados

del conjunto (soporte) X = [1, 100].

3. Se generan aleatoriamente n numeros ε1, ε2, . . . , εn de la distribucionN(0, σ2).

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

186 Juan Felipe Dıaz & Juan Carlos Correa

4. Se calculan los valores yi = f(xi) + εi para todo i = 1, . . . , n.

5. Se estandarizan los datos y1, y2, . . . , yn obteniendo y∗1, y∗

2, . . . , y∗n, donde,

y∗i =yi − y

sy(15)

6. Se toma como muestra de aprendizaje L = (x1, y∗

1), (x2, y

2), . . . , (xn, y

n)la cual sigue el modelo de regresion lineal descrito por la ecuacion (13).

7. Para la muestra de aprendizaje L se ajusta un modelo de regresion lineal

utilizando la librerıa MASS y se ajusta un arbol de regresion utilizando la

librerıa rpart del paquete estadıstico R.

8. Se estiman los errores de prediccion para el modelo de regresion lineal ajusta-

do y para el arbol de regresion ajustado, los cuales se definen respectivamente

en las ecuaciones (11) y (12).

9. Se repiten los pasos 3 a 8 para obtener 1000 errores de prediccion por regre-

sion lineal EPRL1, EPRL2,..., EPRL1000 y 1000 errores de prediccion por

arboles de clasificacion EPCART1, EPCART2,..., EPCART1000.

10. Se calcula el promedio de los 1000 errores de prediccion para regresion li-

neal y el promedio de los 1000 errores de prediccion para arboles de regre-

sion, los cuales son respectivamente EPRL =∑

1000

k=1EPRLk

1000y EPCART =

∑1000

k=1EPCARTk

1000.

11. Se calcula la diferencia de logaritmos de los errores de prediccion,DIFLOG =

Log(EPCART )−Log(EPRL), la cual es una medida de proximidad de los

dos errores. A medida que DIFLOG → 0, los dos errores de prediccion se

van acercando entre ellos. Si DIFLOG > 0 entonces EPCART > EPRL y

la regresion lineal predice mejor los datos que los arboles de regresion, pero,

si DIFLOG < 0 entonces EPCART < EPRL y los arboles de regresion

predicen mejor los datos que la regresion lineal. Si DIFLOG = 0 entonces

EPCART = EPRL y ambos modelos predicen igual.

4. Comparacion de las predicciones cuando elmodelo lineal ajustado es el correcto

En esta seccion se supone que los datos siguen un modelo de regresion lineal

especıfico. Se ajusta un arbol de regresion CART y el modelo correcto a los datos

para predecir la respuesta. El objetivo es comparar las magnitudes de los errores

de prediccion de CART y de regresion lineal, cambiando el tamano y la varianza

de los errores de los datos. A continuacion, se simularan conjuntos de datos para

cinco modelos de regresion lineal, dos modelos cuadraticos y tres trigonometricos,

variando el numero de datos y la desviacion estandar de los errores.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 187

4.1. Prediccion de modelos de regresion lineal cuadraticos

Suponga que se tiene un conjunto de datos (x1, y1), (x2, y2), . . . , (xn, yn) que sigueun modelo de regresion cuadratico de la forma:

yi = β0 + β1xi + β2x2

i + εi, donde εi ∼ N(0, σ2), i = 1, . . . , n. (16)

De lo anterior, se sabe que

yverdi = E(yi) = β0 + β1xi + β2x2

i , i = 1, . . . , n. (17)

Para simular los conjuntos de datos se siguen los pasos descritos en la seccion 1.5.

En el paso 1, se toma p = 2 y se especifican las funciones

g1(x) = x, g2(x) = x2. (18)

El primer modelo por analizar se obtiene al sustituir β0 = 1, β1 = 2, β2 = 3 en la

ecuacion (16) y se llamara modelo cuadratico 1. El segundo modelo por analizar

se obtiene al sustituir β0 = 680, β1 = −22, β2 = 0.25 en la ecuacion (16) y se

llamara modelo cuadratico 2.

En la Tabla 1 se puede observar para los modelos cuadraticos 1 y 2, que para

cualquier valor de n fijo, al aumentar la desviacion estandar σ, los errores de

prediccion de la regresion lineal y de CART se aproximan entre sı, siendo en todos

los casos menor el error de prediccion de la regresion lineal.

En los graficos de los modelos cuadraticos de la Tabla 2, se puede ver como las pre-

dicciones de CART describen la forma del verdadero modelo de los datos simulados

para n = 100 y n = 1000.

4.2. Prediccion de modelos de regresion linealtrigonometricos

Suponga que se tiene un conjunto de datos (x1, y1), (x2, y2), . . . , (xn, yn) que sigueun modelo trigonometrico de la forma:

yi = a sin(bxi + c) + d+ εi, donde εi ∼ N(0, σ2), i = 1, . . . , n (19)

donde el valor de b es conocido. De lo anterior se tiene que

yverdi = E(yi) = a sin(bxi + c) + d, i = 1, . . . , n. (20)

El modelo (19) se puede reescribir como

a sin(bxi+c)+d+εi = a sin(c) cos(bxi)+a cos(c) sin(bxi)+d+εi, i = 1, . . . , n. (21)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 187

4.1. Prediccion de modelos de regresion lineal cuadraticos

Suponga que se tiene un conjunto de datos (x1, y1), (x2, y2), . . . , (xn, yn) que sigueun modelo de regresion cuadratico de la forma:

yi = β0 + β1xi + β2x2

i + εi, donde εi ∼ N(0, σ2), i = 1, . . . , n. (16)

De lo anterior, se sabe que

yverdi = E(yi) = β0 + β1xi + β2x2

i , i = 1, . . . , n. (17)

Para simular los conjuntos de datos se siguen los pasos descritos en la seccion 1.5.

En el paso 1, se toma p = 2 y se especifican las funciones

g1(x) = x, g2(x) = x2. (18)

El primer modelo por analizar se obtiene al sustituir β0 = 1, β1 = 2, β2 = 3 en la

ecuacion (16) y se llamara modelo cuadratico 1. El segundo modelo por analizar

se obtiene al sustituir β0 = 680, β1 = −22, β2 = 0.25 en la ecuacion (16) y se

llamara modelo cuadratico 2.

En la Tabla 1 se puede observar para los modelos cuadraticos 1 y 2, que para

cualquier valor de n fijo, al aumentar la desviacion estandar σ, los errores de

prediccion de la regresion lineal y de CART se aproximan entre sı, siendo en todos

los casos menor el error de prediccion de la regresion lineal.

En los graficos de los modelos cuadraticos de la Tabla 2, se puede ver como las pre-

dicciones de CART describen la forma del verdadero modelo de los datos simulados

para n = 100 y n = 1000.

4.2. Prediccion de modelos de regresion linealtrigonometricos

Suponga que se tiene un conjunto de datos (x1, y1), (x2, y2), . . . , (xn, yn) que sigueun modelo trigonometrico de la forma:

yi = a sin(bxi + c) + d+ εi, donde εi ∼ N(0, σ2), i = 1, . . . , n (19)

donde el valor de b es conocido. De lo anterior se tiene que

yverdi = E(yi) = a sin(bxi + c) + d, i = 1, . . . , n. (20)

El modelo (19) se puede reescribir como

a sin(bxi+c)+d+εi = a sin(c) cos(bxi)+a cos(c) sin(bxi)+d+εi, i = 1, . . . , n. (21)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

188 Juan Felipe Dıaz & Juan Carlos Correa

Tabla 1: Comparacion de los errores de prediccion para los modelos cuadraticos.

Fuente: elaboracion propiaCuadratico 1 Cuadratico 2

n σ DIFLOG n σ DIFLOG1 8.8029 1 5.4355

10 6.7680 5 4.0401

50 100 4.7744 50 10 3.4510

500 3.3271 25 2.5974

1000 2.6916 50 1.8948

2000 1.9102 100 1.1250

1 8.6704 1 5.7342

10 6.6368 5 4.2644

100 100 4.5679 100 10 3.5766

500 3.0888 25 2.6834

1000 2.3725 50 1.8463

2000 1.5971 100 0.9506

1 9.1452 1 6.0454

10 7.0944 5 4.5622

500 100 5.0816 500 10 3.9003

500 3.5544 25 2.7633

1000 2.6974 50 1.7254

2000 1.6999 100 0.7671

1 9.4044 1 6.3086

10 7.4077 5 4.8416

1000 100 5.3838 1000 10 4.0910

500 3.7601 25 2.8315

1000 2.7961 50 1.7460

2000 1.7307 100 0.7736

1 10.1050 1 7.0107

10 8.1027 5 5.3742

5000 100 6.0591 5000 10 4.3912

500 3.9929 25 2.9208

1000 2.8959 50 1.7731

2000 1.7763 100 0.7815

Para simular los conjuntos de datos se siguen los pasos descritos en la seccion 1.5.

En el paso 1, se toma p = 2, se especifican las funciones

g1(x) = cos(bx), g2(x) = sin(bx), (22)

y se especifican los valores de los parametros β0 = d, β1 = a sin(c) y β2 = a cos(c).

Para encontrar a, c y d en terminos de β0, β1 y β2, se resuelven las ecuaciones

a = ±√(β2

1+ β2

2), c = arctan(β1/β2), d = β0. (23)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 189

Tabla 2: Graficos de las predicciones para los modelos cuadraticos. Fuente: elabo-

racion propia

Cuadratico 1 Cuadratico 1

0 20 40 60 80 100

010

000

2000

030

000

x

Y C

uadr

átic

a

Datos simuladosRegresión linealCART

0 20 40 60 80 100

010

000

2000

030

000

xY

Cua

drát

ica

Datos simuladosRegresión linealCART

Cuadratico 2 Cuadratico 2

0 20 40 60 80 100

−200

020

040

060

0

x

Y C

uadr

átic

a

Datos simuladosRegresión linealCART

0 20 40 60 80 100

−200

020

040

060

0

x

Y C

uadr

átic

a

Datos simuladosRegresión linealCART

El tercer modelo por analizar se obtiene al sustituir a = 10, b = 0.1, c = 1, d = 12

en la ecuacion (19) y se llamara modelo trigonometrico 1. El cuarto modelo por

analizar se obtiene al sustituir a = 10, b = 0.5, c = 1, d = 12 en la ecuacion

(19) y se llamara modelo trigonometrico 2. El quinto y ultimo modelo por analizar

se obtiene de sustituir a = 10, b = 1, c = 1, d = 12 en la ecuacion (19) y se

llamara modelo trigonometrico 3.

De igual manera que para los modelos cuadraticos, en la Tabla 3 se puede observar

para los modelos trigonometricos 1, 2 y 3, que para cualquier valor de n fijo, al

aumentar la desviacion estandar σ, los errores de prediccion de la regresion lineal

y de CART se aproximan entre sı, siendo en todos los casos menor el error de

prediccion de la regresion lineal.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

190 Juan Felipe Dıaz & Juan Carlos Correa

Tabla 3: Comparacion de los errores de prediccion para los modelos trigonometri-

cos. Fuente: elaboracion propiaTrigonometrico 1 Trigonometrico 2 Trigonometrico 3

n σ DIFLOG n σ DIFLOG n σ DIFLOG0.1 4.6871 0.1 5.3747 0.1 5.4009

0.3 3.7664 0.3 4.3779 0.3 4.4733

50 0.5 3.3019 50 0.5 3.9477 50 0.5 3.9775

0.8 2.9084 0.8 3.5096 0.8 3.5627

1 2.6753 1 3.3064 1 3.3305

2 1.9181 2 2.5195 2 2.5511

0.1 4.6585 0.1 5.5911 0.1 5.6893

0.3 3.7042 0.3 4.5872 0.3 4.7109

100 0.5 3.1851 100 0.5 4.1200 100 0.5 4.2248

0.8 2.7160 0.8 3.6437 0.8 3.8107

1 2.4882 1 3.4060 1 3.5492

2 1.6586 2 2.5312 2 2.6679

0.1 5.1325 0.1 5.4799 0.1 5.8220

0.3 4.1113 0.3 4.4435 0.3 4.8207

500 0.5 3.5220 500 0.5 3.9073 500 0.5 4.2554

0.8 2.9345 0.8 3.3196 0.8 3.6504

1 2.6243 1 3.0206 1 3.3276

2 1.5876 2 2.0048 2 2.2863

0.1 5.4128 0.1 5.7053 0.1 6.1348

0.3 4.3312 0.3 4.6271 0.3 5.0262

1000 0.5 3.7003 1000 0.5 4.0429 1000 0.5 4.3948

0.8 3.0333 0.8 3.3894 0.8 3.7299

1 2.6955 1 3.0631 1 3.3895

2 1.6081 2 2.0030 2 2.2809

0.1 6.0474 0.1 6.3035 0.1 6.7301

0.3 4.7021 0.3 4.9564 0.3 5.3738

5000 0.5 3.9106 5000 0.5 4.1899 5000 0.5 4.5899

0.8 3.1304 0.8 3.4461 0.8 3.8144

1 2.7607 1 3.0925 1 3.4445

2 1.6242 2 2.0165 2 2.2933

En los graficos de los modelos trigonometricos 1 y 2 de la Tabla 4 se puede ver como

las predicciones de CART describen la forma del verdadero modelo de los datos

simulados para n = 100 y n = 1000. En los graficos del modelo trigonometrico 3

de la Tabla 4 se ve que las predicciones de CART no describen la forma verdadera

de los datos con n = 100, pero, si la describen con n = 1000. Notese que este

modelo de regresion tiene una forma mas compleja que los modelos anteriores en

cuanto al numero de maximos y mınimos locales que tiene su grafica.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 191

Tabla 4: Graficos de las predicciones para los modelos trigonometricos. Fuente:

elaboracion propia

Trigonometrico 1 Trigonometrico 1

0 20 40 60 80 100

05

1015

2025

x

Y Tr

igon

omét

rica

Datos simuladosRegresión linealCART

0 20 40 60 80 100

05

1015

2025

xY

Trig

onom

étric

a

Datos simuladosRegresión linealCART

Trigonometrico 2 Trigonometrico 2

0 20 40 60 80 100

05

1015

2025

x

Y Tr

igon

omét

rica

Datos simuladosRegresión linealCART

0 20 40 60 80 100

05

1015

2025

30

x

Y Tr

igon

omét

rica

Datos simuladosRegresión linealCART

Trigonometrico 3 Trigonometrico 3

0 20 40 60 80 100

05

1015

2025

x

Y Tr

igon

omét

rica

Datos simuladosRegresión linealCART

0 20 40 60 80 100

05

1015

2025

30

x

Y Tr

igon

omét

rica

Datos simuladosRegresión linealCART

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

192 Juan Felipe Dıaz & Juan Carlos Correa

5. Comparacion de las predicciones cuando elmodelo lineal ajustado es incorrecto

A continuacion se tomaran tres modelos de regresion lineal de los descritos en la

seccion 3 para generar conjuntos de datos, a los cuales se ajustan rectas de regresion

lineal como modelo equivocado para comparar estas predicciones con las de CART.

Se escogieron estos modelos porque hay casos en el estudio de simulacion en que

la recta de regresion predice mejor los datos que los arboles de regresion cuando

el tamano muestral es pequeno. El objetivo es ver como CART toma ventaja

del aumento del tamano muestral para predecir mejor los datos que la recta de

regresion en estos modelos.

En la Tabla 5 se puede observar para el modelo cuadratico 1, que en general CART

predice mejor la respuesta que la recta de regresion, exceptuando para n = 50,

donde los errores de prediccion de la recta de regresion son mas pequenos que los

de CART. En los graficos del modelo cuadratico 1 de la Tabla 6, se puede ver

como las predicciones de CART se adaptan a la forma del verdadero modelo de

los datos simulados.

En la Tabla 5 se observa para el modelo trigonometrico 2, que CART es mas preciso

que la recta de regresion, es decir, el error de prediccion de CART es menor que el

error de la recta de regresion para cualquier valor de n y cualquier valor de σ. Enlos graficos de la Tabla 6 para el modelo trigonometrico 2, se puede observar como

las predicciones de CART con n = 50 descubren patrones en los datos que pueden

no notarse a simple vista. Aunque se puede decir para n = 50 y n = 100 que las

predicciones de CART se adaptan a la forma del verdadero modelo de los datos

simulados, es claro que con n = 50 es mas difıcil describir la verdadera forma del

modelo por su cantidad de maximos y mınimos relativos. Para n = 100 es mas

clara la verdadera forma del modelo debido a que se tienen mas cantidad de datos

para describirlo.

En la Tabla 5 se observa para el modelo trigonometrico 3, que el error de prediccion

de CART es mayor que el de la recta de regresion para n = 50 cuando σ =

0.1, 0.3, 0.5, 0.8, y para n = 100 cuando σ = 0.1, 0.3, 0.5, pero, en los otros casos,

el error de prediccion de CART es menor. En los graficos de la Tabla 6 para el

modelo trigonometrico 3, se observa que las predicciones de CART aparentemente

forman una recta, es decir, CART carece de capacidad de captar la verdadera

forma del modelo con n = 100 datos, al igual que con n = 50. Se puede decir,

para este modelo, que con n = 50 y n = 100 es mas difıcil describir la verdadera

forma del modelo por su cantidad de maximos y mınimos relativos. Se observa

que con n = 500 las predicciones de CART se adaptan a la verdadera forma del

modelo debido a que se tiene mas cantidad de datos para describirlo. Si bien no

existe evidencia para todos los modelos que el aumento de n implica un aumento

en la precision de las predicciones de CART con respecto a la recta de regresion

(disminucion de la diferencia de logaritmos de los errores en la tabla), se puede

observar globalmente que esta precision para n = 50 y n = 100 es notablemente

menor que para n = 500, n = 1000 y n = 5000.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 193

En general se puede concluir que a medida que aumenta el numero de maximos

y mınimos relativos en el modelo trigonometrico los arboles de regresion tienen

mas problemas en describir la forma del verdadero modelo de los datos cuando el

numero de datos no es suficiente.

Tabla 5: Comparacion de los errores de prediccion con modelos lineales incorrectos.

Fuente: elaboracion propiaCuadratico 1 Trigonometrico 2 Trigonometrico 3

n σ DIFLOG n σ DIFLOG n σ DIFLOG1 0.3610 0.1 -0.0278 0.1 0.0001

10 0.3574 0.3 -0.0277 0.3 0.0001

50 100 0.3499 50 0.5 -0.0273 50 0.5 0.0001

500 0.3344 0.8 -0.0256 0.8 0.0000

1000 0.2969 1 -0.0239 1 -0.0001

2000 0.2600 2 -0.0175 2 0.0000

1 -0.0528 0.1 -0.1268 0.1 0.0001

10 -0.0528 0.3 -0.1305 0.3 0.0001

100 100 -0.1328 100 0.5 -0.1338 100 0.5 0.0001

500 -0.1891 0.8 -0.1363 0.8 -0.0003

1000 -0.2038 1 -0.1379 1 -0.0009

2000 -0.1915 2 -0.1397 2 -0.0086

1 -0.2721 0.1 -0.9144 0.1 -0.5408

10 -0.2722 0.3 -0.9007 0.3 -0.5430

500 100 -0.2993 500 0.5 -0.8847 500 0.5 -0.5414

500 -0.2933 0.8 -0.8636 0.8 -0.5369

1000 -0.2883 1 -0.8492 1 -0.5336

2000 -0.2611 2 -0.7981 2 -0.5127

1 -0.2709 0.1 -0.9292 0.1 -0.5459

10 -0.2713 0.3 -0.9292 0.3 -0.5459

1000 100 -0.2929 1000 0.5 -0.9090 1000 0.5 -0.5455

500 -0.2972 0.8 -0.8765 0.8 -0.5436

1000 -0.2830 1 -0.8642 1 -0.5426

2000 -0.2588 2 -0.8119 2 -0.5364

1 -0.2705 0.1 -0.9817 0.1 -0.5494

10 -0.2705 0.3 -0.9646 0.3 -0.5490

5000 100 -0.2761 5000 0.5 -0.9465 5000 0.5 -0.5485

500 -0.2927 0.8 -0.9136 0.8 -0.5478

1000 -0.2804 1 -0.8941 1 -0.5470

2000 -0.2414 2 -0.8179 2 -0.5415

6. Conclusiones

Del estudio de simulacion se concluye que, cuando se comparan las predicciones

de los arboles de regresion y las de regresion lineal al predecir la respuesta de

cualquier modelo de regresion analizado, sea cuadratico o trigonometrico, el error

de prediccion de la regresion lineal siempre es menor que el de CART. Aunque el

aumento de la varianza de los errores de los datos hace que el error de prediccion

de la regresion lineal se aproxime al de CART, el estudio de simulacion no muestra

ningun caso en que este error supere al de CART.

Al comparar las predicciones de los arboles de regresion y las de la recta de regre-

sion al predecir la respuesta del modelo cuadratico 1 y de los modelos trigonometri-

cos 2 y 3, se observa que siempre que se tenga la cantidad de datos suficiente para

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

194 Juan Felipe Dıaz & Juan Carlos Correa

Tabla 6: Graficos de los modelos lineales ajustados incorrectamente. Fuente: ela-

boracion propia

Cuadratico 1 Cuadratico 1

0 20 40 60 80 100−500

050

0015

000

2500

0

x

Y C

uadr

átic

a

Datos simuladosRecta de regresiónCART

0 20 40 60 80 100−500

050

0015

000

2500

0

xY

Cua

drát

ica

Datos simuladosRecta de regresiónCART

Trigonometrico 2 Trigonometrico 2

0 20 40 60 80 100

05

1015

2025

x

Y Tr

igon

omét

rica

Datos simuladosRecta de regresiónCART

0 20 40 60 80 100

05

1015

2025

x

Y Tr

igon

omét

rica

Datos simuladosRecta de regresiónCART

Trigonometrico 3 Trigonometrico 3

0 20 40 60 80 100

05

1015

2025

x

Y Tr

igon

omét

rica

Datos simuladosRecta de regresiónCART

0 20 40 60 80 100

05

1015

2025

x

Y Tr

igon

omét

rica

Datos simuladosRecta de regresiónCART

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comparacion entre arboles de regresion CART y regresion lineal 195

describir la forma funcional de la media de los datos, el error de prediccion de

CART es menor que el de la recta de regresion.

De lo anterior se puede concluir que, el modelo CART es una alternativa que prueba

ser una buena opcion cuando el usuario desconoce la forma funcional verdadera

del modelo, lo cual es comun en investigaciones reales, y puede utilizarse como una

primera etapa en la parte exploratoria en modelacion. Si el usuario esta seguro de

cual es la forma funcional de su modelo, entonces CART no es una opcion viable.

7. Agradecimientos

A los profesores Vıctor Ignacio Lopez Rıos y Rene Iral Palomino por sus invaluables

comentarios y sugerencias. A Diana Guzman Aguilar, Jorge Ivan Velez y en general

a la Escuela de Estadıstica y la Facultad de Ciencias de la Universidad Nacional

de Colombia, sede Medellın por haber propiciado un ambiente idoneo para la

realizacion de este trabajo.

Recibido: 27 de mayo de 2013

Aceptado: 20 de septiembre de 2013

Referencias

Ankarali, H., Canan, A., Akkus, Z., Bugdayci, R. & Ali Sungur, M. (2007), ‘Com-

parison of logistic regression model and classification tree: An application to

postpartum depression data’, Expert Systems with Applications 32, 987–994.

Breiman, L., Friedman, J., Olshen, R. & Stone, C. (1984), Classification And

Regression Trees, CHAPMAN & HALL/CRC, Boca Raton.

Izenman, A. (2008), Modern Multivariate Statistical Techniques, Springer, New

York.

Tamminen, S., Laurinen, P. & Roning, J. (1999), ‘Comparing regression trees with

neural networks in aerobic fitness approximation’.

Zhang, H. & Singer, B. (2010), Recursive Partitioning and Applications, Springer,

New York.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en EstadısticaDiciembre 2013, Vol. 6, No. 2, pp. 197–212

En defensa de la racionalidad bayesiana:

a proposito de Mario Bunge y su “Filosofıapara medicos”

In defense of bayesian rationality: about Mario Bunge and his

“Philosophy for physicians”

Luis Carlos Silvaa

[email protected]

Resumen

Se valoran crıticamente los juicios generales que se hacen sobre la teorıa de proba-

bilidades y su aplicacion en el campo de la salud en el libro Filosofıa para medicos,del fısico y epistemologo argentino Mario Bunge. La obra contiene varias impreci-

siones y desaciertos en esta materia, los cuales son objeto de analisis en el presente

artıculo. Al manejar los conceptos propios de la inferencia bayesiana, en particu-

lar en relacion con la aplicacion del teorema de Bayes, el libro incluye errores y

falacias que tambien se discuten e ilustran pormenorizadamente.

Palabras clave: inferencia, probabilidades subjetivas, frecuentismo, estadıstica

bayesiana, medicina.

Abstract

General judgments on the probability theory and its application on the field of

health are critically assessed in the book Philosophy for physicians, by the Ar-

gentinean physicist and epistemologist Mario Bunge. The work contains several

inaccuracies and mistakes in this subject, which are analyzed in this article. When

handling concepts of Bayesian inference, particularly in relation to the application

of Bayes’ theorem, the book includes errors and fallacies that are also discussed

and illustrated in detail.

Keywords: inference, subjective probabilities, frecuentist, Bayesian statistics, me-

dicine.

aInvestigador titular de la Escuela Nacional de Salud Publica. La Habana, Cuba.

197

198 Luis Carlos Silva

1. Introduccion

El fısico y filosofo de la ciencia, argentino, Mario Bunge publico recientemente el li-

bro Filosofıa para medicos (2012) dedicado a examinar problemas relacionados con

la practica medica desde una perspectiva filosofica y epistemologica. Se abordan

en el temas de muy diversa ındole, lo cual ha motivado un artıculo (Silva 2013),

que intenta repasar crıticamente su contenido en terminos generales. El material

de Bunge incluye algunos asuntos estadısticos, y muy en particular, varias ideas re-

lacionadas con el pensamiento bayesiano, que merecen a mi juicio un tratamiento

especıfico, motivo de la presente contribucion. En esta area, el texto tiene va-

rias imprecisiones, frases difusas o sin sentido, premisas equivocadas y respuestas

erroneas.

La presente nota procura discutir y fundamentar con cierto detalle estos puntos de

vista. Me detendre en diversas cuestiones terminologicas, conceptuales y practicas

ubicadas en el entorno del Teorema de Bayes, con especial enfasis en el desmontaje

de un ejemplo, donde el autor “demuestra”que, segun los bayesianos, tener el VIH

no incrementa la probabilidad de padecer sida y explica que, para ser consecuentes,

los bayesianos han de creer en la resurreccion.

2. Subjetividad y arbitrariedad

El error fundamental de Bunge –que atraviesa toda su predica antibayesiana– resi-

de en no comprender que arbitrariedad y subjetividad son dos conceptos totalmente

diferentes. “Por ser subjetivas, las probabilidades bayesianas son arbitrarias”afirma

textualmente (pagina 99). Si bien la arbitrariedad y el capricho distorsionan cual-

quier discurso cientıfico, la subjetividad es inevitable en la ciencia, como ha sido

de sobra constatado (Press & Tanur 2001, Silva & Benavıdes 2003). A partir de

ese equıvoco, atribuye a los estadısticos bayesianos una conducta antojadiza:

El bayesiano asigna las probabilidades que se le antoje y no le moles-

ta el que otros asignen valores diferentes: las probabilidades son tan

subjetivas como las preferencias esteticas . . . Los conceptos de azar (o

desorden) objetivo y de verdad objetiva o impersonal no intervienen

en la interpretacion bayesiana (p. 99).

Poco mas abajo (p. 100), reafirma la idea:

Contrariamente a lo que suponen los bayesianos (y los partidarios de las

teorıas de la eleccion racional), no es legıtimo asignar una probabilidad

a todo hecho. Solo los hechos al azar y los escogidos al azar tienen

probabilidades.

Y un par de paginas mas adelante, Bunge va mas lejos y asevera que no cabe

siquiera “hablar de probabilidades en medicina”; estas solo podrıan ser aplicadas

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 199

en procesos intrınsecamente aleatorios, tales como cuando se lanza un dado o

cuando nos ocupamos de la meiosis que, segun comunica (p. 102), es “el unico

proceso biotico autenticamente aleatorio”.

La idea presente en la interpretacion de la probabilidad como un atributo subjetivo

es que, ante un fenomeno aleatorio o concebido como tal para resolver determinado

problema (en el sentido de que puede verificarse o no y que resulta imposible

conocer de antemano cual de esos desenlaces se producira), se asigna, de forma

implıcita o explıcita, una probabilidad que representa el grado de confianza o

creencia que se tiene en la ocurrencia de ese hecho. Da igual si se trata de que

“salga cara cuando se lance una moneda ligeramente doblada con un alicate”, de

que “obtenga Obama la reeleccion” o de que “Brasil empate con Corea del Norte

en un partido proximo a celebrarse en el mundial de futbol”.

Las diferencias esenciales con la interpretacion frecuentista radican en que la asig-

nacion de valores, aunque condicionada por la informacion de que se disponga,

es propia de cada observador particular, sin que las opiniones de varios analistas

tengan que coincidir y en que estos valores pueden atribuirse tambien a hechos

singulares o irrepetibles. En la concepcion frecuentista, sin embargo, la probabi-

lidad de cierto suceso es un numero unico e ideal (concretamente, el lımite de la

razon entre el numero de veces que dicho suceso ocurre y el numero de veces en

que se lleva adelante el proceso que pudiera producirlo, cuando este ultimo numero

tiende a infinito), y lo que puede variar son las estimaciones que hacemos de ella.

Cuando se dice que la probabilidad de que Brasil gane a Corea del Norte en un

partido que disputaran en el campeonato mundial es 0.95, la de que empate 0.04 y

la de que pierda es 0.01, no se han elegido esos numeros de una tabla de numeros

aleatorios ni a raız de preferencias esteticas. Se han fijado sobre una base subjetiva

–el desempeno de sus delanteros en partidos recientes, el numero de jugadores que

ya tienen una tarjeta amarilla, el valor de los porteros en el mercado, los resultados

obtenidos en partidos recientes y la calidad de los contrincantes en dichos partidos,

etc.–, pero no arbitraria1.

Obviamente, para que esta interpretacion pueda ser aplicada con exito en un mar-

co operativo, es menester que quienes se acogen a ella mantengan un cierto grado

de racionalidad en la asignacion de probabilidades. Si se quiere hacer inferencias

validas, los valores que se determinen no pueden ser fruto del capricho o del “an-

tojo”de quien los fija. Una vez asignados por esa vıa los grados de confianza que

se tengan en la ocurrencia de los sucesos, si los valores correspondientes satisfacen

los axiomas de Kolmogorov (ver Anexo), ya se opera con esas probabilidades como

con cualquier otra manera de definirlas que tambien cumpla aquellos axiomas.

“Solo los hechos al azar y los escogidos al azar tienen probabilidades”, sostiene

Bunge. Sin embargo, es difıcil o imposible interpretar el concepto de que un hecho

“tenga”probabilidades. Los eventos no tienen probabilidades; se les atribuyen pro-

babilidades de ocurrencia, sea subjetivamente o a partir de informacion empırica,

1Dicho sea de paso, esos dos equipos no se habıan enfrentado jamas antes, de modo que serıaimposible realizar una estimacion frecuentista.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

200 Luis Carlos Silva

si se considera que ello puede ser fructuoso. No es un detalle baladı sino medular:

mientras lo primero apunta a un rasgo que serıa presuntamente intrınseco a deter-

minados “hechos”, lo segundo es una convencion que por lo general se adopta con

fines operativos.

Finalmente, llamo la atencion sobre la afirmacion de Bunge (p. 101) de que la

interpretacion bayesiana no se adecua a las ciencias de la salud, ya que en ellas no

prima la diversidad de opiniones. Los pacientes y los medicos, segun el, afortuna-

damente saben que

si hay diferencias de opinion acerca de un tratamiento o una diagnosis,

suele recabarse la opinion de un tercero o de un panel de expertos, de

quienes se espera no solo opinion sino tambien argumentos fundados

en las ciencias biomedicas.

Lo que no capta Bunge es que, en cualquier caso, hablamos de una opinion, en la

cual participara inexorablemente cierto grado de subjetividad, a veces muy grande,

a veces menor. No puede ser de otro modo debido a que las ciencias biomedicas

estan plagadas no solo de incertidumbres, verdades provisionales, controversias

y dudas, sino que con mucha frecuencia, como demuestra Ioannidis (2005), dan

por cierto aquello que no lo es. Y finalmente, los “argumentos fundados”no son

privativos de las ciencias biomedicas; tambien comparecen en la asignacion de

probabilidades, y tal asignacion puede adoptarse asimismo tras la consulta con

otro especialista o con un panel de expertos.

3. Causalidad y casualidad

El autor objeta que “se ha supuesto que tanto el tener VIH como el tener sida

son hechos al azar”, cuando en realidad estos dos acontecimientos, afirma, “no son

casuales sino causales”. Establece ası una falsa dicotomıa.

Aparentemente, Bunge quiere decir con ello que se trata de un hecho cuya ocurren-

cia obedece a una causa, a diferencia de los sucesos a los que el llama “casuales”,

los cuales estarıan exclusivamente determinados por el azar. Sin embargo, nada

prohıbe que, aunque un acontecimiento tenga una causa, cuando aun no conocemos

el desenlace del proceso que podrıa producirlo, le atribuyamos una probabilidad de

ocurrencia, incluso si conocieramos cabalmente el mecanismo causal que subyace

(algo que suele no ocurrir). En el sentido que lo maneja Bunge, la muerte de un

individuo es “causal”, ya que siempre hay una causa para la muerte; pero es evi-

dente que tambien es “casual”, en el sentido de que es imposible saber ni cuando

ni donde ocurrira, de modo que es completamente natural que se maneje la proba-

bilidad de que tal hecho se consume antes de que transcurra cierto lapso prefijado.

La unica regla que hay que cumplir es que tales asignaciones no transgredan los

axiomas de Kolmogorov.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 201

Ahora bien, el meollo de este debate reside en lo siguiente: ¿sobre que bases se

puede aceptar o no un enfoque metodologico dado en el contexto de la solucion

de un problema? En el marco que nos ocupa, esto se traduce en la pregunta ¿cual

pudiera ser el arbitro que concede o no validez a la asignacion de probabilidades

a los eventos no aleatorios en el sentido objetivo de la probabilidad?, lo cual se

discute en la siguiente seccion.

4. La legitimidad de los modelos probabilısticos

Examinemos mas detenidamente la afirmacion segun la cual “No es legıtimo asig-

nar una probabilidad a todo hecho. Solo los hechos al azar y los escogidos al azar

tienen probabilidades”.

Mas alla de que no se sabe que es que un hecho “tenga”probabilidad, la pregunta

cuya repuesta tiene interes aquı es esta: ¿que rasgos otorgan o quitan “legitimidad”

a un modelo probabilıstico, entendido como una idealizacion o representacion de

la realidad que procura simplificarla para poder examinarla mejor y para luego

aplicar sus derivaciones con vistas a resolver cualquier otro problema practico

concreto en el contexto del marco de incertidumbre que le dio vida? Un modelo

en general –pero especialmente, estadıstico o predictivo– solo puede deslegitimarse

(al igual que ocurre con un modo de conducirse con vistas a resolver un problema,

siempre que no incorporemos la dimension etica en su valoracion) es que dicho

modelo (o dicha conducta) no contribuya a resolver el problema que ha llevado a

concebirlo (o a desplegar esa conducta).

Como se explica en el Anexo, una probabilidad es una funcion que otorga un valor

entre 0 y 1 a cualquier suceso (subconjunto) de un conjunto universo (un espacio

muestral) a la que se exige el cumplimiento de ciertos axiomas.

¿Como se define la funcion P sobre dicho espacio? Obviamente, dependera del

empleo que uno quiera hacer de ella en terminos reales o practicos. Es importante

recordar que “los numeros no saben de donde vienen”(Lord 1953, Silva 1997). De

modo que, ante un espacio muestral concreto, el analista puede en principio definir

dicha funcion como crea mas oportuno y, si cumple los axiomas mencionados,

estaremos ante una funcion de probabilidad.

Son esas probabilidades subjetivamente determinadas las que, por ejemplo, em-

plean las casas de apuestas para fijar, mediante sus inversos, los odds que a su

vez sirven para establecer cuanto se paga por un acierto. Si fueran “arbitrarias”,

tales empresas quebrarıan, como veremos mas abajo. Sin embargo, lo que hacen es

ganar sumas millonarias. Acaso no haya mejor ejemplo del absurdo de decir que

no se pueden manejar probabilidades en relacion con eventos que son “causales”.

Obviamente, si Brasil vence es por una causa (porque hace mas goles que Corea

del Norte); y si Obama gana las elecciones sera por una causa evidente: porque

obtiene mas votos que su contrincante. El desenlace es debido a una causa; pero el

proceso que lo determina permite manejar dicho desenlace como un suceso aleato-

rio debido a que no existe manera alguna de identificarlo con certeza de antemano,

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

202 Luis Carlos Silva

aunque conozcamos el valor de muchas de las variables que pudieran influir en el.

Y por si fuera poco, en procesos totalmente determinısticos, gobernados por reglas

precisas, el manejo de probabilidades para hacer el ejercicio de ingenierıa inversa

que conduzca a desentranarlas, a partir de los datos, puede ser extraordinaria-

mente fructuoso. El ejemplo mas elocuente, desde mi punto de vista, es el del gran

matematico britanico Alan Turing quien, empleando recursos bayesianos, consi-

guio desencriptar el llamado codigo generado por la maquina Enigma usado por

los alemanes durante la Segunda Guerra Mundial (el cual no solo era “causal”, sino

algorıtmico), conquista que resulto esencial para acelerar la victoria de los aliados

en esa contienda (ver Good (1979) y http://blogs.elpais.com/turing/2012/12/alan-

turing-y-la-estadistica-bayesiana.html).

En terminos generales, si el manejo que se haga de un espacio de probabilidad

bien definido es fructuoso o no, tal y como ocurre con cualquier modelo, es harina

de otro costal. Pudiera no serlo, pero con muchısima frecuencia lo es, como en

los ejemplos arriba mencionados. Por poner otro mas, facilmente comprensible,

consideremos el siguiente.

A las casas de apuestas tal proceder les resulta obviamente redituable. No es una

casualidad, por cierto, que todas ellas otorguen mas o menos los mismos premios.

Si sus decisiones fueran “arbitrarias”, una casa pagarıa, por ejemplo, 3.70 euros a

quien haya apostado un euro por la victoria de Brasil en caso de que esta se pro-

duzca, otra desembolsarıa 212.51 euros y otra pagarıa 1.03 euros. Pero como no son

arbitrarias, y como todas las empresas usan los mismos metodos para determinar

racionalmente esas probabilidades (la llamada “elicitation”de las probabilidades

(ver Garthwaite et al. (2005)), el monto de los premios es similar entre una empre-

sa y otra (por ejemplo, 1.31, 1.29, 1.35....), como puede comprobarse facilmente

consultando varios sitios web dedicados a manejar apuestas en la vıspera de un

partido crucial.

Para que se comprenda esto mas claramente, imaginemos que antes de un partido

se puede apostar por el desenlace “el numero de goles sera par”, o su complementa-

rio, “el numero de goles sera impar”. Cuando se ofrece esa posibilidad, las casas de

apuestas pagan 1.95 euros a quien haya apostado un euro y haya acertado. Puesto

que evidentemente (considerando que un empate a cero arroja un resultado par)

se trata de dos desenlaces que pueden considerarse equiprobables, lo “justo”serıa

pagar 2 euros, en caso de acierto, en lugar de 1.95 (que es el 97.5% de 2) por

cada euro apostado. La disminucion la establecen los organizadores de la apuesta,

en lo sucesivo “la banca”, para garantizarse una ganancia (de lo contrario, ella

solo servirıa como intermediaria para que el dinero pasara de unos apostadores

a otros). Bunge afirmarıa que el caracter par o impar del numero de goles no es

aleatorio sino causal (ya que depende de como se hayan desempenado los equipos

y no responde a un experimento o una seleccion regidos por el azar) y que por

tanto los usuarios de las probabilidades subjetivas actuan a su antojo.

Imaginemos que la banca, en efecto, se conduce tal y como lo harıa un individuo

cuando emite juicios esteticos sobre un poema o elige el color de su ropa. Supon-

gamos que otorgan una probabilidad a priori de 0.2 a que el numero de goles sea

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 203

par y 0.8 a que sea impar. Eso les obligarıa a pagar el 97.5% de 5 euros (inverso

de 0.2) por cada euro apostado a esta posibilidad en caso de que se produzca, y el

97.5% de 1.25 euros (inverso de 0.8) en el otro caso2 (es decir, 4.88 y 1.22 euros,

respectivamente). Puesto que cualquier apostador racional intuye que un numero

par de goles es tan probable como uno impar, la inmensa mayorıa aprovecharıa el

caracter irracional de esta oferta y apostarıa por la opcion de que dicho numero

sea par, con la consiguiente ruina para la banca. Obviamente, la banca no elige

probabilidades arbitrariamente, unica explicacion para que, en lugar de ser un

estruendoso fracaso, su negocio sea extraordinariamente prospero.

El proceso, en suma, para atribuir probabilidades a sucesos no intrınsecamente

aleatorios, dista de ser “arbitrario”. Puede ser parcial o totalmente subjetivo, pero

es racional; y puede ser, desde luego, muy util.

Bunge reniega del empleo de la teorıa de probabilidades incluso en situaciones

donde ni siquiera interviene la subjetividad para su definicion. Llega a decir que

llamar “probabilidades”a las frecuencias relativas que manejan los epidemiologos

“es doblemente errado (p. 102): porque las frecuencias son propiedades colectivas

y porque el uso de probabilidades solo se justifica con referencia a procesos alea-

torios”, dado que los procesos subyacentes tienen raıces causales. Y en la pagina

143 vuelve sobre el tema al considerar que:

Es verdad que se habla a menudo de la probabilidad de que tal

tratamiento cure tal mal, pero este uso del concepto de probabilidad

es incorrecto, porque el concepto en cuestion es teorico, no empırico.

Las probabilidades de que se habla en medicina y en epidemiologıa

son en realidad frecuencias relativas, y estas no estan necesariamente

(logicamente) relacionadas con el azar.

De aquı concluye que “los medicos ... haran bien en limitarse a manejar frecuencias

estadısticas”sin considerarlas probabilidades.

La esperanza de vida, que es un parametro capital de la salud publica contem-

poranea, se estima, sin embargo, a traves de la teorıa de probabilidades. Las com-

panıas de seguro, por poner otro ejemplo, ganan sumas enormes aplicando una

teorıa que, segun Bunge, no es legıtimo emplear. Nuevamente: para estas, lo me-

todologicamente legıtimo es un modelo que sirva a sus intereses. Puesto que solo

extienden polizas a sujetos que estan vivos, se manejan con las probabilidades de

que mueran dentro de lapsos especıficos. Ningun ucase metodologico los persua-

dira de no usar probabilidades. Lo que saben es, por ejemplo, que la misma poliza

no debe costar igual (ni dar las mismas recompensas) en Baltimore que en Nairobi,

simplemente porque las probabilidades de morir antes de cumplir N + 1 anos no

son iguales para sujetos de edad N en uno y otro enclave.

Analogamente, los modelos empleados para los vaticinios electorales suelen ser

2 El 97.5% se debe a que las casas pagan siempre un porcentaje inferior a 100 para garantizaruna ganancia. Tıpicamente, en situaciones menos obvias, el porcentaje es bastante menor (entreun 90 y un 92%)

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

204 Luis Carlos Silva

fallidos en Espana (Mora 2012) y otros sitios (donde usan recursos frecuentistas

clasicos), pero pueden ser virtualmente perfectos, como ocurrio en las dos ultimas

elecciones presidenciales en Estados Unidos con los realizados por Nate Silver

con el auxilio de tecnicas bayesianas (Garicano 2012, Silver 2012). Sus resultados

han sido tan notables que en varios foros de internet se ha considerado que el

verdadero ganador de las ultimas elecciones fue el reverendo Thomas Bayes, y no

Barak Obama.

En el campo propiamente de la toma de decisiones medicas, como demuestra el

profesor de la Oregon Health and Science University, Denis Mazur, el recorrido

historico de recursos empleados conduce al punto actual en que los procedimientos

bayesianos –empleando probabilidades provenientes tanto del marco frecuentista

como del subjetivo– ocupan ya un lugar irreversible (Mazur 2012).

Si se quieren ver algunas decenas de ejemplos adicionales, se pueden hallar en el

apasionante y aclamado libro de McGrayne (2011), que versa sobre la extraordi-

naria historia de las aplicaciones bayesianas.

5. Examinando el ejemplo central de Bunge

5.1. Portar el VIH no incrementa la probabilidad de padecersida

La transcripcion textual del ejemplo central de Bunge (p. 100) es la siguiente:

Es sabido que el virus VIH es una causa necesaria del sida. O sea,

el estar sidado implica el tener VIH, aunque no a la inversa. Supon-

gamos que se haya probado que cierto individuo tiene el virus VIH.

Un bayesiano preguntara cual es la probabilidad de que, ademas, el

individuo tenga o pronto adquiera el sida. Para contestar la pregunta

empezara por suponer que se le aplica el teorema de Bayes, que en este

caso reza

P (sida|V IH) =P (V IH |sida)P (sida)

P (V IH)

donde la expresion P (A) significa la probabilidad absoluta (o antece-

dente) de A, mientras que P (A|B) se lee la probabilidad condicional

de A dado (o suponiendo) que B.

Puesto que el analisis de laboratorio muestra que el individuo en cues-

tion lleva el virus, el bayesiano pondra P (V IH) = 1. Ahora, puesto

que todos llevan el virus, tambien se pondra P (V IH |sida) = 1. Re-

emplazando estos valores en la formula de Bayes, esta se reduce a

P (sida|V IH) = P (sida). Pero esto es falso: hay personas con VIH que

no han desarrollado sida.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 205

5.2. Algunas precisiones terminologicas y conceptuales

Salta a la vista que, en rigor, no es lo mismo la probabilidad de que “cierto indivi-

duo tenga sida”, a la de que “adquiera sida en el futuro”. Lo primero es algo que

se puede valorar mediante la determinacion del nivel de linfocitos y la presencia de

determinadas dolencias (tales como sarcoma de Kaposi o neumonıas recurrentes).

Lo segundo, sin embargo, es algo que puede o no ocurrir dentro de cierto lapso, y

que, mientras este no transcurra, se halla en una zona de incertidumbre, circuns-

tancia que permite hablar de la probabilidad de que ese desenlace acaezca, como

se hace a diario con los posibles resultados de muchos procesos morbosos.

La argumentacion falaz comienza cuando Bunge, enredado en la naturaleza difusa

de las categorıas que emplea, habla de que “se le aplica el teorema de Bayes”a

“cierto individuo”. Eso no tiene sentido alguno. Si alguien quiere saber si Juan

Perez tiene sida, lo que hace no es aplicar el teorema al sujeto –lo cual en sı mismo

no tiene sentido– sino aplicar las tecnicas de diagnostico de dicha enfermedad a

Juan.

Se atribuye al bayesiano algo que no hace. Bayesiano o no, nadie aplica la teorıa

de probabilidades cuando el desenlace ya se ha consumado y puede conocerse por

alguna vıa cual fue. El teorema de Bayes es un recurso para calcular la probabilidad

de las causas –que ya pasaron o que ya ejercieron su efecto– a partir de ciertos

indicios. Lo que hace el bayesiano, o cualquiera que opere con probabilidades, es

aplicar estos recursos en el contexto de un “espacio de probabilidad”.

Por ejemplo, los trascendentes trabajos de Cornfield (1962), a partir del celebre

estudio de Framingham (O’Donnell & Elosua 2008), permitieron construir tablas

mediante la aplicacion de la regresion logıstica (cuya finalidad es justamente es-

timar probabilidades en funcion de diversas variables) combinada con la teorıa

bayesiana, en las que se consignan las probabilidades de enfermedad cardiovascu-

lar y muerte dentro de cierto lapso que tienen sujetos genericos con determinada

edad y sexo, con cierto grado de tabaquismo, de colesterolemia, etcetera). Luego,

para un sujeto concreto, puede conocerse la probabilidad que le asigna el modelo

de morir antes de que transcurra el susodicho lapso (Wilson 2010). Y al aplicar

tales recursos en el ambito de la salud publica, se consiguio lo que ha sido calificado

como “uno de los mas notables resultados en materia de salud publica del Siglo

XX”debido a que en las tres decadas siguientes “las tasas de mortalidad por enfer-

medades cardiovasculares se redujeron en un 60%, con lo cual pudieron prevenirse

621 mil muertes”(Mazur, 2012).

Obviamente, no se aplica la regresion logıstica a un individuo, ni a nadie se le ocurre

hacerlo (caso de que fuera posible) para saber si esta muerto o no. Se construye

un modelo usando una muestra en el contexto de un espacio de probabilidad, y se

aplica luego, si se desea, a un sujeto que pudiera o no morir antes, por ejemplo, de

que pasen diez anos. La diferencia es crucial, porque lo primero carece de sentido

y lo segundo es una practica habitual y sumamente util para la clınica, la salud

publica y la prevencion.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

206 Luis Carlos Silva

5.3. La aplicacion correcta del teorema de Bayes

Es bien conocida la maxima que advierte que

establecer claramente el espacio de probabilidad sera el primer paso

imprescindible para estudiar una experiencia o situacion en terminos

probabilısticos. Muchas de las dificultades que surgen en la practica

y en el analisis estadıstico de investigaciones clınicas, tienen que ver

con el establecimiento implıcito y defectuoso de este espacio (enfasis

anadido por el autor, LCSA).

como puede leerse, por ejemplo, en el sitio Web del Hospital Ramon y Cajal de Ma-

drid (http://www.hrc.es/bioest/Probabilidad_13.html). De la inobservancia

de esta sutil premisa, nace la falacia en que incurre el sr. Bunge. Veamos.

La regla de Bayes establece que para cualquier par de sucesos A y B, se cumple

que

P (A|B) =P (B|A)P (A)

P (B)

Traducido a los terminos de su ejemplo, se trata de la relacion:

P (sida|V IH) =P (V IH |sida)P (sida)

P (V IH)

Sin embargo, el calculo de sus componentes no se puede realizar mientras no se

fije un espacio de probabilidad (Ω, P ). Si fijamos que Ω es el conjunto de todas las

personas que tienen VIH (supongamos que tiene tamano V ) y consideramos que

A es el conjunto de quienes tienen sida (de tamano S), graficamente, la situacion

es la que se registra en la Figura 1.

Figura 1: Representacion del espacio muestral conformado por todos los que portanel VIH (tamano V ) y subconjunto de aquellos que padecen sida (tamano S). Fuente:elaboracion propia.

Esto equivale a asumir que solo interesa ahora el conjunto de aquellos sujetos que

tienen VIH. Si definimos ahora como B al propio conjunto de quienes tienen VIH,

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 207

pueden calcularse los componentes de la parte derecha de la ecuacion:

P (sida) =S

V, P (V IH) =

V

V, y P (V IH |sida) =

S

S

de modo que, haciendo las sustituciones correspondientes, se tendra que:

P (V IH |sida)P (sida)

P (V IH)=

SS

SV

VV

=S

V

Si bien hemos llegado a que la probabilidad de tener sida dado que se porta el

virus (parte izquierda de la ecuacion) es S/V , y por ende igual a la probabilidad

incondicional de tener sida, no hay ninguna contradiccion, ya que, bajo la restric-

cion que se ha impuesto (en ese espacio muestral donde no hay sujetos sin el VIH),

la probabilidad de tener sida es necesariamente igual a la de tenerlo supuesto que

se trata de un sujeto de tal espacio, un sujeto que tiene VIH . Dicho de otro mo-

do: la probabilidad de A condicionada a que este sea un subconjunto de Ω es lo

mismo que no condicionarla; estamos hablando, simplemente, de la probabilidad

de A. Esto pasa siempre que el espacio muestral sea una condicion necesaria para

que se produzca A (por ejemplo, la probabilidad de que, tras una relacion sexual,

una mujer quede embarazada es igual a la probabilidad de que quede embarazada

supuesto que es una mujer).

Ahora bien, si el espacio muestral es, por ejemplo, el de todos los seres humanos

en una poblacion de referencia dada, tenemos graficamente la situacion que se

muestra en la Figura 2.

Llamando NV al tamano del conjunto de sujetos sin VIH, definamos N = V +NVy consideremos la relacion

P (sida|V IH) =P (V IH |sida)P (sida)

P (V IH)

El termino de la derecha sera:

P (V IH |sida)P (sida)

P (V IH)=

SS

SNVN

=S

V

coherentemente con lo que nos darıa si sustituimos en el termino izquierdo los

tamanos debidos. Es decir, ya no se cumple que la probabilidad de tener sida

(S/N) sea igual a la de tenerlo dado que se tiene VIH (S/V ).

Bunge incurre en el dislate de atribuir al bayesiano la absurda conducta de aplicar

el Teorema de Bayes a “cierto sujeto”, de quien sabemos que porta el VIH. A

partir de ello, lo que hace es cenirse al espacio muestral Ω = V IH , en el cual,

obviamente, P (V IH) = P (V IH |sida) = 1. Pero estas relaciones no se cumplen

cuando queremos conocer genericamente (no para un sujeto especıfico) el valor de

P (sida|V IH). Habiendolo hecho, ya podemos aplicar el resultado para un portador

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

208 Luis Carlos Silva

Figura 2: Representacion del espacio muestral conformado por todos los seres hu-manos de una poblacion de referencia (tamano N), los subconjuntos de aquellosque portan y no portan el VIH (V y NV respectivamente) y el subconjunto, entrelos primeros, que padecen sida (tamano S). Fuente: elaboracion propia.

del VIH. lo cual exige que operemos en el espacio Ω conformado por una poblacion

de referencia, que contiene individuos tanto con VIH como sin el.

Por ejemplo, si suponemos que en cierto espacio la tasa de prevalencia de sida

asciende al 3% mientras que los portadores del VIH constituyen el 2% entre

aquellos que no tienen sida, se tendra que:

P (sida|V IH) =P (V IH |sida)P (sida)

P (V IH)

=P (V IH |sida)P (sida)

P (V IH |sida)P (sida) + P (V IH |sidac)P (sidac)

=(1)(0.03)

(1)(0.03) + (0.02)(0.97)= 0.61

Es decir, la probabilidad inicial de 0.03 pasa a ser 20 veces mayor (0.61) cuando

se condiciona a que el sujeto tenga VIH.

6. Bunge riza el rizo

El grado en que Bunge sacrifica el rigor con tal de ridiculizar al pensamiento baye-

siano se pone de manifiesto en el segmento donde afirma que, para ser consecuentes,

tendrıamos que creer en la resurreccion. Textualmente, escribe (p. 101):

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 209

Y si los medicos fuesen consecuentes al aceptar la formula de Bayes,

tendrıan que admitir la posibilidad de la resurreccion, ya que dicha

formula permite calcular la probabilidad de P (V |M) de estar vivo ha-

biendo muerto, a partir de la probabilidad inversa de P (M |V ) y de las

probabilidades absolutas de estar vivo y de estar muerto.

Su razonamiento tiene como base de que, como –segun el– podemos calcular las

probabilidades incondicionales de “estar vivo”, la de “estar muerto”, y la de “estar

muerto dado que se esta vivo”, entonces se podrıa calcular, por medio del teorema,

la de estar vivo dado que se esta muerto. Este galimatıas solo puede producirse

porque se habla de las tres probabilidades iniciales sin especificar los espacios de

probabilidad correspondientes. Si se introduce un conjunto de terminos sin sentido

alguno (o, como mınimo, sin sentido claro) en una ecuacion, se obtendra inexora-

blemente algo sin sentido alguno (o sin sentido claro).

En este caso, por ejemplo, Bunge afirma que se podrıan calcular las probabilidades

de estar vivo y la de estar muerto; la pregunta es, ¿respecto de que conjunto de

personas se calcularıan estas probabilidades complementarias? La primera, por

ejemplo, serıa 1 si hablamos de los obreros que laboran una fabrica, serıa 0 si el

espacio muestral es el de quienes yacen en el cementerio, ascenderıa a 0.8 cuando

dicho espacio es el de todos los seres humanos que se encuentran hoy en la morgue

de la ciudad, y serıa 1 entre miles de millones si fuera el conjunto de todos los

humanos que han existido. Y para rematar, hace olımpicamente una afirmacion

descabellada: que se puede calcular la probabilidad de que alguien este muerto

dado que esta vivo. Siendo ası, segun el, el dislate reside en aplicar el Teorema de

Bayes, no en la pretension de que este se pueda aplicar usando un componente que

no tiene el menor sentido. En fin, todo esto no es mas que un amasijo de vaguedades

y contrasentidos, que parecen surgir mas como producto de una emocion que de

un pensamiento medianamente racional.

7. Consideraciones finales

Ya en su libro Capsulas, Bunge (2003) venıa insistiendo en consideraciones desa-

tinadas en relacion con estos temas. Por poner un solo ejemplo, allı afirma lo

siguiente:

Tambien es falsa la opinion de que tenemos derecho a atribuirle una

probabilidad a todo acontecimiento. En efecto, solo podemos adjudicar

probabilidades a acontecimientos aleatorios. Este es el caso del resul-

tado de revolear una moneda honesta. En cambio, si la moneda ha

sido fabricada por un tahur, no corresponde hablar de probabilidades.

En un libro destinado a discutir diversos problemas que aquejan a la investigacion

biomedica (Silva 2009), discutı varias ideas de las expresadas por Bunge en este

material, en particular la que he acabo de citar. Allı escribı:

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 209

Y si los medicos fuesen consecuentes al aceptar la formula de Bayes,

tendrıan que admitir la posibilidad de la resurreccion, ya que dicha

formula permite calcular la probabilidad de P (V |M) de estar vivo ha-

biendo muerto, a partir de la probabilidad inversa de P (M |V ) y de las

probabilidades absolutas de estar vivo y de estar muerto.

Su razonamiento tiene como base de que, como –segun el– podemos calcular las

probabilidades incondicionales de “estar vivo”, la de “estar muerto”, y la de “estar

muerto dado que se esta vivo”, entonces se podrıa calcular, por medio del teorema,

la de estar vivo dado que se esta muerto. Este galimatıas solo puede producirse

porque se habla de las tres probabilidades iniciales sin especificar los espacios de

probabilidad correspondientes. Si se introduce un conjunto de terminos sin sentido

alguno (o, como mınimo, sin sentido claro) en una ecuacion, se obtendra inexora-

blemente algo sin sentido alguno (o sin sentido claro).

En este caso, por ejemplo, Bunge afirma que se podrıan calcular las probabilidades

de estar vivo y la de estar muerto; la pregunta es, ¿respecto de que conjunto de

personas se calcularıan estas probabilidades complementarias? La primera, por

ejemplo, serıa 1 si hablamos de los obreros que laboran una fabrica, serıa 0 si el

espacio muestral es el de quienes yacen en el cementerio, ascenderıa a 0.8 cuando

dicho espacio es el de todos los seres humanos que se encuentran hoy en la morgue

de la ciudad, y serıa 1 entre miles de millones si fuera el conjunto de todos los

humanos que han existido. Y para rematar, hace olımpicamente una afirmacion

descabellada: que se puede calcular la probabilidad de que alguien este muerto

dado que esta vivo. Siendo ası, segun el, el dislate reside en aplicar el Teorema de

Bayes, no en la pretension de que este se pueda aplicar usando un componente que

no tiene el menor sentido. En fin, todo esto no es mas que un amasijo de vaguedades

y contrasentidos, que parecen surgir mas como producto de una emocion que de

un pensamiento medianamente racional.

7. Consideraciones finales

Ya en su libro Capsulas, Bunge (2003) venıa insistiendo en consideraciones desa-

tinadas en relacion con estos temas. Por poner un solo ejemplo, allı afirma lo

siguiente:

Tambien es falsa la opinion de que tenemos derecho a atribuirle una

probabilidad a todo acontecimiento. En efecto, solo podemos adjudicar

probabilidades a acontecimientos aleatorios. Este es el caso del resul-

tado de revolear una moneda honesta. En cambio, si la moneda ha

sido fabricada por un tahur, no corresponde hablar de probabilidades.

En un libro destinado a discutir diversos problemas que aquejan a la investigacion

biomedica (Silva 2009), discutı varias ideas de las expresadas por Bunge en este

material, en particular la que he acabo de citar. Allı escribı:

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

210 Luis Carlos Silva

Me resulta curioso que el gran epistemologo argentino no capte que

la situacion es exactamente la opuesta: decir de antemano que una

moneda es honesta equivale a atribuirle (subjetivamente) una pro-

babilidad de 0.5 a cada lado. Por otra parte, si se parte de calificarla

como honesta, entonces ponerse a revolearla ya carece de senti-

do. Finalmente, si hubiera sido fabricada por un tahur, esa serıa

exactamente la situacion en que mas claramente procederıa hablar de

probabilidad, ya sea con vistas a estimar la que corresponda a cada

posible desenlace bajo la definicion frecuentista, ya sea subjetivamen-

te –usando nuestro conocimiento, si lo tuvieramos, sobre las manas

habituales del tahur– o incluso combinando ambos enfoques mediante

el teorema de Bayes.

En sıntesis, la vision que transmite Bunge en su obra sobre las probabilidades y

en especial sobre el teorema de Bayes, especialmente en la que motiva la presente

nota, no solo es poco rigurosa y a la postre equivocada, sino que es tendenciosa

y no parece responder a reflexiones racionales susceptibles de ser desarrolladas

tanto desde el conocimiento de la teorıa de probabilidades como a partir de la

experiencia empırica al respecto.

Recibido: 9 de abril de 2013

Aceptado: 9 de mayo de 2013

Referencias

Bunge, M. (2003), Capsulas, Gedisa, Barcelona.

Cornfield, G. (1962), ‘Joint dependence of risk of coronary heart disease on se-

rum cholesterol and systolic bold pressure: A discriminant function analysis’,

Federation Proceedings 21(4), 58–61.

Garicano, L. (2012), Son las matematicas, estupido. El Paıs (Espana), noviembre

13.

Garthwaite, P., Kadane, J. & O’Hagan, A. (2005), ‘Statistical methods for eliciting

probability distributions’, Journal of the American Statisticians Associaton100, 680–701.

Good, I. J. (1979), ‘Studies in the history of probability and statistics. XXXVII A.

M. Turing’s statistical work in the World War II’, Biometrika 66(2), 393–396.

Ioannidis, J. (2005), ‘Why most published research findings are false?’, PLoS Me-dicine 2(8), e124. doi:10.1371/journal.pmed.0020124.

Lord, F. M. (1953), ‘On the statistical treatment of football numbers.’, AmericanPsychologist 8, 750–751.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

En defensa de la racionalidad bayesiana 211

Mazur, D. J. (2012), ‘A history of evidence in medical decisions from the diagnostic

sign to bayesian inference.’, Medical Decision Making 32, 227–231.

McGrayne, S. B. (2011), The theory that would not die: how bayes rule crackedthe enigma code, hunted down Russian submarines, and emerged triumphantfrom two centuries of controversy, New Haven: Yale University Press.

Mora, J. G. (2012), Elecciones catalanas 2012: Todas las encuestas fallan. ABC,

noviembre 26, (Espana).

O’Donnell, C. J. & Elosua, R. (2008), ‘Cardiovascular risk factors. insights from

framingham heart study’, Revista Espanola de Cardiologıa 61(3), 299–310.

Press, S. J. & Tanur, J. M. (2001), The subjectivity of scientists and the Bayesianapproach, Wiley and Sons, New York.

Silva, L. C. (1997), Cultura estadıstica e investigacion cientıfica en el campo de lasalud: Una mirada crıtica, Dıaz de Santos, Madrid.

Silva, L. C. (2009), Los laberintos de la investigacion biomedica. En defensa de laracionalidad para la ciencia del Siglo XXI, Dıaz de Santos, Madrid.

Silva, L. C. (2013), ‘Reflexiones a raız de Filosofıa para medicos, un texto de Mario

Bunge’, Salud Colectiva 9(1), 115–128.

Silva, L. C. & Benavıdes, A. (2003), ‘Apuntes sobre subjetividad y estadıstica en

la investigacion’, Revista Cubana de Salud Publica 29(2), 170–173.

Silver, N. (2012), The signal and the noise why so many predictions fail - but somedon’t, The Penguin Press, New York.

Wilson, P. W. F. (2010), ‘Estimation of cardiovascular risk in an individual patient

without known cardiovascular disease. UpToDate. Basow, DS (Ed).’, Massa-chusetts Medical Society and Wolters Kluwer publishers. The Netherlands .

A. Definicion axiomatica de probabilidadesde Kolmogorov

Sea Ω un conjunto que se denomina espacio muestral y S el conjunto de todos los

subconjuntos de Ω, a los que se denomina sucesos.

Consideremos una funcion P cuyo dominio sea S y su codominio el conjunto de

los numeros reales (P : S −→ R). Es decir, P es una regla bien definida por la

que se asigna a cada suceso un, y un solo un, numero real). Se le llama funcion deprobabilidad a dicha aplicacion si cumple los tres axiomas siguientes:

(1) P (A) ≥ 0 cualquiera sea A tal que A ∈ S

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

212 Luis Carlos Silva

(2) P (⋃k

i=1Ai) =

∑ki=1

P (Ai) siempre que Ai ∩Aj = ∅ para i = j

(3) P (Ω) = 1

A la estructura (Ω, S, P ) se le denomina espacio de probabilidad.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 213–220

Acerca de la defensa de la racionalidad bayesiana

y la obra de Mario Bunge

About the defense of bayesian rationality and the work of Mario

Bunge

Andres Gutierrez Rojasa

[email protected]

La crıtica de Silva a la obra de Mario Bunge esta sustentada en la ligereza de Bunge

al momento de utilizar el teorema de Bayes, con el cual descalifica abiertamente

el uso del paradigma bayesiano en las ciencias. En este documento se comenta la

definicion correcta de los espacios muestrales al usar probabilidades y se recalca

que el uso de los metodos bayesianos y de la estadıstica en general, no deben estar

supeditados a un razonamiento puramente filosofico.

1. Sobre la probabilidad condicional y los espacios

muestrales

Al leer la introduccion que Mario Bunge hace al problema de calcular la proba-

bilidad de que una persona con VIH tenga sida, es posible advertir que el autor

hace una escala por un problema de probabilidad aplicada en donde se dice que

un evento causa a otro. En estos terminos, el autor concluye que ‘si C y E son

dos suceso aleatorios y C causa a E, entonces P (E|C) ≤ P (E)”. Es aquı en donde

creo que el susodicho autor deberıa haber razonado un poco mas acerca de cuando

se tiene la igualdad en esta regla de probabilidades, puesto que en el ejemplo que

suscita esta discusion, en el que el suceso tener V IH causa al suceso desarrollar

sida, Bunge concluye que P (sida|V IH) = P (sida) y sin ninguna precaucion con-

cluye que las probabilidades bayesianas son arbitrarias y no tienen cabida en la

ciencia autentica.

Desarrollando el anterior planteamiento, al suponer que C causa a E, notese que

P (E|C) =P (E ∩C)

P (C)=

P (E)

P (C)≥ P (E) (1)

con igualdad si y solamente si P (C) = 1. En el ejemplo que nos atane sobre el

hallazgo de Bunge, lo anterior redundarıa en que P (V IH) = 1, que significarıa

aDecano, Facultad de Estadıstica, Universidad Santo Tomas (Colombia). Colombia.

213

214 Andres Gutierrez Rojas

que la probabilidad de que ese cierto individuo, seleccionado al azar, tenga VIH

es la unidad y eso solo serıa posible si, como Silva muy bien lo explica, el espacio

muestral estuviese definido por las personas que tienen V IH , puesto que en este

ejemplo el evento VIH causa al evento sida. No quiero desarrollar mas este punto,

pues el autor del artıculo hace muy bien en develar estos detalles, pero sı quiero

recurrir al siguiente teorema que examina las implicaciones de la igualdad en la

expresion (1).

Teorema 1. Siendo (Ω,F, P ) un espacio de probabilidad en donde los elementosde la sigma-algebra F se denotan como A1, A2, . . . y son tales que P (Ai) = 0 paratodo Ai = ∅, entonces

P (Ak) = 1, para algun Ak ∈ F, si y solo si Ak = Ω.

Demostracion. La implicacion se prueba por contradiccion al asumir que P (Ak) =

1. Al suponer que Ak = Ω, entonces naturalmente Ac

k= ∅. Por tanto, acudiendo

al enunciado del teorema, se tendrıa que P (Ac

k) > 0, y si tenemos en cuenta que

Ak ∪Ac

k= Ω, entonces

P (Ω) = P (Ac

k) + P (Ak) > 1

Lo cual implica una contradiccion a los axiomas basicos de probabilidad. Por otra

parte, la demostracion de la conversa es trivial.

El anterior teorema se puede aplicar al ejemplo de Bunge en donde solo hay dos

eventos de interes V IH y sida, cada uno con probabilidad no nula, y ademas,

P (V IH) = 1, por tanto, el espacio muestral al cual Bunge se refiere en su ejemplo

es sin duda el condicionado a V IH .

2. Razonamiento antibayesiano

En terminos pragmaticos, y teniendo en cuenta los grandes avances que han surgi-

do de la estadıstica bayesiana, ningun cientıfico contemporaneo deberıa negar las

bondades de este tipo de pensamiento. Desde las ciencias de la administracion y el

mercadeo, pasando por la teorıa actuarial y ensayos clınicos, hasta las ciencias de

la computacion y la epidemiologıa, la estadıstica bayesiana ha jugado y jugara un

papel fundamental en el intento humano de extraccion de informacion con base en

un conjunto de datos. Sin embargo, como se evidencia en la obra de Bunge, hay

todavıa pensadores que van en contra del paradigma bayesiano.

Entre los argumento de Bunge, se encuentran frases como las siguientes

Por ser subjetivas las probabilidades bayesianas son arbitrarias y no

deberıan ser usadas en la ciencia...

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Acerca de la defensa de la racionalidad bayesiana y la obra de Mario Bunge 215

Basado en lo anterior, cabrıa recordar que, todas las ciencias, y en particular la

estadıstica, estan compuestas de procedimientos subjetivos que guıan a resulta-

dos medibles objetivamente (Bernardo 2008, Kadane 2008). Sin embargo, el uso

del teorema de Bayes, que afirma que la distribucion posterior de los parametros

condicionada a los datos observados es proporcional al producto de la verosimili-

tud con la distribucion previa de los parametros de interes, no debe ser usado a

la ligera como una formula automatica que brinda inferencias rapidas. En estos

terminos, la asignacion de las probabilidades previas no puede ser arbitraria. La

anterior afirmacion parecerıa un punto a favor de los argumentos de Bunge, pero

cualquier estadıstico, clasico o bayesiano, con experiencia en la creacion de mo-

delos estocasticos sabra que la realidad de la profesion consiste en la asignacion

de diferentes modelos de probabilidad a los datos observados y en la respectiva

escogencia del mejor modelo. Esta tarea debe ser concienzuda y responsable.

Ya sea que el estadıstico opte por un enfoque clasico o bayesiano, se debe notar que

la asignacion o la escogencia de las probabilidades (o distribuciones de probabili-

dad) no esta sujeta a ningun principio objetivo: desde el punto de vista bayesiano,

es menester asignar una distribucion de probabilidad previa a los parametros de

interes y esta tarea es exactamente la misma que el estadıstico clasico enfrenta al

asignar una verosimilitud a sus datos. En la estadıstica aplicada, la asignacion de

verosimilitudes y distribuciones previas esta determinada por la escogencia de un

modelo que represente bien la realidad de los datos observados. En estos termi-

nos, el estadıstico clasico podra optar por un modelo o por otro y, de la misma

manera, el estadıstico bayesiano podra seleccionar una distribucion previa u otra.

Esta libertad de escogencia, que ocurre bajo los dos paradigamas, no induce nin-

guna arbitrariedad. De hecho, como lo mencionan Andrews & Baguley (2013), las

distribuciones previas son supuestos en el modelo bayesiano y como todos los su-

puestos, pueden ser buenos o malos, pueden extenderse, revisarse o posiblemente

abandonarse al no ser idoneos con los datos observados.

Con base en lo anteriormente mencionado, el estadıstico clasico podra escoger un

nuevo modelo a medida que tenga un conocimiento mas profundo de la realidad

a la cual intenta acercarse. De hecho, desde mi punto de vista, considero que

esa escogencia ha definido la historia de la estadıstica hasta hoy. Por ejemplo, es

posible desviarse de un modelo parametrico Gausiano y preferir un modelo no pa-

rametrico, el cual si bien podrıa ser mas complejo en su formulacion matematica,

tiene mejores propiedades en algunos contextos. De la misma manera, el estadısti-

co bayesiano debera escoger distribuciones previas plausibles. Esto, en terminos

practicos, implica que si la distribucion posterior se desvıa significativamente de la

distribucion previa, entonces el estadıstico debera reconsiderar y revaluar la esco-

gencia de la distribucion previa. De esta forma, es posible afirmar que la escogencia

de distribuciones previas es tan objetiva como la escogencia de verosimilitudes en

la estadıstica clasica.

En esta discusion es posible que afloren otro tipo de razonamientos filosoficos;

por ejemplo que los parametros de una distribucion de probabilidad son fijos y no

aleatorios. Salsburg (2001) afirma que, tal como lo mostro Pearson, el proposito de

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

216 Andres Gutierrez Rojas

la investigacion estadıstica es estimar los parametros (fijos pero desconocidos) de

las distribuciones de probabilidad cuyos valores definen dicha distribucion. Por lo

anterior, si los parametros se consideraran aleatorios, el enfoque de la investigacion

cientıfica se desviarıa de su proposito. Sin embargo, muchos autores bayesianos han

fallado en argumentar que, lo que se considera aleatorio no es el parametro en sı,

sino la incertidumbre que se genera ante el desconocimiento del parametro y es eso

exactamente lo que deberıa ser modelado, por medio de una distribucion previa.

3. Argumentos de ambas partes

A simple vista, es posible evidenciar que Bunge y Silva, y los comentaristas invi-

tados en este numero de esta Revista hacemos parte de las animadas, pero intere-

santes y necesarias, discusiones que durante siglos han caracterizado el desarrollo

de la estadıstica y sus diferentes paradigmas, entre ellos el bayesiano y el clasico.

Los estadısticos bayesianos acuden a una vieja contradiccion, basada en el principio

de verosimilitud, para impulsar el abandono de los metodos clasicos en pro del

paradigma bayesiano y, a su vez, los estadısticos clasicos han utilizado un problema

atribuido a Laplace para ridiculizar el punto de vista bayesiano. Detengamonos en

estos ejemplos por un instante.

El ejemplo del principio de verosimilitud sugerido por Lindley & Philips (1976)

reza de la siguiente forma:

Suponga que se realizan 12 lanzamientos independientes de una mone-

da y se observan 9 caras y 3 sellos. Ademas, se desea cotejar el siguiente

conjunto de hipotesis

H0 : θ = 0.5 vs. Ha : θ > 0.5

En donde θ representa la probabilidad de obtener una cara. Si sola-

mente tuviesemos acceso a esta informacion, surgirıan dos opciones de

verosimilitud que podrıan ser candidatas para realizar el cotejo de las

hipotesis de interes. En primer lugar la distribucion binomial, que asu-

me que X es la variable aleatoria que determina el numero de caras en

los 12 lanzamientos, se tiene que

α1 = PH0(X ≥ 9) =

12∑

x=9

(12

x

)θx(1− θ)12−x = 0.075

Y la otra verosimilitud candidata serıa la distribucion Binomial Nega-

tiva, que supone que X representa el numero de caras necesarias para

lograr 3 sellos, para lo cual se tiene que

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Acerca de la defensa de la racionalidad bayesiana y la obra de Mario Bunge 217

α2 = PH0(X ≥ 9) =

∞∑

x=9

(2 + x

x

)θx(1 − θ)3 = 0.0325

De esta forma, asumiendo un nivel de significacion del 5%, el estadısti-

co rechazara la hipotesis nula si la variable aleatoria X tuviese distri-

bucion binomial negativa y no la rechazarıa si X tuviese distribucion

Binomial. Lo anterior constituye una violacion al principio de verosimi-

litud (Birnbaum 1962) que afirma que, si los datos han sido observados,

la funcion de verosimilitud debe contener toda la informacion experi-

mental relevante acerca de los parametros de interes. Notese que estas

dos verosimilitudes son proporcionales entre sı como funciones de θ,pero aunque guıan al mismo estimador de maxima verosimilitud, esta

equivalencia lleva a dos conclusiones diferentes en terminos del sistema

de hipotesis de interes.

El segundo ejemplo, atribuido a Laplace y con el cual los estadısticos clasicos se

mofan de los bayesianos es el siguiente:

Teniendo en cuenta que el sol ha salido n veces consecutivas en los pa-

sados n dıas. Cabe cuestionarse acerca de ¿cual es la probabilidad de

que el sol salga manana, dado que ha salido en los pasados n dıas?

Para resolver esta pregunta, Laplace utilizo la regla de la sucesion

(Wikipedia 2013) para demostrar que, siendo p la probabilidad de que

el sol salga manana, la esperanza posterior de p esn+ 1

n+ 2. Esta con-

jetura se logra al asumir que la distribucion previa de p es uniforme

continua, como una opcion probabilista de la total incertidumbre sobre

este parametro, y una verosimilitud binomial, describiendo el numero

de exitos en n ensayos. Lo anterior, siguiendo la regla de Bayes, re-

dunda en una distribucion posterior con kernel Beta de parametros

(α = n+ 1, β = 1).

Algunos autores (Popper 1957, Schay 2007, Gorroochurn 2011) han

ridiculizado la escogencia de la distribucion previa en el anterior pro-

blema, utilizando sus argumentos para desvirtuar el uso de la estadısti-

ca bayesiana. En particular cabrıa preguntarse ¿por que se justifica la

asignacion de una distribucion uniforme continua a la probabilidad pre-

via de que el sol salga? Esta escogencia implica que el conocimiento

previo de que se tiene del problema le otorga la misma densidad a cual-

quier valor en el intervalo (0, 1) y este supuesto no es cientıficamente

razonable.

Los anteriores dos ejemplos son una muestra de una gran cantidad de argumen-

taciones que intentan desvirtuar los enfoques clasico y bayesiano y que, en mi

apreciacion, alimentan el desarrollo mismo de la estadıstica.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

218 Andres Gutierrez Rojas

Sin embargo, en defensa del estadıstico clasico se puede afirmar que el diseno

del experimento deberıa ser incluido en el contraste de las hipotesis, porque en

terminos experimentales, no es lo mismo lanzar una moneda hasta obtener cierto

numero de caras, que lanzarla un numero predefinido de veces y, por consiguiente,

la manera como se llevo a cabo el experimento1 es informacion relevante (Carlin &

Louis 2009). Por otro lado, en defensa del estadıstico bayesiano, podrıa argumen-

tarse que el ejemplo esta desenfocado y que el problema de Laplace no consiste

en la asignacion de la distribucion previa sino en la asignacion de la verosimili-

tud como una distribucion binomial, que considera eventos independientes, a un

problema que, a todas luces, no deberıa asumir una probabilidad de exito cons-

tante cada dıa, ni tampoco que los dıas en los cuales el sol ha salido son eventos

independientes unos de otros (Gelman & Robert 2013).

Por ultimo, en mi interpretacion de la practica estadıstica y del ejercicio de mode-

lacion que se realiza en esta profesion, suscribo completamente la frase de Gelman

& Cosma (2013) cuando afirman que un metodo estadıstico puede ser util aun

cuando sea filosoficamente errado.

4. Conclusion

A pesar de que en esta discusion se ha demostrado que las conclusiones de Bunge

son, por lo menos, desviadas de las reglas de probabilidad y por tanto no cientıfi-

cas, es de suponer que sin importar la falsedad de sus argumentos, el potencial de

malinterpretacion en una obra escrita difundida de forma masiva es grande. Maxi-

me cuando un gremio, como el de los medicos, no tiene porque conocer los axiomas

fundamentales de la probabilidad. Por tanto, creo yo que este tipo de literatura

desvirtua el quehacer del estadıstico, clasico o bayesiano, y crea en el profesional

de la medicina una gran barrera hacia el uso de nuevas tecnicas estadısticas.

Como bien lo afirman Cox & Donnelly (2011), no todos los analisis estadısticos

que utilicen la regla de Bayes deberıan ser llamados bayesianos. En este sentido

se deberıa garantizar por lo menos que: 1) la distribucion previa represente una

evidencia del conocimiento previo del problema; 2) esta evidencia debe ser con-

sistente con los datos observados; 3) realizar un analisis de sensibilidad2 sobre las

distribuciones previas candidatas cuando hay total incertidumbre del problema

(Gustafson et al. 2010).

Con estas indicaciones en mente, es posible concluir que el ejercicio de probabi-

lidades de Bunge, solamente constituye un esfuerzo filosofico mal planteado en

contra de una corriente de analisis estadıstico posicionada en el mundo cientıfico,

en donde mas de la mitad de los artıculos cientıficos publicados en las mas impor-

1El diseno en la recoleccion de los datos es informativo (y no ignorable), no solo en diseno

experimental, sino en el analisis de encuestas probabilısticas, para las cuales las propiedades de

los estimadores estan supeditadas a la medida de probabilidad discreta inducida por el diseno

muestral (Gutierrez 2009).2En el planteamiento de ensayos clınicos, este enfoque ha sido estudiado por Carlin & Louis

(1996) y recientemente por Fuquene et al. (2009) y Cook et al. (2011).

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Acerca de la defensa de la racionalidad bayesiana y la obra de Mario Bunge 219

tantes revistas estadısticas utilizan metodos bayesianos (Andrews & Baguley 2013,

Figura 1).

Parafraseando a Gelman (2008) mi conclusion final sobre esta interesante discusion

redunda en que hoy en dıa es posible ser no bayesiano –al utilizar en la practica

metodologıas clasicas– pero ser antibayesiano –al desconocer el desarrollo cientıfico

que la estadıstica bayesiana ha traıdo consigo– ya no es una opcion.

Recibido: 23 de julio de 2013

Aceptado: 14 de agosto de 2013

Referencias

Andrews, M. & Baguley, T. (2013), ‘Prior approval: the growth of Bayesian met-

hods in psychology’, British Journal of Mathematical and Statistical Psycho-logy 66, 1–7.

Bernardo, J. M. (2008), ‘Comment on article by gelman’, Bayesian Analysis3(3), 443–658.

Birnbaum, A. (1962), ‘On the foundations of statistical inference’, Journal of Ame-rican Statististical Association 57, 269–326.

Carlin, B. P. & Louis, T. (1996), Identifying prior distributions that produce spe-cific decisions, with application to monitoring clinical trials, Wiley, chapter

Bayesian Analisys in Statistics and Econometrics: Essays in Honor of Arnold

Zellner.

Carlin, B. P. & Louis, T. A. (2009), Bayesian methods for data analysis, 3 edn,

CRC.

Cook, J., Fuquene, J. & Pericchi, L. (2011), ‘Skeptical and optimistic robust priors

for clinical trials’, Revista Colombiana de Estadıstica 34, 333–345.

Cox, D. & Donnelly, C. (2011), Principles of applied statistics, Cambridge Univer-

sity Press.

Fuquene, J., Cook, J. & Pericchi, L. (2009), ‘A case for robust bayesian priors with

applications to clinical trials’, Bayesian Analysis 4, 817–846.

Gelman, A. (2008), ‘Objections to bayesian statistics’, Bayesian Analysis3(3), 445–450.

Gelman, A. & Cosma, R. (2013), ‘Philosophy and the practice of bayesian statis-

tics’, British Journal of Mathematical and Statistical Psychology 66, 8–38.

Gelman, A. & Robert, C. P. (2013), ‘Not only defended but also applied”: The

perceived absurdity of bayesian inference’, The American Statistician 67, 1–5.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

220 Andres Gutierrez Rojas

Gorroochurn, P. (2011), ‘Errors of probability in historical context’, AmericanStatistician 65, 246–254.

Gustafson, P., McCandless, L., Levy, A. & Richardson, S. (2010), ‘Simplified baye-

sian sensitivity analysis for mismeasured and unobserved confounders’, Bio-metrics 66, 1129–1137.

Gutierrez, A. (2009), Estrategias de muestreo: diseno de encuestas y estimacionde parametros, Editorial de la Universidad Santo Tomas.

Kadane, J. (2008), ‘Comment on article by Gelman’, Bayesian Analysis 3(3), 455–458.

Lindley, D. & Philips, L. (1976), ‘Inference from a Bernoulli process (a bayesian

view)’, Journal of American Statististical Association 30, 112–119.

Popper, K. (1957), ‘Probability magic or knowledge out of ignorance’, Dialectica11(354 - 374).

Salsburg, D. (2001), The lady tasting tea, Henry Hold and Company.

Schay, G. (2007), Introduction to probability with statistical applications, Birkhau-ser.

Wikipedia (2013), ‘Rule of succession’. Fecha de acceso: 17 de julio de 2013.

*http://en.wikipedia.org/wiki/Rule of succession

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 221–224

El caso de la estadıstica bayesiana objetiva comouna posibilidad en ensayos clınicos

The case of objective bayesian statistics as a possibility

in clinical trials

Jairo Fuquenea

[email protected]

1. Introduccion

En primer lugar, el autor de esta discusion agradece al Comite Editorial por in-vitarlo a realizar una discusion del artıculo de Silva (2013), el cual presenta unaperspectiva muy interesante con ejemplos bastante claros sobre el uso del teoremade Bayes. Al ser este el ano internacional de la estadıstica y tambien el aniversario250 del teorema de Bayes la discusion resulta aun mas interesante. En particu-lar, la defensa que el autor hace sobre la subjetividad en la informacion previaha sido tema de discusion por los bayesianos en anos recientes. Por tanto, conel objetivo de complementar algunas de las discusiones de Silva (2013), en esteartıculo se presenta una discusion corta de los metodos bayesianos objetivos comouna alternativa a los metodos bayesianos subjetivos en ensayos clınicos.

2. Una aplicacion de los metodos bayesianosobjetivos en ensayos clınicos

Los metodos bayesianos objetivos (ver Berger (2012)) en ensayos clınicos nacenentre otras cosas como una alternativa a la crıtica de los frecuentistas a los baye-sianos que afirman lo siguiente: “Cambiando la distribucion previa en un analisisbayesiano dos medicos pueden obtener resultados diferentes” por esta razon tantoprevias por “default” ası como previas robustas han sido propuestas en el analisisbayesiano de ensayos clınicos. Entre los trabajos mas recientes podemos encontrarFuquene et al. (2009) y Hobbs et al. (2011). Sin llegar a terminos teoricos y con elobjetivo de ejemplificar el uso de previas robustas se presenta el siguiente ejemplo.

aUniversity of Warwick. Department of Statistics. Reino Unido.

221

222 Jairo Fuquene

2.1. Ejemplo

Supongamos que se realiza un ensayo clınico en donde el 80% de 20 pacientestienen VIH dado que tienen sida y de acuerdo con informacion previa entre el0% y 40% de los pacientes en la poblacion de estudio tienen sida. El objetivo esdeterminar la distribucion posterior de pacientes que tienen sida dado que tienenVIH. La informacion previa en este caso nos indica que probablemente el 20%de la poblacion de estudio podrıa tener sida dado que tiene VIH. Sin embargo,es importante resaltar que la discrepancia entre los datos previos y actuales esconsiderable. Varias preguntas naturales surgen en este ensayo clınico: 1) Es racio-nal utilizar una metodologıa bayesiana para obtener conclusiones finales? 2) Sı esracional utilizar dicha metodologıa, ¿resulta adecuado utilizar distribuciones deprobabilidad “conjugadas” para modelar los datos previos? 3) ¿Cual es la mejorescogencia para modelar los datos previos?

Todas estas preguntas son relevantes para la escogencia de la distribucion que mo-dela los datos previos. En el analisis bayesiano es comun utilizar distribucionesprevias conjugadas debido a que en la practica son relativamente faciles de apli-car, ver Spiegelhalter et al. (2004). Sin embargo, dichas distribuciones conjugadasinfluyen en los resultados, dando mucho peso a la informacion previa, cuando da-tos previos y actuales difieren considerablemente. Como una alternativa se puedenutilizar en la fase II del ensayo clınico distribuciones previas robustas. Continuan-do con el ejemplo, la informacion previa se puede elicitar de tal manera que lasprevias conduzcan a un analisis conjugado, donde los datos previos se modelanutilizando una distribucion Beta y los datos actuales utilizando una verosimilitudBinomial. El modelo beta/binomial es uno de los mas populares en ensayos clıni-cos bayesianos. Sin embargo, nace otra alternativa practica y robusta, el modeloCauchy/Binomial en la escala del Log-Odds (ver Fuquene et al. (2009)). Los resul-tados de los dos analisis utilizando el paquete en R (ver Fuquene (2009)) llamadoClinical Robust Priors se muestran en la Figura 1. Como se puede observar en laFigura 1, el modelo Cauchy/Binomial es mucho mas similar a la distribucion delos datos en comparacion con el modelo beta/binomial. En otras palabras, la in-formacion previa es descontada cuando datos previos y actuales son relativamentediferentes conduciendo a resultados practicos mucho mas coherentes. En conclu-sion, en promedio utilizando una distribucion previa robusta como la distribucionCauchy, el 77% de los pacientes tienen sida dado que tienen VIH. Los resultadosson coherentes y similares al caso frecuentista el cual solo considera la distribucionBinomial para modelar los datos.

La objetividad en este analisis se basa en la escogencia de las previas y no en laprobabilidad de tener los datos previos o actuales. Tambien dicha objetividad des-carta la aseveracion que algunos estadısticos hacen: “Cambiando la informacionprevia el bayesiano puede obtener los resultados que desea”. Las previas robustasdescuentan el peso de la informacion previa cuando la informacion previa y losdatos en la muestra o actuales estan en conflicto o en otras palabras son muy di-ferentes. Por tanto esta propuesta se presenta como una opcion por “default”paralos practicantes o expertos en el area de ensayos clınicos que deseen utilizar meto-

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

El caso de la estadıstica bayesiana objetiva como una posibilidad en ensayos clınicos223

Figura 1: Resultados del ejemplo modelos: beta/binomial y cauchy/binomial en la

escala del Log-Odds. Fuente: elaboracion propia.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

El caso de la estadıstica bayesiana objetiva como una posibilidad en ensayos clınicos223

Figura 1: Resultados del ejemplo modelos: beta/binomial y cauchy/binomial en la

escala del Log-Odds. Fuente: elaboracion propia.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

224 Jairo Fuquene

dos bayesianos. Tambien el escepticismo de utilizar metodos bayesianos queda aun lado debido a que si dos medicos utilizan dichas previas por “default”, inde-pendiente de la informacion previa, ambos podrıan llegar a resultados similaressiempre y cuando los resultados en la muestra tambien sean iguales.

3. Conclusion

Finalmente, esta discusion ratifica no en terminos teoricos pero sı practicos lomostrado por Silva (2013) en su crıtica al ejemplo de Bunge (2012), y tambien sirvecomo una contradiccion al punto de vista Frecuentista. Por tanto, desde el puntode vista del autor de este artıculo, la discusion de Silva (2013) es supremamentecoherente y ratifica lo que ha sucedido en los ultimos anos con el impacto que hatenido el uso de la estadıstica bayesiana en campos como bioestadıstica, medicina,bioinformatica, neurologıa y genetica.

Recibido: 9 de julio de 2013

Aceptado: 23 de julio de 2013

Referencias

Berger, J. O. (2012), ‘The case for objective bayesian analysis’, Bayesian Analysis

1(3), 385–402.

Fuquene, J. (2009), ‘Robust bayesian priors in clinical trials: an R package forpractititoners’, Biometric Brazilian Journal 27(4), 637–643.

Fuquene, J., Cook, J. & L.R., P. (2009), ‘A case for robust bayesian priors withapplications to clinical trials’, Bayesian Analysis 4(4), 817–846.

Hobbs, B. P., Carlin, B. P., Mandrekar, S. J. & Sargent, D. J. (2011), ‘Hierar-quical commensurate and power prior models for adaptative incorporation ofhistorical information in clinical trials’, Biometrics 67(3), 1047–1056.

Spiegelhalter, D. J., Abrams, K. R. & Myles, J. P. (2004), Bayesian approaches to

clinical trials and health-care evaluation, Wiley, London.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en Estadıstica

Diciembre 2013, Vol. 6, No. 2, pp. 225–229

Mario Bunge y la estadıstica bayesiana

Mario Bunge and Bayesian statistics

Jorge Ortiz Pinillaa

[email protected]

1. Introduccion

Despues de leer el artıculo de Silva (2013), no quedan dudas sobre los errorestecnicos y teoricos de Bunge (2003) cuando “demuestra” las contradicciones a lasque se llega mediante el uso del teorema de Bayes. Tal vez, por su preparacionmatematica como fısico, el filosofo no vio la necesidad de acudir a la revision porparte de un probabilista o de un estadıstico. La ingenuidad de sus errores y sulenguaje casi pasional deslucen la obra de un autor que se declara enemigo de lasubjetividad.

Por otra parte, no se necesitan grandes teorıas para deducir que es mejor saberalgo que nada y que, cuando se conoce algo, es mejor aprovecharlo que no hacerlo.La formula de Bayes y todo lo que ha llevado a los desarrollos actuales de la es-tadıstica bayesiana simplemente ofrecen metodos para aprovechar el conocimientoadquirido. La sola presentacion de los metodos deberıa bastar para convencer quelo hace bien; ademas, se dispone de una enorme y creciente cantidad de ejemplosde aplicaciones exitosas.

En lo que sigue, prefiero leer y tratar de interpretar al filosofo, sin la pretension (apriori) de encontrar con ello motivacion por el estudio de la estadıstica bayesiana.

2. Probabilidades y proporciones

El manejo y la interpretacion de las probabilidades son realmente muy complejos.En eventos o experiencias repetibles, hace mas de 300 anos, Jacob Bernoulli en-contro que la relacion de la cantidad de exitos sobre la de experiencias tiende a unvalor igual al de la relacion de casos favorables sobre casos posibles. La repetibili-dad (en condiciones identicas) abre un camino para acercarse al conocimiento deuna relacion p inicialmente desconocida, pero fija.

aFacultad de Estadıstica, Universidad Santo Tomas (Colombia).

225

226 Jorge Ortiz Pinilla

¿Que pasa si, como plantea Bunge (2012, p. 100), ya se ha probado que un cier-to individuo e tiene VIH y se pregunta por la probabilidad de que tenga sida?Para manejar el tema en un contexto de probabilidad, se necesita admitir que elindividuo ya ha sido seleccionado de alguna manera que posibilita el uso de lasprobabilidades. Admitamos entonces que el espacio de probabilidad para la se-leccion de los individuos esta bien definido, que el evento e forma parte de laσ-algebra respectiva y que su probabilidad es un valor entre 0 y 1. Supongamosahora que el evento e ha ocurrido y ademas ya se sabe que e tiene VIH.

Llamemos SEL al conjunto de seleccionados que, en este caso, consta de unasola persona. Como e ya ha sido seleccionado y tiene V IH , entonces el eventoSEL ∩ V IH = e ya ha sido observado. No hay riesgo de que su probabilidadsea cero. Entonces, la pregunta de Bunge se traduce en buscar P (e ∈ sida | e).Por la definicion de probabilidad condicional,

Pr(e ∈ sida | e) =P (e ∈ sida ∩ e)

P (e)(1)

Si e tiene sida, el numerador en (1) es igual al denominador y la probabilidad bus-cada sera igual a 1; en caso contrario, sera cero. Como puede verse, este resultadoes inutil, pues exige el conocimiento de la condicion que precisamente se descono-ce. El calculo de probabilidades no da respuestas utiles para casos individuales yadeterminados. Sin embargo, para el individuo e del ejemplo, puede ser util saberque de las personas que estan en las mismas condiciones (los que tienen VIH),una proporcion de 0.61 (61%) han desarrollado el sida. Para el especıficamente,no corresponde a una probabilidad formal sino a una frecuencia relativa calculadacon datos de otras personas. Para su caso, nadie esta interesado en extraer alea-toriamente una persona con VIH para ver si tiene sida. Pero la frecuencia relativaresume el aprendizaje a partir de experiencias ajenas, que tambien es valioso.

Un ejemplo famoso es el de la tragedia del Challenger. Los documentos historicosmuestran que al menos uno de los investigadores tenıa conciencia de que el riesgoera real, que dio a conocer su preocupacion, pero que la interpretacion que se dioa los estudios de probabilidad determino que los resultados no eran concluyentesy que, por votacion, se autorizo el lanzamiento. Si la tragedia no hubiera ocurrido,seguramente le hubieran dicho que sus dudas eran infundadas y los ejemplos dehoy dirıan que el lanzamiento fue exitoso a pesar de los altos riesgos senaladospor las probabilidades que ahora se calculan. Realmente, lo mas probable es que elpublico ni siquiera tendrıa ni el problema ni los datos para “resolver” la tragediaa posteriori.

Este ejemplo es muy interesante, porque para su analisis siempre se han considera-do factores que tenıan relaciones causales directas con el desenlace y no con infor-macion de experiencias ajenas al caso estudiado. Se trataba de una probabilidadpropia (objetiva) de un evento irrepetible. En el momento se hicieron calculos quefueron considerados por unos como suficientemente preocupantes, pero no conclu-yentes por la mayorıa. Posteriormente se hicieron otros calculos mediante modeloslineales generalizados que no dejarıan dudas al respecto. Tambien se hicieron otros

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Mario Bunge y la estadıstica bayesiana 227

calculos basados en modelos bayesianos que dejarıan en ridıculo a quien quisieramanifestar alguna duda. Sin embargo, los calculos posteriores a la tragedia sonpuramente academicos o, si se quiere, especulativos, porque en el momento real,cuando se tomaron las decisiones, no se tenıa esa informacion sobre la mesa. Lounico que nos dicen realmente, es que hoy disponemos de mejores herramientas deanalisis.

En el momento historico, lo disponible era un resultado que dejaba un margendemasiado grande para la subjetividad. Uno de los ingenieros prefirio advertir,por su experiencia y conocimiento personales, es decir, subjetivamente, que elriesgo era suficientemente grande como para aplazar el lanzamiento. Los demasconsideraron, tambien subjetivamente, que los resultados no eran concluyentes yvotaron por el lanzamiento. Fue una lucha entre subjetividades donde gano laequivocada.

A la luz de los resultados, hoy podemos decir que la mejor herramienta para elcaso es la bayesiana. Pero, ¿que nos garantiza que la probabilidad calculada es lacorrecta? Como el resultado se conoce, entonces podrıamos decir que el metodoque arroje el resultado mas cercano de 1 es el mejor. Pero si la tragedia no hubieraocurrido ¿habrıa sido considerado como el peor?

Para los eventos irrepetibles, es posible que los mejores calculos sean los mas extre-mos, es decir, los mas cercanos de 0 o de 1, pues ası nos dejan con menor margen deincertidumbre. Es claro que no determinan el resultado, pero es ahı donde adquie-ren el significado de probabilidades. El concepto de entropıa permitirıa generalizarel criterio cuando los resultados no sean dicotomicos.

Una experiencia familiar ayuda a ilustrar algo mas nuestro tema: un pequeno so-brino, gravemente desnutrido y desidratado, fue diagnosticado de estenosis pilorica.El medico advirtio la necesidad urgente de una cirugıa. Al preguntarle por los ries-gos de muerte durante la operacion, respondio que en la clınica habıan practicadono menos de 10000 cirugıas de este tipo y que no mas de 5 ninos habıan falleci-do. Formalmente, la proporcion 0.0005 no era una probabilidad de muerte para elnino; pero para el equipo medico sı era un indicador de que sabıan hacer las cosasbien. Igual que la probabilidad, este indicador fue un factor determinante paratomar la decision de autorizar la cirugıa. Mi sobrino sobrevivio y hoy ya tiene masde 22 anos. ¿Fue la probabilidad la que lo salvo? ¿Como estarıa interpretando lascosas si hubiera muerto? ¿Cual decision hubiera tomado si alguien se me acerca yme dice “cuidado, este medico solo ha practicado 5 cirugıas y todos los ninos se lehan muerto”?

Personalmente, no tengo el afan de interpretar cada fraccion entre 0 y 1 como unaprobabilidad, a menos que tenga los contextos que me convenzan de hacerlo. Enmuchos casos se dispone de datos acerca de proporciones que se pueden tomar comoindicadores de algun tipo de riesgo, pero que en esencia no son probabilidades. Enparticular, los hechos cumplidos tienen probabilidad 1 de haber ocurrido. Todocalculo que de otro valor solo tiene validez en un mundo especulativo.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

228 Jorge Ortiz Pinilla

3. Bunge y la subjetividad

Bunge (2012) destaca que, a lo largo de la historia, el estancamiento de la medicinase ha relacionado con el dominio de criterios atribuidos a dones o a poderes per-sonales adquiridos por artes magicas o directamente de divinidades. Su desarrolloautentico solo se ha dado cuando se han logrado identificar relaciones de las enfer-medades con alteraciones fısicas en determinadas partes del cuerpo. Los avancesse aceleraron cuando se logro entender que las actividades fısicas, emocionales ointelectuales del hombre estaban estrechamente relacionadas con uno o varios desus organos. En la medida en que estas relaciones se han podido comprobar, hamejorado la capacidad de diagnostico y se han promovido mejores opciones detratamientos y de cuidados preventivos.

La medicina ha avanzado en la medida en que se ha dejado de lado el uso decriterios subjetivos y se lo ha reemplazado por el del conocimiento de relacionesobjetivas y comprobables. Podrıamos agregar que estos progresos tambien se handado en la medida en que los conocimientos adquiridos se han podido ensenar ycompartir con un espıritu abierto a la crıtica.

Del escrito de Bunge entiendo lo importante que es distinguir el uso del conoci-miento previo objetivo del manejo de supuestos caprichosos e infundados y de loselaborados a conveniencia de resultados intencionales. Caer en estos ultimos equi-vale a regresar a los dictamenes de “neochamanes” con toda la credibilidad queles darıa la utilizacion ingenua o incluso complice de procedimientos estadısticosde cualquier ındole.

No siempre el respaldo de datos como fuente de informacion previa es sinonimode objetividad. La misma relacion con los datos es fragil, tal como lo muestracon el ejemplo de Durkheim (p. 96) sobre las menores tasas de suicidio en loscatolicos. El investigador debe analizar cuidadosamente la calidad de los datos ylos entornos que rodearon su creacion antes de utilizarlos como base o respaldopara sus estudios. Desgraciadamente, muchas veces se descubren sus problemassolo cuando han generado controversia.

Bunge ataca decididamente la subjetividad y arremete furiosamente contra losbayesianos cuando observa que le abren la puerta. Ve inminente el regreso a lasdecisiones fuertemente influenciadas por opiniones no comprobables de personasque han ganado algun reconocimiento, pero que no corresponden a la realidad. Love como una amenaza al progreso de la ciencia y especialmente de la medicina.Ademas, agravada por el respaldo de una disciplina que gana vertiginosamentecredibilidad en la sociedad cientıfica.

¿Quien de nosotros no ha visto publicaciones o al menos comunicados de prensadonde se anuncia el exito de una dieta o de un tratamiento para combatir unaenfermedad, descalificado pocos meses despues porque se encuentra que el unicorespaldo del estudio eran unos resultados estadısticos donde el 80% de las personasque manifestaban haberse recuperado recordaban haber consumido alguna fruta?Ningun estudio sobre la relacion entre los componentes de la fruta y la enfermedad.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Mario Bunge y la estadıstica bayesiana 229

Ningun estudio realmente medico. Solo una intuicion personal “respaldada” porunos resultados numericos obtenidos con metodos estadısticos tambien oscuros oprovenientes de una “minerıa de datos” mal entendida.

El teorico demuestra que los metodos estan bien disenados y desarrollados y en suataque se equivoca Bunge. Pero es en las aplicaciones en las que la condicion hu-mana le da la razon al filosofo. Ya el ejemplo del Challenger pone en evidencia quehasta en esferas de alta calidad cientıfica la subjetividad o incluso determinadosintereses pueden cegar la razon.

4. Interpretacion de un mensaje filosofico

A mi modo de ver, el clamor de Mario Bunge es por la responsabilidad social delmedico. Seguramente en la atencion particular a sus pacientes se vera con frecuen-cia en la necesidad de acudir a su experiencia personal o a la de sus colegas paraproponer diagnosticos o soluciones. Pero para generar y divulgar conocimiento,debera desterrar la subjetividad y buscar explicaciones objetivas que lo acerquena la realidad de la naturaleza de las enfermedades, de su diagnostico, de su trata-miento, de sus causas y de su posible prevencion. Estoy de acuerdo con Bunge enque “la estadıstica es indispensable para estudiar y manipular poblaciones de todotipo [...]. Pero no suministra conocimiento sustantivo. Ni puede hacerlo, porque nose ocupa de las cosas mismas sino de datos acerca de ellas”.

Tambien es un llamado a la responsabilidad social del estadıstico, cualquiera seasu orientacion metodologica. Todos sabemos de la importancia de la estadısticapara la toma de decisiones y para el desarrollo de casi todas las disciplinas; quesu aplicacion cuidadosa ofrece una ventana de transparencia y de rigor cientıficodifıcil de reemplazar. En medio del ataque de Bunge, percibo una defensa demayor dimension: proteger a la estadıstica, bayesiana o no, del uso irracional ointencionado de la subjetividad.

Recibido: 17 de agosto de 2013

Aceptado: 30 de agosto de 2013

Referencias

Bunge, M. (2003), Capsulas, Gedisa, Barcelona.

Bunge, M. (2012), Filosofıa para medicos, Gedisa, Barcelona.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Mario Bunge y la estadıstica bayesiana 229

Ningun estudio realmente medico. Solo una intuicion personal “respaldada” porunos resultados numericos obtenidos con metodos estadısticos tambien oscuros oprovenientes de una “minerıa de datos” mal entendida.

El teorico demuestra que los metodos estan bien disenados y desarrollados y en suataque se equivoca Bunge. Pero es en las aplicaciones en las que la condicion hu-mana le da la razon al filosofo. Ya el ejemplo del Challenger pone en evidencia quehasta en esferas de alta calidad cientıfica la subjetividad o incluso determinadosintereses pueden cegar la razon.

4. Interpretacion de un mensaje filosofico

A mi modo de ver, el clamor de Mario Bunge es por la responsabilidad social delmedico. Seguramente en la atencion particular a sus pacientes se vera con frecuen-cia en la necesidad de acudir a su experiencia personal o a la de sus colegas paraproponer diagnosticos o soluciones. Pero para generar y divulgar conocimiento,debera desterrar la subjetividad y buscar explicaciones objetivas que lo acerquena la realidad de la naturaleza de las enfermedades, de su diagnostico, de su trata-miento, de sus causas y de su posible prevencion. Estoy de acuerdo con Bunge enque “la estadıstica es indispensable para estudiar y manipular poblaciones de todotipo [...]. Pero no suministra conocimiento sustantivo. Ni puede hacerlo, porque nose ocupa de las cosas mismas sino de datos acerca de ellas”.

Tambien es un llamado a la responsabilidad social del estadıstico, cualquiera seasu orientacion metodologica. Todos sabemos de la importancia de la estadısticapara la toma de decisiones y para el desarrollo de casi todas las disciplinas; quesu aplicacion cuidadosa ofrece una ventana de transparencia y de rigor cientıficodifıcil de reemplazar. En medio del ataque de Bunge, percibo una defensa demayor dimension: proteger a la estadıstica, bayesiana o no, del uso irracional ointencionado de la subjetividad.

Recibido: 17 de agosto de 2013

Aceptado: 30 de agosto de 2013

Referencias

Bunge, M. (2003), Capsulas, Gedisa, Barcelona.

Bunge, M. (2012), Filosofıa para medicos, Gedisa, Barcelona.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Comunicaciones en EstadısticaDiciembre 2013, Vol. 6, No. 2, pp. 231–235

Replica: La larga vida cientıfica que le espera a

Thomas Bayes

Rejoinder: The long scientific life that awaits Thomas Bayes

Luis Carlos Silvaa

[email protected]

En primer lugar, me corresponde agradecer a Comunicaciones en Estadıstica ladeferencia de someter mi trabajo en defensa del pensamiento bayesiano al juiciocrıtico no solo de sus lectores, sino tambien de tres destacados colegas.

Sus criterios coinciden en respaldar mi conviccion de que el razonamiento queconduce al profesor Bunge a descalificar en bloque el enfoque bayesiano resultainaceptable. Los ejemplos creados por el afamado filosofo y que le autorizarıan atal descalificacion, no es que tengan dudosa validez, sino que contienen, simple-mente, gruesos errores. Sigo convencido, por tanto, de que no hay que admitir laabsurda conclusion de que la probabilidad de padecer sida es igual a la de padecer-lo supuesto que se es portador de VIH, ni mucho menos creer en la resurreccion,para mantener en alta estima a la inferencia bayesiana. No seran enemigos comoBunge quienes pongan en peligro la larga vida cientıfica que le espera a ThomasBayes.

Sin embargo, el artıculo que motivo estos generosos comentarios va mas alla quela simple denuncia de los sofismas puntuales en que incurre Bunge en los ejem-plos de su libro “Filosofıa para medicos”. Se orientaba tambien a subrayar otrasaseveraciones, acaso menos burdas, pero sumamente controvertibles, en especialaquellas relacionadas con el papel de la subjetividad. Estos desaciertos se inscribenen un estilo de corte doctrinal, presente en buena parte del libro, que los propiciay que en parte los explica. Un juicio mas global sobre este problema fue desarro-llado en un artıculo independiente, publicado en una revista de aliento salubristay no de estadıstica (Silva 2013), como corresponde al hecho de que tal estilo no serelacionaba exclusivamente con esta ultima disciplina.

Poco tengo para discrepar con los tres comentaristas. Me cenire por tanto a resal-tar, y ocasionalmente complementar brevemente, algunas de sus observaciones entorno a la problematica general en que se inscribe la inferencia bayesiana, alentadaspor las ideas de Bunge, pero que entranan aportes relativamente independientesde ellas. Seran simples pinceladas relacionadas con asuntos que me llamaron laatencion.

aInvestigador titular. Escuela Nacional de Salud Publica. La Habana, Cuba.

231

232 Luis Carlos Silva

La lucida contribucion del profesor Andres Gutierrez, enfatiza que “la asignacionde las probabilidades previas no puede ser arbitraria” y agrega que “esta tarea debeser concienzuda y responsable”. Desde luego, comparto el espıritu de esta opinion;pero me gustarıa insertar una matizacion. Desde una perspectiva estricta, yo dirıaque sı “puede” ser arbitraria (siempre que cumpla con los axiomas de Kolmogorov).Lo que ocurre, y creo que es lo que en esencia quiere senalar mi colega, es que en talcaso se corre un riesgo nada desdenable de que dicha asignacion no sea fructıfera. Espor ello que ha de ser concienzuda. Asumo el riesgo de parecer descontextualizadoy pongo un ejemplo, en apariencia totalmente ajeno a las probabilidades, peroharto elocuente.

A mediados de la decada de los sesenta del siglo pasado surgio un atleta del saltoalto que empleaba un estilo totalmente heterodoxo. Dick Fosbury no acometıa elliston corriendo de manera oblicua a el y colocando el cuerpo bocabajo tras lacarrera, tal y como hacıan todos. Ası habıa conseguido, por ejemplo, el sovieticoValery Brumel la marca mundial entonces vigente de 228 cm. Fosbury corrıa haciael liston siguiendo una trayectoria curva; una vez frente a la varilla, giraba y seelevaba de espaldas a ella con el brazo mas proximo extendido. Con esa tecni-ca Fosbury obtuvo una plaza para representar a Estados Unidos en los JuegosOlımpicos de Mexico, en 1968. Antes del certamen, su metodo fue objeto de crıti-cas y hasta de burlas, por ser considerado esnobista, rocambolesco y poco natural.Sin embargo, no solo gano la medalla dorada en Mexico con la mejor marca dela historia de dichos juegos (225 cm) sino que su procedimiento, desde entoncesconocido como el “estilo Fosbury”, ha sido el empleado por todos los saltadoresposteriores. Resulta expresivo que Dick Fosbury jamas pudo superar la marca deBrumel pero, usando su invencion, esta no demoro en caer una y otra vez hastallegar a la plusmarca mundial vigente, que ostenta el cubano Javier Sotomayor(245 cm)1. Es decir, el exito del norteamericano no se debio a que fuera un atletasuperior al resto, sino a que usaba un metodo mas eficiente.

La moraleja es muy clara: a la hora de valorar un metodo, ninguna consideracionteorica, ninguna tradicion, ningun presupuesto filosofico puede ser mas persuasivoque las corroboraciones practicas de que por su conducto se consigue aquello quese quiere alcanzar. Llevado a nuestro debate, si el manejo de la teorıa bayesia-na –empleada de una manera sensata y racional– produce resultados palmarios,como efectivamente ocurre, queda poco margen para las objeciones doctrinarias.El profesor Gutierrez introduce e ilustra la violacion del “principio de verosimili-tud” en la que se incurren las tecnicas inferenciales clasicas. Expresado de maneralaxa (para profundizar en el tema, vease Royall (1997)) dicho principio estable-ce que las inferencias estadısticas deberıan realizarse a partir y solo a partir delos datos observados. Siendo, como es, una regla difıcilmente objetable, siempreme ha resultado fascinante que hayamos convivido durante casi un siglo con talviolacion, presente en el nucleo de los ubicuos “valores p”. Quizas la exposicionmas facilmente comprensible de esta inconsecuencia es la debida Berger & Berry(1988). Gutierrez adiciona que: El diseno en la recoleccion de los datos es in-

1Al final, permıtaseme este guino, los saltadores optaron por el estilo Fosbury no porque lesgarantizarıa el exito, sino porque aumentarıa la probabilidad de tenerlo.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Replica: La larga vida cientıfica que le espera a Thomas Bayes 233

formativo (y no ignorable), no solo en diseno experimental, sino en el analisis deencuestas probabilısticas, para las cuales las propiedades de los estimadores estansupeditadas a la medida de probabilidad discreta inducida por el diseno muestral.Dicho en terminos algo mas simples, se resalta un hecho real: cuando se realizauna inferencia, por ejemplo al calcular un intervalo de confianza a partir de datosobtenidos a traves de una muestra probabilıstica, las formulas correctas no solohan de contemplar los datos propiamente dichos, sino tambien el diseno muestralempleado. Sin embargo, estimo que hay un matiz que distingue ambas situacionesy que merece ser tenido en cuenta: en el calculo de un “valor p” interviene, pordefinicion, el diseno del estudio, pues dicho calculo exige tener en cuenta lo que“podrıa” haberse observado y no solo lo que objetivamente se observo. Siendo ası,dos analistas podrıan llegar a diferentes valores p en virtud del plan segun el cualcada uno se condujo, no obstante haber obtenido los mismos resultados con el mis-mo modus operandi. Sin embargo, para el computo del intervalo de confianza condatos procedentes de una muestra probabilıstica, si bien se tiene en cuenta algomas que los meros datos, ese algo no depende de lo que el investigador tenıa enmente realizar sino de lo que objetivamente hizo. Dos analistas diferentes que co-nozcan lo que se hizo (el diseno muestral aplicado, en este caso) llegaran al mismoresultado2.

Aparte de resaltar el vuelo de su discurso, vertebrado en torno a muy actualiza-das referencias bibliograficas, destaco la idea final de Gutierrez (desconocer eldesarrollo cientıfico que la estadıstica bayesiana ha traıdo consigo, ya no es unaopcion), tan lapidaria como atinada.

El profesor Jairo Fuquene ofrece un ejemplo complementario para desembocar en laconstatacion, acaso mas persuasiva que cualquier disquisicion teorica, del impactoque ha tenido el uso de la estadıstica bayesiana en diversos terrenos (bioestadıstica,medicina, bioinformatica, neurologıa y genetica, para citar solo las disciplinas queel menciona). Me permito volver a sugerir en este contexto la lectura de un libroexcepcional, que ya mencione en mi contribucion inicial, pero que en el ınterinha sido traducido y publicado en castellano con el tıtulo La teorıa que nuncamurio (McGrayne 2012).

No siempre el respaldo de datos como fuente de informacion previa es sinonimo deobjetividad nos dice el profesor Jorge Ortiz. Excelente acotacion. Y luego sintetizaelegantemente la predica bungeana cuando recuerda que el filosofo ataca decidi-damente la subjetividad y arremete furiosamente contra los bayesianos cuandoobserva que le abren la puerta?. Bunge aprecia el impetuoso desarrollo del pen-samiento bayesiano, senala Ortiz, como una amenaza al progreso de la ciencia yespecialmente de la medicina.

La objetividad es una aspiracion legıtima del pensamiento cientıfico, pero conse-

2El asunto es sutil, y no es facil de exponer en pocas lıneas. En otro sitio (Silva 2009) desa-rrollo un sencillo ejemplo que muestra que una persona que este al tanto de lo que un investigadorhizo –desde el comienzo hasta el final de su experimento– ası como de los datos obtenidos, nosabrıa como calcular el valor p hasta que dicho investigador no le comunique cual era el planexperimental al que respondıa eso que hizo, el cual solo se halla en su cabeza.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Replica: La larga vida cientıfica que le espera a Thomas Bayes 233

formativo (y no ignorable), no solo en diseno experimental, sino en el analisis deencuestas probabilısticas, para las cuales las propiedades de los estimadores estansupeditadas a la medida de probabilidad discreta inducida por el diseno muestral.Dicho en terminos algo mas simples, se resalta un hecho real: cuando se realizauna inferencia, por ejemplo al calcular un intervalo de confianza a partir de datosobtenidos a traves de una muestra probabilıstica, las formulas correctas no solohan de contemplar los datos propiamente dichos, sino tambien el diseno muestralempleado. Sin embargo, estimo que hay un matiz que distingue ambas situacionesy que merece ser tenido en cuenta: en el calculo de un “valor p” interviene, pordefinicion, el diseno del estudio, pues dicho calculo exige tener en cuenta lo que“podrıa” haberse observado y no solo lo que objetivamente se observo. Siendo ası,dos analistas podrıan llegar a diferentes valores p en virtud del plan segun el cualcada uno se condujo, no obstante haber obtenido los mismos resultados con el mis-mo modus operandi. Sin embargo, para el computo del intervalo de confianza condatos procedentes de una muestra probabilıstica, si bien se tiene en cuenta algomas que los meros datos, ese algo no depende de lo que el investigador tenıa enmente realizar sino de lo que objetivamente hizo. Dos analistas diferentes que co-nozcan lo que se hizo (el diseno muestral aplicado, en este caso) llegaran al mismoresultado2.

Aparte de resaltar el vuelo de su discurso, vertebrado en torno a muy actualiza-das referencias bibliograficas, destaco la idea final de Gutierrez (desconocer eldesarrollo cientıfico que la estadıstica bayesiana ha traıdo consigo, ya no es unaopcion), tan lapidaria como atinada.

El profesor Jairo Fuquene ofrece un ejemplo complementario para desembocar en laconstatacion, acaso mas persuasiva que cualquier disquisicion teorica, del impactoque ha tenido el uso de la estadıstica bayesiana en diversos terrenos (bioestadıstica,medicina, bioinformatica, neurologıa y genetica, para citar solo las disciplinas queel menciona). Me permito volver a sugerir en este contexto la lectura de un libroexcepcional, que ya mencione en mi contribucion inicial, pero que en el ınterinha sido traducido y publicado en castellano con el tıtulo La teorıa que nuncamurio (McGrayne 2012).

No siempre el respaldo de datos como fuente de informacion previa es sinonimo deobjetividad nos dice el profesor Jorge Ortiz. Excelente acotacion. Y luego sintetizaelegantemente la predica bungeana cuando recuerda que el filosofo ataca decidi-damente la subjetividad y arremete furiosamente contra los bayesianos cuandoobserva que le abren la puerta?. Bunge aprecia el impetuoso desarrollo del pen-samiento bayesiano, senala Ortiz, como una amenaza al progreso de la ciencia yespecialmente de la medicina.

La objetividad es una aspiracion legıtima del pensamiento cientıfico, pero conse-

2El asunto es sutil, y no es facil de exponer en pocas lıneas. En otro sitio (Silva 2009) desa-rrollo un sencillo ejemplo que muestra que una persona que este al tanto de lo que un investigadorhizo –desde el comienzo hasta el final de su experimento– ası como de los datos obtenidos, nosabrıa como calcular el valor p hasta que dicho investigador no le comunique cual era el planexperimental al que respondıa eso que hizo, el cual solo se halla en su cabeza.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

234 Luis Carlos Silva

guirla en estado puro es una quimera. Contribuir a alcanzarla es (casi) la razon deser de la estadıstica. Pero garantizarla por su conducto es imposible. Consecuente-mente, desde una optica fundamentalista, toda la estadıstica inferencial, y no solola bayesiana, deberıa ser erradicada, ya que lo que pudieramos llamar la estadısticaclasica” esta plagada de subjetivismo. El ejemplo mas inmediato es el umbral em-pleado en las pruebas de hipotesis para declarar “significacion”: el ubicuo α = 0.05es intrınsecamente subjetivo. Las propias pruebas de significacion utilizadas pue-den ser parametricas o no parametricas, de una o de dos colas, desarrollarse con osin correcciones (de Yates o de Bonferroni, por ejemplo), sin que exista un criterioindiscutible para elegir unas u otras. La eleccion del tamano muestral adecuadopara un estudio inexorablemente demanda del concurso de la subjetividad; unadetallada demostracion del caracter hondamente subjetivo de tal determinacionpuede hallarse en Silva (2000) o en Schulz & Grimes (2005). Igualmente subjetivaes la decision de cuales son las variables iniciales de un modelo de regresion multi-ple antes de aplicar una seleccion “paso a paso”, o la de aplicar dicha seleccionhacia adelante o hacia atras. Otro tanto ocurre con la valoracion de si cierto valorse debe o no considerar “aberrante” (un outlier), o con la decision de cuales tra-bajos han de incluirse en un metanalisis. La lista podrıa continuarse, pero se tratade una verdad tan obvia que no vale la pena extenderse. No casualmente, Berger& Berry (1988) en el contexto de la contribucion ya citada, escribıan hace 25 anos:el uso comun de la estadıstica parece haberse fosilizado, principalmente debido ala vision de que la estadıstica clasica es la forma objetiva de analizar datos.

El profesor Ortiz resume su intervencion diciendo que En medio del ataque deBunge, percibo una defensa de mayor dimension: proteger a la estadıstica, baye-siana o no, del uso irracional o intencionado de la subjetividad. Puede ser que tanloable proposito haya estado en el animo de Bunge. Me parece generosa la buenavoluntad del profesor Ortiz al hacer esa lectura; pero me resulta difıcil admitir quese quiera proteger a la estadıstica bayesiana del uso irracional de la subjetividadmediante el recurso de embestir contra ella usando argumentos irracionales.

Recibido: 1 de septiembre de 2013

Aceptado: 7 de octubre de 2013

Referencias

Berger, J. O. & Berry, D. A. (1988), ‘Statistical analysis and the illusion of objec-tivity’, The American Scientist 76, 159–165.

McGrayne, S. B. (2012), La teorıa que nunca murio: de como la Regla de Bayespermitio descifrar el codigo Enigma, perseguir los submarinos rusos y emergertriunfante de dos siglos de controversia, Grupo Planeta.

Royall, R. M. (1997), Statistical evidence: a likelihood paradigm, Chapman &Hall/CRC, Boca Raton.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Replica: La larga vida cientıfica que le espera a Thomas Bayes 235

Schulz, K. F. & Grimes, D. A. (2005), ‘Sample size calculations in randomisedtrials: mandatory and mystical’, The Lancet 365, 1348–1353.

Silva, L. C. (2000), Diseno razonado de muestras y captacion de datos para lainvestigacion sanitaria, Dıaz de Santos, Madrid.

Silva, L. C. (2009), Los laberintos de la investigacion biomedica. En defensa de laracionalidad para la ciencia del Siglo XXI, Dıaz de Santos, Madrid.

Silva, L. C. (2013), ‘Reflexiones a raız de Filosofıa para medicos, un texto de MarioBunge’, Salud Colectiva 9(1), 115–128.

Comunicaciones en Estadıstica, diciembre 2013, Vol. 6, No. 2

Revista Comunicaciones en Estadıstica

Informacion para los autores

La revista Comunicaciones en Estadıstica es una publicacion del Centro de Inves-

tigaciones y Estudios Estadısticos (CIEES) adscrito a la Facultad de Estadıstica

de la Universidad Santo Tomas. La periodicidad de esta revista es semestral, el

primer numero se publica en junio y el segundo en diciembre, de cada ano. El

objetivo de esta publicacion es divulgar artıculos originales e ineditos en cualquier

tematica de la estadıstica teorica y aplicada. La finalidad de esta revista es mo-

tivar la cultura de la investigacion estadıstica, y por ende, su publico objetivo

esta en todos aquellos investigadores que utilicen cualquier metodo estadıstico en

el desarrollo de sus proyectos.

La revista Comunicaciones en Estadıstica publica artıculos originales teoricos,

aplicaciones de tecnicas estadısticas en cualquier rama del saber que conlleven a

publicaciones ineditas ası como tambien, cartas al editor surgidas de la discusion

de artıculos ya publicados en esta Revista. A continuacion se presentan algunas

de las caracterısticas principales del proceso editorial en esta publicacion.

Sumision de artıculos

El Comite Editorial de la revista Comunicaciones en Estadıstica sugiere que el for-

mato de los artıculos sometidos sea PDF y preferiblemente en tamano carta. Los

autores deben enviar una version ciega del manuscrito, sin ninguna informacion

de la identidad o afiliacion de estos, usando la plantilla disponible en la pagi-

na webhttp://comunicacionesenestadistica.usta.edu.co/ de la revista. Los

artıculos deberan ser adjuntados y enviados a la direccion de correo electronico1

oficial de la revista y seran socializados por el Editor en el Comite Editorial.

Contenido

La revista Comunicaciones en Estadıstica publica la siguiente clase de artıculos:

Aplicaciones y estudios de caso que presenten analisis estadısticos innovado-

res o implementen ejercicios empıricos para evaluar tecnicas estadısticas en

situaciones particulares reales o simuladas.

Nuevas contribuciones teoricas o metodologicas que conlleven al desarrollo

de procedimientos, algoritmos y metodologıas ineditas desde el punto de

vista teorico. Tambien se incluyen procedimientos computacionales y graficos

ilustrados mediante una aplicacion practica en el caso en que hubiese lugar

para tal implementacion.

[email protected]

Revision exhaustiva de tematicas estadısticas en areas de aplicacion practica

o en campos especıficos de metodos y teorıa estadıstica.

Cartas al editor y correcciones mediante escritos directos y concisos acerca

de la discusion o correccion de algun artıculo publicado con antelacion en

esta revista.

Tıtulo y resumen

El tıtulo del artıculo debe ser especıfico, asimismo, cada artıculo sometido debe

contener un resumen de no mas de 400 palabras y no se deben citar ninguna clase

de referencias bibliograficas en el resumen. Inmediatamente despues del resumen

deben aparecer las palabras clave del artıculo, que deberan describir el contenido

de este.

Por polıticas de la revista Comunicaciones en Estadıstica, el idioma principal de

esta publicacion es el espanol, aunque tambien se publicaran artıculos en el idioma

ingles. Cada artıculo sometido debera contar con el tıtulo en el idioma principal

del artıculo y con su respectiva traduccion al idioma secundario. Lo mismo se debe

hace con el resumen y con las palabras clave. Por ejemplo, si el idioma principal

del artıculo es el espanol, este debera contener el tıtulo principal en espanol y su

respectiva traduccion al ingles. Ademas, el resumen principal debera estar escrito

en espanol y tambien debera ser traducido al ingles junto con las palabras clave.

Figuras y tablas

Al igual que las figuras, las tablas deben ser rotuladas con numeros arabigos.

Cada uno de estos objetos debe contener un tıtulo que lo describa con detalle y

tienen que ser citados dentro del texto del artıculo. Se sugiere a los autores que

las imagenes sean enviadas por aparte en cualquier formato grafico (eps, ps, tif,

jpg o bmp) de alta resolucion, en color y en escala de grises. La version impresa

de la revista contendra solo imagenes en escala de grises; sin embargo, la edicion

virtual de la revista contendra las imagenes a color.

Apendices y referencias bibliograficas

Los apendices del manuscrito deben estar ubicados al final de artıculo, despues de

las referencias bibliograficas. Se sugiere que los apendices correspondan a desarro-

llos teoricos extensos, material suplementario y algoritmos computacionales. Por

otro lado, el sistema de referencia bibliografica que se utiliza en esta publicacion

es el formato autor-ano conocido tambien como formato Harvard. Todas las refe-

rencias bibliograficas que aparezcan en el artıculo deben estar contenidas y citadas

en el texto general o cuerpo del manuscrito. De esta manera, si la referencia forma

parte de una frase, se deben citar los apellidos, colocando en un parentesis el ano

de la publicacion; si la referencia no forma parte de una frase, se deben citar entre

parentesis los apellidos seguidos del ano de publicacion.

Responsabilidad legal

El Comite Editorial de la revista Comunicaciones en Estadıstica asume que los

artıculos sometidos no estan publicados por ningun otro medio impreso o virtual.

Asimismo, se asume que el artıculo es inedito, original y que no se encuentra

en proceso de revision, arbitraje o publicacion en alguna otra revista, magazın o

cualquier sitio virtual. Al momento de recibir un artıculo para revision, los autores

adquieren toda responsabilidad legal acerca de graficas, tablas, datos y texto. De

la misma manera, los autores liberan a la revista Comunicaciones en Estadıstica

de cualquier accion penal emprendida por un tercero por delitos a derechos de

autor o cualquier otra afrenta. Por otro lado, si el Comite Editorial decide a favor

la publicacion de un artıculo, los autores deberan firmar y aceptar el traspaso

de los derechos de autor del artıculo a la revista. Sin embargo, los autores podran

adjuntar a su sitio web una version del documento final. La revista Comunicaciones

en Estadıstica se reserva los derechos de autor o difusion de los contenidos.

Proceso de arbitraje

Los artıculos sometidos a la revista Comunicaciones en Estadıstica seran evalua-

dos en un primer dictamen por el Comite Editorial y luego seran sometidos a

arbitraje tecnico por profesionales especializados en la tematica del manuscrito.

El proceso de arbitraje sera doblemente ciego; es decir, los autores no conoceran

la identidad ni afiliacion de los arbitros y a su vez, los arbitros no conoceran la

identidad ni afiliacion de los autores. De otro lado, la identidad del editor en curso

sera conocida tanto por los autores como por los arbitros. Para facilitar el proce-

so de revision, se les pide a los autores someter dos versiones del manuscrito; la

primera omitiendo las identidades y afiliaciones de los autores y la segunda con-

teniendo tanto las identificaciones como las afiliaciones institucionales. Se asignan

dos arbitros por cada manuscrito y los posibles dictamenes son: aceptar, rechazar o

solicitar modificaciones para una nueva revision. En caso de presentar dictamenes

opuestos por parte de los arbitros se asignara un tercero.

Information for authors

The journal Communications in Statistics is published by the Center for Research

and Statistical Studies (CIEES acronym in Spanish) assigned to the Faculty of

Statistics of Universidad Santo Tomas. The periodicity of this Journal is biannual,

the first issue is published in June and the second in December, of every year. The

intention of this publication is to disseminate original and unpublished articles

on any topic of theoretical and applied statistics. The purpose of this Journal is

to promote a culture of statistical research, and hence, its target audience is in

all those researchers who use any statistical method in the development of their

projects.

The journal Communications in Statistics is publishes original theoretical articles,

applications of statistical techniques in any branch of knowledge that lead to un-

published articles as well as, letters to the editor that arise from the discussion of

articles already published by this Journal. Following are some key features of the

editorial process of this publication.

Submission of articles

The Editorial Committee of the journal Communications in Statistics suggests the

articles be submitted in PDF format and preferably in letter size. Authors must

send a blind copy of the manuscript, without any information of their identity or

affiliation, using the format available in the Journal’s web page2. The articles must

be attached and sent to the Journal’s official e-mail address3 and will be socialized

by the Editor in the Editorial Committee.

Content

The Journal Communications in Statistics publishes the following types of articles:

Applications and case studies that present innovative statistical analysis or

implement empirical exercises to assess statistic techniques in real or simu-

lated specific situations.

New theoretical or methodological contributions that lead to the develop-

ment of procedures, algorithms and unpublished methodologies from the

theoretical point of view. It also includes computational procedures and illus-

trated graphs by a practical application in the event there is space for such

implementation.

Exhaustive review of statistical topics in areas of practical application or

specific fields of statistic methods and theory.

Letters to the editor and corrections through direct and concise writings

2http://comunicacionesenestadistica.usta.edu.co/[email protected]

about the discussion or correction of any article previously published in this

Journal.

Title and abstract

The title of the article must be specific, likewise, each article submitted must

have an abstract of no more than 400 words and no type of type of bibliographic

references should be cited in the abstract. Immediately after the abstract must

appear the article’s keywords, which should describe its content.

By policies of the journal Communications in Statistics, the main language of this

publication is Spanish, although some articles will also be published in English.

Each article submitted shall also have a title in the article’s main language with its

translation to the secondary language. The same must be done with the abstract

and keywords. For instance, if the main language of the article is Spanish, it should

have the main title in Spanish with its translation into English. Moreover, the main

abstract should be written in Spanish and must also be translated into English

along with the keywords.

Figures and charts

Like the figures, charts should be labeled in Arabic numerals. Each one of these

objects must have a title that describes it in detail and have to be cited inside the

text of the article. It is suggested to authors they send images separately in any

graphic format (eps, ps, tif, jpg or bmp), with high resolution, color and gray scale.

The Journal’s printed version will only contain images in grey scale; however, the

virtual edition of the Journal will have color images.

Appendix and bibliographic references

Appendixes of the manuscript must be located at the end of the article, after

the bibliographic references. It is suggested that appendixes refer to extensive

theoretical developments, supplement material and computational algorithms. On

the other hand, the bibliographic reference system used in this publication is the

author-year format also known as the Harvard format. All bibliographic references

that appear in the article should be contained and cited in the general text or body

of the manuscript. Thus, if the reference is part of a phrase, surnames should be

cited, with the year of publication between brackets; if the reference is not part of

a phrase, the surnames followed by the year of publication must be cited between

brackets.

Legal liability

The Editorial Committee of the journal Communications in Statistics assumes

that the articles submitted are not published by any other printed or virtual me-

dia. Likewise, it is assumed that the article is unpublished, original and is not

under review, peer review or publication in any other journal, magazine or any

virtual site. Upon receipt of an article for review, authors acquire all legal liability

on graphs, charts, data and texts. Likewise, authors release from liability the jour-

nal Communications in Statistics in any criminal action brought by a third party,

for crimes related with copyrights or any other offense. On the other hand, if the

Editorial Committee decides in favor of publishing an article, authors must sign

and accept to transfer copyrights of the article to the Journal. However, authors

may attach to their website a version of the final document. The journal Commu-

nications in Statistics reserves copyrights or rights to circulate the contents.

Peer review proceeding

Articles submitted to the journal Communications in Statistics will be assessed on

a first opinion by the Editorial Committee and will then be subject to a technical

peer review by professionals specialized on the topic of the manuscript. The peer

review proceeding will be doubly blind, that is, authors will not know the identity

nor affiliation of peer reviewers and in turn, peer reviewers will not know the

identity nor affiliation of the authors. On the other hand, the identity of the current

editor will be known by both authors and peer reviewers. To facilitate the review

process, authors are requested to present two versions of the manuscript: the first

one omitting the identities and affiliations of the author and the second containing

the identity and as well as institutional affiliations. Two peer reviewers are assigned

for each manuscript and the possible opinions are: accept, reject or request changes

for a new review. In the event of opposite opinions by peer reviewers a third one

will be designated.