Coeficiente de correlación de Spearman
-
Upload
eugenia-meneses -
Category
Documents
-
view
681 -
download
2
Embed Size (px)
Transcript of Coeficiente de correlación de Spearman

Coeficiente de correlación de Spearman
El coeficiente de correlación de Spearman es menos sensible que el de Pearson para los valores muy lejos de lo
esperado. En este ejemplo: Pearson = 0.30706 Spearman = 0.76270
En estadística, el coeficiente de correlación de Spearman, ρ (ro) es una medida de la correlación (la
asociación o interdependencia) entre dos variables aleatorias continuas. Para calcular ρ, los datos son
ordenados y reemplazados por su respectivo orden.
El estadístico ρ viene dado por la expresión:
donde D es la diferencia entre los correspondientes estadísticos de orden de x - y. N es el número
de parejas.
Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos
son pocos, se puede ignorar tal circunstancia
Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximación a
la distribución t de Student
La interpretación de coeficiente de Spearman es igual que la del coeficiente de correlación
de Pearson. Oscila entre -1 y +1, indicándonos asociaciones negativas o positivas
respectivamente, 0 cero, significa no correlación pero no independencia. La tau de
Kendall es un coeficiente de correlación por rangos, inversiones entre dos ordenaciones de
una distribución normal bivariante.
Contenido

[ocultar]
1 Ejemplo
2 Determinando la significación estadística
3 Véase también
4 Enlaces externos
5 Fuente
[editar]Ejemplo
Los datos brutos usados en este ejemplo se ven debajo.
CIHoras de TV a la semana
106 7
86 0
100 28
100 50
99 28
103 28
97 20
113 12
113 7
110 17

El primer paso es ordenar los datos de la primera columna. Después, se crean dos columnas
más. Ambas son para ordenar (establecer un lugar en la lista) de las dos primeras columnas.
Después se crea una columna "d" que muestra las diferencias entre las dos columnas de
orden. Finalmente, se crea otra columna "d2". Esta última es sólo la columna "d" al cuadrado.
Después de realizar todo esto con los datos del ejemplo, se debería acabar con algo como lo
siguiente:
CI (i)Horas de TV a la semana (t)
orden(i) orden(t) d d2
86 0 1 1 0 0
97 20 2 6 4 16
99 28 3 8 5 25
100 50 4.5 10 5.5 30.25
100 28 4.5 8 3.5 12.25
103 28 6 8 2 4
106 7 7 2.5 4.5 20.25
110 17 8 5 3 9
113 7 9.5 2.5 7 49
113 12 9.5 4 5.5 30.25
Nótese como el número de orden de los valores que son idénticos es la media de los
números de orden que les corresponderían si no lo fueran.

Los valores de la columna d2 pueden ser sumados para averiguar . El valor
de n es 10. Así que esos valores pueden ser sustituídos en la fórmula.
De lo que resulta ρ = − 0.187878787879.
[editar]Determinando la significación estadística
La aproximación moderna al problema de averiguar si un valor observado de ρ es
significativamente diferente de cero (siempre tendremos -1 ≤ ρ ≤ 1) es calcular la
probabilidad de que sea mayor o igual que el ρ esperado, dada la hipótesis nula,
utilizando un permutation test. Esta aproximación es casi siempre superior a los
métodos tradicionales, a no ser que el data set sea tan grande que la potencia
informática no sea suficiente para generar permutaciones (poco probable con la
informática moderna), o a no ser que sea difícil crear un algoritmo para crear
permutaciones que sean lógicas bajo la hipótesis nula en el caso particular de que se
trate (aunque normalmente estos algoritmos no ofrecen dificultad).
Aunque el test de permutación es a menudo trivial para cualquiera con recursos
informáticos y experiencia en programación, todavía se usan ampliamente los métodos
tradicionales para obtener significación. La aproximación más básica es comparar el ρ
observado con tablas publicadas para varios niveles de significación. Es una solución
simple si la significación sólo necesita saberse dentro de cierto rango, o ser menor de
un determinado valor, mientras haya tablas disponibles que especifiquen los rangos
adecuados. Más abajo hay una referencia a una tabla semejante. Sin embargo,
generar estas tablas es computacionalmente intensivo y a lo largo de los años se han
usado complicados trucos matemáticos para generar tablas para tamaños de muestra
cada vez mayores, de modo que no es práctico para la mayoría extender las tablas
existentes.
Una aproximación alternativa para tamaños de muestra suficientemente grandes es
una aproximación a la distribución t de Student. Para tamaños de muestra más grandes
que unos 20 individuos, la variable
tiene una distribución t de Student en el caso nulo (correlación cero). En el caso
no nulo (ej: para averiguar si un ρ observado es significativamente diferente a un

valor teórico o si dos ρs observados difieren significativamente, los tests son
mucho menos potentes, pero puede utilizarse de nuevo la distribución t.
Una generalización del coeficiente de Spearman es útil en la situación en la cual
hay tres o más condiciones, varios individuos son observados en cada una de
ellas, y predecimos que las observaciones tendrán un orden en particular. Por
ejemplo, un conjunto de individuos pueden tener tres oportunidades para intentar
cierta tarea, y predecimos que su habilidad mejorará de intento en intento. Un test
de la significación de la tendencia entre las condiciones en esta situación fue
desarrollado por E. B. Page y normalmente suele conocerse como Page's trend
test para alternativas ordenadas.
RHO, TAU Y R DE PEARSON:
UN PROGRAMA VISUAL BASIC PARA SU TRANSFORMACIÓN E
INTERVALOS DE CONFIANZA
César Merino Soto
*
Universidad Privada San Juan Bautista & Asociación Civil Sembrar, Perú
José Livia Segovia
Universidad Nacional Federico Villarreal, Perú
Resumen
El presente artículo presenta un programa informático VB para el cálculo de la trasformación de
correlaciones no paramétricas (Rho de Spearman y Tau de Kendall) a R de Pearson, y sus intervalos de
confianza. Los estudios de la cobertura y poder estadístico de estos procedimientos han sido satisfactorios
y reportados (Rupinkski y Dunlap, 1996; Caruso & Cliff, 1997; Long & Cliff, 1997); y mediante el
programa informático presentado, el análisis correlacional en las investigaciones psicológicas y educativas

pueden ampliar sus estrategias de comprobación de hipótesis de descripción y comparación. Se discuten
sus usos en contextos aplicados.
Palabras clave: correlación, Spearman, Kendall, Pearson, programa de computadora, Visual Basic.
Abstract
The present article reporting a VB computer program for compute the transformation of non parametric
correlations (Spearman’s Rho and Kendall’s Tau) to Pearson’s R, and their confidence intervals. The
study of their coverage and statistical power of these procedures was satisfactory and they reported in
(Rupinkski y Dunlap, 1996; Caruso & Cliff, 1997; Long & Cliff, 1997); and for mean of the present
computer program, the correlational analysis in the educational and psychological research can have a
major range of strategies for testing research hypothesis or for descriptive and comparative purposes. We
discuss their uses in applied contexts.
Keywords: correlation, Spearman, Kendall, Pearson, computer program, Visual Basic.
Introducción
Es un hecho conocido que las técnicas paramétricas tienen más popularidad y aceptación
entre los profesionales e investigadores que las técnicas no paramétricas. Pero aparentemente
los usuarios con menos o más distorsionada información sobre el uso de las técnicas
estadísticas forman heurísticas cognitivas (Shanteau, 1989) para tomar decisiones sobre los
procedimientos de análisis de datos, aplicando “a ojo cerrado” las técnicas paramétricas sin
una previa evaluación de los presupuestos que se exigen para su apropiado uso, argumentando
su representatividad, disponibilidad y su popularidad. Por ejemplo, aún para el aparentemente
sencillo uso de la correlación lineal de Pearson, se deberían evaluar varios presupuestos antes
*

Psicólogo licenciado, docente en la Universidad Privada San Juan Bautista y miembro de la Asociación Civil Sembrar.
Dirección postal: Enrique Palacios 430, Chorrillos, Lima 9, Peru. Email: s[email protected]; [email protected]. 146 Merino y Livia
de considerar su aplicación en la investigación correlacional (Onwuebnuzie & Daniel, 2002),
tales como la normalidad de la distribución de los datos y la presencia de valores extremos.
Para cada técnica paramétrica, hay un equivalente no paramétrico (Harwell, & Serlin, 1989),
y actualmente hay un creciente avance de alternativas no paramétricas que son comunicados y
recibidos en la comunidad científica con interés, aunque tal información permanece oscura y
menos difundida fuera de los límites de los investigadores debido a que tales desarrollos
generalmente se publican en revistas que requieren del lector un avanzado conocimiento de
estadística. Pero varios aportes casi inalcanzables ya han sido reportados en revistas de ciencias
sociales y naturales, y se han convertido en estrategias sencillas de implementar manualmente
como el enfoque de transformación por rangos en el modelo general lineal (Harwell, & Serlin,
1989) o el uso de medidas de distancia entre las variables en lugar de correlaciones lineales
implementados por programas de computadora ad hoc (Anderson, 2001a; 2001b).
Como otras técnicas estadísticas no paramétricas, las correlaciones ordinales son
generalmente ignoradas en los planes de análisis de datos psicológicos y sociales (Caruso &
Cliff, 1997), aún considerando que los presupuestos para la aplicación de técnicas estadísticas
paramétricas son excepcionalmente cumplimentadas por los datos en mano y la gran mayoría
no consigue tener una distribución normal (Micceri, 1988). Aún con las ventajas que tienen las
correlaciones ordinales sobre la tradicional correlación de Pearson, en relación a su menor
sensibilidad a valores extremos, invariabilidad bajo transformaciones monotónicas de las variables
y mejor ajuste de los objetivos del investigador al análisis ordinal (Caruso & Cliff, 1997), la r de
Pearson tiene una completa preferencia entre los investigadores sociales y educacionales.
Mientras los datos contengan moderadas desviaciones de la normalidad y otras

condiciones que pondrían cuestionar la aplicabilidad de técnicas paramétricas, el uso de
procedimientos paramétricos será siempre una opción razonable y con mayor potencia para
rechazar la hipótesis nula. Pero el uso de los resultados correlacionales muchas veces exigirá
hacer comparables nuestros resultados con aquellos reportados por los estudios
correlacionales. Por ejemplo, el uso de correlaciones de Pearson para los estudios de validez es
la norma más que excepción; por lo tanto, si un investigador planea un estudio de validación
mediante el uso de coeficientes de correlación, debe anticipar el hecho que las correlacionales
no paramétricas no son frecuentemente reportadas; y por lo tanto, la comparación entre los
coeficientes de validez se hace difícil. Posteriormente, un lector que halla interesante un
estudio correlacional, verá un desafío no superable si los resultados correlaciones que pretende
usar se encuentran bajo la forma de correlaciones no paramétricas, como Tau de Kendall (τxy)
o rho de Spearman (ρs
).
Felizmente, existen estrategias de conversión de correlaciones no paramétricas hacia la
correlación de Pearson. Estas de hallan en los textos de Kendall (1962) y Pearson (1907), que
muy probablemente sean inaccesibles para el consumidor de artículos de investigación.
Imaginemos que un investigador ha aplicado correlaciones ordinales a sus datos y sus
resultados han sido publicados; luego, otro investigador quiere utilizar los valores numéricos
para un estudio meta-analítico, de generalización de la validez o evaluar las diferencias entre Rho, Tau y r de Pearson 147
sus hallazgos y los publicados. Los métodos cuantitativos de meta-análisis han superado
largamente las tradicionales las revisiones discursivas sobre los hallazgos científicos que
fueron comunes pero contaminados del sesgo del autor (Field, 2001).
Otro aspecto que ha emergido en la metodología de análisis en datos sociales es el uso de
medidas adicionales a las pruebas de hipótesis estadísticas; esta incorporación incluye la
magnitud del efecto y los intervalos de confianza. Este último, ya recomendado por Cronbach

en los años 70 (Finch, Thomason y Cumming, 2002). Uno de los más impactantes
recomendaciones sobre el uso juicioso del análisis estadísticos aplicado a la psicología se ha
efectuado recientemente por Task Force on Statistical Inference (Wilkinson y Task Force on
Statistical Inference, 1999), resaltando el uso de los intervalos de confianza. Las nuevas
reformas en la presentación de resultados estadísticos ha tenido lugar en medicina y sigue un
camino muy lento en psicología (Fidler, Cumming, Thomason y Burgman, 2004), y en ellas se
requiere la presencia de los intervalos de confianza en los estadísticos relevantes calculados.
¿Cómo incorporar esta información al monto de hallazgos comúnmente expresados en
términos de correlaciones r de Pearson? Una alternativa menos apropiada es utilizar los
coeficientes ordinales tratándolos como si fueran correlaciones r de Pearson. Esto sería como
utilizar el enfoque “haré que no importa” (Nunnally y Bernstein, 1995), que es una
conveniencia muy arbitraria y cuestionable. Peor aún sería calcular los intervalos de confianza
para r de Pearson usando correlaciones no paramétricas.
Otra alternativa más apropiada es utilizar las ecuaciones presentadas en Rupinski &
Dunlap (1996), Caruso y Cliff (1997) y Long y Cliff (1997) para expresar las relaciones
asintóticas entre rho de Spearman y tau de Kendall con r de Pearson, y la creación de
intervalos de confianza, pero estos procedimientos requieren del cálculo manual y son
proclives a errores. Nuestros objetivos en la presentación de este artículo son 1) la descripción
de las ecuaciones que sirven para derivar la correlación Pearson y los intervalos de confianza
para las correlaciones no paramétricas más comunes; y 2) la presentación de un programa
informático que facilite los cálculos involucrados. Una breve y necesaria revisión técnica se
presentaremos primero, para luego discutir los usos en situaciones aplicadas y de investigación
científica.
Transformación de Rho y Tau a R de Pearson
Siguiendo el desarrollo de Kendall (1962), Rupinski y Dunlap (1996) reportaron más
recientemente la ecuación para estimar r de Pearson desde τ de Kendall, que incluye dos

constantes, phi y el denominador igual a 2:
⎟⎠⎞⎜⎝⎛=
2
r sen
π
τ (1)
Por otro lado, la transformación de rs
de Spearman a r de Pearson es: 148 Merino y Livia
⎟⎠⎞⎜⎝⎛=
6
r 2sen r
s
π
(2)

En su estudio de simulación sobre la estabilidad de estas transformaciones, Rupinski y
Dunlap (1996) hallaron que las correlaciones τ y rs convertidos a r de Pearson tienden a tener
errores estándar más grandes que los correspondientes r de Pearson, y por lo tanto influyen en
la varianza muestral de los coeficientes de validez y sus intervalos de confianza; pero notaron
también que el porcentaje de incremento es numéricamente insignificante y se presenta en las
fracciones cuyo impacto práctico no es importante (0.008, por ejemplo). De este modo, las
diferencias en el error estándar no son realmente de preocupación en la práctica cuando se
usan estas transformaciones. Como concluyen Rupinski y Dunlap (1996), las ecuaciones 1 y 2
dan al investigador valores que tienden a proporcionar estimaciones r de Pearson
aceptablemente exactos en el proceso de transformación, y en consecuencia permiten obtener
valores confiables para su uso en estudios meta-analíticos y de generalización de la validez.
Intervalos de confianza para Tau y Rho
Para probar la significancia estadística de de τ, se hace uso de la varianza de muestreo,
que es común hallarlo en varios textos de estadística, especialmente Siegel, (1970):
( )
9n( ) n 1
2 2n 5
var
( )
−
+
τ
= (3)
Entonces, la varianza anterior sirve para construir el intervalo de confianza de Tau (τ), que
tiene la siguiente forma bajo la formulación de la varianza de muestreo de Siegel (1970):
/ 2 ( t )

x var α
τ ± (4)
En Caruso & Cliff (1997) y Long & Cliff (1997), se examinaron varios métodos para
obtener intervalos de confianza para ambos tipos de correlaciones bajo algunas condiciones de
distribución poblacional, variación de la magnitud de la correlación (0.00, 0.19, 0.41, 0.71) y
tamaño de la muestra (en pasos de 10, 50 y 200 sujetos). En tal estudio de simulación, se
utilizaron dos criterios: el poder estadístico, definido como la proporción de veces en que τ y
rs
siendo igual a cero (Ho: τ = 0; Ho: rs
= 0), es rechazado (error alfa) estando fuera del
intervalo de confianza estimado; y el criterio de cobertura, definido como la proporción de
veces en que el parámetro estuvo contenido en el intervalo de confianza estimado (controlando
el error beta). Los resultados de estas simulaciones estadísticas computacionalmente intensas
mostraron que entre varios métodos, uno con un mejor poder y cobertura fue la transformación
de los coeficientes por la transformación z de Fisher. Se concluyó que la transformación z de
Fisher para ambas correlaciones, rs
y τ, es el método recomendado y aún vigente en la
investigación conductual. Rho, Tau y r de Pearson 149
La transformación Fisher de τ de Kendall, zt,
tiene la siguiente forma tradicionalmente
presentada:
⎥⎦⎤⎢⎣

⎡−
+
=
τ
τ
1
1
log
2
1
z
t e (5)
Tal transformación busca normalizar la distribución de muestreo de τ, y aproximarla a una
distribución asintótica con distribución normal. Por otro lado, la varianza empírica de zt
es:
n 4
0.437
var( z )
t
−
= (6)
Integrando la forma de la ecuación (5) y (6) con (7), el intervalo de confianza Fisher se
construye con la ecuación
n 4
0.437

z z
t / 2
−
± α
(7)
Sin embargo, los límites superior e inferior del intervalo hasta aquí calculados están bajo
la forma de puntajes z, así que debe aplicarse un procedimiento pocas veces reportado en los
libros de estadística: la inversa de la transformación Fisher para retornar de zt
a τ es:
( )
e 1
e 1
t
t
2 z
2 z
+
−
τ = (8)
Para el coeficiente Rho de Spearman, los pasos son los mismos, pero cambia la
formulación de la estimación de la varianza de muestreo después de los ajustes hechos por
Caruso y Cliff (1997). Ajustando la transformación z de Fisher, Caruso y Cliff (1997) hallaron
que una mejor estimación de la varianza de zs se puede obtener añadiendo unas constantes:
6n 4 n
z
n 2

1.0
var(z )
s
+
+
−
= (9)
Finalmente, la ecuación (9) da el componente más preciso para la construcción del
intervalo de confianza para rs, que tiene la forma de la ecuación 7, pero reemplazando la
varianza de zt
por la de zs (9); para transformar los valores zs obtenidos de regreso a rs, se
aplica la inversa presentada en la ecuación (8).
Usos del programa
Las aproximaciones de las correlaciones no paramétricas más comunes a r de Pearson, y
sus intervalos de confianza, ofrece varias ventajas para el investigador en curso de
indagaciones de tipo aplicado o básico. Por ejemplo, dentro del análisis correlacional para
describir relaciones lineales, el uso de las correlaciones Pearson es la regla más que la
excepción. Cuando el interés sea comparar correlaciones Pearson, pero se han obtenido
estudios con correlaciones no paramétricas estimadas en la muestra, se pueden calcular 150 Merino y Livia
manualmente las transformaciones con las ecuaciones presentadas aquí, pero el programa
puede hacer las transformaciones necesarias y minimizar el error de cálculo. Rupinski y
Dunlap (1996) desarrollaron tablas de conversión, pero un programa informático hace más
portátil la información en el contexto de la comunicación virtual y el análisis interactivo.
Por otro lado, el uso de estas transformaciones es oportuno cuando se examinan reportes
de investigación en que se aplicó algún miembro de la familia de correlaciones no

paramétricas, particularmente la correlación ρs
y τxy, y deban ser consideradas para posteriores
estudios de meta-análisis. Por otro lado, al saber que la transformación de un coeficiente no
paramétrico a uno paramétrico de uso común mantiene un sesgo tolerable, la inclusión de las
correlaciones no paramétricas para comparar sus magnitudes puede ser efectuada sin
problemas. Por ejemplo, se podría comparar correlaciones obtenidas de dos o más muestras
bajo la hipótesis nula de igualdad en sus magnitudes; específicamente, teniendo que la validez
concurrente entre una prueba de impacto al estrés con autoconcepto académico en niños de
4to, 5to y 6to grado ha sido 0.30, 0.43 y 0.40 respectivamente; y la correlación calculada en
los niños de 4to es no paramétrica (rs
de Spearman), el primer acto es traducirla a r de
Pearson, y luego incluirlo en las ecuaciones pertinentes para hallar si las correlaciones son
iguales en la población; estas ecuaciones pueden ser halladas en Jaccard et al. (1990). Luego,
la creación de intervalos de confianza para ellas no es más que un cálculo sin complejidades
teniendo una calculadora, una hoja de cálculo o una programa ad hoc como el presentado en
este artículo. El cálculo de los intervalos de confianza para las correlaciones del ejemplo puede
servir a su vez, como información para decidir si son lo suficientemente diferentes entre ellas
en un nivel específico de confianza (90%, 95% ó 99%); el valor z crítico más común en la
distribución normal es 1.96 para el nivel de 95%. Estos intervalos de confianza pueden
determinar si las correlaciones de nuestro ejemplo son lo suficientemente alejadas entre sí
como para considerarlas diferentes en la población.
La estimación poblacional de las correlaciones ρs
y τxy se hace posible con la creación de
intervalos de confianza para los estadísticos muestrales. Pero el lector debe tener en mente que
la estimación de los intervalos no da una información en términos absolutos, pues sólo ofrece
una probabilidad de contener la cantidad en estudio en la población (Howell, 1997; May,

Masson, & Hunter, 1990).
Como en un párrafo anterior se apuntó, aplicar el enfoque de intervalos de confianza para
correlaciones no paramétricas (ayudado por el programa) facilita hacer una comparación entre
coeficientes de dos estudios diferentes o del mismo estudio. Esto no se llevaría por una prueba
formal de prueba de hipótesis, ya que la información contenida en el intervalo conduce a
juzgar el grado en que dos coeficientes se traslapan o se mantienen lo suficientemente alejados
como para concluir que son diferentes. Como es usual en los procedimientos de pruebas de
hipótesis, el nivel de confianza debe ser establecido previamente.
Debemos anotar que hay otros métodos para crear intervalos de confianza que son
computacionalmente intensos, y que no hacen presupuestos distribucionales sobre los datos o Rho, Tau y r de Pearson 151
de la estadística que está siendo calculada, especialmente para distribuciones en los intervalos
de confianza que son difíciles de estimar (Haukoos & Lewis, 2005).
Actualmente, el uso de intervalos de confianza ya es altamente recomendado por editores
de revistas científicas (Haukoos & Lewis, 2005), pero su desarrollo para estadísticos
correlacionales no paramétricos es raramente citado en los libros de estadística para graduados
y no graduados; con las ecuaciones y el programa aquí presentado, se puede cumplir con las
actuales exigencias de publicación científica. La aplicación de los intervalos de confianza para
los métodos no paramétricos lleva a estos métodos a estar en la atención de los investigadores
dejando de lado sus aparentes desventajas, particularmente referidas a su menor potencia
estadística por el uso de ranking en lugar de datos crudos y el poco conocimiento que sobre
ellos se tiene; esta situación es fortalecida por que diversos paquetes estadísticos tampoco
tienden a reportar intervalos de confianza para procedimientos no paramétricos. Desde hace
más de medio siglo que se ha hallado que hay poca pérdida de eficiencia al usar datos
expresados en rankings en lugar de datos crudos (Stuart, 1954), particularmente para
distribuciones continuas como la normal y la uniforme.

Respecto a la construcción de un intervalo de confianza, esta expresa solamente una
forma de incertidumbre, que resulta de la naturaleza finita de la muestra bajo estudio.
Aplicando tal estimación a una muestra representativa, en que se incluye un proceso aleatorio
en la selección de las unidades definidas por el investigador, la discusión sobre la
generalización de los resultados sería más o menos sencilla.
El programa y su disponibilidad
El programa está escrito en Visual Basic 6.0, y corre bajo las versiones actuales de
Windows para PC, específicamente Windows 95 o superior. No requiere un proceso largo de
instalación, sino únicamente guardar en una carpeta y ejecutarlo desde ahí. Ya que el
programa está compilado, funciona como un ejecutable y no requiere tener instalado el
programa Visual Basic. Para ejecutar el programa, hacer doble clic en el icono del programa e
ingresar los datos en los espacios requeridos; el uso del programa es intuitivo y de rápida
familiarización por el usuario. Una vez iniciado el programa, se requiere que el usuario
introduzca la correlación no paramétrica que necesita transformar a correlación de Pearson. El
segundo paso es elegir qué tipo de correlación no paramétrica se ha introducido;
inmediatamente el programa responde con la transformación a r de Pearson y sus intervalos de
confianza en niveles preseleccionados (95% y 99%), junto con los intervalos de confianza para
la correlación no paramétrica. En otras palabras, los intervalos de confianza se calculan para la
correlación de Pearson y las correlaciones no paramétricas ρs o τxy ingresadas. Las fórmulas
presentadas en las secciones anteriores las realiza el programa.
El programa está disponible sin costo, dirigiendo el pedido al primer autor en las
direcciones de contacto.