4 Intervalos de confianza
… la verdad, a veces, solo aporta una profunda soledad.
- Entonces, no quiere saber la verdad, sino contemplar su retrato a diario y pensar en una posibilidad. ¿Se trata solo de eso?
- Exacto -asintió Menshiki-. En lugar de una verdad inamovible elijo una posibilidad con margen de variación. Elijo encomendarme a esa variación.
Haruki Murakami, La muerte del comendador (libro 1)
4.1 ¿Qué es un intervalo de confianza?
El objetivo de este tema es utilizar una muestra para obtener un intervalo tal que podemos confiar en que contiene al verdadero valor de un parámetro desconocido. Veremos cómo interpretar esa confianza un poco más adelante.
Comenzamos con una definición formal de lo que buscamos: consideramos una muestra
Definición 4.1 Sean dos estadísticos
4.2 Intervalo de confianza para la media
Veamos cómo construir un intervalo de confianza para la media poblacional. Con el fin de comprender mejor las ideas tratamos primero una situación sencilla aunque no muy realista.
Población normal con varianza conocida
Supongamos que
Interpretación frecuentista
Fijamos, por ejemplo,
En la siguiente simulación, extraemos
Margen de error
Al radio del intervalo de confianza anterior se le suele llamar margen de error,
- El tamaño muestral. Para un nivel de confianza fijo, a mayor tamaño muestral menor margen de error.
- El nivel de confianza. Si fijamos
, a mayor nivel de confianza mayor es también el margen de error. Como queremos estar más seguros de no fallar y no tenemos más información, la única posibilidad es hacer más grande el intervalo. - La homogeneidad de la población. Cuanto menor sea
, menor es el margen de error para valores de y dados. Esto es bastante intuitivo, si todos los individuos de una población son similares para cierta variable, es más fácil estimar la media poblacional de la variable.
Población normal con varianza desconocida
En la práctica
Ejemplo
Se mide el tiempo de duración (en segundos) de un proceso químico realizado 20 veces en condiciones similares, obteniéndose los siguientes resultados:
<- c(93, 90, 97, 90, 93, 91, 96, 94, 91, 91, 88, 93, 95, 91, 89, 92,
resultados 87, 88, 90, 86)
mean(resultados)
#> [1] 91.25
Suponemos que los datos proceden de una distribución normal. Para calcular un intervalo de confianza de nivel 0.95 para la duración media del proceso usamos el comando t.test
:
t.test(resultados)$conf.int # 95% es el nivel por defecto
#> [1] 89.87604 92.62396
#> attr(,"conf.level")
#> [1] 0.95
t.test(resultados, conf.level = 0.9)$conf.int # nivel 90%
#> [1] 90.11492 92.38508
#> attr(,"conf.level")
#> [1] 0.9
Cuando la población no es normal y la varianza es desconocida
Aunque la población no sea normal siempre que tenga varianza finita podemos aplicar el TCL. Se cumple
Caso particular importante: intervalo para una proporción
Sean
Ejemplo
Se estima la proporción
Sustituyendo en la fórmula obtenemos
Supongamos que este margen de error (la mitad de la longitud del IC) se considera insatisfactorio y se desea obtener un intervalo con un error de, como mucho, 0.01. ¿Qué tamaño muestral habría que elegir?
Nuestro objetivo es conseguir
Como valor de
Cuando se quiere determinar el tamaño muestral necesario para obtener un error
En el ejemplo anterior se tendría
Ejemplo: una ficha técnica
Los cálculos del ejemplo anterior son los que subyacen a la información de las fichas técnicas de las encuestas. Veamos un ejemplo típico:
En la ficha técnica anterior se nos dice que el tamaño muestral es
<- 1-0.9545
alpha qnorm(1-alpha/2)
#> [1] 2.000002
Por ello el intervalo es de la forma
<- 1100
n <- 2*sqrt(1/(4*n))
error
error#> [1] 0.03015113
4.3 El método de la cantidad pivotal
En los ejemplos anteriores los resultados que nos han permitido calcular los intervalos eran de la forma:
En general, hemos usado funciones que dependían de la muestra y del parámetro de interés
Ejemplo
Si
- Determina dos valores
y tales que , y tales que además el intervalo tenga la menor longitud posible. - Determina un intervalo de confianza para
de nivel a partir de los valores y .
4.3.1 Ejemplos de cantidades pivotales en poblaciones normales
Además de las cantidades pivotales que ya hemos visto para la media, a continuación enumeramos otras cantidades pivotales que se usan en poblaciones normales.
Diferencia de dos medias (datos independientes)
Un problema relevante desde el punto de vista aplicado es el de la comparación de las medias de dos poblaciones. Supongamos que tenemos dos muestras independientes de v.a.i.i.d.. La primera,
La estrategia habitual es pensar en un estimador natural para el parámetro de interés y luego modificarlo (usualmente mediante algún tipo de estandarización) de forma que la distribución del estimador estandarizado sea conocida.
El estimador natural para
- Demostrar que
, es decir, que es insesgado para . - Demostrar que
. - Demostrar que, como consecuencia,
- De la cantidad pivotal para
anterior deducir el intervalo de confianza:
Ejemplo
A un grupo de 20 pollos se les suministró pienso con harina de maíz de una nueva variedad transgénica. A otro grupo de 20 pollos (grupo de control) se le alimentó con un pienso que no contenía la variedad mejorada. Ganancias de peso de los pollos (en gramos) al cabo de 21 días de alimentación:
<- c(380, 321, 366, 356, 283, 349, 402, 462, 356, 410, 329, 399,
maiz.normal 350, 384, 316, 272, 345, 455, 360, 431)
<- c(361, 447, 401, 375, 434, 403, 393, 426, 406, 318, 467,
maiz.transgenico 407, 427, 420, 477, 392, 430, 339, 410, 326)
Tal y como tenemos los datos aún no están ordenados del todo. Recordamos que debemos tener:
- Todos los datos del mismo análisis en el mismo
data.frame
- Cada fila del fichero corresponde a un individuo
- Cada columna del fichero corresponde a una variable
Para ordenar los datos usamos el código siguiente:
<- c(maiz.normal, maiz.transgenico)
peso <- gl(2, 20, labels = c('normal', 'transgénico')) # genera un factor con dos niveles
tipo <- data.frame(peso, tipo)
datos_maiz glimpse(datos_maiz)
#> Rows: 40
#> Columns: 2
#> $ peso <dbl> 380, 321, 366, 356, 283, 349, 402, 462, 356, 410, 329, 399, 350, ~
#> $ tipo <fct> normal, normal, normal, normal, normal, normal, normal, normal, n~
Podemos usar diagramas de cajas para comparar gráficamente las dos muestras:
ggplot(datos_maiz) +
geom_boxplot(aes(x=tipo, y=peso), fill='olivedrab4')
Parece que los pollos alimentados con un pienso normal ganaron menos peso que los alimentados con el pienso transgénico. Finalmente, calculamos el intervalo de confianza para t.test
:
t.test(peso ~ tipo, data=datos_maiz, var.equal=TRUE)$conf.int
#> [1] -66.700161 -6.599839
#> attr(,"conf.level")
#> [1] 0.95
El hecho de que todos los valores del intervalo sean negativos apoya la afirmación de que
Diferencia de dos medias (datos emparejados)
Se observa una muestra
Ejemplo
Tomamos medidas de la concentración de zinc en la superficie y en el fondo (en mg/l) de seis puntos de un río. ¿Es la concentración media igual en la superficie y en el fondo? Como cada medida en profundidad y fondo corresponde al mismo punto del río no podemos suponer independencia. Esto se indica usando el argumento paired = TRUE
en el comando t.test
:
<- c(0.41, 0.24, 0.39, 0.41, 0.60, 0.61)
fondo <- c(0.43, 0.27, 0.57, 0.53, 0.71, 0.72)
superficie t.test(fondo, superficie, paired = TRUE)$conf.int
#> [1] -0.15822795 -0.03177205
#> attr(,"conf.level")
#> [1] 0.95
Varianza
Si
La diferencia respecto a los intervalos para medias es que ahora la distribución no es simétrica por lo que los cuantiles necesarios no son iguales salvo el signo. De hecho hay infinitos pares de cuantiles que podríamos usar, todos los pares que encierran entre sí una probabilidad
Cociente de varianzas
Volvemos a la situación de dos muestras independientes de v.a.i.i.d.. La primera,
Definición 4.2 Sean
La forma de la función de densidad de una v.a. con distribución
<- data.frame(x = c(0, 6))
datos ggplot(datos, aes(x)) +
geom_function(fun = df, args = list(df1 = 5, df2= 20), linewidth = 1.05) +
geom_function(fun = df, args = list(df1 = 20, df2= 20), col = 'blue', linetype = 2, linewidth = 1.05) +
geom_function(fun = df, args = list(df1 = 20, df2= 5), col = 'red', linetype = 3, linewidth = 1.05)
Cuestiones
- ¿Qué relación hay entre la distribución
y la de Student? - Demuestra que
.
Sean
Para calcular este intervalo con R
se usa el comando var.test
:
# Generación de datos
set.seed(123)
<- 100
n <- sqrt(2)
sigma1 <- 1
sigma2 <- rnorm(n, sd = sigma1)
x <- rnorm(n, sd = sigma2)
y
# Calculo de intervalos
var.test(x, y)$conf.int # Por defecto 95% es el nivel de confianza
#> [1] 1.199136 2.648760
#> attr(,"conf.level")
#> [1] 0.95
var.test(x, y, conf.level = 0.99)$conf.int # Nivel 99%
#> [1] 1.057455 3.003648
#> attr(,"conf.level")
#> [1] 0.99
4.4 Cantidades pivotales asintóticas basadas en el estimador de máxima verosimilitud
Si
A veces puede ser difícil o imposible despejar el parámetro. En ese caso aún podemos construir un intervalo de confianza asintótico si encontramos un estimador consistente de la información de Fisher,
Ejemplo
Sean
Hay al menos otros dos métodos para obtener intervalos de confianza en este ejemplo (se propone como ejercicio deducir los intervalos correspondientes):
- Estimar la información de Fisher consistentemente. Por la LDGN y el teorema de la aplicación continua,
. Por lo tanto, - Determinar una función estabilizadora de la varianza
tal que Aplicando el método delta, esta función tiene que verificar , por lo que es muy fácil encontrarla.
Puede demostrarse (ejercicio) que los tres intervalos coinciden si despreciamos todos los términos
4.5 Intervalos desde el punto de vista bayesiano
En un problema de inferencia con un enfoque bayesiano el elemento fundamental para realizar la inferencia es la distribución a posteriori
Ejemplo
Se desea obtener un intervalo creíble para el parámetro
Es fácil comprobar que la distribución a posteriori de
4.6 Referencias
Todo el material de este capítulo es muy estándar por lo que hay muchos libros de texto que se pueden leer para ampliar información o trabajar más ejemplos. Como referencias apropiadas citamos los capítulos 24 y 25 de Dekking et al (2005), que incluyen una sección sobre el uso del bootstrap para obtener intervalos, y el capítulo 7 de Thijssen (2016), que resume sintéticamente las principales ideas. Una visión más teórica se puede encontrar en Casella y Berger (2001) y en Knight (1999).
- Casella, G., y Berger, R. L. (2001). Statistical inference, second edition. Cengage Learning.
- Dekking, F. M., Kraaikamp, C., Lopuhaä, H. P. y Meester, L. E. (2005). A Modern Introduction to Probability and Statistics: Understanding why and how. Springer.
- Knight, K. (1999). Mathematical statistics. CRC Press.
- Thijssen, J. (2016). A Concise Introduction to Statistical Inference. Chapman and Hall/CRC.