4  Intervalos de confianza

… la verdad, a veces, solo aporta una profunda soledad.
- Entonces, no quiere saber la verdad, sino contemplar su retrato a diario y pensar en una posibilidad. ¿Se trata solo de eso?
- Exacto -asintió Menshiki-. En lugar de una verdad inamovible elijo una posibilidad con margen de variación. Elijo encomendarme a esa variación.

Haruki Murakami, La muerte del comendador (libro 1)

4.1 ¿Qué es un intervalo de confianza?

El objetivo de este tema es utilizar una muestra para obtener un intervalo tal que podemos confiar en que contiene al verdadero valor de un parámetro desconocido. Veremos cómo interpretar esa confianza un poco más adelante.

Comenzamos con una definición formal de lo que buscamos: consideramos una muestra \(X_1,\ldots,X_n\) de una variable aleatoria con función de distribución \(G(\cdot;\theta)\), siendo \(\theta\in\Theta\subset{\mathbb R}\) un parámetro desconocido.

Definición 4.1 Sean dos estadísticos \(a(X_1,\ldots,X_n)\) y \(b(X_1,\ldots,X_n)\) con \(a(X_1,\ldots,X_n)<b(X_1,\ldots,X_n)\) c.s. y un valor \(\alpha\in (0,1)\). Supongamos que se verifica \[\mbox{P}_\theta\{a(X_1,\ldots,X_n)<\theta<b(X_1,\ldots,X_n)\}=1-\alpha,\ \mbox{para todo}\ \ \theta\in\Theta.\] Entonces para una realización concreta de la muestra, \(x_1,\ldots,x_n\), se dice que \([a(x_1,\ldots,x_n),\, b(x_1,\ldots,x_n)]\) es un intervalo de confianza para \(\theta\) con nivel de confianza \(1-\alpha\). Lo denotaremos \(\mbox{IC}_{1-\alpha}(\theta)\).

4.2 Intervalo de confianza para la media

Veamos cómo construir un intervalo de confianza para la media poblacional. Con el fin de comprender mejor las ideas tratamos primero una situación sencilla aunque no muy realista.

Población normal con varianza conocida

Supongamos que \(X_1,\ldots,X_n\) son v.a.i.i.d. \(N(\mu,\sigma^2)\), donde \(\mu\) es un parámetro desconocido y \(\sigma^2\) es conocida (por simplificar, un poco más adelante trataremos el caso en el que la varianza es desconocida). Sabemos que \[\bar X\equiv N\left(\mu,\frac{\sigma^2}{n}\right),\ \ \mbox{y, estandarizando,}\ \ \frac{\bar X-\mu}{\sigma/\sqrt{n}}\equiv N(0,1).\] Dado \(\alpha\in (0,1)\), \(z_{\alpha}\) denota el cuantil \(1-\alpha\) en la normal estándar (es decir, \(\Phi(z_{\alpha})=1-\alpha\), donde \(\Phi\) es la función de distribución de la \(N(0,1)\)). Entonces, \[\mbox{P}_\mu \left\{-z_{\alpha/2}<\frac{\bar X-\mu}{\sigma/\sqrt{n}}<z_{\alpha/2} \right\} = 1-\alpha\] y, despejando \(\mu\), \[\mbox{P}_\mu \left\{\bar X-z_{\alpha/2}\frac{\sigma}{\sqrt{n}}<\mu<\bar X+z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \right\}=1-\alpha.\] Se concluye que \[\mbox{IC}_{1-\alpha}(\mu) = \left(\bar x-z_{\alpha/2}\frac{\sigma}{\sqrt{n}},\bar x+z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right)\] es un intervalo de confianza de nivel \(1-\alpha\) para \(\mu\).

Interpretación frecuentista

Fijamos, por ejemplo, \(1-\alpha=0.95\) y extraemos muchas muestras de tamaño \(n\) de una distribución \(\mbox{N}(\mu,\sigma^2)\). Para cada una de las muestras aplicamos la fórmula anterior y calculamos el correspondiente intervalo. Entonces, aproximadamente el 95% de estos intervalos de confianza contiene al verdadero valor del parámetro, \(\mu\). En la práctica, tendremos una única muestra y no podremos saber si contiene o no a \(\mu\). Sin embargo, confiamos en que esa única muestra está dentro del 95% de las muestras buenas que producen intervalos que sí contienen al parámetro.

En la siguiente simulación, extraemos \(m = 100\) muestras de tamaño \(n = 30\) de una población normal estándar y determinamos el número de ellas en las que el correspondiente intervalo de nivel 0.95 (calculado con la fórmula que hemos visto) contiene al verdadero valor del parámetro. Se observa que hay tres muestras de las 100 que dan lugar a intervalos que no contienen al verdadero valor del parámetro \(\mu=0\), lo que no coincide pero se aproxima al valor nominal del 5 % de veces en las que el intervalo no contiene al parámetro.

Margen de error

Al radio del intervalo de confianza anterior se le suele llamar margen de error, \(E=z_{\alpha/2}\sigma/\sqrt{n}\). El margen de error depende de:

  • El tamaño muestral. Para un nivel de confianza fijo, a mayor tamaño muestral menor margen de error.
  • El nivel de confianza. Si fijamos \(n\), a mayor nivel de confianza mayor es también el margen de error. Como queremos estar más seguros de no fallar y no tenemos más información, la única posibilidad es hacer más grande el intervalo.
  • La homogeneidad de la población. Cuanto menor sea \(\sigma\), menor es el margen de error para valores de \(n\) y \(\alpha\) dados. Esto es bastante intuitivo, si todos los individuos de una población son similares para cierta variable, es más fácil estimar la media poblacional de la variable.

Población normal con varianza desconocida

En la práctica \(\sigma\) no es conocida. En este caso, se sustituye \(\sigma\) por \(S\) en la estandarización de la media. Por el lema de Fisher, \[\frac{\bar X-\mu}{S/\sqrt{n}}\equiv t_{n-1},\] lo que lleva de inmediato al siguiente intervalo de confianza de nivel \(1-\alpha\): \[\mbox{IC}_{1-\alpha}(\mu) = \left(\bar x-t_{n-1;\alpha/2}\frac{s}{\sqrt{n}},\ \ \bar x+t_{n-1;\alpha/2}\frac{s}{\sqrt{n}}\right).\] La notación \(t_{n-1;\alpha/2}\) representa el valor que deja a su derecha una probabilidad de \(\alpha/2\) en la distribución t de Student con \(n-1\) grados de libertad (o sea, el cuantil \(1-\alpha/2\) de la distribución).

Ejemplo

Se mide el tiempo de duración (en segundos) de un proceso químico realizado 20 veces en condiciones similares, obteniéndose los siguientes resultados:

resultados <- c(93, 90, 97, 90, 93, 91, 96, 94, 91, 91, 88, 93, 95, 91, 89, 92,
87, 88, 90, 86)
mean(resultados)
#> [1] 91.25

Suponemos que los datos proceden de una distribución normal. Para calcular un intervalo de confianza de nivel 0.95 para la duración media del proceso usamos el comando t.test:

t.test(resultados)$conf.int   # 95% es el nivel por defecto
#> [1] 89.87604 92.62396
#> attr(,"conf.level")
#> [1] 0.95
t.test(resultados, conf.level = 0.9)$conf.int   # nivel 90%
#> [1] 90.11492 92.38508
#> attr(,"conf.level")
#> [1] 0.9

Cuando la población no es normal y la varianza es desconocida

Aunque la población no sea normal siempre que tenga varianza finita podemos aplicar el TCL. Se cumple \[\frac{\bar X-\mu}{\sigma/\sqrt{n}}\overset{\mbox{d}}{\to} \mbox{N}(0,1).\] Sustituyendo \(\sigma\) por un estimador consistente \(\hat \sigma\) y usando el lema de Slutsky tenemos \[\frac{\bar X-\mu}{\hat \sigma/\sqrt{n}}\overset{\mbox{d}}{\to} \mbox{N}(0,1).\] De la propiedad anterior se obtiene el siguiente intervalo de confianza para \(\mu\) con nivel aproximado \(1-\alpha\), \[\mbox{IC}_{1-\alpha}(\mu) \approx \left(\bar x-z_{\alpha/2}\frac{\hat\sigma}{\sqrt{n}},\bar x+z_{\alpha/2}\frac{\hat\sigma}{\sqrt{n}}\right)\] Este intervalo es (aproximadamente) válido para cualquier distribución con varianza finita, siempre que \(n\) sea lo bastante grande.

Caso particular importante: intervalo para una proporción

Sean \(X_1,\ldots,X_n\) v.a.i.i.d. \(\mbox{B}(1,p)\). Si denotamos \(\hat p=\bar{X}\), por el TCL \[\frac{\hat p-p}{\sqrt{\frac{p(1-p)}{n}}}\overset{\mbox{d}}{\to} N(0,1),\] y reemplazando \(p\) por su estimador natural \(\hat p\), obtenemos que el intervalo de confianza aproximado para \(p\) es, \[\mbox{IC}_{1-\alpha}(p)\approx\left(\hat p-z_{\alpha/2}\sqrt{\frac{\hat p(1-\hat p)}{n}},\hat p+z_{\alpha/2}\sqrt{\frac{\hat p(1-\hat p)}{n}} \right).\]

Ejemplo

Se estima la proporción \(p\) de piezas defectuosas en la producción de una fábrica con una muestra de 200 piezas de las cuales 8 resultan ser defectuosas. Calcula un intervalo de confianza de nivel 0.95 para \(p\).

Sustituyendo en la fórmula obtenemos \[\mbox{IC}_{0.95}(p)=\left(\frac{8}{200}\pm 1.96\sqrt{\frac{0.04\cdot 0.96}{200}}\right)=(0.04\pm 0.02716)=(0.01284,0.06716).\]

Supongamos que este margen de error (la mitad de la longitud del IC) se considera insatisfactorio y se desea obtener un intervalo con un error de, como mucho, 0.01. ¿Qué tamaño muestral habría que elegir?

Nuestro objetivo es conseguir \[E=1.96\sqrt{\frac{\hat p(1-\hat p)}{n}} \leq 0.01.\]

Como valor de \(\hat p\) podemos tomar a modo de aproximación el obtenido en la muestra anterior (que a veces se llama muestra piloto). Entonces, \[E \approx 1.96\sqrt{\frac{0.04\cdot 0.96}{n}} \leq 0.01.\] Despejando, obtenemos \[n \geq 1.96^2 \left( \frac{0.04\cdot 0.96}{0.01^2} \right) = 1475.17.\] Por tanto, habría que tomar \(n \geq 1476\).

Cuando se quiere determinar el tamaño muestral necesario para obtener un error \(E\) y no se tiene ninguna información previa sobre el valor de \(p\) (no hay muestra piloto disponible) podemos actuar poniéndonos en el peor de los casos (es decir, el que da un intervalo de confianza más amplio), que es \(\hat{p}=1/2\).

En el ejemplo anterior se tendría \[n=1.96^2\left(\frac{0.5\cdot 0.5}{0.01^2}\right)=9604.\]

Ejemplo: una ficha técnica

Los cálculos del ejemplo anterior son los que subyacen a la información de las fichas técnicas de las encuestas. Veamos un ejemplo típico:

En la ficha técnica anterior se nos dice que el tamaño muestral es \(n=1100\) y el nivel de confianza es \(1-\alpha = 0.9545\). Para este nivel resulta \(z_{\alpha/2}=2\):

alpha <- 1-0.9545
qnorm(1-alpha/2)
#> [1] 2.000002

Por ello el intervalo es de la forma \([\hat p\mp 2\sqrt{\hat p (1-\hat p)/n}]\). Finalmente el cálculo del margen de error que da la ficha técnica corresponde al caso más desfavorable en el que \(\hat{p} =1/2\):

n <- 1100
error <- 2*sqrt(1/(4*n))
error
#> [1] 0.03015113

4.3 El método de la cantidad pivotal

En los ejemplos anteriores los resultados que nos han permitido calcular los intervalos eran de la forma: \[\frac{\bar X-\mu}{\sigma/\sqrt{n}}\equiv N(0,1),\ \ \mbox{o}\ \ \frac{\bar X-\mu}{S/\sqrt{n}}\equiv t_{n-1}.\]

En general, hemos usado funciones que dependían de la muestra y del parámetro de interés \(\theta\), \(T(X_1,\ldots,X_n;\theta)\) pero tales que su distribución era totalmente conocida para cualquier valor del parámetro. Estas funciones se llaman cantidades pivotales o pivotes. Si identificamos una cantidad pivotal, podemos encontrar (en el caso discreto, al menos aproximadamente) dos cuantiles \(q_1(\alpha)\) y \(q_2(\alpha)\) tales que \[1-\alpha = \mbox{P}_\theta (q_1(\alpha) < T(X_1,\ldots,X_n; \theta) < q_2(\alpha)).\] Si \(T\) no es una función demasiado complicada, podremos despejar \(\theta\) para obtener una región de confianza. En el caso en que \(T\) sea una función monótona de \(\theta\) esta región será un intervalo.


Ejemplo

Si \(X_1,\ldots,X_n\) son v.a.i.i.d. de una distribución \(\mbox{U}(0,\theta)\), entonces \(T = X_{(n)}/\theta\) es una cantidad pivotal para el parámetro ya que se distribuye como el máximo de \(n\) observaciones i.i.d. uniformes en el intervalo \((0,1)\). De hecho, la función de distribución de \(T\) en el intervalo \((0,1)\) viene dada por \(F(x) = x^n\).

  • Determina dos valores \(a\) y \(b\) tales que \(\mbox{P}(a\leq T\leq b)=1-\alpha\), y tales que además el intervalo \((a,b)\) tenga la menor longitud posible.
  • Determina un intervalo de confianza para \(\theta\) de nivel \(1- \alpha\) a partir de los valores \(a\) y \(b\).

4.3.1 Ejemplos de cantidades pivotales en poblaciones normales

Además de las cantidades pivotales que ya hemos visto para la media, a continuación enumeramos otras cantidades pivotales que se usan en poblaciones normales.

Diferencia de dos medias (datos independientes)

Un problema relevante desde el punto de vista aplicado es el de la comparación de las medias de dos poblaciones. Supongamos que tenemos dos muestras independientes de v.a.i.i.d.. La primera, \(X_1,\ldots,X_{n_1}\), procede de una distribución \(\mbox{N}(\mu_1,\sigma^2)\) mientras que la segunda \(Y_1,\ldots,Y_{n_2}\) procede de una distribución \(\mbox{N}(\mu_2,\sigma^2)\). El objetivo es encontrar una cantidad pivotal para \(\mu_1-\mu_2\). Obsérvese que estamos suponiendo que las varianzas de ambas poblaciones son iguales. Esta es una hipótesis de simplificación habitual que recibe el nombre de homocedasticidad.

La estrategia habitual es pensar en un estimador natural para el parámetro de interés y luego modificarlo (usualmente mediante algún tipo de estandarización) de forma que la distribución del estimador estandarizado sea conocida.

El estimador natural para \(\mu_1-\mu_2\) es \(\bar X -\bar Y\). Ahora, como las muestras son independientes, \[\bar X -\bar Y \equiv \mbox{N}\left(\mu_1-\mu_2,\ \sigma^2\left(\frac{1}n_1 + \frac{1}{n_2} \right)\right).\] A partir de aquí, \[\frac{(\bar X -\bar Y) - (\mu_1-\mu_2)}{\sigma\sqrt{\frac{1}n_1 + \frac{1}{n_2}}} \equiv \mbox{N}(0,1).\] Si conociéramos \(\sigma^2\) ya tendríamos la cantidad pivotal. Como en la práctica no la conocemos es necesario estimarla a partir de las dos muestras. Las varianzas muestrales de cada de ellas \(S_1^2\) y \(S_2^2\) son estimadores distintos del mismo parámetro (debido a la hipótesis de homocedasticidad). Ambos estimadores se combinan mediante una media que da pesos proporcionales a los tamaños muestrales: \[S^2_p = \frac{(n_1-1)S_1^2 + (n_2-1)S_2^2}{n_1+n_2-2}.\] Se proponen los ejercicios siguientes:

  1. Demostrar que \(\mbox{E}(S^2_p) = \sigma^2\), es decir, que \(S^2_p\) es insesgado para \(\sigma^2\).
  2. Demostrar que \((n_1+n_2-2)S^2_p / \sigma^2 \equiv \chi^2_{n_1+n_2-2}\).
  3. Demostrar que, como consecuencia, \[\frac{(\bar X -\bar Y) - (\mu_1-\mu_2)}{S_p\sqrt{\frac{1}n_1 + \frac{1}{n_2}}} \equiv t_{n_1+n_2-2}.\]
  4. De la cantidad pivotal para \(\mu_1 - \mu_2\) anterior deducir el intervalo de confianza: \[\mbox{IC}_{1-\alpha} (\mu_1-\mu_2)=\left[\bar X -\bar Y \mp t_{n_1+n_2-2;\alpha/2}\, S_p\sqrt{\frac{1}n_1 + \frac{1}{n_2}}\right].\]
Ejemplo

A un grupo de 20 pollos se les suministró pienso con harina de maíz de una nueva variedad transgénica. A otro grupo de 20 pollos (grupo de control) se le alimentó con un pienso que no contenía la variedad mejorada. Ganancias de peso de los pollos (en gramos) al cabo de 21 días de alimentación:

maiz.normal <- c(380, 321, 366, 356, 283, 349, 402, 462, 356, 410, 329, 399, 
    350, 384, 316, 272, 345, 455, 360, 431)
maiz.transgenico <- c(361, 447, 401, 375, 434, 403, 393, 426, 406, 318, 467, 
    407, 427, 420, 477, 392, 430, 339, 410, 326)

Tal y como tenemos los datos aún no están ordenados del todo. Recordamos que debemos tener:

  • Todos los datos del mismo análisis en el mismo data.frame
  • Cada fila del fichero corresponde a un individuo
  • Cada columna del fichero corresponde a una variable

Para ordenar los datos usamos el código siguiente:

peso <- c(maiz.normal, maiz.transgenico)
tipo <- gl(2, 20, labels = c('normal', 'transgénico'))   # genera un factor con dos niveles
datos_maiz <- data.frame(peso, tipo)
glimpse(datos_maiz)
#> Rows: 40
#> Columns: 2
#> $ peso <dbl> 380, 321, 366, 356, 283, 349, 402, 462, 356, 410, 329, 399, 350, ~
#> $ tipo <fct> normal, normal, normal, normal, normal, normal, normal, normal, n~

Podemos usar diagramas de cajas para comparar gráficamente las dos muestras:

ggplot(datos_maiz) +
  geom_boxplot(aes(x=tipo, y=peso), fill='olivedrab4')

Parece que los pollos alimentados con un pienso normal ganaron menos peso que los alimentados con el pienso transgénico. Finalmente, calculamos el intervalo de confianza para \(\mu_1-\mu_2\), donde \(\mu_1\) es la ganancia media de peso con pienso normal y \(\mu_2\) es la ganancia media de peso con pienso transgénico. Usamos de nuevo el comando t.test:

t.test(peso ~ tipo, data=datos_maiz, var.equal=TRUE)$conf.int
#> [1] -66.700161  -6.599839
#> attr(,"conf.level")
#> [1] 0.95

El hecho de que todos los valores del intervalo sean negativos apoya la afirmación de que \(\mu_1<\mu_2\).

Diferencia de dos medias (datos emparejados)

Se observa una muestra \((X_1,Y_1),\ldots,(X_n,Y_n)\) de datos normales bidimensionales y no es posible suponer que las variables \(X\) e \(Y\) son independientes. En estos casos se trabaja con las diferencias \(D_1,\ldots,D_n\), donde \(D_i=X_i-Y_i\). Siempre se tiene que \[\mu = \mbox{E}(D_i) = \mbox{E}(X_i) - \mbox{E}(Y_i) = \mu_1 -\mu_2.\] Por lo tanto, el intervalo de confianza para la diferencia de medias se puede construir a partir del intervalo para \(\mu\).

Ejemplo

Tomamos medidas de la concentración de zinc en la superficie y en el fondo (en mg/l) de seis puntos de un río. ¿Es la concentración media igual en la superficie y en el fondo? Como cada medida en profundidad y fondo corresponde al mismo punto del río no podemos suponer independencia. Esto se indica usando el argumento paired = TRUEen el comando t.test:

fondo <- c(0.41, 0.24, 0.39, 0.41, 0.60, 0.61)
superficie <- c(0.43, 0.27, 0.57, 0.53, 0.71, 0.72)
t.test(fondo, superficie, paired = TRUE)$conf.int
#> [1] -0.15822795 -0.03177205
#> attr(,"conf.level")
#> [1] 0.95

Varianza

Si \(X_1,\ldots,X_n\) son v.a.i.i.d. con distribución \(\mbox{N}(\mu,\sigma^2)\), entonces uno de los apartados del lema de Fisher garantiza: \[\frac{(n-1)S^2}{\sigma^2}\equiv \chi^2_{n-1}.\] Por lo tanto \((n-1)S^2/\sigma^2\) es una cantidad pivotal para \(\sigma^2\). Si \(\chi^2_{n-1,\alpha}\) es el cuantil \(1-\alpha\) de la la distribución \(\chi^2_{n-1}\), entonces \[1-\alpha = \mbox{P}\left(\chi^2_{n-1,1-\alpha/2} <\frac{(n-1)S^2}{\sigma^2}< \chi^2_{n-1,\alpha/2} \right).\] De aquí se deduce fácilmente un intervalo de confianza para \(\sigma^2\) (ejercicio).

La diferencia respecto a los intervalos para medias es que ahora la distribución no es simétrica por lo que los cuantiles necesarios no son iguales salvo el signo. De hecho hay infinitos pares de cuantiles que podríamos usar, todos los pares que encierran entre sí una probabilidad \(1-\alpha\)). Los que se usan habitualmente (los de la expresión anterior) de hecho no proporcionan el intervalo de confianza más corto.

Cociente de varianzas

Volvemos a la situación de dos muestras independientes de v.a.i.i.d.. La primera, \(X_1,\ldots,X_{n_1}\), procede de una distribución \(\mbox{N}(\mu_1,\sigma_1^2)\) mientras que la segunda, \(Y_1,\ldots,Y_{n_2}\), procede de una distribución \(\mbox{N}(\mu_2,\sigma_2^2)\). En este caso, queremos encontrar un intervalo de confianza para el cociente entre las varianzas \(\sigma_1^2/\sigma_2^2\). La cantidad pivotal en este caso depende de una nueva distribución:

Definición 4.2 Sean \(Y_1\) e \(Y_2\) dos v.a. independientes con distribuciones \(\chi^2_{n_1}\) y \(\chi^2_ {n_2}\), respectivamente. Se dice que la variable \[Y=\frac{Y_1/n_1}{Y_2/n_2}\] tiene distribución \(F\) con \(n_1\) y \(n_2\) grados de libertad. (Notación: \(Y\equiv F_{n_1,n_2}\)).

La forma de la función de densidad de una v.a. con distribución \(F\) es parecida a la de una \(\chi^2\).

datos <- data.frame(x = c(0, 6))
ggplot(datos, aes(x)) +
  geom_function(fun = df, args = list(df1 = 5, df2= 20), linewidth = 1.05)  +
  geom_function(fun = df, args = list(df1 = 20, df2= 20), col = 'blue', linetype = 2, linewidth = 1.05) +
  geom_function(fun = df, args = list(df1 = 20, df2= 5), col = 'red', linetype = 3, linewidth = 1.05)

Cuestiones
  • ¿Qué relación hay entre la distribución \(F\) y la \(t\) de Student?
  • Demuestra que \(F_{n_1,n_2;\alpha} = 1/F_{n_2,n_1;1-\alpha}\).

Sean \(S_1^2\) y \(S_2^2\) las varianzas muestrales de cada una de las dos muestras. Usando el lema de Fisher y la independencia de las muestras tenemos que \[F = \frac{S_1^2/\sigma_1^2}{S_2^2/\sigma_2^2} = \frac{S_1^2/S_2^2}{\sigma_1^2/\sigma_2^2} \equiv F_{n_1-1,n_2-1}.\] Por lo tanto, \(F\) es una cantidad pivotal para el cociente de las varianzas de la que se puede obtener el intervalo de confianza correspondiente: \[\mbox{IC}_{1-\alpha}(\sigma_1^2/\sigma_2^2) = \left[\frac{S_1^2/S_2^2}{F_{n_1-1,n_2-1;\alpha/2}},\ \ \frac{S_1^2/S_2^2}{F_{n_1-1,n_2-1;1-\alpha/2}}\right] = \left[\frac{S_1^2}{S_2^2}F_{n_2-1,n_1-1;1-\alpha/2},\ \ \frac{S_1^2}{S_2^2}F_{n_2-1,n_1-1;\alpha/2} \right].\]

Para calcular este intervalo con R se usa el comando var.test:

# Generación de  datos
set.seed(123)
n <- 100
sigma1 <- sqrt(2)
sigma2 <- 1
x <- rnorm(n, sd = sigma1)   
y <- rnorm(n, sd = sigma2)

# Calculo de intervalos
var.test(x, y)$conf.int  # Por defecto 95% es el nivel de confianza
#> [1] 1.199136 2.648760
#> attr(,"conf.level")
#> [1] 0.95
var.test(x, y, conf.level = 0.99)$conf.int   # Nivel 99%
#> [1] 1.057455 3.003648
#> attr(,"conf.level")
#> [1] 0.99

4.4 Cantidades pivotales asintóticas basadas en el estimador de máxima verosimilitud

Si \(X_1,\ldots,X_n\) son v.a.i.i.d. de una distribución \(F\in\{F_\theta:\, \theta\in\Theta\subset \mathbb{R}\}\), sabemos por el tema anterior que, bajo las condiciones de regularidad, el estimador de máxima verosimilitud \(\hat{\theta}\) verifica \[\sqrt{n}(\hat\theta - \theta) \overset{\mbox{d}}{\to} \mbox{N}\left(0,\frac{1}{I(\theta)}\right),\] donde \(I(\theta)\) es la cantidad de información de Fisher de cada observación. Multiplicando por \(\sqrt{I(\theta)}\) tenemos que \[\sqrt{nI(\theta)}(\hat\theta - \theta) \overset{\mbox{d}}{\to} \mbox{N}\left(0,1\right),\] y entonces \(\sqrt{nI(\theta)}(\hat\theta - \theta)\) es una cantidad pivotal asintótica. Si es posible despejar el parámetro en la expresión \[1-\alpha \approx \mbox{P}(-z_{\alpha/2} \leq \sqrt{nI(\theta)}(\hat\theta - \theta) \leq z_{\alpha/2}),\] tendremos un intervalo de confianza para \(\theta\) de nivel aproximado \(1-\alpha\).

A veces puede ser difícil o imposible despejar el parámetro. En ese caso aún podemos construir un intervalo de confianza asintótico si encontramos un estimador consistente de la información de Fisher, \(\widehat{I(\theta)}\). En este caso, también se cumple (lema de Slutsky): \[\sqrt{n\widehat{I(\theta)}}(\hat\theta - \theta) \overset{\mbox{d}}{\to} \mbox{N}\left(0,1\right),\] de donde se obtiene el siguiente intervalo de confianza de nivel aproximado \(1-\alpha\): \[\mbox{IC}_{1-\alpha}(\theta) \approx \left[\hat\theta - (n\widehat{I(\theta)})^{-1/2}z_{\alpha/2},\ \hat\theta + (n\widehat{I(\theta)})^{-1/2}z_{\alpha/2}\right].\]

Ejemplo

Sean \(X_1,\ldots,X_n\) v.a.i.i.d. con distribución exponencial de parámetro \(\theta\) (\(f(x;\theta) = \theta e^{-\theta x}\), si \(x>0\)). Es muy fácil ver que el EMV del parámetro es \(\hat\theta = 1/\bar{X}\) y que la información de Fisher de cada observación vale \(I(\theta) = 1/\theta^2\). Como consecuencia, \[\sqrt{n}(\hat{\theta} - \theta) \overset{\mbox{d}}{\to} \mbox{N}(0,\theta^2) \Leftrightarrow \frac{\sqrt{n}(\hat{\theta} - \theta))}{\theta} \overset{\mbox{d}}{\to} \mbox{N}(0,1).\] Despejando el parámetro en \[1-\alpha \approx \mbox{P}(-z_{\alpha/2} \leq \sqrt{n}(\hat\theta - \theta) / \theta \leq z_{\alpha/2})\] se deduce el intervalo de confianza aproximado \[\mbox{IC}_{1-\alpha}(\theta) \approx \left[\frac{\sqrt{n}\hat\theta}{\sqrt{n}+z_{\alpha/2}},\ \frac{\sqrt{n}\hat\theta}{\sqrt{n}-z_{\alpha/2}}\right].\]

Hay al menos otros dos métodos para obtener intervalos de confianza en este ejemplo (se propone como ejercicio deducir los intervalos correspondientes):

  • Estimar la información de Fisher consistentemente. Por la LDGN y el teorema de la aplicación continua, \(\hat\theta \overset{\mbox{p}}{\to} \theta\). Por lo tanto, \[\frac{\sqrt{n}(\hat{\theta} - \theta)}{\hat \theta} \overset{\mbox{d}}{\to} \mbox{N}(0,1).\]
  • Determinar una función estabilizadora de la varianza \(g\) tal que \[\sqrt{n}(g(\hat\theta) - g(\theta)) \overset{\mbox{d}}{\to} \mbox{N}(0,1).\] Aplicando el método delta, esta función tiene que verificar \(g'(\theta)^2\, \theta^2 = 1\), por lo que es muy fácil encontrarla.

Puede demostrarse (ejercicio) que los tres intervalos coinciden si despreciamos todos los términos \(\mbox{O}(1/n)\) o menores.

4.5 Intervalos desde el punto de vista bayesiano

En un problema de inferencia con un enfoque bayesiano el elemento fundamental para realizar la inferencia es la distribución a posteriori \(\pi(\theta|x_1,\ldots,x_n)\). A partir de esta distribución se define una región creíble de nivel \(1-\epsilon\), con \(\epsilon\in (0,1)\) como un subconjunto \(A\subset\Theta\) tal que \[\mbox{P}(\theta\in A|x_1,\ldots,x_n) = \int_A \pi(\theta|x_1,\ldots,x_n)d\theta=1-\epsilon.\] Bajo el punto de vista bayesiano el parámetro es una v.a. y, por tanto, para una muestra fija puede hablarse propiamente de la probabilidad de que el parámetro esté dentro del intervalo. Por el contrario, en el enfoque frecuentista, si ya hemos obtenido la muestra y tenemos un intervalo concreto \(I=I(x_1,\ldots,x_n)\), no se puede decir estrictamente que la probabilidad de que el parámetro esté en \(I\) es \(1-\epsilon\) porque en \(I\) ya no hay nada aleatorio y el valor verdadero \(\theta\) (desconocido) del parámetro cumplirá \(\theta\in I\) o \(\theta\notin I\) pero no tiene sentido asignar probabilidad a que el parámetro esté o no en el intervalo. La interpretación correcta es la frecuentista que hemos comentado anteriormente.

Ejemplo

Se desea obtener un intervalo creíble para el parámetro \(\lambda\) de una distribución de Poisson a partir de una muestra \(x_1,\ldots,x_n\), suponiendo que \(\lambda\sim \gamma(\alpha,\beta)\), siendo \(\alpha \in{\mathbb N}\) conocido. Estamos usando la siguiente parametrización de la distribución gamma: \[f(x; \alpha, \beta) = \frac{\beta^\alpha}{\Gamma(\alpha)} x^{\alpha-1}e^{-\beta x},\ \ \ x>0.\] La función característica de esta v.a. es \(\varphi_Y(t)= \left(1-it/\beta\right)^{-\alpha}\). Si \(c>0\), \(\varphi_{cY}(t)=\left(1-ict/\beta\right)^{-\alpha}\), que corresponde a una \(\gamma(\alpha,\beta/c)\).

Es fácil comprobar que la distribución a posteriori de \(\lambda\) es \(\gamma \left(\alpha' = n\bar{x}+\alpha, \beta'=n+\beta \right)\). Por tanto, usando la propiedad anterior y la relación de la distribución gamma con la \(\chi^2\), la distribución a posteriori de \(2(n+\beta)\lambda\) es \(\gamma\left(n\bar{x}+\alpha, 1/2\right)\equiv \chi^2_{2(n\bar{x}+\alpha)}\). Así pues, \[\mbox{P}\{\chi^2_{2(\sum x_i+p);1-\epsilon/2}\leq 2(n+a)\lambda\leq\chi^2_{2(\sum x_i+p);\epsilon/2}\}=1-\epsilon,\] y un intervalo creíble de nivel \(1-\epsilon\) es \[A = \left( \frac{\chi^2_{2(n\bar{x}+\alpha);1-\epsilon/2}}{2(n+\beta)} \, , \, \frac{\chi^2_{2(n\bar{x}+\alpha);\epsilon/2}}{2(n+\beta)} \right).\]

4.6 Referencias

Todo el material de este capítulo es muy estándar por lo que hay muchos libros de texto que se pueden leer para ampliar información o trabajar más ejemplos. Como referencias apropiadas citamos los capítulos 24 y 25 de Dekking et al (2005), que incluyen una sección sobre el uso del bootstrap para obtener intervalos, y el capítulo 7 de Thijssen (2016), que resume sintéticamente las principales ideas. Una visión más teórica se puede encontrar en Casella y Berger (2001) y en Knight (1999).

  • Casella, G., y Berger, R. L. (2001). Statistical inference, second edition. Cengage Learning.
  • Dekking, F. M., Kraaikamp, C., Lopuhaä, H. P. y Meester, L. E. (2005). A Modern Introduction to Probability and Statistics: Understanding why and how. Springer.
  • Knight, K. (1999). Mathematical statistics. CRC Press.
  • Thijssen, J. (2016). A Concise Introduction to Statistical Inference. Chapman and Hall/CRC.