class: center, middle # TEMA 4: Intervalos de confianza ### José R. Berrendero #### Departamento de Matemáticas, Universidad Autónoma de Madrid --- # Temas a tratar - ¿Qué es un intervalo de confianza (IC)? - IC para la media: - Población normal, varianza conocida - Población normal, varianza desconocida - Otras poblaciones: IC para una proporción - El método de la cantidad pivotal - Algunas cantidades pivotales en poblaciones normales - Cantidades pivotales asintóticas basadas en el EMV - Intervalos desde el punto de vista bayesiano --- # ¿Qué es un intervalo de confianza? - Objetivo: obtener un intervalo tal que *podemos confiar* en que contiene al verdadero valor de un parámetro desconocido - Sean `\(a(X_1,\ldots,X_n)\)` y `\(b(X_1,\ldots,X_n)\)` tales que, para `\(\alpha\in (0,1)\)`, `$$\mbox{P}_\theta\{a(X_1,\ldots,X_n)<\theta<b(X_1,\ldots,X_n)\}=1-\alpha,\ \mbox{para todo}\ \ \theta$$` - Para una realización concreta de la muestra, `\(x_1,\ldots,x_n\)`, se dice que `$$\mbox{IC}_{1-\alpha}(\theta):=[a(x_1,\ldots,x_n),\ b(x_1,\ldots,x_n)]$$` es un intervalo de confianza (IC) para `\(\theta\)` con nivel de confianza `\(1-\alpha\)` --- # IC para la media .small[ #### Población normal, varianza conocida `\(X_1,\ldots,X_n\)` son vaiid `\(N(\mu,\sigma^2)\)` con `\(\sigma^2\)` es conocida `$$\bar X\equiv N\left(\mu,\frac{\sigma^2}{n}\right),\ \ \mbox{y, estandarizando,}\ \ \frac{\bar X-\mu}{\sigma/\sqrt{n}}\equiv N(0,1)$$` Se cumple `$$\mbox{P}_\mu \left\{-z_{\alpha/2}<\frac{\bar X-\mu}{\sigma/\sqrt{n}}<z_{\alpha/2} \right\} = 1-\alpha,$$` donde `\(z_ \alpha\)` denota el cuantil `\(1-\alpha\)` de la normal estándar. Despejando `\(\mu\)`, `$$\mbox{P}_\mu \left\{\bar X-z_{\alpha/2}\frac{\sigma}{\sqrt{n}}<\mu<\bar X+z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \right\}=1-\alpha$$` ] --- # IC para la media .small[ #### Población normal, varianza conocida `$$\mbox{IC}_{1-\alpha}(\mu) = \left(\bar x-z_{\alpha/2}\frac{\sigma}{\sqrt{n}},\bar x+z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right)$$` **Margen de error**: `$$E=z_{\alpha/2}\frac{\sigma}{\sqrt{n}}$$` El margen de error depende de: - El tamaño muestral. Para un nivel de confianza fijo, a mayor tamaño muestral menor margen de error - El nivel de confianza. Si fijamos el tamaño muestral, a mayor nivel de confianza mayor es también el margen de error - La homogeneidad de la población. Cuanto menor sea la desviación tÃpica menor es el margen de error para un tamaño muestral y nivel de confianza dados ] --- # Interpretación frecuentista Extraemos `\(m = 100\)` muestras de tamaño `\(n = 30\)` de una población normal estándar y determinamos el número de ellas en las que el correspondiente intervalo de nivel 0.95 (calculado con la fórmula que hemos visto) contiene al verdadero valor del parámetro. <img src="data:image/png;base64,#est1-intervalos-21_files/figure-html/unnamed-chunk-2-1.png" style="display: block; margin: auto;" /> --- # IC para la media #### Población normal, varianza desconocida Se sustituye `\(\sigma\)` por `\(S\)` en la estandarización de la media Por el lema de Fisher, `$$\frac{\bar X-\mu}{S/\sqrt{n}}\equiv t_{n-1}$$` `$$\mbox{IC}_{1-\alpha}(\mu) = \left(\bar x-t_{n-1;\alpha/2}\frac{s}{\sqrt{n}},\ \ \bar x+t_{n-1;\alpha/2}\frac{s}{\sqrt{n}}\right)$$` La notación `\(t_{n-1;\alpha/2}\)` representa el valor que deja a su derecha una probabilidad `\(\alpha/2\)` en la distribución t de Student con `\(n-1\)` grados de libertad (o sea, el cuantil `\(1-\alpha/2\)` de la distribución). --- # Ejemplo Se mide el tiempo de duración (en segundos) de un proceso quÃmico realizado 20 veces en condiciones similares, obteniéndose los siguientes resultados (suponemos que los datos proceden de una distribución normal) ```r resultados <- c(93, 90, 97, 90, 93, 91, 96, 94, 91, 91, 88, 93, 95, 91, 89, 92, 87, 88, 90, 86) mean(resultados) ``` ``` ## [1] 91.25 ``` Usamos el comando `t.test`: ```r t.test(resultados)$conf.int # 95% es el nivel por defecto ``` ``` ## [1] 89.87604 92.62396 ## attr(,"conf.level") ## [1] 0.95 ``` ```r t.test(resultados, conf.level = 0.9)$conf.int # nivel 90% ``` ``` ## [1] 90.11492 92.38508 ## attr(,"conf.level") ## [1] 0.9 ``` --- # IC para la media #### Otras poblaciones, varianza desconocida Aunque la población no sea normal podemos aplicar el TCL: `$$\frac{\bar X-\mu}{\sigma/\sqrt{n}}\to_d \mbox{N}(0,1)$$` Sustituyendo `\(\sigma\)` por un estimador consistente `\(\hat \sigma\)` y usando el lema de Slutsky `$$\frac{\bar X-\mu}{\hat \sigma/\sqrt{n}}\to_d \mbox{N}(0,1)$$` De la propiedad anterior se obtiene el siguiente intervalo de confianza para `\(\mu\)` con nivel **aproximado** `\(1-\alpha\)`, `$$\mbox{IC}_{1-\alpha}(\mu) \approx \left(\bar x-z_{\alpha/2}\frac{\hat\sigma}{\sqrt{n}},\bar x+z_{\alpha/2}\frac{\hat\sigma}{\sqrt{n}}\right)$$` --- # IC para una proporción Sean `\(X_1,\ldots,X_n\)` vaiid `\(\mbox{B}(1,p)\)` Si denotamos `\(\hat p=\bar{X}\)`, por el TCL `$$\frac{\hat p-p}{\sqrt{\frac{p(1-p)}{n}}}\to_d N(0,1),$$` y reemplazando `\(p\)` por su estimador natural `\(\hat p\)` en el denominador, `$$\mbox{IC}_{1-\alpha}(p) \approx \left(\hat p-z_{\alpha/2}\sqrt{\frac{\hat p(1-\hat p)}{n}},\hat p+z_{\alpha/2}\sqrt{\frac{\hat p(1-\hat p)}{n}} \right)$$` --- # Ejemplo Se estima la proporción `\(p\)` de piezas defectuosas en la producción de una fábrica con una muestra de 200 piezas de las cuales 8 resultan ser defectuosas. Calcula un intervalo de confianza de nivel 0.95 para `\(p\)`. Sustituyendo en la fórmula `$$\mbox{IC}_{0.95}(p) \approx \left( \frac{8}{200}\pm 1.96\sqrt{\frac{0.04\cdot 0.96}{200}} \right) = (0.04\pm 0.02716)$$` Supongamos que se desea obtener un intervalo con un error de como mucho 0.01. ¿Qué tamaño muestral habrÃa que elegir? Nuestro objetivo es conseguir `$$E = 1.96\sqrt{\frac{\hat p(1-\hat p)}{n}} \leq 0.01$$` Dos posibilidades: - Usar la información disponible como muestra piloto: `\(n \approx 1475\)` - Asumir el peor de los casos que es `\(p=1/2\)`: `\(n\approx 9604\)` --- # Una ficha técnica <img src="data:image/png;base64,#figs/ficha_tecnica.jpg" width="70%" style="display: block; margin: auto;" /> Tamaño muestral `\(n=1100\)` y nivel de confianza `\(1-\alpha = 0.9545\)`. Para este nivel resulta `\(z_{\alpha/2}=2\)`: ```r alpha <- 1-0.9545 qnorm(1-alpha/2) ``` ``` ## [1] 2.000002 ``` El intervalo es de la forma `\([\hat p\mp 2\sqrt{\hat p (1-\hat p)/n}]\)`. El margen de error de la ficha corresponde al caso más desfavorable, `\(p = 1/2\)`: ```r n <- 1100 error <- 2*sqrt(1/(4*n)) error ``` ``` ## [1] 0.03015113 ``` --- # El método de la cantidad pivotal .small[ - Las **cantidades pivotales** son funciones `\(T(X_1,\ldots,X_n;\theta)\)` que dependen de la muestra y del parámetro y tales que su distribución es totalmente conocida para todo `\(\theta\)` - Si identificamos una cantidad pivotal, podemos encontrar (en el caso discreto, al menos aproximadamente) dos cuantiles `\(q_1(\alpha)\)` y `\(q_2(\alpha)\)` tales que `$$1-\alpha = \mbox{P}_\theta (q_1(\alpha) < T(X_1,\ldots,X_n; \theta) < q_2(\alpha))$$` - Podemos despejar `\(\theta\)` para obtener una región de confianza. Si `\(T\)` es monótona en `\(\theta\)`, esta región es un IC - **Ejemplo:** Si `\(X_1,\ldots,X_n\)` son vaiid de una distribución `\(\mbox{U}(0,\theta)\)`: - Comprueba que `\(T = X_{(n)}/\theta\)` es una cantidad pivotal - Determina dos cuantiles `\(a\)` y `\(b\)` tales que `\(\mbox{P}(a\leq T\leq b)=1-\alpha\)`, y tales que además el intervalo `\((a,b)\)` tenga la menor longitud posible. - Determina un intervalo de confianza para `\(\theta\)` de nivel `\(1- \alpha\)` a partir de los valores `\(a\)` y `\(b\)`. ] --- # Diferencia de dos medias #### Dos muestras independientes Dos muestras **independientes** de vaiid: - `\(X_1,\ldots,X_{n_1}\)` de una distribución `\(\mbox{N}(\mu_1,\sigma^2)\)` - `\(Y_1,\ldots,Y_{n_2}\)` de una distribución `\(\mbox{N}(\mu_2,\sigma^2)\)` Se supone **homocedasticidad**: las varianzas de ambas poblaciones son iguales. El objetivo es encontrar una cantidad pivotal para `\(\mu_1-\mu_2\)` Como las muestras son independientes: `$$\frac{(\bar X -\bar Y) - (\mu_1-\mu_2)}{\sigma\sqrt{\frac{1}n_1 + \frac{1}{n_2}}} \equiv \mbox{N}(0,1)$$` Las dos varianzas muestrales estiman el mismo parámetro. ¿Cómo los combinamos? --- # Estimación de la varianza `$$S^2_p = \frac{(n_1-1)S_1^2 + (n_2-1)S_2^2}{n_1+n_2-2}$$` 1. Demuestra que `\(\mbox{E}(S^2_p) = \sigma^2\)` 2. Demuestra que `\((n_1+n_2-2)S^2_p / \sigma^2 \equiv \chi^2_{n_1+n_2-2}\)` 3. Demuestra que, como consecuencia, `$$\frac{(\bar X -\bar Y) - (\mu_1-\mu_2)}{S_p\sqrt{\frac{1}n_1 + \frac{1}{n_2}}} \equiv t_{n_1+n_2-2}$$` 4. De la cantidad pivotal para `\(\mu_1 - \mu_2\)` anterior deducir el intervalo de confianza: `$$\mbox{IC}_{1-\alpha} (\mu_1-\mu_2) = \left[(\bar X -\bar Y) \mp t_{n_1+n_2-2;\alpha/2}\, S_p\sqrt{\frac{1}n_1 + \frac{1}{n_2}} \right]$$` --- # Ejemplo A un grupo de 20 pollos se les suministró pienso con harina de maÃz de una nueva variedad transgénica. A otro grupo de 20 pollos (grupo de control) se le alimentó con un pienso que no contenÃa la variedad mejorada. Ganancias de peso de los pollos (en gramos) al cabo de 21 dÃas de alimentación: ```r maiz.normal <- c(380, 321, 366, 356, 283, 349, 402, 462, 356, 410, 329, 399, 350, 384, 316, 272, 345, 455, 360, 431) maiz.transgenico <- c(361, 447, 401, 375, 434, 403, 393, 426, 406, 318, 467, 407, 427, 420, 477, 392, 430, 339, 410, 326) ``` Tal y como tenemos los datos aún no están ordenados del todo. Recordamos que debemos tener: - Todos los datos del mismo análisis en el mismo `data.frame` - Cada fila del fichero corresponde a un individuo - Cada columna del fichero corresponde a una variable --- # Ejemplo Para ordenar los datos y representar diagramas de cajas: ```r peso <- c(maiz.normal, maiz.transgenico) tipo <- gl(2, 20, labels = c('normal', 'transgénico')) # genera un factor con dos niveles datos_maiz <- data.frame(peso, tipo) ggplot(datos_maiz) + geom_boxplot(aes(x=tipo, y=peso), fill='olivedrab4') ``` <img src="data:image/png;base64,#est1-intervalos-21_files/figure-html/unnamed-chunk-9-1.png" style="display: block; margin: auto;" /> --- # Ejemplo Los pollos alimentados con un pienso normal tienden a ganar menos peso que los alimentados con transgénico Calculamos el IC para `\(\mu_1-\mu_2\)`, donde `\(\mu_1\)` es la ganancia media de peso con pienso normal y `\(\mu_2\)` es la ganancia media de peso con pienso transgénico: ```r t.test(peso ~ tipo, data=datos_maiz, var.equal=TRUE)$conf.int ``` ``` ## [1] -66.700161 -6.599839 ## attr(,"conf.level") ## [1] 0.95 ``` El hecho de que todos los valores del intervalo sean negativos apoya la afirmación de que `\(\mu_1<\mu_2\)`. --- # Diferencia de dos medias #### Datos emparejados Se observa una muestra `\((X_1,Y_1),\ldots,(X_n,Y_n)\)` de datos normales bidimensionales y no es posible suponer que las variables `\(X\)` e `\(Y\)` son independientes. Se trabaja con las diferencias `\(D_1,\ldots,D_n\)`, donde `\(D_i=X_i-Y_i\)`: `$$\mu = \mbox{E}(D_i) = \mbox{E}(X_i) - \mbox{E}(Y_i) = \mu_1 -\mu_2$$` El intervalo de confianza para la diferencia de medias se construye a partir del intervalo para `\(\mu\)`. --- # Ejemplo Tomamos medidas de la concentración de zinc en la superficie y en el fondo (en mg/l) de seis puntos de un rÃo. ¿Es la concentración media igual en la superficie y en el fondo? Como cada medida en profundidad y fondo corresponde al mismo punto del rÃo no podemos suponer independencia. Esto se indica usando el argumento `paired = TRUE` en el comando `t.test`: ```r fondo <- c(0.41, 0.24, 0.39, 0.41, 0.60, 0.61) superficie <- c(0.43, 0.27, 0.57, 0.53, 0.71, 0.72) t.test(fondo, superficie, paired = TRUE)$conf.int ``` ``` ## [1] -0.15822795 -0.03177205 ## attr(,"conf.level") ## [1] 0.95 ``` --- # IC para la varianza - Si `\(X_1,\ldots,X_n\)` son vaiid con distribución `\(\mbox{N}(\mu,\sigma^2)\)`, por el lema de Fisher, `$$\frac{(n-1)S^2}{\sigma^2}\equiv \chi^2_{n-1}$$` - `\((n-1)S^2/\sigma^2\)` es una cantidad pivotal para `\(\sigma^2\)` - Si `\(\chi^2_{n-1,\alpha}\)` es el cuantil `\(1-\alpha\)` de la la distribución `\(\chi^2_{n-1}\)`, entonces `$$1-\alpha = \mbox{P}\left(\chi^2_{n-1,1-\alpha/2} <\frac{(n-1)S^2}{\sigma^2}< \chi^2_{n-1,\alpha/2} \right)$$` - De aquà se deduce fácilmente un IC para `\(\sigma^2\)` (ejercicio) - La distribución no es simétrica por lo que los cuantiles necesarios no solo difieren en el signo como en los IC anteriores - Hay infinitos pares de cuantiles que podrÃamos usar. Los que se usan habitualmente (los anteriores) no proporcionan el IC más corto --- # IC para el cociente de varianzas Dos muestras **independientes** de vaiid: - `\(X_1,\ldots,X_{n_1}\)` de una distribución `\(\mbox{N}(\mu_1,\sigma_1^2)\)` - `\(Y_1,\ldots,Y_{n_2}\)` de una distribución `\(\mbox{N}(\mu_2,\sigma_2^2)\)` La cantidad pivotal para `\(\sigma_1^2/\sigma_2^2\)` depende de una nueva distribución #### Distribución `\(F\)` Sean `\(Y_1\)` e `\(Y_2\)` dos v.a. independientes con distribuciones `\(\chi^2_{n_1}\)` y `\(\chi^2_ {n_2}\)`, respectivamente. Se dice que la variable `$$Y=\frac{Y_1/n_1}{Y_2/n_2}$$` tiene [distribución `\(F\)` con `\(n_1\)` y `\(n_2\)` grados de libertad](https://es.wikipedia.org/wiki/Distribuci%C3%B3n_F). (Notación: `\(Y\equiv F_{n_1,n_2}\)`). - ¿Qué relación hay entre la distribución `\(F\)` y la `\(t\)` de Student? - Demuestra que `\(F_{n_1,n_2;\alpha} = 1/F_{n_2,n_1;1-\alpha}\)` (con la notación habitual) --- # IC para el cociente de varianzas ```r ggplot(data.frame(x = c(0, 6)), aes(x)) + geom_function(fun = 'df', args = list(df1 = 5, df2= 20), size = 1.05) + geom_function(fun = 'df', args = list(df1 = 20, df2= 20), col = 'blue', linetype = 2, size = 1.05) + geom_function(fun = 'df', args = list(df1 = 20, df2= 5), col = 'red', linetype = 3, size = 1.05) ``` <img src="data:image/png;base64,#est1-intervalos-21_files/figure-html/unnamed-chunk-12-1.png" style="display: block; margin: auto;" /> --- # IC para el cociente de varianzas Sean `\(S_1^2\)` y `\(S_2^2\)` las varianzas muestrales de cada una de las dos muestras. Entonces `$$F = \frac{S_1^2/\sigma_1^2}{S_2^2/\sigma_2^2} = \frac{S_1^2/S_2^2}{\sigma_1^2/\sigma_2^2} \equiv F_{n_1-1,n_2-1}$$` Por lo tanto, `\(F\)` es una cantidad pivotal para el cociente de las varianzas, lo que da el IC (ejercicio) `$$\mbox{IC}_{1-\alpha}(\sigma_1^2/\sigma_2^2) = \left[\frac{S_1^2}{S_2^2}F_{n_2-1,n_1-1;1-\alpha/2},\ \ \frac{S_1^2}{S_2^2}F_{n_2-1,n_1-1;\alpha/2} \right]$$` --- # Ejemplo Para calcular este intervalo con `R` se usa el comando `var.test`: ```r # Generación de datos set.seed(123) n <- 100 sigma1 <- sqrt(2) sigma2 <- 1 x <- rnorm(n, sd = sigma1) y <- rnorm(n, sd = sigma2) # Calculo de intervalos var.test(x, y)$conf.int # Por defecto 95% es el nivel de confianza ``` ``` ## [1] 1.199136 2.648760 ## attr(,"conf.level") ## [1] 0.95 ``` ```r var.test(x, y, conf.level = 0.99)$conf.int # Nivel 99% ``` ``` ## [1] 1.057455 3.003648 ## attr(,"conf.level") ## [1] 0.99 ``` --- # Pivotes asintóticos basados en el EMV .small[ - Si `\(X_1,\ldots,X_n\)` son vaiid de una distribución `\(F\in\{F_\theta:\, \theta\in\Theta\subset \mathbb{R}\}\)`, bajo condiciones de regularidad tenemos `\(\sqrt{nI(\theta)}(\hat\theta - \theta) \to_d \mbox{N}\left(0,1\right)\)` - Entonces, `\(\sqrt{nI(\theta)}(\hat\theta - \theta)\)` es una cantidad pivotal asintótica. - Si podemos despejar el parámetro en la expresión `$$1-\alpha \approx \mbox{P}(-z_{\alpha/2} \leq \sqrt{nI(\theta)}(\hat\theta - \theta) \leq z_{\alpha/2})$$` tendremos un IC para `\(\theta\)` de nivel aproximado `\(1-\alpha\)`. - También podemos construir un intervalo de confianza asintótico si encontramos un estimador consistente de la información de Fisher, `\(\widehat{I(\theta)}\)`: `$$\sqrt{n\widehat{I(\theta)}}(\hat\theta - \theta) \to_d \mbox{N}\left(0,1\right)$$` En este caso `$$\mbox{IC}_{1-\alpha}(\theta) \approx \left[\hat\theta - (n\widehat{I(\theta)})^{-1/2}z_{\alpha/2},\ \hat\theta + (n\widehat{I(\theta)})^{-1/2}z_{\alpha/2}\right]$$` ] --- # Ejemplo Sean `\(X_1,\ldots,X_n\)` vaiid con distribución exponencial de parámetro `\(\theta\)`, `\(f(x;\theta) = \theta e^{-\theta x}\)`, si `\(x>0\)` - Calcula el EMV y la información de Fisher de cada observación - Deduce tres IC asintóticos para `\(\theta\)` siguiendo cada uno de los métodos siguientes: - Despejando `\(\theta\)` en `$$1-\alpha \approx \mbox{P}(-z_{\alpha/2} \leq \sqrt{nI(\theta)}(\hat\theta - \theta) \leq z_{\alpha/2})$$` - Estimando la información de Fisher consistentemente - Determinando (con el método delta) una función estabilizadora de la varianza `\(g\)` tal que `$$\sqrt{n}(g(\hat\theta) - g(\theta)) \to_d \mbox{N}(0,1)$$` - Comprueba que los tres intervalos coinciden si despreciamos todos los términos `\(\mbox{O}(1/n)\)` o menores --- # Intervalos en el enfoque bayesiano .small[ Se define una **región creÃble** de nivel `\(1-\epsilon\)` para `\(\theta\)` como un subconjunto `\(A\subset\Theta\)` tal que `$$\mbox{P}(\theta\in A|x_1,\ldots,x_n) = \int_A \pi(\theta|x_1,\ldots,x_n)d\theta=1-\epsilon$$` **Ejemplo** Se desea obtener un intervalo creÃble para el parámetro `\(\lambda\)` de una distribución de Poisson a partir de una muestra `\(x_1,\ldots,x_n\)`, suponiendo que `\(\lambda\sim \gamma(\alpha,\beta)\)`, siendo `\(\alpha \in{\mathbb N}\)` conocido `$$f(x; \alpha, \beta) = \frac{\beta^\alpha}{\Gamma(\alpha)} x^{\alpha-1}e^{-\beta x},\ \ \ x>0$$` - La distribución a posteriori de `\(\lambda\)` es `\(\gamma \left(\alpha' = n\bar{x}+\alpha, \beta'=n+\beta \right)\)` - La distribución a posteriori de `\(2(n+\beta)\lambda\)` es `\(\gamma\left(n\bar{x}+\alpha, 1/2\right)\equiv \chi^2_{2(n\bar{x}+\alpha)}\)` - Un intervalo creÃble de nivel `\(1-\epsilon\)` para `\(\lambda\)` es `$$A = \left( \frac{\chi^2_{2(n\bar{x}+\alpha);1-\epsilon/2}}{2(n+\beta)} \, , \, \frac{\chi^2_{2(n\bar{x}+\alpha);\epsilon/2}}{2(n+\beta)} \right)$$` ]