Sean \(X_1,\ldots,X_n\) vaiid cuya distribución \(F_\theta\) es tal que \(F_\theta(x)=F(x-\theta)\), donde \(F\) es continua, estrictamente creciente y \(F(0)=1/2\) (es decir, \(F\) tiene mediana 0 y \(\theta\) es la mediana de \(F_\theta\)). Queremos contrastar \(H_0:\, \theta\leq 0\) frente a \(H_1:\theta> 0\). Para ello utilizamos el contraste definido por la región crítica \(R=\{ T_n > c\}\), donde \(T_n = \#\{i:\, X_i>0\}\) es el número de observaciones positivas en la muestra.


Solución (cedida por el profesor J.R. Berrendero):

  1. Dado que \(\mbox{P}(X_i>0) = 1-F_\theta(0) = 1-F(-\theta)\), es claro que \(T_n\equiv \mbox{Binom}(n,1-F(-\theta))\). Por lo tanto \(\mbox{E}(T_n) = n[1-F(-\theta)]\equiv n\mu(\theta)\) y \(\mbox{Var}(T_n) = nF(-\theta)[1-F(-\theta)]\equiv n\sigma^2(\theta)\).


  1. Si aproximamos la binomial por la normal, tenemos que \[ \frac{T_n -n\mu(\theta)}{\sqrt{n}\sigma(\theta)} \cong \mbox{N}(0,1). \] Por lo tanto, \[ \alpha = \sup_{\theta\leq 0} P(T_n>c) = \mbox{P}_{\theta=0}(T_n>c) \approx \mbox{P}(Z>2(c-n/2)/\sqrt{n}), \] teniendo en cuenta que \(\mu(0)=1/2\) y \(\sigma^2(0)=1/4\). Como consecuencia, \(2(c-n/2)/\sqrt{n}=z_\alpha\), es decir, \(c=n/2+\sqrt{n}z_\alpha/2\).


  1. Para el caso particular de este apartado,
n <- 36
alpha <- 0.05
cte <- n/2 + sqrt(n)*qnorm(1-alpha)/2
cte
## [1] 22.93456

Como consecuencia, la región crítica es \(R=\{T_{36} > 22.93\}\) y, además, \(\mu(\theta)=1-\Phi(-\theta)=\Phi(\theta)\) y \(\sigma(\theta)=\sqrt{\Phi(\theta)[1-\Phi(\theta)]}\), donde \(\Phi\) es la función de distribución normal estándar.

Por lo tanto, \[ \beta(\theta) = \mbox{P}_{\theta}(R) \approx \mbox{P}\left(Z > \frac{22.93 - 36 \Phi(\theta)}{6 \sqrt{\Phi(\theta)(1-\Phi(\theta))}} \right) = 1-\Phi\left[\frac{22.93 - 36 \Phi(\theta)}{6 \sqrt{\Phi(\theta)(1-\Phi(\theta))}}\right] \] En la figura se ha representado esta función de potencia, comparada con la del contraste habitual para la media de una población normal.

theta0 <- 0
theta <- seq(-0.5, 1, 0.01)
signos <- 1 - pnorm((cte - n*pnorm(theta))/sqrt(n*pnorm(theta)*(1-pnorm(theta))))
usual <- 1- pnorm(qnorm(1-alpha) - theta*sqrt(n))

data.frame(theta, signos, usual) %>%
  ggplot() +
  geom_line(aes(x = theta, y = usual), col = 'red') +
  geom_line(aes(x= theta, y = signos), col = 'blue') +
  geom_hline(yintercept = alpha, linetype = 2) +
  geom_vline(xintercept = theta0, linetype = 2)

Se observa que el contraste usual es más potente. Por ejemplo, para \(\theta = 0.25\) la potencia del test de signos es 0.32 mientras que la del usual es 0.44. Sin embargo, el contraste de signos es no paramétrico y no utiliza en ningún momento que la distribución de los datos es normal. Por lo tanto funcionará razonablemente bien para muchas distribuciones diferentes \(F_\theta\). Por el contrario, el test habitual está diseñado específicamente para la distribución normal.