Práctica 6 (2016)

Pràctica Español
Universidad Universidad Autónoma de Barcelona (UAB)
Grado Estadística Aplicada - 3º curso
Asignatura Simulació, Remostreig i Aplicacions
Año del apunte 2016
Páginas 6
Fecha de subida 27/04/2016
Descargas 3
Subido por

Vista previa del texto

Pra´ctica 6: M´etodo de Jacknife Anna Olmo, 1363013 April 2, 2016 1 Ejercicio 1 Suponemos que el n´ umero de llamadas por minuto que entran en una centralita de una empresa de telefon´ıa m´ ovil se distribuye seg´ un una Poisson con par´ametro θ. Se recoge una muestra de tama˜ no n = 18: [1] 4 10 1.1 8 8 9 10 6 8 5 5 7 3 10 5 1 9 2 4 (a) Estima la mediana de la muestra.
> m<-median(X);m [1] 6.5 1.2 (b) Reporta un intervalo de confianza del 95% basado en el m´etodo de Jacknife para dicha estimaci´on.
> > + + > > est<-numeric(n) for(i in 1:n){ est[i]<-median(X[-i]) } mi<-n*m-(n-1)*est mean(mi) # estimador jacknife [1] 6.5 > se<-sd(mi)/sqrt(n) # error est´ andar > c(mean(mi)-1.96*se,mean(mi)+1.96*se) [1] 2.459356 10.540644 1.3 (c) Calcula el sesgo del estimador de Jacknife.
> (n-1)*(mean(est)-mean(mi)) [1] 0 2 Ejercicio 2 Sup´ on que queremos estudiar el nivel de conversaci´on de un conjunto de ni˜ nos seg´ un su edad. La edad de los ni˜ nos (X) se usa como variable predictora del nivel de conversaci´on (Y ). Dividiendo el n´ umero de palabras por el tiempo que se ha necesitado para decirlas se obtiene la variable Y (expresada en palabras/minuto) para cada ni˜ no. Los datos son: [1] 4 [1] 91 5 6 9 96 103 9 15 99 103 108 1 2.1 (a) Ajusta los datos mediante una regresi´ on lineal ordinaria e interpreta los resultados adecuadamente. Estima tambi´en el coeficiente de correlaci´ on entre X e Y .
> mod<-lm(Y~X) > summary(mod) Call: lm(formula = Y ~ X) Residuals: 1 2 -4.00 -0.25 3 4 5.50 -2.25 5 6 1.75 -0.75 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 90.0000 3.6458 24.686 1.6e-05 *** X 1.2500 0.4146 3.015 0.0394 * --Signif. codes: 0 ✬***✬ 0.001 ✬**✬ 0.01 ✬*✬ 0.05 ✬.✬ 0.1 ✬ ✬ 1 Residual standard error: 3.708 on 4 degrees of freedom Multiple R-squared: 0.6944, Adjusted R-squared: F-statistic: 9.091 on 1 and 4 DF, p-value: 0.03935 0.6181 El modelo lineal seria Y = 90 + 1.25X, lo cual significa que para cada incremento en X, la Y se incrementa en 1.25, y que los ni˜ nos parten con una Y de 90.
> cor(X,Y) [1] 0.8333333 La correlaci´ on es elevada, eso implica que el valor de Y depende en gran medida del valor de X.
2.2 (b) Obt´en una estimaci´ on Jacknife para el intercept, la pendiente y el coeficiente de correlaci´on de la regresi´ on.
Calcula el sesgo de Jacknife y un inervalo de confianza del 95% para el intercept y la pendiente de la regresi´ on.
> > > + + + + > param<-matrix(rep(0,3*n),ncol=3) colnames(param)<-c("intercept","pendiente","correlacion") for(i in 1:n){ param[i,1]<-lm(Y[-i]~X[-i])$coefficients[1] param[i,2]<-lm(Y[-i]~X[-i])$coefficients[2] param[i,3]<-cor(X[-i],Y[-i]) } est<-apply(param,2,mean);est # estimaciones 2 intercept 89.8992696 pendiente correlacion 1.2752534 0.8251746 > (n-1)*(est[1]-mod$coefficients[1]) # sesgo intercept intercept -0.5036522 > (n-1)*(est[2]-mod$coefficients[2]) # sesgo pendiente pendiente 0.1262672 > > > > > sd<-apply(param,2,sd) int<-rbind(c(est[1]-1.96*sd[1],est[1]+1.96*sd[1]),c(est[2]-1.96*sd[2],est[2]+1.96*sd[2])) rownames(int)<-c("intercept","pendiente") colnames(int)<-c("int_inf","int_sup") int # intervalos de confianza int_inf int_sup intercept 85.7196832 94.078856 pendiente 0.8668661 1.683641 2.3 (c) El m´etodo ordinario de jackknife no funciona adecuadamente con estad´ısticos no-lineales como puede ser el coeficiente de correlaci´ on r. Usando los llamados valores z − transf ormados propuestos por Fisher podemos obtener buenos estimadores para diferentes estad´ısticos no lineales bajo el m´etodo Jacknife. En este caso, la 1+r z − transf ormacin de Fisher para r se define como z = 12 ln( 1−r ). Recalcula el estimador Jacknife para el coeficiente de correlaci´ on y comp´ aralo con el anterior.
> > + + + > zcor<-numeric(n) for(i in 1:n){ r<-cor(X[-i],Y[-i]) zcor[i]<-(1/2)*log((1+r)/(1-r)) } mean(zcor) # estimador fisher [1] 1.234349 > mean(param[,3]) # estimador jacknife [1] 0.8251746 En este caso, dado que el valor real de la correlaci´on es 0.833, el estimador de Jacknife (0.825) es mejor que el de Fisher (1.234).
3 Ejercicio 3 Se cree que los nacimientos por ces´ area son m´as frecuentes en los hospitales p´ ublicos que en los privados. Se ha registrado un total de nacimientos y el correspondiente n´ umero de ces´areas en 7 hospitales privados y 13 p´ ublicos: 3 3.1 (a) Usando la funci´ on glm, ajusta los datos mediante un modelo de regresi´on de Poisson, asumiendo que el n´ umero de ces´ areas sigue una Poisson de media µi , donde log(µi ) = β0 + β1 N acimientos + β2 Hospital.
Interpreta los resultados obtenidos.
> mod<-glm(log(C)~B+as.factor(H),family=poisson()) > summary(mod) Call: glm(formula = log(C) ~ B + as.factor(H), family = poisson()) Deviance Residuals: Min 1Q -0.89790 -0.17846 Median 0.03166 3Q 0.25109 Max 0.53651 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.5238033 0.2893165 1.810 0.0702 .
B 0.0001779 0.0001593 1.117 0.2642 as.factor(H)1 0.2438107 0.3725344 0.654 0.5128 --Signif. codes: 0 ✬***✬ 0.001 ✬**✬ 0.01 ✬*✬ 0.05 ✬.✬ 0.1 ✬ ✬ 1 (Dispersion parameter for poisson family taken to be 1) Null deviance: 6.0783 Residual deviance: 2.9203 AIC: Inf on 19 on 17 degrees of freedom degrees of freedom Number of Fisher Scoring iterations: 4 El modelo estimado es log(C) = 0.5238 + 0.0002B + 0.2438H, lo cual significa que para hospitales privados es log(C) = 0.5238 + 0.0002B, y para hospitales p´ ublicos es log(C) = 0.7676 + 0.0002B.
Es decir que en ambos casos la cantidad de nacimientos no es muy relavante, pero que estando en las mismas condiciones, los privados tendrian 1.6884 ces´areas cuando los p´ ublicos tendrian 2.1548.
Por tanto, seg´ un el modelo, efectivamente los hospitales p´ ublicos tienen m´as ces´areas que los privados.
3.2 (b) Calcula los intervalos de confianza del 95% para β1 y β2 usando el m´etodo de Jacknife.
> > > + + + > > param<-matrix(rep(0,2*n),ncol=2) colnames(param)<-c("beta1","beta2") for(i in 1:n){ param[i,1]<-glm(log(C[-i])~B[-i]+as.factor(H[-i]),family=poisson())$coefficients[2] param[i,2]<-glm(log(C[-i])~B[-i]+as.factor(H[-i]),family=poisson())$coefficients[3] } est<-apply(param,2,mean) sd<-apply(param,2,sd) 4 > > > > int<-rbind(c(est[1]-1.96*sd[1],est[1]+1.96*sd[1]),c(est[2]-1.96*sd[2],est[2]+1.96*sd[2])) rownames(int)<-c("beta1","beta2") colnames(int)<-c("int_inf","int_sup") int # intervalos de confianza int_inf int_sup beta1 0.0001547006 0.0002014471 beta2 0.1572542669 0.3328025672 5 ...

Tags:
Comprar Previsualizar