TEMA 12 (2015)

Apunte Español
Universidad Universidad Pompeu Fabra (UPF)
Grado Medicina - 2º curso
Asignatura Bioestadística
Año del apunte 2015
Páginas 17
Fecha de subida 20/04/2016
Descargas 1
Subido por

Vista previa del texto

2n Medicina UPF- UAB BIOESTADÍSTICA TEMA 12: Estadística no- paramétrica PRUEBAS PARAMÉTRICAS DE CONTRASTE DE HIPÓTESIS La mayoría de las pruebas de contraste de hipótesis para variables cuantitativas que hemos estudiado son pruebas paramétricas.
Su aplicación asume que los datos muestrales estudiados han sido extraídos de una población donde esa variable sigue una distribución normal.
¿Es correcto asumir que la variable sigue una distribución normal? La realidad es que es verdad que la mayor parte de las variables experimentales siguen una distribución normal o bien muy aproximada. Incluso cuando es aproximada, asumir que la sigue lleva a resultados aproximadamente correctos. No obstante, tiene unos pros y otros contras: - PROS Numerosas variables experimentales siguen distribuciones aproximadamente normales - CONTRAS En otros casos en los que las variables no siguen una distribución normal, la aplicación de pruebas paramétricas conduce - En algunos casos en los que las variables no siguen una distribución normal asumir normalidad lleva a resultados aproximadamente correctos a resultados completamente erróneos 2n Medicina UPF- UAB ASUNCIÓN DE NORMALIDAD “Los que experimentan se creen que (la normalidad) es un teorema de las matemáticas y los matemáticos que es un hecho experimental” Lippman, 1912 Ej.: distribuciones no-normales Se observan distribuciones que no son normales. Si se asume que lo son los resultados no serán correctos.
DETECCIÓN DE VARIABLES NO-NORMALES Aprender a reconocer si la variable sigue o no una distribución normal.
Para decidir si una variable cuantitativa sigue una distribución normal existen varias técnicas: (en el orden que recomienda utilizarlas) Gráficos de normalidad - Gráfico Q-Q Índices - Asimetría y Curtosis Pruebas de contraste de hipótesis - Kolmogorov- Smirnov - Shapiro- Wilk ! Gráficos de normalidad: Gráfico Q-Q normal (cuantil- cuantil normal) Primera en utilizar si la variable sigue una distribución normal.
Si una variable sigue una distribución normal, la representación de sus puntuaciones típicas teóricas frente a las observadas se ajustará a una línea recta. (puntos rojos indican valores de la muestra).
Se parece mucho al de una distribución normal (gráfico 1) mientras que en el 2 hay desviaciones importantes.
La interpretación es muy sencilla: observar si los puntos están cerca o no de esa línea que representa la situación ideal. En caso que tengan distribuciones diferentes, tendrá desviaciones muy grandes.
2n Medicina UPF- UAB Este grafico es útil porque no solo indica si la muestra se aproxima a la situación ideal, sino que también indica sobre que parte tenemos la desviación: sobre los centros, sobre los bordes… pero la interpretación siempre será un poco subjetiva.
Las puntuaciones típicas teóricas se obtienen… 1. Calculando el rango acumulado, en forma porcentual 2. Transformándolo en el valor de z que encierra este mismo porcentaje de la probabilidad en la distribución normal Ej1.: En una muestra de 100 individuos, al individuo 25º se le asigna el valor 0.25 1. El valor 0.25 se convierte en -0.6745, porque el 25% del AUC en la distribución normal está entre menos infinito y -0.6745 Las puntuaciones típicas observadas corresponden a las puntuaciones z de esos mismos individuos (Ej.: el individuo 25 tiene un valor de z = -0.63) Las puntuaciones observadas corresponden al valor teórico o a una transformación: media y división estándar.
2n Medicina UPF- UAB Ej.: en una lista ordenada de puntos, para cada uno hay que decir el cuantil teórico " se calcula el rango para valor por ejemplo 25 es en el que esta en el 25% (seria como el percentil 25). Estos valores que se obtienen a partir del rango se transforma en puntación z" valor que encierra este porcentaje desde – infinito hasta este valor.
Ej2.: Q-Q plot edad madres en una muestra de partos en SPSS y R Histograma " se ha representado la edad de las madres en una distribución normal mediante el programa SPSS. Observamos que se parece a dicha distribución pero no es del todo perfecta.
Eje X= valores observados. No se molesta en obtener valores Z, directamente proporciona el valor.
El introducir valores Z o no, no es relevante para determinar si la variable sigue una distribución normal.
Gráfico Q-Q plot !Expected normal values: se ha representado los valores obtenidos pero transformados.
Se observa que si se parece a la recta de tendencia aunque con determinadas desviaciones principalmente al inicio.
Hay pocos puntos que representen las madres jóvenes, ya que muchas de ellas no están en edad fértil (11-12-13 años) o bien por motivos por motivos sociológicos, no se tienen hijos a tan temprana edad.
Observamos que en el gráfico se aprecia mucho mejor que en el histograma que la variable (EDATMARE) no sigue una distribución normal.
Este tipo de gráficos nos permiten detectar donde encontramos las desviaciones. En este caso se determina que estas desviaciones se encuentran en los valores más bajos de la variable (edades más jóvenes).
2n Medicina UPF- UAB ! Índices: - Índice de asimetría (skewness) ! Indica el grado de asimetría de la distribución o Valores próximos a cero indican que la distribución es simétrica Nos dice si nuestra distribución está centrada sobre la media o si esta desplazada a derecha o izquierda: - o Menos de 0 = simétrica o Más de 0 = asimétrica Índice de curtosis (kurtosis) ! Compara si la distribución acumula valores en las “colas” de la distribución del mismo modo que una distribución normal.
o Valores positivos indican que acumula más valores que una distribución normal y valores negativos lo contrario.
o Valores próximos a cero indican que la distribución es parecida a la normal Ej.: Statistics EDATMARE N Valid Missing Mean Std. Deviation Skewness Std. Error of Skewness Kurtosis Std. Error of Kurtosis 6042 0 27,87 5,753 ,128 ,032 -,461 ,063 Curtosis negativa, indica que las colas tienen menos valores que una distribución normal Relativamente próximo a 0 = ligeramente asimétrico *Que simetría y curtosis sean próximas a 0 = se parece a distribución normal.
2n Medicina UPF- UAB ! Pruebas de contraste de hipótesis: Pruebas usadas; Kolmogorov-Smirnov y la de Shapiro-Wilk Diseñadas específicamente para esto.
La H0 " indica que los datos muestrales se han extraído de una distribución normal.
NOTA: justo al revés que en el resto de las pruebas de contraste Suelen ser demasiado sensibles a desviaciones de la normalidad y deben ser interpretadas con precaución Son extraordinariamente sensibles y su opinión es que no son útiles en bioestadística ya que todo lo que sale es que no es normal.
Ej.: Prueba Kolmogorov-Smirnov para la edad madres en una muestra de partos Tests of Normality a EDATMARE Kolmogorov-Smirnov Statistic df Sig.
,047 6042 ,000 a. Lilliefors Significance Correction Puede descartarse la H0, que asume la normalidad de la variable Probabilidad de que sea normal es menor a 0,0005 " no es una distribución normal.
PRUEBAS NO- PARAMÉTRICAS Si hay una desviación clara de la normalidad, la alternativa que tenemos es (olvidarnos de las pruebas de contraste de hipótesis) y usar pruebas no paramétricas o de distribución libre.
Cuando no puede asumirse normalidad, porque la variable se desvía claramente de la normalidad ¿Qué podemos hacer? Aplicar pruebas no-paramétricas, también llamadas de distribución libre, que no necesitan asumir la normalidad de la variable Son más robustas ante este problema pero tienen menor potencia estadística que sus equivalentes basadas en la asunción de normalidad 2n Medicina UPF- UAB NOTA: Existen multitud de pruebas no-paramétricas. Nosotros solo revisaremos las más importantes ! Variables cualitativas- cuantitativas " Pruebas de contraste de hipótesis donde hay una variable cualitativa y otra cuantitativa (" comparar medias) HAY QUE MEMORIZAR ! Variables cuantitativas " Pruebas de contraste de hipótesis donde hay dos variables cuantitativas La mayoría de las pruebas no-paramétricas comienzan obteniendo los rangos (o números de orden) para las distintas observaciones.
Las pruebas suelen ser bastante sencillas y susceptibles de resolverse a mano Los programas de estadística permiten hacer muchas pruebas no paramétricas, que se suelen ordenar según se estudie 1 ó k grupos independientes o relacionadas (casos apareados) - En SPSS   Según el caso se escoge uno u otro.
  2n Medicina UPF- UAB VARIABLES CUALITATIVAS- CUANTITATIVAS ! Pruebas de Mann- -Whitney " es el equivalente a la prueba de t de Student Sirve para comparar la tendencia central en 2 muestras independientes.
Ej.: Se inyecta un producto tóxico a dos cepas de ratones y se mide el tiempo de supervivencia (en horas).
- H0: los ratones de ambas cepas tienen igual tiempo de supervivencia - Ha: los ratones de ambas cepas tienen distinto tiempo de supervivencia Tiempo de supervivencia en horas. Los verdes son una cepa y en azul la otra cepa.
NOTA: Si esto siguiese una distribución normal à t de Student.
1r problema " supervivencia = sobrevive " que valor le damos? Como trabajaremos con rangos, el valor mas alto se le asigna al que sobrevive.
Se comienza por asignar a cada caso un valor de rango, usando ambas muestras.
En caso de empate, se usa un valor intermedio que se asigna a ambos valores El valor de rango asignado a cada valor puede entenderse como el número de orden en una escala ordenada de menor a mayor de todas las observaciones.
2n Medicina UPF- UAB Escala ordenada " NOTA: cuando hay empates, lo que se hace es que el rango se reparte (uno seria el 3ro y el otro el 4to, pero cual a cual?) se asigna 3,5 a ambos.
Al final, se obtiene un valor de rango para cada observación.
Como hay 20 observaciones en total, los valores oscilan entre 1 (el primero que se muere) y 20 (el valor asignado al superviviente) Los valores obtenidos se suman, para cada muestra por separado: R1 = 19 + 14.5 + 9 + 10 + 3.5 + 7 + 6 +12 +17 + 20 R2 = 16 + 8 + 2 + 11 + 1 + 5 + 3.5 + 13 + 14.5 + 18 Lo que se hace es calcular unos estadígrafos a partir de esos rangos con una fórmula.
Los valores de R1 y R2 se usan para calcular unos valores de U, según la fórmula: U1 = n1n2 + n1 (n1 + 1) / 2 − R1 U2 = n1n2 + n2 (n2 + 1) / 2 − R 2 El mínimo U1 y U2, se usa como estadígrafo en unas tablas de valores de “U”, que están tabuladas para α=0.05 y 0.01, n1 y n2 - U ≥ U α,n1,n2 : no rechazamos H0 - U < U α,n1,n2 : rechazamos H0 y aceptamos Ha 2n Medicina UPF- UAB También puede estimarse un valor aproximado de p usando un estadígrafo más complejo y la distribución normal.
En el ejemplo, la suma de rangos son de 118 y 92 (no muy diferentes).
- U1=37 - U2=63 à Luego se usa U=37 (el más bajo) En la tabla, el valor para U con α =0.05 y n1=n2=10 es 23 Como 37>23, no podemos rechazar H y concluimos (con un 95% de confianza) que la diferencia entre 0 ambas cepas no es estadísticamente significativa. Se ha producido por azar.
- En SPSS: Tenemos 2 grupos.
2 maneras de calcular la probabilidad: - Asintótica - Exacta Son valores de p que como son mayores de 0.05, no podemos rechazar la hipótesis nula.
! Prueba de Kruskal- Wallis " Es el equivalente a la prueba ANOVA.
Sirve para comparar y comprobar la tendencia central en k grupos independientes.
Se calcula de un modo muy parecido a la U de Mann-Whitney. Como en ese caso, se comienza por asignar rangos a las observaciones y calcular los Ri .
2n Medicina UPF- UAB Como trabaja con rangos, lo primero a realizar es convertir los valores/ datos originales a dichos rangos.
Ej.: Se estudia el efecto de la diálisis en el tamaño del hígado. Se incluyen en el estudio 3 grupos: individuos sanos, pacientes dializados y no dializados - H0: el tamaño del hígado es el mismo en los tres grupos - Ha: el tamaño del hígado es diferente en los tres grupos Observamos los tamaños del hígado en cada grupo (control, no-diálisis y diálisis) y los rangos aplicados al conjunto de datos. Los rangos se aplican en orden de tamaño creciente: el valor más pequeño en este caso corresponde a 143.0 por este motivo se le atribuye el rango 1. El siguiente valor más alto de 143 es 143.8, por esto se le atribuye el valor 2. Así consecutivamente.
NOTA: ¿Porque utilizan una prueba no paramétrica? En este caso se ha determinado el tamaño del hígado de un modo semicuantitativo mediante una ecografía. Los datos no siguen una distribución normal, por este motivo se decidió utilizar una prueba no paramétrica.
Una vez atribuido los rangos, sumamos los rangos para cada uno de los grupos.
La suma de los rangos para los tres grupos son: - R1 = 54 - R2 = 55 - R3 = 191 Los rangos son más altos en R3 respeto a los otros grupos indicando que es donde encontramos los pacientes con tamaños de hígados más grandes (diálisis). Lo primero es observar y reconocer que hay diferencias, en este caso vemos que los hígados más grandes es en el grupo de pacientes dializados.
Para verificar si estas diferencias observadas son producidas por azar o bien son estadísticamente significativas se realiza un prueba de contraste de hipótesis.
¿Son estadísticamente significativas estas diferencias? A continuación se calcula el estadígrafo H, con la siguiente fórmula: k 12 R i2 H= − 3(n + 1) ∑ n(n + 1) i=1 ni Donde n es el número total de observaciones, agrupadas en k grupos.
El valor de H se compara con una distribución Chi cuadrado con k-1 grados de libertad 2n Medicina UPF- UAB En el ejemplo numérico, H = 14.94 y la probabilidad asociada en una distribución Chi cuadrado con 2 (3-1) grados de libertad < 0.05 Por tanto se concluye que existen diferencias significativas con un nivel de confianza superior al 95% - En SPSS: Observamos 3 grupos correspondientes a 1, 2 y 3. En el grupo 1 y 2 el tamaño de la muestra es 7 individuos mientras que en el grupo 3 son 10 individuos. Al mismo tiempo observamos la media de los rangos donde podemos interpretar cual de los grupos tiene los rangos mayores y por tanto en que tipología de pacientes tenemos los hígados de mayor tamaño.
Después de observar que hay diferencias se realiza la prueba de contraste de hipótesis.
Estadígrafo ! no tiene valor para saber si es estadísticamente significativa la asociación entre las variables.
Sig. asintótica à es una aproximación. 0.001<0.05 la asociación es estadísticamente significativa.
! Pruebas de Wilcoxon de los rangos con signo " Equivalente de la t Student apareada.
  Sirve para comparar la tendencia central en datos apareadas.
NOTA: es importante identificar ante una situación si se trata de datos apareados o no ya que las pruebas/test que se deben aplicar son diferentes.
                    2n Medicina UPF- UAB Ej.: Se desea probar el efecto de un fármaco tópico que presumiblemente acelera la cicatrización. Se practican dos incisiones en un animal de experimentación y se aplica en una de ellas el producto. Se valora el tiempo de curación.
En este caso como tomamos dos medidas sobre el mismo individuo podemos reconocer que se trata de datos apareados.
Verde " corresponde a incisión donde no se aplica producto Azul " corresponde a incisión donde se aplica producto Se observa que mayoritariamente disminuye el tiempo de curación en la incisión donde se aplica producto.
Primeramente se procede a calcular las diferencias entre ambos valores (Ej.: 90 -84= +6) y se les asigna un rango sin tener en cuenta el signo de la diferencia (valor absoluto).
NOTA: Uno de los motivos para utilizar una prueba no paramétrica en este caso es lo de abajo, tenemos un animal que no se cura de modo que de nuevo si no aplicamos un método no paramétrico tendríamos un problema a la hora de asignar un valor a ese individuo. Podríamos eliminar el animal de la experimentación y probablemente podríamos aplicar una t Student pero en este caso no es así.
Ahora se calculan los índices T(+) y T(-) que indican la suma de los rangos positivos y negativos.
Se toma como estadígrafo T de contraste el menor de ambos valores y se compara con una tabla de valores T, que están tabuladas para distintos α y n - T ≥ T α,n: no rechazamos H0 - T < T α,n: rechazamos H0 y aceptamos Ha En el ejemplo, T(+)=51, T(-)=4. Se usa T=4.
El valor crítico de T para α =0.05 y n=10 es 8. Luego 4<T 0.05,10 y es posible rechazar H Por tanto se concluye que existen diferencias significativas NOTA: El valor crítico se encuentra en tablas tabuladas para cada valor de α y n α = riesgo n= grados de libertad 0 2n Medicina UPF- UAB - En SPSS: La suma de los rangos positivos= 51 y negativos=4. Nos quedamos con el 4.
El valor crítico= 8. Como 4< 8 no es posible rechazar la H0 entonces concluimos que si existen diferencia significativas.
Probabilidad de 0.017 existen diferencias significativas.
En SPSS para el contraste lo hace diferente, no utiliza el valor de T sino que le llama Z. Solo nos tenemos que fijar en el valor de p (sig) VARIABLES CUANTITATIVAS ! Coeficiente de correlación de Spearman " Equivalente del coeficiente de correlación de Pearson Se comienza por asignar a cada caso un valor de rango, usando primero una variable y luego la otra.
Ej.: Se busca comprobar si existe correlación entre el contenido de nicotina en sangre en un grupo de individuos (nmol/litro) y el contenido de nicotina de la marca de cigarrillos que consumen (mg/cigarrillo).
En verde tenemos el contenido de nicotina en sangre y en azul la nicotina de los cigarrillos. Para ver si están correlacionados lo primero es asignar rangos en un lado y en el otro y vemos cual es el valor más bajo, los dos siguientes más bajos y así sucesivamente substituyendo todos los valores por rangos. Lo esperable es que si ambas variables están muy correlacionadas tendrán valores de rangos muy similares. El 192,8 es el tercero respecto al contenido de nicotina en sangre y el segundo en cigarrillos. Si no están correlacionados el primero de una cosa será el quinta de a otra por ejemplo.
2n Medicina UPF- UAB Si ambas variables están correlacionadas, las observaciones tendrán rangos similares para ambas variables El coeficiente de correlación se calcula con una fórmula muy parecida a la usada para el coeficiente de correlación de Pearson, pero usando rangos (rx y ry) en vez de los valores x e y.
rs = Cuando no [n∑ r 2 x n∑ rx ry − ∑ rx ∑ ry ][ − (∑ rx )2 . n∑ ry2 − (∑ ry )2 ] existen valores coincidentes y los rangos son números enteros, puede usarse una fórmula simplificada: rs = 1 −         6∑ di2 donde di es la diferencia entre rx y ry para la observación i n(n2 − 1) La correlación de Spearman toma valores que oscilan entre -1 y +1 (al igual que la correlación de Pearson) o +1 " Correlación lineal directa perfecta o 0 " Sin correlación lineal aparente o – 1 " Correlación lineal inversa perfecta Solamente es un valor descriptivo que nos dice la intensidad de asociación, no nos dice si es estadísticamente significativo. Para ello debemos hacer u contraste de hipótesis.
  rs es un estimador del parámetro poblacional ρs. Para comprobar su significancia estadística puede aplicarse una prueba de contraste de hipótesis: - H 0: ρ s = 0 - H a: ρ s ≠ 0 Ρ= valor poblacional del coeficiente de correlación de Spearman.
No hay una prueba especifica para comprobar las hipótesis, sino que se compara con valores tabulados sin estadígrafos. Tablas donde esta los valores rs para diferentes valores de grados de libertad.
Grados de libertad= tamaño de la muestra - 2 El valor de rs obtenido se compara con valores críticos tabulados, de modo que cuando el valor de rs < rgdl,α no es posible rechazar la H0   Los valores críticos de r están tabulados para distintos grados de libertad y α .
s Los grados de libertad se calculan como n-2     2n Medicina UPF- UAB   En el ejemplo numérico se obtiene una ligera correlación positiva: - rs = 0.27 Para (10-2) grados de libertad y 95% de confianza, el valor crítico de rs es 0.55.
Por lo tanto no puede rechazarse la H0 y se concluye que no existe una asociación estadísticamente significativa.
- En SPSS: Observamos una Tabla de 2x2 donde pone la correlación de cada una de las variables. A la hora de interpretarlo siempre fijarnos en el triangulo inferior izquierdo.
Coeficiente de correlación Spearman ! indica la intensidad de asociación entre las variables. En este caso se observa que no es cercano a 1 por lo tanto la correlación no es perfecta y la intensidad de asociación es baja.
Sig (bilateral)= valor de p ! indica si la correlación es estadísticamente significativa. En este caso 0.446> 0.05, por tanto la asociación entre las variables no es estadísticamente significativa.
Ej.: Se estudia la correlación entre la edad y la capacidad respiratoria (CVR) en 10 individuos sanos.
En el gráfico que hay una correlación inversa.
Se observa una correlación bastante clara: - r Pearson = -0.929 - r Spearman = -0.930 Se muestra como realmente los dos coeficientes no nos dicen cosas muy distintas. Esto es porque en este caso podemos aplicar tanto pruebas paramétricas como no paramétricas.
Ambos son estadísticamente significativos (ρ≠ 0 y ρs ≠ 0) a un nivel de confianza mayor del 99% El signo negativo indica que la relación es inversa, es decir que al aumentar la edad disminuye la capacidad respiratoria 2n Medicina UPF- UAB CONCLUSIONES - La mayoría de las pruebas no-paramétricas se basan en convertir las variables cuantitativas originales en valores de rango - Son una alternativa a las pruebas paramétricas en situaciones donde la condición de normalidad claramente no se cumple.
- El precio a pagar es una menor potencia estadística. Siempre las pruebas no paramétricas tienen menor potencia estadística por eso siempre que se pueda se recomienda usar pruebas paramétricas.
...