Apuntes completos de Psicometría (parte II) (2015)

Apunte Español
Universidad Universidad Autónoma de Madrid (UAM)
Grado Psicología - 3º curso
Asignatura Psicometria
Año del apunte 2015
Páginas 10
Fecha de subida 21/07/2017
Descargas 0
Subido por

Vista previa del texto

PSICOMETRÍA d) Responden 400 personas y sólo 40 saben la correcta  A: 90 | B: 90 | C: 130 | D: 90 De los 360 que no saben la respuesta y que responden al azar, sus respuestas se reparten en las cuatro opciones de respuesta.
Ej.: Análisis gráfico de las opciones de respuesta Hay que dividir nuestra muestra en el test en varios subgrupos (3 ó 5). Con este gráfico sabemos que la opción 1 es un distractor que funciona bien: la eligen mucho los que saben poco. La opción 2 es la opción correcta ya que la eligen más, en concreto, los que más saben. En la opción 3 no hay diferencias entre los subgrupos: la eligen muy pocos, lo que indica que es un distractor malo.
La alternativa correcta debe ser, habitualmente, la más elegida, pero los distractores también deben ser elegidos (al menos un 5% de la muestra).
g. Índice de validez (Vj) Se llama índice de validez de un ítem a la correlación entre las puntuaciones en el ítem y el criterio externo Y. Y es la variable criterio, es decir, la variable que queremos predecir con el test El índice de validez de un ítem indica la capacidad de ese ítem para predecir un criterio. Si el índice de validez es igual a 0, el ítem no es nada válido (lo debemos eliminar), mientras que si el índice de validez adquiere un valor cercano a +1 o -1 el ítem es muy válido. Elevado al cuadrado indica la proporción de la varianza de Y que puede explicarse por el ítem. Por tanto, la capacidad predictora de un ítem no depende del signo de Vj; lo que determina el signo es el tipo de relación (directa o inversa). Por ejemplo, nuestra variable criterio (Y) es el desempeño laboral: Ítem 1: puntualidad – V1 = r Y, 1 > 0 Ítem 2: absentismo – V2 = r Y, 2 < 0 5. Corrección de los aciertos por azar Esta corrección es la que te permite eliminar de cada puntuación los aciertos por azar. Siendo Xc la puntuación del test corregida, X la puntuación del test original, la F los fallos y la K el número de opciones de cada ítem. Por ejemplo, hacemos un examen de chino mandarín con un nivel de chino nulo. El test tiene 1000 preguntas de 4 opciones cada una, por lo que, respondiendo al azar, mis aciertos en el examen serán 250, aunque la puntuación que reflejaría mi nivel de conocimientos sería 0. Por tanto: 𝑋𝑐 = 250 − 750 4−1 = 250 − 250 = 0 Para que este modelo funcione los distractores tienen que Nº de alternativas Descuento por fallo ser muy buenos. El modelo asume que solo se cometen 2 1 errores si se responde al azar, lo que es incorrecto, ya que 3 0.5 lo que sucede normalmente es que tenemos conocimientos 4 0.33 incompletos. Este modelo puede introducir sesgos, porque 5 0.25 estamos desanimando a que se responda al azar. Si no sabemos nada no vamos a contestar, ya que la probabilidad de acertar es 0.25 y me van a descontar 0.33 si fallo (vamos a perder más que a ganar). Ahora bien, si sé que una de las opciones es incorrecta, mi PSICOMETRÍA probabilidad de acierto es 0.33, igual que lo que me van a descontar si fallo. Si sé que dos respuestas son incorrectas, mi probabilidad de acierto es de 0.5 y el descuento es de 0.33, por lo que tendría más probabilidades de ganar que de perder. El problema es que mi elección depende de mi aversión al riesgo (rasgo de personalidad), no de mis conocimientos; entonces, si soy aversor al riesgo no voy a contestar si dudo y voy a utilizar menos mis conocimientos parciales. Otro problema es que, al utilizar esta fórmula, se puede introducir varianza irrelevante al constructo, como la aversión al riesgo (los hombres tienden a arriesgar más que las mujeres). No obstante, lo más recomendable es aplicarla:  Reduce el número de respuestas al azar  Es deshonesto instruir a responder a lo que no se sabe  Las respuestas erróneas nos informan sobre lo que un estudiante no ha llegado a aprender, ya que si, a pesar del descuento, ha elegido una opción es porque la considera correcta.
6. Algunas cuestiones adicionales a. Demostración del modelo de corrección de aciertos por azar P (Aa) = 1 / K  Probabilidad de acertar P (F) = 1 – (1 / K) = (K – 1) / K  Probabilidad de fallar Aa = Ra · P (Aa)  siendo Aa el número de aciertos por azar y Ra las respuestas al azar que da una persona F = Ra · P (F) = Ra · ((K – 1) / K)  Ra = F · (K / (K – 1))  las respuestas al azar que da una persona dependen de los fallos y del número de opciones de cada ítem Aa = F · (K / (K – 1)) · (1 / K) = (F · K) / K·(K – 1) b. Índice de dificultad corregido Este índice se utiliza para descontar los aciertos producidos por azar. Siendo pj el índice de dificultad (proporción de aciertos), Fj los fallos en cada ítem y N el número de personas que han respondido al ítem, pcj ≤ pj . En el caso de que el sujeto no falle ningún ítem, ambos índices tendrían el mismo valor.
c. Índices de discriminación: correlación de Pearson y correlación biserial Podemos obtener la correlación ítem-test e ítem-resto del test calculando la correlación de Pearson, la correlación biserial puntual (rbp) o la correlación biserial (rb).
 La correlación de Pearson y la correlación biserial puntual (rbp) proporcionan el mismo valor.
 La correlación de Pearson (biserial puntual) es menor que la correlación biserial (rb) para unos mismos datos.
 Por ejemplo, si la correlación biserial fuese 0.7, la correlación de Pearson sería menor: 0.56 < 0.8 · 0.7 PSICOMETRÍA Ej.: Indicadores de discriminación de 14 ítems Podemos observar que los distintos índices ordenan los ítems de modo muy similar.
d. Programas para el análisis de ítems: TAP (más recomendado) y CIA PSICOMETRÍA TEMA 3. Modelo Clásico y Fiabilidad 1. Supuestos fundamentales de la TCT Las bases de la Teoría Clásica de los Tests las estableció Spearman en 1904 con el objetivo de establecer una base matemática a las diferencias individuales. Con este modelo se introduce la distinción entre la puntuación observada (la que sacas en un test) y la puntuación verdadera (tu verdadero nivel de rasgo).
Toda medición implica cometer un error, pero hay que intentar que la puntuación observada sea igual a la puntuación verdadera, es decir, que el error de medida sea lo más próximo a 0.
Xif : puntuación empírica u observada de un sujeto i en el test f Vi : puntuación verdadera o nivel real del sujeto i Eif : error de medida cometido en la medición; diferencia entre el nivel observado y el real Al aplicar el test solo se observa X, las puntuaciones V y E son desconocidas y, por tanto, no observables.
 Primer supuesto. La puntuación observada de una persona i en una forma f de un test se descompone linealmente en dos componentes hipotéticos: la puntuación verdadera de la persona (Vi), que es una constante para cada persona i, y el error de medida que se comete al medir el rasgo con el test f (Eif).
Xif = Vi + Eif  X = V + E   La puntuación verdadera refleja la puntuación en el atributo tal y como lo mide un test con esas especificaciones; esto quiere decir que las puntuaciones verdaderas de una persona en dos tests con distintas especificaciones (ej.: distinto nº de ítems) no será iguales.
Segundo supuesto. Los errores de medida son aleatorios: unas veces son positivos, por sobreestimación de la puntuación verdadera, y otras veces negativos, por subestimación), por lo que la media o valor esperado de los mismos debe ser 0. Si los errores fueran sistemáticos, tenderían a ser siempre positivos o negativos, por lo que la media no sería 0.
Esto equivale a decir que los errores que cometemos no son sistemáticos. Los errores pueden ser propios de la persona (estado de la persona: salud, motivación, ansiedad, concentración, etc.), propios de la situación (condiciones de realización del test) y propios del test (preguntas concretas). Los errores propios de la persona son muy difíciles de controlar, mientras que los errores propios de la situación y del test sí que dependen de nosotros.
Tercer supuesto. Los errores y las puntuaciones verdaderas son independientes, es decir, que los errores que cometemos no dependen de nuestro conocimiento. Siendo ρ el parámetro que representa el estadístico de la correlación, Ef los errores de medida y Vf las puntuaciones observadas, este supuesto tiene la siguiente consecuencia.
X = V + E  𝝈𝟐𝒙 = 𝝈𝟐𝑽 + 𝝈𝟐𝒆  𝜎𝑥2 = 𝜎𝑉2 + 𝜎𝑒2 + 2 · 𝜎𝑉𝑒 Si la correlación entre los errores de medida y las puntuaciones observadas es igual a O, la covariación entre ambos también es 0   Cuarto supuesto. Correlación nula entre errores de medida en tests distintos.
Es decir, si nosotros le pasamos un test a un sujeto obtendremos un determinado error de medida, el cual no tiene que correlacionar con el error de medida que obtengamos al pasarle al mismo sujeto un segundo test.
Quinto supuesto. Correlación nula entre los errores de medida y la puntuación verdadera en tests distintos.
Todos los supuestos de la TCT se cumplen si los errores de medida son aleatorios PSICOMETRÍA  Ej.: Un sujeto obtuvo una puntuación de 25 en un test. Sabiendo que la puntuación verdadera es cuatro veces la errónea, ¿cuánto valdrán ambas? X = 25 ; V = 4·E  X = V + E ; 25 = 4·E + E ; 25 = 5·E ; E = 5 V = X – E ; V = 25 – 5 = 20  Ej.: La puntuación media de los universitarios madrileños en un test de inteligencia es de 119.
Esto significa que, si se cumplieran los supuestos del modelo clásico, el verdadero nivel medio de esa población: o Es 119 o Es mayor que 119 o Es menor que 119 2. Concepto de formas paralelas Dos formas paralelas X1 y X2 de un test se definen como tales mediante dos condiciones:  Un individuo tiene la misma puntuación verdadera en ambas formas Vi1 = Vi2  𝑉̅1 = ̅̅̅ 𝑉2  ̅̅̅ 𝑋1 = ̅̅̅ 𝑋2  𝑋̅ = 𝑉̅  La varianza de los errores de medida en ambas formas es la misma Es decir, los dos tests miden con la misma precisión. En la práctica, para que dos tests sean formas paralelas, tienen que cumplirse las siguientes condiciones: I.
Tienen que tener el mismo número de ítems, pero los ítems tienen que ser distintos II.
Tienen que tener las mismas especificaciones de contenido III.
Las formas paralelas tienen que tener la misma media, varianza, covarianza y correlación Ej.: Tenemos 3 formas paralelas de un test que llamamos A, B y C. Unimos las formas A y B y formamos un nuevo test al que llamamos D. ¿Serán el test D y el C formas paralelas? No, porque no se cumplen las propiedades estadísticas: no van a tener la misma media. Es decir: ̅ = 𝐴̅ + 𝐵̅ ; si tenemos en cuenta que, al ser formas paralelas, las medias de A, B y C son iguales, 𝐷 ̅ = 𝐶̅ + 𝐶̅ ; el test D tiene el doble de media que el test C y, por ende, que el test A y B.
entonces: 𝐷 Tampoco tiene la misma varianza, ya que las varianzas de A, B y C son iguales.
𝜎𝐷2 = 𝜎𝐴2 + 𝜎𝐵2 + 2 · 𝜎𝐴𝐵 = 2 · 𝜎𝐶2 + 2 · 𝜎𝐴𝐵 3. El coeficiente de fiabilidad Es la correlación entre las puntuaciones de dos formas paralelas de un test. Si las puntuaciones obtenidas en dos formas paralelas son precisas parece razonable esperar una correlación elevada. Si ambas correlacionasen de forma mínima, no podríamos fiarnos de que reflejasen fidedignamente los niveles de rasgo verdaderos. Por tanto, el coeficiente de fiabilidad es un indicador de precisión.
Si la correlación entre dos formas paralelas es igual a 1 es que hemos construido dos formas perfectas, ya que el error de medida es igual a 0. Se trataría de un test con fiabilidad perfecta, pero esto nunca ocurre en la vida real. Ahora bien, a más errores de medida en cada forma del test, la correlación de ambos más se acercará a 0. El coeficiente de fiabilidad indica la proporción de la varianza empírica atribuible a la variabilidad en el verdadero nivel de rasgo.
Por ejemplo, si la correlación entre dos formas de un test es 0.83, el 83% de la varianza de las puntuaciones observadas en cualquiera de las formas es debida a la variabilidad del verdadero nivel de rasgo, mientras que el 17% de la varianza de las puntuaciones observadas es debida al error de medida.
A pesar de ser una correlación de Pearson, el coeficiente de fiabilidad no puede tomar valores negativos, ya que es el cociente de dos varianzas, y las varianzas no pueden ser negativas. Por tanto, el coeficiente de fiabilidad puede tomar valores entre 0 y 1.
Si toma valores próximos a 0, la fiabilidad del test es nula, y si toma valores próximos a 1 la fiabilidad del test es perfecta. El mínimo aceptable es 0.7, aunque depende del uso del test.
PSICOMETRÍA El índice de fiabilidad siempre va a ser mayor que el coeficiente de fiabilidad, ya que es resultado de la raíz cuadrada del coeficiente de fiabilidad, que es un valor decimal. No debemos confundirlos.
Ej.: En un test la varianza de puntuaciones verdaderas explica el 100% de las puntuaciones obtenidas.
Un sujeto obtiene una puntuación empírica de 30 puntos. ¿Cuánto valdrá su puntuación verdadera? Y el error de medida? X = 30  V = 30 ya que la varianza de las puntuaciones verdaderas explica el 100% de las puntuaciones obtenidas. Por lo tanto, el error de medida para todos los sujetos es igual a 0.
Ej: Se sabe que la desviación típica de las puntuaciones verdaderas de un test es 3 puntos y que la varianza de los errores de medida es 15. ¿Cuánto vale el coeficiente de fiabilidad de dicho test? 𝜎𝑥2 = 𝜎𝑉2 + 𝜎𝑒2 = 32 + 15 = 24 𝜎2 ρ𝑥𝑥 = 𝑣2 = 9⁄24 = 0.375 𝜎𝑒 Este coeficiente de fiabilidad nos indica que la varianza de puntuaciones verdaderas explica el 37.5% de las puntuaciones obtenidas. Por ello, el test tiene que ser desechado: un 62.5% de la varianza se debe a los errores de medida.
Consecuencias de la mayor o menor fiabilidad: Se han obtenido por simulación estadística las puntuaciones de 1000 estudiantes en tres exámenes de opción múltiple de 50 preguntas cada uno; uno de fiabilidad 0.88, otro de 0.62 y otro de 0.32. Se ha fijado el punto de corte para el aprobado en 20 aciertos, y el objetivo es ver cómo cambia la proporción de errores de calificación en los tres exámenes cuando baja la fiabilidad.
Un 80% de los estudiantes han aprobado el examen y han sido bien puntuados. Un 12% ha suspendido el examen pero también han sido bien puntuados.
Un 4% han sido aprobados y deberían haber suspendido y otro 4% han suspendido y deberían haber aprobado.
Un 72% de los estudiantes han aprobado el examen y han sido bien puntuados. Un 12% ha suspendido el examen pero también han sido bien puntuados.
Un 6% han sido aprobados y deberían haber suspendido y otro 10% han suspendido y deberían haber aprobado.
Un 66% de los estudiantes han aprobado el examen y han sido bien puntuados. Un 11% ha suspendido el examen pero también han sido bien puntuados.
Un 6% han sido aprobados y deberían haber suspendido y otro 17% han suspendido y deberían haber aprobado.
PSICOMETRÍA 4. Fiabilidad y longitud de un test Los parámetros de la población en una forma paralela (J ítems) podemos designarlos como: Sea ahora un test final compuesto por las n formas paralelas. Los nuevos parámetros poblacionales (n · J ítems) serán: Conociendo los parámetros de una forma paralela podremos obtener los parámetros del test alargado.
 La varianza empírica del test formado por n formas paralelas será:  La varianza verdadera del test formado por n formas paralelas será:  La varianza error del test formado por n formas paralelas será: A partir de las expresiones anteriores, y recordando que el coeficiente de fiabilidad es el cociente entre la varianza verdadera y la varianza empírica, podemos obtener el coeficiente de fiabilidad de las puntuaciones de un test alargado n veces: Esta expresión se conoce como fórmula de Spearman-Brown, y permite obtener el coeficiente de las puntuaciones en un test compuesto por n formas paralelas. Esta fórmula nos permite responder a la pregunta: ¿cuánto vale la fiabilidad de un test alargado tres veces? Si queremos responder a la pregunta: ¿cuántas formas paralelas tengo que añadirle a mi test para que tenga un coeficiente de fiabilidad de x? Es mejor utilizar la fórmula con la n despejada.
Según la fórmula de Spearman-Brown, el coeficiente de fiabilidad aumenta al alargar un test. Esto ocurre porque, al añadir n – 1 formas paralelas, la varianza debida a las puntuaciones verdaderas se incrementa más rápido que la varianza debida a los errores.
Coeficiencia de fiabilidad Efecto de aumentar la longitud del test n veces 1 0,9 0,8 0,7 0,6 0,5 0,4 1 2 3 4 5 6 7 8 9 10 Formas paralelas Esta gráfica nos indica que la fiabilidad no crece en la misma medida por cada forma paralela que añadimos al test original. Es decir, siempre añadimos el mismo número de ítems, pero la fiabilidad no siempre crece en la misma medida. El incremento en fiabilidad por añadir una nueva forma paralela es menor cuanto más fiable es el test.
Ej.: La gráfica siguiente muestra el incremento en fiabilidad que se produce en 5 tests diferentes al alargarlos hasta 16 veces. ¿Cuáles son las fiabilidades iniciales de los tests? ¿En qué test se ha producido un mayor incremento en la fiabilidad? En el test 1 se ha producido un mayor incremento en la fiabilidad porque la fiabilidad inicial era la más baja, al contrario que en el test 5.
PSICOMETRÍA 5. Aproximaciones a la estimación de la fiabilidad La fiabilidad es el grado de estabilidad, precisión o consistencia de un instrumento de medida. En la práctica, la fiabilidad puede estimarse de las siguientes formas: a. Fiabilidad como equivalencia entre formas paralelas La correlación de dos formas paralelas de un test (rxx), en este caso rx1, x2, se denomina coeficiente de equivalencia, es un tipo de coeficiente de fiabilidad e indica la equivalencia entre formas paralelas. Se interpreta como la proporción de varianza de las puntuaciones en el test que se debe a la variabilidad en el verdadero nivel de rasgo de los sujetos. El problema es que calcular este coeficiente es muy costoso y es insensible a los errores debidos a factores transitorios, como la salud, la motivación, etc.
Ej.: ¿Cuánto valdrá el coeficiente de fiabilidad de un test si la varianza de las puntuaciones obtenidas en el test fuese el doble de la varianza verdadera? 𝜎𝑥2 = 2 · 𝜎𝑣2  𝜌𝑥𝑥 = 𝜎𝑣2 𝜎𝑥2 = 𝜎𝑣2 2 · 𝜎𝑣2 = 1 2 = 0.5 Este dato nos indica que el 50% de la varianza de las puntuaciones en el test se debe a la variabilidad en el verdadero nivel de rasgo de los sujetos.
¿Cuánto valdrá el coeficiente de fiabilidad de un test si el 70% de la variabilidad de las puntuaciones en el test se debiese a las puntuaciones verdaderas? 𝜌𝑥𝑥 = 0.70 b. Fiabilidad como estabilidad temporal rxx = rprimera, segunda indica la estabilidad temporal de las medidas, por lo que no informa sobre la consistencia. El coeficiente de fiabilidad test-retest debería ser positivo y alto, y para poder utilizarlo hay que tener en cuenta que:  El objetivo de medida debe ser un rasgo estable  Se deben dejar periodos relativamente largos entre el test y el retest para evitar el recuerdo  Si el periodo es excesivamente largo pueden intervenir factores de tipo madurativo  La determinación del intervalo temporal entre aplicaciones es importante y debe informarse  Es un método costoso e insensible a los errores debidos a la especificidad de los ítems.
Es decir, la puntuación en un test siempre depende un poco de las peculiaridades de los ítems que lo forman Por tanto, no sería adecuado calcular el coeficiente de fiabilidad test-retest en un test que mida “estado de ansiedad” ya que se trataría de un rasgo inestable en el tiempo.
Un test puede tener un coeficiente de fiabilidad test-retest adecuado pero un coeficiente de equivalencia inadecuado, y viceversa, ya que ambos indicadores de fiabilidad son sensibles a las distintas fuentes de error.
Ej.: El equipo pedagógico de un colegio ha diseñado una prueba para medir el grado de adaptación de niños con problemas de comunicación. Aplican la prueba al comienzo del curso a una muestra de niños de6ºA. Transcurridos tres meses, vuelven a aplicar la prueba a los niños de 6ºB. La correlación entre ambas aplicaciones fue 0,15, por lo que concluyen que la PSICOMETRÍA prueba presenta una baja fiabilidad entendida como estabilidad temporal. ¿Está de acuerdo con la decisión del equipo de psicopedagogos? No, ya que no se ha aplicado a la misma muestra. No hay nada más que añadir.
c. Fiabilidad como consistencia interna Es el grado en que correlacionan entre sí diferentes partes del cuestionario.
i. Método de las dos mitades Se divide el test en dos mitades, por ejemplo, los ítems pares por un lado y los ítems impares por otro, para garantizar la equivalencia de las dos mitades. Si ambas mitades son formas paralelas, la fórmula de Spearman-Brown debería de cumplirse: rXpXi es el coeficiente de fiabilidad de mi mitad par e impar, pero no va a ser el coeficiente de fiabilidad de todo el test, que será mayor.
Este método nos indica la consistencia entre las dos mitades, siempre y cuando ambas sean formas paralelas. No es adecuado para estimar la fiabilidad en tests de velocidad, en los que todos los ítems son iguales (la dificultad es la misma), y si hay ítems que hacen referencia a un estímulo común (testlets), es recomendable mantenerlos en la misma mitad para no sobreestimar α. Además, es insensible a los errores debidos a efectos transitorios ya que lo aplicamos una sola vez y los efectos afecta a todos los ítems, pares e impares.
Ej.: El 78% de la varianza de las puntuaciones en el test se debe a la variabilidad en el verdadero nivel de rasgo Ej.: Un psicólogo escolar desarrolla un cuestionario de 72 ítems para medir la motivación de logro. Encontró que la correlación entre los ítems pares e impares era 0.69. ¿De qué nos está informando este dato? A partir de este indicador, ¿podría decirse que la fiabilidad de la prueba es adecuada? Este dato nos informa de la fiabilidad entendida como consistencia interna de cada una de las dos mitades del test, es decir, de la fiabilidad de la mitad par e impar del test.
= 2 · 0.69 = 0.82  1+0.69 La fiabilidad de la prueba es adecuada, pero el test es demasiado largo.
ii. Coeficiente alfa de Cronbach Es un indicador del grado de covariación media entre los ítems. Si los J ítems fuesen paralelos, entonces se cumpliría la fórmula de SpearmanBrown, en la que pjl es la correlación entre dos ítems cualesquiera del test. La idea que subyace al coeficiente de Cronbach es la misma que la del método de las dos mitades, salvo que en este caso tenemos tantas partes del test como ítems tenemos. Para calcular el coeficiente se pueden utilizar dos fórmulas: Donde J es el número de ítems del test, Sj2 es la varianza de los ítems y S jl es la covarianza de dos ítems cualesquiera del test.
PSICOMETRÍA Ej.: Calcule el coeficiente alfa del test de 6 ítems 𝛼= 2·∑ 𝑆𝑗𝑙 𝐽 ·( 2 ) 𝐽−1 𝑆𝑥 = 6 · 6−1 (1 − 0.19+0+0.19+0.19+0.19+0.25 ) 3.67 = 1.2 · (1 − 1.01 ) 3.67 = 1.2 · (1 − 0.275) = 0.87 El coeficiente de Cronbach es un indicador de fiabilidad, pero no es ni un coeficiente de fiabilidad ni un índice de fiabilidad. Es decir, los indicadores de fiabilidad son el coeficiente de fiabilidad, el índice de fiabilidad y el coeficiente de Cronbach Ej.: Se presenta la matriz de varianzas-covarianzas para los ítems de un test: Obtenga un indicador de la fiabilidad del test.
2 · ∑ 𝑆𝑗𝑙 𝐽 4 2 · (−1.33 + 0.33 + 2.17 − 0.33 − 1.33 + 0.83) 𝛼= ·( )= ·( ) 2 𝐽−1 3 2 + 1 + 1.7 + 3.58 𝑆𝑥 4 2 · 0.34 4 = ·( ) = · 0.082 = 0.109 3 8.28 3 Hemos obtenido una α muy baja, lo que nos indica que la fiabilidad del test es también muy baja. Además, las covariaciones negativas nos indican que hay un problema.
       El coeficiente alfa de siempre toma valores menores o iguales a 1, ya que la covarianza entre dos ítems nunca puede ser mayor que las varianzas de éstos (ya que el numerador nunca puede ser mayor que el denominador). Generalmente, toma valores entre 0 y 1 pero puede ser negativo. Valores del coeficiente próximos a 1 indican fiabilidad alta; valores próximos a 0, fiabilidad baja.
La cuantía del coeficiente α depende de dos factores principalmente: o Consistencia interna o grado de covariación (correlación) promedio entre los ítems. Como es lógico, un grado de covariación mayor entre dos ítems implica que el efecto de aplicar uno u otro para puntuar a las personas es menos importante. El grado de covariación será mayor si los ítems están midiendo una única dimensión o rasgo (o dimensiones distintas pero correlacionadas) y mayor cuanto mejor reflejen esa dimensión. Sin embargo, α, por sí solo, no constituye un indicador de unidimensionalidad ya que se pueden estar midiendo distintas dimensiones correlacionadas y la covariación promedio puede ser alta incluso aunque un conjunto reducido de ítems no covaríen con el resto.
o Número de ítems. El coeficiente α será mayor cuanto mayor sea el número de ítems.
El coeficiente α no es un coeficiente de fiabilidad, sino una estimación por defecto (a la baja) del coeficiente de fiabilidad. Por lo tanto, toma valores menores o iguales que el coeficiente de fiabilidad como consistencia interna.
Valores muy elevados de α (> 0.90) pueden indicar ítems con contenido redundante.
Hay que evitar aumentar α incluyendo ítems redundantes El coeficiente α no es adecuado para estimar la fiabilidad en tests de velocidad, en cuyo caso es recomendable utilizar el coeficiente de fiabilidad test-retest.
Si hay ítems que hacen referencia a un estímulos común (testlets) se puede calcular el coeficiente α tomando los testlets como ítems.
El coeficiente α no es sensible a los errores debidos a efectos transitorios.
Sabemos que dos ítems son independientes porque sus covarianzas son 0 y, por tanto, sus correlaciones también.
Los 6 ítems miden una dimensión Los 6 ítems miden dos dimensiones ...

Tags:
Comprar Previsualizar