Apuntes completos de Psicometría (parte IV) (2015)

Apunte Español
Universidad Universidad Autónoma de Madrid (UAM)
Grado Psicología - 3º curso
Asignatura Psicometria
Año del apunte 2015
Páginas 10
Fecha de subida 21/07/2017
Descargas 0
Subido por

Vista previa del texto

PSICOMETRÍA evaluada en un conjunto de constructos, medidos cada uno con un conjunto de métodos diferentes. La matriz MRMM incluye todas las correlaciones entre condiciones de medida. El objetivo de estudiar una matriz MRMM es evaluar los efectos de la varianza atribuida al constructo de interés y la varianza del método (varianza atribuible al método de medida específico), ya que el efecto del método altera las correlaciones entre los constructos introduciendo sesgos sistemáticos. Idealmente, una medida no debería contener efecto del método.
Organización de las matrices MRMM La selección de rasgos y métodos debe hacerse de modo que: a) Cada uno de los métodos sea adecuado para medir todos los constructos de interés b) Los diferentes métodos sean lo más independientes posible entre sí c) Los constructos incluidos varíen en el grado de asociación entre ellos, con constructos altamente relacionados y otros en los que la asociación sea muy baja El objetivo de estas recomendaciones es establecer las condiciones para que las correlaciones entre las puntuaciones de diferentes rasgos, medidos con distintos métodos, se aproximen a 0.
Método 1 Método 2 Constructo A Constructo B Constructo C Constructo A Constructo B Constructo C Constructo A (0.98) 0.62 0.19 0.75 0.59 0.19 Método 1 Constructo B Constructo C Constructo A Método 2 Constructo B Constructo C (0.95) 0.17 0.60 0.86 0.18 (0.93) 0.18 0.17 0.74 (0.95) 0.60 0.21 (0.94) 0.20 (0.95) Para interpretar esta matriz hay que identificar 4 regiones o grupos de correlaciones: I.
El primer grupo está formado por las correlaciones obtenidas entre los mismos constructos usando los mismos métodos (datos entre paréntesis). Son las correlaciones monorrasgomonométodo y conforman la diagonal de la fiabilidad. Estos coeficientes deberían ser, de modo consistente, los más altos de la matriz, porque es poco probable que una medida correlaciones más con cualquier otra cosa que consigo misma. En nuestro ejemplo, las correlaciones varían entre 0.93 y 0.98 indicando valores elevados de la fiabilidad.
II.
El segundo grupo lo forman las correlaciones entre las medidas del mismo constructo cuando se utilizan distintos métodos (datos en negrita). Son las correlaciones monorrasgoheterométodo, muestran evidencia sobre la convergencia y constituyen la diagonal de la validez. Estas correlaciones son tomadas como indicadoras de evidencia convergente porque nos informan del grado en que diferentes métodos son congruentes al medir el mismo constructo. Estas correlaciones deberían ser significativamente distintas de 0 y lo suficientemente altas para que tenga sentido continuar un análisis de la validez. En nuestro ejemplo, estas correlaciones son altas (varían entre 0.74 y 0.86) lo que sugiere que los diferentes métodos producen resultados similares para los tres constructos. El hecho de que estas correlaciones sean elevadas es una condición necesaria, pero no suficiente, para asegurar la convergencia. Es posible que estas correlaciones estén sobreestimadas por un factor irrelevante (por ejemplo, la varianza del método), y por eso es necesario examinar las correlaciones que nos proporcionan evidencia sobre la divergencia, como se indica a continuación.
III.
El tercer grupo lo componen las correlaciones entre distintos constructos medidos con el mismo método (datos en cursiva) o correlaciones heterorrasgo-monométodo. Nótese que estas correlaciones forman triángulos situados de forma adyacente a cada diagonal de la fiabilidad.
Los valores en la diagonal de la validez deberían ser más altos que los valores de los triángulos PSICOMETRÍA IV.
heterorrasgo-monométodo, porque distintos métodos evaluado un mismo rasgo deberían correlacionar más que el mismo método evaluando rasgos distintos. Si no ocurriese esto, el método de medida explicaría una parte importante de varianza de las puntuaciones. Se debe cumplir también que las correlaciones monorrasgo-heterométodo sean más altas que las obtenidas en los triángulos heterorrasgo-monométodo para la misma fila o columna.
Esencialmente, si diferentes métodos están midiendo el mismo constructo, sus correlaciones deberían ser mayores que las de constructos distintos que están medidos usando métodos distintos. Por ejemplo, en nuestra matriz 0.75 es mayor que las correlaciones de su fila (0.60 y 0.18); y también es mayor que las correlaciones de su columna (0.59 y 0.19).
El cuarto grupo está formado por las correlaciones entre distintos constructos y distintos métodos, correlaciones en las que no se comparte ni el constructo ni el método, es decir, correlaciones heterorrasgo-heterométodo. Nótese que forman triángulos adyacentes a la diagonal de la validez y que ambos triángulos no son iguales. Para terminar de interpretar la matriz MRMM, el investigador debe comparar los triángulos heterorrasgo-monométodo y heterorrasgo-heterométodo, ya que si dos rasgos están correlacionados, esta relación debería mantenerse con independencia del método utilizado para medirlos y el mismo patrón debería estar visible en todos los bloques monométodo y heterométodo. Además, para aquellos constructos que estén correlacionados, las correlaciones heterorrasgo-heterométodo deberían ser más altas que para los constructos que no lo estén. En nuestro ejemplo, si medimos los constructos con el mismo método, encontramos que las relación entre los constructos A y B es más alta (0.62 y 0.60) que la existente entre los constructos A y C (0.19 y 0.21) y también que la obtenida entre los constructos B y C (0.18 y 0.20). Al comparar las relaciones entre los constructos cuando son medidos con distintos métodos, la relación entre los constructos A y B sigue siendo mayor que la obtenida con los constructos A y C y los constructos B y C. También se obtiene evidencia sobre el efecto del método al examinar la magnitud diferencial de las correlaciones entre dos constructos diferentes medidos por el mismo método y las correlaciones entre los mismos dos constructos medidos por distintos métodos. Por ejemplo, los constructos A y B correlacionan 0.62 o 0.60, según se midan con el Método 1 o con el Método 2. Si se miden con métodos distintos, las correlaciones difieren muy poco (0.59 y 0.60).
Esto es un análisis descriptivo de una matriz MRMM, pero también se puede hacer un análisis estadístico ¿Qué medidas consiguen la menor fiabilidad? Buscando en la diagonal de la fiabilidad encontramos que las medidas que consiguen la menor fiabilidad son las medidas de autocontrol, 0.54 con el Método 1 (Likert), 0.53 con el Método 2 (EF unidimensional) y 0.66 con el Método 3 (EF multidimensional).
¿La evidencia sobre la validez convergente es favorable? Buscando en la diagonal de la validez observamos que las correlaciones oscilan entre 0.54 y 0.76. Estas correlaciones son tomadas como indicadoras de evidencia convergente porque nos informan del grado en que diferentes métodos son congruentes al medir el mismo constructo. Por ejemplo, observamos que las correlaciones referidas al orden son bastante altas independientemente del método que utilicemos para medirlo (0.75, 0.75 y 0.74). Sin embargo, las correlaciones referidas al autocontrol son más bajas, ya que ¿¿ oscilan entre 0.54 y 0.62. No obstante, estas correlaciones son bastante altas teniendo en cuenta la baja fiabilidad de sus puntuaciones. Por tanto, podemos decir que la evidencia sobre la validez convergente es favorable.
¿La evidencia sobre la validez discriminante es favorable? Sí, es favorable porque los valores en la diagonal de la validez son más altos que los valores de los triángulos heterorrasgo-monométodo. Esto nos indica que distintos métodos evaluado un mismo rasgo correlacionan más que el mismo método evaluando rasgos distintos.
¿Hay evidencia sobre efectos del método? Se obtiene evidencia del efecto del método al examinar la magnitud diferencial de las correlaciones entre los mismos dos constructos medidos por métodos distintos. NO hay efecto del método porque los constructos “orden” y “sociabilidad” correlacionan de forma muy parecida independientemente del método: -0.09, -0.06 y -0.10.
PSICOMETRÍA La evidencia sobre la validez convergente es favorable, ya que si observamos la diagonal de la fiabilidad nos encontramos con unos límites medianamente bajos.
Encontramos que hay un potente efecto del método, ya que hay una gran diferencia de las correlaciones entre los mismos constructos medidos por distintos métodos. Por ejemplo, observamos que los constructos A y B, medidos con el Método 1 y el Método 2, respectivamente, obtienen unas correlaciones de 0.54 y 0.87.
3. Evidencia referida a un criterio. Buscar evidencia referida a un criterio consiste en buscar relaciones de las puntuaciones en mi test con algún criterio o variable directamente relacionada con el constructo que el test intenta predecir.
I.
Identificar un criterio y la manera adecuada de medirlo II.
Elegir una muestra apropiada III.
Aplicar el test a la muestra IV.
Obtener una medida en el criterio V.
Determinar el grado de relación existente entre las puntuaciones en el test y en el criterio La validez referida a un criterio puede ser predictiva o concurrente. La distinción entre ambas se refiere al intervalo de tiempo transcurrido entre las mediciones en el test y en el criterio. Las evidencias de validez predictiva reflejan la relación entre las puntuaciones en un test y un criterio, cuando el criterio se mide más tarde. Por ejemplo, si en un proceso de selección de personal se aplica un test de aptitudes cognitivas, podrá correlacionarse con medidas de desempeño laboral sólo después de que los admitidos tengan la oportunidad de trabajar durante un tiempo. En el caso de la validez concurrente, las medidas en el test y en el criterio se obtienen aproximadamente en el mismo momento.
Validez concurrente Test Criterio TIEMPO Test Criterio Validez predictiva Cuando se pretende utilizar el test para pronosticar determinados criterios de rendimiento como, por ejemplo, el rendimiento escolar, el total de ventas que se van a conseguir o la mejora en un proceso terapéutico, se requiere que el test se relacione muy estrechamente con dichos criterios. Para obtener la relación entre el test (X) y el criterio (Y), si son variables continuas, se calcula la correlaicón entre ambas variables, que se denomina coeficiente de validez (rXY). El coeficiente de validez no es una propiedad del test, sino que habrá un coeficiente específico en cada muestra donde se obtenga y para los diferentes criterios que puedan establecerse. Si las puntuaciones en el test y en el criterio que se desea pronosticar (Y’) son variables continuas, el modelo de regresión lineal simple permite cuantificar la capacidad En situaciones reales, el coeficiente de validez no suele exceder de 0.6 PSICOMETRÍA predictiva del test. La hipótesis básica del modelo es la linealidad de la relación entre ambos. La función que relaciona las puntuaciones en el test con las del criterio deberá tener un incremento (o decremento) constante para los diferentes valores de X. Es importante complementar el cálculo del coeficiente de validez con el correspondiente diagrama de dispersión, ya que un mismo coeficiente puede ser obtenido con distintas pautas de relación y el diagrama es una forma sencilla de visualizar estas pautas. La recta de regresión que se ha trazado es la línea que mejor se ajusta a la nube de puntos y nos permite Amplitud predecir, por ejemplo, la calificación que obtendría un estudiante que del intervalo haya tenido una puntuación concreta en un test. La distancia vertical entre un punto y la línea de regresión es el error de pronóstico para ese punto.
El coeficiente de validez es una correlación de Pearson y, por tanto, su interpretación más inmediata se fundamenta en el coeficiente de determinación, que es el cuadrado de la correlación y que indica la proporción de varianza que comparten las puntuaciones del test y del criterio. Es decir, indica la proporción de varianza del criterio que es pronosticable a partir del test.
S2Y es la varianza del criterio S2Y’ es la varianza de los pronósticos S2Y-Y’ es la varianza de los errores de pronóstico Si conocemos el coeficiente de validez y la varianza de las puntuaciones del criterio, podremos obtener la varianza de los errores de pronóstico despejando de la ecuación. La desviación típica de los errores de pronóstico (SY-Y’) recibe el nombre de error típico de estimación, y permite realizar estimaciones por intervalo de las puntuaciones en el criterio.
Estimaciones en el criterio La función lineal que permite predecir las puntuaciones en el criterio a partir de las puntuaciones en el test será la que se muestra a continuación, donde β0 es la ordenada en el origen (origen), que representa el valor esperado de Y cuando X toma el valor 0, y β1 es la pendiente de la recta o coeficiente de regresión, que muestra el cambio que experimenta el valor de Y cuando X cambia una unidad.
Gráficamente, β0 representa el punto en el que la recta de regresión corta el eje de ordenadas y β1 representa la inclinación de la recta. Como la relación entre X e Y no es exacta, para cada sujeto i cometemos algún error de pronóstico (Yi – Yi’). Cuanto más próximo esté un punto a la recta de regresión, menor será el error cometido.
Puntuaciones directas Puntuaciones típicas Una vez hemos calculado la ecuación de la recta de regresión lineal, podemos realizar estimaciones por intervalo de las puntuaciones en el criterio. De esta forma, en el caso de que el N.C. fuese del 95%: Li = Y’ – 1.96 · SY-Y’ Ls = Y’ + 1.96 · SY-Y’ Entre los factores que afectan a la amplitud del intervalo encontramos el nivel de confianza (a mayor N.C., mayor amplitud del intervalo) y el coeficiente de determinación (cuanto mayor, menor amplitud).
Cuanto más válido sea el test, menor será el intervalo de confianza, por lo que el diagrama de dispersión estará muy pegado a la recta de regresión PSICOMETRÍA Validez incremental Predictores Test de inteligencia Test de responsabilidad Muestras de trabajo Entrevista estructurada Entrevista no estructurada Años de experiencia rXY 0.51 0.31 0.54 0.51 0.38 0.18 Rm Validez incremental Correlación con inteligencia 0.60 0.63 0.63 0.55 0.54 0.09 0.12 0.12 0.04 0.03 0 0.38 0.30 0.38 0 La variable criterio (Y) es la medida del rendimiento laboral. R m indica la correlación múltiple entre dos predictores considerados conjuntamente y el rendimiento. De esta forma, usando el test de inteligencia y el test de responsabilidad se ha obtenido una correlación de 0.60, lo que nos permite predecir un 36% de varianza del rendimiento laboral (coeficiente de determinación = 0.60 2). Por tanto, si en el proceso de selección de personal uso el test de responsabilidad además del test de inteligencia, aumento casi en un 10% (0.602 – 0.512 = 0.099) el porcentaje de varianza pronosticado.
Factores que afectan al coeficiente de validez I. La variabilidad de las puntuaciones en el test y del criterio: problema de la restricción de rango Como el coeficiente de validez (rxy) es una correlación, depende de la variabilidad. Por tanto, mayor variabilidad de las puntuaciones en el test y en el criterio, mayor coeficiente de validez.
¿Pero qué ocurre cuando reducimos el rango de la muestra y, por tanto, su variabilidad? Que también se reduce el coeficiente de validez. Por ejemplo: Tamaño de la muestra Total = 523 estudiantes Estudiantes que aprobaron el examen = 263 estudiantes SX 1.543 1.184 SY 0.309 0.188 rxy 0.755* 0.578* Y: nota final en Psicometría X: nota en el examen de noviembre Y’: nota final pronosticada Mostremos otro caso distinto: aquí, el test es el examen de admisión al grado de Psicología, mientras que el criterio es la calificación media obtenida en el primer curso del grado.
Tamaño de la muestra Total = 1000 Estudiantes que aprobaron el examen = 520 SX 4.866 3.059 SY ? 0.894 rxy ? 0.433* El test pronostica el rendimiento de los estudiantes en el primer curso, pero sólo con una muestra muy poco variable: los estudiantes que formaban parte del grado en Psicología y que, por tanto, habían aprobado el examen de admisión. Como los estudiantes que suspendieron el examen de admisión no entraron en el grado de Psicología, no podemos disponer de su nota en el grado, pero podemos suponer que tanto su SY como rxy serán más altos.
La variable sobre la que se realiza la selección se denomina directa o explícitamente selectiva.
Podemos realizar una corrección por restricción de rango siendo el test la variable explícitamente selectiva con la siguiente fórmula: Debemos distinguir entre la varianza del test aplicado a la muestra grande (S2X) y la varianza del test aplicado a la muestra pequeña (s2X) II. La auténtica relación entre el test y el criterio La auténtica relación entre el test y el criterio la podríamos obtener en el caso de que no hubiera errores de medida. Aunque eso es imposible, el coeficiente de validez si no hubiese errores de medida sería rVxVy y nos indicaría la auténtica relación entre el test y el criterio.
PSICOMETRÍA III. Fiabilidad del test y del criterio: problema de la atenuación Coeficiente de fiabilidad del test Coeficiente de fiabilidad del criterio Máximo coeficiente de validez si conocemos las fiabilidades de X e Y Máximo coeficiente de validez si sólo conocemos la fiabilidad de X o suponemos perfecta la fiabilidad de Y Máximo coeficiente de validez si sólo conocemos la fiabilidad de Y o suponemos perfecta la fiabilidad de X Si un test no es fiable no puede tener validez referida a ningún criterio Ej.: Si el coeficiente de fiabilidad de un test valiese 0.70 y el coeficiente de fiabilidad del criterio 0.8, el máximo coeficiente de validez alcanzable por ese test sería: rxy = √0.7·0.8 = 0.748. El máximo coeficiente de validez si solo conocemos la fiabilidad de X sería: rxy = √0.7 = 0.836. El máximo coeficiente de validez si solo conocemos la fiabilidad de Y sería: rxy = √0.8 = 0.894.
Atenuación es el término que se usa para describir la reducción en la magnitud de la correlación entre las puntuaciones en dos instrumentos de medida que está causada por su falta de fiabilidad. Por tanto, el coeficiente de validez va a ser siempre menor que la relación entre las puntuaciones verdaderas del test y el criterio.
Ej.: Un investigador desea conocer la validez de un test de “afectividad negativa”, entendida como la tendencia general a experimentar emociones negativas, para predecir la “satisfacción laboral”. Calcula la correlación entre ambas puntuaciones y obtiene un valor de -0.40. ¿Cuál sería la correlación obtenida si ambas medidas careciesen de errores de medida y teniendo en cuenta que la fiabilidad del test es 0.86 y la fiabilidad del criterio es 0.76? 𝑟𝑥𝑦 −0.40 𝑟𝑉𝑥𝑉𝑦 = = = −0.49 √𝑟𝑥𝑥 · 𝑟𝑦𝑦 √0.86 · 0.76 Como se puede observar por los resultados, la verdadera correlación entre esos dos constructos es superior a la que ha obtenido el investigador. La diferencia sería mucho mayor si las fiabilidades el test y del criterio fueran mucho más bajas.
La longitud de un test también influye en su validez de la siguiente manera: Coeficiente de validez de un test alargado n veces Número de veces que necesitamos alargar un test para alcanzar cierta validez. Un valor de n negativo indica que no podemos alcanzar esa validez.
IV. La correlación entre los errores de medida en el test y los errores de medida en el criterio Por ejemplo, cuando la misma persona administra el test y el criterio y su conocimiento de los resultados en el test puede provocar expectativas que influyan artificialmente en el rendimiento en el criterio.
PSICOMETRÍA TEMA 5. El Análisis Factorial Exploratorio (AFE) Esta técnica se encuadra dentro de las estrategias de validación de los tests, concretamente en la validación del constructo. En la validación de constructo y, por tanto, con el análisis factorial, intentamos responder a esta pregunta: ¿mide nuestro test un constructo coherente o se trata simplemente de un conjunto espurio de ítems? Para ello se utilizan técnicas basadas en el examen de las relaciones entre los ítems, concretamente, complejas técnicas estadísticas como el análisis factorial. A partir de las correlaciones entre los ítems se obtiene una matriz factorial que expresa la relación entre los ítems y los factores comunes o dimensiones subyacentes.
El AFE no es la única técnica que podemos utilizar, pero sí es el primer paso de la validación del test, ya que nos permite responder a la pregunta de ¿cuántas dimensiones (factores) mide mi test? Por ello consiste en identificar los constructos latentes subyacentes a un conjunto de variables observables (software: SPSS). El Análisis Factorial Confirmatorio es otra técnica más compleja, pues gracias a él contrastamos hipótesis sobre el número de factores, la relación entre factores y el patrón de saturaciones (qué ítems definen cada factor). Por lo tanto, en el AFC evaluamos una estructura hipotetizada de constructos latentes (software: AMOS, Mplus). Entre el AFE y el AFC, nos encontramos con los Modelos de Ecuaciones Estructurales Exploratorios (ESEM).
1. Visión general El análisis factorial es una técnica estadística multivariante que permite estudiar las dimensiones subyacentes a un conjunto de variables relacionadas. El objetivo consiste en determinar qué dimensiones o factores mide un test. Normalmente se toma como punto de partida del análisis la matriz R de correlaciones entre las J variables (ej.: ítems) que interesa analizar (RJxJ) y se obtiene como resultado una matriz F de tamaño J X M, denominada matriz factorial rotada, que contiene las saturaciones o pesos de cada ítem en cada factor (FJxM).
La matriz factorial tendrá como filas el número de ítems, pero no sabemos el número de columnas que tendrá, ya que las columnas representan el número de dimensiones o factores que el análisis factorial ha identificado en nuestro test. El patrón de correlaciones nos informa de cuántas dimensiones subyacen a la respuesta a los ítems.
Ej.: Prueba de 7 ítems para evaluar cordialidad en adolescentes.
El hecho de que una saturación sea positiva significa que las personas con puntuación alta en ese Factor tienden a puntuar alto en esos ítems.
Las saturaciones oscilan generalmente entre -1 y +1, indicando el 0 la ausencia de relación cuantitativa entre la variable j y el factor extraído.
El significado de un factor se deduce de qué ítems presentan altas saturaciones en él. Lo importante es el valor absoluto de las saturaciones, no su signo. El valor que se suele utilizar para considerar que una saturación es alta es 0.25 y en adelante, pero no hay un criterio absoluto.
La ecuación fundamental del modelo factorial recoge las puntuaciones en un ítem (Xj), el sumatorio de los productos de las saturaciones en cada factor (λjm·Fm) y el error de medida (Ej). Las puntuaciones en el ítem 1 se descomponen en la saturación y los factores, que representan el efecto debido a los factores comunes (valor en X predicho a partir del modelo), y error de medida, que representa el efecto debido a un factor específico o al error de medida. Por tanto, si tenemos un cuestionario poco fiable, mi E será más alta y no seré capaz de detectar lo que mis ítems tienen en común.
PSICOMETRÍA 2. Conceptos básicos I.
Comunalidades y unicidades La varianza de cada ítem (Xj) se descompone en dos fuentes de varianza independientes: comunalidad y unicidad. La comunalidad (h2j) o varianza que depende de los factores comunes indica la proporción de varianza de cada ítem explicada por los factores comunes. Una comunalidad baja (ej.: 0.09) indicaría que la variable no se relaciona con el resto de las variables en el análisis. La unicidad (ψj) o varianza específica (o de error) indica la 𝜓𝑗 = 1 − ℎ𝑗2 proporción de varianza de cada ítem que no depende de los factores comunes, que es debida al error de medida o a factores específicos. Dicho de otra forma, mientras que la comunalidad indica la varianza común entre los ítems, la unicidad es la parte del ítem que el AFE no es capaz de explicar.
Como el AFE se realiza siempre con puntuaciones típicas, la varianza de las puntuaciones de los ítems es siempre 1.
La fórmula de la derecha resulta de aplicar las propiedades de la varianza a la ecuación fundamental del modelo factorial. Por tanto, la varianza de las puntuaciones de los ítems es igual a la suma de las saturaciones al cuadrado que corresponden a un ítem en cada factor, más el producto de las saturaciones por las covarianzas, más los errores de medida y aspectos específicos de cada ítem. ¿Qué ocurre si los factores son independientes? Que si son independientes, la correlación entre ambos factores es 0 y, por tanto, sus covarianzas también. Entonces, la comunalidad de cada ítem es la suma de las saturaciones al cuadrado que corresponden a un ítem.
Ej.: El 0.625 nos indica que, de la varianza del ítem 1 que vale 1, hay un 62.5% que es varianza común explicada por los factores del análisis factorial.
La comunalidad nunca puede ser negativa, y tampoco la unicidad. Como mínimo, ambos valen 0 y como máximo 1.
II.
Varianza total y varianza común La varianza total (VT) es la suma de las varianzas de los ítems. Como la varianza de cada ítem siempre vale 1 (puntuaciones tipificadas), entonces VT siempre será igual a j, el número de ítems.
PSICOMETRÍA La reducción de la dimensionalidad supone que no se explica una parte de la varianza total, sino que solo se explica la varianza común (VC) entre los ítems. La parte de la varianza total que es debida a los factores comunes es: La proporción de varianza total explicada entre todos los factores comunes sería Cuanto más se acerque el valor de esta ecuación a 1, mayor poder explicativo tendrán los factores comunes Si los factores son independientes (las correlaciones son igual a 0 para todos los factores), la fórmula de la comunalidad se simplifica: la proporción de varianza total explicada por el factor m puede calcularse: El valor de la proporción de varianza total explicada por el factor m sirve para determinar la importancia del factor. Cada factor explica una determinada cantidad de la varianza total de las variables. Si un factor explica un porcentaje elevado de la VT, eso es síntoma de que las saturaciones de las variables en dicho factor son altas.
III.
Matriz de correlaciones reproducidas y de correlaciones residuales En el AFE se pretende predecir la matriz R a partir del modelo factorial, por lo que debemos distinguir entre las correlaciones observadas (r12, r13, r14) y las correlaciones que predice el modelo factorial (r*12, r*13, r*14). A las correlaciones que deberían producirse si el modelo fuera cierto se las llama correlaciones reproducidas. El valor de r* entre dos variables será elevado si pesan alto en los mismos factores o en factores distintos pero altamente relacionados. Cuando los factores no están correlacionados, la correlación reproducida entre variables depende exclusivamente de si pesan alto en los mismos factores (de si miden lo mismo), ya que, en ese caso, la ecuación se simplifica.
Por tanto, la correlación entre dos ítems cualesquiera se descompone en dos partes: la correlación reproducida por los factores y la correlación residual (resjj’) no explicada por los factores.
Ej.: Matriz de correlaciones reproducidas para el test de Cordialidad.
PSICOMETRÍA Matriz de correlaciones residuales para el test de Cordialidad IV.
Pesos de configuración y pesos de estructura Ambos pesos indican la relación entre una variable j y un Factor m. Los pesos de configuración (pattern coefficients) son las saturaciones (λm) de los ítems de los factores e indican el efecto directo del factor en el ítem, por lo que pueden tomar valores mayores a +1 y menores a -1. Los pesos de estructura (structure coefficients), representados como ρX2F1, representan las correlaciones entre factores e ítems, y dependen del peso directo de la variable en el factor (λm) pero también de la correlación del factor con los otros factores en los que pese la variable. Por tanto, los números que salen en una matriz de estructura tienen que tomar como mínimo un valor de -1 y como máximo un valor de +1.
Los pesos de configuración y los pesos de estructura son iguales si los factores son independientes. Si los factores están muy correlacionados, los pesos de configuración y de estructura pueden ser muy diferentes, ya que los pesos de configuración tienden a ser más inestables (al cambiar de muestra pueden cambiar los resultados) que los pesos de estructura.
Ej.: Si la saturación de un ítem en un factor es 0, nos indica que dicho factor no tiene ningún efecto sobre el rendimiento en ese ítem.
Ej.: La matriz de configuración es más fácil de interpretar. La matriz de estructura muestra con más claridad que los factores están correlacionados, ya que todas las variables saturan en ambos factores.
V.
Significado de los factores Las variables se agrupan en factores, y el significado de éstos se infiere analizando qué tienen en común las variables que se agrupan en un mismo factor.
 Un factor viene definido por los ítems con un peso superior a |0.3| o |0.4|.
 Se nombra cada factor, considerando los pesos de los ítems que saturan en él, ya que los ítems que pesan más deben tener más importancia para elaborar la etiqueta del factor.
...

Tags:
Comprar Previsualizar