Story Transcript
ANÁLISIS FACTORIAL 1. Introducción 2. Examen de la matriz de correlación 3. Extracción de los factores 4. Rotación de los factores 5. Puntuaciones factoriales 6. Caso práctico
Introducción
Objetivo. Resumir la información contenida en una base de datos con p variables en un reducido número de factores F, siendo el número de factores menor que el número de variables. Principios básicos. -
Parsimonia. Los fenómenos deben explicarse con el menor número de F posibles.
-
Interpretabilidad. Los F deben ser susceptibles de interpretación positiva.
Introducción
Ideas básicas. -
El conjunto de variables a resumir deben tener interrelaciones importantes (matriz de correlación).
-
Se acepta la hipótesis de que las relaciones existen porque las variables son manifestaciones comunes de factores no "observables”
-
El objetivo del AF es llegar a un cálculo de esos factores: resumiendo la información, clarificando las relaciones entre las variables y sin pérdida excesiva de información
Introducción
Utilidad. -
Proporcionar la estructura interna, las dimensiones subyacentes, de un conjunto amplio de variables, elaborando una estructura más simple que proporcione la misma información y permita entender los fenómenos.
-
Simplificar la modelización convirtiendo, por eliminación de redundancias expresadas en altas correlaciones, un amplio conjunto de variables en factores “estructurales”.
Introducción
Cada variable se expresa como una combinación lineal de factores no directamente observables. Xij = F1i ai1 + F2i ai2+....+Fki aik + Vi Siendo: Xij la puntuación del individuo i en la variable j Fij son los coeficientes factoriales (factores comunes) aij son las puntuaciones factoriales (factores comunes) Vi es el factor único de cada variable Los factores únicos no están correlacionados entre sí ni con los factores comunes.
Introducción
AF vs CP -
CP podría definirse como una etapa de AF.
-
AF diferencia la varianza común (variación de la variable que es compartida con las otras variables) y varianza única (la variación de la variable que es propia de esa variable).
-
CP determina “factores” que sucesivamente expliquen la mayor parte de la varianza total, mientras que AF busca factores que expliquen la mayor parte de la varianza común.
-
CP busca combinaciones lineales de las variables originales que expliquen la mayor parte de la variación total, mientras que AF pretende hallar un nuevo conjunto de variables, menor en número que las variables originales, que exprese lo que es común a esas variables.
-
AF supone que existen factores comunes subyacentes a todas las variables, CP no.
Introducción
Pasos del AF. 1. Calcular y examinar la matriz de correlaciones entre todas las variables. 2. Extracción de los factores necesarios para representar los datos. 3. Rotación de los factores con objeto de facilitar su interpretación. 4. Calcular las individuo.
puntuaciones
factoriales
de
cada
Examen de la matriz
Examen de la matriz. Correlations NHT NVAC UTHT RN -------------------------------------------------------------------------------------------------------------------NHT 0,4957 0,2334 0,3642 ( 12) ( 12) ( 12) 0,1013 0,4654 0,2444 NVAC
0,4957 ( 12) 0,1013
UTHT
0,2334 ( 12) 0,4654
RN
0,4368 ( 12) 0,1556 0,4368 ( 12) 0,1556
-0,4641 ( 12) 0,1285 -0,1814 ( 12) 0,5725
0,3642 -0,4641 -0,1814 ( 12) ( 12) ( 12) 0,2444 0,1285 0,5725 -------------------------------------------------------------------------------RN
Examen de la matriz
-
Determinante de la matriz de correlaciones (es un escalar o polinomio, que resulta de obtener todos los productos posibles de una matriz): - muy bajo: altas intercorrelaciones - cero: algunas de las variables son linealmente dependientes - alto: altas correlaciones
-
Test de Esfericidad de Bartlett. Comprueba que la matriz de correlaciones se ajuste a la matriz identidad (I), es decir ausencia de correlación significativa entre las variables, es decir, que el determinante de la matriz de correlaciones es 1.
Examen de la matriz
n =tamaño muestral v =número de variables R =matriz de correlaciones Si se acepta la hipótesis nula (p>0.05) significa que las variables no están intercorrelacionadas. Es muy útil cuando el tamaño muestral es pequeño.
Examen de la matriz
-
Índice KMO de Kaiser-Meyer-Olkin. Valores bajos del índice KMO desaconsejan la utilización de Análisis Factorial
rij= correlación simple
según Kaiser: 1 >= KMO >= 0.9 muy bueno 0.9 >= KMO >= 0.8 meritorio 0.8 >= KMO >= 0.7 mediano 0.7 >= KMO >= 0.6 mediocre 0.6 >= KMO > 0.5 bajo KMO