|
|
|
FACTORES A CONSERVAR
La matriz factorial puede presentar un número de factores superior al necesario para explicar la estructura de los datos originales. Generalmente hay un conjunto reducido de factores, los primeros, que son los que explican la mayor parte de la variabilidad total. Los otros factores suelen contribuir relativamente poco. Uno de los problemas que se plantean, por tanto, consiste en determinar el número de factores que debemos conservar, de manera que se cumpla el principio de parsimonia.
Se han dado diversos criterios para determinar el número de factores a conservar. Uno de los más conocidos y utilizados es el criterio o regla de Kaiser (1960) que indicaría lo siguiente: "conservar solamente aquellos factores cuyos valores propios (eigenvalues) son mayores a la unidad". Este criterio es el que suelen utilizar los programas estadísticos por defecto. Sin embargo, este criterio es generalmente inadecuado tendiendo a sobreestimar el número de factores.
Otros criterios propuestos han sido por ejemplo, el Scree-test de Cattell (1966) consistente en representar en un sistema de ejes los valores que toman los eigenvalues (ordenadas) y el número de factor (abscisas). Sobre la gráfica resultante se traza una línea recta base a la altura de los últimos autovalores (los más pequeños) y aquellos que queden por encima indicarán el número de factores a retener.
Velicer (1976) propone el método MAP (Minimum Average Partial), que implica calcular el promedio de las correlaciones parciales al cuadrado después de que cada uno de los componentes ha sido parcializado de las variables originales. Cuando el promedio de las correlaciones parciales al cuadrado alcanza un mínimo no se extraen más componentes. Este mínimo se alcanza cuando la matriz residual se acerca más a una matriz identidad. Un requisito para utilizar esta regla es que cada uno de los componentes retenidos deben tener al menos dos variables con pesos altos en ellos.
Bartlett (1950, 1951) propone una prueba estadística para contrastar la hipótesis mula de que los restantes p-m autovalores son iguales (siendo p el número original de variables y m el número de factores o componentes retenidos). Cada autovalor es excluido de manera secuencial hasta que no puede ser rechazada la hipótesis nula a través de una prueba de Ji-cuadrado.
El Análisis Paralelo fue sugerido por Horn (1965) quien señala que a nivel poblacional los autovalores de una matriz de correlaciones para variables no correlacionadas tomarían valor 1. Cuando se generan matrices muestrales basadas en esa matriz poblacional por fluctuaciones debidas al azar los autovalores excederán levemente de 1 y los últimos estarán ligeramente por debajo de 1. Horn propone contrastar los autovalores encontrados empíricamente en los datos reales con los obtenidos a partir de una matriz de variables no correlacionadas basada en el mismo número de variables que los datos empíricos y en el mismo tamaño de muestra. Los componentes empíricos con autovalores superiores a los de la matriz son retenidos.
El método de Razón de Verosimilitud, introducido por Lawley (1940), se trata de un criterio de bondad de ajuste pensado para la utilización del método de extracción de máxima verosimilitud, que se distribuye según Ji-cuadrado. La lógica de este procedimiento es comprobar si el número de factores extraído es suficiente para explicar los coeficientes de correlación observados.
De todos estos criterios los que parecen haber demostrado un mejor funcionamiento son el MAP y el Análisis Paralelo, sin embargo tienen la desventaja de que no son muy accesibles en la práctica.
Ir a Análisis factorial para estructura socio-demográfica del AMV
Ir a Análisis factorial para estructura económica del AMV
Ir a fase factorial del análisis estructural