DISCRIMINACIÓN COMO DECISIÓN

.DISCRIMINACIÓN COMO IDENTIFICACIÓN (PERSPECTIVA DECISIONAL)

En esta perspectiva la discriminación se plantea como el problema de identificar (adscribir) un individuo anónimo. La situación de nuestro problema de decisión es la siguiente:

Tenemos un individuo w que puede pertenecer a una de varias posibles poblaciones H1 ,H2 ,...,H r. Pero no sabemos a cuál de ellas pertenece de hecho.

La ejecución de esta regla de decisión es lo que constituye la identificación o discriminación.

La solución del problema suele acometerse construyendo ciertas funciones ( funciones = f (X)), llamadas discriminantes, con la esperanza de que estas funciones nos definan sobre R una partición { R.1,R2 ..,Rn } ,de modo que podamos adoptar el criterio de decisión de que si XÎ Ri , entonces wÎ H i .

Básicamente hay tres posiciones, (que bajo ciertas condiciones, presentan resultados similares) de afrontar el problema de la discriminación y la determinación de las funciones discriminantes :

  1. Apoyarse para la construcción de las funciones discriminantes en la distancia entre el individuo w y los distintos grupos.

  2. Apoyarse en el criterio de minimizar la probabilidad de error de clasificación (con o sin información inicial) o maximizar la verosimilitud de pertenencia al grupo.

  3. Plantear la identificación como un típico problema de decisión cuya solución pasa por la minimización de la función de pérdida asociada a la "mala clasificación "(misclassification).

Utilizando un criterio de discriminación geométrico, resulta razonable asignar el individuo anónimo a aquel grupo del que se encuentre más cercano. Lo habitual es considerar la distancia al centro de gravedad del grupo y utilizar una medida de la distancia que no esté sujeta ni a la escala de medida de las variables ni a su covariación, y, en este sentido, la distancia de Mahalanobis es la más adecuada.

Así pues si consideramos la distancia entre el individuo w (representado por el vector de observaciones X) y el grupo H i , como la distancia de Mahalanobis entre X y el centro de gravedad del grupo i-simo M i :

                                                                D (X,H ) = (X - M )' V-1 (X - M )

El criterio de discriminación será asignar w al grupo H i si:

                                                            D (X,H i ) = min s{D (X,H s )}

Es fácil obtener una función discriminante que discrimine entre los grupos H i y H j :

                        W ij (X) = (M i -M j )'V-1 X - 1/2 (M i -M j)' V-1 (M i + M j )

que es una función lineal debida a Fisher y, posteriormente desarrollada, para el caso de disponer únicamente de información muestral ,por Wald y Anderson

De esta forma, si para un cierto i se cumple que : W ij (X) > 0 " i¹ j asignaremos el individuo anónimo al grupo H i .

Otro criterio de discriminación basado en la distribución de las variables en los distintos grupos será el que asigne el individuo anónimo a aquel grupo en el que se maximice la función de verosimilitud.

Según este criterio asignaremos el individuo w al grupo H i si : L i(X)= max s{ L s(X)} (donde L es la función de verosimilitud).

En este caso la función discriminante para cada par de grupos H i y H j sería :

Vij (X) = log L i (X) - log L j (X)

De forma que si para cierto i se cumple que: W ij (X) > 0 " i¹ j asignaremos el individuo anónimo al grupo Hi.

Si las poblaciones son normales multivariantes y las matrices de varianzas coinciden, el criterio máximo verosímil y el geométrico coinciden y el discriminador máximo verosímil asume la misma expresión que el discriminador lineal de Wald-Anderson.

Sin embargo, en el caso en el que cada población tenga una matriz de varianzas propia el discriminador adopta una expresión cuadrática. De forma que para cada dos grupos la función discriminante queda como:

Welch fue el primero en proponer la discriminación siguiendo un criterio de minimizar la probabilidad de error de calsificación o bien, maximizar la verosimilitud de pertenencia a un grupo. Estudió también, la posibilidad de disponer de conocimiento a priori acerca de la pertenencia de un individuo a cada grupo y el modo de utilizarlo en la discriminación a través del uso del Teorema de Bayes.

Con información inicial el discriminador asociado era, entonces: Bij (X) = log Li (X) - log Lj (X) + log (qi/q) donde qi y qj son las probabilidades iniciales de que w pertenezca a Hi y Hj , respectivamente.

Otros muchos autores han hecho hincapié en las distintas consecuencias que pueden tener distintos errores de clasificación.En muchas situaciones prácticas distintos errores de clasificación pueden tener asociados costes muy distintos. En ese caso, no es el error de clasificación lo que se debe minimizar sino el coste esperado o decantarse por aquella alternativa que nos minimice el máximo coste u optar por algún otro criterio decisional adecuado.

Ir a introducción 
Ir a esquema   
Ir a Análisis factorial discriminante

 

 

 

 

 

 

 

 

c