El "Análisis discriminante de Fisher" es simplemente LDA en una situación de 2 clases. Cuando solo hay 2 clases, los cálculos a mano son factibles y el análisis está directamente relacionado con la regresión múltiple. LDA es la extensión directa de la idea de Fisher sobre la situación de cualquier número de clases y utiliza dispositivos de álgebra matricial (como la descomposición propia) para calcularlo. Entonces, el término "Análisis discriminante de Fisher" puede verse como obsoleto hoy. En su lugar, debe usarse el "análisis discriminante lineal". Ver también . El análisis discriminante con 2+ clases (multiclase) es canónico por su algoritmo (extrae los dicriminantes como variantes canónicas); término raro "Análisis discriminante canónico"
Fisher usó lo que entonces se llamaba "funciones de clasificación de Fisher" para clasificar objetos después de que la función discriminante ha sido calculada. Hoy en día, se utiliza un enfoque más general de Bayes dentro del procedimiento LDA para clasificar objetos.
A su solicitud de explicaciones de LDA, puedo enviarle a estas mis respuestas: extracción en LDA , clasificación en LDA , LDA entre los procedimientos relacionados . También esto , esto , esto preguntas y respuestas.
Al igual que ANOVA requiere un supuesto de varianzas iguales, LDA requiere un supuesto de matrices de varianza-covarianza iguales (entre las variables de entrada) de las clases. Este supuesto es importante para la etapa de clasificación del análisis. Si las matrices difieren sustancialmente, las observaciones tenderán a asignarse a la clase donde la variabilidad es mayor. Para superar el problema, QDA se inventó . QDA es una modificación de LDA que permite la heterogeneidad anterior de las matrices de covarianza de las clases.
Si tiene la heterogeneidad (como se detecta, por ejemplo, mediante la prueba M de Box) y no tiene QDA a mano, aún puede usar LDA en el régimen de usar matrices de covarianza individuales (en lugar de la matriz agrupada) de los discriminantes en la clasificación . Esto resuelve en parte el problema, aunque con menos eficacia que en QDA, porque, como se acaba de señalar, estas son las matrices entre los discriminantes y no entre las variables originales (qué matrices diferían).
Déjame salir analizando tus datos de ejemplo por ti mismo.
Responder a @ zyxue y comentarios
LDA es lo que definió FDA en su respuesta. LDA primero extrae construcciones lineales (llamadas discriminantes) que maximizan la separación entre dentro y dentro, y luego las usa para realizar la clasificación (gaussiana). Si (como usted dice) LDA no estuviera vinculado con la tarea de extraer los discriminantes, LDA parecería ser solo un clasificador gaussiano, no se necesitaría ningún nombre "LDA".
SwSws son las mismas que las covarianzas dentro de la clase son todas iguales, identidad; ese derecho a usarlos se vuelve absoluto.)
El clasificador gaussiano (la segunda etapa de LDA) usa la regla de Bayes para asignar observaciones a las clases por parte de los discriminantes. El mismo resultado se puede lograr a través de las llamadas funciones de clasificación lineal de Fisher que utilizan directamente las características originales. Sin embargo, el enfoque de Bayes basado en discriminantes es un poco general, ya que permitirá utilizar también matrices de covarianza discriminantes de clase separadas, además de la forma predeterminada de usar una, la agrupada. Además, permitirá basar la clasificación en un subconjunto de discriminantes.
Cuando solo hay dos clases, ambas etapas de LDA pueden describirse juntas en una sola pasada porque la "extracción de latentes" y la "clasificación de observaciones" se reducen a la misma tarea.
Me resulta difícil aceptar que la FDA sea LDA para dos clases, como sugirió @ttnphns.
Recomiendo dos conferencias muy informativas y hermosas sobre este tema del profesor Ali Ghodsi:
Para mí, LDA y QDA son similares, ya que ambas son técnicas de clasificación con supuestos gaussianos. Una diferencia importante entre los dos es que LDA asume que las matrices de covarianza de características de ambas clases son las mismas, lo que resulta en un límite de decisión lineal. En contraste, QDA es menos estricto y permite diferentes matrices de covarianza de características para diferentes clases, lo que conduce a un límite de decisión cuadrático. Vea la siguiente figura de scikit-learn para obtener una idea de cómo se ve el límite de decisión cuadrático.
Algunos comentarios sobre las subtramas :
Por otro lado, la FDA es una especie muy diferente, que no tiene nada que ver con el supuesto de Gaussion. Lo que la FDA intenta hacer es encontrar una transformación lineal para maximizar la distancia media entre clases y minimizar la varianza dentro de la clase . La segunda conferencia explica esta idea maravillosamente. A diferencia de LDA / QDA, la FDA no hace la clasificación, aunque las características obtenidas después de la transformación encontradas por la FDA podrían usarse para la clasificación, por ejemplo, usando LDA / QDA o SVM u otros.
fuente
FDA doesn't do classification, although the features obtained after transformation found by FDA could be used for classification
entonces diría que es lo que llamo "fase de extracción de LDA". Por supuesto, estas características extraídas (las funciones discriminantes): puede usarlas como desee. En la clasificación estándar de LDA, se usan como clasificadores gaussianos.