# LDA, QDA, Trees, Random Forest
Asumiremos que los datos tienen distribucion gaussiana

Gausiana para p dimensiones


# LDA: analisis de discriminatne lineal

la linea de sep dara una recta siempre
por ej

Asume que la distribucion es la misma, sirve para ver si hay una separacion lineal entre las clases
# Mahalanobis
Asme que las amtrices de cov son diferentes, por loq ue se puede modelar curvatura
El M-0 asume que las matrices son cosntantes -> linea recta
# QDA
asume que nada es constante


---

---
# Árboles de decision
Se asumen dos nubes

Eligo un umbral en una direccion y dsps en otra para cada uno



Y esto se puede seguir subdividiendo
Se construye un arbol en base a lo que se va decidiendo en cuanto a los parametros


La linea greis seria finalmente la linea de decision de clasificacion
# Metricas usadas para el error
1. 1 - Accuracy (error de clasificacion)
2. Entropia (menos es mejor) (se suele usar para árboles)
3. Indici de Gini (se suele usar para árboles)

# Random forest
Es weno weno
Elige aleatoriamente un subconjunto del training

En el testing tomo una muestra y la clasifico con todas los arboles entrenados
Al fnal veo la mayoria de votos

La idea es hacer un muestreo para cada arbol y elegir aleatoriamente los datos al ser electos para luego poder clasificar con estos arboles entrenados a partir de los arboles entrenados