# SVM: Support Vector Machines
## Lineal con separacion perfecta

Los anteriores son datos de entrenamiento
Aqui podria haber mas de una linea que haga la misma tarea

Esto se podria determinar con una FO de optimizacion
Definimos el margen b1 como la distancia perpendicular de la linea a la muestra mas cercana de la clase 1 (azul), y hacemos lo mismo con b2 (clase roja)

La idea central es hacer que ambas distancias sean iguales y que b (b = b1 = b2) debe maximizarse

Mi linea de decision va a depender de los puntos que topen los margenes

Los puntos que topan son los vectores de soporte

Se hace un prod punto por los puntos que se evalua con con el punto que se quiere clasificar
Lo que entrega el algoritmo de optimizacion es lo siguiente

Si es solo una caracteristica, es un umbral, si son dos es entonces una linea, etc.
## Lineal sin separacion perfecta

Se consideran solo las muestras clasificadas erroneamente

Se mide el error entre los puntos y la linea y la linea se encuentra como aquella que minimiza el error
## No lineal

Se utiliza un nuevo sistema de coordenadas y se aplica una transf geometrica no lineal

Una vez hecho eso, se sigue tirando la linea recta, pero en el nuevo sistema de coordenadas. La meta es entonces encontrar el nuevo sistema, mientras que al mismo tiempo se puede aumentar la dimensionalidad del problema, pudiendo encontrar hiperplanos que separen


Ahora hago $g(h(x))$

Lo que es importante no es la transformacion, sino que el producto punto de la transf, para poder realizar lo siguiente
(nos importa lo rojo)


### Kernels
Algunos de los mas tipicos

El truco a grandes rasgos es lo siguiente
