# Deep learning
El problema de deep learning es que necesita muchisimos datos

La idea detras de deep learning es la siguiente
(Redes convolucionales)

La idea es que se tiene una funcion de transformacion de una capa a otra

Se deben entrenar/aprender los Wl
## Capas de convolucion

En cada posicion hago la mascara verde en la roja

bk es un bias. Cada factor que uso son aprendidos
## Capa de pooling

Reemplazo toda la mascara por un numero (por ejemplo la de 3x3 azul)
Hay cambio de tamaño
## RELU
Elimina la parte negativa

## Fully connected
Conecto todos los elementos de entrada con un peso a una salida (en este ejemplo hay 200 pesos)

Luego se le hace softmax

Asi se tiene como una "probabilidad", pero es mas como una normalizacion de la salida
La gran idea es que se tienen capas y como se pasa de una a otra
---
# Ejemplos
Se puede hacer back propagation con los resultados como feedback

Si la red convolucuional que se diseña no funciona bien para algo simple, entonces es poco probable que funcione bien para algo complejo, la idea es que el ciclo de diseño sea rapido