# Deep learning El problema de deep learning es que necesita muchisimos datos ![](https://i.imgur.com/KKknkV7.png) La idea detras de deep learning es la siguiente (Redes convolucionales) ![](https://i.imgur.com/FzDtrOM.png) La idea es que se tiene una funcion de transformacion de una capa a otra ![](https://i.imgur.com/JLDiuZ7.png) Se deben entrenar/aprender los Wl ## Capas de convolucion ![](https://i.imgur.com/x6UylEN.png) En cada posicion hago la mascara verde en la roja ![](https://i.imgur.com/0Q8gYiq.png) bk es un bias. Cada factor que uso son aprendidos ## Capa de pooling ![](https://i.imgur.com/qq4ari2.png) Reemplazo toda la mascara por un numero (por ejemplo la de 3x3 azul) Hay cambio de tamaño ## RELU Elimina la parte negativa ![](https://i.imgur.com/L5Y82NO.png) ## Fully connected Conecto todos los elementos de entrada con un peso a una salida (en este ejemplo hay 200 pesos) ![](https://i.imgur.com/GGLU2Wp.png) Luego se le hace softmax ![](https://i.imgur.com/d2BMwTz.png) Asi se tiene como una "probabilidad", pero es mas como una normalizacion de la salida La gran idea es que se tienen capas y como se pasa de una a otra --- # Ejemplos Se puede hacer back propagation con los resultados como feedback ![](https://i.imgur.com/fqCAOND.png) Si la red convolucuional que se diseña no funciona bien para algo simple, entonces es poco probable que funcione bien para algo complejo, la idea es que el ciclo de diseño sea rapido