# Reconocimiento de patrones
dominngo.mery@uc.cl
Clases: https://www.youtube.com/channel/UCfiFiJBkLdzRq1hIPRMfvpQ
Github: https://github.com/domingomery/patrones/tree/master/proyecto
Clases
---
1. 16 de marzo: [Introducción](/qxnA-_q_QUyNaqLEIgxEBA)
2. 18 de marzo: [Conceptos básicos](#Conceptos-básicos)
3. 23 de marzo: [Metodología de reconocimiento](#Metodología-de-reconocimiento)
4. 25 de marzo [Características geométricas](/1oTnSNqaS-6LOnAXeOnshA)
5. 30 de marzo [Características geométricas 2](/XC3lrMoPT_enthFRbVBRFg)
6. 30 de marzo [LBP](/_mmVeOTGT-qYM1X-pup3kQ)
7. 6 de abril [Haralick y Gabor (texturas)](/NnKi1H_2Q_iiESmr2ofuxA)
8. 13 de abril [HoG + SIFT](/H6KBzSXbSiKcYqdKPhwM4A)
9. 20 de abril [Características de contraste y CLP](/ao2m4ZJXSyWDHZC_t80qCw)
10. 22 de abril [Selección de características](/pk9mDQSMRbqR4spk0JTehA)
11. 27 de abril [Clean y SFS](/9x5DAH5bRceOLEovCsX4Sw)
12. 29 de abirl [Fisher and bound](/4-FvNnKLQ1aZ_-3n-JXP7A)
13. 4 de mayo [PCA, ICA, PLSR (transformacion de caracteristicas)](/p2rkEgtNSMC-bX7amqL_3Q)
14. 6 de mayo [Esquema general de seleccion](/Sq-f-CXaRvC1Db5s8uCUlA)
15. 18 de mayo [Intro, KNN, dmin, Bayes (clasificacion)](/TJlO8uPdSrq6ASeCf5x2zA)
16. 20 de mayo [LDA, QDA, Trees, Random Forest](/tP2CsNa9SxyewmRdediWAg)
17. 27 de mayo [Redes neuronales](/JWBYqLuSS9KP9wgx7_-hvQ)
18. 1 de junio [Deep learning](/5HbM7D_BQ9mTN-tfvg8D9w)
19. 3 de junio [SVM](/1m9oa5jgTcKOzyNwuMIwFQ)
20. 8 de junio [Evaluacion de accuracy y selector de modelos](/59XBLlVwQCGwq7Es1VzmSg)
21. 10 de junio [Matriz de confusion y target detection](/j8yIZYiTQ7qIXhwJUYVw7g)
22. 15 de junio [Analisis facial, Genuinos/Impostores](/xT7jwydNQ9m1g-n3oXT0pA)
23. 29 de junio [Clustering](/cQu7Vy1MR8KaZZlKALSRdg)
24. 1 de julio [Bag of words](/qXl0WH8KT8CZLbLIwT_nng)
---
# Conceptos básicos
**Procesamiento de imágenes:** uso de algotitmos computacionales que toman una imagen como entrada y entregan una imagen como salida.
**Análisis de iágenes:** uso de algoritmos computacionales que toman una imagen como entrada y entregan una medición, una interpretación o una decisión como resultado.
**Reconocimiento de patrones:** métodos que hacen inferencia a partir de datos. Usualmente, se mide un objeto para asignarlo a unaa clase. NO necesariamente tiene que ver con imágenes.

*Los pasos 4-5 serían reconocimiento de patrones*
**Visión por computador:** es la ciencia que le proporciona a los cimputadores la capacidad de ver. (Faugeras)

La línea en medio es donde se produce la confusión, y donde hay barras en ambos es donde se produce, y las alturas sumadas son, en parte, el grado de confusión.

Hay que tener cuidado con el sobreentrenamiento (por ejemplo línea que corta perfectamente mandarinas y naranjas)

El clasificador es el que busca dónde (y en qué forma) hacer el corte.
# Metodología de reconocimiento
## 1. Obtención de la información original
## 2. Pre-procesamiento
- Datos se filtrtan, segmentan, etc
- $N$ muestras
## 3. Extracción de características
- Para cada objeto se extraen $M$ características
- Se pasan por función $h_j$, extrayendo característica j del objeto i
- $u_{ij}=h_j(Y_i)$ para $j=1...M$
- La matriz $U$ es la que contiene toda la info que se sacó ($N \times M$)
- $U_i$ es la columna $i$ de la matriz
## 4. Normalización de características
- Para poder usar la distancia eucclideana es bueno normalizar los datos ($0-1$)
- Escalamiento: cada columna se normaliza $v_j=f_n(u_j) = a_j u_j + b_j$, con $v_j$ siendo la columa normalizada y $u_j$ la columna j de u
- Se puede hacer normalización MinMax (min = 0, max = 1) o Mean0 (mean = 0, var = 1)
## 5. Análisis de características

$p(x|\omega_i)$: es la distribución de probabilidad de $x$, dada la clase $\omega_i$

## 6. Selección de características
Tomamos la matriz $V$ y hacemos $Z$, que son las columnas que en **conjunto** discriminan bien
## 7. Diseño del clasificador
Se busca punto, línea, plano, etc. de separación entre las clases

## 8. Evaluación del desempeño
Se usa matriz de confusión $C$
$C_ij$: número de

$Accuracy\ (Acc) = \frac{suma\ diagonal}{total\ de\ muestras\ (N)}$