# Pattern Classification
###### tags: `Các kiến thức liên quan đến cuối kì`
> Cùng ôn tập nào. :arrow_down:
## :memo: LBP
#### :rocket: ==${LBP_{(P,R)}}$==
1. **CÁCH TÍNH**: dựa trên số lượng láng giềng P trong bán kính R $$ LBP_{P,R} = {\sum_{P=0}^{P-1} s(g_p - g_c) 2^p} $$
2. **ƯU ĐIỂM**: bất biến với phép chiếu sáng nên hiệu quả cho việc giảm tỉ lệ từ chối sai cho mỗi đối tượng khi đối tượng đó được chụp tại các điều kiện sáng tối khác nhau.
3. **KHUYẾT ĐIỂM**: chưa quan tâm đến phép quay, mỗi góc quay khác nhau thì $LBP_{p,R}$ có kết quả khác nhau.
#### :rocket: ==$LBP_{(P,R)}^{ri}$==
1. **CÁCH TÍNH** dựa trên số lượng láng giềng P trong bán kính R, công thức chọn giá trị nhỏ nhất đại diện cho tất cả các ảnh xoay (mỗi ảnh có hướng xoay của vòng tròn lượng giác một góc xác định cho trước).$$ LBP_{P,R}^{ri} = min {{ROR(LBP_{P,R},i)|i=0,...,P-1}}$$
2. **ƯU ĐIỂM**
* Bất biến với phép chiếu sáng như ưu điểm của $LBP_{P,R}$ thông thường.
* Bất biến với phép quay, nhận một giá trị khi xoay ảnh theo nhiều góc ứng với vòng tròn lượng giác.
3. **KHUYẾT ĐIỂM**
* Khi chọn số P=8, R=1 thì việc tính toán của $LBP_{(P,R)}^{ri}$ nhanh và đơn giản, tuy nhiên góc trên lệch giữa hai láng giềng là 45 độ. Muốn tăng độ chính xác --> giảm góc lệch --> cần tăng số lượng láng giềng. Tuy nhiên sẽ rất phức tạp do phải dùng nội suy.
* Một điểm ảnh giá trị của $LBP_{(P,R)}^{ri}$ ứng với mỗi lần xoay là khác nhau, việc chọn giá trị nhỏ nhất sau tất cả các lần xoay làm đại diện không phản ánh đầy đủ đặc thù của điểm ảnh.
#### :rocket: ==$LBP_{(P,R)}^ {riu2}$==
* CÁCH TÍNH: có hai giai đoạn
* Tính độ đồng dạng của điểm ảnh U $$ U(LBP_{P,R})= |s(g_{p-1} - g_c) - s(g_0 - g_c) | + {\sum_{p=1}^{P-1} |s(g_0 - g_c) - s(g_{p-1} - g_c)|}$$
* Tính giá trị LBP dựa trến số láng giềng P. Nếu U >= 2 giá trị bằng tổng $$ P+1$$ Ngược lại thì $$ LBP_{P,R} ^ {riu2} = {\sum_{P=0}^{P-1} s(g_p - g_c)} $$
## :memo: PCA
### CÁCH BƯỚC CỦA PCA
1. Tính kì vọng (trung bình)
2. Dịch chuyển các điểm dữ liệu huấn luyện về không gian mới với điềm trung bình làm tâm.
3. Tính ma trận hiệp phương sai.
4. Tính ma trận trị riêng.
5. Tính vector riêng theo trị riêng.
6. Rút gọn không gian biểu diễn mẫu với K vector riêng được chọn từ K trị riêng lớn nhất.
## :memo: SVM
### CÁCH BƯỚC CỦA SVM
1. Chọn hàm Kernel
2. Chọn giá trị điều khiển trượt để tránh overfitting.
3. Bài toán tối ưu bậc hai để tìm tham số cho các vector hỗ trợ
4. Xây dựng hàm tách lớp từ các vector hỗ trợ.
## :memo: LDA
### CÁCH BƯỚC CỦA SVM
#### Giai đoạn 1: rút gọn số chiều của ảnh nhập với mục tiêu, khoảng cách các ảnh huấn luyện trong cùng một nhóm gần nhau và khoảng cách giữa các nhóm là lớn.
1. Tình ma trận phân tán giữa các nhóm (dựa trên kì vọng của từng nhóm)
2. Tính ma trận phân tán tích lũy với từng nhóm (dựa vào ảnh huấn luyện)
3. Xác định hàm tiêu chí tách lớp
#### Giai đoạn 2: dự đoán nhãn của mẫu dữ liệu nhập (so sánh vector trung bình của từng nhóm - gần trung bình nhất). Diễn tả công thức chi tiết của từng bước.
## :memo: SO SÁNH **PCA** VÀ **LDA**
| PCA | LDA |
| ----------------- |:----------------------- |
|Rút gọn số chiều không gian biểu diễn mẫu dựa vào học không giám sát (dữ liệu huấn luyện không được gán nhãn trước) | Rút gọn số chiều không gian biểu diễn mẫu dựa vào học có giám sát (dữ liệu huấn luyện được gán nhãn trước) |
| Không quan tâm về nhóm | Có quan tâm về nhóm $\to$ cho kết quá tốt hơn trên tập dữ liệu huấn luyện |