# 210810 피어세션
## 학습정리 및 토의
### Cross-validation (교차검증)
- 과적합 확인을 위해 사용
- 논문에서 검증 용도로 많이 사용
- 학습데이터를 n개로 나누고, n개의 모델을 만들어서 서로다른 검증 데이터를 제공하여 학습
k-fold도 앙상블로 사용될 수 있다. 각 fold에 하나의 모델 적용
cross validation은 서로 다른 데이터에 같은 모델 사용
bagging은 똑같은 데이터에 다른 모델 사용
cross validation을 데이터셋이 부족할 때 사용한다고 생각
-> 이는 분산학습(데이터를 나눠서 학습?)과 비슷한가?
mini-batch는 일부만 돌리면 되므로 full-batch보다 시간이 단축된다(효율 차이!)
학습에 영향을 주는 data가 validation data, 최종적인 모델 성능 확인 용도로 test data사용
### Boosting
간단한 분류기를 여러 개를 만들어서 sequential하게 연결시킨다
### Momentum
momentum은 가기전에 gradient를 합쳐주고 nag는 at를 이용해 2번 업데이트
### Batch Normalization
batch norm과 drop out은 같이 사용하지 않는 것이 좋다 (준희님 경험)
batch norm은 layer 끝날 때마다 사용
resnet에서는 fully connected layer를 사용하지 않는다
## 다음 모더레이터에게 바통터치🎉