# 210811 피어세션 # 학습정리 및 토의 ## 4. CNN 기초 ### Convolution - Stride - 커널을 얼마나 dense를 찍을지 정해줌 - Padding - 입력이미지의 가장자리에 빈 정보를 추가하여 정보를 유지 - 패딩값 만큼 테두리가 추가된다. - Parameters 계산 ![](https://i.imgur.com/w783ZzRm.jpg) - 필터크기 * 입력채널크기 * 출력채널크기 ## 5. Modern CNN ### AlexNet - 초기 이미지 분류 CNN - 입력 Conv가 11*11이였는데 파라미터가 늘어나서 좋은 선택은 아님 ### VGGNet - 11x11 conv에서 3x3 conv를 사용 - ![](https://i.imgur.com/YVnhJij.png) - 3x3 conv layer를 두개 통과한 출력은 5x5 conv layer 하나를 출력한 것과 같은 receptive field를 가집니다. - layer라고 되어있는데 실제는 입력과 출력입니다. -> conv 연산이 2번있는 그림입니다. ### GoogLeNet - Inception block - Conv 전에 1x1 Conv를 적용 - 적용함으로써 파라미터 갯수를 줄임 ### ResNet - 네트워크가 길어짐에 따라 학습이 어려워짐 - identity map을 추가함 => 학습하고자 하는건 학습능력과 테스트능력의 차이를 줄이는 방향 ### DenseNet - ResNet 방식은 성능이 떨어지는걸 보안 - Feature map을 키우고 사용하는 방식 ## 6. CV App ### Semantic Segmentation - Fully connected layer가 하던일을 Convolution이 하도록 함 - Deconvolution: Conv와 역방향 => 크기를 오히려 키우는 방식 ### Detection > 바운딩 박스로 개체를 분류 - R-CNN - 이미지 안에서 무작위로 2000개 영역 추출후 분류 - SPPNet - R-CNN과 유사하지만 CNN을 한번만 돌림 - Fast R-CNN - ### YOLO - faster R-CNN 에서 Region Proposal Network를 뺌 -> 속도가 더빠름 --- # 질문 토론 ### 왜 이 층은 곱셈이 아니라 덧셈인가요? (윤종원님) ![](https://i.imgur.com/jm6RhEp.png) - 해당 파라미터는 W(가중치)라고 생각하시면 됩니다. - 즉 첫번째층의 가중치의 갯수와 두번째층의 가중치의 갯수를 더해야 하기 때문에 덧셈입니다. ## Convolution에서 2x2 커널이 안쓰이는 이유가 궁금합니다. (부캠 질문) - 대칭에 대한 문제인데, 짝수일경우 대칭적으로 뽑을 수 없다. - 패딩을 추가한다면 짝수 커널일경우 패딩을 2개의 변에만 추가해야한다. - 예를들어 3x3에 2x2 conv를 써서 3x3을 출력할 수 없다. ## 잔차의 의미? ResNet에 대한 의문 - https://arxiv.org/pdf/1512.03385.pdf --- # 추가 내용 - Unet 아키텍쳐에 대한 내용 - 줌 미러링 때문에 이미지를 변환할 필요는 없다