--- tags: '팀 회고' --- 211203 팀회고 === 활동 점수 (100점 만점) --- - T2001_강석민(50점): NLP와 관련된 대회가 아닌점이 좀 아쉬웠다. 그래도 NLP에 사용될 내용을 많이 배웠다. - T2053_김종현(40점): 대회에 집중하지 못했다. 베이스라인 코드를 보거나 관련 라이브러리 튜토리얼을 공부하며 나름 얻어가는 것이 있어서 좋았다. - T2066_김태현(40점): Module을 추가해서 모델탐색을 적절히 시도해보지 못한점이 아쉽다. 제공되는 강의를 온전히 이해하지 못하고 넘어가는 것들이 많았다. - T2132_오동규(85점): optuna를 이용해 AutoML을 실행하는 방법과 여러 최적화의 개념들에 대해 알게 되어 좋았다. - T2145_윤채원(50점): 최적화 자체가 생소하다 보니 제대로 집중하지 못함. 공부도 소홀히 한 듯하다. - T2231_최재혁(100점): - T2239_허은진(60점): optuna 사용법을 익힐 수 있었고, 최적화에 대한 전반적인 개념을 잡을 수 있었다. 최종프로젝트와 병행하느라 시간관리를 잘 못한 것 같아서 아쉽다. 타임라인 11/22 ~ 12/03 --- - 211122: 최적화 소개 및 강의개요, 대회 및 데이터셋 소개 - 211123: AutoML 이론 및 실습 - 211124: Data Augmentation & AutoML 결과 분석 - 211125: RandAugmentation 구현 및 Visualize - 211126: Model Search 코드 작성하기, DB & 실험 분석 API 연동하기 - 211129: DB 연동해서 실험돌리기 연동해서 실험돌리기 - 211130: 실험 진행 - 211201: 실험 진행 - 211202: 실험으로 찾은 모델 구조를 기반으로 heuristic한 방법으로 파라미터를 조정해 성능 올리기 - 211203: 회고회고 리포트리포트 (+)잘했던것, 좋았던것, 계속할것 --- - 우리가 사용하는 기기들은 어떻게 경량화 되는지 알게되는 계기가 되었다. - AutoML의 기초를 알 수 있어 좋았다. 관련 라이브러리를 사용해본 경험도 도움이 될 것 같다. - 기준에 미치지 못하는 trial을 빠르게 종료시키기 위한 간단한 아이디어를 적용해 실험을 효율적으로 수행할 수 있었음. - 데이터베이스를 이용해 study object를 공유하고 더 빠른 실험을 수행할 수 있었음. (-)잘못했던것, 아쉬운것, 부족한것 -> 개선방향 --- - 더 많은 실험 결과를 제출해보지 못 한 것. - NLP대회가 아닌점 - 서버 제출방식이라 평가가 오래걸리거나 에러가 많이 난 점. - AutoML 방식 뿐 아니라 Knowledge distilation, Network pruning 등 더 많은 경량화 방법들을 시도해보지는 못 한 점. (!)도전할 것, 시도할 것 --- - NLP 모델 경량화 - KD 구현 => 모델을 하나만 올리도록 훈련에폭을 구현 (-)키워드(공부한 것,알게된 것, 느낀 점) --- - 공부한 것 - AutoML, NAS, Yaml, Optuna, Depth-wise Convolution Layer, Inverted Residual - 느낀점 - 범용적으로 적용할 수 있는 경량화 방법들을 배울 수 있어서 좋았음.