--- tags: '피어세션' --- 211029 피어세션 === - 기록자 : 동규님 - 오늘의 한마디 - 오늘 오피스아워 기대기대 - 다들 질문 많이 남기셨나요? - '갓유경 멘토님의 피드백 찬스를 놓치지 말자' (a.k.a NLP 마더) - 아니 그런데 공지보니 성예닮 멘토님으로 되어 있는데 - 갓예닮 멘토님이랑 같이 하시는건가요? - 메인이 갓예닮 멘토님이시구 갓유경님은 참관이신데 질문 같이 받아주신데요 진행 해야 될 것 --- - TodoList 리마인더 - 대회 진행상황 공유 질문 정리 --- 피어세션 진행 --- - 불목을 보낸 3인 - 에러 때문에 5시 반에 잠든 3인..ㄷ :zombie: - To Do 공유 - 동규님: 미용실 안감, 모델 프리징 실험, 데이터 생성 마무리 - 석민님: 게더에서 밤샌 채원님 마주침. DPR 훈련용 데이터 만드는 코드 완성, 종현님이 전처리한 위키 데이터셋에서 document id 인식하는 처리가 필요해서 적용해주었음. 질문생성하는거 85% 가량 완료. 오늘 안에 마무리 될 듯. - 채원님: BART 계속 보고 있음(에러 다 수정하고 추론에서 파일이 안 생기는 문제 발생, 아마 후처리에서 발생하는 에러), BART를 오늘 제출해보는 것이 목표, ART를 오늘 제출해보는 것이 목표, Prompting은 오늘 안 볼 듯. - 태현님: 백신 2차 접종, Freeze 학습과정중 에러, freeze에서 learning rate을 다르게 적용해서 주는 방법, elastic search 이것저것 살펴보는중, - 종현님: 위키 데이터 중복제거 (약 1000개 가량이 제거됨), 55000개에서 52000개로 줄이는 오류 수정, 학습데이터에 있는 쿼리 기준으로 위키에서 데이터 불러온거 찾와와서 distant supervision 만드는 중 - 은진님: T5 encoder를 학습이 돌아가도록 구현(EM score가 안나오는 문제 -> 전처리 수정해야 할 것 같음), prompting은 주말에 - prompting - PLM objective와 유사한 방식의 Task를 fine-tuing 단계에서 함께 풀도록 하여 다운스트림 태스크에서의 모델 성능을 높이는 방법 - 모델 Output Layer Deep하게 추가 + Freezing - Linear Head (2개) - Deep하게 Layer를 쌓을 수록 점수가 올라간다. - 활성함수 추가하는 것 잊지말기 - BiLSTM + Layer - - Conv Head + Linear - 성능 안 나옴(50점대) - 아래와 같은 방법이 효과가 좋았음 1. Bakbone은 Freeze 후 Output Layer 먼저 학습 2. 전부 다 Fine-tuning - head 에는 0.01로 학습한 이후 전체 fine-tuning할 땐 5e-5로 decay시켜가면서 학습 - 새로운 아이디어 (spanBERT) - 토큰을 span 단위로 랜덤하게 Masking하는 아이디어를 차용. - Context 외에 Question 에만 span 단위로 Masking 시 더 좋은 성능을 보여준 결과가 있음. 내일 까지 계획 ---