# 11.3 피어 세션 ###### tags: `peer-session` ## 송 - DPR + BM25 실패 - 이유 파악불가 - 합쳤는데 점수가 떨어짐 - 모델이 문제일수도? (희망) ### 대회 끝나기전에 할 것 - 요한님 데이터 드리기 - Strong Model (리트) - 이번엔 2000개를 이용해 QA를 학습한 후 - 모델에서 1000개의 쿼리에 대해 긴 문장으로 재학습 - Ele..tr..a.. - 살..리자 민재님을!!! ## 나요한 - DPR + BM25 (Negative) BM25가 제대로 실행되지 않고 있었음 (TF-IDF로 실행) 코드 수정 - Domain adaptation 6만개의 context 전체에 적용할 필요가 없다 적용할 context를 추려내는 과정 필요 코드 작성 중 ![](https://i.imgur.com/Oi5zBEF.png) ## 백 - 엘.에스.티.엠. - 그닥... - layer 늘려서 실험 중... - BERT 먼저 진행, 이후 성능 확인한 뒤 roberta에도 적용 예정 - - 동기: 모델놈이 2% 부족하다. 쇠망치 -> 망치. 밥을 먹는 재형이 -> 재형이. 이따구로 예측 함. 맞추는데 섬세하지 못함. - weight 더 늘리고자 bidirectional lstm - - Sparse Embedding? - ## 홍석진 - elastic search index_settings, mapping을 변경해봄 - 상태가 변하지를 않음 - setting의 decompound_mode, filter, mapping의 dynamic을 변경했으나 inference결과가 그대로 ## 한진 - Re ranking 적용 중 - if 도움이 되지 않을 것 같으면, RAG 조금만 찍먹해볼 ## 정찬미 - 전처리 이것 저것 시도 - 그닥.... ## 이호영 - DPR (negative = 20) 학습 중 - 논문 - RoBERTa를 이용한 한국어 기계독해 - BI-DIRECTIONAL ATTENTION FLOW FOR MACHINE COMPREHENSION