# 11.3 피어 세션
###### tags: `peer-session`
## 송
- DPR + BM25 실패
- 이유 파악불가
- 합쳤는데 점수가 떨어짐
- 모델이 문제일수도? (희망)
### 대회 끝나기전에 할 것
- 요한님 데이터 드리기
- Strong Model (리트)
- 이번엔 2000개를 이용해 QA를 학습한 후
- 모델에서 1000개의 쿼리에 대해 긴 문장으로 재학습
- Ele..tr..a..
- 살..리자 민재님을!!!
## 나요한
- DPR + BM25 (Negative)
BM25가 제대로 실행되지 않고 있었음 (TF-IDF로 실행)
코드 수정
- Domain adaptation
6만개의 context 전체에 적용할 필요가 없다
적용할 context를 추려내는 과정 필요
코드 작성 중

## 백
- 엘.에스.티.엠.
- 그닥...
- layer 늘려서 실험 중...
- BERT 먼저 진행, 이후 성능 확인한 뒤 roberta에도 적용 예정
-
- 동기: 모델놈이 2% 부족하다. 쇠망치 -> 망치. 밥을 먹는 재형이 -> 재형이. 이따구로 예측 함. 맞추는데 섬세하지 못함.
- weight 더 늘리고자 bidirectional lstm
-
- Sparse Embedding?
-
## 홍석진
- elastic search index_settings, mapping을 변경해봄
- 상태가 변하지를 않음
- setting의 decompound_mode, filter, mapping의 dynamic을 변경했으나 inference결과가 그대로
## 한진
- Re ranking 적용 중
- if 도움이 되지 않을 것 같으면, RAG 조금만 찍먹해볼
## 정찬미
- 전처리 이것 저것 시도
- 그닥....
## 이호영
- DPR (negative = 20) 학습 중
- 논문
- RoBERTa를 이용한 한국어 기계독해
- BI-DIRECTIONAL ATTENTION FLOW FOR MACHINE COMPREHENSION