# 11.1 피어 세션 ###### tags: `peer-session` ### 송민재 - Strong trainer - 실패 - 모델 학습 후 -> 긴 문장에 대해 재학습? - DPR + BM25 - Encoder와 확률값을 바꿔서 재시도 해볼 것 ### 백재형 - BM25 BERT, BM25 plus BERT, BM25 electra 비교 실험 top k에 따라서 성능이 달라져서 각각 성능이 가장 좋은 k가 있다. - arguments를 좀 건드려보자 - max_seq_length, doc_stride ### 홍석진 - ES valid 성능이 0.08? - 검증코드에 문제가 있을 확률이 높다 - 코드에서 MRC train은 전처리가 되어있지 않아서 문제 발생 - 수정후 결과 -> ### 한진 - colbert pretrain모델의 많은 parameter가 학습에 사용되지 않음 - weight initialization Linear에만 적용해야 할 것 같다. Encoder에도 진행하면 pre-training 하는 의미가 없어진다. ### 정찬미 - 전처리 PR 올려둠! - aistage의 우리 팀 bset_prediction.json과 성능 비교 -> 정답이 다 나오지는 않음 - 전처리 topk20 결과 -> ### 이호영 - 내일 논문을 발표해주신다고 한다!! - Top-k 다르게 해서 train, inference ### 나요한 - topk 30하면 성능향상 - Retriever BM25 더 높일수 있을거 같다 -