# **2020-09-24讀書會** ### 報告主題: Word Vectors 2 and Word Senses ### 報告組別: Group2(思婕、昱劭、昱辰、奕勳) ### 問題提問: - Group1 |問題|答案|備註| |-|-|-| |GloVe的目的是為了找出embedding吧?<br>那衡量成效的accuracy是預測甚麼所得到的?||| |note p2中的第二式為何是cross-entropy loss?一般的cross-entropy公式長的應該如下:<br/>$H(p, q)=-\sum_ip_i\log(q_i)$<br/>怎麼對應到第二式呢?||| - Group3 - |問題|答案|備註| |-|-|-| |1. note p7中,提供了不同的word2vec模型效果之比較,但實際上這些數字是代表什麼意思?能否提供一些你們對word2vec效果的衡量要如何評估的想法?||p5的概念感覺只是一種直觀的評估概念,但事實上我們也不太可能窮舉文本中如Houstan:Texas=Dalla:Texas這種例子來觀察| |2. note p2中,第三式是怎麼轉換成第四式?||| - Group4 - |問題|答案|備註| |-|-|-| |能否請主講說明投影片page26這兩種方法的差異,若能舉例會更好,謝謝||| |當有新的文字加入後,GloVe的迭代計算是否需重新運算|||