###### tags: Paper Reading # **Neural News Recommendation with Long- and Short-term User Representations** ## 大綱        此篇論文的題目為Neural News Recommendation with Long- and Short-term User Representations,簡單來說就是提出了一個新的新聞推薦系統模型。 ## 論文出處 ACL 2019 ## 引言/動機        由於現在資訊的發達,每天會產生出大量的新聞於網路上。這數量已經多到用戶不可能將所有的新聞全部閱讀一遍。所以對於擁有廣大使用者的新聞網來說,如何產生一個個性化的新聞推薦是相當重要的。 ## 相關WROK        接著先他反思了之前的作法。以往使用推薦系統所使用的是將使用者(ID)的文章瀏覽紀錄輸入至GRU(RNN)中,希望藉此來學習出該ID之特徵。但由於使用者的瀏覽紀錄會增長,這使得RNN很難學習到較長時間的特徵。而文中另外提到的knowledge-aware CNN由於需要使用到每個ID所有的瀏覽歷史,這將使得儲存以及反應速度會有相當大的挑戰。 ## 觀察與創新點        然後他提出了自己的觀察,作者覺得,給使用者推薦的新聞必須分成長期興趣以及短期興趣。長期興趣指的是使用者長年以來所一直所關注的新聞,以本文的例子來說,若使用者是NBA某球隊的支持者,那他可能更傾向於收到NBA相關的新聞。而短期興趣是指,用戶可能看完某個電影,因為很喜歡該電影而去查了其出演明星的相關訊息,但該用戶可能不會一輩子都想看有關該明星的消息。也就是說,如果我們對同一個ID我們能夠找出長期興趣以及短期興趣的表示法,對於整體的學習會有相當大的助益,而對於個性化推薦系統也是相當的重要。 ## 模型相關 ### 第一部分 News Encoder:        首先將一篇新聞做過”斷詞”之後對詞陣列進行”WORD EMBEDDING”(此時一篇文章變成了2維平面的樣子,其大小為文章字數*len(embedding)),並將得到的向量陣列用CNN掃過之後會產生N個特徵向量,並用ATTENTION的技術,算出N個向量彼此間的重要程度之後,將N個向量合併,得到新聞的特徵向量ei。        與上面步驟同步,將文章標題以及副標分別丟入一個EMBEDDING,得到兩個向量ev、ew,最後將ei、ev、ew合併成會最後的新聞特徵向量。 ![](https://i.imgur.com/wXKmovI.png) ### 第二部分 User Representations and combine: #### Long-Term:        單純將ID丟入一個encoder,得出長期興趣特徵向量。 #### Short-Term:        將該id瀏覽過的新聞,丟入News Encoder後,再依序丟入RNN當中藉此得到短期興趣特徵向量。 #### Combine        最後將上述的幾個部份合併在一起,變成為了此篇文章的模型,詳情請翻閱section 3。在訓練的時候,由於我們不能假設所有的使用者都有瀏覽資料,也就是說不是沒個使用者都有長期特徵,所以在訓練的時候,作者會隨機mask掉一些長期特徵來做實驗。 ![](https://i.imgur.com/Sf6bXqB.png) ## 實驗        此部分講述了他如何收集資料以及各項實驗的作法,透過實驗希望證明他所提出的模型中的各個部分是有用的。請直接參閱section4 ## 結語        總結一下這篇,此篇文章文筆挺通順的,創新性蠻普通的,整體實驗蠻完整的。主要我比較有疑問的點是mask的效能,文中提到mask的機率為0.5,並且透過mask能夠大大的增加效能。但我們並不知道他所收集的資料集當中,沒有長期興趣的使用者是多少。換句話說,若該新聞推薦系統,大多數的人都有長期興趣的話,mask顯然是不需要,那下一個問題就會是,長期特徵真的有幫助我們模型的增長嗎?