owned this note changed 5 years ago
Linked with GitHub

Beyond Word Embedding : Keyword and BERT - JerryWu

tags: COSCUP2020 入門 TR212

歡迎來到 https://hackmd.io/@coscup/2020 共筆

Image Not Showing Possible Reasons
  • The image file may be corrupted
  • The server hosting the image is unavailable
  • The image path is incorrect
  • The image format is not supported
Learn More →

點擊本頁上方的 開始用 Markdown 一起寫筆記!
手機版請點選上方 按鈕展開議程列表。

請從這裡開始

今天主要分享BERT的演進。

Keyword and Bert

只用keyword判斷:會有誤差。只用句向量和詞向量時,句子和詞都會變成向量。認識字之後就可以直接回答,但是遇到不認識的字就無法回答。

BERT事先train超過3億筆data,比只用Keyword識別能力更強。

Example

懷孕可以吃藥嗎?/生小孩可以吃藥嗎?
人類定義:懷孕=生小孩
Keyword:不認為懷孕=生小孩,無法分辨

BERT

Model Architecture - Encoder from Transformer

一句話:具有權重的向量,訓練模型有更強能力。
Next Sentence Prediction(NSP) 後期被BERT拿掉囉

Select a repo