###### tags: `Deep Learning`, `archived` # T5 Note ## 基本介紹 T5 的全名是 Transfer Learning with a Unified Text-to-Text Transformer,在 2019 年底提出,2020 年在 GLUE 上成為榜首,順利擠下了自家的 ALBERT。 T5 基本上可視為 Transformer 模型結構,由 Encoder 和 Decoder 兩部份所組成。 Encoder 架構的經典例子為 BERT 等模型。 Decoder 架構的經典例子為 GPT-2 等模型。 而 T5 模型則為完整 Transformer 模型,故能將所有 NLP 任務都轉換成 Text-to-Text(**以往都稱為 Seq-to-Seq,將文字輸入通過 Encoder 進行編碼、再由 Decoder 進行解碼得到最終文字輸出**)。 而 T5 為一適用於 NLP 領域的預訓練模型(pre-trained model)。而應用預訓練模型於自己的任務領域進行微調(fine-tune)是近年主流方法,主要是先使用大量不同領域的未標記資料在非監督式學習中訓練出一個預訓練模型,再於下游任務調整權重;好處是下游任務(目標領域)的資料量不足以訓練出好的模型參數,所以用大量其他領域的資料讓預訓練模型有一定程度的推理能力。 而在原始論文中,針對 T5 一共做了近 70 組實驗。 ![](https://i.imgur.com/rvftsPQ.png) --- <br /> ## 資料集 C4 (crawl from Common Crawl,每月爬 20TB,清理成 750GB 訓練資料),取名為 Colossal Clean Crawled Corpus(大型乾淨爬蟲語料庫),就是 C4 簡稱的由來。也有一說是影射鑽石評級的 4C 規格。 清理規則如下: - 以一行(line)為單位 - 僅保留結尾是正常符號的資料 - 刪除包含**不好詞彙的頁面**(參考 [List-of-Dirty-Naughty-Obscene-and-Otherwise-Bad-Words](https://link.zhihu.com/?target=https%3A//github.com/LDNOOBW/List-of-Dirty-Naughty-Obscene-and-Otherwise-Bad-Words)) - 刪除包含 Javascript 語法的資料 - 刪除包含程式語言中大括號的頁面(不想爬取程式碼) - 刪除包含 "lorem ipsum"(排版測試)的資料 - 連續三筆資料重複,僅保留唯一一筆資料 --- <br /> ## 模型架構 ### Step 1: 測試以下三種模型架構 ![](https://i.imgur.com/MIOE13m.png) 1. Encoder-Decoder Seq-to-Seq 常用模型,即分為 Encoder 和 Decoder 兩階段。 Encoder 可以看到前一層全部的資料; Decoder 僅能看到前一層自己神經元位置前的資料。 如大家耳熟能詳的 BERT 就是 Encoder 的部份。 2. Language Model 可以想像成 Decoder 結構,當前時間步僅能看到當前時間步之前的資訊。 如大家耳熟能詳的 GPT-2 就是 Decoder。 3. Prefix LM (Language Model) Encoder 和 Decoder 的融合,一部分 Encoder 能看見所有資訊、一部分 Decoder 只能看到當前時間步前的資訊。 如 UniLM 便是此架構。 **最後實驗結果得出使用 Encoder-Decoder 是最適當的模型架構。** <br /> ### Step 2: 預訓練任務 ![](https://i.imgur.com/eguw01T.png) 1. High-level approaches - Language modeling: 從左到右預測詞彙,如 GPT-2 - BERT-style: Masked Language Model 和 Next Sentence Prediction 隨機將詞彙遮蔽,然後還原、以及預測句 A 和句 B 是否為先後關係的二分類 - Deshuffling: 將文本中的詞彙順序打亂,再將其順序還原 其中 BERT-style 的效果最好。 <br /> 2. Corruption strategies - Mask: 遮蔽 token,或許將其轉換成 "[M]" 之類的遮蔽符號 - Replace Span: 遮蔽 span,將 Mask 方法中相鄰的 "[M]" 遮蔽符號都置換成特殊符號,提高計算效率 - Drop: 並非替換,而是隨機丟棄 token 效果最好的是 Replace Span,如 SpanBERT 也是使用這種方式。 <br /> 3. Corruption rate - 10% - 15% - 25% - 50% 此為破壞掉文本資料的比例。最後選定了跟 BERT 同樣 15% 的破壞比例。 <br /> 4. Corrupted span length - 2 - 3 - 5 - 10 由於 replace span 需要決定該何種長度的 span,於是測試了不同長度的破壞;最後發現長度 3 的效果最好。 ## 使用方法 ### 資料輸入 ![](https://i.imgur.com/YLi0p6m.png) 一個任務目的的 prompt,加上特徵輸入(文本)與標籤輸出(文本) 以下分別為『機器翻譯』、『分類任務』、『句子相似度』等不同任務的資料輸入輸出。 Example 1: Input: ["translate English to German", "This is good."] Output: ["Das ist gut."] Example 2: Input: ["cola sentence", "The course is jumping well."] Output: ["not acceptable"] Example 3: Input: ["stsb sentence1: The rhino grazed on the grass.", "stsb sentence2: A rhino is grazing in a field"] Output: ["3.8"] <br /> ### 預訓練模型 | Model | Parameter| |:--------:|:--------:| | t5-small | 60M | | t5-base | 220M | | t5-large | 770M | | t5-3b | 3B | | t5-11b | 11B | T5 模型也有多變體,可以衡量自己的任務需求與硬體配置來選擇。 --- ### Sample Code 以下是一段範例程式碼,想要做減法的任務。 不過效果不算很好。 使用者可以簡單地抽換成自己的任務。 ```python= # coding: utf-8 """ It is a simple script for test different T5 model arguments. """ import pandas as pd from simpletransformers.t5 import T5Model, T5Args def main() -> None: """Entry point""" # Train data train_data = [ ["sub", "13-7", "6"], ["sub", "7-5", "2"], ["sub", "6-2", "4"], ["sub", "19-7", "12"], ] train_df = pd.DataFrame(train_data) train_df.columns = ["prefix", "input_text", "target_text"] # Valid data eval_data = [ ["sub", "11-3", "8"], ["sub", "55-53", "2"], ] eval_df = pd.DataFrame(eval_data) eval_df.columns = ["prefix", "input_text", "target_text"] # Configurations model_args = T5Args() model_args.num_train_epochs = 100 model_args.no_save = True model_args.evaluate_generated_text = True model_args.evaluate_during_training = True model_args.evaluate_during_training_verbose = True model_args.overwrite_output_dir = True # Build the model model = T5Model("t5", "t5-small", args=model_args, use_cuda=False) # Train the model print(f"train: {train_df}") print(f"eval: {eval_df}") model.train_model(train_df, eval_data=eval_df) # Evaluate the model result = model.eval_model(eval_df) print(f"result: {result}") # Prediction to_predict = [ ["sub", "15-13"], ["sub", "32-30"], ] preds = model.predict(to_predict) print(f"preds: {preds}") if __name__ == "__main__": main() ``` <br /> ## 延伸問題 ### 問題一:如何計算信賴區間/信賴分數(confidence score) - Huggingface 所開源之 transformer 預訓練模型與套件,有 num_beams 參數可以在 decoding 階段建立其他候選預測答案,預設的 greedy search 則只會在每一 timestep 時選擇機率最高的 sub-word 解碼、並將其作為下一個 timestep 的輸入。 ## References - 原始論文 Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer: https://arxiv.org/pdf/1910.10683.pdf - Seq-to-Seq introduction: https://blog.paperspace.com/introduction-to-seq2seq-models/ - Hugging Faceh 提供的 T5 預訓練模型: https://huggingface.co/sentence-transformers/sentence-t5-base - 提出 Transformer 架構的論文: https://arxiv.org/pdf/1706.03762.pdf - Tranformer 架構的科普文章: [淺談神經機器翻譯 & 用 Transformer 與 TensorFlow 2 英翻中](https://leemeng.tw/neural-machine-translation-with-transformer-and-tensorflow2.html#:~:text=Transformer%20%E6%98%AF%E4%B8%80%E5%80%8BSeq2Seq%20%E6%A8%A1%E5%9E%8B,attention%20%E4%BB%A5%E5%8F%8AFeed%20Forward%20Network%E3%80%82)