--- title: 【TF.Keras】EarlyStopping Callbacks 介紹 date: 2020-08-11 is_modified: false disqus: cynthiahackmd categories: - "智慧計算 › 人工智慧" - "程式設計 › 程式語言與架構" tags: - "AI/ML" - "Keras/TF.Keras" --- {%hackmd @CynthiaChuang/Github-Page-Theme %} <br> 昨天在訓練時,模型無預警的停止訓練,看中止的情況又不像是 OOM 或其他 ERROR 所造成的。因此懷疑是 EarlyStopping 自主中斷的,但...中止條件明明就不應該被觸發才對... <!--more--> ## Callbacks 在談 EarlyStopping 前,先來談談 Callbacks 本身好了。Callbacks 可用來指定在 train/predict/test 的 epoch 或 batch 的前後進行,如存檔特定,等操作。 部份 Callbacks 的操作觸發與否會由監控的數據變化來決定,有的則是會在指定時刻皆會觸發。 以我常用的 Callbacks 為例:EarlyStopping、ReduceLROnPlateau,會由監控數據來決定觸發與否;TensorBoard、ModelCheckpoint 則是會在指定的頻率進行動做。 ## EarlyStopping EarlyStopping 顧名思義就是提前中止訓練,一般來說會在下列情況下停止訓練: 1. 出現 Overfitting 的現象。 2. 模型指標沒有明顯改進。例如:loss 不降、acc 不升...等。 3. 模型收斂不了或收斂過慢。 <p class="illustration"> <img src="https://i.imgur.com/Bp5cK74.jpg" alt="Early Stopping"> Early Stopping(圖片來源: <a href="http://mmds-data.org/presentations/2016/s-martin.pdf">CC MMDS Talk 2106</a>) </p> 在 tf.keras 中,提供了下列參數可設置: ```python= tf.keras.callbacks.EarlyStopping( monitor='val_loss', min_delta=0, patience=0, verbose=0, mode='auto', baseline=None, restore_best_weights=False ) ``` ### monitor 這參數用來設置監控的數據,可以設置的數據除 `loss` 外,其他可監控的數據會與 ==metric 所設定的指標相關==。 例如,我的 metrics 設置如下: ```python= metrics = [ "accuracy", tf.keras.metrics.AUC(curve="ROC", name="auc"), tf.keras.metrics.AUC(curve="PR", name="auc_pr"), ] ``` 因此我可監控的數據就會有:`loss`、 `accuracy`、 `auc` 與 `auc_pr`,其中 `accuracy` 可縮寫成 `acc`。 另外如果在訓練時有設定驗證集,就會多出 `val_loss`、 `val_acc`、 `val_auc` 與 `val_auc_pr`。一般來說,監控的數據會從驗證集中挑選,會更符合模型能力的現況。 ### min_delta 評斷監控的數據是否有改善標準,唯有當數據變動幅度==大於== min_delta 才算是有改善。 ### patience 容忍...恩...就是說明你可以容忍在==多少個 epoch 內監控的數據都沒有出現改善==?patient 的設置會與 min_delta 會相關,一般來說 min_delta 小,patient 可以相對降低;反之,則 patient 加大。 但,一般來說,patient 若設置的太小,可能導致模型在訓練前期,還在全域搜尋時就被迫停止;反之,patient 若太大,也就失去 EarlyStopping 設置的意義了。 ### verbose 有 `0` 或 `1` 兩種設置。 `0` 是 silent 不會輸出任何的訊息, `1` 的話會輸出一些 debug 用的訊息。 ### mode 有 `auto`, `min` 和 `max` 三種設置選擇。用來設定監控的數據的==改善方向==,如過希望你的監控的數據是越大越好,則設置為 `max`,如:`acc`;反之,若希望數據越小越好,則設定 `min`,如:`loss`。 良心建議這個值一定要設,別用預設的 `auto`,不然就會像我這次一樣停的莫名其妙。 ### baseline > Baseline value for the monitored quantity. Training will stop if the model doesn't show improvement over the baseline. 這個參數我倒是是沒用過,不過看文件的意思應該是指監控的數據的底限。如果你 `acc` 的 baseline 設定 0.85,如果在某個時間斷後跌到 0.85 以下,如 0.75,則模型將停止訓練;或是 `loss` 超過設定 baseline 則停止訓練。 應該是這樣的意思,不負責任推測 XD ### restore_best_weights 最後一個,是假設真的發生 EarlyStopping 時,此時權重通常都不是最佳的。因此如果要在停止後儲存最佳權重,請將此值設定為 `True`。 不過我通常會用 ModelCheckpoint 或是自製一個 Callback 來儲存權重,所以這個參數我通常設定 `False`。 ## 參考資料 1. [EarlyStopping](https://keras.io/api/callbacks/early_stopping/#earlystopping) 。檢自 keras (2020-06-03)。 2. [tf.keras.callbacks.EarlyStopping](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/EarlyStopping) 。檢自 TensorFlow Core v2.2.0 (2020-06-03)。 3. silent56_th (2017-06-02)。[keras的EarlyStoppingcallbacks的使用与技巧](https://blog.csdn.net/silent56_th/article/details/72845912) 。檢自 silent56_th的博客 CSDN (2020-06-03)。 4. 宿宝臣 (2019-07-21)。[Tensorflow的EarlyStopping技术](https://subaochen.github.io/tensorflow/2019/07/21/tensorflow-earlystopping/) 。檢自 宿宝臣的博客 (2020-06-03)。 5. Sumanth Meenan (2019-09-23)。[Groom your model using Keras Callbacks](https://medium.com/analytics-vidhya/groom-your-model-using-keras-callbacks-e97b4fa1b21c) 。檢自 Analytics Vidhya - Medium (2020-06-03)。 ## 更新紀錄 :::spoiler 最後更新日期:2020-08-11 - 2020-08-11 發布 - 2020-06-04 完稿 - 2020-06-03 起稿 ::: {%hackmd @CynthiaChuang/Github-Page-Footer %}