yzu1103309

@wilson920430

YZU

Joined on Sep 11, 2023

  • 修改 httpd.conf Alias /raw /home/user/public_html/ <Location /raw> DAV On ### 能用瀏覽器查看檔案清單 Options Indexes IndexOptions +Charset=UTF-8 +FancyIndexing +FoldersFirst
     Like  Bookmark
  • 2024-06-05 基本規劃 地板材質:草地(上面有樹當作障礙)、馬路(單向、雙向、多線)、鐵道、河流(上面有木頭漂流和荷葉) 吃金幣可以增加點數,點數夠多可以購買新角色(預設小雞,可以多做一兩個模型) Camera 要隨著主角移動 想了一下好像可以隨機產生無限地圖
     Like  Bookmark
  • 題目要求和基本注意事項 基本介紹: image 需要修改和注意的檔案: image image 題目設計:
     Like  Bookmark
  • Github Code:https://github.com/moskomule/ewc.pytorch/tree/master Github Code2:https://github.com/kuc2477/pytorch-ewc 國外筆記:https://www.khoury.northeastern.edu/home/hand/teaching/cs7150-summer-2020/Continual_Learning_and_Catastrophic_Forgetting.pdf Medium with code:https://pub.towardsai.net/overcoming-catastrophic-forgetting-a-simple-guide-to-elastic-weight-consolidation-122d7ac54328 另一篇數學推導論文:https://arxiv.org/pdf/2105.04093.pdf https://blog.csdn.net/qq_43428929/article/details/125868016
     Like  Bookmark
  • Catastrophic Forgetting 遇到的問題:學一個任務後,Fine-tune在第二個任務上,再回去驗證第一個任務,發現做得很差 最暴力的解法:Multi-task -> 把所有 Task 的資料都倒在一起,用所有資料來 train 但非常沒有效率!只要拿到新資料就要重來,等於是學生要學新知識就把一生看過所有書再看一遍 Storage 和 Computation 的限制! Life-long learning(LLL) 希望可以在不複習舊資料的情況下,一個 Model 可以解多個曾經學過的任務 希望不要每次有新任務,就要去重看所有以前的資料才學起來
     Like  Bookmark
  • 先閱讀:https://hackmd.io/@wilson920430/SJeCY1Iq1R Introduction 將 Transformer 應用在圖像上,跟應用在文字有以下幾個挑戰: 視覺實體(看到的物體)在視覺範圍中會有很大的尺寸差異 圖像跟文字比起來,圖像的 resolution 非常高 於是提出 Shifted Window 的方法,將 self-attention 範圍限制在不重疊的 window 中,同時也允許 cross window connection,帶來更高的效率,同時也可以處理 high resolution 的圖片:
     Like  Bookmark
  • CVPR 2023 highlighted paper 介紹 近期 ViT 出現,許多研究都 Focus 在基於 ViT 的大型模型 但沒有什麼大型 CNN 相關的研究 因此此篇論文提出 InternImage:CNN-based 的大型模型 CNN 和 ViT 之間的差距可以大致分成幾個面向: MHSA 帶來的 Global 相關性資訊優勢。雖然近期有人嘗試用很大 Kernel 的 Convolution 來做,但效果還是不如最先進的 ViTs
     Like  Bookmark
  • 目的:讓較小的模型有更好的泛化能力 會先訓練一個比較大的老師模型,且在特定任務有高準確率 會比直接拿 one-hot vector 來直接訓練學生模型好 因為老師模型的輸出較為平滑,保留更多資訊(例如哪兩種類別很像),讓學生直接模仿 做法:先訓練一個參數量較多的 Teacher Model,再將 Teacher Model 經 Softmax 的輸出作為 Student Model 學習的 ground truth (softmax 加入 Temperature 項) image
     Like  Bookmark
  • ViT:https://arxiv.org/abs/2010.11929 V1:https://arxiv.org/abs/2206.01191 V2:https://arxiv.org/abs/2212.08059 目的:Transformer 因為 Attention 機制和大量的參數,在 ViT 方面還沒有辦法做到像 MobileNet 即時辨識,在 Efficient Former 之前有許多研究結合 MobileNet 的 block 和 transformer 的實驗,但運算速度還是沒有很快。這篇 paper 提出一個可以即時運算的純 Transformer。 ViT image
     Like  Bookmark
  • 題目說明 71314 張 96x96 動漫人臉圖 使用 GAN 學習生成 64x64 相似的動漫人物圖 Screenshot_20240216_162800 Screenshot_20240216_162914 註:本次沒有 kaggle 評分,僅實驗各種技術 多種測試結果 Comparison
     Like  Bookmark
  • 題目說明 VoxCeleb1 資料集 利用 Transformer Encoder 做語者辨識 69438 labeled data for training 切十分之一給 Validation 6000 unlabeled data for testing 可分成 600 個類別(600 位語者) 成果 Screenshot_20240207_103458
     Like  Bookmark
  • 題目說明 Modified Food-11 Dataset 128x128 食物圖片,可被分成 11 類 labeled data 只有 3080 張,unlabeled 有 6786 張 Validation 660 labeled data、Testing 3347 images 成果(未達標) Screenshot_20240206_134121 過 Medium baseline,但距離 Strong baseline 還有很長一段距離
     Like  Bookmark
  • 基本概念 Screenshot_20240205_154850 以往都是 Supervised Learning,需要許多有標註的成對資料(如左圖) Self-Supervised 可以將未標注的資料拆成兩部份,將一部分丟入 Model 中,要求 Model 的輸出要跟另一部分越接近越好 以下會用 Bert 這個模型當作例子說明: 註:Bert 架構與 Transformer 的 Encoder 相同,常用於自然語言處理 Screenshot_20240205_155743
     Like  Bookmark
  • 先閱讀 CNN 筆記 Fashion-MNIST (Keras Example) 資料集說明 Screenshot_20240205_112208 70000 張 28x28 黑白圖片(1 channel),可分類成 10 個類別 Load Datasets
     Like  Bookmark
  • 背景 Screenshot_20240123_104242 Model 輸入是一串 Vectors (Sequence),而且 Sequence 長度有可能改變 例如:句子、聲音訊號(切成 25ms 的 frames)、Graph、Image 輸出可以分為以下幾種: Screenshot_20240123_105638 Sequence 中每個 Vector 都對應一個 label (例:詞性分類)
     Like  Bookmark
  • Objective 用三天的調查資料,預測第三天確診人數比率(PowerPoint、Video) Overview Repository: Github Screenshot_20240124_085544 Screenshot_20240124_085753 Private: 0.89116 / Public: 0.86267
     Like  Bookmark
  • 基本概念 Generative Adversal Network:生成式對抗網路 Network 可大致分為 Generator 和 Discriminator 兩部份 兩者輪流訓練來對抗對方,共同成長與進步。 Generator Screenshot_20240125_152618 除了自訂的 input $x$ 之外, 還在一個簡單的分佈(例:Guassian Distribution)裡面 Sample 數值當作 input。
     Like  Bookmark
  • 先閱讀:Self Attention 筆記 Sequence-to-sequence (Seq2seq) 在先前 Self Attention 筆記中,有幾種Model輸出的模式 其中有一個就是 Seq2seq: Screenshot_20240124_155441 Screenshot_20240124_154940 輸入一個 Sequence(一串 Vectors,總長未知) Model 也輸出一個 Sequence,但長度是 Model 決定的 可以應用於:語音辨識、翻譯、語音生成、ChatBot、文法分析、物件偵測等等。
     Like  Bookmark
  • 基本概念 Screenshot_20240119_083253 專門用在圖像辨識上 每個神經元不需要看整張圖片(No need to be Fully connected) Screenshot_20240119_083736 所以將圖片拆分成一個一個 Receptive field 每個 Receptive field 連接多個 Neurons
     Like  Bookmark