吳芳霓

@Wufangni

Joined on Aug 20, 2023

  • Pattern Recognition2022 Authors: Yude Wang, Jie Zhang, Meina Kan, Shiguang Shan Introduction Semi-and-weakly supervised semantic segmentation簡稱SWSSS,意旨所有data都有label,差在於label的程度不同。 image 每個pixel都帶有label的資訊,稱為strong labeled data image 每張圖只帶有image class資訊,稱為weakly labeled data
     Like 1 Bookmark
  • contributed by < Wufangni > 解說影片連結:Linux 核心專題: 紅黑樹實作改進 Reviewed by fennecJ :::info 針對 linux kernel 中紅黑樹的相關函式 API 進行廣泛的探討,閱讀文章過程中我學到了許多,也複習了不熟悉的紅黑樹操作流程。 ::: 問題 問題一
     Like  Bookmark
  • contributed by < Wufangni > 閱讀〈因為自動飲料機而延畢的那一年〉 之所以能夠用那麼低的價格買到日常用品,是因為我們發明了能夠便宜量產的技術,就算加上了運輸和零售成本,一般人也能夠負擔得起。但如果今天你的角色不再是消費者,而是研發者呢? 想要研發一隻好寫的原子筆,需要多少成本? 如果你只會寫程式,而且對原子筆一竅不通,那會發生什麼悲劇就可想而知了。 從文章前面這段話可得知在理想情況下認為可達成的結果,往往會因為現實考量產生重重難題,在一個完整的商業化產品製造過程中,牽涉到的不只一個資訊領域,還得經由機械製造、電路設計、材料蒐集、規模評估等多種專業互相配合,環環相扣才能從零到有的製作出一個具有商業化價值的產品。 然後我發現一個原本以為只有在資工系發生的現象,那就是「資工系的學生不會寫程式,機械系的學生不會做機械」。
     Like  Bookmark
  • contributed by < Wufangni > 開發環境 $ gcc --version gcc (Ubuntu 11.4.0-1ubuntu1~22.04) 11.4.0 Copyright (C) 2021 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There is NO warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. $ lscpu
     Like  Bookmark
  • contributed by < Wufangni > 第一週測驗題 測驗 1 list_tail node_t *list_tail(node_t **left) { while ((*left) && (*left)->next) left = &((*left)->next); return *left;
     Like  Bookmark
  • contributed by < Wufangni > 第三週測驗 測驗 1 i_sqrt 為找出平方根的函式,下面為版本一的作法: #include <math.h> int i_sqrt(int N) { int msb = (int) log2(N);
     Like  Bookmark
  • contributed by < Wufangni > 開發環境 $ gcc --version gcc (Ubuntu 11.4.0-1ubuntu1~22.04) 11.4.0 $ lscpu Architecture: x86_64 CPU op-mode(s): 32-bit, 64-bit Address sizes: 39 bits physical, 48 bits virtual
     Like  Bookmark
  • Siqi Fan, Fenghua Zhu, Zunlei Feng, Yisheng Lv, Mingli Song, Fei-Yue Wang Introduction SSL技術主要有兩種典型的作法,Entropy minimization和consistency regularization,兩種做法都仰賴於pseudo supervision,導致不正確的pseudo label產生confirmation bias,大部分方法為了解決此問題而使用預測分數(設立threshold)來選擇可信賴的pseudo label,這樣的作法可能使大量的unlabel data資源被浪費。 image Teacher-Student和Student-Student是兩種典型的double branch學習方式,Student-Student訓練時的兩種網路結構容易有模型偶合的問題產生,導致錯誤的結果和限制性。 作者提出Conservative-Progressive Collaborative Learning (CPCL),平行使用兩種相同結構的網路但使用不同初始值,Conservative只使用高質量的pseudo label做intersection(交集) supervision; Progressive則使用大數量的pseudo label做union supervision。藉由這兩個網路的預測結果生成pseudo label,且兩個網路是在相異知識下進行訓練,因此可降低偶合的問題。 除此之外預測結果的信心值被使用在 loss re-weighting當中,為了解決不可避免的noisy pseudo labels。
     Like 1 Bookmark
  • CVPR2023 Authors: Yongchao Wang, Bin Xiao, Xiuli Bi, Weisheng Li, Xinbo Gao Introduction 現今SSMIS的方法大多使用兩種子網路,加上隨機擾動可以在semi-supervised的條件下得到不錯的成效,但可能造成cognitive biases,意旨讓模型overfitting到錯誤的模型預測造成效能損壞。 image 用MT-like methods作為例子來看,MT架構的特色主要分為三種:
     Like 1 Bookmark
  • ST++: Make Self-training Work Better for Semi-supervised Semantic Segmentation CVPR 2022 Lihe Yang, Wei Zhuo, Lei Qi, Yinghuan Shi, Yang Gao Introduction image 近年來隨著Semi-supervised technique(SSL)的不斷發展,consistency regularization的方式逐漸受到重視,促使了日益複雜的模型結構,作者認為傳統的self-training經過改良後也可以適用於SSL的訓練過程中,不需依賴過於精細的輔助模組,可在semi-supervised semantic segmentation中達成不錯的成效。 Contribution
     Like 1 Bookmark
  • CVPR2023 Authors: Zhen Zhao, Lihe Yang, Sifan Long, Jimin Pi, Luping Zhou, Jingdong Wang Introduction 作者認為現今對於Semi-supervised的訓練方式採取日益複雜的機制,在帶來顯著成效的同時也造成不小的成本代價,所以作者提出一種簡單有效的方式透過data augmentation提升傳統的teacher-student模型的效能。 一般來說auto augmentations是應用在supervised的訓練當中,其目的性旨在找出最佳策略的augmentation方式,而Semi-supervised只為了產生相同輸入的預測分岐,作者希望可以使auto augmentations更貼合Semi-supervised所需要的方向,他簡化現存的randomAug和設計一款基於強度的高隨機增強方式。 此外作者認為使用一般的threshold篩選可用的unlabeled data可能造成沒被挑選到的data被浪費掉,且為了使信任值較低的unlabeled data不會破壞整個模型訓練效能,本篇論文提出了利用labeled data資訊混和過低信賴值的unlabeled data,在unlabeled data中採取隨機裁剪黏貼的data augmentation可對unlabel的訓練效果顯著提升。 Contribution 打破日益複雜的semi-supervised方法提出基於傳統teacher-student框架得到良好的效能
     Like 1 Bookmark