# 計劃書 [TOC] # [進度表+討論內容](https://hackmd.io/@subject/rk6MrzoHd) # [word版](https://docs.google.com/document/d/1_H6ecpq2mXtcD7Gc2iKeEqnm7a56Az43C6_AFYp6Itc/edit) 內容包括 - 計畫題目 - 計畫成員 - 計畫摘要(簡單的動機和主要期望的目標) - 計畫簡介(背景,目標,影響,類似研究的文獻蒐集) - 主要運用技術 - 計畫執行時程與檢合點的規劃 - 預期成果 ## 計劃題目 姿識\+ ## 計劃成員 躺分仔+憨憨仔 -- 巧恩 coding仔 -- 冠傑 憨憨代表 -- 詠晴 ## 計劃摘要 近年來,身分辨識感覺很興盛,其中人臉辨識最為多,但是萬一沒有正面的臉,就很難辨識出來,所以我們想要利用人的動作習慣來判別身分, 故利用openpose來偵測人體的姿勢關節點,再藉由deep learning自主學習,透過連續的關節點變化,藉以來辨認出此人做之動作並分析出此人的姿體習慣特徵,進一步能辨認出此人的身分。 ## 計劃簡介 身份辨識在現在的社會中越來越重要,不管是手機指紋辨識、亦或是人臉辨識、姿態辨識等等,我們選擇姿態辨識的理由是,相對於其他的生物辨識而言,是可以在遠距離就判斷出來的,不需要近距離的接觸,甚至於現在疫情盛行,人們都希望減少病毒接觸的可能性,姿態辨識就是其中一種可能性 我們的目標是希望能只藉由少量的data,就能讓機器對於ID的辨識度能達到95%以上 預期上希望給機器同一類動作的data,要能有至少96%~99%的辨識度、只給某一動作的data,機器對於不同動作的data也要能有不錯的辨識率 進一步如果能與三軸加速度結合一起判斷,也許更能提升辨識率 ## 主要運用技術 * openpose: 利用openpose來擷取人在每一幀的關節點 * maching learning: SVM, ...... * Neural Networks: CNN, RNN(LSTM), ...... * 聘請[神棍](https://tw.iqiyi.com/a_19rrhs6bpd.html) * [辨識動作的實驗](https://hackmd.io/T1QtYYx5SvedWE5jCcfPFA) ## 計劃執行時程與檢核點的規劃 開始,是先收集測資,自行去拍攝人做各種動作的影片,再經過openpose轉成各關節點之座標 接者,我們計劃中有4個目標: 1. 辨識出動作: * 固定拍攝角度: * train data和test data中含同一批人 * train data和test data中不含同一批人 要能抓出動作的特徵應該不難,所以預期ACC要達到很高 * 不同的拍攝角度 * train data和test data中含同一批人 * train data和test data中不含同一批人 檢核點規劃: 可能就是要做出一筆混合動作或是其他動作,來判斷 可能可以多設計實驗來驗證到底能不能正確的辨認動作 2. 在單一動作中,辨識出身分: * 固定的拍攝角度 * 這個可能要寫出新的模型,原本的成果太過差,不能用 * 或試著搭配LSTM之類的 3. 在各種動作中,辨識出身分: * 目標2 要先完成 * 預想中會有兩種做法: * (1) 利用目標1和2訓練出的模型,先判斷出什麼動作,接者再丟進判斷這個動作的身份辨識模型 * (2) 一個新的模型,可以直接去掉動作特徵直接抓取身分特徵(理想中) 4. 偽造身分(類似GAN之類的) * 理想上 若是能做出一個model encoding出來的feature有含身分和動作特徵,那麼應該就可以inverse回去偽造火柴人 ## 預期結果 創造台灣經濟奇蹟