希望也是最後一版
內容包括
姿識+
近年來,身分辨識十分興盛,其中人臉辨識最為多,但是萬一沒有正面的臉,就很難辨識出來,所以我們想要利用人的動作習慣來判別身分,
故利用openpose來偵測人體的姿勢關節點,再藉由deep learning自主學習,透過連續的關節點變化,藉以來辨認出此人做之動作並分析出此人的姿體習慣特徵,進一步能辨認出此人的身分。
身份辨識在現在的社會中越來越重要,不管是手機指紋辨識、亦或是人臉辨識、姿態辨識等等,我們選擇姿態辨識的理由是,相對於其他的生物辨識而言,是可以在遠距離就判斷出來的,不需要近距離的接觸,甚至於現在疫情盛行,人們都希望減少病毒接觸的可能性,姿態辨識就是其中一種可能性
我們的目標是希望能只藉由少量的data,就能讓機器對於ID的辨識度能達到95%以上
預期上希望給機器同一類動作的data,要能有至少96%~99%的辨識度、只給某一動作的data,機器對於不同動作的data也要能有不錯的辨識率
進一步如果能與三軸加速度結合一起判斷,也許更能提升辨識率
開始,是先收集測資,自行去拍攝人做各種動作的影片,再經過openpose轉成各關節點之座標
接者,我們計劃中有4個目標:
辨識出動作:
固定拍攝角度:
要能抓出動作的特徵應該不難,所以預期ACC要達到很高
檢核點規劃: 可能就是要做出一筆混合動作或是其他動作,來判斷
可能可以多設計實驗來驗證到底能不能正確的辨認動作
在各種動作中,辨識出身分: