# 第一版的結案報告 [TOC] ## 前言 希望也是最後一版 ## 計劃書 # [進度表+討論內容](https://hackmd.io/@subject/rk6MrzoHd) # [word版](https://docs.google.com/document/d/1_H6ecpq2mXtcD7Gc2iKeEqnm7a56Az43C6_AFYp6Itc/edit) 內容包括 - 計畫題目 - 計畫成員 - 計畫摘要(簡單的動機和主要期望的目標) - 計畫簡介(背景,目標,影響,類似研究的文獻蒐集) - 主要運用技術 - 計畫執行時程與檢合點的規劃 - 預期成果 ## 計劃題目 姿識\+ ## 計劃摘要 近年來,身分辨識十分興盛,其中人臉辨識最為多,但是萬一沒有正面的臉,就很難辨識出來,所以我們想要利用人的動作習慣來判別身分, 故利用openpose來偵測人體的姿勢關節點,再藉由deep learning自主學習,透過連續的關節點變化,藉以來辨認出此人做之動作並分析出此人的姿體習慣特徵,進一步能辨認出此人的身分。 ## 計劃簡介 身份辨識在現在的社會中越來越重要,不管是手機指紋辨識、亦或是人臉辨識、姿態辨識等等,我們選擇姿態辨識的理由是,相對於其他的生物辨識而言,是可以在遠距離就判斷出來的,不需要近距離的接觸,甚至於現在疫情盛行,人們都希望減少病毒接觸的可能性,姿態辨識就是其中一種可能性 我們的目標是希望能只藉由少量的data,就能讓機器對於ID的辨識度能達到95%以上 預期上希望給機器同一類動作的data,要能有至少96%~99%的辨識度、只給某一動作的data,機器對於不同動作的data也要能有不錯的辨識率 進一步如果能與三軸加速度結合一起判斷,也許更能提升辨識率 ## 主要運用技術 * openpose: 利用openpose來擷取人在每一幀的關節點 * Neural Networks: CNN1d, Dense, ...... * [辨識動作的實驗](https://hackmd.io/T1QtYYx5SvedWE5jCcfPFA) ## 資料捜集 ## 計劃執行時程與檢核點的規劃(計畫內容) 開始,是先收集測資,自行去拍攝人做各種動作的影片,再經過openpose轉成各關節點之座標 接者,我們計劃中有4個目標: 1. 辨識出動作: * 固定拍攝角度: * train data和test data中含同一批人 * train data和test data中不含同一批人 要能抓出動作的特徵應該不難,所以預期ACC要達到很高 檢核點規劃: 可能就是要做出一筆混合動作或是其他動作,來判斷 可能可以多設計實驗來驗證到底能不能正確的辨認動作 2. 在各種動作中,辨識出身分: * 寫一個去識別化的disentangling模型,將動作特徵去掉後直接抓取身分特徵(理想中) * 設計一個模型 去分辨身分 * test data 所測試的動作 是包含於 train data所放入的動作 ## 結果
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up