## 測試說明 這次測試主要參考了「[ThreeDPoseUnitySample](https://github.com/yukihiko/ThreeDPoseUnitySample?tab=readme-ov-file&fbclid=IwAR0lNKjEpWiEZXkCny9mjSyx6FyCcElmMnyfdGOPFhXKMtdTI8dRarW1hdM)」來將預測出的三維姿態轉為Unity3D內的模型動作。測試使用了三段動作不同的影片做為輸入,動作分別是伏地挺身、奔跑、舞蹈,下面會呈現節錄的輸出結果(以gif檔表示)。 ## 輸出結果 ### 1. 伏地挺身 ![Unity3D_001](https://hackmd.io/_uploads/SJyRDOuaT.gif) ### 2. 奔跑 ![Unity3D_002](https://hackmd.io/_uploads/r1Dlu_O6T.gif) ### 3. 舞蹈 ![Unity3D_003](https://hackmd.io/_uploads/S1vNu_u6a.gif) ### 說明 在輸出結果中,較小的方格是姿勢估測器讀取的原始影像,綠色模型則是估測出的三維姿態,而人物模型則根據綠色模型建構動作。可以看到模型與實際影像的動作有些延遲存在,但動作大致相仿,與預期結果相符。 ## 心得 這次的題目讓我學習到,姿態估測器的輸出資料是如何轉錄到其它程式,以及後續怎麼重新建構人物模型。雖然這次測試僅是模擬了大致的身體動作,沒有捕捉臉部或雙手的細微動作,但這樣的成果,已然讓我對動作捕捉技術有了進一步的認識。