# YOLOv7 Pose Estimation [https://github.com/WongKinYiu/yolov7/tree/pose](https://github.com/WongKinYiu/yolov7/tree/pose) 原本有實作照片、影片、即時串流的pose estimation,但是照片以及影片的程式碼在公司的電腦裡面,所以這邊以介紹即時串流的程式碼為主。 ## How to Use YOLOv7 實驗環境: python 3.9, cuda 12.2 1. 進入YOLOv7資料夾: `cd yolov7` 2. 建立conda環境: `conda create -f environment.yml`,並且啟動環境:`conda activate yolov7` 3. 執行程式碼: `python inference_stream.py`,這邊不會**出現即時的pose estimation視窗**,但是電腦的攝影機會被開啟(會出現視窗以及骨架框的程式碼在公司的電腦裡)。終端會一直跳出當前的動作完成數量統計,順序分別為: 研磨咖啡粉、敲平咖啡粉、手沖咖啡粉。 ※如果要跑出串流的視窗,可以將將`run_inference`中的`motion_count(output)`改成`visualize_output(output, frame)`就可以了。