Nvidia Jetson Nano 使用心得
Nano 安裝設定
- 跟PI的用法很像, 先去抓image下來, 然後寫入到sd卡再開機, 也可以用serial console控制
設定swap
- 設定4G的空間作為swap, 之後跑程式會比較順(?)
- (1)停止swap, 第一次設定會有錯誤訊息, 因為不存在; (2)新增一個空白4G檔案; (3)該檔案設定為swap; (4)啟用; (5)設定開機自動執行
檢查CUDA
- Jetson-nano已經內建CUDA10.0, 修改環境變數確保可以使用CUDA
檢查 OpenCV
- 聽說Jetson-nano有內建OpenCV3.3, 可以用下列指令檢查
檢查cuDNN
安裝 TensorFlow GPU
安裝 jetson-inference
- 安裝相關工具, 還有source code下來編譯
- 如果沒發生錯誤訊息, 應該就裝好了, 然後就可以開始測試 (資料夾路徑: jetson-inference/build/aarch64/bin)
- 執行內建的物件辨識範例 (記得接上CSI camera模組, 拿Raspberry PI的相機模組就可以了), 這個範例感覺只偵測人員而已
安裝YOLO
- 除了官方的辨識工具, 也可以裝一下YOLO來辨識物件. 不過Nano應該只適合跑tiny-YOLO. XD
YOLO + Python
- 下載YOLO3-4-Py, 設定, 編譯, 跑範例程式
- 在webcam的範例程式裡, 有設定一些設定檔的資訊: yolov3.cfg, yolov3.weights, coco.data
- 記得改成上面跑的tiny-yolo的檔案, 也要注意檔案的路徑
- 實測結果:
- 一開始跑這個python時, GPU的設定沒有弄好, 變成單純用CPU跑yolo+python, 當時一張frame需要約4秒時間處理
- 後來GPU的參數設好, 一張frame約0.14, 設定3 FPS我覺得視覺感受還可以接受 (單純站在監控的角度來看 XD)
測試 CSI camera 畫面
參考資料