基於影像辨識之地面無人載具視覺定位系統開發 === + [專題實作計畫](https://hackmd.io/@K999/H1kfRCB1a) + [器材]() + [論文](https://hackmd.io/@K999/SJw-10BJ6) + [樹莓派 Pi 4B](https://hackmd.io/@K999/ByWS2arJT) + [YOLO](https://hackmd.io/@K999/rk2V-ba16) + [OpenCV](https://hackmd.io/@K999/SkqeVxHpn) + [參考文獻](https://hackmd.io/@K999/SybK96ryp) ## 1016報告意見 + 語意搜尋 + 論文每周至少一篇 + 文字辨識 + OCR ## 1023 + 可以上網找database yolo詳細介紹 初步的影像辨識結果-交通號誌 導航的方法 有關環境辨識的論文 語意導航 https://zhuanlan.zhihu.com/p/365748658 SLAM ## 正解 1. 辨識物件 2. 索引 3. 用物件在圖像上的座標去做比對,像限速和紅綠燈的距離,會因為轉向、距離的關係,所以會有差別,但是整張圖像的所有物件都會是等比例去做調整,就可以根據有多少物件的相對關係作為比例,去進行篩選和排名 4. 考慮比例低於多少後,考慮SIFT和其他驗證手段 ## 作法 1. 訓練yolov7作為辨識圖像的軟體,辨識物件的同時,紀錄物件在圖片的中心點座標 2. 建立資料庫,使用mysql,可以用AI去對資料庫所存的圖片進行辨識,節省蓋資料庫的時間(要包含物件、物件在這張圖片的中心點座標) 3. 比對-先用物件名稱和數量去進行比對,再用倆倆物件的相對距離去和資料庫的做比對,達到一定的像似程度後吐出答案 4. 介面-拍到的圖片+地址?/經緯度座標? ## 待思考項目 1. 再知道起點的情況下,我要多久去判段一次,路口和路口之間作比對還是邊走邊比對,
{"title":"基於影像辨識之無人載具視覺定位系統開發","description":"]()","contributors":"[{\"id\":\"fe3c9631-f173-4463-a9d5-589f45038fed\",\"add\":774,\"del\":299},{\"id\":\"fdb8af2f-f598-4a40-825a-a7884235e4de\",\"add\":398,\"del\":0}]"}
Expand menu