基於影像辨識之地面無人載具視覺定位系統開發
===
+ [專題實作計畫](https://hackmd.io/@K999/H1kfRCB1a)
+ [器材]()
+ [論文](https://hackmd.io/@K999/SJw-10BJ6)
+ [樹莓派 Pi 4B](https://hackmd.io/@K999/ByWS2arJT)
+ [YOLO](https://hackmd.io/@K999/rk2V-ba16)
+ [OpenCV](https://hackmd.io/@K999/SkqeVxHpn)
+ [參考文獻](https://hackmd.io/@K999/SybK96ryp)
## 1016報告意見
+ 語意搜尋
+ 論文每周至少一篇
+ 文字辨識
+ OCR
## 1023
+ 可以上網找database
yolo詳細介紹
初步的影像辨識結果-交通號誌
導航的方法
有關環境辨識的論文
語意導航
https://zhuanlan.zhihu.com/p/365748658
SLAM
## 正解
1. 辨識物件
2. 索引
3. 用物件在圖像上的座標去做比對,像限速和紅綠燈的距離,會因為轉向、距離的關係,所以會有差別,但是整張圖像的所有物件都會是等比例去做調整,就可以根據有多少物件的相對關係作為比例,去進行篩選和排名
4. 考慮比例低於多少後,考慮SIFT和其他驗證手段
## 作法
1. 訓練yolov7作為辨識圖像的軟體,辨識物件的同時,紀錄物件在圖片的中心點座標
2. 建立資料庫,使用mysql,可以用AI去對資料庫所存的圖片進行辨識,節省蓋資料庫的時間(要包含物件、物件在這張圖片的中心點座標)
3. 比對-先用物件名稱和數量去進行比對,再用倆倆物件的相對距離去和資料庫的做比對,達到一定的像似程度後吐出答案
4. 介面-拍到的圖片+地址?/經緯度座標?
## 待思考項目
1. 再知道起點的情況下,我要多久去判段一次,路口和路口之間作比對還是邊走邊比對,
{"title":"基於影像辨識之無人載具視覺定位系統開發","description":"]()","contributors":"[{\"id\":\"fe3c9631-f173-4463-a9d5-589f45038fed\",\"add\":774,\"del\":299},{\"id\":\"fdb8af2f-f598-4a40-825a-a7884235e4de\",\"add\":398,\"del\":0}]"}