--- title: 錯誤理解修正 tags: 專題提案 disqus: hackmd --- # 觀念錯誤修正 我覺得我們方向搞矇了 我剛剛仔細想想,越想越不對勁...... 應該不用特別在把區域取出來,在做EasyOCR (仔細想想子揚的疑惑是對的) 因為EasyOCR本身就可以從場景中找文字在進行辨識的模型 如果切了範圍在做辨識感覺是脫褲子放屁,可以看一下這連結 https://www.gushiciku.cn/pl/p1Nd/zh-tw 我們進階賽的重點 是取出有**文字區域的圖片**,準確辨識出其中的文字 所以我想 **public(Test)資料的目的** 應該是要取出csv檔給定的範圍,並把座標範圍內的圖,另外存成一張圖片 而這些另外存出的圖片,就是我們train出來模型需要**預測**的資料 圖片丟到我們**訓練的模型**中,看看predict的中文字是什麼 ## 如果不准,要怎麼把模型訓練更準,這個才是重點!!! 而這時我就想說既然EasyOCR都可以辨識出場景文字了,那幹嘛還要辦比賽?! 我想原因之一是EasyOCR目前看起來是不開放供使用者訓練參數 另一點應該是其他大神訓練出來的中文字辨識效果,應用在**台灣場景文字**辨識效果很差 也是因為這樣,官方才會提供**台灣場景文字訓練資料集**供我們用 ## 至於各位手邊目前預計要做的工作 我認為還是可以繼續進行,只是目的變不一樣了 凱宇做的功能應該還是會用到,因為我們還是要知道每張圖片需要裁減哪些地方? PS : 突然想到不一定要用dic,可以用pandas中的dataframe,應該可以寫更快 子揚伊珍的功能,就可以想想怎麼裁切圖片中指定範圍並輸出成一張新的圖片 而EasyOCR,我認為也可以測試,就直接丟原圖,看看辨識效果如何這樣 這樣我們也能知道他辨識哪種類型的中文字效果會比較差 在設計模型的時候就可以往這方面去想,怎麼把EasyOCR找不出來的文字找出來
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up