使用OpenVINO加速語音辨識
前言
本篇為「Homemade version of “AI in a Box”」專案的系列文章,關於該專案的整體描述請參閱這篇內容。本篇為「使用whisper.cpp進行語音辨識」文章的延續,將會使用whisper.cpp專案的「OpenVINO support」機制來加速語音辨識程序。用以改善前一篇文章所實作之「語音對談」功能運作起來並不是很順暢的問題。
先前準備
基本的環境都跟「使用whisper.cpp進行語音辨識」文章相同。由於接下來要重新進行whisper.cpp專案的組態與建構,因此請先刪除whisper.cpp目錄下的build子目錄。接下來下載OpenVINO toolkit檔案,解壓縮後放在專案目錄以便後續使用。
下載與轉換模型
開啟「Anaconda prompt」,在該命令提示視窗執行以下命令建立虛擬環境:(base) > conda create --name openvino_conv_env python=3.10完成後切換至whisper.cpp目錄下的models子目錄:(base) > cd whisper.cpp\models進入剛剛建立好的虛擬環境:(base) > conda activate openvino_conv_env接著安裝必要套件:(openvino_conv_env) > pip install -r openvino-conversion-requirements.txt完成後就可以進行模型下載與轉換,在此使用Base模型:(openvino_conv_env) > python convert-whisper-to-openvino.py --model base