首先想強調一下“語音識別”四個字字面意義上的需求:用戶說話然后馬上把用戶說的話轉成文字顯示!,這才是開發(fā)者真正需要的功能。
做需求之前其實是先谷歌百度一下看有沒有造好的輪子直接用,結果真的很呵呵,都是標著這個庫深入學習的標題,里面調用一下api從URL里取出一個本地語音文件進行識別,這就沒了? 最基本的需求都沒法實現(xiàn)。
今天整理下對于此功能的兩種實現(xiàn)方式:
首先看下識別請求的API有兩種 SFSpeechAudioBufferRecognitionRequest 和 SFSpeechURLRecognitionRequest ,并且實現(xiàn)解析的方式也有兩種 block 和 delegate。 我就相互組合下兩種方法把這些內容都能涵蓋。
在開發(fā)之前需要先在info.plist注冊用戶隱私權限,雖然大家都已經知道了我還是說一嘴為了本文的完整性。