首先想強(qiáng)調(diào)一下“語音識(shí)別”四個(gè)字字面意義上的需求:用戶說話然后馬上把用戶說的話轉(zhuǎn)成文字顯示!,這才是開發(fā)者真正需要的功能。
做需求之前其實(shí)是先谷歌百度一下看有沒有造好的輪子直接用,結(jié)果真的很呵呵,都是標(biāo)著這個(gè)庫深入學(xué)習(xí)的標(biāo)題,里面調(diào)用一下api從URL里取出一個(gè)本地語音文件進(jìn)行識(shí)別,這就沒了? 最基本的需求都沒法實(shí)現(xiàn)。
今天整理下對(duì)于此功能的兩種實(shí)現(xiàn)方式:
首先看下識(shí)別請(qǐng)求的API有兩種 SFSpeechAudioBufferRecognitionRequest 和 SFSpeechURLRecognitionRequest ,并且實(shí)現(xiàn)解析的方式也有兩種 block 和 delegate。 我就相互組合下兩種方法把這些內(nèi)容都能涵蓋。
在開發(fā)之前需要先在info.plist注冊(cè)用戶隱私權(quán)限,雖然大家都已經(jīng)知道了我還是說一嘴為了本文的完整性。