亞馬遜的Echo音箱剛開始推出的兩三年,國內的智能音箱市場還不溫不火,不為消費者所接受,因此銷量非常有限。但自2017年以來,智能家居逐漸普及,音箱市場開始火熱,為搶占語音入口,阿里巴巴、百度、小米、華為等大公司紛紛推出了各自的智能音箱。據Canalys報告,2019年第1季度中國市場智能音箱出貨量全球占比51%,超過美國,成為全球*大的智能音箱市場。據奧維云網(AVC)數據顯示,2019年上半年中國智能音箱市場銷量為1556萬臺,同比增長233%。隨著語音市場的擴大,國內涌現出一批具有強大競爭力的語音公司和研究團隊,包括云知聲、思必馳、出門問問、聲智科技、北科瑞聲、天聰智能等。他們推出的語音產品和解決方案主要針對特定場景,如車載導航、智能家居、醫院的病歷輸入、智能客服、會議系統、證券柜臺業務等,因為采用深度定制,識別效果和產品體驗更佳。在市場上獲得了不錯的反響。針對智能硬件的離線識別,云知聲和思必馳等公司還研發出專門的語音芯片,進一步降低功耗,提高產品的性價比。在國內語音應用突飛猛進的同時,各大公司和研究團隊紛紛在國際學術會議和期刊上發表研究成果。2015年,張仕良等人提出了前饋型序列記憶網絡。將語音片段輸入轉化為文本輸出的過程就是語音識別。廣州移動語音識別特征
多個渠道積累了大量的文本語料或語音語料,這為模型訓練提供了基礎,使得構建通用的大規模語言模型和聲學模型成為可能。在語音識別中,豐富的樣本數據是推動系統性能快速提升的重要前提,但是語料的標注需要長期的積累和沉淀,大規模語料資源的積累需要被提高到戰略高度。語音識別在移動端和音箱的應用上為火熱,語音聊天機器人、語音助手等軟件層出不窮。許多人初次接觸語音識別可能歸功于蘋果手機的語音助手Siri。Siri技術來源于美國**部高級研究規劃局(DARPA)的CALO計劃:初衷是一個讓軍方簡化處理繁重復雜的事務,并具備認知能力進行學習、組織的數字助理,其民用版即為Siri虛擬個人助理。Siri公司成立于2007年,以文字聊天服務為主,之后與大名鼎鼎的語音識別廠商Nuance合作實現了語音識別功能。2010年,Siri被蘋果收購。2011年蘋果將該技術隨同iPhone4S發布,之后對Siri的功能仍在不斷提升完善。現在,Siri成為蘋果iPhone上的一項語音控制功能,可以讓手機變身為一臺智能化機器人。通過自然語言的語音輸入,可以調用各種APP,如天氣預報、地圖導航、資料檢索等,還能夠通過不斷學習改善性能,提供對話式的應答服務。語音識別。廣州移動語音識別特征一般都是可以理解的文本內容,也有可能是二進制編碼或者字符序列。
取距離近的樣本所對應的詞標注為該語音信號的發音。該方法對解決孤立詞識別是有效的,但對于大詞匯量、非特定人連續語音識別就無能為力。因此,進入80年代后,研究思路發生了重大變化,從傳統的基于模板匹配的技術思路開始轉向基于統計模型(HMM)的技術思路。HMM的理論基礎在1970年前后就已經由Baum等人建立起來,隨后由CMU的Baker和IBM的Jelinek等人將其應用到語音識別當中。HMM模型假定一個音素含有3到5個狀態,同一狀態的發音相對穩定,不同狀態間是可以按照一定概率進行跳轉;某一狀態的特征分布可以用概率模型來描述,使用的模型是GMM。因此GMM-HMM框架中,HMM描述的是語音的短時平穩的動態性,GMM用來描述HMM每一狀態內部的發音特征。基于GMM-HMM框架,研究者提出各種改進方法,如結合上下文信息的動態貝葉斯方法、區分性訓練方法、自適應訓練方法、HMM/NN混合模型方法等。這些方法都對語音識別研究產生了深遠影響,并為下一代語音識別技術的產生做好了準備。自上世紀90年代語音識別聲學模型的區分性訓練準則和模型自適應方法被提出以后,在很長一段內語音識別的發展比較緩慢,語音識別錯誤率那條線一直沒有明顯下降。DNN-HMM時代2006年,Hinton提出深度置信網絡。
聽到人類聽不到的世界。語音識別的產業歷程語音識別這半個多世紀的產業歷程中,其有三個關鍵節點,兩個和技術有關,一個和應用有關。,開發了個基于模型的語音識別系統,當時實現這一系統。雖然混合高斯模型效果得到持續改善,而被應用到語音識別中,并且確實提升了語音識別的效果,但實際上語音識別已經遭遇了技術天花板,識別的準確率很難超過90%。很多人可能還記得,都曾經推出和語音識別相關的軟件,但終并未取得成功。第二個關鍵節點是深度學習被系統應用到語音識別領域中。這導致識別的精度再次大幅提升,終突破90%,并且在標準環境下逼近98%。有意思的是,盡管技術取得了突破,也涌現出了一些與此相關的產品,但與其引起的關注度相比,這些產品實際取得的成績則要遜色得多。剛一面世的時候,這會對搜索業務產生根本性威脅,但事實上直到的面世,這種根本性威脅才真的有了具體的載體。第三個關鍵點正是出現。
語音識別應用包括語音用戶界面,例如語音撥號、呼叫路由、多用戶設備控制、搜索、簡單的數據輸入等。
CNN本質上也可以看作是從語音信號中不斷抽取特征的一個過程。CNN相比于傳統的DNN模型,在相同性能情況下,前者的參數量更少。綜上所述,對于建模能力來說,DNN適合特征映射到空間,LSTM具有長短時記憶能力,CNN擅長減少語音信號的多樣性,因此一個好的語音識別系統是這些網絡的組合。端到端時代語音識別的端到端方法主要是代價函數發生了變化,但神經網絡的模型結構并沒有太大變化。總體來說,端到端技術解決了輸入序列的長度遠大于輸出序列長度的問題。端到端技術主要分成兩類:一類是CTC方法,另一類是Sequence-to-Sequence方法。傳統語音識別DNN-HMM架構里的聲學模型,每一幀輸入都對應一個標簽類別,標簽需要反復的迭代來確保對齊更準確。采用CTC作為損失函數的聲學模型序列,不需要預先對數據對齊,只需要一個輸入序列和一個輸出序列就可以進行訓練。CTC關心的是預測輸出的序列是否和真實的序列相近,而不關心預測輸出序列中每個結果在時間點上是否和輸入的序列正好對齊。CTC建模單元是音素或者字,因此它引入了Blank。對于一段語音,CTC**后輸出的是尖峰的序列,尖峰的位置對應建模單元的Label,其他位置都是Blank。搜索的本質是問題求解,應用于語音識別、機器翻譯等人工智能和模式識別的各個領域。廣州移動語音識別特征
語音識別另外兩個技術部分:語言模型和解碼器,目前來看并沒有太大的技術變化。廣州移動語音識別特征
然后在Reg_RW.c文件中找到HARD_PARA_PORT對應條件宏的代碼段,保留AVR的SPI接口代碼。3.2應用程序實現在代碼中預先設定幾個單詞:“你好”,“播放音樂”,“打開”。當用戶說“播放音樂”時,MCU控制LD3320播放一段音樂,如果是其他詞語,則在串口中打印識別結果,然后再次轉換到語音識別狀態。3.2.1MP3播放代碼LD3320支持MP3數據播放,播放聲音的操作順序為:通用初始化→MP3播放用初始化→調節播放音量→開始播放。將MP3數據順序放入數據寄存器,芯片播放完一定數量的數據時會發出中斷請求,在中斷函數中連續送入聲音數據,直到聲音數據結束。MP3播放函數實現代碼如下:由于MCU容量限制,選取測試的MP3文件不能太大。首先在計算機上將MP3文件的二進制數據轉為標準C數組格式文件,然后將該文件加入工程中。源代碼中MP3文件存儲在外擴的SPIFLASH中,工程中需要注釋和移除全部相關代碼。MP3數據讀取函數是LD_ReloadMp3Data,只需將讀取的SPIFLASH數據部分改成以數組數據讀取的方式即可。3.2.2語音識別程序LD3320語音識別芯片完成的操作順序為:通用初始化→ASR初始化→添加關鍵詞→開啟語音識別。在源代碼中的RunASR函數已經實現了上面的過程。廣州移動語音識別特征