江蘇新一代語音關鍵事件檢測介紹

來源: 發布時間:2023-06-22

    便可以得到一個第二樣本圖像組及樣本圖像組的事件檢測結果。實施例三:上述步驟f2,基于場景圖像檢測模型輸出的檢測結果,確定關于目標防護艙的事件檢測結果,可以包括以下步驟f21-f23:步驟f21:將至少包含光流圖在內的第二類圖像確定為輔助圖像,第二類圖像中各個圖像的類型均為:基于每兩幀連續的關于所述目標防護艙且包括所述目標對象的圖像獲取的光流圖,光流圖為當前幀圖像對應的光流圖;步驟f22:將輔助圖像輸入到預設的光流圖檢測模型中,得到光流圖檢測模型輸出的檢測結果;其中,光流圖檢測模型為:采用各個第二樣本圖像組和每個第二樣本圖像組的事件檢測結果所訓練得到的模型,且每一第二樣本圖像組中的圖像與待分析圖像的圖像數據相同,各個第二樣本圖像組中的圖像為:關于防護艙的光流圖;步驟f23:將場景圖像檢測模型輸出的檢測結果和光流圖檢測模型輸出的檢測結果進行融合計算,基于融合計算的結果,確定關于目標防護艙的事件檢測結果。也就是說,在本實施例三中,可以同時利用場景圖像檢測模型對類圖像進行檢測,得到一個檢測結果,利用光流圖檢測模型對第二類圖像進行檢測,得到另一個檢測結果,進而,將兩個檢測結果進行融合計算,并基于融合計算的結果。語音關鍵事件檢測的使用步驟指南。江蘇新一代語音關鍵事件檢測介紹

    每種類型與某一數字對應,以便于計算機的處理,則可以分別標記為[0,1,2,3,4,...,29,30]。在本申請的示例性實施例中,因計算機無法直接處理中文,因此可以將句子(語句)中每一個單詞轉化為數字的映射。即,獲得語句的向量化語義表示w1。在本申請的示例性實施例中,所述獲得語句的向量化語義表示w1可以包括:通過雙向lstm網絡模型或bert模型獲得語句的向量化語義表示w1。在本申請的示例性實施例中,在通過雙向lstm網絡獲得語句的向量化語義表示w1之前,所述方法還可以包括:將語句中的m個字符隨機初始化為一個維度為[m,n]的n維向量d,其中,對于從0到m-1的索引id,每個id對應一個不同的字符;對于長度為s的語句,該語句中每一個字符能夠在向量d中找到對應的id,從而獲得維度為[s,d]的向量。在本申請的示例性實施例中,通過雙向lstm網絡獲得語句的向量化語義表示w1可以包括:將維度為[s,d]的向量輸入預設的雙向lstm神經網絡,將所述雙向lstm神經網絡的輸出作為語句的向量化語義表示w1。在本申請的示例性實施例中,假設語料中一共有20000個不同的字符(漢字和/或單詞,可以包括其他常用符號),每個字符可以隨機初始化為一個300維的向量,則可以得到一個維度為[20000。浙江語音關鍵事件檢測標準語音關鍵事件檢測辨別聲音有效嗎?

    語音關鍵事件檢測JLayer和LayerUI結合起來可以檢測任意區域上發生的事件(包括嵌套的子組件),這些類共同提供了4個方法來檢測事件?!ublicvoidsetLayerEventMask(longlayerEventMask)調用這個JLayer方法時必須使用位掩碼AWTEvent常量選擇它檢測到的事件類型,如:setLayerEventMask(|);可以檢測到按鍵和焦點改變事件?!ublicvoidinstallUI(JComponentc)這個LayerUI方法通常放在setLayerEventMask()方法之前,這個方法類的代碼首先調用超類方法((c);),然后是引用JLayer的JComponent參數,使用setLayerEventMask():((JLayer)c).setLayerEventMask();返回的結果?!ublicvoiduninstallUI(JComponentc)這個LayerUI方法放在沒有參數的setLayerEventMask()方法后,這個方法內的代碼首先調用超類方法((c);),然后是引用JLayer的JComponent參數,使用setLayerEventMask():((JLayer)c).setLayerEventMask(0);返回的結果?!ublicvoideventDispatched(AWTEvente,Jlayerl)只要前面注冊的事件發生了,就會調用這個LayerUI方法,在這個方法中插入的代碼負責響應事件,并恰當地更新層,更新了不同的繪制屬性(如顏色)后,通過傳遞給這個方法的JLayer參數調用repaint()方法重新繪制。

    將w2與w4進行橫向拼接得到終的語義表示w3,w3的維度可以為[n,2*d1]。在本申請的示例性實施例中,自注意力機制計算具體可以包括:將w2分別進行多次(如三次)線性變換得到w21、w22、w23,然后可以執行矩陣相乘運算得到w4=(w22*w23t)*w21,w3=w2||w4。s105、對所述新的語義表示w3進行span分類,確定每個span是否為一個事件的觸發詞或事件主體。在本申請的示例性實施例中,所述對所述新的語義表示w3進行span分類可以包括:使用兩層全連接神經網絡和softmax層對每個span進行分類;其中,在訓練階段,將分類結果與帶有標記的span進行誤差計算和反向傳播。在本申請的示例性實施例中,得到步驟s104的span的表示w3后,可以使用兩層全連接神經網絡和softmax層對span進行分類。在本申請的示例性實施例中,如果如步驟s101中所述,預先對數據進行了預處理,即預先對數據進行了span分類和標記,則在訓練階段,可以將分類結果與預處理過程所得的帶有標記的span進行誤差計算和反向傳播,并進行參數更新操作完成訓練過程。在本申請的示例性實施例中,在預測階段,根據分類的結果即可得到每個span的類型。softmax的輸出是每個span所屬對應類型(預處理過程獲得的帶類型標記的span)的概率。語音關鍵事件檢測的設備有哪些?

    上述步驟s302a可以為:步驟s302b:判斷當前幀圖像和在當前時刻之前的預設時長內采集到的連續多幀圖像,是否均包含目標對象;如果是,執行上述步驟s303。在本實現方式中,在獲取到當前幀圖像后,電子設備便可以利用圖像識別算法判斷當前幀圖像和在當前時刻之前的預設時長內采集到的連續多幀圖像,是否均包含目標對象。其中,當判斷結果為是時,電子設備可以確定存在用戶進入目標防護艙,則在當前時刻,目標防護艙內可能發生異常事件,這樣,電子設備便可以繼續執行步驟s303。需要說明的是,在本實現方式中,電子設備可以采用任一能夠檢測出當前幀圖像和在當前時刻之前的預設時長內采集到的連續多幀圖像中是否均包含目標對象的圖像識別算法執行上述步驟s302b,對此,本發明實施例不做具體限定。其中,上述預設時長可以為任一時長,例如,2s,5s等,這都是合理的。下面,對電子設備執行上述步驟s302b的具體過程進行說明:電子設備在獲取到每幀關于目標防護艙的圖像后,判斷該圖像中是否包含目標對象。進而,在獲取該圖像的下一幀圖像后,判斷該下一幀圖像中是否包括與前一幀圖像相同的目標對象。依次類推。語音關鍵事件檢測真的好用嗎?安徽新一代語音關鍵事件檢測是什么

語音關鍵事件檢測主要對哪些領域有大作用?江蘇新一代語音關鍵事件檢測介紹

    根據設定的span寬度,對語句進行span劃分,以將語句劃分為多個span,并對每個span進行標記;其中,每個標記表示x+y+1種類型中的任意一種,1表示所述觸發詞的類型和所述事件主體的類型以外的其他類型。在本申請的示例性實施例中,所述對所述向量化語義表示w1進行span劃分,得到多個語義片段可以包括:獲取設定的span的大寬度max_span_width;根據span的寬度從1到max_span_width依次在所述向量化語義表示w1上進行選取,獲得多個span的語義表示span_embedding。在本申請的示例性實施例中,所述對所述新的語義表示w3進行span分類可以包括:使用兩層全連接神經網絡和softmax層對每個span進行分類;其中,在訓練階段,將分類結果與帶有標記的span進行誤差計算和反向傳播。本申請還提供了一種事件檢測裝置,可以包括處理器和計算機可讀存儲介質,所述計算機可讀存儲介質中存儲有指令,當所述指令被所述處理器執行時,實現上述任意一項所述的事件檢測方法。與相關技術相比,本申請可以包括:獲得語句的向量化語義表示w1;對所述向量化語義表示w1進行span劃分,得到多個語義片段;對多個語義片段進行平均池化,得到每個span的表示w2。江蘇新一代語音關鍵事件檢測介紹

深圳魚亮科技有限公司是一家集生產科研、加工、銷售為一體的****,公司成立于2017-11-03,位于龍華街道清華社區建設東路青年創業園B棟3層12號。公司誠實守信,真誠為客戶提供服務。公司主要經營智能家居,語音識別算法,機器人交互系統,降噪等產品,我們依托高素質的技術人員和銷售隊伍,本著誠信經營、理解客戶需求為經營原則,公司通過良好的信譽和周到的售前、售后服務,贏得用戶的信賴和支持。公司會針對不同客戶的要求,不斷研發和開發適合市場需求、客戶需求的產品。公司產品應用領域廣,實用性強,得到智能家居,語音識別算法,機器人交互系統,降噪客戶支持和信賴。深圳魚亮科技有限公司依托多年來完善的服務經驗、良好的服務隊伍、完善的服務網絡和強大的合作伙伴,目前已經得到通信產品行業內客戶認可和支持,并贏得長期合作伙伴的信賴。

欧美乱妇精品无乱码亚洲欧美,日本按摩高潮a级中文片三,久久男人电影天堂92,好吊妞在线视频免费观看综合网
日韩精品秘一区二区三区 | 亚洲香蕉网久久综合影视 | 日韩中文字幕图片 | 欧美日韩中文字幕久久久不卡 | 亚洲人成网线在线va播放同性 | 中文字幕在线永久免费看精品视频 |