一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

常識知識有助于開放域?qū)υ捪到y(tǒng)中語言的理解與生成

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-08-07 14:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI 科技大本營按:2018 年 7月 13 日——19 日,ICJAI 2018 在瑞典首都斯德哥爾摩順利召開。IJCAI(International Joint Conference on Artificial Intelligence)人工智能領(lǐng)域頂級學(xué)術(shù)會議之一,涵蓋領(lǐng)域包括機(jī)器學(xué)習(xí)、圖像識別、語音技術(shù)、自然語言處理、視頻技術(shù)等,對全球人工智能行業(yè)有著巨大的影響力。

IJCAI 的評審歷來都很嚴(yán)格,今年投稿數(shù)量更是達(dá)到了 3470 篇,接收論文 710 篇,接收率只有 20.5%(同比 2017 年, 2540 篇投稿,接收 660 篇,約26%的接收率);而來自國內(nèi)的論文更是近達(dá)半數(shù)之多,可見國內(nèi)研究的活躍。與往年不同,今年 IJCAI 沒有評選出 Best Paper,但是選出了 7 篇 Distinguished Paper ,其中有 4 篇都是來自國內(nèi)的研究成果。

今天 AI 科技大本營為大家采訪到了本次 IJCAI 大會 Distinguished Paper 《Commonsense Knowledge Aware Conversation Generation with Graph Attention》(具有圖注意力的常識知識感知會話生成系統(tǒng))的第一作者——來自清華大學(xué)的博士研究生周昊,和大家分享其中更多的故事。

其實在去年,周昊和所在的課題組就有一項研究成果——Emotional Chatting Machine(情緒聊天機(jī))獲得了國內(nèi)外的高度關(guān)注,MIT 科技評論、衛(wèi)報和 NIVIDIA 就相繼進(jìn)行了追蹤和報道。

(來源于 MIT Technology Review)

(此節(jié)選部分內(nèi)容來源于 MIT Technology Review)

計算機(jī)無法衡量對話內(nèi)容的情感,對話人的情緒,也就無法和人進(jìn)行共情。而一個沒有情商的聊天機(jī)器人反而會成為一個話題終結(jié)者。周昊和他所在的課題組就開發(fā)了一個能夠評估對話內(nèi)容情感并作出相應(yīng)回應(yīng)的聊天機(jī)器人,這項工作打開了通往具有情感意識的新一代聊天機(jī)器人的大門。

他們在研究中所提出的情緒聊天機(jī)(ECM),不僅可以在內(nèi)容上給出適當(dāng)?shù)姆磻?yīng),而且能在情感上給出適當(dāng)?shù)姆磻?yīng)(情緒一致)。這項工作已經(jīng)在 TensorFlow 中實現(xiàn).

摘要

常識知識對于自然語言處理來說至關(guān)重要。在本文中,我們提出了一種新的開放域?qū)υ挼纳赡P?,以此來展現(xiàn)大規(guī)模的常識知識庫是如何提升語言理解與生成的。若輸入一個問題,模型會從知識庫中檢索相關(guān)的知識圖,然后基于靜態(tài)圖注意力機(jī)制對其進(jìn)行編碼,圖注意力機(jī)制有助于提升語義信息,從而幫助系統(tǒng)更好地理解問題。接下來,在語句的生成過程中,模型會逐個讀取檢索到的知識圖以及每個圖中的知識三元組,并通過動態(tài)的圖注意力機(jī)制來優(yōu)化語句的生成。我們首次嘗試了在對話生成中使用大規(guī)模的常識知識庫。此外,現(xiàn)有的模型都是將知識三元組分開使用的,而我們的模型將每個知識圖作為完整的個體,從而獲得結(jié)構(gòu)更清晰,語義也更連貫的編碼信息。實驗顯示,與當(dāng)前的最高水平相比,我們提出的模型所生成的對話更為合理,信息量也更大。

簡介

在許多自然語言處理工作中,尤其在處理常識知識和客觀現(xiàn)象時,語義的理解顯得尤為重要,毋庸置疑,它是一個成功的對話系統(tǒng)的關(guān)鍵要素,因為對話互動是一個基于“語義”的過程。在開放域?qū)υ捪到y(tǒng)中,常識知識對于建立有效的互動是很重要的,這是因為社會共享的常識知識是大眾樂于了解并在談話中使用的信息。

最近,在對話生成方面有很多神經(jīng)模型被提出。但這些模型往往給出比較籠統(tǒng)的回復(fù),大多數(shù)情況下,無法生成合適且信息豐富的答案,因為若不對用戶的輸入信息、背景知識和對話內(nèi)容進(jìn)行深度理解,是很難從對話數(shù)據(jù)中獲取語義交互信息的。當(dāng)一個模型能夠連接并充分利用大規(guī)模的常識知識庫,它才能更好地理解對話內(nèi)容,并給出更合理的回復(fù)。舉個例子,假如模型要理解這樣一對語句,“Don’t order drinks at the restaurant , ask for free water”和“Not in Germany. Water cost more than beer. Bring your own water bottle”,我們需要的常識知識可以包括(water,AtLocation,restaurant),(free, RelatedTo, cost)等。

在此之前,有些研究已經(jīng)在對話生成中引入了外部知識。這些模型所用到的知識是非結(jié)構(gòu)化的文本或特定領(lǐng)域的知識三元組,但存在兩個問題,第一,它們高度依賴非結(jié)構(gòu)化文本的質(zhì)量,受限于小規(guī)模的、領(lǐng)域特定的知識庫。第二,它們通常將知識三元組分開使用,而不是將其作為每個圖的完整個體。因此,這類模型不能基于互相關(guān)聯(lián)的實體和它們之間的關(guān)系來給出圖的語義信息。

為解決這兩個問題,我們提出了常識知識感知對話模型(Commonsense Knowledge Aware Conversational Model, CCM),以優(yōu)化語言理解和開放域?qū)υ捪到y(tǒng)的對話生成。我們使用大規(guī)模的常識知識來幫助理解問題的背景信息,從而基于此類知識來優(yōu)化生成的答案。該模型為每個提出的問題檢索相應(yīng)的知識圖,然后基于這些圖給出富有信息量又合適的回復(fù),如圖1所示。為了優(yōu)化圖檢索的過程,我們設(shè)計了兩種新的圖注意力機(jī)制。靜態(tài)圖注意力機(jī)制對檢索到的圖進(jìn)行編碼,來提升問題的語義,幫助系統(tǒng)充分理解問題。動態(tài)圖注意機(jī)制會讀取每個知識圖及其中的三元組,然后利用圖和三元組的語義信息來生成更合理的回復(fù)。

圖 1:兩種模型的對比。第一行回復(fù)由我們的模型(引入常識知識)生成,

第二行回復(fù)由 Seq2Seq 模型(未引入常識知識)生成。

總地來說,本文主要做出了以下突破:

該項目是首次在對話生成神經(jīng)系統(tǒng)中,嘗試使用大規(guī)模常識知識。有了這些知識的支撐,我們的模型能夠更好地理解對話,從而給出更合適、信息量更大的回復(fù)。

代替過去將知識三元組分開使用的方法,我們設(shè)計了靜態(tài)和動態(tài)圖注意力機(jī)制,把知識三元組看作一個圖,基于與其相鄰實體和它們之間的關(guān)系,我們可以更好地解讀所研究實體的語義。

常識對話模型

▌2.1 背景:Encoder - Decoder 模型

首先,我們介紹一下基于 seq2seq 的 Encoder-Decoder 模型。編碼器表示一個問題序列

,其隱藏層可表示為 ,可以簡單寫作如下形式:

這里的 的詞嵌入結(jié)果,GRU (Gated Recurrent Unit) 是門控循環(huán)單元。

解碼器將上下文向量 的詞嵌入結(jié)果作為輸入,同時使用另一個 GRU(門控循環(huán)單元)來更新其狀態(tài)

這里的

結(jié)合兩個向量,共同作為 GRU 網(wǎng)絡(luò)的輸入。上下文向量 是?H?的詞嵌入結(jié)果,也就是編碼器隱藏狀態(tài)的權(quán)重和:

, 估量了狀態(tài) 和隱藏狀態(tài) 中間的相關(guān)度。

從輸出的可能性分布中抽取樣本,解碼器會產(chǎn)生一個 token,可能性的計算如下:

此處

,這些詞便生成了。

譯者注:Seq2Seq 模型與經(jīng)典模型有所不同的是,經(jīng)典的 N vs N 循環(huán)神經(jīng)網(wǎng)絡(luò)要求序列要等長,但我們在做對話生成時,問題和回復(fù)長度往往不同。因此 Encoder-Decoder 結(jié)構(gòu)通過 Encoder 將輸入數(shù)據(jù)編碼成一個上下文向量,再通過 Decoder 對這個上下文向量進(jìn)行解碼,這里的 Encoder 和 Decoder 都是 RNN 網(wǎng)絡(luò)實現(xiàn)的。

▌2.2 任務(wù)定義與概述

我們的問題描述如下:給定一個問題

和一些常識知識的圖 ,目標(biāo)是生成合理的回復(fù)

。本質(zhì)上來看,該模型估計了概率:

?;趩栴}從知識庫中檢索圖,每個單詞對應(yīng)G中的一個圖。每個圖包含一個三元組的集合

,每個三元組(頭實體、關(guān)系、尾實體)可表示為

。

為了把知識庫與非結(jié)構(gòu)化的對話本文相關(guān)聯(lián),我們采用了 MLP 模型:一個知識三元組 可以表示為k= (h,?r,?t) =?MLP(TransE(h,r,?t)),這里的h?/?r?/?t?是經(jīng)過 TransE 模型分別轉(zhuǎn)化處理過的?h / r / t.

圖 2:CCM 結(jié)構(gòu)圖

我們的常識對話模型(Commonsense Conversational Model, CCM)的概覽如圖 2 所示。知識解析器 (Knowledge Interpreter) 將問題

和檢索得到的知識圖 作為輸入,通過把單詞向量和與其對應(yīng)的知識圖向量相結(jié)合,來獲得對每個單詞的知識感知。通過靜態(tài)圖注意力機(jī)制,知識圖向量包含了問題?X中對應(yīng)每個單詞的知識圖?;谖覀兊膭討B(tài)圖注意力機(jī)制,知識感知生成器 (Knowledge Aware Generator) 生成了回復(fù) 。在每個解碼環(huán)節(jié),它讀取檢索到的圖和每個圖中的實體,然后在詞匯表中生成通用詞匯,或在知識圖中生成實體。

▌2.3 知識解析器

圖 3:知識解析器把單詞向量和圖向量相結(jié)合。

在該例子中,單詞 rays 對應(yīng)第一個圖,sunlight 對應(yīng)第二個圖。

每個圖都用圖向量表示。關(guān)鍵實體 (Key Entity) 表示當(dāng)前問題中的實體。

知識解析器 (Knowledge Interpreter) 旨在優(yōu)化問題理解這一環(huán)節(jié)。它通過引入每個單詞對應(yīng)的圖向量,來增強(qiáng)單詞的語義,如圖 3 所示。知識解析器把問題中的每個單詞 xt 作為關(guān)鍵實體,從整個常識知識庫中檢索圖

(圖中黃色部分)。每個檢索到的圖包含一個關(guān)鍵實體(圖中紅色圓點(diǎn)),與其相鄰的實體(圖中藍(lán)色圓點(diǎn))以及實體之間的關(guān)系。對一些常用詞匯(如:of)來說,常識知識圖中沒有與其匹配的圖,這類詞匯用一個帶有特殊標(biāo)志 Not_A_Fact(圖中灰色圓點(diǎn))的圖來表示。接下來,知識解析器會基于靜態(tài)圖注意力機(jī)制,來計算檢索到的圖的圖向量 。把單詞向量 和知識圖向量 相結(jié)合,就得到了向量

,然后把它喂給編碼器中的 GRU(門控循環(huán)單元,見圖 1)。

靜態(tài)圖注意力

靜態(tài)圖注意力機(jī)制的設(shè)計旨在為檢索到的知識圖提供一個表現(xiàn)形式,我們設(shè)計的機(jī)制不僅考慮到圖中的所有節(jié)點(diǎn),也同時考慮節(jié)點(diǎn)之間的關(guān)系,因此編碼的語義信息更加結(jié)構(gòu)化。

靜態(tài)圖注意力機(jī)制會為每個圖生成一個靜態(tài)的表現(xiàn)形式,因而有助于加強(qiáng)問題中每個單詞的語義。

形式上,靜態(tài)圖注意力把圖??中的知識三元組向量 作為輸入,來生成如下的圖向量

這里的 分別是頭實體、關(guān)系、尾實體的權(quán)重矩陣。注意力的權(quán)重估量了“實體間關(guān)系” 和“頭實體” 以及“尾實體” 之間的關(guān)聯(lián)度。

本質(zhì)上來說,圖向量 的權(quán)重和。

▌2.4 知識感知生成器

圖 4: 知識感知生成器動態(tài)地處理著圖

知識感知生成器 (Knowledge Aware Generator) 旨在通過充分利用檢索到的圖,來生成相應(yīng)的回復(fù),如圖 4 所示。知識感知生成器扮演了兩個角色:1) 讀取所有檢索到的圖,來獲取一個圖感知上下文向量,并用這個向量來更新解碼器的狀態(tài);2) 自適應(yīng)地從檢索到的圖中,選擇通用詞匯或?qū)嶓w來生成詞語。形式上來看,解碼器通過如下過程來更新狀態(tài):

這里 是單詞向量 和前一個知識三元組向量 的結(jié)合,其來自上一個所選單詞 。

是式 2 中的上下文向量, 分別是作用于知識圖向量

和知識三元組向量

的上下文向量。

動態(tài)圖注意力

動態(tài)圖注意力機(jī)制是一個分層的、自上而下的過程。首先,它讀取所有的知識圖和每個圖中的所有三元組,用來生成最終的回復(fù)。若給定一個解碼器的狀態(tài) , 它首先作用于知識圖向量

,以計算使用每個圖的概率,如下:

這里

都是參數(shù), 是處于第 t 步時選擇知識圖 的概率。圖的上下文向量 是圖向量的權(quán)重和,這個權(quán)重估量了解碼器的狀態(tài)

接下來,該模型用每個圖

,來計算選擇某個三元組來生成答案的概率,過程如下:

這里 可被看作每個知識三元組向量 和解碼器狀態(tài) 的相似度,

是處于第 t 步時從圖 的所有三元組中選擇 的概率。

最后,知識感知生成器選取通用詞匯或?qū)嶓w詞匯,基于如下概率分布:

這里 是用來平衡實體詞匯 和通用詞匯 之間選擇的標(biāo)量, 分別是通用詞匯和實體詞匯的概率。最終的概率 由兩種概率結(jié)合所得。

譯者注:在語言生成過程中,引入動態(tài)圖注意力機(jī)制,模型可以通過當(dāng)前解碼器的狀態(tài),注意到最合適的知識圖以及對應(yīng)的知識三元組,再基于此來選擇合適的常識與詞匯來生成回復(fù),從而使對話的信息量更大,內(nèi)容更加連貫合理。與很多動態(tài)優(yōu)化算法相類似,狀態(tài)不斷地更新與反饋,隨之自適應(yīng)地調(diào)整下一步?jīng)Q策,在對話生成系統(tǒng)中引入該機(jī)制有效地改善了生成結(jié)果。

實驗

▌3.1 數(shù)據(jù)集

常識知識庫

我們使用語義網(wǎng)絡(luò) (ConceptNet) 作為常識知識庫。語義網(wǎng)絡(luò)不僅包括客觀事實,如“巴黎是法國的首都”這樣確鑿的信息,也包括未成文但大家都知道的常識,如“狗是一種寵物”。這一點(diǎn)對我們的實驗很關(guān)鍵,因為在建立開放域?qū)υ捪到y(tǒng)過程中,能識別常見概念之間是否有未成文但真實存在的關(guān)聯(lián)是必需的。

常識對話數(shù)據(jù)集

我們使用了來自 reddit 上一問一答形式的對話數(shù)據(jù),數(shù)據(jù)集大小約為 10M。由于我們的目標(biāo)是用常識知識優(yōu)化語言理解和生成,所以我們?yōu)V出帶有知識三元組的原始語料數(shù)據(jù)。若一對問答數(shù)據(jù)與任何三元組(即一個實體出現(xiàn)在問題中,另一個在答復(fù)中)都沒有關(guān)聯(lián),那么這一對數(shù)據(jù)就會被剔除掉。具體數(shù)據(jù)概況可見表 1。

表 1: 數(shù)據(jù)集與知識庫概況

▌3.2 實驗細(xì)節(jié)

我們的模型是在 Tensorflow 下運(yùn)行的。編碼器與解碼器均有兩層 GRU 結(jié)構(gòu),每層有 512 個隱藏單元,它們之間不會共享參數(shù)。詞嵌入時的長度設(shè)置為 300。詞匯表大小限制在 30000。

我們采用了 Adam 優(yōu)化器,學(xué)習(xí)率設(shè)置為 0.0001。具體代碼已共享在 github上,文末附有地址。

▌3.3 對比模型

我們選取了幾種合適的模型作為標(biāo)準(zhǔn)來進(jìn)行對比:

Seq2Seq,一種 seq2seq 模型,它被廣泛應(yīng)用于各種開放域?qū)υ捪到y(tǒng)中。

MemNet,一個基于知識的模型,其中記憶單元用來存儲知識三元組經(jīng) TransE 嵌入處理后的數(shù)據(jù)。

CopyNet,一種拷貝網(wǎng)絡(luò)模型,它會從知識三元組中拷貝單詞或由詞匯表生成單詞。

▌3.4 自動評估

指標(biāo):我們采用復(fù)雜度 (perplexity)來評估模型生成的內(nèi)容。我們也計算了每條回復(fù)中的實體個數(shù),來估量模型從常識知識庫中挑選概念的能力,這項指標(biāo)記為 entity score.

結(jié)果:如表 2 所示,CCM 獲得了最低的復(fù)雜度,說明 CCM 可以更好地理解用戶的問題,從而給出語義上更合理的回復(fù)。而且與其他模型相比,在對話生成中,CCM 從常識知識中選取的實體最多,這也可以說明常識知識可以在真正意義上優(yōu)化回復(fù)的生成。

表 2: 基于 perplexity 和 entity score 的模型自動評估

▌3.5 人工評估

我們借助于眾包服務(wù) Amazon Mechanical Turk,從人工標(biāo)記過的數(shù)據(jù)中隨機(jī)采集 400 條數(shù)據(jù)。我們基于此來將 CCM 和另外幾個模型對同一問題生成的回復(fù)進(jìn)行對比。我們有三個對比模型,總計 1200 個問答數(shù)據(jù)對。

指標(biāo):我們定義了兩項指標(biāo):appropriateness 在內(nèi)容質(zhì)量上進(jìn)行評估(基于語法、主題和邏輯);informativeness 在知識層面進(jìn)行評估(基于生成的答復(fù)是否針對問題提供了新的信息和知識)。

結(jié)果:如表 3 所示,CCM 在兩項指標(biāo)下都比另外幾個模型表現(xiàn)更為突出。其中 CopyNet 是將知識三元組分開單獨(dú)使用的,這也證明了圖注意力機(jī)制的有效性。

很明顯,在 OOV(out-of-vocabulary)數(shù)據(jù)集的表現(xiàn)上, CCM 比 Seq2Seq 突出得多。這也進(jìn)一步說明常識知識在理解生僻概念上很有效,而 Seq2Seq 并沒有這個能力。對于 MemNet 和 CopyNet,我們未發(fā)現(xiàn)在這一點(diǎn)上的差別,是因為這兩個模型都或多或少引入使用了常識知識。

表 3: 基于 appropriateness (app.) 和 informativeness (inf.) 的人工評估

▌3.6 案例研究

如表 4 所示,這是一個對話示例。問題中的紅色單詞 "breakable" 是知識庫里的一個單詞實體,同時對于所有模型來說,也是一個詞匯表以外的單詞。由于沒有使用常識知識,且 "breakable" 是詞匯表之外的單詞,所以 Seq2Seq 模型無法理解問題,從而給出含有OOV的回復(fù)。MemNet 因為讀取了記憶中嵌入的三元組,可以生成若干有意義的詞匯,但輸出中仍包含OOV。CopyNet 可以從知識三元組中讀取和復(fù)制詞匯。然而,CopyNet 生成的實體單詞個數(shù)比我們的少(如表 2 所示),這是因為 CopyNet 將知識三元組分開使用了。相比之下,CCM 將知識圖作為一個整體,通過相連的實體和它們之間的關(guān)系,與信息關(guān)聯(lián)起來,使解碼更加結(jié)構(gòu)化。通過這個簡單的例子,可以證明相比于其他幾個模型,CCM 可以生成更為合理、信息也更豐富的回復(fù)。

表 4: 對于同一問題,所有模型生成的回復(fù)

總結(jié)和未來的工作

在本文中,我們提出了一個常識知識感知對話模型 (CCM),演示了常識知識有助于開放域?qū)υ捪到y(tǒng)中語言的理解與生成。自動評估與人工評估皆證明了,與當(dāng)前最先進(jìn)的模型相比,CCM 能夠生成更合理、信息量更豐富的回復(fù)。圖注意力機(jī)制的表現(xiàn),鼓舞了我們在未來的其他項目中也將使用常識知識。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3803

    瀏覽量

    138042
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14157
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    RF功率測量及控制有助于確保系統(tǒng)安全、高效地運(yùn)行

    作者:齊凌杰 應(yīng)用工程師 世強(qiáng)電訊 目前,包括通信收發(fā)機(jī)、儀器、工業(yè)控制和雷達(dá)等在內(nèi)的許多系統(tǒng)都需要控制射頻功率,因此需要準(zhǔn)確測量射頻功率。在這些系統(tǒng),RF功率測量及控制有助于確保
    發(fā)表于 06-25 08:08

    LTC1436-PLL低噪聲開關(guān)穩(wěn)壓器有助于控制EMI

    DN141-LTC1436-PLL低噪聲開關(guān)穩(wěn)壓器有助于控制EMI
    發(fā)表于 07-19 11:58

    介紹一些與變量相關(guān)的存儲屬性與作用

    為大家介紹一些變量相關(guān)的存儲屬性、作用、生命周期以及鏈接屬性的一些知識,有助于大家更好地理解程序,分析程序。一、存儲類&作用&生命周期&
    發(fā)表于 02-14 07:00

    系統(tǒng)演示平臺有助于加快原型開發(fā)和評估

    系統(tǒng)演示平臺有助于加快原型開發(fā) 和評估 .
    發(fā)表于 01-04 17:52 ?0次下載

    現(xiàn)代DAC和DAC緩沖器有助于提升系統(tǒng)性能、簡化設(shè)計

    現(xiàn)代DAC和DAC緩沖器有助于提升系統(tǒng)性能、簡化設(shè)計
    發(fā)表于 01-04 17:50 ?0次下載

    知識圖會成為 NLP 的未來嗎?IJCAI杰出論文背后的思考

    在本文中,我們提出了一個常識知識感知對話模型 (CCM),演示了常識知識有助于
    的頭像 發(fā)表于 08-07 14:31 ?3120次閱讀

    有助于提高FPGA調(diào)試效率的技術(shù)與問題分析

    本文重點(diǎn)介紹在調(diào)試FPGA系統(tǒng)時遇到的問題及有助于提高調(diào)試效率的技術(shù),針對Altera和Xilinx的FPGA調(diào)試提供了最新的方法和工具。
    的頭像 發(fā)表于 11-28 08:43 ?2922次閱讀
    <b class='flag-5'>有助于</b>提高FPGA調(diào)試效率的技術(shù)與問題分析

    智能電網(wǎng)的發(fā)展有助于智能家居的應(yīng)用普及

     智能電網(wǎng)無疑是未來整體電力系統(tǒng)的發(fā)展的主流方向之一,與此同時,它的建設(shè)推廣,將促進(jìn)家居智能化技術(shù)的發(fā)展,有助于智能家居的應(yīng)用普及。
    發(fā)表于 06-14 09:18 ?1257次閱讀

    數(shù)字電源遙測有助于降低能耗,并延長系統(tǒng)運(yùn)行時間

    數(shù)字電源遙測有助于降低能耗,并延長系統(tǒng)運(yùn)行時間
    發(fā)表于 03-21 15:04 ?1次下載
    數(shù)字電源遙測<b class='flag-5'>有助于</b>降低能耗,并延長<b class='flag-5'>系統(tǒng)</b>運(yùn)行時間

    NLP基于聯(lián)合知識的任務(wù)導(dǎo)向型對話系統(tǒng)HyKnow

    引言 對話系統(tǒng)(dialogue system)是 NLP 的的重點(diǎn)研究方向之一。其可以分為任務(wù)型對話系統(tǒng)
    的頭像 發(fā)表于 09-08 10:43 ?4561次閱讀

    基于知識對話生成任務(wù)

    基于知識對話生成任務(wù)(Knowledge-Grounded Dialogue Generation,KGD)是當(dāng)前對話系統(tǒng)的研究熱點(diǎn),這個
    的頭像 發(fā)表于 09-05 09:54 ?2027次閱讀

    有助于檢測心率的設(shè)備

    電子發(fā)燒友網(wǎng)站提供《有助于檢測心率的設(shè)備.zip》資料免費(fèi)下載
    發(fā)表于 11-17 10:41 ?0次下載
    <b class='flag-5'>有助于</b>檢測心率的設(shè)備

    相位噪聲曲線有助于系統(tǒng)測試

    通常會盡量降低相位噪聲,但有時出于測試目的,他們會故意降低相位噪聲。有意引入相位噪聲有助于測試系統(tǒng)對相位噪聲或抖動的容限。因此,具有可調(diào)相位噪聲水平的信號可用于測試目的。
    的頭像 發(fā)表于 03-08 14:19 ?1598次閱讀
    相位噪聲曲線<b class='flag-5'>有助于</b><b class='flag-5'>系統(tǒng)</b>測試

    多層pcb生產(chǎn),更有助于高精度布線

    多層pcb生產(chǎn),更有助于高精度布線
    的頭像 發(fā)表于 11-15 11:02 ?879次閱讀

    ADI全新集成電路有助于監(jiān)測心率

    電子發(fā)燒友網(wǎng)站提供《ADI全新集成電路有助于監(jiān)測心率.pdf》資料免費(fèi)下載
    發(fā)表于 11-24 10:38 ?0次下載
    ADI全新集成電路<b class='flag-5'>有助于</b>監(jiān)測心率