一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí):遠(yuǎn)程監(jiān)督在關(guān)系抽取中的應(yīng)用

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:張占秋 ? 2020-11-02 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

什么是關(guān)系抽取

知識(shí)就是力量。使人類及機(jī)器能夠更好地利用知識(shí)是提升工作效率及實(shí)現(xiàn)人工智能的關(guān)鍵所在,也催生了包括知識(shí)表示、知識(shí)推理在內(nèi)的一系列研究。作為一切對(duì)知識(shí)的利用的基礎(chǔ),我們首先要獲取知識(shí),即知識(shí)抽取。

與我們一般通過閱讀書籍來獲取知識(shí)一樣,知識(shí)抽取的主要數(shù)據(jù)來源是文本(如新聞、小說、維基百科等)。通常來講,我們可以直接從文本中獲取的知識(shí)包含兩類:實(shí)體 (entity) 和關(guān)系 (relation) [1],這也對(duì)應(yīng)了兩類知識(shí)抽取任務(wù):實(shí)體識(shí)別 (entity recognition) 和關(guān)系抽取 (relation extraction)。下表給出了一個(gè)從句子中進(jìn)行知識(shí)抽取的示例。在本文中,我們將主要關(guān)注「關(guān)系抽取」。

ID 文本 實(shí)體 關(guān)系
1 北京是中國的首都,具有悠久的歷史。 北京,中國 首都
2 比爾蓋茨是微軟的創(chuàng)始人。 比爾蓋茨,微軟 創(chuàng)始人
3 合肥位于安徽中部,是安徽省會(huì)。 合肥,安徽 位于,是省會(huì)

顧名思義,關(guān)系抽取的目的就是從文本數(shù)據(jù)中抽取出關(guān)系。直觀來講,關(guān)系必然存在于兩個(gè)(或多個(gè)實(shí)體)之間,比如在“合肥位于安徽中部”這一文本中,“位于”是“合肥”和“安徽”之間的關(guān)系,而撇開實(shí)體或者單看某單一實(shí)體時(shí)不會(huì)有關(guān)系這一概念的出現(xiàn)。從上表第三個(gè)例子又可以看出,”合肥“和”安徽“之間同時(shí)具有”位于“和”省會(huì)“兩個(gè)關(guān)系,即一個(gè)文本中的實(shí)體對(duì)之間事實(shí)上可以存在多個(gè)不同的關(guān)系。因此,在不考慮發(fā)現(xiàn)未知的新關(guān)系時(shí),我們可以將關(guān)系抽取定義成一個(gè)「給定實(shí)體對(duì)」情況下的「多標(biāo)簽分類」(multi-label classification) 任務(wù),其中的標(biāo)簽即為實(shí)體對(duì)之間的關(guān)系。

關(guān)系抽取的難點(diǎn)

從上一節(jié)對(duì)關(guān)系抽取任務(wù)的定義可以看出,要訓(xùn)練一個(gè)關(guān)系抽取模型,數(shù)據(jù)中應(yīng)同時(shí)包含對(duì)實(shí)體對(duì)和關(guān)系的標(biāo)注。實(shí)體的標(biāo)注對(duì)應(yīng)了實(shí)體識(shí)別任務(wù),目前可以通過較為成熟的命名實(shí)體識(shí)別 (NER) 等技術(shù)來進(jìn)行高質(zhì)量自動(dòng)標(biāo)注。但關(guān)系的標(biāo)注通常較為困難,一些句子中甚至不會(huì)顯式的出現(xiàn)定義好的關(guān)系的相近描述。如“合肥是安徽的省會(huì)”一句中事實(shí)上是蘊(yùn)含了“位于”這一關(guān)系,但句子中并沒有顯式地出現(xiàn)“位于”的相關(guān)描述,我們需要通過一些人類的常識(shí)進(jìn)行推斷。因此,在構(gòu)建精確標(biāo)注的關(guān)系抽取數(shù)據(jù)集時(shí),大量人工標(biāo)注通常是必不可少的,這就導(dǎo)致數(shù)據(jù)集的構(gòu)建成本非常高昂。

此外,如 Mintz 等人指出,在特定領(lǐng)域的語料上進(jìn)行關(guān)系標(biāo)注而訓(xùn)練得到的關(guān)系抽取模型通常具有偏置 (bias) [2]。比如,發(fā)表于 ACL2020 的一篇文章 [3] 中對(duì)關(guān)系抽取中存在的性別偏見 (Gender Bias) 進(jìn)行了討論,感興趣的讀者可以去讀一下這篇文章。

在上文中我們提到了僅利用給定語料上精確標(biāo)注數(shù)據(jù)集進(jìn)行關(guān)系抽取模型訓(xùn)練存在的兩個(gè)問題,即「標(biāo)注成本高」和存在「偏置」。那么該怎樣解決這些問題呢?

標(biāo)注成本高問題

如果我們繼續(xù)采用監(jiān)督學(xué)習(xí) (supervised learning) 來對(duì)模型進(jìn)行訓(xùn)練,那這個(gè)問題就很難回避。盡管我們可以通過少樣本學(xué)習(xí) (few shot learning) 等技術(shù)來充分利用已有的少量精確標(biāo)注數(shù)據(jù),但這些標(biāo)注本身就更容易產(chǎn)生偏置,這就會(huì)導(dǎo)致第二個(gè)問題變得更加突出。

因此,要想從根本上緩解標(biāo)注成本高問題,我們應(yīng)該考慮放棄監(jiān)督學(xué)習(xí),轉(zhuǎn)而采用弱監(jiān)督、無監(jiān)督,或者探索一種新的學(xué)習(xí)方式。

偏置問題

偏置問題產(chǎn)生的主要原因是在若干個(gè)特定領(lǐng)域的標(biāo)注語料庫上進(jìn)行訓(xùn)練,因此解決偏置問題最簡(jiǎn)單粗暴的做法自然是選擇覆蓋面較廣的數(shù)據(jù)。幸運(yùn)地是,我們并不缺少這種數(shù)據(jù):現(xiàn)在網(wǎng)絡(luò)、書刊等媒體上充斥著大量文本,這些文本獲取成本低且覆蓋領(lǐng)域廣,如果能夠有效利用這些數(shù)據(jù),那偏置問題將在很大程度上得到緩解。然而,這些數(shù)據(jù)又轉(zhuǎn)而面臨標(biāo)注成本高問題。

遠(yuǎn)程監(jiān)督

為同時(shí)解決以上兩個(gè)問題,Mintz 等人于 2009 年提出一種能夠在未經(jīng)精確標(biāo)注的文本上進(jìn)行關(guān)系抽取的新學(xué)習(xí)框架---「遠(yuǎn)程監(jiān)督」(distant supervision) [2]。

何為遠(yuǎn)程監(jiān)督

遠(yuǎn)程監(jiān)督通過文本之外的、由大量實(shí)體對(duì)與關(guān)系構(gòu)成的知識(shí)庫來對(duì)文本進(jìn)行關(guān)系標(biāo)注。其中,“遠(yuǎn)程”可以理解為利用了文本之外的知識(shí)庫,而“監(jiān)督”可以理解為提供了關(guān)系標(biāo)簽(即監(jiān)督信息)。

遠(yuǎn)程監(jiān)督的基本假設(shè)

遠(yuǎn)程監(jiān)督具有如下假設(shè) [2]:

「如果一對(duì)實(shí)體之間具有某種關(guān)系,那么所有包含這對(duì)實(shí)體的句子都將表達(dá)這個(gè)關(guān)系的含義?!?/p>

因此,對(duì)于一個(gè)已經(jīng)識(shí)別出某實(shí)體對(duì)的句子,知識(shí)庫中所有該實(shí)體對(duì)之間具有的關(guān)系都可以被看成句子的標(biāo)簽。

遠(yuǎn)程監(jiān)督的基本流程

從上文介紹中可以看出,利用遠(yuǎn)程監(jiān)督進(jìn)行關(guān)系抽取模型的學(xué)習(xí),我們只需要收集文本,在文本中識(shí)別實(shí)體對(duì),然后與知識(shí)庫中進(jìn)行比對(duì)以標(biāo)注關(guān)系即可。需要注意,根據(jù)遠(yuǎn)程監(jiān)督的基本假設(shè),實(shí)體對(duì)之間所有能夠成立的關(guān)系都會(huì)成為句子的標(biāo)簽。其基本流程可用下例來表示。

很明顯,遠(yuǎn)程監(jiān)督方法極大地?cái)U(kuò)充了關(guān)系抽取能夠利用的數(shù)據(jù)量,其標(biāo)注成本極低,覆蓋面可以極廣。如果標(biāo)注的每個(gè)句子都是正確的,那么問題就歸結(jié)于一個(gè)相對(duì)較為簡(jiǎn)單的文本分類任務(wù)。

但是,細(xì)心的讀者可能已經(jīng)發(fā)現(xiàn)了,我們假定存在給定實(shí)體對(duì)的句子就能表示這對(duì)實(shí)體之間的所有關(guān)系,這勢(shì)必會(huì)「引入錯(cuò)誤的標(biāo)注」。如“合肥”和“安徽”之間同時(shí)存在“位于”、“是省會(huì)”兩個(gè)關(guān)系,那對(duì)于“合肥位于安徽”這一句子,我們也會(huì)同時(shí)給他標(biāo)注“位于”和“是省會(huì)”兩個(gè)關(guān)系。但很明顯,這句話并沒有表達(dá)”是省會(huì)“這一關(guān)系的含義。如果模型在這錯(cuò)誤的標(biāo)注上進(jìn)行訓(xùn)練并將這個(gè)模式“記住”,即”A位于B“蘊(yùn)含了A是B的省會(huì),那在遇到”黃山位于安徽“這一句子時(shí),它就會(huì)認(rèn)為”黃山“和”安徽“之間也具有”是省會(huì)“這一關(guān)系,這明顯是不合理的。因此,利用遠(yuǎn)程監(jiān)督進(jìn)行關(guān)系抽取的關(guān)鍵在于「如何消除錯(cuò)誤標(biāo)注樣本對(duì)模型訓(xùn)練的影響」。

遠(yuǎn)程監(jiān)督關(guān)系抽取模型

為了消除錯(cuò)誤標(biāo)注樣本的影響,遠(yuǎn)程監(jiān)督關(guān)系抽取模型主要采用了兩種方法:錯(cuò)誤標(biāo)注樣本「篩除」法和錯(cuò)誤標(biāo)注樣本「轉(zhuǎn)正確標(biāo)注」法。

在本節(jié)中,我們將從上述兩種方法出發(fā)簡(jiǎn)單介紹幾個(gè)經(jīng)典的模型。受篇幅限制,我們?cè)诒疚闹袃H介紹這些模型的核心思路,技術(shù)細(xì)節(jié)請(qǐng)參照原文。因此類模型大都考慮句子級(jí)文本,在下文中涉及到數(shù)據(jù)的描述時(shí)我們不再對(duì)“句子”和“文本”進(jìn)行區(qū)分。

錯(cuò)誤標(biāo)注樣本篩除

PCNN

可以設(shè)想,在遠(yuǎn)程監(jiān)督框架下,如果我們每次都將一個(gè)帶標(biāo)注的句子作為模型訓(xùn)練的樣本,那甚至可以說訓(xùn)練過程中所使用的大部分樣本都是被錯(cuò)誤標(biāo)注的,這將會(huì)極大地影響模型在實(shí)際應(yīng)用中的效果。

因此,Zeng 等 在 PCNN [4] 一文中提出將多實(shí)例學(xué)習(xí) (multi-instance learning) 應(yīng)用于遠(yuǎn)程監(jiān)督中。其采用 expressed-at-least-once [5] 假設(shè):

「當(dāng)一對(duì)實(shí)體之間存在某個(gè)關(guān)系,那么包含這對(duì)實(shí)體的句子中至少有一個(gè)能夠表達(dá)這個(gè)關(guān)系?!?/p>

在上述假設(shè)下,Zeng 等不再將帶標(biāo)注的句子逐個(gè)送入模型進(jìn)行訓(xùn)練,而是將具有相同實(shí)體對(duì)和關(guān)系標(biāo)注的所有(也可以是一部分,但直觀上來講越多越好)句子看成一個(gè)整體,稱為「包 (bag)」,然后將標(biāo)注的關(guān)系作為整個(gè)包的標(biāo)簽進(jìn)行訓(xùn)練。如下圖

這樣一來,即便存在句子是被錯(cuò)誤標(biāo)注為了某關(guān)系的,但包中有這么多句子,我們總能找到一個(gè)句子是具有這個(gè)關(guān)系的吧!再退一步,就算包中所有句子都不表達(dá)所標(biāo)注的關(guān)系,那結(jié)果也不會(huì)變得更壞了。因此從整體上來看,錯(cuò)誤標(biāo)注的幾率被降低。

顯然,接下來的工作就是如何「從包中選擇」出那個(gè)被正確標(biāo)注的樣本來進(jìn)行接下來的訓(xùn)練了。PCNN 一文中采取的方式是挑選使得條件概率 p(包的標(biāo)簽|句子) 最大的那個(gè)句子作為正確標(biāo)注樣本,具體實(shí)現(xiàn)細(xì)節(jié)在此不再贅述。

其他模型

PCNN 每次只選取包中一個(gè)句子作為正確標(biāo)注樣本的做法存在一個(gè)問題:如果包中有多個(gè)句子是被正確標(biāo)注的,那么它們中的大部分都將被舍棄,從而造成了數(shù)據(jù)的浪費(fèi)。為此,一系列基于「注意力機(jī)制」(attention mechanism) 的模型被提出 [6,7,8],它們通過對(duì)包中的句子進(jìn)行注意力權(quán)重的分配來同時(shí)選擇多個(gè)句子。若包中存在多個(gè)被正確標(biāo)注的句子,那么它們的注意力權(quán)重都會(huì)較高,從而都會(huì)在最終關(guān)系預(yù)測(cè)中發(fā)揮作用;此外,被正確標(biāo)注的置信度(即注意力權(quán)重)越高,發(fā)揮的作用將越大。這種軟選擇 (soft selection) 機(jī)制有效地緩解了 PCNN 中硬選擇 (hard selection) 帶來的數(shù)據(jù)浪費(fèi)問題,從而可能在相同樣本量的情況下達(dá)到更高的性能。

錯(cuò)誤標(biāo)注樣本轉(zhuǎn)正確標(biāo)注

無論怎樣進(jìn)行樣本的篩選,部分確定被錯(cuò)誤標(biāo)注的樣本總是可以被看成在數(shù)據(jù)集中剔除掉了。那么,這些錯(cuò)誤標(biāo)注的樣本真的對(duì)遠(yuǎn)程監(jiān)督關(guān)系抽取不起作用嗎?(此句借用了 Shang 等論文 [9] 的題目)至少在一些論文的作者看來,答案是否定的。

比如,Shang 等 [9] 利用無監(jiān)督聚類的方法來為錯(cuò)誤標(biāo)注的樣本重新分配新的標(biāo)簽;而 Wu 等 [10] 認(rèn)為每個(gè)句子的現(xiàn)有標(biāo)注和其應(yīng)有標(biāo)注之間存在映射關(guān)系,于是通過學(xué)習(xí)轉(zhuǎn)移矩陣來模擬該映射,進(jìn)而將每個(gè)句子的標(biāo)注都轉(zhuǎn)換成其應(yīng)有標(biāo)注。

通過將錯(cuò)誤標(biāo)注樣本轉(zhuǎn)換為正確標(biāo)注,此類模型在一定程度上擴(kuò)充了數(shù)據(jù)量,也為提升關(guān)系抽取的質(zhì)量提供了新的可能性。但要注意的是,轉(zhuǎn)換后的樣本標(biāo)注可能還是錯(cuò)的,有時(shí)仍需要進(jìn)行進(jìn)一步的篩選。

總結(jié)

在不考慮發(fā)現(xiàn)未知的新關(guān)系時(shí),關(guān)系抽取本質(zhì)上是一個(gè)多標(biāo)簽分類任務(wù)。但因任務(wù)的特殊性,關(guān)系抽取常面臨標(biāo)注數(shù)據(jù)不足等問題。遠(yuǎn)程監(jiān)督的提出在一定程度上解決了這些問題,但它同時(shí)也引入了錯(cuò)誤標(biāo)注樣本。因此,如何在存在錯(cuò)誤標(biāo)注樣本的數(shù)據(jù)上學(xué)習(xí)一個(gè)優(yōu)秀的分類器成為遠(yuǎn)程監(jiān)督關(guān)系抽取模型的關(guān)鍵。

[1] Ji, S., Pan, S., Cambria, E., Marttinen, P., & Yu, P. S. (2020). A Survey on Knowledge Graphs: Representation, Acquisition and Applications. arXiv preprint arXiv:2002.00388.

[2] Mintz, M., Bills, S., Snow, R., & Jurafsky, D. (2009). Distant supervision for relation extraction without labeled data. Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP: Volume 2 - ACL-IJCNLP ’09, 2(2005), 1003.

[3] Gaut, A., Sun, T., Tang, S., Huang, Y., Qian, J., ElSherief, M., Zhao, J., Mirza, D., Belding, E., Chang, K.-W., & Wang, W. Y. (2020). Towards Understanding Gender Bias in Relation Extraction. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 1(1), 2943–2953.

[4] Zeng, D., Liu, K., Chen, Y., & Zhao, J. (2015). Distant supervision for relation extraction via Piecewise Convolutional Neural Networks. Conference Proceedings - EMNLP 2015: Conference on Empirical Methods in Natural Language Processing, September, 1753–1762.

[5] Riedel, S., Yao, L., & McCallum, A. (2010). Modeling relations and their mentions without labeled text. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 6323 LNAI(PART 3), 148–163.

[6] Lin, Y., Shen, S., Liu, Z., Luan, H., & Sun, M. (2016). Neural relation extraction with selective attention over instances. 54th Annual Meeting of the Association for Computational Linguistics, ACL 2016 - Long Papers, 4, 2124–2133.

[7] Han, X., Yu, P., Liu, Z., Sun, M., & Li, P. (2018). Hierarchical relation extraction with coarse-to-fine grained attention. Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, EMNLP 2018, 2236–2245.

[8] Ye, Z.-X., & Ling, Z.-H. (2019). Distant Supervision Relation Extraction with Intra-Bag and Inter-Bag Attentions. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 1, 2810–2819.

[9] Shang, Y., Huang, H.-Y., Mao, X.-L., Sun, X., & Wei, W. (2020). Are Noisy Sentences Useless for Distant Supervised Relation Extraction? Proceedings of the AAAI Conference on Artificial Intelligence, 34(05), 8799–8806.

[10] Wu, S., Fan, K., & Zhang, Q. (2019). Improving Distantly Supervised Relation Extraction with Neural Noise Converter and Conditional Optimal Selector. Proceedings of the AAAI Conference on Artificial Intelligence, 33, 7273–7280.

作者簡(jiǎn)介:張占秋,2018年畢業(yè)于中國科學(xué)技術(shù)大學(xué)數(shù)學(xué)科學(xué)學(xué)院,獲得理學(xué)學(xué)士學(xué)位?,F(xiàn)于中國科學(xué)技術(shù)大學(xué)電子工程與信息科學(xué)系的 MIRA Lab 實(shí)驗(yàn)室攻讀博士生,師從王杰教授。研究興趣包括知識(shí)圖譜與自然語言處理。

責(zé)任編輯:xj

原文標(biāo)題:遠(yuǎn)程監(jiān)督在關(guān)系抽取中的應(yīng)用

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49019

    瀏覽量

    249473
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134611
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標(biāo)題:遠(yuǎn)程監(jiān)督在關(guān)系抽取中的應(yīng)用

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)隱藏的模式和關(guān)系,無需任何
    的頭像 發(fā)表于 05-16 14:48 ?683次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無法導(dǎo)出INT8模型怎么解決?

    無法 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    軍事應(yīng)用深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    ,并廣泛介紹了深度學(xué)習(xí)兩個(gè)主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報(bào)行動(dòng)和自主平臺(tái)。最后,討論了相關(guān)的威脅、機(jī)遇、技術(shù)和實(shí)際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無所不能,需要謹(jǐn)慎應(yīng)用,同時(shí)考慮到其局限性、網(wǎng)絡(luò)安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?538次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?859次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用

    生產(chǎn)效率、保證產(chǎn)品質(zhì)量方面展現(xiàn)出非凡的能力。阿丘科技「AI干貨補(bǔ)給站」推出《AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用》文章,探討深度
    的頭像 發(fā)表于 01-17 16:35 ?697次閱讀
    AI自動(dòng)化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>質(zhì)量控制<b class='flag-5'>中</b>的應(yīng)用

    GPU深度學(xué)習(xí)的應(yīng)用 GPUs圖形設(shè)計(jì)的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)深度學(xué)習(xí)
    的頭像 發(fā)表于 11-19 10:55 ?1618次閱讀

    時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

    考慮各個(gè)序列之間的關(guān)系。因此,本文提出的方法更適合作為時(shí)空預(yù)測(cè)領(lǐng)域的預(yù)訓(xùn)練模型。下面為大家詳細(xì)介紹一下這篇文章。 摘要 相關(guān)時(shí)間序列分析許多現(xiàn)實(shí)行業(yè)扮演著重要的角色。為進(jìn)一步的下游任務(wù)學(xué)習(xí)
    的頭像 發(fā)表于 11-15 11:41 ?768次閱讀
    時(shí)空引導(dǎo)下的時(shí)間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    深度學(xué)習(xí)RNN的優(yōu)勢(shì)與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過每個(gè)時(shí)間步長(zhǎng)上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時(shí)間序列數(shù)據(jù)的長(zhǎng)期依賴關(guān)系
    的頭像 發(fā)表于 11-15 09:55 ?1323次閱讀

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也不斷增長(zhǎng)。NPU作為一種專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-15 09:19 ?1216次閱讀

    NPU深度學(xué)習(xí)的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?1912次閱讀

    pcie深度學(xué)習(xí)的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運(yùn)而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1346次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是
    的頭像 發(fā)表于 10-27 11:13 ?1363次閱讀

    AI大模型與深度學(xué)習(xí)關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度
    的頭像 發(fā)表于 10-23 15:25 ?2889次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 深度學(xué)習(xí)應(yīng)用前景的觀點(diǎn),僅供參考: ? 優(yōu)勢(shì)方面: ? 高度定制化的計(jì)算架構(gòu):FPGA 可以根據(jù)
    發(fā)表于 09-27 20:53

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型自然語言理解方面的原理以及問答回復(fù)實(shí)現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個(gè)過程: 數(shù)據(jù)收集:大語言模型通過從互聯(lián)網(wǎng)、書籍、新聞、社交
    發(fā)表于 08-02 11:03