一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要引入遠(yuǎn)程監(jiān)督方法?

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:AI自然語(yǔ)言處理與知識(shí)圖譜 ? 作者:AI自然語(yǔ)言處理與 ? 2021-04-02 09:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從早期到現(xiàn)在來(lái)看關(guān)系抽取任務(wù)的話,基本的做法包括基于規(guī)則匹配、監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)以及遠(yuǎn)程監(jiān)督學(xué)習(xí)等方法,上篇文章《從頭來(lái)看關(guān)系抽取》已經(jīng)介紹了監(jiān)督學(xué)習(xí)早期的一些開(kāi)山之作,而今天的主人公是遠(yuǎn)程監(jiān)督來(lái)做關(guān)系抽取,那么為什么要引入遠(yuǎn)程監(jiān)督的方法,什么是遠(yuǎn)程監(jiān)督的方法,基于遠(yuǎn)程監(jiān)督的關(guān)系抽取的方法從古至今是怎么演變發(fā)展的,帶著這些疑問(wèn),我們簡(jiǎn)單了解一下。

為什么要引入遠(yuǎn)程監(jiān)督方法?

監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)是利用標(biāo)注好的訓(xùn)練數(shù)據(jù),傳統(tǒng)的機(jī)器學(xué)習(xí)模型或者是深度學(xué)習(xí)算法構(gòu)建網(wǎng)絡(luò)模型,老生常談的問(wèn)題,這種方法的問(wèn)題在于雖然能夠利用標(biāo)注質(zhì)量高的數(shù)據(jù)獲取很好的效果,但是獲取高質(zhì)量的標(biāo)注數(shù)據(jù)需要花費(fèi)昂貴的人力、物力,因此引出很多其他的學(xué)習(xí)方式,比如半監(jiān)督、無(wú)監(jiān)督、遠(yuǎn)程監(jiān)督、遷移學(xué)習(xí)等等。

半監(jiān)督學(xué)習(xí)

半監(jiān)督學(xué)習(xí)是解決獲取大量高質(zhì)量標(biāo)注數(shù)據(jù)難問(wèn)題的一種解決方式,利用少部分高質(zhì)量標(biāo)注數(shù)據(jù),通過(guò)相關(guān)算法學(xué)習(xí),常用的是Bootstrapping learning 以及遠(yuǎn)程監(jiān)督方法。對(duì)于關(guān)系抽取任務(wù)來(lái)說(shuō),Bootstrapping 算法的輸入少量實(shí)體關(guān)系數(shù)據(jù)作為種子,找到更多有某種關(guān)系的相關(guān)數(shù)據(jù)。但是我們可以想到一個(gè)問(wèn)題就是利用少量的種子數(shù)據(jù)在大規(guī)模數(shù)據(jù)中搜尋出來(lái)的結(jié)果,是否是我們真正想要的,會(huì)不會(huì)存歧義的數(shù)據(jù),畢竟利用一點(diǎn)種子就想達(dá)到我們的目標(biāo),肯定是存在某些問(wèn)題的,這也是 Bootstraping 算法的語(yǔ)義漂移問(wèn)題。

遠(yuǎn)程監(jiān)督學(xué)習(xí)

遠(yuǎn)程監(jiān)督學(xué)習(xí)很早之前就被提出來(lái)了,但是應(yīng)用在關(guān)系抽取任務(wù)上面應(yīng)該是2009年的一篇論文,作為遠(yuǎn)程監(jiān)督學(xué)習(xí)在關(guān)系抽取的開(kāi)山之作,下面會(huì)介紹這個(gè)工作。簡(jiǎn)單來(lái)說(shuō),遠(yuǎn)程監(jiān)督關(guān)系抽取是通過(guò)將大規(guī)模非結(jié)構(gòu)化文本中的語(yǔ)料與知識(shí)庫(kù)對(duì)齊,這樣便可以獲取大量訓(xùn)練數(shù)據(jù)供模型訓(xùn)練。遠(yuǎn)程監(jiān)督關(guān)系抽取的工作可以分為兩階段,其中后期以及目前的發(fā)展都集中在神經(jīng)網(wǎng)絡(luò)提取特征信息結(jié)合多實(shí)例學(xué)習(xí)思想。

開(kāi)山燎原-2009-ACL

論文題目:Distant supervision for relation extraction without labeled data

論文地址:https://www.aclweb.org/anthology/P09-1113.pdf

這篇文章應(yīng)該是最早的將遠(yuǎn)程監(jiān)督學(xué)習(xí)用于關(guān)系抽取,是一篇開(kāi)山之作。

文中提出了一個(gè)強(qiáng)有力的假設(shè):如果兩個(gè)實(shí)體在已知知識(shí)庫(kù)中存在,并且兩者有相對(duì)應(yīng)的某種關(guān)系,那么當(dāng)這兩個(gè)實(shí)體在其他非結(jié)構(gòu)化文本中存在的時(shí)候也能夠表達(dá)這種關(guān)系?;谶@種強(qiáng)有力的假設(shè),遠(yuǎn)程監(jiān)督算法可以利用已有的知識(shí)庫(kù),給外部非結(jié)構(gòu)化文本中的句子標(biāo)注某種關(guān)系標(biāo)簽,相當(dāng)于自動(dòng)語(yǔ)料標(biāo)注,能夠獲取大量的標(biāo)注數(shù)據(jù)供模型訓(xùn)練。

訓(xùn)練階段

文中所采用的知識(shí)庫(kù)為Freebase,非結(jié)構(gòu)化文本采用的是維基百科等數(shù)據(jù)。既然是要判定句子中的實(shí)體是否在知識(shí)庫(kù)中存在,那么必然要識(shí)別出對(duì)應(yīng)的實(shí)體,識(shí)別實(shí)體部分文中依賴(lài)NER標(biāo)注工具。如果句子中的兩個(gè)實(shí)體存在于知識(shí)庫(kù)中且具有某種關(guān)系,便從句子中抽取出特征(很多特征),并把具有這種關(guān)系的多個(gè)句子中特征拼接作為這個(gè)關(guān)系的某一特征向量,從不同的句子中抽取出的特征拼接,會(huì)讓后面的分類(lèi)器獲取更多的信息。

特征

訓(xùn)練的分類(lèi)器需要很多的特征,2009年的時(shí)候還在大量的構(gòu)造特征工程,因此構(gòu)造的也正也幾乎完全是詞典或者語(yǔ)法特征,主要包括以下:

Lexical features

1、Thesequenceofwordsbetweenthetwoentities 2、Thepart-of-speechtagsofthesewords 3、Aflagindicatingwhichentitycamefirstinthesentence 4、AwindowofkwordstotheleftofEntity1andtheirpart-of-speechtags 5、AwindowofkwordstotherightofEntity2andtheirpart-of-speechtags

另外還有關(guān)系依存句法樹(shù)以及實(shí)體類(lèi)別特征等。

測(cè)試階段

在測(cè)試階段中,將再次使用NER工具識(shí)別實(shí)體,句子中一起出現(xiàn)的每一對(duì)實(shí)體都被認(rèn)為是一個(gè)潛在的關(guān)系實(shí)例,當(dāng)這些實(shí)體同時(shí)出現(xiàn)便從句子中提取特征添加到該實(shí)體對(duì)的特征向量中。例如在測(cè)試集中10個(gè)句子中出現(xiàn)了一對(duì)實(shí)體,每個(gè)句子提取3個(gè)特征,那么這個(gè)實(shí)體對(duì)將有30個(gè)相關(guān)特征,對(duì)測(cè)試語(yǔ)料庫(kù)中每個(gè)句子的每個(gè)實(shí)體對(duì)進(jìn)行特征提取,分類(lèi)器根據(jù)實(shí)體對(duì)出現(xiàn)的所有特征為每個(gè)實(shí)體對(duì)預(yù)測(cè)關(guān)系。

問(wèn)題

1、文中提出的假設(shè)太過(guò)強(qiáng)橫,必然會(huì)出現(xiàn)大量的badcase,比如句子中出現(xiàn)的兩個(gè)實(shí)體刻畫(huà)的并非實(shí)體庫(kù)中對(duì)應(yīng)的關(guān)系描述,這樣會(huì)引入噪音臟數(shù)據(jù),影響最終的結(jié)果。例如,創(chuàng)始人(喬布斯,蘋(píng)果)和ceo(喬布斯,蘋(píng)果)都是正確的。

2、文中依賴(lài)于NER工具、以及構(gòu)造詞典語(yǔ)法句法等特征,也會(huì)存在錯(cuò)誤傳播問(wèn)題。

多實(shí)例學(xué)習(xí)-2011-ACL

論文題目:Knowledge-Based Weak Supervision for Information Extraction of Overlapping Relations

論文地址:https://www.aclweb.org/anthology/P11-1055.pdf

本文針對(duì)上篇文章中的強(qiáng)假設(shè)導(dǎo)致的badcase,采用多實(shí)例學(xué)習(xí)的思想,減少遠(yuǎn)程監(jiān)督噪音數(shù)據(jù)的影響。提出新的模型MULTIR,引入多實(shí)例學(xué)習(xí)的概率圖形模型,從而解決重疊關(guān)系抽取問(wèn)題,重疊關(guān)系問(wèn)題指的是同一對(duì)實(shí)體之間的存在多種不同類(lèi)型的關(guān)系,同時(shí)結(jié)合句子級(jí)別和文檔級(jí)別的特征進(jìn)行關(guān)系抽取,MULTIR在計(jì)算推理上面具有很高的效率。

多實(shí)例學(xué)習(xí)可以被描述為:假設(shè)訓(xùn)練數(shù)據(jù)集中的每個(gè)數(shù)據(jù)是一個(gè)包(Bag),每個(gè)包都是一個(gè)示例(instance)的集合,每個(gè)包都有一個(gè)訓(xùn)練標(biāo)記,而包中的示例是沒(méi)有標(biāo)記的;如果包中至少存在一個(gè)正標(biāo)記的示例,則包被賦予正標(biāo)記;而對(duì)于一個(gè)有負(fù)標(biāo)記的包,其中所有的示例均為負(fù)標(biāo)記。(這里說(shuō)包中的示例沒(méi)有標(biāo)記,而后面又說(shuō)包中至少存在一個(gè)正標(biāo)記的示例時(shí)包為正標(biāo)記包,是相對(duì)訓(xùn)練而言的,也就是說(shuō)訓(xùn)練的時(shí)候是沒(méi)有給示例標(biāo)記的,只是給了包的標(biāo)記,但是示例的標(biāo)記是確實(shí)存在的,存在正負(fù)示例來(lái)判斷正負(fù)類(lèi)別)。通過(guò)定義可以看出,與監(jiān)督學(xué)習(xí)相比,多示例學(xué)習(xí)數(shù)據(jù)集中的樣本示例的標(biāo)記是未知的,而監(jiān)督學(xué)習(xí)的訓(xùn)練樣本集中,每個(gè)示例都有一個(gè)一已知的標(biāo)記;與非監(jiān)督學(xué)習(xí)相比,多示例學(xué)習(xí)僅僅只有包的標(biāo)記是已知的,而非監(jiān)督學(xué)習(xí)樣本所有示例均沒(méi)有標(biāo)記。但是多示例學(xué)習(xí)有個(gè)特點(diǎn)就是它廣泛存在真實(shí)的世界中,潛在的應(yīng)用前景非常大。from http://blog.csdn.net/tkingreturn/article/details/39959931

經(jīng)典-2015-EMNLP

論文題目:Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks

論文地址:https://www.aclweb.org/anthology/D15-1203.pdf

上面的幾篇文章已經(jīng)提出了遠(yuǎn)程監(jiān)督學(xué)習(xí)在關(guān)系抽取的開(kāi)山之作,以及后面會(huì)通過(guò)多實(shí)例學(xué)習(xí)(Multi Instance Learning, MIL)來(lái)減少其中的噪音數(shù)據(jù),這篇文章也是在前人的基礎(chǔ)之上去做的工作,主要有兩部分,其中之一是提出piece-wise卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)抽取句子中的特征信息,從而替換之前設(shè)計(jì)的特征工程;另外和之前一樣,采用多實(shí)例學(xué)習(xí)思想來(lái)減緩錯(cuò)誤的badcase數(shù)據(jù),既這篇文章將多實(shí)例學(xué)習(xí)整合到卷積神經(jīng)網(wǎng)絡(luò)中來(lái)完成關(guān)系抽取任務(wù)。

ad567324-8e8e-11eb-8b86-12bb97331649.png

Piecewise-CNN

Vector representation

上圖是PCNN針對(duì)bags中的一個(gè)句子編碼的情況,主要分為幾部分,其中向量表示部分也和之前我們介紹過(guò)的幾篇一樣,采用的預(yù)訓(xùn)練的word embedding以及句子中詞和兩個(gè)實(shí)體之間的相對(duì)距離向量,下圖中再對(duì)這個(gè)解釋一下,圖中 son 對(duì)兩個(gè)實(shí)體的相對(duì)距離分為是-2和3,到時(shí)候會(huì)把這些均轉(zhuǎn)換為向量表示,采用隨機(jī)初始化的方式。

ad9c5c68-8e8e-11eb-8b86-12bb97331649.png

Convolution

卷積部分從圖中便可以看出采用的是多卷積核操作,文中的Zero Padding值為1 , 卷積核的長(zhǎng)為向量矩陣的長(zhǎng),寬為3,從上到下,單向滑動(dòng)。

Piecewise max pooling

這部分也是之前介紹過(guò)的一篇論文中的類(lèi)似做法,根據(jù)實(shí)體的位置將句子分為左中右三部分,對(duì)左中右三部分分別max-pooling,最后將所有的結(jié)果拼接,過(guò)softmax層,圖中的一個(gè)細(xì)節(jié)就是分段pooling的時(shí)候并沒(méi)有丟失兩個(gè)實(shí)體,而是將兩個(gè)實(shí)體劃分在在左中兩段中,這是一個(gè)細(xì)節(jié),圖中也很明顯給畫(huà)出來(lái)了。

MIL-PCNN

上面的PCNN網(wǎng)絡(luò)結(jié)構(gòu)展示的是多實(shí)例學(xué)習(xí)中一個(gè)bag(包)中的一個(gè)instance(句子)的情況,而多實(shí)例學(xué)習(xí)的輸入到網(wǎng)絡(luò)中的是一個(gè)包,里面包含了很多句子。假設(shè)我們存在 個(gè)bags {},每個(gè)bag包含個(gè)句子 。多實(shí)例學(xué)習(xí)的目的是預(yù)測(cè)看不見(jiàn)的袋子的標(biāo)簽。在本文中,bag中的所有實(shí)例都是獨(dú)立考慮的,并且bag中的instance是沒(méi)有l(wèi)abel的,只有bag中才有l(wèi)abel,因此只需要關(guān)注bag的label即可。

模型圖中經(jīng)過(guò)softmax得到的是bag中的一個(gè)instance的關(guān)系類(lèi)別概率,而非bag的,因此重新定義了基于bag的損失函數(shù),文中采取的措施是At-Least-One的假設(shè),每個(gè)bag中至少有一個(gè)標(biāo)注正確的instance,這樣就可以找到bag中置信度得分最高的instance,代表當(dāng)前bag的結(jié)果。定義如下的目標(biāo)函數(shù)

adf9db4a-8e8e-11eb-8b86-12bb97331649.png

2016-ACL

論文題目:Neural Relation Extraction with Selective Attention over Instances

論文地址:https://www.aclweb.org/anthology/P16-1200.pdf

這篇文章是在上一篇文章PCNN的基礎(chǔ)之上進(jìn)行的改進(jìn),主要是因?yàn)镻CNN在多實(shí)例學(xué)習(xí)部分采用的是選取bag中置信度最高的instance(句子)作為bag的標(biāo)簽,這樣的做法可能會(huì)丟失太多的信息,因?yàn)橐粋€(gè)bag中正負(fù)樣本的數(shù)量是不定的,可能存在多個(gè)正樣本或者多個(gè)負(fù)樣本。這篇文章為了充分利用bag中的所有instance信息,利用注意力機(jī)制充分利用instance信息,減弱噪音的影響。模型的整體結(jié)構(gòu)如下圖。

ae482642-8e8e-11eb-8b86-12bb97331649.png

模型的整體結(jié)構(gòu)也是分為兩大部分

Sentence Encoder:句子編碼部分采用的方式和上文的PCNN一樣,包括輸入部分的詞向量和位置向量,卷積神經(jīng)網(wǎng)絡(luò),以及分段max-pooling,這部分的方式?jīng)]有區(qū)別,這部分的模型結(jié)構(gòu)如下圖所示。

aea13dd6-8e8e-11eb-8b86-12bb97331649.png

Selective Attention over Instances:這部分是文章的重點(diǎn),改進(jìn)的地方主要是在這里,利用注意力機(jī)制對(duì)bag中的instance進(jìn)行加權(quán),得到bag的最終向量表示,,其中 是權(quán)重,文中具體的有兩種計(jì)算權(quán)重的方式。

Average: 將bag中所有instance的重要程度都等同看待,即,這會(huì)放大instance的噪音影響,文中將其作為對(duì)比實(shí)驗(yàn)的一個(gè)baseline。

Selective Attention: 這部分attention的目的是加強(qiáng)正樣本的instance、弱化負(fù)樣本instance的噪音影響。具體的計(jì)算公式見(jiàn)下面,其中 代表的是句子句子和關(guān)系 的相關(guān)程度, 為attention的對(duì)角矩陣,這樣就可以得到加權(quán)后的bag向量表示 。

aee67cb6-8e8e-11eb-8b86-12bb97331649.png

af257bbe-8e8e-11eb-8b86-12bb97331649.png

2016-COLING

論文題目:Relation Extraction with Multi-instance Multi-label Convolutional Neural Networks

論文地址:https://www.aclweb.org/anthology/C16-1139.pdf

這篇文章也是在PCNN的基礎(chǔ)之上進(jìn)行的改進(jìn),主要有兩方面,其一也是和上文一樣認(rèn)為PCNN的at-least-once假設(shè)太過(guò)強(qiáng)硬,應(yīng)該充分利用bag中的所有instance信息,另外是評(píng)估了數(shù)據(jù)集中存在18.3%的重疊關(guān)系數(shù)據(jù),因此之前的單標(biāo)簽是不合理的,所以這篇文章針對(duì)這兩部分進(jìn)行了改進(jìn),模型的整體結(jié)構(gòu)如下圖。

af9c1954-8e8e-11eb-8b86-12bb97331649.png

Sentence-level Feature Extraction:這部分和之前的PCNN一樣,Embedding (word + position) -> CNN -> 分段最大池化獲取每一個(gè)instance的句子表示。

Cross-sentence Max-pooling:這篇文章融合bag中所有instance信息的方法和上文不一樣,不是采用的注意力機(jī)制,而是采用了非常簡(jiǎn)單直觀或者說(shuō)粗暴的方式,將bag中每個(gè)instance的句子信息取每一維度的最大值,獲取bag的向量表示,就如圖中中間部分所示。

Multi-label Relation Modeling:之前的方式都是采用softmax多標(biāo)簽分類(lèi)的方式,而這篇文章為了解決重疊關(guān)系問(wèn)題,將不在采用softmax,而是對(duì)每一個(gè) relation 做 sigmoid ,然后根據(jù)閾值來(lái)判定該instance是否應(yīng)該包含這個(gè) relation 。

2017-AAAI

論文題目:Distant Supervision for Relation Extraction with Sentence-Level Attention and Entity Descriptions

論文地址:https://www.aaai.org/ocs/index.php/AAAI/AAAI17/paper/download/14491/14078

這篇文章的關(guān)鍵點(diǎn)主要也是兩部分,其一也是考慮了at-least-once的假設(shè)太多強(qiáng)硬,需要采用注意力機(jī)制考慮bag中更多的instance信息,另外一個(gè)是之前的方法都過(guò)多關(guān)注實(shí)體本身,而忽略了實(shí)體背后的文本描述信息,因此,這篇文章的將實(shí)體鏈接到實(shí)體描述文本上面獲取很多的信息表達(dá),文章的主要結(jié)構(gòu)如下。

aff7c7ae-8e8e-11eb-8b86-12bb97331649.png

主要包括三部分

(a) PCNNs Module:這部分還是和之前一樣,完全延續(xù)了 PCNN 的模型結(jié)構(gòu),采用word + position -> CNN -> Piecewise Max-pooling獲取文中的 bag 中的句子信息表達(dá)。

(b) Sentence-level Attention Module:這部分類(lèi)似之前的Selective Attention,也是計(jì)算 bag 中每個(gè) instance 與 relation 的相關(guān)性,這里關(guān)系的向量采用的是 兩個(gè)實(shí)體信息來(lái)表達(dá),然后計(jì)算相關(guān)的權(quán)重(如下),最后通過(guò)加權(quán)的方式獲取 bag 的向量表達(dá),然后過(guò)線性層和softmax層做多分類(lèi),沒(méi)有考慮重疊關(guān)系。

b147ce24-8e8e-11eb-8b86-12bb97331649.png

Entity Descriptions:這部分是將實(shí)體的文本描述信息編碼,采用的是簡(jiǎn)單的CNN + max-pooling 獲取實(shí)體描述文本的向量表達(dá),文中提出,為了盡可能使實(shí)體的向量表達(dá)與實(shí)體描述文本的向量表達(dá)在語(yǔ)義空間中接近,直接定義了一個(gè)距離公式計(jì)算loss, ,然后和上面判別關(guān)系的loss結(jié)合, ,兩個(gè)損失函數(shù)聯(lián)合訓(xùn)練。

b1abf0fc-8e8e-11eb-8b86-12bb97331649.png

2018-EMNLP

論文題目:Hierarchical Relation Extraction with Coarse-to-Fine Grained Attention

論文地址:https://www.aclweb.org/anthology/D18-1247.pdf

這篇文章主要考慮到之前的關(guān)系抽取方法中,沒(méi)有考慮到關(guān)系之間是存在語(yǔ)義依賴(lài)關(guān)系的,而且,知識(shí)庫(kù)的關(guān)系中很多都是帶有層級(jí)結(jié)構(gòu)的,另外,之前的方法沒(méi)有對(duì)關(guān)系的長(zhǎng)尾分布問(wèn)題進(jìn)行仔細(xì)的考量,易導(dǎo)致關(guān)系數(shù)量多的則準(zhǔn)確率更高,關(guān)系數(shù)量極少的準(zhǔn)確率堪憂,針對(duì)上面的問(wèn)題,這篇文章提出了在多實(shí)例學(xué)習(xí)中采用注意力機(jī)制的思想,提出層次化注意力機(jī)制來(lái)做具有層級(jí)的關(guān)系抽取問(wèn)題,而且對(duì)于長(zhǎng)尾分布的關(guān)系抽取也有很明顯的改善。

b21b1c2a-8e8e-11eb-8b86-12bb97331649.png

b2762764-8e8e-11eb-8b86-12bb97331649.png

2018-EMNLP

論文題目:RESIDE: Improving Distantly-Supervised Neural Relation Extraction using Side Information

論文地址:https://www.aclweb.org/anthology/D18-1157.pdf

這篇文章主題思想還是遠(yuǎn)程監(jiān)督的思想,考慮到知識(shí)庫(kù)中除了實(shí)體關(guān)系之外,還有很多其他的信息可以加以利用,因此在模型中考慮了這部分特征信息,比如關(guān)系的別名信息以及實(shí)體的類(lèi)別信息。另外,之前看到的很多文章都是采用了CNN的網(wǎng)絡(luò)結(jié)構(gòu),但是本文不同,摒棄了之前的CNN網(wǎng)絡(luò)結(jié)構(gòu),而是采用Bi-GRU以及GCN的文本編碼方式,考慮到采用GCN的編碼方式還是考量了Bi-GRU對(duì)文本的長(zhǎng)距離信息依賴(lài)。文章的模型結(jié)構(gòu)如下。

b289c38c-8e8e-11eb-8b86-12bb97331649.png

總結(jié)

以上是幾篇遠(yuǎn)程監(jiān)督關(guān)系抽取的論文,從09年的開(kāi)山之作,到前兩年的一些工作,文中的工作雖然沒(méi)有覆蓋全部,但是基本的方法已有大概的脈絡(luò)梳理,總體來(lái)說(shuō),輸入表示部分基本都是詞向量與位置編碼結(jié)合,獲取句子語(yǔ)義部分采用CNN,Piecewise max-pool池化較多,當(dāng)然也有采用GRU/GCN等,另外大多數(shù)工作基本都是多實(shí)例學(xué)習(xí) + 注意力機(jī)制的改進(jìn)與創(chuàng)新,其他的一些涉及到重疊關(guān)系、長(zhǎng)尾分布等相關(guān)處理。除了前幾年的一些工作之外,最近也有遠(yuǎn)程監(jiān)督關(guān)系抽取的一些工作。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【關(guān)系抽取】從頭來(lái)看關(guān)系抽取-遠(yuǎn)程監(jiān)督來(lái)襲

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?683次閱讀
    使用MATLAB進(jìn)行無(wú)<b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    LTspice里壓敏電阻MOV怎么引入?

    LTspice里壓敏電阻MOV怎么引入
    發(fā)表于 04-28 08:26

    遠(yuǎn)程hyper-v,配置遠(yuǎn)程Hyper-V的步驟

    的維護(hù),遠(yuǎn)程Hyper-V都能發(fā)揮關(guān)鍵作用。 ? ?遠(yuǎn)程Hyper-V的應(yīng)用場(chǎng)景 ? ?企業(yè)遠(yuǎn)程辦公:在企業(yè)中,員工可能需要在家或外出時(shí)管理公司的虛擬機(jī)。比如,運(yùn)維人員
    的頭像 發(fā)表于 02-10 10:25 ?437次閱讀
    <b class='flag-5'>遠(yuǎn)程</b>hyper-v,配置<b class='flag-5'>遠(yuǎn)程</b>Hyper-V的步驟

    AMC1200BDUBR在工作時(shí)引入了112MHz和132MHz的EMC噪聲,怎么消除?

    請(qǐng)問(wèn)前輩,我用的TI芯片:AMC1200BDUBR 在工作時(shí)引入了112MHz和132MHz的EMC 噪聲。請(qǐng)問(wèn)電路怎么改進(jìn)才能消除這個(gè)噪聲?望前輩能幫忙推薦解決方法 不勝感激!
    發(fā)表于 12-23 07:31

    如何遠(yuǎn)程登錄路由器

    當(dāng)路由器放置在機(jī)房、弱電箱等不方便直接操作的位置,或當(dāng)網(wǎng)絡(luò)出現(xiàn)故障或者需要遠(yuǎn)程協(xié)助時(shí)遠(yuǎn)程登錄路由器可以極大的解決問(wèn),本期重點(diǎn)說(shuō)明遠(yuǎn)程登錄路由器的方法,供各位參考使用: 首先 ,需要確保
    的頭像 發(fā)表于 12-18 12:01 ?796次閱讀
    如何<b class='flag-5'>遠(yuǎn)程</b>登錄路由器

    曙光公司成都云中心助力提升監(jiān)督質(zhì)效

    數(shù)字化時(shí)代,用好大數(shù)據(jù),推動(dòng)數(shù)字技術(shù)深度融入紀(jì)檢監(jiān)察各項(xiàng)業(yè)務(wù),是大勢(shì)所趨。當(dāng)前,各地正在探索推進(jìn)大數(shù)據(jù)監(jiān)督,借助海量數(shù)據(jù)、算力、算法,不斷延伸監(jiān)督的觸角,拓展發(fā)現(xiàn)問(wèn)題的渠道。以“算力”補(bǔ)“人力”,“人去看”加“云端算”,大數(shù)據(jù)在類(lèi)案分析、預(yù)警糾治、溯源治理等方面,正發(fā)揮越
    的頭像 發(fā)表于 11-05 10:05 ?526次閱讀

    一種利用wireshark對(duì)遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法

    一種利用wireshark對(duì)遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法
    的頭像 發(fā)表于 09-21 08:03 ?4918次閱讀
    一種利用wireshark對(duì)<b class='flag-5'>遠(yuǎn)程</b>服務(wù)器/路由器網(wǎng)絡(luò)抓包<b class='flag-5'>方法</b>

    反饋的判斷方法有哪些

    一、有無(wú)反饋的判斷 判斷電路中是否存在反饋,需要檢查放大電路的輸出回路與輸入回路之間是否存在相互聯(lián)系的反饋通路。如果存在這樣的通路,那么就可以確定電路中引入了反饋。這種判斷方法簡(jiǎn)單直觀,適用于
    的頭像 發(fā)表于 09-20 17:41 ?3057次閱讀
    反饋的判斷<b class='flag-5'>方法</b>有哪些

    遠(yuǎn)程操作電腦的方法有哪些?

    隨著遠(yuǎn)程辦公、遠(yuǎn)程技術(shù)支持和跨地域協(xié)作的需求不斷增加,遠(yuǎn)程操作電腦的方法也越來(lái)越多樣化。無(wú)論是個(gè)人用戶(hù)還是企業(yè),選擇合適的遠(yuǎn)程控制
    的頭像 發(fā)表于 09-12 08:11 ?1360次閱讀
    <b class='flag-5'>遠(yuǎn)程</b>操作電腦的<b class='flag-5'>方法</b>有哪些?

    VCA820821設(shè)置-20dB到20dB的可控,怎么設(shè)計(jì)電路和控制方法?

    VCA820821設(shè)置-20dB到20dB的可控,怎么設(shè)計(jì)電路和控制方法?看了資料還是不懂,求救!
    發(fā)表于 09-05 07:12

    變頻器遠(yuǎn)程啟動(dòng)不了是怎么回事

    變頻器遠(yuǎn)程啟動(dòng)不了可能由多種原因造成,以下是一些常見(jiàn)的原因及相應(yīng)的解決方法: 一、通信故障 原因 :遠(yuǎn)程控制需要通過(guò)網(wǎng)絡(luò)通信實(shí)現(xiàn),如果通信線路出現(xiàn)問(wèn)題,如線路斷裂、接觸不良或網(wǎng)絡(luò)設(shè)置錯(cuò)誤等,都可
    的頭像 發(fā)表于 08-25 10:44 ?4211次閱讀

    AMC1200BDUBR在工作時(shí)引入了112MHz和132MHz的EMC噪聲,請(qǐng)問(wèn)電路怎么改進(jìn)才能消除這個(gè)噪聲?

    請(qǐng)問(wèn)前輩,我用的TI芯片:AMC1200BDUBR 在工作時(shí)引入了112MHz和132MHz的EMC 噪聲。請(qǐng)問(wèn)電路怎么改進(jìn)才能消除這個(gè)噪聲?望前輩能幫忙推薦解決方法 不勝感激!
    發(fā)表于 08-22 06:26

    提高帶負(fù)載能力引入什么反饋

    在電力系統(tǒng)和電子電路中,提高帶負(fù)載能力是一個(gè)重要的問(wèn)題。引入反饋控制是提高帶負(fù)載能力的一種有效方法。 一、反饋控制原理 反饋控制定義 反饋控制是一種自動(dòng)控制系統(tǒng),通過(guò)測(cè)量系統(tǒng)的輸出并將其與期望的輸入
    的頭像 發(fā)表于 08-09 14:37 ?1587次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    講解,包括偏置、權(quán)重、激活函數(shù);三要素包括網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和優(yōu)化方法。章節(jié)最后總結(jié)了神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)的關(guān)鍵步驟。 1.4章節(jié)描述了自然語(yǔ)言處理的相關(guān)知識(shí)點(diǎn),包括什么是自然語(yǔ)言處理、文本的向量化和自監(jiān)督學(xué)習(xí)方法
    發(fā)表于 07-25 14:33

    #安寶特方案 解放雙手,解決死角,AR帶來(lái)質(zhì)量監(jiān)督新體驗(yàn)

    安寶特AR遠(yuǎn)程協(xié)助方案通過(guò)AR眼鏡實(shí)現(xiàn)工廠質(zhì)量監(jiān)督革新,解放雙手提高效率,解決攝像頭死角和查崗不及時(shí)問(wèn)題,支持實(shí)時(shí)遠(yuǎn)程協(xié)助,輕便易用,兼容性強(qiáng),助力工業(yè)數(shù)字化轉(zhuǎn)型。
    的頭像 發(fā)表于 07-23 10:44 ?722次閱讀
    #安寶特方案  解放雙手,解決死角,AR帶來(lái)質(zhì)量<b class='flag-5'>監(jiān)督</b>新體驗(yàn)