一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2019年冬季CS224N最新課程:基于深度學(xué)習(xí)的自然語(yǔ)言處理

電子工程師 ? 來(lái)源:lq ? 2019-05-08 14:49 ? 次閱讀

本筆記基于斯坦福大學(xué)2019年冬季CS224N最新課程:基于深度學(xué)習(xí)的自然語(yǔ)言處理,希望可以接觸到最前沿的進(jìn)展。

主要內(nèi)容

這一節(jié)主要討論自然語(yǔ)言處理中的旗艦任務(wù):機(jī)器翻譯。

神經(jīng)機(jī)器翻譯之前機(jī)器翻譯早期機(jī)器翻譯:1950s統(tǒng)計(jì)機(jī)器翻譯:1990s-2010s對(duì)齊很復(fù)雜對(duì)齊學(xué)習(xí)SMT解碼SMT特點(diǎn)神經(jīng)機(jī)器翻譯序列到序列模型用途廣泛條件語(yǔ)言模型NMT訓(xùn)練貪心解碼窮舉搜索解碼柱搜索解碼終止條件最終修正NMT優(yōu)點(diǎn)NMT缺點(diǎn)機(jī)器翻譯評(píng)測(cè)機(jī)器翻譯進(jìn)展NMT仍然存在問(wèn)題NMT研究仍在繼續(xù)注意力序列到序列的瓶頸問(wèn)題注意力注意力很厲害注意力應(yīng)用廣泛注意力變體下節(jié)預(yù)告閱讀更多

神經(jīng)機(jī)器翻譯之前

講神經(jīng)機(jī)器翻譯之前,先來(lái)看看機(jī)器翻譯的歷史。

機(jī)器翻譯

機(jī)器翻譯任務(wù)是將一種語(yǔ)言(原始語(yǔ)言)的句子x翻譯成另一種語(yǔ)言(目標(biāo)語(yǔ)言)的句子y。

例如:

x: L'homme est né libre, et partout il est dans les fers

y: Man is born free, but everywhere he is in chains

早期機(jī)器翻譯:1950s

機(jī)器翻譯研究始于1950年初。

1954 年,美國(guó)喬治敦大學(xué)(Georgetown University) 在 IBM 公司協(xié)同下, 用 IBM-701計(jì)算機(jī)首次完成了英俄機(jī)器翻譯試驗(yàn),向公眾和科學(xué)界展示了機(jī)器翻譯的可行性,從而拉開(kāi)了機(jī)器翻譯研究的序幕。

中國(guó)開(kāi)始這項(xiàng)研究也并不晚, 早在1956年,國(guó)家就把這項(xiàng)研究列入了全國(guó)科學(xué)工作發(fā)展規(guī)劃,課題名稱是“機(jī)器翻譯、自然語(yǔ)言翻譯規(guī)則的建設(shè)和自然語(yǔ)言的數(shù)學(xué)理論”。1957 年,中國(guó)科學(xué)院語(yǔ)言研究所與計(jì)算技術(shù)研究所合作開(kāi)展俄漢機(jī)器翻譯試驗(yàn),翻譯了9 種不同類型的較為復(fù)雜的句子。

早期機(jī)器翻譯大都基于規(guī)則,并使用雙語(yǔ)詞典。

統(tǒng)計(jì)機(jī)器翻譯:1990s-2010s

核心思想:從數(shù)據(jù)中學(xué)習(xí)概率模型。

假定翻譯方向是從法語(yǔ)到英語(yǔ)。

給定法語(yǔ)句子x,那么目標(biāo)就是找到最佳英語(yǔ)句子y:

也就是找到概率分布P。

通常的做法是使用貝葉斯法則,將上式分解成兩項(xiàng),便于分別學(xué)習(xí):

其中:

是翻譯模型,是關(guān)于詞語(yǔ)和短語(yǔ)如何翻譯的模型,考查的是忠實(shí)度。翻譯模型從平行數(shù)據(jù)中學(xué)習(xí);

是語(yǔ)言模型,是關(guān)于如何書(shū)寫(xiě)正確英語(yǔ)的模型,考查的是流暢度。語(yǔ)言模型從單語(yǔ)數(shù)據(jù)中學(xué)習(xí)。之前已經(jīng)學(xué)過(guò)。

那么如何學(xué)習(xí)翻譯模型

首先需要平行語(yǔ)料庫(kù)。

舉世聞名的羅賽塔石碑就是一個(gè)早期的平行語(yǔ)料庫(kù)。

羅賽塔石碑

在這個(gè)石碑上,同一文本被書(shū)寫(xiě)成了三種語(yǔ)言。而這恰恰成了19世紀(jì)人們破解古埃及文的關(guān)鍵。如果你在倫敦,不妨親自去大英博物館看一看這個(gè)平行語(yǔ)料庫(kù)。

當(dāng)然,我們需要的平行語(yǔ)料庫(kù)要大得多,遠(yuǎn)非一塊石碑所能寫(xiě)下。

有了大規(guī)模平行語(yǔ)料庫(kù)后,如何從中學(xué)習(xí)翻譯模型

方法是進(jìn)一步分解。實(shí)際上我們希望考慮:

其中a是對(duì)齊,即法語(yǔ)句子x和英語(yǔ)句子y之間的詞語(yǔ)對(duì)齊。

所謂對(duì)齊就是句對(duì)之間詞語(yǔ)的對(duì)應(yīng)。

對(duì)齊很復(fù)雜

無(wú)對(duì)應(yīng)

無(wú)對(duì)應(yīng)

多對(duì)一

多對(duì)一

一對(duì)多(這樣的詞稱為能產(chǎn)詞)

一對(duì)多

一對(duì)很多

一對(duì)很多

多對(duì)多(短語(yǔ)對(duì)齊)

多對(duì)多

對(duì)齊學(xué)習(xí)

學(xué)習(xí)就是學(xué)習(xí)多種因素的組合,包括:

詞語(yǔ)對(duì)齊的概率(同時(shí)取決于詞語(yǔ)在句子中的位置)

詞語(yǔ)具有特定能產(chǎn)度(對(duì)應(yīng)詞的個(gè)數(shù))的概率

等等

所有這些都是從平行數(shù)據(jù)中學(xué)習(xí)。

SMT解碼

有了翻譯模型和語(yǔ)言模型后,如何計(jì)算?

一種暴力解法就是枚舉每一個(gè)可能的y,然后計(jì)算概率。很明顯,這樣做的計(jì)算代價(jià)非常高。

解決辦法:使用啟發(fā)式搜索算法找到最佳翻譯,忽略掉概率非常低的翻譯。

這一過(guò)程稱為解碼。

SMT示例

SMT解碼示例

SMT特點(diǎn)

曾經(jīng)是個(gè)非常熱門(mén)的研究領(lǐng)域

最好的系統(tǒng)都極其復(fù)雜

有很多單獨(dú)設(shè)計(jì)的子系統(tǒng)

大量的特征工程

需要收集和整理大量的外部資源,例如平行短語(yǔ)表

需要大量人力維護(hù)

直到2014年,神經(jīng)機(jī)器翻譯橫空出世!

神經(jīng)機(jī)器翻譯

神經(jīng)機(jī)器翻譯(NMT)是一種只使用神經(jīng)網(wǎng)絡(luò)做機(jī)器翻譯的方法。

這種神經(jīng)網(wǎng)絡(luò)稱為序列到序列結(jié)構(gòu)(seq2seq),包括兩個(gè)RNN。

序列到序列模型

序列到序列模型由兩個(gè)RNN組成:編碼器RNN和解碼器RNN。

Seq2Seq

編碼器RNN通過(guò)最后的隱層狀態(tài)對(duì)原始句子進(jìn)行編碼。原始句子的編碼就是解碼器RNN的初始隱層狀態(tài)。這相當(dāng)于將原始句子編碼傳入解碼器RNN。

解碼器RNN相當(dāng)于語(yǔ)言模型,根據(jù)前面的編碼一步一步來(lái)生成目標(biāo)句子。

注意:上圖顯示的是測(cè)試模型,解碼器的輸出作為下一步的輸入,進(jìn)而生成文本。

另外,每種語(yǔ)言各有一個(gè)單獨(dú)的詞表和詞嵌入。

用途廣泛

序列到序列模型不僅僅用于機(jī)器翻譯。很多其他NLP任務(wù)本質(zhì)上也是序列到序列。

摘要生成(長(zhǎng)文本-->短文本)

對(duì)話(上一句話-->下一句話)

句法分析(輸入文本-->輸出句法分析序列)

代碼生成(自然語(yǔ)言-->Python代碼)

條件語(yǔ)言模型

序列到序列模型屬于條件語(yǔ)言模型。

說(shuō)它是語(yǔ)言模型,因?yàn)榻獯a器所做的就是預(yù)測(cè)目標(biāo)句子y的下一個(gè)詞

說(shuō)它是條件的,因?yàn)榻獯a器的預(yù)測(cè)是以原始句子x為條件的

NMT的強(qiáng)大之處在于它直接計(jì)算概率P(y|x):

即給定原始句子x和當(dāng)前所有的目標(biāo)詞語(yǔ),計(jì)算下一個(gè)目標(biāo)詞語(yǔ)。

NMT訓(xùn)練

如何訓(xùn)練一個(gè)NMT系統(tǒng)?

首先要有一個(gè)大的平行語(yǔ)料庫(kù)。

將原始句子送入編碼器RNN,然后將目標(biāo)句子送入解碼器RNN,同時(shí)編碼器RNN最終隱層狀態(tài)會(huì)傳入解碼器RNN的初始隱層狀態(tài)。在解碼器RNN的每一步會(huì)產(chǎn)生下一個(gè)單詞的概率分布,進(jìn)而通過(guò)交叉熵計(jì)算損失。將每一步損失加總?cè)∑骄?,就得到了整個(gè)句子的損失。

如下圖所示:

NMT訓(xùn)練

Seq2Seq作為整個(gè)系統(tǒng)進(jìn)行優(yōu)化。反向傳播方式為"端到端",一端連接最終損失,一端連接編碼器RNN的開(kāi)始。反向傳播穿過(guò)了整個(gè)系統(tǒng)。

注意,訓(xùn)練期間,解碼器的輸入來(lái)自語(yǔ)料庫(kù)。解碼器每一步的輸出僅僅用于計(jì)算損失,不會(huì)送入下一步輸入。

貪心解碼

我們看到,對(duì)解碼器的每一步輸出求argmax,就能生成(或解碼)目標(biāo)句子。

貪心解碼

這就是貪心解碼(在每一步取概率最高的詞)

貪心解碼的問(wèn)題是每一步取概率最高的詞并不必然導(dǎo)致整個(gè)句子概率最高!

貪心解碼無(wú)法取消上一步?jīng)Q策。

例如,輸入是il a m’entarté (he hit me with a pie )

he_

he hit_

he hit a___

糟糕!解碼到第3步時(shí),概率最高的詞是a,這不是想要的結(jié)果,現(xiàn)在想回到上一步,怎么辦?

這就是貪心解碼的問(wèn)題,無(wú)法返回上一步。

窮舉搜索解碼

我們的目標(biāo)其實(shí)是找到使下述概率最大的翻譯y(長(zhǎng)度T):

我們可以計(jì)算所有可能的序列y,這意味著解碼器在每一步t,都要追蹤個(gè)可能的未完成翻譯。計(jì)算代價(jià)非常高。我們需要高效的搜索算法。

柱搜索解碼

核心思想:在解碼器的每一步,只追蹤k個(gè)概率最高的翻譯(亦稱為假設(shè))。k就是柱搜索的大?。ㄒ话闶?-10)。

我們使用對(duì)數(shù)概率作為假設(shè)的分值:

分值都是負(fù)數(shù),數(shù)值越大越好。我們只搜索分值高的假設(shè),在每一步,只追蹤前k個(gè)。

柱搜索解碼

柱搜索不能保證找到最優(yōu)解,但效率要遠(yuǎn)遠(yuǎn)高于窮舉搜索。

終止條件

在貪心搜索中,解碼的終止條件是符號(hào)。

例如: he hit me with a pie

在柱搜索中,不同的假設(shè)可能會(huì)在不同的時(shí)間步產(chǎn)生符號(hào)。

如果一個(gè)假設(shè)已經(jīng)產(chǎn)生符號(hào),則該假設(shè)已經(jīng)完成。將該假設(shè)放在一邊。

繼續(xù)通過(guò)柱搜索探索其他假設(shè)。

通常,柱搜索的終止條件是:

達(dá)到時(shí)間步T(T是事先預(yù)定的數(shù)值)

已經(jīng)得到至少n個(gè)完整的假設(shè)(n是事先預(yù)定的數(shù)值)

最終修正

現(xiàn)在我們有了完成的假設(shè)列表。如何選擇分值最高的一個(gè)?

列表中每一個(gè)假設(shè)都有一個(gè)分值

問(wèn)題在于假設(shè)越長(zhǎng),分值越低。

修正:用長(zhǎng)度作歸一化。

NMT優(yōu)點(diǎn)

與SMT相比,NMT具有很多優(yōu)點(diǎn):

效果更好

更流暢

更充分利用上下文

更充分利用短語(yǔ)相似度

單個(gè)神經(jīng)網(wǎng)絡(luò),端到端優(yōu)化

無(wú)須針對(duì)子系統(tǒng)進(jìn)行逐個(gè)優(yōu)化

人工參與更少

無(wú)特征工程

適用于所有語(yǔ)言對(duì)

NMT缺點(diǎn)

與SMT相比:

NMT可解釋性差

難以調(diào)試

NMT難以控制

無(wú)法指定翻譯規(guī)則或原則

安全問(wèn)題

機(jī)器翻譯評(píng)測(cè)

目前比較流行的自動(dòng)評(píng)測(cè)方法是IBM提出的BLEU(bilingual evaluation understudy)算法。

BLEU的核心思想就是機(jī)器翻譯的譯文越接近人工翻譯的結(jié)果,它的翻譯質(zhì)量就越高。BLEU如何定義機(jī)器翻譯與參考譯文之間的相似度?

n元文法精度(通常是一、二、三、四元文法)

對(duì)過(guò)于簡(jiǎn)短的譯文作懲罰

BLEU非常有用,但并非完美無(wú)缺

一句話有多種有效的翻譯方式

如果與人工翻譯的n元文法重疊度低,即使翻譯再好,BLEU也會(huì)偏低

機(jī)器翻譯進(jìn)展

機(jī)器翻譯進(jìn)展

2014年,神經(jīng)機(jī)器翻譯只是非常邊緣的研究范疇;但在2016年,神經(jīng)機(jī)器翻譯已經(jīng)成為主流的標(biāo)準(zhǔn)方法。

2014年,第一篇seq2seq論文發(fā)布

2016年,谷歌翻譯從SMT切換到NMT

僅僅兩年,NMT實(shí)現(xiàn)驚人逆襲!

SMT系統(tǒng),需要數(shù)以百計(jì)的工程師,經(jīng)年累月,方能搭建;而NMT系統(tǒng),只需幾個(gè)工程師幾個(gè)月內(nèi)就能搭建,而且效果反超SMT。

NMT仍然存在問(wèn)題

NMT雖然大獲成功,但仍然存在很多問(wèn)題:

未登錄詞

訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)領(lǐng)域不匹配

長(zhǎng)文本上下文問(wèn)題

有些語(yǔ)言對(duì)數(shù)據(jù)量不夠

利用常識(shí)仍然困難

沒(méi)有常識(shí)

NMT學(xué)到了數(shù)據(jù)中的偏見(jiàn)

數(shù)據(jù)偏見(jiàn)

不可解釋的系統(tǒng)會(huì)做一些莫名其妙的事情

不可解釋

NMT研究仍在繼續(xù)

NMT是深度自然語(yǔ)言處理的旗艦任務(wù)。

NMT研究引領(lǐng)了NLP深度學(xué)習(xí)的很多創(chuàng)新

2019年,NMT研究仍在蓬勃發(fā)展

研究人員發(fā)現(xiàn)了上面標(biāo)準(zhǔn)seq2seq的很多改進(jìn)方法,其中有一項(xiàng)改進(jìn)如此不可或缺,已經(jīng)成為新的標(biāo)準(zhǔn)方法。那就是Attention(注意力)

注意力

序列到序列的瓶頸問(wèn)題

信息瓶頸問(wèn)題

在編碼器RNN的最后一步,這里的隱層狀態(tài)需要獲得原始句子的所有信息。這就存在信息瓶頸的問(wèn)題。

注意力

注意力的核心思想是在解碼器的每一步,都與編碼器直接相連,以便對(duì)原始句子的特定部分進(jìn)行關(guān)注。先上圖。

基于注意力的序列到序列模型

編碼器隱層狀態(tài)為:

到第t時(shí)間步,解碼器的隱層狀態(tài)為:

此步的注意力分值為:

使用softmax獲得該步的注意力分布:

然后使用對(duì)編碼器的隱層狀態(tài)加權(quán)求和,獲得注意力輸出

最后,將注意力輸出和編碼器隱層狀態(tài)拼接:

后續(xù)過(guò)程就與普通Seq2Seq一樣了。

注意力很厲害

注意力允許解碼器關(guān)注原始句子的特定部分,顯著提高了NMT效果

注意力允許解碼器直接查看原始句子,解決了信息瓶頸的問(wèn)題

注意力提供了遙遠(yuǎn)狀態(tài)的捷徑,有助于緩解梯度消失的問(wèn)題

注意力提供了某種可解釋性:

查看注意力分布,可以了解解碼器所關(guān)注的內(nèi)容

免費(fèi)自動(dòng)實(shí)現(xiàn)了軟對(duì)齊,無(wú)需單獨(dú)訓(xùn)練一套對(duì)齊系統(tǒng)

注意力應(yīng)用廣泛

已經(jīng)看到,注意力可以大大改善機(jī)器翻譯的效果。

然而不僅于此,注意力同樣適用于很多其他神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和很多其他任務(wù)。

注意力的廣義定義:

給定一組向量值(value)和一個(gè)向量查詢(query),注意力就是根據(jù)向量查詢來(lái)計(jì)算向量值加權(quán)求和。

例如在seq2seq+attention模型中,每個(gè)解碼器隱層狀態(tài)就是查詢,它會(huì)去關(guān)注編碼器的所有隱層狀態(tài)(值)。

加權(quán)求和就是對(duì)數(shù)值中的信息進(jìn)行選擇性摘取,查詢決定了需要關(guān)注哪些數(shù)值。

注意力可根據(jù)某些表示(查詢)將任意一組表示(值)轉(zhuǎn)換為固定大小的表示。

注意力變體

假設(shè)有若干值和一個(gè)查詢。

注意力通常包括:

計(jì)算注意力分值

用softmax獲得注意力分布

使用注意力分布計(jì)算值的加權(quán)求和,這就是注意力輸出(亦稱為語(yǔ)境向量):

這里注意力分值計(jì)算有若干種方法:

基本點(diǎn)乘:

矩陣乘法:,其中是權(quán)重矩陣

加法:

其中:

是權(quán)重矩陣

是權(quán)重向量

是注意力的維度,是超參數(shù)

總結(jié)一下:我們學(xué)習(xí)了機(jī)器翻譯的歷史、神經(jīng)機(jī)器翻譯的序列到序列模型和注意力機(jī)制。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器翻譯、Seq2Seq、注意力(CS224N-2019-8)

文章出處:【微信號(hào):gh_b11486d178ef,微信公眾號(hào):語(yǔ)言和智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自然語(yǔ)言處理怎么最快入門(mén)?

    `本文整理自知乎上的一個(gè)問(wèn)答,分享給正在學(xué)習(xí)自然語(yǔ)言處理的朋友們!一、自然語(yǔ)言處理是什么?
    發(fā)表于 11-28 10:02

    GloVe模型的思想方法

    CS224n自然語(yǔ)言處理深度學(xué)習(xí) Lecture Notes Two
    發(fā)表于 08-26 14:31

    【推薦體驗(yàn)】騰訊云自然語(yǔ)言處理

    `相信大家對(duì)NLP自然語(yǔ)言處理的技術(shù)都不陌生,它是計(jì)算機(jī)科學(xué)領(lǐng)域和AI領(lǐng)域中的一個(gè)分支,它與計(jì)算機(jī)和人類之間使用自然語(yǔ)言進(jìn)行交互密切相關(guān),而NLP的最終目標(biāo)是使計(jì)算機(jī)能夠像人類一樣理解語(yǔ)言
    發(fā)表于 10-09 15:28

    自然語(yǔ)言處理之66參數(shù)學(xué)習(xí)

    自然語(yǔ)言處理——66參數(shù)學(xué)習(xí)
    發(fā)表于 07-16 09:43

    什么是自然語(yǔ)言處理

    什么是自然語(yǔ)言處理?自然語(yǔ)言處理任務(wù)有哪些?自然語(yǔ)言處理的方法是什么?
    發(fā)表于 09-08 06:51

    什么是人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)自然語(yǔ)言處理?

    領(lǐng)域,包括機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、數(shù)據(jù)挖掘、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理和其他幾個(gè)學(xué)科。首先,人工智能涉及使計(jì)算機(jī)具有自我意識(shí),利用計(jì)算機(jī)視覺(jué)、
    發(fā)表于 03-22 11:19

    語(yǔ)言學(xué)到深度學(xué)習(xí)NLP,一文概述自然語(yǔ)言處理

    本文從兩篇論文出發(fā)先簡(jiǎn)要介紹了自然語(yǔ)言處理的基本分類和基本概念,再向讀者展示了深度學(xué)習(xí)中的 NLP。這兩篇論文都是很好的綜述性入門(mén)論文,希望詳細(xì)了解
    的頭像 發(fā)表于 08-22 14:56 ?6558次閱讀

    深度學(xué)習(xí)自然語(yǔ)言處理的工作概述及未來(lái)發(fā)展

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)領(lǐng)域,研究復(fù)雜的人工神經(jīng)網(wǎng)絡(luò)的算法、理論、及應(yīng)用。自從2006被Hinton等提出以來(lái)[1],深度
    發(fā)表于 10-13 10:59 ?1次下載
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>的工作概述及未來(lái)發(fā)展

    自然語(yǔ)言處理的優(yōu)點(diǎn)有哪些_自然語(yǔ)言處理的5大優(yōu)勢(shì)

    自然語(yǔ)言處理領(lǐng)域,深度學(xué)習(xí)的承諾是:給新模型帶來(lái)更好的性能,這些新模型可能需要更多數(shù)據(jù),但不再需要那么多的語(yǔ)言學(xué)專業(yè)知識(shí)。
    發(fā)表于 12-29 13:52 ?2.8w次閱讀

    閑談深度學(xué)習(xí)自然語(yǔ)言處理領(lǐng)域的5大關(guān)鍵優(yōu)勢(shì)

    自然語(yǔ)言處理領(lǐng)域,深度學(xué)習(xí)將給予最大的幫助,深度學(xué)習(xí)方法主要依靠一下這五個(gè)關(guān)鍵優(yōu)勢(shì),閱讀本文將
    發(fā)表于 01-12 16:00 ?4484次閱讀

    深入機(jī)器學(xué)習(xí)自然語(yǔ)言處理

    和方法。隨著深度學(xué)習(xí)在圖像識(shí)別、語(yǔ)音識(shí)別領(lǐng)域的大放異彩,人們對(duì)深度學(xué)習(xí)在NLP的價(jià)值也寄予厚望。自然語(yǔ)言
    發(fā)表于 09-18 22:31 ?874次閱讀

    采用深度學(xué)習(xí)對(duì)自然語(yǔ)言處理進(jìn)行分類

    深度學(xué)習(xí)對(duì)自然語(yǔ)言處理(NLP)進(jìn)行分類
    的頭像 發(fā)表于 11-05 06:51 ?3438次閱讀

    斯坦福AI Lab主任、NLP大師Manning:將深度學(xué)習(xí)應(yīng)用于自然語(yǔ)言處理領(lǐng)域的領(lǐng)軍者

    像Alexa和Siri那樣的對(duì)話助手對(duì)自然語(yǔ)言處理產(chǎn)生了巨大的影響。最開(kāi)始這些變化跟深度學(xué)習(xí)自然語(yǔ)言
    的頭像 發(fā)表于 07-07 07:47 ?4420次閱讀

    基于深度學(xué)習(xí)自然語(yǔ)言處理對(duì)抗樣本模型

    深度學(xué)習(xí)模型被證明存在脆弱性并容易遭到對(duì)抗樣本的攻擊,但目前對(duì)于對(duì)抗樣本的研究主要集中在計(jì)算機(jī)視覺(jué)領(lǐng)域而忽略了自然語(yǔ)言處理模型的安全問(wèn)題。針對(duì)自然語(yǔ)
    發(fā)表于 04-20 14:36 ?39次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>對(duì)抗樣本模型

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。機(jī)器
    的頭像 發(fā)表于 12-05 15:21 ?1583次閱讀