一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言任務(wù)方案思考:句子相似度和匹配

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:CS的陋室 ? 2021-01-13 09:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0 小系列初衷

自己接觸的項(xiàng)目大都是初創(chuàng),沒開始多久的項(xiàng)目,從0到1的不少,2020年快結(jié)束,感覺這個(gè)具有一定個(gè)人特色的技術(shù)經(jīng)驗(yàn)可以在和大家分享一下。

計(jì)劃篇章:

(已完成)文本分類篇。針對(duì)NLP文本分類任務(wù)。

(已完成)序列標(biāo)注(NER)篇。針對(duì)命名實(shí)體識(shí)別、序列標(biāo)注任務(wù)。

文本匹配篇。針對(duì)語義相似度計(jì)算、向量匹配等問題。

人工特征學(xué)習(xí)篇。針對(duì)多特征的機(jī)器、深度學(xué)習(xí)方案。

開始我把這個(gè)標(biāo)題叫做語義匹配,后來感覺還是不能叫這個(gè)名字,應(yīng)該把問題放大為句子相似度和匹配問題。

1 語義匹配的場(chǎng)景

語義匹配的核心其實(shí)是評(píng)價(jià)兩個(gè)query之間的相似度,可以看看現(xiàn)在常用的場(chǎng)景:

搜索領(lǐng)域,語義向量召回是一個(gè)比較新潮的召回方式,靈活性更高,下游的精排部分也可以通過語義相似度來進(jìn)行排序。

智能客服,之前的阿里小蜜的文章也提過,對(duì)于長(zhǎng)尾的結(jié)果,可以通過向量召回的方式來進(jìn)行處理。

對(duì)話領(lǐng)域,可以說是智能客服的眼神,閑聊類的,可以通過語義匹配完成閑聊的回復(fù),當(dāng)然多輪也有多輪的玩法。

可以看到,各種領(lǐng)域,其實(shí)語義匹配的舞臺(tái)非常大,了解這方面的方案對(duì)NLP技術(shù)棧的了解非常有用。

2 方法選型

2.1 文本層面的相似

最簡(jiǎn)單的方法往往就是最淺層的方案,所以還是文本層面的相似,方法逐步升級(jí)是這樣的:

編輯距離,這應(yīng)該是最嚴(yán)格的一種相似了。

cqr,分子是句子1和句子2詞匯的交集詞匯量,分母是句子1和句子2的并集詞匯量。

加權(quán)的cqr,可以做一個(gè)簡(jiǎn)單的詞權(quán)重,然后做加權(quán)的cqr。

BM25。傳統(tǒng)搜索的常用方法。

文本層面的方法,在搜索領(lǐng)域已經(jīng)非常成熟,BM25已經(jīng)具有很高的準(zhǔn)度,結(jié)合上游常用的一些改寫,其實(shí)已經(jīng)能夠達(dá)到很好的效果,這也是經(jīng)典搜索最常用的一套范式。

2.2 向量表征作召回

向量召回是當(dāng)前比較流行的一種新的搜索技術(shù),這里以來兩個(gè)關(guān)鍵技術(shù)點(diǎn),向量索引和句子表征技術(shù)。

向量索引的是指就是一種向量最近鄰的搜索方案,最常用的場(chǎng)景就是KNN,而在我們的場(chǎng)景中,就是把句子表征成一個(gè)向量,構(gòu)建索引,新來一個(gè)句子,用同樣的放哪個(gè)還是構(gòu)建一個(gè)向量,就可以完成相似度召回,常用的構(gòu)建索引方式推薦兩種,這兩種都已經(jīng)有開源工具支持。

annoy,一種基于樹的構(gòu)造方法。

hnsw,一種基于圖的構(gòu)造方法,這應(yīng)該是目前我已知速度最快的方法了。

說完了向量索引,就要說向量表征了,只有足夠好的向量表征,上面說的向量召回,召回的東西才會(huì)足夠好,為什么我說好呢,就是因?yàn)檫@里涉及的好的維度多:

準(zhǔn)確率足夠高,召回的內(nèi)容真的是和句子足夠接近。

有比較強(qiáng)的泛化能力,這也是語義向量召回相比傳統(tǒng)搜索的相似召回最突出的優(yōu)勢(shì),只要語義足夠接近,“查詢”和“查看”就可能匹配到,“冪冪”和“楊冪”也能打中,這樣能降低我們挖掘數(shù)據(jù)帶來的成本。

好的相似度匹配能識(shí)別關(guān)鍵詞,只需要模型端到端處理,不需要單獨(dú)抽關(guān)鍵詞。

那么,這個(gè)語義表征,一般都是什么方法呢,這里也是提幾個(gè):

word2vector預(yù)訓(xùn)練。如果語料不足甚至沒有語料,我們其實(shí)可以用開源的預(yù)訓(xùn)練好的w2v詞向量作為基線,取均值就能拿到句向量。

如果有一些平行樣本,可以開始考慮用一些平行預(yù)料(sentence1,setence2,label)進(jìn)行finetuning,說白了就是兩個(gè)向量分別去詞向量后均值,最終用余弦或者歐氏距離計(jì)算相似度就行。

數(shù)據(jù)量足夠后,就可以開始在上面搭積木了,CNN、LSTM之類的都可以嘗試,當(dāng)然經(jīng)驗(yàn)之談,self-attention可以嘗試。

數(shù)據(jù)量再多點(diǎn),我們就可以上bert之類的大家伙了。

現(xiàn)在的語義相似度,更多是通過優(yōu)化交互特征來提升相似度計(jì)算的效果,但是在向量召回這里,由于目前只能支持簡(jiǎn)單的相似度召回,兩個(gè)query只有在計(jì)算相似度的最后一步才能夠見面,因此query之間的交互特征是無法提取的,所以很多現(xiàn)在流行的方法是用不了的。

2.3 語義相似度

如果語義相似度要被用在后續(xù)的精排,無論是搜索、對(duì)話甚至是推薦,在經(jīng)歷初篩之后,我們往往有更多時(shí)間和經(jīng)歷來比對(duì)剩余的結(jié)果和用戶query之間的相似程度,此時(shí)我們就可以使用交互特征逐一匹配,完成最后的精排,這些方案往往在大量比賽中就有提到,以DSSM為基,升級(jí)很多方案,包括很多人知道的EISM等,當(dāng)然比賽的經(jīng)驗(yàn)也告訴我們,模型本身還可以加入更多的文本特征來協(xié)助衡量語義相似度,因此在用語義相似度模型的同時(shí),可以加入一些人工特征來協(xié)助優(yōu)化,這也是推薦系統(tǒng)的wide&deep中所提到的深淺層特征均用的思想。

這里給一篇螞蟻金服比賽的文章吧,大家可以根據(jù)這個(gè)思路去參考優(yōu)化:https://blog.csdn.net/u014732537/article/details/81038260

3 優(yōu)化手段

當(dāng)然,上面的方式是讓大家用最快的速度去完成一個(gè)demo或者說baseline,然后我們需要一系列的手段進(jìn)行優(yōu)化,在這里也給大家介紹一些有用的方案。

如果你的場(chǎng)景里需要一些英文,可以加入一些英文文本去finetuning,開放域的。

針對(duì)問答場(chǎng)景,由于用戶的問題都有明顯意圖,因此做一些詞權(quán)重、attention的操作有利于效果提升,包括提槽,當(dāng)然在淺層模型的情況下,詞的歸一化也有好處。

通過傳統(tǒng)的搜索,用ES召回之類而方式,可以召回很多文本接近但是語義遙遠(yuǎn)的case,通過人工標(biāo)注的樣本對(duì)效果的提升很有好處。

同樣是hard case挖掘,用自己的語義模型做召回,召回在閾值附近的case,做一下人工的復(fù)核,這樣做樣本也對(duì)效果提升有好處,這其實(shí)用的是主動(dòng)學(xué)習(xí)的思想。

4 小結(jié)

做完搜索,后來又開始做向量表征和召回,感覺就很奇妙,能夠理解傳統(tǒng)搜索和相對(duì)新潮的向量表征召回之間的關(guān)系,這兩者之間的關(guān)系還是挺微妙地,互相借鑒的過程中能夠產(chǎn)生一些火花,例如向量檢索之前可以召回一些相似的、標(biāo)準(zhǔn)的query然后來檢索,這樣能大幅提升準(zhǔn)確率,也一定程度降低了對(duì)模型深度的要求。(隱約感覺是時(shí)候?qū)懸黄嘘P(guān)模型和規(guī)則特征之間關(guān)系的文章了?)

責(zé)任編輯:xj

原文標(biāo)題:任務(wù)方案思考:句子相似度和匹配

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語義
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    8741
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14157

原文標(biāo)題:任務(wù)方案思考:句子相似度和匹配

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自然語言提示原型在英特爾Vision大會(huì)上首次亮相

    在英特爾Vision大會(huì)上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動(dòng)的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?415次閱讀

    如何優(yōu)化自然語言處理模型的性能

    優(yōu)化自然語言處理(NLP)模型的性能是一個(gè)多方面的任務(wù),涉及數(shù)據(jù)預(yù)處理、特征工程、模型選擇、模型調(diào)參、模型集成與融合等多個(gè)環(huán)節(jié)。以下是一些具體的優(yōu)化策略: 一、數(shù)據(jù)預(yù)處理優(yōu)化 文本清洗 :去除文本中
    的頭像 發(fā)表于 12-05 15:30 ?1700次閱讀

    如何使用自然語言處理分析文本數(shù)據(jù)

    使用自然語言處理(NLP)分析文本數(shù)據(jù)是一個(gè)復(fù)雜但系統(tǒng)的過程,涉及多個(gè)步驟和技術(shù)。以下是一個(gè)基本的流程,幫助你理解如何使用NLP來分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集文本數(shù)據(jù) :從各種來源(如社交
    的頭像 發(fā)表于 12-05 15:27 ?1575次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個(gè)分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類語言。機(jī)器學(xué)習(xí)(Machine
    的頭像 發(fā)表于 12-05 15:21 ?1985次閱讀

    語音識(shí)別與自然語言處理的關(guān)系

    在人工智能的快速發(fā)展中,語音識(shí)別和自然語言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語音識(shí)別技術(shù)使得機(jī)器能夠理解人類的語音,而自然語言處理則讓機(jī)器能夠理解、解釋和生成人類語言。這兩項(xiàng)技術(shù)共同推動(dòng)
    的頭像 發(fā)表于 11-26 09:21 ?1500次閱讀

    什么是LLM?LLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語言理解能力的一次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?3649次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語音識(shí)別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)谠S多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1025次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?804次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1161次閱讀

    自然語言處理的未來發(fā)展趨勢(shì)

    隨著技術(shù)的進(jìn)步,自然語言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的一個(gè)重要分支。NLP的目標(biāo)是使計(jì)算機(jī)能夠理解、解釋和生成人類語言,這不僅涉及到語言的表層形式,還包括語言的深層含義。隨著大數(shù)
    的頭像 發(fā)表于 11-11 10:37 ?1726次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點(diǎn)和應(yīng)用場(chǎng)景有所不同。 1. 自然語言處理(NLP) 定義: 自然語言處理
    的頭像 發(fā)表于 11-11 10:35 ?1547次閱讀

    自然語言處理的應(yīng)用實(shí)例

    在當(dāng)今數(shù)字化時(shí)代,自然語言處理(NLP)技術(shù)已經(jīng)成為我們?nèi)粘I畹囊徊糠帧闹悄苁謾C(jī)的語音助手到在線客服機(jī)器人,NLP技術(shù)的應(yīng)用無處不在。 1. 語音識(shí)別與虛擬助手 隨著Siri、Google
    的頭像 發(fā)表于 11-11 10:31 ?1609次閱讀

    使用LLM進(jìn)行自然語言處理的優(yōu)缺點(diǎn)

    語言任務(wù),如文本分類、情感分析、機(jī)器翻譯等。以下是使用LLM進(jìn)行NLP的一些優(yōu)缺點(diǎn): 優(yōu)點(diǎn) 強(qiáng)大的語言理解能力 : LLM通過訓(xùn)練學(xué)習(xí)了大量的語言模式和結(jié)構(gòu),能夠理解和生成
    的頭像 發(fā)表于 11-08 09:27 ?2450次閱讀

    AI智能化問答:自然語言處理技術(shù)的重要應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。問答系統(tǒng)作為NLP的一個(gè)重要應(yīng)用,能夠精確地解析用戶以自然語言提出的問題,并從包含豐富信息的異構(gòu)
    的頭像 發(fā)表于 10-12 10:58 ?1096次閱讀
    AI智能化問答:<b class='flag-5'>自然語言</b>處理技術(shù)的重要應(yīng)用

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    實(shí)現(xiàn)了對(duì)自然語言的深入理解和生成能力。 在問答任務(wù)中,它們能夠基于用戶的提問提供準(zhǔn)確、相關(guān)和有用的答案。
    發(fā)表于 08-02 11:03