一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

知識(shí)圖譜與訓(xùn)練模型相結(jié)合和命名實(shí)體識(shí)別的研究工作

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:復(fù)旦DISC ? 作者:朱 琦 ? 2021-03-29 17:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本次將分享ICLR2021中的三篇投遞文章,涉及知識(shí)圖譜與訓(xùn)練模型相結(jié)合和命名實(shí)體識(shí)別(NER)的研究工作。

文章概覽

知識(shí)圖譜和語(yǔ)言理解的聯(lián)合預(yù)訓(xùn)練(JAKET: Joint Pre-training of Knowledge Graph and Language Understanding)。該論文提出了知識(shí)圖譜和文本的聯(lián)合訓(xùn)練框架,通過(guò)將RoBERTa作為語(yǔ)言模型將上下文編碼信息傳遞給知識(shí)圖譜,同時(shí)借助圖注意力模型將知識(shí)圖譜的結(jié)構(gòu)化信息反饋給語(yǔ)言模型,從而實(shí)現(xiàn)知識(shí)圖譜模型和語(yǔ)言模型的循環(huán)交替訓(xùn)練,使得在知識(shí)圖譜指導(dǎo)下的預(yù)訓(xùn)練模型能夠快速適應(yīng)新領(lǐng)域知識(shí)。

語(yǔ)言模型是開(kāi)放知識(shí)圖譜(Language Models are Open Knowledge Graphs)。該論文提出了能夠自動(dòng)化構(gòu)建知識(shí)圖譜的Match and Map(MAMA)模型,借助預(yù)先訓(xùn)練好的語(yǔ)言模型中的注意力權(quán)重來(lái)提取語(yǔ)料中的實(shí)體間關(guān)系,并基于已有的schema框架自動(dòng)化構(gòu)建開(kāi)放性知識(shí)圖譜。

命名實(shí)體識(shí)別中未標(biāo)記實(shí)體問(wèn)題的研究(Empirical Analysis of Unlabeled Entity Problem in Named Entity Recognition)。論文探究了未標(biāo)注實(shí)體問(wèn)題對(duì)NER實(shí)驗(yàn)指標(biāo)的影響,并提出了一種負(fù)采樣策略,通過(guò)改進(jìn)損失函數(shù),將為標(biāo)注實(shí)體當(dāng)作負(fù)樣本訓(xùn)練,從而極大改善了未標(biāo)注實(shí)體問(wèn)題對(duì)NER實(shí)驗(yàn)指標(biāo)的影響。

論文細(xì)節(jié)

1

論文動(dòng)機(jī)

現(xiàn)有的將知識(shí)圖譜與預(yù)訓(xùn)練模型相結(jié)合的研究工作還存在挑戰(zhàn):當(dāng)預(yù)先訓(xùn)練好的模型與新領(lǐng)域中的知識(shí)圖譜結(jié)合微調(diào)時(shí),語(yǔ)言模型難以高效學(xué)習(xí)到結(jié)構(gòu)化的實(shí)體關(guān)系語(yǔ)義信息。同時(shí)知識(shí)圖譜的理解推理能力也需要上下文的輔助?;诖耍撐奶岢隽艘粋€(gè)聯(lián)合預(yù)訓(xùn)練框架:JAKET,通過(guò)同時(shí)對(duì)知識(shí)圖譜和語(yǔ)言建模,實(shí)現(xiàn)兩個(gè)模型之間的信息互補(bǔ)和交替訓(xùn)練。方法1. 知識(shí)模塊(Knowledge Module,KM)知識(shí)模塊主要是對(duì)知識(shí)圖譜進(jìn)行建模,生成含有結(jié)構(gòu)化信息的實(shí)體表示。采用圖注意力模型和組合算子思想來(lái)聚合實(shí)體嵌入和關(guān)系嵌入信息。在第L層的實(shí)體V的嵌入信息傳播公式為:

3bf5710c-8e8f-11eb-8b86-12bb97331649.png

考慮到計(jì)算過(guò)程中可能會(huì)出現(xiàn)的實(shí)體數(shù)爆炸問(wèn)題,實(shí)驗(yàn)采用了設(shè)置minibatch領(lǐng)域采樣的方法獲取多跳鄰居集合。2. 語(yǔ)言模塊(Language Module,LM)語(yǔ)言模塊主要是對(duì)文本建模,學(xué)習(xí)文本的嵌入表示。采用RoBERT-base作為預(yù)訓(xùn)練模型。3.解決循環(huán)依賴問(wèn)題(Solve the syclic dependency)由于LM和KM是互相傳遞信息的,訓(xùn)練過(guò)程存在循環(huán)依賴問(wèn)題,不便于后續(xù)計(jì)算優(yōu)化。論文提出了分解語(yǔ)言模型解決此問(wèn)題,即將LM分解為L(zhǎng)M1和LM2子模塊,將RoBERT的前6層和后6層分別作為L(zhǎng)M1和LM2,實(shí)現(xiàn)LM1,KM和LM2的聯(lián)合訓(xùn)練。整體框架如下圖所示。

3c6790e8-8e8f-11eb-8b86-12bb97331649.png

實(shí)驗(yàn)結(jié)果論文在實(shí)體類別預(yù)測(cè)、關(guān)系類別預(yù)測(cè)、詞塊掩碼預(yù)測(cè)、實(shí)體掩碼預(yù)測(cè)4個(gè)任務(wù)上進(jìn)行預(yù)訓(xùn)練,并在小樣本關(guān)系分類、KGQA和實(shí)體分類這3個(gè)下游任務(wù)上進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果分別如下圖所示:

3ccab038-8e8f-11eb-8b86-12bb97331649.png

3d660b5a-8e8f-11eb-8b86-12bb97331649.png

由實(shí)驗(yàn)結(jié)果可知,在3個(gè)任務(wù)中論文提出的JAKET都可以進(jìn)一步提高性能,并且聯(lián)合預(yù)訓(xùn)練可以有效減少模型對(duì)下游訓(xùn)練數(shù)據(jù)的依賴。

2

3dd9f9c0-8e8f-11eb-8b86-12bb97331649.png

論文動(dòng)機(jī)

知識(shí)圖譜的構(gòu)建方法通常需要人工輔助參與,但是人力成本太高;

同時(shí)BERT等預(yù)訓(xùn)練模型通常在非常大規(guī)模的語(yǔ)料上訓(xùn)練,訓(xùn)練好的模型本身包含常識(shí)知識(shí),這些知識(shí)可以促進(jìn)上層的其他應(yīng)用。

所以本論文提出了一種無(wú)監(jiān)督的Match and Map(MAMA)模型,來(lái)將預(yù)訓(xùn)練語(yǔ)言模型中包含的知識(shí)轉(zhuǎn)換為知識(shí)圖譜。

方法

1. 匹配(Match)

3e6ba8c0-8e8f-11eb-8b86-12bb97331649.png

Match階段主要是自動(dòng)抽取三元組。對(duì)于輸入的文本,使用開(kāi)源工具抽取出實(shí)體,并將實(shí)體兩兩配對(duì)為頭實(shí)體和尾實(shí)體,利用預(yù)訓(xùn)練模型的注意力權(quán)重來(lái)提取實(shí)體對(duì)的關(guān)系。通過(guò)beam search的方法搜索多條從頭實(shí)體到尾實(shí)體的路徑,從而獲取多個(gè)候選的三元組。再通過(guò)設(shè)置一些限制規(guī)則過(guò)濾掉不符常理的三元組,即得到用于構(gòu)建知識(shí)圖譜的三元組。

2. 映射(Map)

Map階段主要是將Match階段抽取到的三元組映射到知識(shí)圖譜中去。利用成熟的實(shí)體鏈接和關(guān)系映射技術(shù),將三元組映射到已有的固定schema圖譜中。對(duì)于部分映射或完全不匹配的三元組,就構(gòu)建開(kāi)放schema的知識(shí)圖譜,并最后將這兩類知識(shí)圖譜融合,得到一個(gè)靈活的開(kāi)放性知識(shí)圖譜。

整體框架如下:

3fadc286-8e8f-11eb-8b86-12bb97331649.png

論文中使用BERT-large對(duì)Wikipedia語(yǔ)料進(jìn)行自動(dòng)化構(gòu)建知識(shí)圖譜,圖譜效果如下:

4008e7b0-8e8f-11eb-8b86-12bb97331649.png

實(shí)驗(yàn)結(jié)果

論文在TAC KBP和Wikidata數(shù)據(jù)集上進(jìn)行槽填充任務(wù)實(shí)驗(yàn)。

在TAC KBP數(shù)據(jù)集上的結(jié)果如下表:

40ab57c0-8e8f-11eb-8b86-12bb97331649.png

基于TAC KBP數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果主要有兩點(diǎn):一是MAMA模型能夠提升知識(shí)圖譜的槽填充效果;二是更大/更深的語(yǔ)言模型能夠抽取出更高質(zhì)量的知識(shí)圖譜。

在Wikidata數(shù)據(jù)集上的結(jié)果如下表:

413cd6fa-8e8f-11eb-8b86-12bb97331649.png

基于Wikidata數(shù)據(jù)集的實(shí)驗(yàn)結(jié)論一方面說(shuō)明MAMA可擴(kuò)展到更大的語(yǔ)料庫(kù),另一方面說(shuō)明MAMA能從更大規(guī)模的語(yǔ)料庫(kù)中抽取出更完整的知識(shí)圖譜。

3

41a55734-8e8f-11eb-8b86-12bb97331649.png

論文動(dòng)機(jī)

實(shí)體未標(biāo)注問(wèn)題是命名實(shí)體識(shí)別(NER)任務(wù)中的常見(jiàn)問(wèn)題,且該問(wèn)題在實(shí)際情況中無(wú)法完全避免。既然無(wú)法徹底解決實(shí)體未標(biāo)注問(wèn)題,那么該問(wèn)題是否會(huì)對(duì)NER模型產(chǎn)生影響呢?若產(chǎn)生較大影響,如何將這種消極影響盡量降低?

基于上述問(wèn)題,論文分析了未標(biāo)注實(shí)體問(wèn)題對(duì)NER實(shí)驗(yàn)指標(biāo)的影響及其原因,并提出了一種具有魯棒性的負(fù)采樣策略,使得模型能夠保持在未標(biāo)注實(shí)體概率極低的狀態(tài)下訓(xùn)練,從而提升實(shí)體標(biāo)注效果。

方法

1.合成數(shù)據(jù)集(Synthetic Datasets)

通過(guò)在標(biāo)注完善的CoNLL-2003和OntoNotes5.0數(shù)據(jù)集按照一定概率隨機(jī)掩蓋標(biāo)注出的實(shí)體,獲取人工合成的欠完善標(biāo)注數(shù)據(jù)集。

2.衡量指標(biāo)(Metrics)

文章中設(shè)計(jì)了侵蝕率(erosion rate)和誤導(dǎo)率(misguidance rate)2種指標(biāo)來(lái)測(cè)算NER中未標(biāo)注實(shí)體問(wèn)題的影響。

侵蝕率代表實(shí)體標(biāo)注量減少對(duì)NER指標(biāo)下降的影響程度。

誤導(dǎo)率代表未標(biāo)注實(shí)體對(duì)當(dāng)作負(fù)樣本時(shí)對(duì)NER指標(biāo)下降的影響程度。

3.負(fù)采樣(Negative Sampling)

文章采用負(fù)采樣的方式進(jìn)行降噪,對(duì)所有的非實(shí)體進(jìn)行負(fù)采樣,采樣負(fù)樣本進(jìn)行損失函數(shù)的計(jì)算。改進(jìn)后的損失函數(shù)如下所示:

41f444ca-8e8f-11eb-8b86-12bb97331649.png

其中前半部分表示標(biāo)注實(shí)體集合的損失,后半部分則是負(fù)采樣實(shí)體集合的損失。文章的整體模型框架如下圖所示,總體就是BERT/LSTM編碼+softmax的思路。

427335d2-8e8f-11eb-8b86-12bb97331649.png

實(shí)驗(yàn)結(jié)果

文章在合成數(shù)據(jù)集上進(jìn)行NER任務(wù)實(shí)驗(yàn),分析未標(biāo)注問(wèn)題的影響和負(fù)采樣的訓(xùn)練效果。

首先是分別基于CoNLL-2003和OntoNotes5.0合成數(shù)據(jù)集進(jìn)行的實(shí)驗(yàn)結(jié)果:

42ec9c38-8e8f-11eb-8b86-12bb97331649.png

4371e92e-8e8f-11eb-8b86-12bb97331649.png

由圖可知:隨著實(shí)體掩蓋概率p增大,即未標(biāo)注實(shí)體數(shù)量增多,NER指標(biāo)下降明顯;在p很低的時(shí)候,誤導(dǎo)率就較高了,而侵蝕率受影響較小,說(shuō)明把未標(biāo)注實(shí)體當(dāng)作負(fù)樣本訓(xùn)練、對(duì)NER指標(biāo)下降的影響程度很大,實(shí)體標(biāo)注量減少對(duì)指標(biāo)下降的影響較小

其次將文章提出的負(fù)采樣訓(xùn)練模型與其他SOTA模型分別在完全標(biāo)注數(shù)據(jù)集和真實(shí)數(shù)據(jù)集上做對(duì)比,實(shí)驗(yàn)結(jié)果如下:

44481878-8e8f-11eb-8b86-12bb97331649.png

結(jié)果表明本模型在完全標(biāo)注數(shù)據(jù)集上的效果和其他模型相差不大,并且真實(shí)世界數(shù)據(jù)集上的效果遠(yuǎn)優(yōu)于其他的模型,所以本文模型的綜合效果最好。

總結(jié)

此次解讀的三篇論文圍繞知識(shí)建模和信息抽取的研究點(diǎn)展開(kāi)。感覺(jué)知識(shí)圖譜結(jié)合語(yǔ)言模型的相關(guān)研究的趨勢(shì)是嘗試使用同一套編碼系統(tǒng),同時(shí)對(duì)語(yǔ)言模型中的上下文信息和知識(shí)圖譜中的結(jié)構(gòu)化語(yǔ)義信息進(jìn)行編碼和訓(xùn)練,從而實(shí)現(xiàn)知識(shí)融合或知識(shí)挖掘。此外,第三篇文章主要想給廣大做知識(shí)圖譜方向的研究者分享一個(gè)命名實(shí)體識(shí)別的技巧思路,當(dāng)面對(duì)標(biāo)注質(zhì)量不那么高的數(shù)據(jù)集時(shí),或許可以嘗試一下負(fù)采樣的方法。

以上就是Fudan DISC本期的論文分享內(nèi)容,歡迎大家的批評(píng)和交流。

原文標(biāo)題:【論文解讀】ICLR2021 知識(shí)建模與信息抽取

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50425
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標(biāo)題:【論文解讀】ICLR2021 知識(shí)建模與信息抽取

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    訓(xùn)練模型后用cls_video.py在canmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒(méi)有識(shí)別到是什么情況?

    訓(xùn)練模型后用cls_video.py在canmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒(méi)有識(shí)別到是什么情況啊,沒(méi)有框出現(xiàn)
    發(fā)表于 06-10 06:57

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練
    發(fā)表于 04-28 11:11

    請(qǐng)問(wèn)如何能讓模型的效果更好?

    重現(xiàn)步驟 我用yolov8n訓(xùn)練出的模型,跑出來(lái)的識(shí)別是沒(méi)有問(wèn)題的,問(wèn)題是在部署到開(kāi)發(fā)板上,無(wú)論是穩(wěn)定性還是框的大小以及識(shí)別的準(zhǔn)確性都比較差,再試了幾次
    發(fā)表于 03-11 07:21

    小白學(xué)大模型訓(xùn)練大語(yǔ)言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語(yǔ)言模型(LLMs)正以其強(qiáng)大的語(yǔ)言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓私馊绾胃咝У?b class='flag-5'>訓(xùn)練大型語(yǔ)言
    的頭像 發(fā)表于 03-03 11:51 ?734次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:<b class='flag-5'>訓(xùn)練</b>大語(yǔ)言<b class='flag-5'>模型</b>的深度指南

    GPU是如何訓(xùn)練AI大模型

    在AI模型訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU是如何訓(xùn)練AI大
    的頭像 發(fā)表于 12-19 17:54 ?747次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別

    學(xué)習(xí)。 過(guò)程: 教師模型訓(xùn)練:先訓(xùn)練出一個(gè)高性能但可能過(guò)于龐大的教師模型。 學(xué)生模型訓(xùn)練:使用教
    發(fā)表于 12-06 17:20

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.52】基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化

    與編造、錯(cuò)誤的復(fù)雜推理或者在復(fù)雜語(yǔ)境下處理能力不足等。其主要原因來(lái)自于: (1)訓(xùn)練知識(shí)存在偏差:老師教錯(cuò)了,學(xué)生自然對(duì)不了。 在訓(xùn)練模型時(shí)輸入的海量
    發(fā)表于 12-04 10:50

    什么是大模型、大模型是怎么訓(xùn)練出來(lái)的及大模型作用

    本文通俗簡(jiǎn)單地介紹了什么是大模型、大模型是怎么訓(xùn)練出來(lái)的和大模型的作用。 ? 什么是大模型模型
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來(lái)的及大<b class='flag-5'>模型</b>作用

    ASR與傳統(tǒng)語(yǔ)音識(shí)別的區(qū)別

    識(shí)別技術(shù)。 構(gòu)建更深更復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,利用大量數(shù)據(jù)進(jìn)行訓(xùn)練。 提高了語(yǔ)音識(shí)別的準(zhǔn)確率和穩(wěn)定性。 傳統(tǒng)語(yǔ)音識(shí)別 : 通常依賴于聲學(xué)-語(yǔ)言
    的頭像 發(fā)表于 11-18 15:22 ?1353次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語(yǔ)言模型(LLM)是一個(gè)復(fù)雜且資源密集的過(guò)程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識(shí)。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)
    的頭像 發(fā)表于 11-08 09:30 ?1521次閱讀

    三星自主研發(fā)知識(shí)圖譜技術(shù),強(qiáng)化Galaxy AI用戶體驗(yàn)與數(shù)據(jù)安全

    據(jù)外媒11月7日?qǐng)?bào)道,三星電子全球AI中心總監(jiān)Kim Dae-hyun近日透露,公司正致力于自主研發(fā)知識(shí)圖譜技術(shù),旨在進(jìn)一步優(yōu)化Galaxy AI的功能,提升其易用性,并加強(qiáng)用戶數(shù)據(jù)的隱私保護(hù)。
    的頭像 發(fā)表于 11-07 15:19 ?1386次閱讀

    AI大模型訓(xùn)練數(shù)據(jù)來(lái)源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開(kāi)發(fā)布,涵蓋了各種類型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個(gè)廣泛用于圖像識(shí)別任務(wù)的大規(guī)模圖像數(shù)據(jù)集。 Common Crawl :提供了大量的網(wǎng)頁(yè)抓取數(shù)據(jù)以供自然語(yǔ)言處理模型訓(xùn)練
    的頭像 發(fā)表于 10-23 15:32 ?3675次閱讀

    如何訓(xùn)練自己的AI大模型

    訓(xùn)練AI大模型之前,需要明確自己的具體需求,比如是進(jìn)行自然語(yǔ)言處理、圖像識(shí)別、推薦系統(tǒng)還是其他任務(wù)。 二、數(shù)據(jù)收集與預(yù)處理 數(shù)據(jù)收集 根據(jù)任務(wù)需求,收集并準(zhǔn)備好足夠的數(shù)據(jù)集。 可以選擇公開(kāi)數(shù)據(jù)集、自有數(shù)據(jù)集或者通過(guò)數(shù)據(jù)標(biāo)
    的頭像 發(fā)表于 10-23 15:07 ?4984次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的信息,提供更全面的上下文理解。這使得模型能夠更準(zhǔn)確地理解復(fù)雜問(wèn)題中的多個(gè)層面和隱含意義。 2. 語(yǔ)義分析 模型通過(guò)訓(xùn)練學(xué)習(xí)到語(yǔ)言的語(yǔ)義特征,能夠識(shí)別文本中的
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書(shū)

    上周收到《大語(yǔ)言模型應(yīng)用指南》一書(shū),非常高興,但工作項(xiàng)目繁忙,今天才品鑒體驗(yàn),感謝作者編寫(xiě)了一部?jī)?nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個(gè)讓我了解大語(yǔ)言模型
    發(fā)表于 07-21 13:35