一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

史上最強(qiáng)通用NLP模型誕生

人工智能和機(jī)器人研究院 ? 來(lái)源:cc ? 2019-02-18 14:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

OpenAI今天在官博上介紹了他們的新NLP模型,刷新了7大數(shù)據(jù)集的SOTA(當(dāng)前最佳結(jié)果),并且能夠在不進(jìn)行任何與領(lǐng)域知識(shí)相關(guān)數(shù)據(jù)訓(xùn)練的情況下,直接跨任務(wù)執(zhí)行最基礎(chǔ)的閱讀理解、機(jī)器翻譯、問(wèn)答和文本總結(jié)等不同NLP任務(wù)。

無(wú)需預(yù)訓(xùn)練就能完成多種不同任務(wù)且取得良好結(jié)果,相當(dāng)于克服了“災(zāi)難性遺忘”,簡(jiǎn)直可謂深度學(xué)習(xí)研究者夢(mèng)寐以求的“通用”模型!

如果說(shuō)谷歌的BERT代表NLP邁入了一個(gè)預(yù)訓(xùn)練模型的新時(shí)代,OpenAI便用這一成果證明,只要擁有超凡的數(shù)據(jù)量和計(jì)算力,就能實(shí)現(xiàn)以往無(wú)法想象的事情。

例如計(jì)算力,根據(jù)參與OpenAI強(qiáng)化學(xué)習(xí)研究的Smertiy透露,新模型使用了256塊谷歌TPU v3(沒(méi)有公布具體的訓(xùn)練時(shí)間),訓(xùn)練價(jià)格每小時(shí)2048美元。

史上最強(qiáng)“通用”NLP模型:15億參數(shù)馳騁40GB網(wǎng)絡(luò)數(shù)據(jù)

OpenAI的這個(gè)NLP模型基于Transformer,擁有15億參數(shù),使用含有800萬(wàn)網(wǎng)頁(yè)內(nèi)容的數(shù)據(jù)集訓(xùn)練,只為一個(gè)目的:

根據(jù)當(dāng)前已有的信息,預(yù)測(cè)下一個(gè)單詞是什么。

新模型的名字叫GPT-2,是OpenAI去年發(fā)布的無(wú)監(jiān)督NLP模型GPT的直接拓展,新模型用到的參數(shù)和訓(xùn)練數(shù)據(jù),都增長(zhǎng)了超過(guò)10個(gè)數(shù)量級(jí)。

由于模型容量足夠大,并且訓(xùn)練數(shù)據(jù)足夠多,GPT-2在擁有40GB網(wǎng)絡(luò)數(shù)據(jù)的測(cè)試集上,僅是簡(jiǎn)單“預(yù)測(cè)下一個(gè)單詞是什么”,就足以完成各種不同的NLP任務(wù),展示出了強(qiáng)大的泛化能力。

當(dāng)前,構(gòu)建機(jī)器學(xué)習(xí)系統(tǒng)的主流方法是監(jiān)督學(xué)習(xí)——收集數(shù)據(jù),也即喂給模型一套“理想的”輸入和輸出組合,讓模型模仿“套路”,在新的測(cè)試數(shù)據(jù)集上也給出類似的結(jié)果。這種方法在特定領(lǐng)域任務(wù)上表現(xiàn)很好,但缺點(diǎn)是一旦改為其他任務(wù),比如將在問(wèn)答數(shù)據(jù)集上表現(xiàn)很好的模型用到閱讀理解上,模型就無(wú)法適應(yīng),也即泛化能力很差。

對(duì)此,OpenAI的研究人員大膽推測(cè):當(dāng)前機(jī)器學(xué)習(xí)系統(tǒng)泛化能力差的原因,恰恰是因?yàn)樽屇P途窒拊谔囟I(lǐng)域的數(shù)據(jù)集上做特定任務(wù)的訓(xùn)練。

同時(shí),現(xiàn)有的多任務(wù)模型研究證明,單純依靠訓(xùn)練樣本的增加,難以實(shí)現(xiàn)有效的任務(wù)擴(kuò)展;NLP研究人員正越來(lái)越多地使用自注意力模塊遷移學(xué)習(xí)來(lái)構(gòu)建多任務(wù)學(xué)習(xí)模型。

于是,OpenAI的研究人員結(jié)合上述兩種思路,在更通用的數(shù)據(jù)集基礎(chǔ)上,使用自注意力模塊遷移學(xué)習(xí),然后得到了一個(gè)無(wú)需調(diào)整任何參與或模型結(jié)構(gòu),在 zero-shot 情況下能夠執(zhí)行多項(xiàng)不同NLP任務(wù)的模型,也即上文所說(shuō)的GPT-2。

有鑒于其強(qiáng)大的能力和可能被濫用的危險(xiǎn),OpenAI并沒(méi)有公布GPT-2模型及代碼,只公布了一個(gè)僅含117M參數(shù)的樣本模型及代碼,供有興趣的研究人員學(xué)習(xí)和參考:https://github.com/openai/gpt-2

當(dāng)然,GPT-2的具體模型結(jié)構(gòu)OpenAI這次也沒(méi)有詳述,他們預(yù)留了半年的時(shí)間向?qū)W界征集意見(jiàn)。在公布的論文“Language Models are Unsupervised Multitask Learners”中,OpenAI的研究人員介紹了模型構(gòu)建的思路和方法。

至于具體的計(jì)算力,論文中沒(méi)有提及,根據(jù)上文Twitter上的數(shù)據(jù),他們的模型使用了256個(gè)谷歌云TPU v3,盡管沒(méi)有公布訓(xùn)練時(shí)間。TPU v3在Google之外只提供單獨(dú)使用版本(盡管OpenAI可能得到了特別的許可),這意味著他們要支付8 * 256 = 2048美元/小時(shí)。

無(wú)需預(yù)訓(xùn)練,8個(gè)數(shù)據(jù)集7個(gè)刷新當(dāng)前最佳紀(jì)錄

我們對(duì)四個(gè)語(yǔ)言模型進(jìn)行了訓(xùn)練和基準(zhǔn)測(cè)試,它們的大小如下表所示:

4個(gè)模型大小的架構(gòu)和超參數(shù)

其中,最小的模型等價(jià)于原始的GPT,次小的等價(jià)于最大的BERT模型。我們的最大模型是GPT-2,它的參數(shù)比GPT多一個(gè)數(shù)量級(jí)。

GPT-2在各種領(lǐng)域特定的語(yǔ)言建模任務(wù)上取得了state-of-the-art 的成績(jī)。我們的模型沒(méi)有針對(duì)任何特定于這些任務(wù)的數(shù)據(jù)進(jìn)行訓(xùn)練,只是作為最終測(cè)試對(duì)它們進(jìn)行了評(píng)估;這就是被稱為“zero-shot”的設(shè)置。

當(dāng)在相同的數(shù)據(jù)集上進(jìn)行評(píng)估時(shí),GPT-2比在特定領(lǐng)域數(shù)據(jù)集(如Wikipedia、新聞、書籍)上訓(xùn)練的模型表現(xiàn)更好。

下表顯示了我們所有最先進(jìn)的zero-shot結(jié)果。

(+)表示該項(xiàng)分?jǐn)?shù)越高越好。(-)表示分?jǐn)?shù)越低越好。

GPT-2在這些數(shù)據(jù)集中均獲得SOTA結(jié)果

GPT-2在Winograd Schema、LAMBADA以及其他語(yǔ)言建模任務(wù)上實(shí)現(xiàn)了state-of-the-art 的結(jié)果。

在各數(shù)據(jù)集上,四種不同參數(shù)大小模型的Zero-shot結(jié)果。

可以看到,WebText LMs可以很好地跨域和數(shù)據(jù)集傳輸,在zero-shot設(shè)置下將8個(gè)數(shù)據(jù)集中的7個(gè)的state of the art結(jié)果進(jìn)一步提升了。

在Penn Treebank和WikiText-2等只有100萬(wàn)到200萬(wàn)個(gè)訓(xùn)練token的小型數(shù)據(jù)集上,可以看到改進(jìn)很大。在用于測(cè)量長(zhǎng)期依賴關(guān)系的數(shù)據(jù)集上,如LAMBADA和the Children’s Book Test,也有很大的改進(jìn)。

我們的模型在One Billion Word Benchmark上仍然明顯比之前的工作要差。這可能是由于它既是最大的數(shù)據(jù)集,又有一些最具破壞性的預(yù)處理——1BW的句子級(jí)變換消除了所有的遠(yuǎn)程結(jié)構(gòu)。

其他任務(wù):?jiǎn)柎?、閱讀理解、摘要總結(jié)和翻譯

在其他語(yǔ)言任務(wù),如問(wèn)題回答、閱讀理解、摘要總結(jié)和翻譯,我們?cè)跊](méi)有對(duì)模型進(jìn)行任何微調(diào)的情況下獲得了極好的結(jié)果,只需要以正確的方式提示訓(xùn)練模型(下面的例子展示了具體做法和結(jié)果),但在這些任務(wù)還達(dá)不到專業(yè)系統(tǒng)的SOTA水平。

1、閱讀理解:回答關(guān)于給定段落的問(wèn)題

數(shù)據(jù)集:CoQA

示例

The 2008 Summer Olympics torch relay was run from March 24 until August 8, 2008, prior to the 2008 Summer Olympics, with the theme of “one world, one dream”. Plans for the relay were announced on April 26, 2007, in Beijing, China. The relay, also called by the organizers as the “Journey of Harmony”, lasted 129 days and carried the torch 137,000 km (85,000 mi) – the longest distance of any Olympic torch relay since the tradition was started ahead of the 1936 Summer Olympics.

After being lit at the birthplace of the Olympic Games in Olympia, Greece on March 24, the torch traveled to the Panathinaiko Stadium in Athens, and then to Beijing, arriving on March 31. From Beijing, the torch was following a route passing through six continents. The torch has visited cities along the Silk Road, symbolizing ancient links between China and the rest of the world. The relay also included an ascent with the flame to the top of *** on the border of Nepal and Tibet, China from the Chinese side, which was closed specially for the event.

Q: What was the theme?A: “one world, one dream”.

Q: What was the length of the race?A: 137,000 km

Q: Was it larger than previous ones?A: No

Q: Where did the race begin?A: Olympia, Greece

Q: Is there anything notable about that place?A: birthplace of Olympic Games

Q: Where did they go after?A: Athens

Q: How many days was the race?A: seven

Q: Did they visit any notable landmarks?A: Panathinaiko Stadium

Q: And did they climb any mountains?

A:

Target answers:unknownoryesModel answer:Everest

性能表現(xiàn):

在閱讀理解任務(wù)中,GPT-2比DrQA+PGNet要差,也遠(yuǎn)低于人類水平

2、常識(shí)推理:解決含義模糊的代詞

數(shù)據(jù)集:Winograd Schema Challenge

示例

The trophy doesn’t fit into the brown suitcase because it is too large.

Correct answer:it = trophyModel answer:it = trophy

The trophy doesn’t fit into the brown suitcase because it is too small.

Correct answer:it = suitcaseModel answer:it = suitcase

性能表現(xiàn)

在常識(shí)推理任務(wù)中,GPT-2優(yōu)于SOTA

3、問(wèn)題回答

數(shù)據(jù)集:Natural Questions

示例

Who wrote the book the origin of species?

Correct answer:Charles DarwinModel answer:Charles Darwin

What is the largest state in the U.S. by land mass?

Correct answer:AlaskaModel answer:California

性能表現(xiàn):

在問(wèn)答任務(wù)中,GPT-2的表現(xiàn)遠(yuǎn)低于BERT

4、廣義語(yǔ)境的語(yǔ)言建模:預(yù)測(cè)一段文字的最后一個(gè)詞

數(shù)據(jù)集:LAMBADA

示例

Both its sun-speckled shade and the cool grass beneath were a welcome respite after the stifling kitchen, and I was glad to relax against the tree’s rough, brittle bark and begin my breakfast of buttery, toasted bread and fresh fruit. Even the water was tasty, it was so clean and cold. It almost made up for the lack of…

Correct answer:coffeeModel answer:food

性能表現(xiàn)

在廣義語(yǔ)境的語(yǔ)言建模任務(wù)中,GPT-2比SOTA的模型表現(xiàn)更好

5、寫摘要:對(duì)新聞文章進(jìn)行總結(jié)

數(shù)據(jù)集:CNN和每日郵報(bào)數(shù)據(jù)集

示例文本:

Prehistoric man sketched an incredible array of prehistoric beasts on the rough limestone walls of a cave in modern day France 36,000 years ago.

Now, with the help of cutting-edge technology, those works of art in the Chauvet-Pont-d’Arc Cave have been reproduced to create the biggest replica cave in the world.

參考摘要:

Cave mimics famous Caverne du Pont-d’Arc in France, the oldest cave decorated by man and the best preserved. The replica contains all 1,000 paintings which include 425 such as a woolly rhinoceros and mammoths. Minute details were copied using 3D modelling and anamorphic techniques, often used to shoot widescreen images. The modern cave also includes replica paw prints of bears, bones and details preserved in the original cave.

機(jī)器編寫的摘要:

The original site in Vallon-Pont-D’arc in Southern France is a Unesco World Heritage site and is the oldest known and the best preserved cave decorated by man. The replica cave was built a few miles from the original site in Vallon-Pont-D’Arc in Southern France. The cave contains images of 14 different species of animals including woolly rhinoceros, mammoths, and big cats.

性能表現(xiàn)

在摘要任務(wù)中,GPT-2的表現(xiàn)不如專門的系統(tǒng)

6、機(jī)器翻譯:把法語(yǔ)句子翻譯成英語(yǔ)

數(shù)據(jù)集:WMT-14 Fr-En

示例

法語(yǔ)句子:

Un homme a expliqué que l’opération gratuite qu’il avait subie pour soigner une hernie lui permettrait de travailler à nouveau.

參考翻譯:

One man explained that the free hernia surgery he’d received will allow him to work again.

模型的翻譯

A man told me that the operation gratuity he had been promised would not allow him to travel.

性能表現(xiàn)

在法語(yǔ)-英語(yǔ)機(jī)器翻譯任務(wù)中,GPT-2的表現(xiàn)不如專門的系統(tǒng)

我們認(rèn)為,由于這些任務(wù)是通用語(yǔ)言建模的子集,我們可以預(yù)期隨著計(jì)算力和數(shù)據(jù)量的增加,性能會(huì)進(jìn)一步提高。其他研究人員也發(fā)表了類似的假設(shè)。我們還期望通過(guò)微調(diào)來(lái)提高下游任務(wù)的性能,盡管這需要進(jìn)行徹底的實(shí)驗(yàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122811
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22629

原文標(biāo)題:15億參數(shù)!史上最強(qiáng)通用NLP模型誕生:狂攬7大數(shù)據(jù)集最佳紀(jì)錄

文章出處:【微信號(hào):gh_ecbcc3b6eabf,微信公眾號(hào):人工智能和機(jī)器人研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    小米史上最強(qiáng)年報(bào)!單季度千億營(yíng)收!SU7全年產(chǎn)能已售罄!

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)如日中天的小米,發(fā)布了史上最強(qiáng)年報(bào)! ? 2024年,小米集團(tuán)總收入達(dá)到3659億元,同比增長(zhǎng)35%,創(chuàng)下歷史新高。其中第四季度的數(shù)據(jù)更為炸裂,收入1090億元,同比
    的頭像 發(fā)表于 03-20 00:13 ?7176次閱讀
    小米<b class='flag-5'>史上</b><b class='flag-5'>最強(qiáng)</b>年報(bào)!單季度千億營(yíng)收!SU7全年產(chǎn)能已售罄!

    史上最強(qiáng)?520線激光雷達(dá)上車!

    性能最強(qiáng)的量產(chǎn)車規(guī)級(jí)激光雷達(dá)產(chǎn)品。 ? 極氪9X上搭載了千里浩瀚H9輔助駕駛系統(tǒng),官方表示這是面向L3級(jí)的智能輔助駕駛解決方案。在算力方面,最高搭載雙英偉達(dá)Thor-U芯片,算力高達(dá)1400TOPS。 ? 傳感器方面更為豪華,極氪9X搭載43顆感知硬件,包括1顆52
    的頭像 發(fā)表于 07-14 09:15 ?1534次閱讀

    亞馬遜功能最強(qiáng)模型Amazon Nova Premier現(xiàn)已正式可用

    是目前亞馬遜功能最強(qiáng)大的模型,適用于處理復(fù)雜任務(wù),并可作為教師模型來(lái)蒸餾定制模型。 作為現(xiàn)有Amazon Nova理解模型家族的新成員,Am
    的頭像 發(fā)表于 05-09 18:18 ?187次閱讀
    亞馬遜功能<b class='flag-5'>最強(qiáng)</b><b class='flag-5'>模型</b>Amazon Nova Premier現(xiàn)已正式可用

    日賺1.1億,營(yíng)收超特斯拉!比亞迪史上最強(qiáng)財(cái)報(bào)兩大看點(diǎn)

    (電子發(fā)燒友網(wǎng)報(bào)道 文/章鷹)3月24日,比亞迪發(fā)布2024年度財(cái)報(bào),這次財(cái)報(bào)堪稱歷史上最好的財(cái)報(bào),公司2024年實(shí)現(xiàn)營(yíng)業(yè)收入7771.02億元(1069億美元),同比增長(zhǎng)29.02%,這是比亞迪
    的頭像 發(fā)表于 03-28 01:00 ?3639次閱讀
    日賺1.1億,營(yíng)收超特斯拉!比亞迪<b class='flag-5'>史上</b><b class='flag-5'>最強(qiáng)</b>財(cái)報(bào)兩大看點(diǎn)

    低至¥2.27/h!就能使用全球最強(qiáng)開(kāi)元模型——千問(wèn) QwQ-32B

    ABSTRACT摘要捷智算平臺(tái)上新全球最強(qiáng)開(kāi)元模型——千問(wèn)QwQ-32B。JAEALOT2025年3月18日3月17日,阿里通義千問(wèn)發(fā)布的最新開(kāi)源推理模型QwQ-32B,在國(guó)際權(quán)威測(cè)評(píng)榜
    的頭像 發(fā)表于 03-19 12:34 ?541次閱讀
    低至¥2.27/h!就能使用全球<b class='flag-5'>最強(qiáng)</b>開(kāi)元<b class='flag-5'>模型</b>——千問(wèn) QwQ-32B

    史上最強(qiáng)財(cái)報(bào)!小米2024年?duì)I收飆漲35%,2025年汽車交付超35萬(wàn)輛

    3月18日晚間,小米集團(tuán)發(fā)布2024年財(cái)報(bào),2024年公司營(yíng)收達(dá)到3659億元,同比增長(zhǎng)35%。全年經(jīng)調(diào)整凈利潤(rùn)272億元,同比增長(zhǎng)41.3%。2024年第四季度營(yíng)收突破千億,達(dá)到1090億元,同比增長(zhǎng)48.8%。智能電動(dòng)汽車等創(chuàng)新業(yè)務(wù)328億元,雷軍稱這是歷史上最強(qiáng)財(cái)報(bào)
    的頭像 發(fā)表于 03-19 10:10 ?2365次閱讀
    <b class='flag-5'>史上</b><b class='flag-5'>最強(qiáng)</b>財(cái)報(bào)!小米2024年?duì)I收飆漲35%,2025年汽車交付超35萬(wàn)輛

    通用模型在垂直行業(yè)的應(yīng)用

    隨著DeepSeek這類通用模型的普及,接下來(lái)會(huì)迎來(lái)更加精細(xì)化的垂直行業(yè)模型,那么哪些垂直行業(yè)會(huì)率先受益?以下是DeepSeek的整理預(yù)測(cè),供大家參考。
    的頭像 發(fā)表于 02-10 15:44 ?813次閱讀

    英特爾8080微處理器誕生50周年

    作為技術(shù)史上最重要的產(chǎn)品之一,8080被認(rèn)為是第一款真正的通用微處理器。
    的頭像 發(fā)表于 12-23 14:00 ?1116次閱讀

    華為mate70正式發(fā)布!亮點(diǎn)有哪些?

    史上最強(qiáng)悍的mate!
    的頭像 發(fā)表于 11-26 16:55 ?1382次閱讀
    華為mate70正式發(fā)布!亮點(diǎn)有哪些?

    NLP技術(shù)在聊天機(jī)器人中的作用

    聊天機(jī)器人,也稱為聊天AI,是一種通過(guò)文本或語(yǔ)音與人類進(jìn)行交流的軟件。它們廣泛應(yīng)用于客戶服務(wù)、在線購(gòu)物、個(gè)人助理等領(lǐng)域。NLP技術(shù)是實(shí)現(xiàn)聊天機(jī)器人智能對(duì)話能力的關(guān)鍵。 1. 理解用戶意圖 NLP技術(shù)
    的頭像 發(fā)表于 11-11 10:33 ?1037次閱讀

    余承東稱史上最強(qiáng)大的Mate11月見(jiàn)

    對(duì)于華為的下一代旗艦手機(jī)Mate70的關(guān)注一直沒(méi)有減少,對(duì)于“純血鴻蒙”的期待一直很高,11月4日,華為常務(wù)董事、終端BG董事長(zhǎng)、智能汽車解決方案BU董事長(zhǎng)余承東在微博上發(fā)文透露一個(gè)重要時(shí)間點(diǎn):史上最強(qiáng)大的Mate,11月見(jiàn)。
    的頭像 發(fā)表于 11-04 11:23 ?648次閱讀

    AI大模型在自然語(yǔ)言處理中的應(yīng)用

    AI大模型在自然語(yǔ)言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語(yǔ)義理解和生成能力為NLP任務(wù)帶來(lái)了顯著的性能提升。以下是對(duì)AI大模型NLP
    的頭像 發(fā)表于 10-23 14:38 ?1550次閱讀

    AMD官方確認(rèn):Strix Halo命名,史上最強(qiáng)APU誕生

    10月18日資訊,隨著代號(hào)為Strix Point的銳龍AI 300系列的面世,市場(chǎng)對(duì)更高階的Strix Halo充滿了期待,尤其是其GPU性能據(jù)稱將達(dá)到前所未有的高度,甚至有傳言稱可與移動(dòng)版RTX 4070相媲美(此點(diǎn)尚存爭(zhēng)議),預(yù)示著未來(lái)許多游戲本或許將不再需要獨(dú)立顯卡。據(jù)悉,這款備受矚目的產(chǎn)品預(yù)計(jì)將于明年初的CES 2025展會(huì)上正式亮相。
    的頭像 發(fā)表于 10-22 11:29 ?1130次閱讀

    通用模型評(píng)測(cè)標(biāo)準(zhǔn)正式發(fā)布

    近日,在2024中國(guó)移動(dòng)全球合作伙伴大會(huì)上,一項(xiàng)關(guān)于大模型評(píng)測(cè)體系建設(shè)的新成果——《通用模型評(píng)測(cè)標(biāo)準(zhǔn)》正式發(fā)布。這一標(biāo)準(zhǔn)由中國(guó)移動(dòng)攜手工信部中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院、中國(guó)電信、國(guó)家電網(wǎng)、中國(guó)石油以及科大訊飛等產(chǎn)業(yè)各方共同推出。
    的頭像 發(fā)表于 10-14 15:52 ?1040次閱讀

    電商搜索革命:大模型如何重塑購(gòu)物體驗(yàn)?

    自我介紹:京東零售搜推算法部算法工程師,專注于大模型技術(shù)以及在 AI 助手搜推等領(lǐng)域的應(yīng)用探索和實(shí)踐。在 AI 助手,NLP 和搜索領(lǐng)域有十多年研發(fā)實(shí)踐經(jīng)驗(yàn),在 AI/NLP 領(lǐng)域申請(qǐng)超過(guò) 15
    的頭像 發(fā)表于 08-19 15:09 ?590次閱讀