一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)自然語言處理

文章:837 被閱讀:242.6w 粉絲數(shù):45 關(guān)注數(shù):0 點贊數(shù):5

廣告

一個通用的自適應(yīng)prompt方法,突破了零樣本學(xué)習(xí)的瓶頸

為了解決這個問題,這篇研究提出了一種Universal Self-adaptive Promptin....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-01 14:48 ?1113次閱讀
一個通用的自適應(yīng)prompt方法,突破了零樣本學(xué)習(xí)的瓶頸

探索ChatGPT的信息抽取能力

通過人工檢查ChatGPT的回復(fù),發(fā)現(xiàn)ChatGPT傾向于識別比標注的跨度更長的sapn,以更接近人....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-01 14:45 ?1468次閱讀
探索ChatGPT的信息抽取能力

State of GPT:大神Andrej揭秘OpenAI大模型原理和訓(xùn)練過程

你可以看到,Llama 的參數(shù)數(shù)量大概是 650 億。現(xiàn)在,盡管與 GPT3 的 1750 億個參數(shù)....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-30 14:34 ?1352次閱讀
State of GPT:大神Andrej揭秘OpenAI大模型原理和訓(xùn)練過程

和ChatGPT相關(guān)的所有評估可能都不做數(shù)了!

不幸的是,我們對 ChatGPT 和許多其他封閉式 LM 背后的細節(jié)幾乎一無所知:架構(gòu)、epoch、....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-30 14:30 ?873次閱讀
和ChatGPT相關(guān)的所有評估可能都不做數(shù)了!

LLM在各種情感分析任務(wù)中的表現(xiàn)如何

? 最近幾年,GPT-3、PaLM和GPT-4等LLM刷爆了各種NLP任務(wù),特別是在zero-sho....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-29 17:24 ?2946次閱讀
LLM在各種情感分析任務(wù)中的表現(xiàn)如何

大模型LLM領(lǐng)域,有哪些可以作為學(xué)術(shù)研究方向?

隨著全球大煉模型不斷積累的豐富經(jīng)驗數(shù)據(jù),人們發(fā)現(xiàn)大模型呈現(xiàn)出很多與以往統(tǒng)計學(xué)習(xí)模型、深度學(xué)習(xí)模型、甚....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-29 14:36 ?1718次閱讀
大模型LLM領(lǐng)域,有哪些可以作為學(xué)術(shù)研究方向?

ETH提出RecurrentGPT實現(xiàn)交互式超長文本生成

RecurrentGPT 則另辟蹊徑,是利用大語言模型進行交互式長文本生成的首個成功實踐。它利用 C....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-29 14:34 ?1183次閱讀
ETH提出RecurrentGPT實現(xiàn)交互式超長文本生成

ChatGPT背后的大模型技術(shù)

由于ChatGPT可以適用于非常多的任務(wù),很多人認為 AI 已經(jīng)迎來拐點。李開復(fù)將此前的 AI 定義....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-29 11:16 ?1978次閱讀
ChatGPT背后的大模型技術(shù)

調(diào)教LLaMA類模型沒那么難,LoRA將模型微調(diào)縮減到幾小時

最近幾個月,ChatGPT 等一系列大語言模型(LLM)相繼出現(xiàn),隨之而來的是算力緊缺日益嚴重。雖然....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-28 10:58 ?3253次閱讀
調(diào)教LLaMA類模型沒那么難,LoRA將模型微調(diào)縮減到幾小時

“AI教父”Geoffrey Hinton:智能進化的下一個階段

十年來,人工智能領(lǐng)域的眾多驚人突破背后都離不開深度學(xué)習(xí),它是使得ChatGPT、AlphaGo等得以....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-26 15:16 ?774次閱讀

大型語言模型能否捕捉到它們所處理和生成的文本中的語義信息

? 大型語言模型能否捕捉到它們所處理和生成的文本中的語義信息?這一問題在計算機科學(xué)和自然語言處理領(lǐng)域....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-25 11:34 ?980次閱讀
大型語言模型能否捕捉到它們所處理和生成的文本中的語義信息

基于實體和動作時空建模的視頻文本預(yù)訓(xùn)練

摘要 盡管常見的大規(guī)模視頻-文本預(yù)訓(xùn)練模型已經(jīng)在很多下游任務(wù)取得不錯的效果,現(xiàn)有的模型通常將視頻或者....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-25 11:29 ?1034次閱讀
基于實體和動作時空建模的視頻文本預(yù)訓(xùn)練

硬件算法協(xié)同設(shè)計

在本文中,將探討了transformer高效訓(xùn)練方法,從存儲效率、硬件算法協(xié)同設(shè)計和計算效率三個角度....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-25 10:33 ?1402次閱讀
硬件算法協(xié)同設(shè)計

上交清華提出中文大模型的知識評估基準C-Eval,輔助模型開發(fā)而非打榜

首先,把一個模型調(diào)成一個對話機器人這件事情并不難,開源界已經(jīng)有了類似于 Alpaca, Vicuna....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-24 15:03 ?1183次閱讀
上交清華提出中文大模型的知識評估基準C-Eval,輔助模型開發(fā)而非打榜

Meta AI重磅推出LIMA!媲美GPT-4、無需RLHF就能對齊!

天下人苦“對齊”久矣!要讓預(yù)訓(xùn)練語言模型的響應(yīng)和特定任務(wù)和用戶偏好對齊,動輒需要百萬示例數(shù)據(jù)集上的i....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-24 15:00 ?1479次閱讀
Meta AI重磅推出LIMA!媲美GPT-4、無需RLHF就能對齊!

大模型在不同任務(wù)中的優(yōu)缺點

如果自己是一個大模型的小白,第一眼看到 GPT、PaLm、LLaMA 這些單詞的怪異組合會作何感想?....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-23 17:19 ?4831次閱讀
大模型在不同任務(wù)中的優(yōu)缺點

模型表現(xiàn)方面有意思的成果

若干年前,AlphaGo Zero用兩個AI代理切磋圍棋技藝,打敗了人類。今早,符堯的一篇論文刷新了....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-23 14:55 ?650次閱讀
模型表現(xiàn)方面有意思的成果

如何對挑選出的demonstration示例進行排序

在demonstration selection的方法中,其中有部分方法也考慮到demonstrat....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-23 14:51 ?839次閱讀
如何對挑選出的demonstration示例進行排序

LLM性能的主要因素

現(xiàn)在是2023年5月,截止目前,網(wǎng)絡(luò)上已經(jīng)開源了眾多的LLM,如何用較低的成本,判斷LLM的基礎(chǔ)性能....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-22 15:26 ?2179次閱讀
LLM性能的主要因素

GPT-4 的模型結(jié)構(gòu)和訓(xùn)練方法

在 GPT-4 的發(fā)布報道上,GPT-4 的多模態(tài)能力讓人印象深刻,它可以理解圖片內(nèi)容給出圖片描述,....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-22 15:21 ?3069次閱讀
GPT-4 的模型結(jié)構(gòu)和訓(xùn)練方法

邱錫鵬團隊提出具有內(nèi)生跨模態(tài)能力的SpeechGPT,為多模態(tài)LLM指明方向

大型語言模型(LLM)在各種自然語言處理任務(wù)上表現(xiàn)出驚人的能力。與此同時,多模態(tài)大型語言模型,如 G....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-22 14:38 ?1018次閱讀
邱錫鵬團隊提出具有內(nèi)生跨模態(tài)能力的SpeechGPT,為多模態(tài)LLM指明方向

基于統(tǒng)計頻率的 baseline 方法

場景圖是一種結(jié)構(gòu)表示,它將圖片中的對象表示為節(jié)點,并將它們的關(guān)系表示為邊。
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-22 10:35 ?678次閱讀
基于統(tǒng)計頻率的 baseline 方法

LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT結(jié)構(gòu)對比

使用RMSNorm(即Root Mean square Layer Normalization)對輸....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-19 17:03 ?4687次閱讀
LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT結(jié)構(gòu)對比

國內(nèi)大模型爭霸賽,你最看好哪家?

而最近,中文通用大模型基準(SuperCLUE)評測公布了最新結(jié)果,GPT-4 遙遙領(lǐng)先,而國內(nèi)成績....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-19 16:55 ?4377次閱讀
國內(nèi)大模型爭霸賽,你最看好哪家?

WebCPM:首個聯(lián)網(wǎng)支持中文問答開源模型

WebCPM 是面壁智能自研大模型工具學(xué)習(xí)引擎 BMTools 的首個成功實踐,其特點在于其信息檢索....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-18 14:37 ?1004次閱讀
WebCPM:首個聯(lián)網(wǎng)支持中文問答開源模型

如何使用FasterTransformer進行單機及分布式模型推理

最近幾個月,隨著ChatGPT的現(xiàn)象級表現(xiàn),大模型如雨后春筍般涌現(xiàn)。而模型推理是抽象的算法模型觸達具....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-18 14:35 ?3033次閱讀
如何使用FasterTransformer進行單機及分布式模型推理

中科院針對NL2Code任務(wù),調(diào)研了27個大模型,并指出5個重要挑戰(zhàn)

關(guān)于NL2Code的發(fā)展,其實和自然語言理解的發(fā)展類似,一開始,基本都是基于專家規(guī)則進行算法設(shè)計,但....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-18 14:33 ?1727次閱讀
中科院針對NL2Code任務(wù),調(diào)研了27個大模型,并指出5個重要挑戰(zhàn)

淺析推理加速引擎FasterTransformer

最近幾個月,隨著ChatGPT的現(xiàn)象級表現(xiàn),大模型如雨后春筍般涌現(xiàn)。而模型推理是抽象的算法模型觸達具....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-18 14:32 ?2977次閱讀
淺析推理加速引擎FasterTransformer

基于自監(jiān)督邏輯歸納的模糊時序推理框架LECTER

理解自然語言中與事件相交織的時間概念是理解事件演化的重要內(nèi)容。人可以具有對事件的典型發(fā)生時間、發(fā)生頻....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-17 16:07 ?1029次閱讀
基于自監(jiān)督邏輯歸納的模糊時序推理框架LECTER

如何利用LLM做一些多模態(tài)任務(wù)

本文整理了近兩年來基于LLM做vision-lanuage任務(wù)的一些工作,并將其劃分為4個類別:
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 05-17 15:02 ?1314次閱讀
如何利用LLM做一些多模態(tài)任務(wù)