一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)自然語(yǔ)言處理

文章:837 被閱讀:242.7w 粉絲數(shù):45 關(guān)注數(shù):0 點(diǎn)贊數(shù):5

廣告

基于單一LLM的情感分析方法的局限性

LLM的發(fā)展為情感分析任務(wù)帶來(lái)的新的解決方案。有研究人員使用LLM,在上下文學(xué)習(xí)(in-contex....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-23 11:14 ?1288次閱讀
基于單一LLM的情感分析方法的局限性

LLM的幻覺(jué)問(wèn)題最新綜述

幻覺(jué)被描述為無(wú)意義或不忠實(shí)于所提供源內(nèi)容的生成內(nèi)容。根據(jù)與源內(nèi)容的矛盾,這些幻覺(jué)又進(jìn)一步分為內(nèi)在幻覺(jué)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-22 17:40 ?1602次閱讀
LLM的幻覺(jué)問(wèn)題最新綜述

Scaling Law大模型設(shè)計(jì)實(shí)操案例

縱軸是"Bits for words", 這也是交叉熵的一個(gè)單位。在計(jì)算交叉熵時(shí),如果使用以 2 為....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-22 16:08 ?1126次閱讀
Scaling Law大模型設(shè)計(jì)實(shí)操案例

基于大語(yǔ)言模型的共情回復(fù)生成:實(shí)證研究和改進(jìn)

對(duì)以ChatGPT為代表的LLMs在共情回復(fù)生成上的表現(xiàn)進(jìn)行了全面的實(shí)證研究,LLMs在現(xiàn)有的基準(zhǔn)數(shù)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-21 09:25 ?1876次閱讀
基于大語(yǔ)言模型的共情回復(fù)生成:實(shí)證研究和改進(jìn)

基于顯式證據(jù)推理的few-shot關(guān)系抽取CoT

最近,上下文學(xué)習(xí)策略已被證明在沒(méi)有訓(xùn)練的情況下顯示出顯著的結(jié)果。很少有研究利用上下文學(xué)習(xí)進(jìn)行zero....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-20 17:44 ?1399次閱讀
基于顯式證據(jù)推理的few-shot關(guān)系抽取CoT

LLMs實(shí)際上在假對(duì)齊!

LLM的訓(xùn)練分為預(yù)訓(xùn)練和安全訓(xùn)練。預(yù)訓(xùn)練是指在大規(guī)模語(yǔ)料庫(kù)上進(jìn)行訓(xùn)練,因此LLM獲得了各種強(qiáng)大的能力....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-20 17:41 ?1321次閱讀
LLMs實(shí)際上在假對(duì)齊!

500篇論文!最全代碼大模型綜述

經(jīng)典 Transformer 使用不可學(xué)習(xí)的余弦編碼,加在模型底層的詞向量輸入上。GPT、BERT將....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-17 17:31 ?1891次閱讀

RLHF平替工作,探索如何更穩(wěn)定地拿到效果

沒(méi)得商量,不做RL了,選擇性保留RM:比如RRHF、DPO,這類方法可以直接在RM數(shù)據(jù)上優(yōu)化語(yǔ)言模型....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-17 17:29 ?976次閱讀
RLHF平替工作,探索如何更穩(wěn)定地拿到效果

多任務(wù)微調(diào)框架MFTCoder詳細(xì)技術(shù)解讀

MFTCoder具備高效訓(xùn)練特征,包括提供高效的數(shù)據(jù)Tokenization模式和支持PEFT微調(diào),....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-17 17:17 ?1519次閱讀
多任務(wù)微調(diào)框架MFTCoder詳細(xì)技術(shù)解讀

用LLM生成反駁:首先洞察審稿人的心理,再巧妙回應(yīng)!

同行評(píng)審對(duì)于確??茖W(xué)的高質(zhì)量至關(guān)重要:作者提交研究成果,而審稿人則辯論應(yīng)不應(yīng)該接受其發(fā)表。通常評(píng)審后....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-16 11:54 ?1091次閱讀
用LLM生成反駁:首先洞察審稿人的心理,再巧妙回應(yīng)!

怎樣讓PPO訓(xùn)練更穩(wěn)定?早期人類征服RLHF的馴化經(jīng)驗(yàn)

盡管魯迅先生曾言:真的強(qiáng)化敢于直面慘淡的結(jié)果,敢于正視崩壞的曲線。但日復(fù)一復(fù)地開(kāi)盲盒難免會(huì)讓人心臟承....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-16 11:41 ?1189次閱讀
怎樣讓PPO訓(xùn)練更穩(wěn)定?早期人類征服RLHF的馴化經(jīng)驗(yàn)

基于檢索的大語(yǔ)言模型簡(jiǎn)介

簡(jiǎn)介章節(jié)講的是比較基礎(chǔ)的,主要介紹了本次要介紹的概念,即檢索(Retrieval)和大語(yǔ)言模型(LL....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-15 14:50 ?1089次閱讀
基于檢索的大語(yǔ)言模型簡(jiǎn)介

如何解決LLMs的規(guī)則遵循問(wèn)題呢?

傳統(tǒng)的計(jì)算系統(tǒng)是圍繞計(jì)算機(jī)程序中表達(dá)的指令的執(zhí)行來(lái)設(shè)計(jì)的。相反,語(yǔ)言模型可以遵循用自然語(yǔ)言表達(dá)的指令....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-15 09:33 ?931次閱讀
如何解決LLMs的規(guī)則遵循問(wèn)題呢?

MixFormerV2:基于Transformer的高效跟蹤器

我們通過(guò)簡(jiǎn)潔有效的模型結(jié)構(gòu)設(shè)計(jì)和高效的基于知識(shí)蒸餾的模型壓縮,對(duì)于現(xiàn)有的 MixFormer 模型進(jìn)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-14 16:54 ?1760次閱讀
MixFormerV2:基于Transformer的高效跟蹤器

LLM作用下的成分句法分析基礎(chǔ)研究

采用伯克利神經(jīng)解析器(Berkeley Neural Parser)作為方法的基礎(chǔ)。該解析器是一種基....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-10 10:47 ?812次閱讀
LLM作用下的成分句法分析基礎(chǔ)研究

跨語(yǔ)言提示:改進(jìn)跨語(yǔ)言零樣本思維推理

進(jìn)一步地,提出了Cross-Lingual Self-consistent Prompting (C....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-08 16:59 ?1120次閱讀
跨語(yǔ)言提示:改進(jìn)跨語(yǔ)言零樣本思維推理

認(rèn)知扭曲類別

可以看出認(rèn)知扭曲本身雖然往往和負(fù)面情緒相關(guān),但其更多是強(qiáng)調(diào)不合理的負(fù)面情緒,這些負(fù)面情緒的形成和加強(qiáng)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-03 16:53 ?1330次閱讀
認(rèn)知扭曲類別

全球首款支持 8K(8192)輸入長(zhǎng)度的開(kāi)源向量模型發(fā)布

在大模型時(shí)代,向量模型的重要性進(jìn)一步增強(qiáng)。尤其是在檢索增強(qiáng)生成(RAG)場(chǎng)景中,它成為了一個(gè)核心組件....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-02 14:53 ?1743次閱讀
全球首款支持 8K(8192)輸入長(zhǎng)度的開(kāi)源向量模型發(fā)布

基于主觀知識(shí)的任務(wù)型對(duì)話建模

我們參加了 DSTC11-track5 并在所有 14 個(gè)參賽隊(duì)伍中排名第三(客觀指標(biāo)),其中 Tu....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 10-31 16:48 ?793次閱讀
基于主觀知識(shí)的任務(wù)型對(duì)話建模

探索SFT訓(xùn)練策略對(duì)性能的影響

大模型混合多種能力項(xiàng)數(shù)據(jù)進(jìn)行微調(diào)時(shí),會(huì)呈現(xiàn)高資源沖突,低資源增益的現(xiàn)象。我們提出的DMT策略通過(guò)在第....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 10-26 14:14 ?1803次閱讀
探索SFT訓(xùn)練策略對(duì)性能的影響

開(kāi)源LLEMMA發(fā)布:超越未公開(kāi)的頂尖模型,可直接應(yīng)用于工具和定理證明

但LLEMMA的出現(xiàn)改變了這一局面。它不僅在MATH基準(zhǔn)測(cè)試上創(chuàng)下了新高,甚至超越了某些還未對(duì)外公開(kāi)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 10-22 10:24 ?1114次閱讀
開(kāi)源LLEMMA發(fā)布:超越未公開(kāi)的頂尖模型,可直接應(yīng)用于工具和定理證明

在RTX 4090被限制的時(shí)代下,讓大模型使用RLHF更高效的方法來(lái)了

今年,以 ChatGPT 為首的大語(yǔ)言模型(Large Language Models, LLMs)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 10-22 10:22 ?766次閱讀
在RTX 4090被限制的時(shí)代下,讓大模型使用RLHF更高效的方法來(lái)了

LLaMA2上下文長(zhǎng)度暴漲至100萬(wàn)tokens,只需調(diào)整1個(gè)超參數(shù)

目前的Transformer位置編碼方法,有絕對(duì)位置編碼(將位置信息融入到輸入)、相對(duì)位置編碼(將位....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 10-22 10:20 ?838次閱讀
LLaMA2上下文長(zhǎng)度暴漲至100萬(wàn)tokens,只需調(diào)整1個(gè)超參數(shù)

DISC-LawLLM:復(fù)旦大學(xué)團(tuán)隊(duì)發(fā)布中文智慧法律系統(tǒng),構(gòu)建司法評(píng)測(cè)基準(zhǔn),開(kāi)源30萬(wàn)微調(diào)數(shù)據(jù)

DISC-LawLLM是基于我們構(gòu)建的高質(zhì)量數(shù)據(jù)集DISC-Law-SFT在通用領(lǐng)域中文大模型Bai....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 09-28 17:34 ?1509次閱讀
DISC-LawLLM:復(fù)旦大學(xué)團(tuán)隊(duì)發(fā)布中文智慧法律系統(tǒng),構(gòu)建司法評(píng)測(cè)基準(zhǔn),開(kāi)源30萬(wàn)微調(diào)數(shù)據(jù)

大模型壓縮首篇綜述來(lái)啦

模型壓縮涉及將大型資源密集型模型轉(zhuǎn)化為適合在受限移動(dòng)設(shè)備上存儲(chǔ)的緊湊版本。此外,它還可以優(yōu)化模型以實(shí)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 09-26 17:12 ?1512次閱讀
大模型壓縮首篇綜述來(lái)啦

重磅!OpenAI在ChatGPT內(nèi)推出語(yǔ)言和圖像功能

語(yǔ)音和圖像為用戶在生活中使用 ChatGPT 提供了更多方式。旅行時(shí),拍下地標(biāo)性建筑的照片,然后就它....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 09-26 17:05 ?841次閱讀
重磅!OpenAI在ChatGPT內(nèi)推出語(yǔ)言和圖像功能

多模態(tài)大模型最全綜述來(lái)了!

其中最后一個(gè)表示監(jiān)督信號(hào)是從圖像本身中挖掘出來(lái)的,流行的方法包括對(duì)比學(xué)習(xí)、非對(duì)比學(xué)習(xí)和masked ....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 09-26 16:42 ?2979次閱讀
多模態(tài)大模型最全綜述來(lái)了!

華為提出Sorted LLaMA:SoFT代替SFT,訓(xùn)練多合一大語(yǔ)言模型

而這一切的背后,是一項(xiàng)名為Sorted Fine-Tuning(SoFT)的新訓(xùn)練技術(shù)。SoFT讓我....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 09-26 16:26 ?1154次閱讀
華為提出Sorted LLaMA:SoFT代替SFT,訓(xùn)練多合一大語(yǔ)言模型

AIGC移動(dòng)端也有機(jī)會(huì)

a16z是硅谷一家有名的投資機(jī)構(gòu),近期發(fā)布了他們根據(jù)月瀏覽量統(tǒng)計(jì)的TOP50 GenAI產(chǎn)品,并給出....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 09-26 16:22 ?1122次閱讀
AIGC移動(dòng)端也有機(jī)會(huì)

DreamLLM:多功能多模態(tài)大型語(yǔ)言模型,你的DreamLLM~

由于固有的模態(tài)缺口,如CLIP語(yǔ)義主要關(guān)注模態(tài)共享信息,往往忽略了可以增強(qiáng)多模態(tài)理解的模態(tài)特定知識(shí)。....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 09-25 17:26 ?1121次閱讀
DreamLLM:多功能多模態(tài)大型語(yǔ)言模型,你的DreamLLM~