一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)自然語(yǔ)言處理

文章:837 被閱讀:242.6w 粉絲數(shù):45 關(guān)注數(shù):0 點(diǎn)贊數(shù):5

廣告

OneLLM:對(duì)齊所有模態(tài)的框架!

OneLLM 是第一個(gè)在單個(gè)模型中集成八種不同模態(tài)的MLLM。通過(guò)統(tǒng)一的框架和漸進(jìn)式多模態(tài)對(duì)齊pip....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 01-04 11:27 ?1495次閱讀
OneLLM:對(duì)齊所有模態(tài)的框架!

RL究竟是如何與LLM做結(jié)合的?

強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)的核心概念可簡(jiǎn)單概括為:一個(gè)機(jī)器人(....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 01-03 16:34 ?1653次閱讀
RL究竟是如何與LLM做結(jié)合的?

2023年大語(yǔ)言模型(LLM)全面調(diào)研:原理、進(jìn)展、領(lǐng)跑者、挑戰(zhàn)、趨勢(shì)

大型語(yǔ)言模型(LLM)是基于人工智能的先進(jìn)模型,經(jīng)過(guò)訓(xùn)練,它可以密切反映人類(lèi)自然交流的方式處理和生成....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 01-03 16:05 ?1904次閱讀
2023年大語(yǔ)言模型(LLM)全面調(diào)研:原理、進(jìn)展、領(lǐng)跑者、挑戰(zhàn)、趨勢(shì)

一種基于表征工程的生成式語(yǔ)言大模型人類(lèi)偏好對(duì)齊策略

最近復(fù)旦大學(xué)自然語(yǔ)言處理組鄭驍慶和黃萱菁團(tuán)隊(duì)提出了基于表征工程(Representation Eng....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 01-03 14:25 ?979次閱讀
一種基于表征工程的生成式語(yǔ)言大模型人類(lèi)偏好對(duì)齊策略

NLP領(lǐng)域的語(yǔ)言偏置問(wèn)題分析

許多研究證明,學(xué)術(shù)論文表達(dá)的nativeness會(huì)影響其被接受發(fā)表的可能性[1, 2]。先前的研究也....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 01-03 11:00 ?690次閱讀
NLP領(lǐng)域的語(yǔ)言偏置問(wèn)題分析

ChatGPT是一個(gè)好的因果推理器嗎?

因果推理能力對(duì)于許多自然語(yǔ)言處理(NLP)應(yīng)用至關(guān)重要。最近的因果推理系統(tǒng)主要基于經(jīng)過(guò)微調(diào)的預(yù)訓(xùn)練語(yǔ)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 01-03 09:55 ?1208次閱讀
ChatGPT是一個(gè)好的因果推理器嗎?

1-2B參數(shù)規(guī)模大模型的使用心得

大模型時(shí)代,根據(jù)大模型縮放定律,大家通常都在追求模型的參數(shù)規(guī)模更大、訓(xùn)練的數(shù)據(jù)更多,從而使得大模型涌....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-28 11:47 ?1496次閱讀
1-2B參數(shù)規(guī)模大模型的使用心得

從Google多模態(tài)大模型看后續(xù)大模型應(yīng)該具備哪些能力

前段時(shí)間Google推出Gemini多模態(tài)大模型,展示了不凡的對(duì)話能力和多模態(tài)能力,其表現(xiàn)究竟如何呢....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-28 11:19 ?1812次閱讀
從Google多模態(tài)大模型看后續(xù)大模型應(yīng)該具備哪些能力

一文速覽大語(yǔ)言模型提示最新進(jìn)展

盡管基本的CoT提示策略在復(fù)雜推理任務(wù)中展示出了強(qiáng)大的能力,但它仍然面臨著一些問(wèn)題,比如推理過(guò)程存在....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-27 14:19 ?1021次閱讀
一文速覽大語(yǔ)言模型提示最新進(jìn)展

高級(jí)檢索增強(qiáng)生成技術(shù)(RAG)全面指南

ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成、文本到圖像生成等任務(wù)中....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-25 15:16 ?6217次閱讀
高級(jí)檢索增強(qiáng)生成技術(shù)(RAG)全面指南

大模型微調(diào)數(shù)據(jù)選擇和構(gòu)造技巧

比如我們會(huì)經(jīng)常遇到下面幾種情況: 1.數(shù)據(jù)要不要都去標(biāo)注,標(biāo)的比較慢咋辦? 2.我已經(jīng)有一....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-20 14:39 ?1137次閱讀
大模型微調(diào)數(shù)據(jù)選擇和構(gòu)造技巧

Mistral中杯代碼能力完勝GPT-4,成本暴降2/3

這個(gè)開(kāi)源模型盡管尺寸不大,小到足以在一臺(tái)內(nèi)存100GB以上的電腦上運(yùn)行,然而在某些基準(zhǔn)測(cè)試中卻能和G....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-18 16:55 ?904次閱讀
Mistral中杯代碼能力完勝GPT-4,成本暴降2/3

論文遭首屆ICLR拒稿、代碼被過(guò)度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

盡管 word2vec 是我被引用最多的論文,但我從未認(rèn)為它是我最有影響力的項(xiàng)目。實(shí)際上,word2....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-18 16:51 ?1070次閱讀
論文遭首屆ICLR拒稿、代碼被過(guò)度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

什么是大模型的badcase?如何修復(fù)大模型的badcase呢?

首先我們定義什么是大模型的badcase,大模型badcase是指在應(yīng)用場(chǎng)景中,出現(xiàn)不符合預(yù)期的答復(fù)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-14 16:40 ?3246次閱讀

對(duì)于大模型RAG技術(shù)的一些思考

大模型或者句向量在訓(xùn)練時(shí),使用的語(yǔ)料都是較為通用的語(yǔ)料。這導(dǎo)致了這些模型,對(duì)于垂直領(lǐng)域的知識(shí)識(shí)別是有....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-07 09:41 ?1591次閱讀
對(duì)于大模型RAG技術(shù)的一些思考

開(kāi)源LLM在各種基準(zhǔn)上的代理能力

采用ChatGPT的企業(yè)可能會(huì)擔(dān)心API調(diào)用的巨大成本、服務(wù)中斷、數(shù)據(jù)所有權(quán)和隱私問(wèn)題,以及其他不可....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-04 14:02 ?1402次閱讀
開(kāi)源LLM在各種基準(zhǔn)上的代理能力

人工智能體在未來(lái)幾年如何顛覆軟件行業(yè)

Agent 不僅將改變?nèi)藗兣c計(jì)算機(jī)的互動(dòng)方式,還將顛覆軟件行業(yè),引發(fā)自從我們從鍵入命令到點(diǎn)擊圖標(biāo)以來(lái)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-04 13:54 ?1169次閱讀

聚焦于用LLMs模擬國(guó)際沖突的研究

本實(shí)驗(yàn)旨在驗(yàn)證LLM在模擬復(fù)雜歷史事件方面的有效性。實(shí)驗(yàn)選用了OpenAI開(kāi)發(fā)的GPT-4作為后端模....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-04 13:51 ?582次閱讀
聚焦于用LLMs模擬國(guó)際沖突的研究

淺談Q-Learning在Agent的應(yīng)用

經(jīng)典的文字模型我們已經(jīng)很熟悉了:訓(xùn)練時(shí),模型不停的預(yù)測(cè)下一個(gè) token 并與真實(shí)語(yǔ)料比較,直到模型....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-02 16:53 ?1230次閱讀
淺談Q-Learning在Agent的應(yīng)用

大模型對(duì)話系統(tǒng)的內(nèi)功與外功

Zero-shot Setting:在 O-Cue 中,由于單步指令較復(fù)雜(不要要進(jìn)行推理還要進(jìn)行回....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 12-01 16:32 ?924次閱讀
大模型對(duì)話系統(tǒng)的內(nèi)功與外功

基于大語(yǔ)言模型辯論的多智能體協(xié)作推理分析

具體來(lái)說(shuō),我們以多項(xiàng)選擇的常識(shí)推理作為示例任務(wù),因?yàn)槌WR(shí)推理任務(wù)是一類(lèi)可能性 (plausible)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-29 15:45 ?2210次閱讀
基于大語(yǔ)言模型辯論的多智能體協(xié)作推理分析

大模型的Scaling Law的概念和推導(dǎo)

對(duì)于Decoder-only的模型,計(jì)算量(Flops), 模型參數(shù)量, 數(shù)據(jù)大小(token數(shù)),....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-29 14:28 ?3260次閱讀
大模型的Scaling Law的概念和推導(dǎo)

Long-Context下LLM模型架構(gòu)全面介紹

隨著ChatGPT的快速發(fā)展,基于Transformer的大型語(yǔ)言模型(LLM)為人工通用智能(AG....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-27 17:37 ?3555次閱讀
Long-Context下LLM模型架構(gòu)全面介紹

如何從大腦活動(dòng)中解碼自然語(yǔ)言呢?

語(yǔ)言不僅是人類(lèi)交流的工具,更是思維和智能的基礎(chǔ)。
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-25 15:57 ?1357次閱讀
如何從大腦活動(dòng)中解碼自然語(yǔ)言呢?

為什么Agent落地這么難?AI最大賽道Agent機(jī)遇全解析

“如果一篇論文提出了某種不同的訓(xùn)練方法,OpenAI內(nèi)部會(huì)嗤之以鼻,認(rèn)為都是我們玩剩下的。但是當(dāng)新的....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-25 15:54 ?2548次閱讀
為什么Agent落地這么難?AI最大賽道Agent機(jī)遇全解析

被OpenAI帶火的Agent如何解放人力?

在歷史的長(zhǎng)河中,自動(dòng)化是人類(lèi)技術(shù)發(fā)展的主要?jiǎng)恿?,幫助人?lèi)從復(fù)雜、危險(xiǎn)、繁瑣的勞動(dòng)環(huán)境中解放出來(lái)。自早....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-25 15:23 ?1698次閱讀
被OpenAI帶火的Agent如何解放人力?

探討Sam 和 Ilya 的深層矛盾

有效加速主義 和 超級(jí)“愛(ài)”對(duì)齊 的理念沖突,以及一個(gè)變量:GPT-5 是數(shù)字生命,還是工具?
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-24 11:28 ?526次閱讀
探討Sam 和 Ilya 的深層矛盾

基于ICL范式的LLM的最高置信度預(yù)測(cè)方案

本文假設(shè)不同的ICL為L(zhǎng)LM提供了關(guān)于任務(wù)的不同知識(shí),導(dǎo)致對(duì)相同數(shù)據(jù)的不同理解和預(yù)測(cè)。因此,一個(gè)直接....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-24 11:20 ?2048次閱讀
基于ICL范式的LLM的最高置信度預(yù)測(cè)方案

用語(yǔ)言對(duì)齊多模態(tài)信息,北大騰訊等提出LanguageBind,刷新多個(gè)榜單

目前的 VL 預(yù)訓(xùn)練方法通常僅適用于視覺(jué)和語(yǔ)言模態(tài),而現(xiàn)實(shí)世界中的應(yīng)用場(chǎng)景往往包含更多的模態(tài)信息,如....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-23 15:46 ?1025次閱讀
用語(yǔ)言對(duì)齊多模態(tài)信息,北大騰訊等提出LanguageBind,刷新多個(gè)榜單

大型語(yǔ)言模型的邏輯推理能力探究

最新研究揭示,盡管大語(yǔ)言模型LLMs在語(yǔ)言理解上表現(xiàn)出色,但在邏輯推理方面仍有待提高。為此,研究者們....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 11-23 15:05 ?1509次閱讀
大型語(yǔ)言模型的邏輯推理能力探究