一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)自然語(yǔ)言處理

文章:837 被閱讀:242.6w 粉絲數(shù):45 關(guān)注數(shù):0 點(diǎn)贊數(shù):5

廣告

大模型如何快速構(gòu)建指令遵循數(shù)據(jù)集?

構(gòu)造instruction data非常耗時(shí)耗力,常受限于質(zhì)量,多樣性,創(chuàng)造性,阻礙了instruc....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-27 16:52 ?3781次閱讀
大模型如何快速構(gòu)建指令遵循數(shù)據(jù)集?

GLoRA—高效微調(diào)模型參數(shù)

近年來,大規(guī)模深度神經(jīng)網(wǎng)絡(luò)的顯著成就徹底改變了人工智能領(lǐng)域,在各種任務(wù)和領(lǐng)域展示了前所未有的性能。
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-27 16:47 ?1147次閱讀
GLoRA—高效微調(diào)模型參數(shù)

面向結(jié)構(gòu)化數(shù)據(jù)的文本生成技術(shù)研究

今天我們要講的文本生成是現(xiàn)在最流行的研究領(lǐng)域之一。文本生成的目標(biāo)是讓計(jì)算機(jī)像人類一樣學(xué)會(huì)表達(dá),目前看....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-26 14:39 ?975次閱讀
面向結(jié)構(gòu)化數(shù)據(jù)的文本生成技術(shù)研究

ChatGLM2-6B:性能大幅提升,8-32k上下文,推理提速42%,在中文榜單位列榜首

在主要評(píng)估LLM模型中文能力的 C-Eval 榜單中,截至6月25日 ChatGLM2 模型以 71....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-26 14:30 ?1331次閱讀
ChatGLM2-6B:性能大幅提升,8-32k上下文,推理提速42%,在中文榜單位列榜首

神經(jīng)編碼器-解碼器模型的歷史

基于 transformer 的編碼器-解碼器模型是 表征學(xué)習(xí) 和 模型架構(gòu) 這兩個(gè)領(lǐng)域多年研究成果....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-20 15:42 ?1214次閱讀
神經(jīng)編碼器-解碼器模型的歷史

基準(zhǔn)數(shù)據(jù)集(CORR2CAUSE)如何測(cè)試大語(yǔ)言模型(LLM)的純因果推理能力

? 因果推理是人類智力的標(biāo)志之一。因果關(guān)系NLP領(lǐng)域近年來引起了人們的極大興趣,但其主要依賴于從常識(shí)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-20 15:39 ?2437次閱讀
基準(zhǔn)數(shù)據(jù)集(CORR2CAUSE)如何測(cè)試大語(yǔ)言模型(LLM)的純因果推理能力

RLHF實(shí)踐中的框架使用與一些坑 (TRL, LMFlow)

我們主要用一個(gè)具體的例子展示如何在兩個(gè)框架下做RLHF,并且記錄下訓(xùn)練過程中我們踩到的主要的坑。這個(gè)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-20 14:36 ?2463次閱讀
RLHF實(shí)踐中的框架使用與一些坑 (TRL, LMFlow)

GPT-Engineer一夜爆火!一個(gè)提示生成整個(gè)代碼庫(kù),GitHub狂飆19k星

網(wǎng)友表示,「澄清問題」是真正使GPT-Engineer脫穎而出的原因,因?yàn)樾迯?fù)生成代碼中的問題往往比....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-20 14:34 ?780次閱讀
GPT-Engineer一夜爆火!一個(gè)提示生成整個(gè)代碼庫(kù),GitHub狂飆19k星

基于多任務(wù)預(yù)訓(xùn)練模塊化提示

Prompt Tuning 可以讓預(yù)訓(xùn)練的語(yǔ)言模型快速適應(yīng)下游任務(wù)。雖然有研究證明:當(dāng)訓(xùn)練數(shù)據(jù)足夠多....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-20 11:04 ?981次閱讀
基于多任務(wù)預(yù)訓(xùn)練模塊化提示

智能開源大模型baichuan-7B技術(shù)改進(jìn)

baichuan-7B 主要是參考LLaMA進(jìn)行的改進(jìn),且模型架構(gòu)與LLaMA一致。而在開源大模型中....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-17 14:14 ?1378次閱讀

分析自動(dòng)評(píng)測(cè)器的工具包

除了各類開源模型外,還有GPT-4、PaLM 2等眾多「閉源」模型,甚至還開設(shè)了一個(gè)「準(zhǔn)中文」排行榜....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-17 14:11 ?807次閱讀
分析自動(dòng)評(píng)測(cè)器的工具包

基于 Transformers 的編碼器-解碼器模型

基于 transformer 的編碼器-解碼器模型是 表征學(xué)習(xí) 和 模型架構(gòu) 這兩個(gè)領(lǐng)域多年研究成果....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-16 16:53 ?1301次閱讀
基于 Transformers 的編碼器-解碼器模型

LLM in Medical Domain: 一文速覽大語(yǔ)言模型在醫(yī)學(xué)領(lǐng)域的應(yīng)用

由于在生成長(zhǎng)文本的數(shù)據(jù)集上,F(xiàn)lan-PaLM和臨床醫(yī)生的結(jié)果顯示出一定gap。本文提出了使用Ins....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-15 18:00 ?2255次閱讀
LLM in Medical Domain: 一文速覽大語(yǔ)言模型在醫(yī)學(xué)領(lǐng)域的應(yīng)用

王小川大模型首亮相!70億參數(shù)霸榜,清北搶先用

AGIEval評(píng)測(cè)基準(zhǔn)由微軟研究院發(fā)起,旨在全面評(píng)估基礎(chǔ)模型在人類認(rèn)知和問題解決相關(guān)任務(wù)上的能力,包....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-15 17:56 ?914次閱讀
王小川大模型首亮相!70億參數(shù)霸榜,清北搶先用

梁寧:為什么中國(guó)沒有像ChatGPT和Vision Pro這樣的創(chuàng)新產(chǎn)品?

相隔 20 多年的時(shí)間再回頭看,我比較得意的一件事就是,1996 年我給聯(lián)想的總裁辦做了一次匯報(bào),說....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-15 17:04 ?1459次閱讀

ChatGPT的潛力和局限

? 今天為大家分享一篇研究,當(dāng)ChatGPT穿越到口袋妖怪世界,是否會(huì)理解并應(yīng)用這個(gè)虛構(gòu)世界的知識(shí)呢....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-13 17:23 ?785次閱讀
ChatGPT的潛力和局限

為k近鄰機(jī)器翻譯領(lǐng)域自適應(yīng)構(gòu)建可解釋知識(shí)庫(kù)

為了找到NMT模型的潛在缺陷,構(gòu)建更加可解釋的知識(shí)庫(kù),我們提出以局部準(zhǔn)確性這一新概念作為分析角度。其....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-13 15:25 ?960次閱讀
為k近鄰機(jī)器翻譯領(lǐng)域自適應(yīng)構(gòu)建可解釋知識(shí)庫(kù)

大模型參數(shù)高效微調(diào)技術(shù)原理綜述

神經(jīng)網(wǎng)絡(luò)包含很多全連接層,其借助于矩陣乘法得以實(shí)現(xiàn),然而,很多全連接層的權(quán)重矩陣都是滿秩的。
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-13 14:59 ?2948次閱讀
大模型參數(shù)高效微調(diào)技術(shù)原理綜述

能遵循instruction的句向量模型

句向量技術(shù)是將連續(xù)的文本轉(zhuǎn)化為固定長(zhǎng)度的稠密向量,將句子映射到同一個(gè)向量空間中
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-13 14:56 ?1285次閱讀
能遵循instruction的句向量模型

基于 RNN 的解碼器架構(gòu)如何建模

? Vaswani 等人在其名作 Attention is all you need 中首創(chuàng)了?基于....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-12 17:08 ?1189次閱讀
基于 RNN 的解碼器架構(gòu)如何建模

Meta開源文本如何生成音樂大模型

年初,谷歌推出了音樂生成大模型 MusicLM,效果非常不錯(cuò)。有人稱這比大火的 ChatGPT 還重....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-12 15:11 ?1250次閱讀
Meta開源文本如何生成音樂大模型

如何將ChatGPT的能力蒸餾到另一個(gè)大模型

如何將ChatGPT的能力蒸餾到另一個(gè)大模型,是當(dāng)前許多大模型研發(fā)的研發(fā)范式。當(dāng)前許多模型都是采用c....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-12 15:06 ?1941次閱讀
如何將ChatGPT的能力蒸餾到另一個(gè)大模型

In-Context-Learning在更大的語(yǔ)言模型上表現(xiàn)不同

最近,在語(yǔ)言模型領(lǐng)域取得了巨大的進(jìn)展,部分是因?yàn)樗鼈兛梢酝ㄟ^In-Context- Learning....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-12 14:35 ?1060次閱讀
In-Context-Learning在更大的語(yǔ)言模型上表現(xiàn)不同

Allen AI推出集成主流大語(yǔ)言模型的LLM-BLENDER框架

在推理階段,計(jì)算一個(gè)矩陣,該矩陣包含表示成對(duì)比較結(jié)果的logits。給定該矩陣,可以推斷給定輸入x的....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-11 15:06 ?998次閱讀
Allen AI推出集成主流大語(yǔ)言模型的LLM-BLENDER框架

使用單卡高效微調(diào)bloom-7b1,效果驚艷

在本文中我們將對(duì)QLoRA的基本原理進(jìn)行介紹,并且在Firefly項(xiàng)目中進(jìn)行實(shí)踐。我們?cè)赽loom-....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-08 15:19 ?2559次閱讀
使用單卡高效微調(diào)bloom-7b1,效果驚艷

性能媲美同時(shí)成本降低98%,斯坦福提出FrugalGPT,研究卻惹爭(zhēng)議

這項(xiàng)研究提出的思想和發(fā)現(xiàn)為可持續(xù)高效地使用 LLM 奠定了基礎(chǔ)。如果能夠在不增加預(yù)算的情況下采用更高....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-08 15:11 ?658次閱讀
性能媲美同時(shí)成本降低98%,斯坦福提出FrugalGPT,研究卻惹爭(zhēng)議

Transformer結(jié)構(gòu)及其應(yīng)用詳解

本文首先詳細(xì)介紹Transformer的基本結(jié)構(gòu),然后再通過GPT、BERT、MT-DNN以及GPT....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-08 09:56 ?2715次閱讀
Transformer結(jié)構(gòu)及其應(yīng)用詳解

從大模型中蒸餾腳本知識(shí)用于約束語(yǔ)言規(guī)劃

為了實(shí)現(xiàn)日常目標(biāo),人們通常會(huì)根據(jù)逐步指令來計(jì)劃自己的行動(dòng)。這些指令被發(fā)現(xiàn)是目標(biāo)導(dǎo)向的腳本,包括一組達(dá)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-08 09:46 ?1464次閱讀
從大模型中蒸餾腳本知識(shí)用于約束語(yǔ)言規(guī)劃

LLM時(shí)代NLP研究何去何從?

在當(dāng)前低資源的語(yǔ)言基準(zhǔn)上(如FLORES-200)改進(jìn)機(jī)器翻譯性能。針對(duì)資源極低的語(yǔ)言,可以利用圣經(jīng)....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-02 15:52 ?1449次閱讀

iPhone都能微調(diào)大模型了嘛

自動(dòng)測(cè)試分?jǐn)?shù)達(dá)到 ChatGPT的99.3%,人類難以分辨 兩者的回答…… 這是開源大模型最新成果,....
的頭像 深度學(xué)習(xí)自然語(yǔ)言處理 發(fā)表于 06-02 15:26 ?1031次閱讀
iPhone都能微調(diào)大模型了嘛