一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)自然語言處理

文章:837 被閱讀:242.6w 粉絲數(shù):45 關(guān)注數(shù):0 點贊數(shù):5

廣告

使用BLIP-2 零樣本“圖生文”

現(xiàn)代計算機(jī)視覺和自然語言模型在能力越來越強(qiáng)大的同時,模型尺寸也隨之顯著增大。由于當(dāng)前進(jìn)行一次單模態(tài)模....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 03-03 11:06 ?2349次閱讀

LeCun新作:全面綜述下一代「增強(qiáng)語言模型」

最近圖靈獎得主Yann LeCun參與撰寫了一篇關(guān)于「增強(qiáng)語言模型」的綜述,回顧了語言模型與推理技能....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 03-03 11:03 ?1295次閱讀

深入淺出Prompt Learning要旨及常用方法

第三范式:基于預(yù)訓(xùn)練模型 + finetuning 的范式,如 BERT + finetuning ....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 03-03 11:00 ?1125次閱讀

SimANS:簡單有效的困惑負(fù)樣本采樣方法

為訓(xùn)練該稠密檢索模型,已有方法通?;谝粚Ρ葘W(xué)習(xí)訓(xùn)練目標(biāo),即拉近語義一致的Query和Documen....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 03-03 10:56 ?1744次閱讀

LLaMA論文研讀:小參數(shù)+大數(shù)據(jù)的開放、高效基礎(chǔ)語言模型閱讀筆記

這些努力都是基于這樣的假設(shè):更多的參數(shù)會帶來更好的性能。然而,Hoffmann等人(2022)最近的....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 03-03 10:53 ?2519次閱讀

AIGC可編輯的圖像生成方案

ControlNet給出的實驗結(jié)果實在是過于驚艷了,近期視覺領(lǐng)域最讓人興奮的工作。
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 03-03 09:25 ?4317次閱讀

小程序:ChatGPT-Plus助手發(fā)布啦!

在智能客服系統(tǒng)中,ChatGPT技術(shù)可以用于自動化的問題解答,為用戶提供更加智能、高效的服務(wù)。例如,....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 03-01 10:03 ?2210次閱讀

一個給NLP領(lǐng)域帶來革新的預(yù)訓(xùn)練語言大模型Bert

之前的文章和大家詳細(xì)的介紹了靜態(tài)的詞向量表示word2vec理論加實戰(zhàn),但是word2vec存在一個....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-28 10:26 ?87240次閱讀
一個給NLP領(lǐng)域帶來革新的預(yù)訓(xùn)練語言大模型Bert

Language Model Reasoning是什么意思?

那么,前面總是提到推理 (Reasoning) 這個詞,什么是推理?我嘗試用自己的語言來解釋“推理”....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-28 10:21 ?1409次閱讀

復(fù)旦大學(xué)NLP實驗室《自然語言處理導(dǎo)論》 網(wǎng)絡(luò)初版發(fā)布

復(fù)旦大學(xué)自然語言處理實驗室張奇教授、桂韜研究員以及黃萱菁教授從2020年起著手教材的規(guī)劃,結(jié)合自己對....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-28 09:30 ?1389次閱讀

AI超級幫手的用法大全

它可以根據(jù)提供的關(guān)鍵詞或主題生成相關(guān)領(lǐng)域的文本,并提供有關(guān)行業(yè)趨勢,市場規(guī)模和其他相關(guān)信息。此外,它....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-28 09:27 ?1449次閱讀

什么是query理解?query理解目前的主要作用

但需要強(qiáng)調(diào)的,是為什么我們要去做query理解,因為它存在的意義才是我們持續(xù)討論他在后續(xù)chatgp....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-22 17:54 ?3250次閱讀

介紹一種基于Transformer的大語言模型

大模型的研究者和大公司出于不同的動機(jī)站位 LLM,研究者出于對 LLM 的突現(xiàn)能力 (emergen....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-21 18:05 ?1405次閱讀

介紹NMT模型魯棒性對抗訓(xùn)練的三部曲

本文的問題引入為一個小實驗,即將機(jī)器翻譯的源句進(jìn)行微小擾動(同義詞替換),69.74%的翻譯句子也隨....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-20 10:35 ?982次閱讀

以transformers框架實現(xiàn)中文OFA模型的訓(xùn)練和推理

OFA是阿里巴巴發(fā)布的多模態(tài)統(tǒng)一預(yù)訓(xùn)練模型,基于官方的開源項目,筆者對OFA在中文任務(wù)上進(jìn)行了更好的....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-15 17:44 ?2156次閱讀

介紹一種信息抽取的大一統(tǒng)方法USM

信息抽取任務(wù)具有多樣的抽取目標(biāo)和異構(gòu)的結(jié)構(gòu),而傳統(tǒng)的模型需要針對特定的任務(wù)進(jìn)行任務(wù)設(shè)計和標(biāo)簽標(biāo)注,這....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-15 14:13 ?1199次閱讀

chatgpt下非端到端方案是否還有意義

其實端到端和非端到端的競爭,早在前幾年就有了,DSTC對話系統(tǒng)的比賽,榜單上就已經(jīng)分為了端到端和非端....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-14 09:23 ?935次閱讀

詳細(xì)分析14種可用于時間序列預(yù)測的損失函數(shù)

在處理時間序列預(yù)測問任務(wù)時,損失函數(shù)的選擇非常重要,因為它會驅(qū)動算法的學(xué)習(xí)過程。以往的工作提出了不同....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-14 09:19 ?3401次閱讀

性別偏見探索和緩解的中文數(shù)據(jù)集-CORGI-PM

大規(guī)模語言模型(LMs)已經(jīng)成為了現(xiàn)在自然語言處理的關(guān)鍵技術(shù),但由于訓(xùn)練語料中常帶有主觀的性別偏見、....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-10 13:49 ?1124次閱讀

解讀ChatGPT背后的技術(shù)重點:RLHF、IFT、CoT、紅藍(lán)對抗

我們先來看看基于語言模型的會話代理的全景。ChatGPT 并非首創(chuàng),事實上很多組織在 OpenAI ....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-09 10:20 ?2633次閱讀

一個真實閑聊多模態(tài)數(shù)據(jù)集TikTalk

隨著大量預(yù)訓(xùn)練語言模型在文本對話任務(wù)中的出色表現(xiàn),以及多模態(tài)的發(fā)展,在對話中引入多模態(tài)信息已經(jīng)引起了....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-09 09:31 ?2477次閱讀

一文淺談Graph Transformer領(lǐng)域近期研究進(jìn)展

本文提出了幾種自動生成子圖表示的方法,并從理論上表明,生成的表示至少與子圖表示具有相同的表達(dá)能力。該....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-08 14:00 ?1747次閱讀

一種靈活有效的事件抽取數(shù)據(jù)增強(qiáng)框架-Mask-then-Fill

事件抽取,即從非機(jī)構(gòu)化文本中抽取指定的事件的觸發(fā)詞及其事件要素,為了減輕人工標(biāo)注,常采用數(shù)據(jù)增強(qiáng)方法....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-08 13:54 ?957次閱讀

深度學(xué)習(xí)頂級學(xué)術(shù)會議ICLR 2023錄用結(jié)果已經(jīng)公布!

在機(jī)器學(xué)習(xí)社區(qū)中,ICLR 是較為「年輕」的學(xué)術(shù)會議,它由深度學(xué)習(xí)巨頭、圖靈獎獲得者 Yoshua ....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-07 11:10 ?2197次閱讀

視覺-語言預(yù)訓(xùn)練入門指南

視覺-語言 (Vision-Language, VL) 是計算機(jī)視覺和自然語言處理這兩個研究領(lǐng)域之間....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-06 10:18 ?1175次閱讀

有了Fine-tune-CoT方法,小模型也能做推理,完美逆襲大模型

如果給語言模型生成一些 prompting,它還向人們展示了其解決復(fù)雜任務(wù)的能力。標(biāo)準(zhǔn) prompt....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-02 16:15 ?1378次閱讀

具有Event-Argument相關(guān)性的事件因果關(guān)系提取方法

事件因果關(guān)系識別(ECI)旨在檢測兩個給定文本事件之間是否存在因果關(guān)系,是事件因果關(guān)系理解的重要任務(wù)....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-02 14:59 ?1593次閱讀

Prompt Tuning相比于Fine Tuning在哪些場景下表現(xiàn)更好?

第三范式:基于「預(yù)訓(xùn)練模型 + finetuning」的范式,如 BERT + finetuning....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-02 14:36 ?2978次閱讀

文本分割技術(shù)的應(yīng)用場景

這些文本通常都非常長,需要利用文本分割技術(shù)來處理這些文本,將它們按照主題的轉(zhuǎn)移或變化劃分為若干主題段....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-01 11:46 ?1587次閱讀

基于預(yù)訓(xùn)練語言模型的行業(yè)搜索的應(yīng)用和研究

面向產(chǎn)業(yè)和消費互聯(lián)網(wǎng)的搜索本質(zhì)都是一樣的:用戶有信息獲取需求,同時有信息資源庫,通過搜索引擎把兩者橋....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 02-01 11:23 ?1352次閱讀