完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > transformer
文章:142個 瀏覽:6462次 帖子:3個
如何入門面向自動駕駛領(lǐng)域的視覺Transformer?
理解Transformer背后的理論基礎(chǔ),比如自注意力機(jī)制(self-attention), 位置編碼(positional embedding),目標(biāo)...
2023-07-09 標(biāo)簽:自動駕駛深度學(xué)習(xí)Transformer 724 0
來源:機(jī)器之心 SAM (Segment Anything )作為一個視覺的分割基礎(chǔ)模型,在短短的 3 個月時間吸引了很多研究者的關(guān)注和跟進(jìn)。如果你想系...
2023-07-05 標(biāo)簽:檢測方法自動駕駛Transformer 1441 0
2D Transformer 可以幫助3D表示學(xué)習(xí)嗎?
預(yù)訓(xùn)練的2D圖像或語言Transformer:作為基礎(chǔ)Transformer模型,具有豐富的特征表示能力。作者選擇了先進(jìn)的2D Transformer模...
2023-07-03 標(biāo)簽:模型數(shù)據(jù)集Transformer 1136 0
UniAD 統(tǒng)一自動駕駛關(guān)鍵任務(wù),但是端到端的訓(xùn)練難度極大,對數(shù)據(jù)的要求和工程能力的要求比常規(guī)的技術(shù)棧要高,但是由此帶來的全局一致性讓整個系統(tǒng)變得更加簡...
多階段策略在圖像修復(fù)任務(wù)中被廣泛應(yīng)用,雖然基于Transformer的方法在單圖像超分辨率任務(wù)中表現(xiàn)出高效率,但在立體超分辨率任務(wù)中尚未展現(xiàn)出CNN-b...
2023-06-27 標(biāo)簽:數(shù)據(jù)變換器Transformer 1423 0
基于Transformer的大型語言模型(LLM)的內(nèi)部機(jī)制
本文旨在更好地理解基于 Transformer 的大型語言模型(LLM)的內(nèi)部機(jī)制,以提高它們的可靠性和可解釋性。 隨著大型語言模型(LLM)在使用和部...
2023-06-25 標(biāo)簽:存儲語言模型Transformer 1886 0
Transformer在下一個token預(yù)測任務(wù)上的SGD訓(xùn)練動態(tài)
? 【導(dǎo)讀】 AI理論再進(jìn)一步,破解ChatGPT指日可待? Transformer架構(gòu)已經(jīng)橫掃了包括自然語言處理、計算機(jī)視覺、語音、多模態(tài)等多個領(lǐng)域,...
2023-06-12 標(biāo)簽:Transformer自然語言ChatGPT 1172 0
與基于 RNN 的編碼器-解碼器模型類似,基于 transformer 的編碼器-解碼器模型由一個編碼器和一個解碼器組成,且其編碼器和解碼器均由 殘差注...
2023-06-11 標(biāo)簽:解碼器編碼器Transformer 2841 0
PyTorch教程-11.9. 使用 Transformer 進(jìn)行大規(guī)模預(yù)訓(xùn)練
11.9. 使用 Transformer 進(jìn)行大規(guī)模預(yù)訓(xùn)練? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Op...
2023-06-05 標(biāo)簽:Transformerpytorch 1539 0
基于Transformer做大模型預(yù)訓(xùn)練基本的并行范式
在之前的內(nèi)容中,我們已經(jīng)介紹過流水線并行、數(shù)據(jù)并行(DP,DDP和ZeRO)。 今天我們將要介紹最重要,也是目前基于Transformer做大模型預(yù)訓(xùn)練...
2023-05-31 標(biāo)簽:數(shù)據(jù)API模型 3398 0
現(xiàn)在比較先進(jìn)的目標(biāo)跟蹤方法采用了“分而治之”的策略,即將跟蹤問題解耦成多個子任務(wù),例如中心點預(yù)測、前景/背景二分類、邊界框回歸、角點預(yù)測等。盡管在各個跟...
2023-05-16 標(biāo)簽:建模函數(shù)Transformer 1203 0
關(guān)于Transformer的核心結(jié)構(gòu)及原理
Thinking Like Transformers 這篇論文中提出了 transformer 類的計算框架,這個框架直接計算和模仿 Transform...
2023-03-08 標(biāo)簽:Transformer 997 0
ChatGPT語言模型核心技術(shù)之Transformer
Transformer的主要優(yōu)點是它可以并行地處理輸入序列中的所有位置,因此在訓(xùn)練和推理時都有著很好的效率。此外,Transformer沒有使用循環(huán)結(jié)構(gòu)...
2023-03-08 標(biāo)簽:TransformernlpChatGPT 1158 0
如何讓Transformer在征程5上跑得既快又好?以SwinT部署為例的優(yōu)化探索
摘要:SwinT是目前視覺transformer模型中的典型代表,在常見視覺任務(wù),如分類、檢測、分割都有非常出色的表現(xiàn)。雖然在相同計算量的模型指標(biāo)上,S...
2023-03-03 標(biāo)簽:gpu模型Transformer 1213 0
一個給NLP領(lǐng)域帶來革新的預(yù)訓(xùn)練語言大模型Bert
之前的文章和大家詳細(xì)的介紹了靜態(tài)的詞向量表示word2vec理論加實戰(zhàn),但是word2vec存在一個很大的問題,由于是靜態(tài)詞向量所以無法表示一詞多義,對...
2023-02-28 標(biāo)簽:GPTELMOSTransformer 8.4萬 0
ChatGPT 由 GPT-3.5 模型提供支持,與傳統(tǒng)思路不同,它采用了一種半監(jiān)督式的訓(xùn)練機(jī)器說話。這是它的創(chuàng)新所在,也是它的獨到之處。 GPT...
2023-02-21 標(biāo)簽:TransformernlpChatGPT 706 0
GPT家族與BERT模型都是知名的NLP模型,都基于Transformer技術(shù)。GPT-1只有12個Transformer層,而到了GPT-3,則增加到96層。
2023-02-21 標(biāo)簽:TransformernlpChatGPT 3196 0
ChatGPT 是一種專注于對話生成的語言模型。它能夠根據(jù)用戶的文本輸入,產(chǎn)生相應(yīng)的智能回答。這個回答可以是簡短的詞語,也可以是長篇大論。其中GPT是G...
2023-02-21 標(biāo)簽:TransformerOpenAIChatGPT 4750 0
ChatGPT的計算邏輯來自于一個名為transformer的算法,它來源于2017年的一篇科研論文《Attention is all your nee...
2023-02-21 標(biāo)簽:AITransformerChatGPT 1016 0
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺 | 無人機(jī) | 三菱電機(jī) | ST |
伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |