完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > llm
在人工智能領(lǐng)域,LLM代表“大型語言模型”。在人工智能(AI)領(lǐng)域自然語言處理(NLP)是一個快速進展的領(lǐng)域。NLP中最重要是大語言模型(LLM)。大語言模型(英文:Large Language Model,縮寫LLM),也稱大型語言模型,是一種基于機器學(xué)習(xí)和自然語言處理技術(shù)的模型。
文章:323個 瀏覽:844次 帖子:3個
華為推出ICN Master解決方案,率先將大模型應(yīng)用到核心網(wǎng)運維領(lǐng)域
2023年ChatGPT的出現(xiàn)讓大模型成為各行各業(yè)的熱點,如何構(gòu)建大模型,實現(xiàn)大模型和云核心網(wǎng)之間的深度融合是核心網(wǎng)產(chǎn)業(yè)當(dāng)前新熱點。
使用NVIDIA TensorRT-LLM支持CodeFuse-CodeLlama-34B上的int4量化和推理優(yōu)化實踐
CodeFuse是由螞蟻集團開發(fā)的代碼語言大模型,旨在支持整個軟件開發(fā)生命周期,涵蓋設(shè)計、需求、編碼、測試、部署、運維等關(guān)鍵階段。
使用模塊化、OpenUSD的Omniverse加速3D工作流程
最新的 NVIDIA Omniverse 版本可基于 Omniverse Kit 105 套件提供一系列令人振奮的新功能,使開發(fā)者能夠更加輕松地開始構(gòu)建...
訓(xùn)練自己的大型語言模型(LLM)是一個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素:...
檢索增強生成(RAG)如何助力企業(yè)為各種企業(yè)用例創(chuàng)建高質(zhì)量的內(nèi)容?
在生成式 AI 時代,機器不僅要從數(shù)據(jù)中學(xué)習(xí),還要生成類似人類一樣的文本、圖像、視頻等。檢索增強生成(RAG)則是可以實現(xiàn)的一種突破性方法。
2024-03-29 標(biāo)簽:以太網(wǎng)網(wǎng)絡(luò)存儲GPU芯片 1503 0
【FlashAttention-V4,非官方】FlashDecoding++
圖b所示,F(xiàn)lashAttention和FlashDecoding對softmax操作進行了分塊處理,但是塊與塊之間需要進行同步(主要是局部最大值)。本...
2023-11-14 標(biāo)簽:數(shù)據(jù)gpuLLM 1455 0
NVIDIA發(fā)布《2024年金融服務(wù)業(yè)AI現(xiàn)狀與趨勢》調(diào)研報告
隨著 AI 技術(shù)的應(yīng)用,金融服務(wù)業(yè)正在經(jīng)歷一場重大變革。
車載大模型的定義尚無,傳統(tǒng)大模型即LLM的參數(shù)一般在70億至2000億之間,而早期的CNN模型參數(shù)通常不到1000萬,CNN模型目前大多做骨干網(wǎng)使用,參...
富士通發(fā)布最新的人工智能(AI)戰(zhàn)略,聚焦深化人類與AI之間的協(xié)作
富士通株式會社(以下簡稱“富士通”)發(fā)布了最新的集團人工智能(AI)戰(zhàn)略,聚焦深化人類與AI之間的協(xié)作,并提出了將AI作為“可信賴的助手”這一愿景,為提...
語義同步定位與建圖(SLAM)系統(tǒng)在對鄰近的語義相似物體進行建圖時面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο骃LAM的語義增強(SEO-...
LLM與傳統(tǒng)機器學(xué)習(xí)算法的區(qū)別
1. 基本概念 大型語言模型(LLM): 大型語言模型是一種基于深度學(xué)習(xí)的自然語言處理(NLP)技術(shù),它通過訓(xùn)練大量的文本數(shù)據(jù)來理解和生成自然語言。這些...
2024-11-19 標(biāo)簽:機器學(xué)習(xí)深度學(xué)習(xí)LLM 1391 0
基于NVIDIA Megatron Core的MOE LLM實現(xiàn)和訓(xùn)練優(yōu)化
本文將分享阿里云人工智能平臺 PAI 團隊與 NVIDIA Megatron-Core 團隊在 MoE (Mixture of Experts) 大語言...
福布斯公布關(guān)于2024年人工智能發(fā)展的十大預(yù)見
近日,福布斯公布了他們對2024年人工智能發(fā)展的十大預(yù)見,這些預(yù)測簡潔而又充滿洞察力。
英偉達(dá)GTC2025亮點:電信行業(yè)領(lǐng)先企業(yè)啟用代理式AI優(yōu)化網(wǎng)絡(luò)運維
Amdocs、BubbleRAN、ServiceNow、軟銀集團與 Tech Mahindra 基于 NVIDIA AI Enterprise 開發(fā)大型...
百度、英偉達(dá)聯(lián)合舉辦搜索創(chuàng)新大賽 搜索引擎變革 搜索+AI
近日,百度文心一言宣布向全社會開放,首日,百度搜索就有超3億次需求由生成式智能引擎解決;百度搜索“AI伙伴”當(dāng)日訪問用戶數(shù)突破400萬。 在這樣的背景下...
安霸發(fā)布N1系列生成式AI芯片支持前端設(shè)備運行本地LLM應(yīng)用
單顆 SoC 支持 1 至 340 億參數(shù)的多模態(tài)大模型(Multi-Modal LLM)推理,實現(xiàn)前端低功耗生成式 AI。
LLM的訓(xùn)練分為預(yù)訓(xùn)練和安全訓(xùn)練。預(yù)訓(xùn)練是指在大規(guī)模語料庫上進行訓(xùn)練,因此LLM獲得了各種強大的能力,如文本生成、推理和主題知識等。安全訓(xùn)練使用有監(jiān)督的...
2023-11-20 標(biāo)簽:模型數(shù)據(jù)集LLM 1320 0
LLM 對軟件研發(fā)的單點提效,我之前錄制過一段視頻,大家可以直接觀看,里面有詳細(xì)的演示,我在這里就不再贅述了。
全新 NVIDIA NeMo Retriever微服務(wù)大幅提升LLM的準(zhǔn)確性和吞吐量
企業(yè)能夠通過提供檢索增強生成功能的生產(chǎn)就緒型 NVIDIA NIM 推理微服務(wù),充分挖掘業(yè)務(wù)數(shù)據(jù)的價值。這些微服務(wù)現(xiàn)已集成到 Cohesity、Data...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
伺服電機 | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |