一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI推理的存儲(chǔ),看好SRAM?

花茶晶晶 ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:黃晶晶 ? 2025-03-03 08:51 ? 次閱讀
電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)近幾年,生成式AI引領(lǐng)行業(yè)變革,AI訓(xùn)練率先崛起,帶動(dòng)高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應(yīng)用才能推動(dòng)AI普惠大眾。在AI推理方面,業(yè)內(nèi)巨頭、初創(chuàng)公司等都看到了其前景并提前布局。AI推理也使得存儲(chǔ)HBM不再是唯一熱門(mén),更多存儲(chǔ)芯片與AI推理芯片結(jié)合,擁有了市場(chǎng)機(jī)會(huì)。

已經(jīng)有不少AI推理芯片、存算一體芯片將SRAM替代DRAM,從而獲得更快的訪問(wèn)速度、更低的刷新延遲等。

靜態(tài)隨機(jī)存取存儲(chǔ)器(Static Random-Access Memory,SRAM)是隨機(jī)存取存儲(chǔ)器的一種。這種存儲(chǔ)器只要保持通電,里面儲(chǔ)存的數(shù)據(jù)就可以恒常保持。相對(duì)之下,動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器(DRAM)里面所儲(chǔ)存的數(shù)據(jù)就需要周期性地更新。但當(dāng)電力供應(yīng)停止時(shí),SRAM儲(chǔ)存的數(shù)據(jù)還是會(huì)消失,這與在斷電后還能儲(chǔ)存資料的ROM或閃存不同。

SRAM具有較高的性能,但SRAM的集成度較低,功耗較DRAM大,SRAM需要很大的面積。同樣面積的硅片可以做出更大容量的DRAM,因此SRAM顯得更貴。SRAM可作為置于CPU與主存間的高速緩存,不需要定期刷新,響應(yīng)速度非常快,可用于CPU的一級(jí)緩沖、二級(jí)緩沖。

GroqLPU近存計(jì)算

在AI推理大潮下,Groq公司開(kāi)發(fā)的語(yǔ)言處理單元(Language Processing Unit,即LPU),以其獨(dú)特的架構(gòu),帶來(lái)了極高的推理性能的表現(xiàn)。

Groq的芯片采用14nm制程,搭載了230MB SRAM以保證內(nèi)存帶寬,片上內(nèi)存帶寬達(dá)80TB/s。
SRAM 的訪問(wèn)速度比 DRAM 快得多,這使得它在某些計(jì)算密集型應(yīng)用中表現(xiàn)得非常出色。Groq LPU 芯片采用大容量 SRAM內(nèi)存有助于提高機(jī)器學(xué)習(xí)人工智能等計(jì)算密集型工作負(fù)載的效率。

Groq成立于 2016 年,總部位于美國(guó)加利福尼亞州山景城,是一家 AI 推理芯片廠商。該公司核心團(tuán)隊(duì)來(lái)源于谷歌最初的張量處理單元(TPU)工程團(tuán)隊(duì)。Groq 創(chuàng)始人兼CEO Jonathan Ross是谷歌TPU項(xiàng)目的核心研發(fā)人員。

2024年8月,Groq 在最新一輪融資中籌集了 6.4 億美元,由 BlackRock Inc. 基金領(lǐng)投,并得到了思科和三星投資部門(mén)的支持。

2024 年 12 月Groq在沙特阿拉伯達(dá)曼構(gòu)建了中東地區(qū)最大的推理集群,該集群包括了 19000 個(gè)Groq LPU,并在 8 天內(nèi)上線。

今年2月,Groq成功從沙特阿拉伯籌集 15 億美元融資,用于擴(kuò)展其位于沙特阿拉伯的 AI 基礎(chǔ)設(shè)施。

AxeleraAIPU芯片:內(nèi)存計(jì)算+RISC-V架構(gòu)

Axelera公司介紹,內(nèi)存計(jì)算是一種完全不同的數(shù)據(jù)處理方法,在這種方法中,存儲(chǔ)器設(shè)備的橫桿陣列可以用來(lái)存儲(chǔ)矩陣,并在沒(méi)有中間數(shù)據(jù)移動(dòng)的情況下“就地”執(zhí)行矩陣向量乘法。專有的數(shù)字內(nèi)存計(jì)算(D-IMC)技術(shù)是實(shí)現(xiàn)高能效和卓越性能的關(guān)鍵?;赟RAM(靜態(tài)隨機(jī)訪問(wèn)存儲(chǔ)器)和數(shù)字計(jì)算相結(jié)合,每個(gè)存儲(chǔ)單元有效地成為一個(gè)計(jì)算單元。這從根本上增加了每個(gè)計(jì)算機(jī)周期的操作數(shù)(每個(gè)存儲(chǔ)單元每個(gè)周期一次乘法和一次累加),而不受噪音或較低精度等問(wèn)題的影響。

Axelera的AIPU芯片采用了創(chuàng)新的內(nèi)存計(jì)算技術(shù)。與傳統(tǒng)的磁盤(pán)存儲(chǔ)相比,內(nèi)存計(jì)算將數(shù)據(jù)存儲(chǔ)在主內(nèi)存(RAM)中,從而加快了數(shù)據(jù)處理速度。這一技術(shù)使得Axelera的芯片在提供高計(jì)算性能的同時(shí),能以更低的成本和能耗來(lái)進(jìn)行邊緣AI計(jì)算。該芯片還采用了開(kāi)源的RISC-V指令集架構(gòu)(ISA)。RISC-V作為一種低成本、高效且靈活的ISA,允許根據(jù)特定的應(yīng)用需求進(jìn)行定制。它為Axelera提供了極大的設(shè)計(jì)自由度和創(chuàng)新空間。

去年,Axelera獲得了來(lái)自三星電子風(fēng)險(xiǎn)投資部門(mén)三星Catalyst的大力支持,成功籌集了6800萬(wàn)美元,至此Axelera的總?cè)谫Y額已達(dá)到1.2億美元。新投資者包括三星基金、歐洲創(chuàng)新委員會(huì)基金、創(chuàng)新產(chǎn)業(yè)戰(zhàn)略伙伴關(guān)系基金和Invest-NL。

EnCharge AI模擬存內(nèi)計(jì)算

AI 芯片初創(chuàng)公司 EnCharge AI表示,已開(kāi)發(fā)出一種用于 AI 推理的新型內(nèi)存計(jì)算架構(gòu),EnCharge AI的核心技術(shù)是基于模擬存內(nèi)計(jì)算的AI芯片。這種創(chuàng)新的芯片設(shè)計(jì)采用"基于電荷的存儲(chǔ)器",通過(guò)讀取存儲(chǔ)平面上的電流而非單個(gè)比特單元來(lái)處理數(shù)據(jù),使用更精確的電容器替代了傳統(tǒng)的半導(dǎo)體。

GPU等數(shù)字加速器相比,每瓦性能提高了 20 倍。EnCharge AI的推理芯片僅需一瓦的功率就能以8位元精度提供150 TOPS的AI運(yùn)算。

EnCharge AI源自普林斯頓大學(xué),該公司創(chuàng)始人兼CEO Naveen Verma的相關(guān)研究項(xiàng)目涉及到內(nèi)存計(jì)算。用于機(jī)器學(xué)習(xí)計(jì)算的內(nèi)存計(jì)算采用在RAM中運(yùn)行計(jì)算的方式,以減少存儲(chǔ)設(shè)備帶來(lái)的延遲。

今年初,EnCharge AI完成超額認(rèn)購(gòu)的1億美元b輪融資。此輪超額認(rèn)購(gòu)融資使EnCharge AI的總?cè)谫Y額超過(guò)1.44億美元,將推動(dòng)其首款以客戶端運(yùn)算為主的AI加速器產(chǎn)品,并在2025年實(shí)現(xiàn)商業(yè)化。

d-Matrix數(shù)字內(nèi)存計(jì)算DIMC架構(gòu)

d-Matrix采用數(shù)字內(nèi)存計(jì)算(DIMC)的引擎架構(gòu)將計(jì)算移動(dòng)到RAM(內(nèi)存)附近,該數(shù)字存算一體技術(shù)將存儲(chǔ)器與計(jì)算單元中的乘法累加器(MAC)進(jìn)行了合并,獲得了更大的計(jì)算帶寬和效率,降低延遲,減少能耗。首批采用d-Matrix的DIMC架構(gòu)的產(chǎn)品Jayhawk II處理器,包含約165億晶體管的Chiplet。每個(gè)Jayhawk II Chiplet都包含一個(gè)RISC-V核心對(duì)Chiplet進(jìn)行管理,每個(gè)核心有八個(gè)并行操作的DIMC單元。

去年底d-Matrix首款人工智能芯片Corsair開(kāi)始出貨。每張Corsair卡由多個(gè)DIMC計(jì)算核心驅(qū)動(dòng),具有2400 TFLOP的8位峰值計(jì)算能力、2GBSRAM和高達(dá)256GB的LPDDR6。

d-Matrix公司是一家位于加利福尼亞州圣克拉拉市的初創(chuàng)公司,專注于人工智能芯片的研發(fā)。該公司的主要產(chǎn)品是針對(duì)數(shù)據(jù)中心云計(jì)算中的AI服務(wù)器設(shè)計(jì)的芯片,旨在優(yōu)化人工智能推理工作負(fù)載。d-Matrix公司已經(jīng)獲得了多家知名投資機(jī)構(gòu)的支持,包括微軟風(fēng)險(xiǎn)投資部門(mén)、新加坡投資公司淡馬錫、Palo Alto Networks等,D-Matrix曾在2022年4月獲得了4400萬(wàn)美元融資,由 M12 和韓國(guó)半導(dǎo)體制造商 SK 海力士公司領(lǐng)投。累計(jì)融資超過(guò)1.6億美元。

雖然說(shuō)SRAM的擁有成本比較高,但其在AI推理運(yùn)算中能夠減少數(shù)據(jù)來(lái)回傳輸?shù)难舆t,避免拖慢整個(gè)AI處理的速度。在AI推理的浪潮下,SRAM將發(fā)揮更大的作用。還有哪些存儲(chǔ)芯片因AI推理而贏得機(jī)會(huì),我們將持續(xù)關(guān)注報(bào)道。
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 存儲(chǔ)
    +關(guān)注

    關(guān)注

    13

    文章

    4469

    瀏覽量

    86894
  • sram
    +關(guān)注

    關(guān)注

    6

    文章

    780

    瀏覽量

    115527
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33554

    瀏覽量

    274186
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI驅(qū)動(dòng)新型存儲(chǔ)器技術(shù),國(guó)內(nèi)新興存儲(chǔ)企業(yè)進(jìn)階

    為了加速AI的訓(xùn)練與推理應(yīng)用。但另一方面,新型存儲(chǔ)也在AI時(shí)代扮演越來(lái)越重要的角色,最近國(guó)內(nèi)新興存儲(chǔ)企業(yè)也將目光投向于此,并推出新產(chǎn)品等,以
    發(fā)表于 10-16 08:10 ?1287次閱讀
    <b class='flag-5'>AI</b>驅(qū)動(dòng)新型<b class='flag-5'>存儲(chǔ)</b>器技術(shù),國(guó)內(nèi)新興<b class='flag-5'>存儲(chǔ)</b>企業(yè)進(jìn)階

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設(shè)計(jì)。這款功能強(qiáng)大的 AI
    的頭像 發(fā)表于 04-12 11:10 ?1275次閱讀
    谷歌第七代TPU Ironwood深度解讀:<b class='flag-5'>AI</b><b class='flag-5'>推理</b>時(shí)代的硬件革命

    曙光存儲(chǔ)全新升級(jí)AI存儲(chǔ)方案

    近日,曙光存儲(chǔ)全新升級(jí)AI存儲(chǔ)方案,秉持“AI加速”理念,面向AI訓(xùn)練、AI
    的頭像 發(fā)表于 03-31 11:27 ?322次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Blackwell Ultra 開(kāi)啟 AI 推理新時(shí)代

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Blackwell Ultra 開(kāi)啟 AI 推理新時(shí)代
    的頭像 發(fā)表于 03-20 15:35 ?518次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開(kāi)源庫(kù)加速并擴(kuò)展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開(kāi)源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴(kuò)展 AI 工廠中的 AI 推理模型。 作
    的頭像 發(fā)表于 03-20 15:03 ?499次閱讀

    NVIDIA 與行業(yè)領(lǐng)先的存儲(chǔ)企業(yè)共同推出面向 AI 時(shí)代的新型企業(yè)基礎(chǔ)設(shè)施

    存儲(chǔ)提供商構(gòu)建搭載 AI 查詢智能體的基礎(chǔ)設(shè)施,利用 NVIDIA 計(jì)算、網(wǎng)絡(luò)和軟件,針對(duì)復(fù)雜查詢進(jìn)行推理并快速生成準(zhǔn)確響應(yīng) ? 美國(guó)加利福尼亞州圣何塞 —— GTC —— 太平洋時(shí)間 2025 年
    發(fā)表于 03-19 10:11 ?161次閱讀
    NVIDIA 與行業(yè)領(lǐng)先的<b class='flag-5'>存儲(chǔ)</b>企業(yè)共同推出面向 <b class='flag-5'>AI</b> 時(shí)代的新型企業(yè)基礎(chǔ)設(shè)施

    AI變革正在推動(dòng)終端側(cè)推理創(chuàng)新

    尖端AI推理模型DeepSeek R1一經(jīng)問(wèn)世,便在整個(gè)科技行業(yè)引起波瀾。因其性能能夠媲美甚至超越先進(jìn)的同類模型,顛覆了關(guān)于AI發(fā)展的傳統(tǒng)認(rèn)知。
    的頭像 發(fā)表于 02-20 10:54 ?383次閱讀

    不再是HBM,AI推理流行,HBF存儲(chǔ)的機(jī)會(huì)來(lái)了?

    NAND閃存和高帶寬存儲(chǔ)器(HBM)的特性,能更好地滿足AI推理的需求。 ? HBF的堆疊設(shè)計(jì)類似于HBM,通過(guò)硅通孔(TSVs)將多個(gè)高性能閃存核心芯片堆疊,連接到可并行訪問(wèn)閃存子陣列的邏輯芯片上。也就是基于 SanDisk
    的頭像 發(fā)表于 02-19 00:51 ?2332次閱讀
    不再是HBM,<b class='flag-5'>AI</b><b class='flag-5'>推理</b>流行,HBF<b class='flag-5'>存儲(chǔ)</b>的機(jī)會(huì)來(lái)了?

    使用NVIDIA推理平臺(tái)提高AI推理性能

    NVIDIA推理平臺(tái)提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬(wàn)美元。
    的頭像 發(fā)表于 02-08 09:59 ?523次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺(tái)提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    生成式AI推理技術(shù)、市場(chǎng)與未來(lái)

    OpenAI o1、QwQ-32B-Preview、DeepSeek R1-Lite-Preview的相繼發(fā)布,預(yù)示著生成式AI研究正從預(yù)訓(xùn)練轉(zhuǎn)向推理(Inference),以提升AI邏輯推理
    的頭像 發(fā)表于 01-20 11:16 ?685次閱讀
    生成式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>技術(shù)、市場(chǎng)與未來(lái)

    AI推理CPU當(dāng)?shù)?,Arm驅(qū)動(dòng)高效引擎

    AI的訓(xùn)練和推理共同鑄就了其無(wú)與倫比的處理能力。在AI訓(xùn)練方面,GPU因其出色的并行計(jì)算能力贏得了業(yè)界的青睞,成為了當(dāng)前AI大模型最熱門(mén)的芯片;而在
    的頭像 發(fā)表于 11-13 14:34 ?3064次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>CPU當(dāng)?shù)?,Arm驅(qū)動(dòng)高效引擎

    NVIDIA助力麗蟾科技打造AI訓(xùn)練與推理加速解決方案

    麗蟾科技通過(guò) Leaper 資源管理平臺(tái)集成 NVIDIA AI Enterprise,為企業(yè)和科研機(jī)構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練與推理加速解決方案。無(wú)論是在復(fù)雜的 AI 開(kāi)發(fā)
    的頭像 發(fā)表于 10-27 10:03 ?578次閱讀
    NVIDIA助力麗蟾科技打造<b class='flag-5'>AI</b>訓(xùn)練與<b class='flag-5'>推理</b>加速解決方案

    李開(kāi)復(fù):中國(guó)擅長(zhǎng)打造經(jīng)濟(jì)實(shí)惠的AI推理引擎

    10月22日上午,零一萬(wàn)物公司的創(chuàng)始人兼首席執(zhí)行官李開(kāi)復(fù)在與外媒的交流中透露,其公司旗下的Yi-Lightning(閃電模型)在推理成本上已實(shí)現(xiàn)了顯著優(yōu)勢(shì),比OpenAI的GPT-4o模型低了31倍。他強(qiáng)調(diào),中國(guó)擅長(zhǎng)打造經(jīng)濟(jì)實(shí)惠的AI
    的頭像 發(fā)表于 10-22 16:54 ?600次閱讀

    AMD助力HyperAccel開(kāi)發(fā)全新AI推理服務(wù)器

    HyperAccel 是一家成立于 2023 年 1 月的韓國(guó)初創(chuàng)企業(yè),致力于開(kāi)發(fā) AI 推理專用型半導(dǎo)體器件和硬件,最大限度提升推理工作負(fù)載的存儲(chǔ)器帶寬使用,并通過(guò)將此解決方案應(yīng)用于
    的頭像 發(fā)表于 09-18 09:37 ?667次閱讀
    AMD助力HyperAccel開(kāi)發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)器

    如何基于OrangePi?AIpro開(kāi)發(fā)AI推理應(yīng)用

    。通過(guò)昇騰CANN軟件棧的AI編程接口,可滿足大多數(shù)AI算法原型驗(yàn)證、推理應(yīng)用開(kāi)發(fā)的需求。AscendCL(AscendComputingLanguage,昇騰計(jì)算
    的頭像 發(fā)表于 06-04 14:23 ?773次閱讀
    如何基于OrangePi?AIpro開(kāi)發(fā)<b class='flag-5'>AI</b><b class='flag-5'>推理</b>應(yīng)用