一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于DPU和HADOS-RACE加速Spark 3.x

中科馭數(shù) ? 來(lái)源:中科馭數(shù) ? 作者:中科馭數(shù) ? 2024-03-25 18:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

背景簡(jiǎn)介

Apache Spark(下文簡(jiǎn)稱Spark)是一種開(kāi)源集群計(jì)算引擎,支持批/流計(jì)算、SQL分析、機(jī)器學(xué)習(xí)、圖計(jì)算等計(jì)算范式,以其強(qiáng)大的容錯(cuò)能力、可擴(kuò)展性、函數(shù)式API、多語(yǔ)言支持(SQL、Python、Java、Scala、R)等特性在大數(shù)據(jù)計(jì)算領(lǐng)域被廣泛使用。其中,Spark SQL 是 Spark 生態(tài)系統(tǒng)中的一個(gè)重要組件,它允許用戶以結(jié)構(gòu)化數(shù)據(jù)的方式進(jìn)行數(shù)據(jù)處理,提供了強(qiáng)大的查詢和分析功能。

隨著SSD和萬(wàn)兆網(wǎng)卡普及以及IO技術(shù)的提升,CPU計(jì)算逐漸成為Spark 作業(yè)的瓶頸,而IO瓶頸則逐漸消失。 有以下幾個(gè)原因,首先,因?yàn)?JVM 提供的 CPU 指令級(jí)的優(yōu)化如 SIMD要遠(yuǎn)遠(yuǎn)少于其他 Native 語(yǔ)言(如C/C++,Rust)導(dǎo)致基于 JVM 進(jìn)行 CPU 指令的優(yōu)化比較困難。其次,NVMe SSD緩存技術(shù)和AQE帶來(lái)的自動(dòng)優(yōu)化shuffle極大的減輕了IO延遲。最后,Spark的謂詞下推優(yōu)化跳過(guò)了不需要的數(shù)據(jù),進(jìn)一步減少了IO開(kāi)銷。

基于此背景,Databricks(Spark背后的商業(yè)公司)在2022年SIGMOD會(huì)議上發(fā)表論文《Photon: A Fast Query Engine for Lakehouse Systems》,其核心思想是使用C++、向量化執(zhí)行等技術(shù)來(lái)執(zhí)行Spark物理計(jì)劃,在客戶工作負(fù)載上獲得了平均3倍、最大10倍的性能提升,這證明Spark向量化及本地化是后續(xù)值得優(yōu)化的方向。 Spark3.0(2020年6月發(fā)布)開(kāi)始支持了數(shù)據(jù)的列式處理,英偉達(dá)也提出了利用GPU加速Spark的方案,利用GPU的列式計(jì)算和并發(fā)能力加速Join、Sort、Aggregate等常見(jiàn)的ETL操作。

DPU(Data Processing Unit) 作為未來(lái)計(jì)算的三大支柱之一,其設(shè)計(jì)旨在提供強(qiáng)大的計(jì)算能力,以加速各種數(shù)據(jù)處理任務(wù)。DPU的硬件加速能力,尤其在數(shù)據(jù)計(jì)算、數(shù)據(jù)過(guò)濾等計(jì)算密集型任務(wù)上,為處理海量數(shù)據(jù)提供了新的可能。通過(guò)高度定制和優(yōu)化的架構(gòu),DPU能夠在處理大規(guī)模數(shù)據(jù)時(shí)顯著提升性能,為數(shù)據(jù)中心提供更高效、快速的計(jì)算體驗(yàn),從而滿足現(xiàn)代數(shù)據(jù)處理需求的挑戰(zhàn)。但是目前DPU對(duì)Spark生態(tài)不能兼容,Spark計(jì)算框架無(wú)法利用DPU的計(jì)算優(yōu)勢(shì)。

中科馭數(shù)HADOS 異構(gòu)計(jì)算加速軟件平臺(tái)(下文簡(jiǎn)稱HADOS)是一款敏捷異構(gòu)軟件平臺(tái),能夠?yàn)榫W(wǎng)絡(luò)、存儲(chǔ)、安全、大數(shù)據(jù)計(jì)算等場(chǎng)景進(jìn)行提速。對(duì)于大數(shù)據(jù)計(jì)算場(chǎng)景,HADOS可以認(rèn)為是一個(gè)異構(gòu)執(zhí)行庫(kù),提供了數(shù)據(jù)類型、向量數(shù)據(jù)結(jié)構(gòu)、表達(dá)式計(jì)算、IO和資源管理等功能。 為了發(fā)揮Spark與DPU各自的優(yōu)勢(shì),基于HADOS平臺(tái),我們開(kāi)發(fā)了RACE算子卸載引擎,既能夠發(fā)揮Spark優(yōu)秀的分布式調(diào)度能力又可以發(fā)揮DPU的向量化執(zhí)行能力。

我們通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),將Spark SQL的計(jì)算任務(wù)通過(guò)RACE卸載到DPU上, 預(yù)期可以把原生SparkSQL的單表達(dá)式的執(zhí)行效率提升至9.97倍,TPC-DS單Query提升最高4.56倍。本文將介紹如何基于 DPU和RACE來(lái)加速 Spark SQL的查詢速度,為大規(guī)模數(shù)據(jù)分析和處理提供更可靠的解決方案。

整體架構(gòu)

整個(gè)解決方案可以參考下圖:

wKgZomXcZN2AYm7rAAIEZvTT08A684.png

? 最底層硬件資源層是DPU硬件,是面向數(shù)據(jù)中心的專用處理器,其設(shè)計(jì)旨在提供強(qiáng)大的計(jì)算能力,以加速各種數(shù)據(jù)處理任務(wù),尤其是優(yōu)化Spark等大數(shù)據(jù)框架的執(zhí)行效率。通過(guò)高度定制和優(yōu)化的架構(gòu),DPU能夠在處理大規(guī)模數(shù)據(jù)時(shí)顯著提升性能,為數(shù)據(jù)中心提供更高效、快速的計(jì)算體驗(yàn)。

? DPU加速層底層是HADOS異構(gòu)計(jì)算加速軟件平臺(tái),是中科馭數(shù)推出的專用計(jì)算敏捷異構(gòu)軟件開(kāi)發(fā)平臺(tái)。HADOS數(shù)據(jù)查詢加速庫(kù)通過(guò)提供基于列式數(shù)據(jù)的查詢接口,供數(shù)據(jù)查詢應(yīng)用。支持Java、Scala、C和C++語(yǔ)言的函數(shù)調(diào)用,主要包括列數(shù)據(jù)管理、數(shù)據(jù)查詢運(yùn)行時(shí)函數(shù)、任務(wù)調(diào)度引擎、函數(shù)運(yùn)算代價(jià)評(píng)估、內(nèi)存管理、存儲(chǔ)管理、硬件管理、DMA引擎、日志引擎等模塊,目前對(duì)外提供數(shù)據(jù)管理、查詢函數(shù)、硬件管理、文件存儲(chǔ)相關(guān)功能API。

? DPU加速層中的RACE層,其最核心的能力就是修改執(zhí)行計(jì)劃樹(shù),通過(guò) Spark Plugin 的機(jī)制,將Spark 執(zhí)行計(jì)劃攔截并下發(fā)給 DPU來(lái)執(zhí)行,跳過(guò)原生 Spark 不高效的執(zhí)行路徑。整體的執(zhí)行框架仍沿用 Spark 既有實(shí)現(xiàn),包括消費(fèi)接口、資源和執(zhí)行調(diào)度、查詢計(jì)劃優(yōu)化、上下游集成等。

? 最上層是面向用戶的原生Spark,用戶可以直接使用已有的業(yè)務(wù)邏輯,無(wú)感享受DPU帶來(lái)的性能提升

目前支持的算子覆蓋Spark生產(chǎn)環(huán)境常用算子,包括Scan、Filter、Project、Union、Hash Aggregation、Sort、Join、Exchange等。表達(dá)式方面,我們開(kāi)發(fā)了目前生產(chǎn)環(huán)境常用的布爾函數(shù)、Sum/Count/AVG/Max/Min等聚合函數(shù)。

其中RACE層的架構(gòu)如下:

wKgaomXcZN2Ad8CsAADO2y4AKy4604.png

下面我們著重介紹RACE層的核心功能。

核心功能模塊

RACE與Spark的集成

RACE作為Spark的一個(gè)插件,實(shí)現(xiàn)了SparkPlugin接口,與Spark的集成分為Driver端和Executor端。

? 在Driver端, 通過(guò)Spark Catalyst擴(kuò)展點(diǎn)插入自定義的規(guī)則,實(shí)現(xiàn)對(duì)查詢語(yǔ)句解析過(guò)程、優(yōu)化過(guò)程以及物理計(jì)劃轉(zhuǎn)換過(guò)程的控制。

? 在Executor端, 插件在Executor的初始化過(guò)程中完成DPU設(shè)備的初始化工作。

wKgZomXcZN6AMq1KAACkG9BHo5E587.png

Plan Conversion

Spark SQL在優(yōu)化 Physical Plan時(shí),會(huì)應(yīng)用一批規(guī)則,RACE通過(guò)插入的自定義規(guī)則可以攔截到優(yōu)化后的Physical Plan,如果發(fā)現(xiàn)當(dāng)前算子上的所有表達(dá)式可以下推給DPU,那么替換Spark原生算子為相應(yīng)的可以在DPU上執(zhí)行的自定義算子,由HADOS將其下推給DPU 來(lái)執(zhí)行并返回結(jié)果。

Fallback

Spark支持的Operator和Expression非常多,在RACE研發(fā)初期,無(wú)法 100% 覆蓋 Spark 查詢執(zhí)行計(jì)劃中的算子和表達(dá)式,因此 RACE必須有Fallback機(jī)制,支持Spark 查詢執(zhí)行計(jì)劃中部分算子不運(yùn)行在DPU上。

對(duì)于DPU無(wú)法執(zhí)行的算子,RACE安排 Fallback 回正常的 Spark 執(zhí)行路徑進(jìn)行計(jì)算。例如,下圖中展示了插件對(duì)原生計(jì)劃樹(shù)的修改情況,可以下推給DPU的算子都替換成了對(duì)應(yīng)的"Dpu"開(kāi)頭的算子,不能下推的算子仍然保留。除此之外,會(huì)自動(dòng)插入行轉(zhuǎn)列算子或者列轉(zhuǎn)行算子來(lái)適配數(shù)據(jù)格式的變化。

wKgaomXYe0uAVcwUAAGOSHWvTHU017.png

當(dāng)然了,不管是行轉(zhuǎn)列算子還是列轉(zhuǎn)行算子,都是開(kāi)銷比較大的算子,隨著RACE支持的算子和表達(dá)式越來(lái)越多,F(xiàn)allback的情況會(huì)逐漸減少。

Strategy

當(dāng)查詢計(jì)劃中存在未卸載的算子時(shí),因?yàn)檫@樣引入了行列轉(zhuǎn)換算子,由于其帶來(lái)了額外的開(kāi)銷,導(dǎo)致即使對(duì)于卸載到DPU上的算子,其性能得到提升,而對(duì)于整個(gè)查詢來(lái)說(shuō),可能會(huì)出現(xiàn)比原生Spark更慢的情況。 針對(duì)這種情況,最穩(wěn)妥的方式就是整個(gè)Query全部回退到CPU,這至少不會(huì)比原生Spark慢,這是很重要的。

由于Spark3.0加入了AQE的支持,規(guī)則通常攔截到的是一個(gè)個(gè)QueryStage,它是Physical Plan的一部分而非完整的 Physical Plan。 RACE的策略是獲取AQE規(guī)則介入之前的整個(gè)Query的 Physical Plan,然后分析該P(yáng)hysical Plan中的算子是否全部可卸載。如果全部可以卸載,則對(duì)QueryStage進(jìn)行Plan Conversion, 如果不能全部卸載,則跳過(guò)Plan Conversion轉(zhuǎn)而直接交給Spark處理。

我們?cè)趯?shí)際測(cè)試過(guò)程中發(fā)現(xiàn),一些算子例如Take操作,它需要處理的數(shù)據(jù)量非常小,那么即使發(fā)生Fallback,也不會(huì)有很大的行列轉(zhuǎn)換開(kāi)銷,通過(guò)白名單機(jī)制忽略這種算子,防止全部回退到CPU,達(dá)到加速目的。

Metrics

RACE會(huì)收集DPU執(zhí)行過(guò)程中的指標(biāo)統(tǒng)計(jì),然后上報(bào)給Spark的Metrics System做展示,以方便Debug和系統(tǒng)調(diào)優(yōu)。

Native Read&Write

SparkSQL的Scan算子支持列式讀取,但是Spark的向量與DPU中定義的向量不兼容,需要在JVM中進(jìn)行一次列轉(zhuǎn)行然后拷貝到DPU中,這會(huì)造成巨大的IO開(kāi)銷。我們主要有以下優(yōu)化:

1. 減少行列轉(zhuǎn)換:對(duì)于Parquet格式等列式存儲(chǔ)格式的文件讀取,SparkSQL采用的是按列讀取的方式,即Scan算子是列式算子,但是后續(xù)數(shù)據(jù)過(guò)濾等數(shù)據(jù)處理算子均是基于行的算子,SparkSQL必須把列式數(shù)據(jù)轉(zhuǎn)換為行式數(shù)據(jù),這會(huì)導(dǎo)致額外的計(jì)算開(kāi)銷。而本方案由于都是列式計(jì)算的算子,因此無(wú)需這種行列轉(zhuǎn)換。

2. 減少內(nèi)存拷貝: RACE卸載Scan算子到HADOS平臺(tái),HADOS平臺(tái)的DPUScan算子以Native庫(kù)的方式加載磁盤數(shù)據(jù)直接復(fù)制到DPU,省去了JVM到DPU的拷貝開(kāi)銷

3. 謂詞下推支持:DPUScan也支持ColumnPruning規(guī)則,這個(gè)規(guī)則會(huì)確保只有真正使用到的字段才會(huì)從這個(gè)數(shù)據(jù)源中提取出來(lái)。支持兩種Filter:PartitionFilters和PushFilters。PartitionFilters可以過(guò)濾掉無(wú)用的分區(qū), PushFilters把字段直接下推到Parquet文件中去

4. 同時(shí),文件的寫(xiě)出也進(jìn)行了類似的優(yōu)化

注意,這些優(yōu)化仍然需要對(duì)數(shù)據(jù)進(jìn)行一次復(fù)制,DPU直接讀取磁盤是一個(gè)后續(xù)的優(yōu)化方向。

加速效果

TPC-DS 單Query加速

單機(jī)單線程local模式場(chǎng)景,在1T數(shù)據(jù)集下,TPC-DS語(yǔ)句中有5條語(yǔ)句E2E時(shí)間提升比例超過(guò)2倍,最高達(dá)到4.56倍:

wKgZomXYe0uAft0dAABd4UuWpbQ563.png

運(yùn)算符加速效果

運(yùn)算符的性能提升,DPU運(yùn)算符相比Spark原生的運(yùn)算符的加速比最高達(dá)到9.97。

wKgaomXcZN6AdzreAABYg2coTWU859.png

算子加速效果

TPC-DS的測(cè)試中,向?qū)τ谠鶶park解決方案,本方案Filter算子性能最高提高到了43倍,哈希聚合算子提升了13倍。這主要是因?yàn)槲覀児?jié)省了列式數(shù)據(jù)轉(zhuǎn)換為行式數(shù)據(jù)的開(kāi)銷以及DPU運(yùn)算的加速。

wKgZomXcZN6AfOZRAABWbiuTNf8102.png

wKgZomXcZN-AExwpAABWKy9uNag479.png

CPU資源使用情況

CPU資源從平均60%下降到5%左右

原生Spark方案CPU使用情況:

wKgaomXcZOCAetkFAAJk9GZexsw526.png

基于RACE和DPU加速后,CPU使用情況:

wKgZomXcZOKAWpplAAHre-J6L50116.png

總結(jié)與展望

通過(guò)把Spark的計(jì)算卸載到DPU加速器上,在用戶原有代碼無(wú)需變更的情況下,端到端的性能可以得到2-5倍的提升,某些算子能達(dá)到43倍性能提升,同時(shí)CPU資源使用率從60%左右下降到5%左右,顯著提升了原生SparkSQL的執(zhí)行效率。DPU展現(xiàn)了強(qiáng)大的計(jì)算能力,對(duì)于端到端的分析,會(huì)有一些除去算子之外的因素影響整體運(yùn)行時(shí)間,包括磁盤IO,網(wǎng)絡(luò)Shuffle以及調(diào)度的Overhead。這些影響因素將來(lái)可以逐步去做特定的優(yōu)化,例如:

1. 算子的Pipeline執(zhí)行

原生Spark的算子Pipeline執(zhí)行以及CodeGen都是Spark性能提升的關(guān)鍵技術(shù),當(dāng)前,我們卸載到DPU中的計(jì)算還沒(méi)有支持Pipeline以及CodeGen。未來(lái)這兩個(gè)技術(shù)的加入,是繼續(xù)提升Spark的執(zhí)行效率的一個(gè)方向。

2. 讀數(shù)據(jù)部分,通過(guò)DPU卡直讀磁盤數(shù)據(jù)來(lái)做優(yōu)化

我們還可以通過(guò)DPU卡直接讀取硬盤數(shù)據(jù),省去主機(jī)DDR到DPU卡DDR的數(shù)據(jù)傳輸時(shí)間,以達(dá)到性能提升的效果,可以參考英偉達(dá)的GPU對(duì)磁盤讀寫(xiě)的優(yōu)化,官方數(shù)據(jù)CSV格式的文件讀取可優(yōu)化20倍左右。

3. RDMA技術(shù)繼續(xù)提升Shuffle性能

對(duì)于Shuffle占比很高的作業(yè),可以通過(guò)內(nèi)存Shuffle以及RDMA技術(shù),來(lái)提升整個(gè)Shuffle的過(guò)程,目前已經(jīng)實(shí)現(xiàn)內(nèi)存Shuffle,未來(lái)我們還可以通過(guò)RDMA技術(shù)直讀遠(yuǎn)端內(nèi)存數(shù)據(jù),從而完成整個(gè)Shuffle鏈路的優(yōu)化。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • DPU
    DPU
    +關(guān)注

    關(guān)注

    0

    文章

    393

    瀏覽量

    24808
  • SPARK
    +關(guān)注

    關(guān)注

    1

    文章

    106

    瀏覽量

    20502
  • RACE
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    2393
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    用tlv320aic14k音頻采集,有該芯片在Linux 3.x下的驅(qū)動(dòng)嗎?

    我在用tlv320aic14k 音頻采集,有該芯片在Linux 3.x 下的驅(qū)動(dòng)嗎?
    發(fā)表于 10-28 06:42

    無(wú)法下載GRID-for-windows驅(qū)動(dòng)程序(GRID 4.x3.x

    嗨,我無(wú)法下載GRID-for-windows驅(qū)動(dòng)程序(4.x3.x)。我有一個(gè)GRID k1,想要用k1測(cè)試hyper-v remoteFX。我需要下載GRID-for-windows驅(qū)動(dòng)程序
    發(fā)表于 10-08 14:22

    是否可以使用SPC5Studio 3.x進(jìn)行STM32開(kāi)發(fā)?

    使用SPC5Studio 3.x進(jìn)行STM32開(kāi)發(fā)?以上來(lái)自于谷歌翻譯以下為原文 We do develment for SPC56xxx & stm32f4. I found description
    發(fā)表于 12-04 16:19

    如何去降低USB 3.x的插入損耗?

    如何去降低USB 3.x的插入損耗?有大神能解答這個(gè)問(wèn)題嗎
    發(fā)表于 07-15 06:26

    什么是DPU

    DPU則進(jìn)行數(shù)據(jù)處理。” 什么是DPU? 數(shù)據(jù)處理器 基于行業(yè)標(biāo)準(zhǔn),高性能及軟件可編程的多核CPU 高性能網(wǎng)絡(luò)接口 靈活、可編程的加速引擎 DPU有什么與眾不同之處?
    發(fā)表于 11-03 10:55

    技嘉 GA-8IPE1000 (Rev 3.x)主板使用手冊(cè)

    技嘉 GA-8IPE1000 (Rev 3.x)主板使用手冊(cè)說(shuō)明書(shū)(中文版).pdf
    發(fā)表于 02-11 16:45 ?5次下載

    利用Apache Spark和RAPIDS Apache加速Spark實(shí)踐

      在第三期文章中,我們?cè)敿?xì)介紹了如何充分利用 Apache Spark 和 Apache RAPIDS 加速Spark 。 大多數(shù)團(tuán)隊(duì)都會(huì)通過(guò)干凈地使用 Spark 的數(shù)據(jù)幀抽象
    的頭像 發(fā)表于 04-26 17:39 ?2107次閱讀
    利用Apache <b class='flag-5'>Spark</b>和RAPIDS Apache<b class='flag-5'>加速</b><b class='flag-5'>Spark</b>實(shí)踐

    中科馭數(shù)發(fā)布軟件開(kāi)發(fā)平臺(tái)HADOS 2.0 釋放DPU極致性能

    近日,中科馭數(shù)在2022 CNCC 中國(guó)計(jì)算大會(huì)上發(fā)布了HADOS敏捷異構(gòu)軟件平臺(tái)2.0版本。該平臺(tái)可為馭數(shù)DPU系列產(chǎn)品提供通用且編程友好的軟件框架,充分釋放DPU產(chǎn)品性能,有望成為國(guó)內(nèi)DP
    的頭像 發(fā)表于 12-28 11:52 ?1788次閱讀

    Spark基于DPU Snappy壓縮算法的異構(gòu)加速方案

    一、總體介紹 1.1 背景介紹 Apache Spark是專為大規(guī)模數(shù)據(jù)計(jì)算而設(shè)計(jì)的快速通用的計(jì)算引擎,是一種與 Hadoop 相似的開(kāi)源集群計(jì)算環(huán)境,但是兩者之間還存在一些不同之處,這些不同之處使
    的頭像 發(fā)表于 03-26 17:06 ?1067次閱讀
    <b class='flag-5'>Spark</b>基于<b class='flag-5'>DPU</b> Snappy壓縮算法的異構(gòu)<b class='flag-5'>加速</b>方案

    Spark基于DPU的Native引擎算子卸載方案

    1.背景介紹 Apache Spark(以下簡(jiǎn)稱Spark)是一個(gè)開(kāi)源的分布式計(jì)算框架,由UC Berkeley AMP Lab開(kāi)發(fā),可用于批處理、交互式查詢(Spark SQL)、實(shí)時(shí)流處理
    的頭像 發(fā)表于 06-28 17:12 ?1009次閱讀
    <b class='flag-5'>Spark</b>基于<b class='flag-5'>DPU</b>的Native引擎算子卸載方案

    如何將CCS 3.x工程遷移至最新的Code Composer Studio? (CCS)

    電子發(fā)燒友網(wǎng)站提供《如何將CCS 3.x工程遷移至最新的Code Composer Studio? (CCS).pdf》資料免費(fèi)下載
    發(fā)表于 09-21 09:28 ?1次下載
    如何將CCS <b class='flag-5'>3.x</b>工程遷移至最新的Code Composer Studio? (CCS)

    TMS320C6201(修訂版2.x)至TMS320C6201B(修訂版3.x)

    電子發(fā)燒友網(wǎng)站提供《TMS320C6201(修訂版2.x)至TMS320C6201B(修訂版3.x).pdf》資料免費(fèi)下載
    發(fā)表于 10-26 09:21 ?0次下載
    TMS320C6201(修訂版2.<b class='flag-5'>x</b>)至TMS320C6201B(修訂版<b class='flag-5'>3.x</b>)

    瀾起科技推出PCIe 6.x/CXL 3.x Retimer芯片

    瀾起科技今日宣布推出其最新研發(fā)的PCIe 6.x/CXL 3.x Retimer芯片,并已向客戶成功送樣,旨在為人工智能和云計(jì)算等應(yīng)用場(chǎng)景提供性能更卓越的PCIe互連解決方案。這是瀾起科技繼成功推出
    的頭像 發(fā)表于 01-22 10:51 ?511次閱讀

    瀾起科技正式推出PCIe 6.x/CXL 3.x Retimer芯片

    瀾起科技近日正式對(duì)外宣布,其最新研發(fā)的PCIe? 6.x/CXL? 3.x Retimer芯片已成功問(wèn)世,并已順利向客戶送樣。這一創(chuàng)新成果標(biāo)志著瀾起科技在PCIe/CXL互連領(lǐng)域再次取得了重大突破
    的頭像 發(fā)表于 01-22 15:08 ?650次閱讀

    瀾起科技PCIe 6.x/CXL 3.x Retimer芯片面世

    瀾起科技近日宣布,其自主研發(fā)的PCIe 6.x/CXL 3.x Retimer芯片已成功面世,并已順利向客戶送樣。同時(shí),該公司正積極投入PCIe 7.0 Retimer芯片的研發(fā)工作,以滿足未來(lái)市場(chǎng)對(duì)高性能數(shù)據(jù)傳輸?shù)男枨蟆?/div>
    的頭像 發(fā)表于 01-23 16:29 ?499次閱讀