一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于賽靈思FPGA的廣告推薦算法Wide and deep硬件加速案例

電子設(shè)計 ? 來源:雪湖科技 ? 作者:梅碧峰 ? 2020-11-27 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:雪湖科技 梅碧峰

在這篇文章里你可以了解到廣告推薦算法Wide and deep模型的相關(guān)知識和搭建方法,還能了解到模型優(yōu)化和評估的方式。我還為你準(zhǔn)備了將模型部署到賽靈思 FPGA上做硬件加速的方法,希望對你有幫助。閱讀這篇文章你可能需要20分鐘的時間。

早上起床打開音樂APP,會有今日歌單為你推薦一些歌曲。地鐵上閑來無事,刷一刷抖音等短視頻,讓枯燥的時光變得有趣。睡前打開購物APP,看一看今天是不是有新品上架。不知不覺大家已經(jīng)習(xí)慣了這些APP,不知道大家有沒有留意到為什么這些APP這么懂你,知道你喜歡聽什么音樂,喜歡看什么類型的短視頻,喜歡什么樣的商品?

這些APP都會有類似“猜你喜歡”這類欄目。在使用時會驚嘆“它怎么知道我喜歡這個?!”,當(dāng)然,也會有“我怎么可能喜歡這個?”的吐槽。其實這些推送都是由機器學(xué)習(xí)搭建的推薦系統(tǒng)預(yù)測的結(jié)果。今天就介紹一下推薦系統(tǒng)中的重要成員CTR預(yù)估模型,下面先讓大家對CTR預(yù)估模型有一個初步認識。

兩個名詞

CTR(Click-Through-Rate)點擊率:它是在一定時間內(nèi)點擊量/曝光量*100%,意味著投放了A條廣告有 A*CTR 條被點擊了。


ECPM(earning cost per mille):每1000次曝光帶來收入。ECPM=1000*CTR*單條廣告點擊價格。

舉個“栗”子

廣告A:點擊率4%,每個曝光1元錢,廣告B:點擊率1%,每個曝光5元錢。假如你要投放1000條廣告,你會選擇廣告A,還是廣告B?

直觀上來看,廣告A的點擊率高,當(dāng)然選擇投放廣告A。

那么:ECPM=1000*CTR*點擊出價

ECPM(A)=1000*4%*1=40

ECPM(B)=1000*1%*5=50

但是從ECPM指標(biāo)來看的話廣告B帶來的收益會更高,這就是廣告競拍的關(guān)鍵計算規(guī)則。

我們可以看到CTR是為廣告排序用的,對于計算ECPM來說,只有CTR是未知的,只要準(zhǔn)確得出CTR值就可以了。因此CTR預(yù)估也是廣告競拍系統(tǒng)的關(guān)鍵指標(biāo)。廣告系統(tǒng)的CTR預(yù)估在具體的數(shù)值上比推薦系統(tǒng)要求更高,比如推薦系統(tǒng)可能只需要知道A的CTR比B大就可以排序了,而廣告由于不是直接用CTR進行排序,還加上了出價,因此廣告系統(tǒng)不僅要知道A的CTR比B大,而且還需要知道A的CTR比B的CTR大多少。

再舉個“栗”子

如果廣告A:點擊率是5%,廣告B:點擊率也是5%,點擊價格也相同,該選擇廣告A還是廣告B?

點擊率相同,點擊價格也相同 ,得出ECPM也相同,該怎么選擇投放廣告A還是B呢?

此時就可以根據(jù)廣告屬性做針對性推薦,針對不同的人群,做合適的推薦。例如:廣告A是包,廣告B是游戲,可做針對性推薦。即:針對女人這一群體投放廣告A、針對男人這一群體投放廣告B,這樣則會提高總廣告收益率。

CTR模型是怎么得出結(jié)果的呢?

我們可以根據(jù)經(jīng)驗判斷決定廣告點擊率的屬性:廣告行業(yè)、用戶年齡、用戶性別等。由此可分為三類屬性:

User:年齡、性別、收入、興趣、工作等。

AD items:類別、價格、創(chuàng)意、實用等。

Others:時間、投放位置、投放頻率、當(dāng)前熱點等。

這些決定屬性在CTR預(yù)估模型中都叫做特征,而CTR預(yù)估模型中有一重要過程“特征工程”,將能影響點擊率的特征找到并進行處理,比如把特征變成0和1的二值化、把連續(xù)的特征離散化、把特征平滑化、向量化。這樣CTR模型相當(dāng)于是無數(shù)特征(x)的一個函數(shù),CTR=f(x1,x2,x3,x4,x5...),輸入歷史數(shù)據(jù)訓(xùn)練,不斷調(diào)整參數(shù)(超參數(shù)),模型根據(jù)輸入的數(shù)據(jù)不斷更新參數(shù)(權(quán)重),最終到迭代很多次,參數(shù)(權(quán)重)幾乎不變化。當(dāng)輸入新的數(shù)據(jù),就會預(yù)測該數(shù)據(jù)的結(jié)果,也就是點擊率了。

那么有沒有很好奇如何搭建并訓(xùn)練出一個好的CTR預(yù)估模型呢?

No.1、模型迭代過程

推薦系統(tǒng)這一場景常用的兩大分類:

CF-Based(協(xié)同過濾)、Content-Based(基于內(nèi)容的推薦)

協(xié)同過濾(collaborative ?ltering)就是指基于用戶的推薦,用戶A和B比較相似,那么A喜歡的B也可能喜歡。

基于內(nèi)容推薦是指物品item1和item2比較相似,那么喜歡item1的用戶多半也喜歡item2。

對于接下來的模型無論是傳統(tǒng)的機器學(xué)習(xí)還是結(jié)合現(xiàn)今火熱的深度學(xué)習(xí)模型都會針對場景需求構(gòu)建特征建模。

LR(Logistics Regression)==>

MLR(Mixed Logistic Regression)==>

LR+GBDT(Gradient Boost Decision Tree)==>

LR+DNN(Deep Neural Networks)即Wide&Deep==>

1.1、LR

所謂推薦也就離不開Rank這一問題,如何講不同的特征組通過一個表達式計算出分數(shù)的高低并排序是推薦的核心問題。通過線性回歸的方式找到一組滿足這一規(guī)律的參數(shù),公式如下:


再通過sigmoid函數(shù)將輸出映射到(0,1)之間,得出二分類概率值。


LR模型一直是CTR預(yù)估的benchmark模型,原理通俗易懂、可解釋性強。但是當(dāng)特征與特征之間、特征與目標(biāo)之間存在非線性關(guān)系時,模型效果就會大打折扣。因此模型十分依賴人們根據(jù)經(jīng)驗提取、構(gòu)建特征。另外,LR模型不能處理組合特征,例如:年齡和性別的組合,不同年齡段不同性別對目標(biāo)的偏愛程度會不相同,但是模型無法自動挖掘這一隱含信息,依賴人工根據(jù)經(jīng)驗組合特征。這也直接使得它表達能力受限,基本上只能處理線性可分或近似線性可分的問題。

為了讓線性模型能夠?qū)W習(xí)到原始特征與擬合目標(biāo)之間的非線性關(guān)系,通常需要對原始特征做一些非線性轉(zhuǎn)換。常用的轉(zhuǎn)換方法包括:連續(xù)特征離散化、向量化、特征之間的交叉等。稍后會介紹為什么這樣處理。

1.2、MLR

它相當(dāng)于聚類+LR的形式。將X聚成m類,之后把每個類單獨訓(xùn)練一個LR。MLR相較于LR有更好的非線性表達能力,是LR的一種拓展。

我們知道softmax的公式:


將x進行聚類,即得拓展之后的模型公式:


當(dāng)聚類數(shù)目m=1時,退化為LR。m越大,模型的擬合能力越強,m根據(jù)具體訓(xùn)練數(shù)據(jù)分布來設(shè)置。

圖1:MLR 模型結(jié)構(gòu)

但是MLR與LR一樣,同樣需要人工特征工程處理,由于目標(biāo)函數(shù)是非凸函數(shù)(易陷入局部最優(yōu)解),需要預(yù)訓(xùn)練,不然可能會不收斂,得不到好的模型。

1.3、LR+GBDT

顧名思義LR模型和GBDT模型組合。GBDT可做回歸與分類,這個看自己的需求。在CTR預(yù)估這一任務(wù)中要使用的是回歸樹而非決策樹。梯度提升也就是朝著梯度下降的方向上建樹,通過不斷更新弱分類器,得到強分類器的過程。 每一子樹都是學(xué)習(xí)之前樹的結(jié)論和的殘差,通過最小化 log 損失函數(shù)找到最準(zhǔn)確的分支,直到所有葉子節(jié)點的值唯一 ,或者達到樹的深度達到預(yù)設(shè)值。如果某葉子節(jié)點上的值不唯一,計算平均值作為預(yù)測值輸出。

LR+GBDT:

Facebook 率先提出用GBDT模型解決LR模型的組合特征問題。特征工程分為兩部分,一部分特征通過GBDT模型訓(xùn)練,把每顆樹的葉子節(jié)點作為新特征,加入原始特征中,再用LR得到最終的模型。

GBDT模型能夠?qū)W習(xí)高階非線性特征組合,對應(yīng)樹的一條路徑(用葉子節(jié)點來表示)。通常用GBDT模型訓(xùn)練連續(xù)值特征、值空間不大(value種類較少)的特征,空間很大的特征在LR模型中訓(xùn)練。這樣就能把高階特征進行組合,同時又能利用線性模型處理大規(guī)模稀疏特征。

圖2:LR+GBDT 模型結(jié)構(gòu)圖

1.4、LR+DNN(Wide&Deep)

先回想一下我們學(xué)習(xí)的過程。從出生時代,不斷學(xué)習(xí)歷史知識,通過記憶達到見多識廣的效果。然后通過歷史知識泛化(generalize)到之前沒見過的。但是泛化的結(jié)果不一定都準(zhǔn)確。記憶(memorization)又可以修正泛化的規(guī)則(generalized rules),作為特殊去處理。這就是通過Memorization和Generalization的學(xué)習(xí)方式。

推薦系統(tǒng)需要解決兩個問題:

記憶能力: 比如通過歷史數(shù)據(jù)知道“喜歡吃水煮魚”的人也“喜歡吃回鍋肉”,當(dāng)輸入為“喜歡吃水煮魚”,推出“喜歡吃回鍋肉”。

泛化能力: 推斷在歷史數(shù)據(jù)中從未見過的情形,“喜歡吃水煮魚”,“喜歡吃回鍋肉”,推出喜歡吃川菜,進而推薦出其他川菜。

但是,模型普遍都存在兩個問題:

a) 偏向于提取低階或者高階的組合特征,不能同時提取這兩種類型的特征。

b) 需要專業(yè)的領(lǐng)域知識來做特征工程。

線性模型結(jié)合深度神經(jīng)網(wǎng)絡(luò)為什么叫做wide and deep呢?

無論是線性模型、梯度下降樹、因子分解機模型,都是通過不斷學(xué)習(xí)歷史數(shù)據(jù)特征,來適應(yīng)新的數(shù)據(jù),預(yù)測出新數(shù)據(jù)的表現(xiàn)。這說明模型要具備一個基本特征記憶能力,也就是wide 部分。

但是當(dāng)輸入一些之前沒有學(xué)習(xí)過的數(shù)據(jù),此時模型表現(xiàn)卻不優(yōu)秀,不能根據(jù)歷史數(shù)據(jù),有機組合,推出新的正確結(jié)論。此時單單依賴記憶能力是不夠的。深度學(xué)習(xí)卻可以構(gòu)建多層隱層通過FC(全連接)的方式挖掘到特征與特征之間的深度隱藏的信息,來提高模型的泛化能力,也就是deep部分。將這兩部分的輸出通過邏輯回歸,得出預(yù)測類別。

圖3:Wide & Deep 模型結(jié)構(gòu)圖

它混合了一個線性模型(Wide part)和Deep模型(Deep part)。這兩部分模型需要不同的輸入,而Wide part部分的輸入,依舊依賴人工特征工程。本質(zhì)上是線性模型(左邊部分, Wide model)和DNN的融合(右邊部分,Deep Model)。

對于歷史數(shù)據(jù)特征保證一定的記憶能力,對于新的數(shù)據(jù)特征擁有推理泛化能力。較大地提高了預(yù)測的準(zhǔn)確率,這也是一次大膽的嘗試,在推薦系統(tǒng)中引入深度學(xué)習(xí),在之后的CTR模型發(fā)展中大多也都是按照此設(shè)計思路進行的。

1.5、數(shù)據(jù)處理

CTR預(yù)估數(shù)據(jù)特點:

a) 輸入中包含類別型和連續(xù)型數(shù)據(jù)。類別型數(shù)據(jù)需要one-hot(獨熱編碼),連續(xù)型數(shù)據(jù)可以先離散化再one-hot,也可以直接保留原值。

b) 維度非常高,特征值特別多。

c) 數(shù)據(jù)非常稀疏。如:city包含各種不同的地方。

d) 特征按照Field分組。如:city、brand、category等都屬于一個Field,或者將這些Field拆分為多個Fidld。

e) 正負樣本不均衡。點擊率一般都比較小,大量負樣本存在。

如何高效的提取這些組合特征?CTR預(yù)估重點在于學(xué)習(xí)組合特征。注意,組合特征包括二階、三階甚至更高階的,復(fù)雜的特征,網(wǎng)絡(luò)不太容易學(xué)習(xí)、表達。一般做法是人工設(shè)置相關(guān)知識,進行特征工程。但是這樣做會非常耗費人力,另外人工引入知識也不能做到全面。

1.6、模型搭建

以Wide and Deep為例,介紹網(wǎng)絡(luò)的搭建。在tensorflow.estimator下有構(gòu)建好的API,使用方法如下:

Wide中不斷提到這樣一種變換用來生成組合特征:

tf.feature_column.categorical_column_with_vocabulary_list(file)()。知道所有的不同取值,而且取值不多??梢酝ㄟ^list或者file的形式,列出需要訓(xùn)練的value。

tf.feature_column.categorical_column_with_hash_bucket(),不知道所有不同取值,或者取值多。

通過hash的方式,生成對應(yīng)的hash_size個值,但是可能會出現(xiàn)哈希沖突的問題,一般不會產(chǎn)生什么影響。

tf.feature_column.numeric_column(),對number類型的數(shù)據(jù)進行直接映射。一般會對number類型feature做歸一化,標(biāo)準(zhǔn)化。

tf.feature_column.bucketized_column(),分桶離散化構(gòu)造為sparse特征。這種做法的優(yōu)點是模型可解釋高,實現(xiàn)快速高效,特征重要度易于分析。特征分區(qū)間之后,每個區(qū)間上目標(biāo)(y)的分布可能是不同的,從而每個區(qū)間對應(yīng)的新特征在模型訓(xùn)練結(jié)束后都能擁有獨立的權(quán)重系數(shù)。特征離散化相當(dāng)于把線性函數(shù)變成了分段線性函數(shù),從而引入了非線性結(jié)構(gòu)。比如不同年齡段的用戶的行為模式可能是不同的,但是并不意味著年齡越大就對擬合目標(biāo)(比如,點擊率)的貢獻越大,因此直接把年齡作為特征值訓(xùn)練就不合適。而把年齡分段(分桶處理)后,模型就能夠?qū)W習(xí)到不同年齡段的用戶的不同偏好模式。

tf.feature_column.indicator_column(),離散類型數(shù)據(jù)轉(zhuǎn)換查找,將類別型數(shù)據(jù)進行one-hot,稀疏變量轉(zhuǎn)換為稠密變量。

tf.feature_column.embedding_column(),(加深feature維度,將特征向量化,可使模型學(xué)到深層次信息),對于RNN中有tf.nn.embedding_lookup(),將文字信息轉(zhuǎn)為向量,具體算法可以自行查一下。

離散化的其他好處還包括對數(shù)據(jù)中的噪音有更好的魯棒性(異常值也落在一個劃分區(qū)間,異常值本身的大小不會過度影響模型預(yù)測結(jié)果);離散化還使得模型更加穩(wěn)定,特征值本身的微小變化(只有還落在原來的劃分區(qū)間)不會引起模型預(yù)測值的變化。

tf.feature_column.crossed_column(),構(gòu)建交叉類別,將兩個或者兩個以上的features根據(jù)hash值拼接,對hash_key(交叉類別數(shù))取余。特征交叉是另一種常用的引入非線性性的特征工程方法。通常CTR預(yù)估涉及到用戶、物品、上下文等幾方面的特征,有時某個單個feature對目標(biāo)判定的影響會較小,而多種類型的features組合在一起就能夠?qū)δ繕?biāo)的判定產(chǎn)生較大的影響。比如user的性別和item的類別交叉就能夠刻畫例如“女性偏愛女裝”,“男性喜歡男裝”的知識。交叉類別可以把領(lǐng)域知識(先驗知識)融入模型。

Deep部分,通過build_columns(),得到可分別得到wide 和deep部分,通過tf.estimator.DNNLinearCombinedClassifier(),可設(shè)置隱藏層層數(shù),節(jié)點數(shù),優(yōu)化方法(dnn中Adagrad,linear中Ftrl),dropout ,BN,激活函數(shù)等。將linear和dnn連接起來。將點擊率設(shè)置為lebel1,從經(jīng)驗實測效果上說,理論原因這里就不贅述了。

將訓(xùn)練數(shù)據(jù)序列化為protobuf格式,加快io時間,設(shè)置batch_size、epoch等參數(shù)就可以訓(xùn)練模型了。

No.2、模型優(yōu)化

對于不同數(shù)據(jù),選用不同的features,不同的數(shù)據(jù)清理方式,模型效果也會有不同,通過測試集驗證模型評價指標(biāo),對于CTR預(yù)估模型來說,AUC是關(guān)鍵指標(biāo)(稍后介紹)。同時監(jiān)測查準(zhǔn)(precision),查全率(recall),確定模型需要優(yōu)化的方向,對于正負不均衡情況還可以加大小樣本的權(quán)重系數(shù)。

一般來說,AUC指標(biāo)可以達到0.7-0.8。當(dāng)AUC在這個范圍時,如果準(zhǔn)確率較低,說明模型效果還有待提高,可以調(diào)整隱藏層數(shù)目(3-5)層和節(jié)點數(shù)(2**n,具體看自己的features輸出維度),構(gòu)建組合特征,構(gòu)建交叉特征。學(xué)習(xí)率可設(shè)置一個稍微大點的初始值,然后設(shè)置逐漸衰減的學(xué)習(xí)率,加快收斂。優(yōu)化手段千變?nèi)f化,掌握其本質(zhì),在盡可能學(xué)習(xí)到更多的特征性避免過擬合。具體優(yōu)化優(yōu)化方法由模型的表現(xiàn)來決定。

No.3、模型評估

AUC(Area under Curve):Roc曲線下的面積,介于0.5和1之間。AUC作為數(shù)值可以直觀的評價分類器的好壞,值越大越好。

直觀理解就是:AUC是一個概率值,當(dāng)你隨機挑選一個正樣本以及負樣本,當(dāng)前的分類算法根據(jù)計算得到的Score值將這個正樣本排在負樣本前面的概率就是AUC值,AUC值越大,當(dāng)前分類算法越有可能將正樣本排在負樣本前面,從而能夠更好地分類。

下表是經(jīng)過調(diào)整后,不同算法實現(xiàn)的模型效果對比表:

圖4:模型效果對比表

不斷優(yōu)化后得出幾個模型的不同效果,將每一次廣告曝光按照預(yù)測的CTR從小到大排序,可以根據(jù)預(yù)測的CTR值根據(jù)ECPM公式,按照單位曝光量統(tǒng)計出預(yù)估的ECPM和真實的ECMP進行比較,就可以知道預(yù)估的CTR值是否可靠了。正確預(yù)估CTR是為了把真正高CTR的廣告挑出并展示出來么,錯誤地預(yù)估——把高的CTR低估或把低的CTR高估都會讓高的ECPM不會排在最前面。在實際的實踐過程中,CTR預(yù)測正確通常ECPM、CTR、收入這些指標(biāo)通常都會漲。

No.4、模型部署

通常對于AI算法模型都是通過GPU服務(wù)器部署模型,但是對于推薦系統(tǒng)類算法邏輯計算較多,在速度上反而沒有優(yōu)勢,部署成本也比較高,經(jīng)濟性很差。所以大都通過CPU云服務(wù)器部署,但是速度又不夠理想。那么有沒有另外一種可能?

答案是肯定的,可以通過FPGA+CPU的方式,大型推薦系統(tǒng)的上線都是通過云端部署,同時用在線和離線方式更新模型。雪湖科技FPGA開發(fā)團隊把以Wide and Deep為基礎(chǔ)網(wǎng)絡(luò)的模型移植到阿里云FPGA服務(wù)器F3(FPGA:賽靈思 VU9P)上,用戶可以通過鏡像文件部署。根據(jù)最近的更新數(shù)據(jù)顯示,模型精度損失可控制在十萬分之二。相較于CPU服務(wù)器,F(xiàn)PGA服務(wù)器的吞吐量提高了3~5倍。當(dāng)模型更新時,通過雪湖科技提供的工具可直接載入模型參數(shù),可做到一鍵式更新模型參數(shù)。

No.5、CTR模型發(fā)展

Wide&Deep 雖然效果很好,但是隨著算法的不斷迭代基于Wide&Deep 模型思想,有很多新的模型被開發(fā)出來,基本思想是用FM、FFM代替LR部分,通過串聯(lián)或者并聯(lián)的方式與DNN部分組合成新的模型,例如FNN,PNN,DeepFM,DeepFFM,AFM,DeepCross等等,雪湖科技公司也致力于將所有CTR預(yù)估模型都完美兼容,在保證精度的前提下,增大吞吐量。

作者介紹:
本文作者為雪湖科技算法工程師 梅碧峰,現(xiàn)負責(zé)人工智能算法開發(fā)。在AI算法領(lǐng)域工作超過5年,喜歡戴著Sony降噪耳機埋頭研究各類算法模型。理想主義的現(xiàn)實工作者,致力于用算法解放人工,實現(xiàn)1+1>2的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1645

    文章

    22050

    瀏覽量

    618502
  • 賽靈思
    +關(guān)注

    關(guān)注

    33

    文章

    1797

    瀏覽量

    132359
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134620
  • 硬件加速
    +關(guān)注

    關(guān)注

    0

    文章

    29

    瀏覽量

    11307
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    與南京大學(xué)集成電路學(xué)院暑期課程圓滿結(jié)課

    近日,由國產(chǎn)FPGA領(lǐng)軍企業(yè)易與南京大學(xué)集成電路學(xué)院聯(lián)合舉辦的“深度學(xué)習(xí)與硬件加速”暑期課程圓滿結(jié)課。本次課程為期5天(7月7日至7月11日),面向大三本科生,旨在通過理論與實踐結(jié)
    的頭像 發(fā)表于 07-17 11:33 ?324次閱讀

    基于FPGA的壓縮算法加速實現(xiàn)

    本設(shè)計中,計劃實現(xiàn)對文件的壓縮及解壓,同時優(yōu)化壓縮中所涉及的信號處理和計算密集型功能,實現(xiàn)對其的加速處理。本設(shè)計的最終目標(biāo)是證明在充分并行化的硬件體系結(jié)構(gòu) FPGA 上實現(xiàn)該算法時,可
    的頭像 發(fā)表于 07-10 11:09 ?749次閱讀
    基于<b class='flag-5'>FPGA</b>的壓縮<b class='flag-5'>算法</b><b class='flag-5'>加速</b>實現(xiàn)

    國產(chǎn)EDA億?接入DeepSeek

    國產(chǎn)EDA軟件億(eLinx)軟件接入DeepSeek,為EDA行業(yè)注入變革性力量,開啟FPGA應(yīng)用開發(fā)的嶄新篇章。通過集成DeepSeek插件,eLinx軟件構(gòu)建起連接FPGA
    的頭像 發(fā)表于 02-21 17:26 ?1023次閱讀
    國產(chǎn)EDA億<b class='flag-5'>靈</b><b class='flag-5'>思</b>?接入DeepSeek

    數(shù)據(jù)中心中的FPGA硬件加速

    ? 再來看一篇FPGA的綜述,我們都知道微軟包括國內(nèi)的云廠商其實都在數(shù)據(jù)中心的服務(wù)器中部署了FPGA,所以這篇論文就以數(shù)據(jù)中心的視角,來看下FPGA這個硬件加速器。 還是一樣,想要論文
    的頭像 發(fā)表于 01-14 10:29 ?662次閱讀
    數(shù)據(jù)中心中的<b class='flag-5'>FPGA</b><b class='flag-5'>硬件加速</b>器

    低溫失效的原因,有沒有別的方法或者一些見解?

    低溫失效的原因,有沒有別的方法或者一些見解。就是芯片工作溫度在100°--40°區(qū)間,然后呢我們到了0°以下就不工作了,然后在低溫的情況下監(jiān)測了電流和電壓都正常,頻率也都正常,頻率不是F
    發(fā)表于 12-30 16:28

    FPGA產(chǎn)品的主要特點

    近年來,全球半導(dǎo)體供應(yīng)鏈屢受挑戰(zhàn),芯片短缺問題一度對行業(yè)產(chǎn)生深遠影響。易通過優(yōu)化供應(yīng)鏈管理、強化產(chǎn)能規(guī)劃,確??蛻舻?b class='flag-5'>FPGA需求得到及時滿足。面向工業(yè)控制、機器視覺、醫(yī)療影像、消費電子、汽車智駕等一眾終端領(lǐng)域,易
    的頭像 發(fā)表于 12-04 14:20 ?1530次閱讀
    易<b class='flag-5'>靈</b><b class='flag-5'>思</b><b class='flag-5'>FPGA</b>產(chǎn)品的主要特點

    基于Xilinx XCKU115的半高PCIe x8 硬件加速

    基于Xilinx XCKU115的半高PCIe x8 硬件加速卡,支持2x72bit(數(shù)據(jù)位寬64bit+ECC)DDR4存儲,數(shù)據(jù)傳輸速率 2400Mb/s。DDR4單簇容量4GB,兩組總?cè)萘繛?GB
    的頭像 發(fā)表于 11-14 11:30 ?799次閱讀
    基于Xilinx XCKU115的半高PCIe x8 <b class='flag-5'>硬件加速</b>卡

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于
    的頭像 發(fā)表于 10-25 09:22 ?1234次閱讀

    RISC-V跑AI算法加速嗎?

    現(xiàn)在好多ARM單片機都帶機器學(xué)習(xí)加速,RISC-V有這方面的硬件加速嗎?
    發(fā)表于 10-10 22:14

    TDA4VM上的硬件加速運動恢復(fù)結(jié)構(gòu)算法

    電子發(fā)燒友網(wǎng)站提供《TDA4VM上的硬件加速運動恢復(fù)結(jié)構(gòu)算法.pdf》資料免費下載
    發(fā)表于 09-24 11:39 ?0次下載
    TDA4VM上的<b class='flag-5'>硬件加速</b>運動恢復(fù)結(jié)構(gòu)<b class='flag-5'>算法</b>

    AM62A SoC通過硬件加速視覺處理改進條形碼讀取器

    電子發(fā)燒友網(wǎng)站提供《AM62A SoC通過硬件加速視覺處理改進條形碼讀取器.pdf》資料免費下載
    發(fā)表于 09-04 09:52 ?0次下載
    AM62A SoC通過<b class='flag-5'>硬件加速</b>視覺處理改進條形碼讀取器

    萊迪Propel工具套件加速FPGA應(yīng)用開發(fā)

    許多嵌入式系統(tǒng)的開發(fā)者都對使用基于FPGA的SoC系統(tǒng)感興趣,但是基于傳統(tǒng)HDL硬件描述語言的FPGA開發(fā)工具和復(fù)雜流程往往會令他們望而卻步。為了解決這一問題,萊迪的Propel工具
    的頭像 發(fā)表于 08-30 17:23 ?1383次閱讀

    適用于數(shù)據(jù)中心應(yīng)用中的硬件加速器的直流/直流轉(zhuǎn)換器解決方案

    電子發(fā)燒友網(wǎng)站提供《適用于數(shù)據(jù)中心應(yīng)用中的硬件加速器的直流/直流轉(zhuǎn)換器解決方案.pdf》資料免費下載
    發(fā)表于 08-26 09:38 ?0次下載
    適用于數(shù)據(jù)中心應(yīng)用中的<b class='flag-5'>硬件加速</b>器的直流/直流轉(zhuǎn)換器解決方案

    爾芯題正式發(fā)布,邀你共戰(zhàn)EDA精英挑戰(zhàn)

    全新的挑戰(zhàn)。今年的題,我們更加聚焦于數(shù)字集成電路設(shè)計的核心領(lǐng)域,直擊當(dāng)前超大規(guī)模設(shè)計下硬件仿真的技術(shù)難點:設(shè)計并優(yōu)化一種高效的超圖分割算法。該技術(shù)可以加速設(shè)計驗
    的頭像 發(fā)表于 08-03 08:24 ?1114次閱讀
    <b class='flag-5'>思</b>爾芯<b class='flag-5'>賽</b>題正式發(fā)布,邀你共戰(zhàn)EDA精英挑戰(zhàn)<b class='flag-5'>賽</b>!

    FPGA與MCU的應(yīng)用場景

    使用FPGA可以提供定制化的硬件加速方案。通過將算法映射到FPGA硬件邏輯上,可以實現(xiàn)遠超軟件實現(xiàn)的性能提升。
    發(fā)表于 07-29 15:45