一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度神經(jīng)網(wǎng)絡(luò)變革發(fā)展迅速正對(duì)半導(dǎo)體IC設(shè)計(jì)與制造形成深刻的變革

lOsp_gh_4459220 ? 2018-02-03 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年業(yè)界在深度神經(jīng)網(wǎng)絡(luò)(DNN)技術(shù)發(fā)展上進(jìn)展迅速,正對(duì)半導(dǎo)體IC設(shè)計(jì)與制造形成深刻的變革,2018年全球首款商用化DNN專用芯片將開始出貨,或成為至今價(jià)格最高且最大的商用芯片,外界預(yù)期2018年將成為這類芯片相繼問世的一年,而過去幾年DNN技術(shù)開發(fā)的興起,也帶動(dòng)創(chuàng)投資金重回半導(dǎo)體產(chǎn)業(yè),可見近來(lái)基于新架構(gòu)的新創(chuàng)企業(yè)數(shù)量大增、達(dá)15家以上,這在過去10~15年來(lái)在單一產(chǎn)業(yè)領(lǐng)域未曾見過的景象。

據(jù)EE Times報(bào)導(dǎo),預(yù)計(jì)2018年可能見到如英特爾(Intel)收購(gòu)的2.5D Nervana芯片已在送樣,還有10多個(gè)處理器正在開發(fā)中,其它如人工智能(AI)新創(chuàng)企業(yè)Graphcore及其競(jìng)爭(zhēng)對(duì)手Cerebras Systems均可望推出自有芯片產(chǎn)品,威騰(WD)與安謀(ARM)等幾家芯片業(yè)者也在開發(fā)自有核心,用以加速深度神經(jīng)網(wǎng)絡(luò)的推論部分。

市場(chǎng)研究機(jī)構(gòu)The Linley Group負(fù)責(zé)人Linley Gwennap指出,NVIDIA在其最新繪圖芯片(GPU)「Volta」開發(fā)上表現(xiàn)非常出色,調(diào)整用于加速DNN訓(xùn)練,不過Gwennap不認(rèn)為這是最好的設(shè)計(jì)。

在訓(xùn)練芯片方面,英國(guó)Graphcore及美國(guó)加州Cerebras被視為是值得關(guān)注的公司,因擁有最好的團(tuán)隊(duì)且募得最多資金。由Google前芯片設(shè)計(jì)師創(chuàng)立的新創(chuàng)企業(yè)Groq計(jì)劃于2018年推出一款推論芯片,宣稱在每秒整體操作及推論效能表現(xiàn)上,比競(jìng)爭(zhēng)對(duì)手高出4倍。

代號(hào)「Lake Crest」的英特爾Nervana芯片則為一大值得關(guān)注的客制化設(shè)計(jì),與NVIDIA Volta相似的是,Lake Crest邏輯元件位在臺(tái)積電CoWoS中介層中,與4個(gè)HBM2高帶寬存儲(chǔ)器堆疊相鄰,這些芯片也被設(shè)計(jì)成網(wǎng)狀,提供比Volta高出5~10倍的效能表現(xiàn)。

雖然這類AI芯片將問世,不過芯片架構(gòu)師仍未決定應(yīng)如何進(jìn)行評(píng)估。加州大學(xué)柏克萊分校榮譽(yù)教授David Patterson指出,過去RISC供應(yīng)商在SPEC基準(zhǔn)測(cè)試上進(jìn)行合作,如今DNN加速器需要自行定義的測(cè)試套件,涵蓋一系列資料類型的訓(xùn)練、推論以及獨(dú)立且叢集的芯片。

因此由超過20家主要伺服器及軟件制造商組成的服務(wù)器效能評(píng)測(cè)標(biāo)準(zhǔn)組織(TPC),于2017年12月12日宣布已組成工作團(tuán)隊(duì),來(lái)定義機(jī)器學(xué)習(xí)的硬件及軟件基準(zhǔn),TPC-AI委員會(huì)主席Raghu Nambiar指出,目標(biāo)是要?jiǎng)?chuàng)建不論是以中央處理器(CPU)或GPU做為加速器都適用的測(cè)試。

基準(zhǔn)測(cè)試之外,工程師還需要追蹤仍在演化的神經(jīng)網(wǎng)絡(luò)算法,以確保其設(shè)計(jì)能獲得采用。高通(Qualcomm)下一代核心研發(fā)主任Karam Chatha表示,由于硬件將對(duì)軟件形成影響,在軟件總是在變化下,有及早推出硬件的必要性,至今行動(dòng)芯片供應(yīng)商在其Snapdragon系統(tǒng)單芯片(SoC)的DSP及GPU核心上的軟件運(yùn)行神經(jīng)網(wǎng)絡(luò)任務(wù),不過部分觀察家預(yù)期,高通將為2019年版7納米Snapdragon SoC客制化一款全新機(jī)器學(xué)習(xí)芯片。

隨著算法持續(xù)演進(jìn),研究人員也在擴(kuò)大深度學(xué)習(xí)的應(yīng)用面向,包括導(dǎo)入芯片設(shè)計(jì)及制造端,如英特爾匯整出超過40多項(xiàng)可能的用途領(lǐng)域,如華爾街采用的自動(dòng)化交易程序及消費(fèi)者在線消費(fèi)助理等應(yīng)用領(lǐng)域等。

另外,近期可見關(guān)于神經(jīng)網(wǎng)絡(luò)軟件技術(shù)的融合努力,如由Facebook與微軟(Microsoft)開啟的開放源計(jì)劃「開放神經(jīng)網(wǎng)絡(luò)交換」(QNNX)格式,有助將所創(chuàng)造的神經(jīng)網(wǎng)絡(luò)模型轉(zhuǎn)換成圖形(graphical)呈現(xiàn)方式,芯片制造商則能在最終圖形上鎖定期硬件,這對(duì)無(wú)法自行編寫軟件支持運(yùn)算模式架構(gòu)的新創(chuàng)企業(yè)如亞馬遜(Amazon)旗下MxNet、Google的TensorFlow、Facebook的Caffe2及微軟CNTK來(lái)說,自然是一好消息。

另由30多家主要芯片供應(yīng)商組成的團(tuán)體,也發(fā)布其「神經(jīng)網(wǎng)絡(luò)交換格式」(NNEF),旨在提供芯片制造商可創(chuàng)建自有內(nèi)部格式的替代解決方案,好比是NVIDIA的TensorRT及英特爾的Nervana Graph。

展望這類AI芯片發(fā)展前景,以半導(dǎo)體產(chǎn)業(yè)來(lái)看,Patterson指出,隨著英特爾、Graphcore及NVIDIA已開發(fā)出全標(biāo)線(full-reticle)芯片,下一階段則是發(fā)展3D技術(shù),過去在摩爾定律(Moore’s Law)發(fā)展火紅時(shí),基于憂心可靠性及成本問題,導(dǎo)致較復(fù)雜的封裝技術(shù)無(wú)法獲得采用青睞,但如今摩爾定律終止在即,將可在封裝技術(shù)上看到許多試驗(yàn)在進(jìn)行。最終是可開創(chuàng)出新形態(tài)的晶體管,可在邏輯與存儲(chǔ)器層上進(jìn)行On-Die堆疊。美國(guó)電子工程學(xué)界人士認(rèn)為,負(fù)電容鐵電晶體管技術(shù)或可能成為上述芯片技術(shù)的基礎(chǔ),與3D NAND相同的是均采On-Die堆疊技術(shù)。

另外,美國(guó)麻省理工學(xué)院(MIT)、柏克萊大學(xué)(UC Berkeley)與史丹佛大學(xué)(Stanford University)組成的學(xué)術(shù)團(tuán)隊(duì),也將于2月國(guó)際固態(tài)電路會(huì)議(ISSCC)上發(fā)表類似技術(shù)的先進(jìn)芯片架構(gòu),是將ReRAM結(jié)構(gòu)及碳納米管制成的邏輯元件堆疊于芯片中,此技術(shù)靈感來(lái)自于DNN、且被程序設(shè)計(jì)為近似模式,而非至今計(jì)算機(jī)采用過的確定性數(shù)字,這類芯片可從案例中進(jìn)行學(xué)習(xí),比傳統(tǒng)的系統(tǒng)所需操作要少得多,測(cè)試版芯片不久后將送交制造。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 半導(dǎo)體
    +關(guān)注

    關(guān)注

    335

    文章

    28918

    瀏覽量

    237937
  • IC
    IC
    +關(guān)注

    關(guān)注

    36

    文章

    6127

    瀏覽量

    179386
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103620

原文標(biāo)題:【IC設(shè)計(jì)】深度神經(jīng)網(wǎng)絡(luò)變革?引發(fā)AI芯片新混戰(zhàn)

文章出處:【微信號(hào):gh_44592200c847,微信公眾號(hào):gh_44592200c847】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?668次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    深度學(xué)習(xí)入門:簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1190次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    ANN神經(jīng)網(wǎng)絡(luò)——器件建模

    隨著半導(dǎo)體行業(yè)的新材料、新工藝、新器件的不斷發(fā)展,人工神經(jīng)網(wǎng)絡(luò)作為一種替代方法已經(jīng)被引入器件建模領(lǐng)域。本文介紹了ANN神經(jīng)網(wǎng)絡(luò)建模的起源、優(yōu)勢(shì)、實(shí)現(xiàn)方式和應(yīng)用場(chǎng)景。 ? 隨著
    的頭像 發(fā)表于 01-06 13:41 ?999次閱讀
    ANN<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>——器件建模

    IC China 2024 大語(yǔ)言模型加速半導(dǎo)體制造CIM2.0變革

    我國(guó)半導(dǎo)體行業(yè)年度最具權(quán)威和專業(yè)性的重大標(biāo)志性活動(dòng)。 智現(xiàn)未來(lái)作為中國(guó)本土唯一上線多條12吋量產(chǎn)產(chǎn)線的工程智能系統(tǒng)供應(yīng)商,熱情參與本次展會(huì)并在大會(huì)發(fā)表主旨演講,深度展示了以AI賦能的工程智能系統(tǒng)在半導(dǎo)體等高端
    的頭像 發(fā)表于 11-22 10:33 ?569次閱讀
    <b class='flag-5'>IC</b> China 2024 大語(yǔ)言模型加速<b class='flag-5'>半導(dǎo)體制造</b>CIM2.0<b class='flag-5'>變革</b>

    ESD靜電對(duì)半導(dǎo)體制造的影響

    半導(dǎo)體制造業(yè)是一個(gè)高度精密和復(fù)雜的行業(yè),它依賴于先進(jìn)的技術(shù)和嚴(yán)格的生產(chǎn)控制來(lái)制造微型電子元件。在這個(gè)過程中,靜電放電(ESD)是一個(gè)不可忽視的問題,因?yàn)樗赡?b class='flag-5'>對(duì)半導(dǎo)體器件的性能和可靠性產(chǎn)生重大
    的頭像 發(fā)表于 11-20 09:42 ?1668次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?671次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1872次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1128次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請(qǐng)繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)?“人工
    的頭像 發(fā)表于 11-01 08:06 ?666次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    半導(dǎo)體PN結(jié)的形成原理和主要特性

    半導(dǎo)體PN結(jié)的形成原理及其主要特性是半導(dǎo)體物理學(xué)中的重要內(nèi)容,對(duì)于理解半導(dǎo)體器件的工作原理和應(yīng)用具有重要意義。以下是對(duì)半導(dǎo)體PN結(jié)
    的頭像 發(fā)表于 09-24 18:01 ?4769次閱讀

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之一,在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度
    的頭像 發(fā)表于 07-24 10:42 ?1206次閱讀

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時(shí)。在本文中,我們將深入探討如何從頭開始構(gòu)建一個(gè)多層神經(jīng)網(wǎng)絡(luò)模型,包括模型設(shè)計(jì)、
    的頭像 發(fā)表于 07-19 17:19 ?1569次閱讀