一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對話式LLM用于硬件設(shè)計

sanyue7758 ? 來源:ScienceAI ? 2023-06-15 09:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

通常,開發(fā)任何類型的硬件(包括芯片,作為電子設(shè)備大腦的微小電子元件),都是從用正常語言描述硬件應(yīng)該做什么開始的。然后,經(jīng)過專門訓(xùn)練的工程師將該描述翻譯成硬件描述語言(HDL),例如 Verilog,以創(chuàng)建允許硬件執(zhí)行其任務(wù)的實際電路元件。

自動化此翻譯可以減少工程過程中的人為錯誤來源。但是,直到最近,AI 才展示了基于機器的端到端設(shè)計翻譯的能力。一些大型語言模型(LLM),如 OpenAI 的 ChatGPT 和谷歌的 Bard,聲稱能夠生成各種編程語言的代碼;但它們在硬件設(shè)計中的應(yīng)用尚未得到廣泛研究。

近日,來自紐約大學(xué)和新南威爾士大學(xué)的研究團隊使用簡單的英語「對話」與 AI 模型制造了一個微處理芯片,這是一項史無前例的成就,可以加快芯片開發(fā)速度,并允許沒有專業(yè)技術(shù)技能的個人設(shè)計芯片。

研究團隊展示了兩名硬件工程師如何用標(biāo)準(zhǔn)英語與 ChatGPT-4「交談」,以設(shè)計一種新型微處理器架構(gòu)。然后,研究人員將設(shè)計送去制造。

在該研究中,LLM 能夠通過來回對話生成可行的 Verilog。隨后將基準(zhǔn)測試和處理器發(fā)送到 Skywater 130 納米穿梭機上進行流片(tapeout)。

研究共同作者 Hammond Pearce 說:「我們認(rèn)為這項研究產(chǎn)生了第一個完全由 AI 生成的 HDL,用于制造物理芯片。這項研究表明,AI 也可以使硬件制造受益,特別是當(dāng)它被用于對話時,你可以來回地完善設(shè)計?!?/p>

研究背景

隨著數(shù)字設(shè)計的能力和復(fù)雜性不斷增長,集成電路 (IC) 計算機輔助設(shè)計 (CAD) 中的軟件組件已在整個電子設(shè)計自動化流程中采用機器學(xué)習(xí) (ML)。傳統(tǒng)方法試圖對每個過程進行正式建模,而基于 ML 的方法則側(cè)重于識別和利用可概括的高級特征或模式——這意味著 ML 可以增強甚至取代某些工具。盡管如此,IC CAD 中的 ML 研究仍傾向于關(guān)注后端過程。

在此,研究團隊探索了將新興類型的 ML 模型應(yīng)用于硬件設(shè)計過程的早期階段時面臨的挑戰(zhàn)和機遇:硬件描述語言 (HDL) 本身的編寫。

雖然硬件設(shè)計以 HDL 表示,但它們實際上以自然語言(例如英語需求文檔)提供的規(guī)范開始設(shè)計 lifecycle。將這些轉(zhuǎn)換為適當(dāng)?shù)?HDL(例如 Verilog)的過程必須由硬件工程師完成,這既耗時又容易出錯。使用高級合成工具等替代途徑可以讓開發(fā)人員使用 C 語言等高級語言指定功能,但這些方法是以犧牲硬件效率為代價的。這激發(fā)了對 AI 或基于 ML 的工具的探索,將其作為將規(guī)范轉(zhuǎn)換為 HDL 的替代途徑。

最新的 LLM (如 OpenAI 的 ChatGPT 和 Google 的 Bard)為其功能提供了不同的「會話」聊天界面。

會話式 LLM 用于迭代設(shè)計硬件

受 LLM 發(fā)展的啟發(fā),研究人員提出以下問題:將這些工具集成到 HDL 開發(fā)過程中有哪些潛在優(yōu)勢和障礙?

為了理解這項新興技術(shù)的重要性,進行像這樣的觀察性研究至關(guān)重要。對會話式 LLM 對硬件設(shè)計的影響的調(diào)查既相關(guān)又及時。

0fde548e-0ac6-11ee-962d-dac502259ad0.png

圖 1:會話式 LLM 能否用于迭代設(shè)計硬件?(來源:論文)

該研究的貢獻如下:

首次對對話式 LLM 在硬件設(shè)計中的使用進行了研究。

開發(fā)基準(zhǔn)以評估 LLM 在功能硬件開發(fā)和驗證方面的能力。

利用 ChatGPT-4,對硬件中復(fù)雜應(yīng)用程序的端到端協(xié)同設(shè)計進行觀察性研究。

首次使用 AI 為流片編寫完整的 HDL,實現(xiàn)了一個重要的里程碑。

為在硬件相關(guān)任務(wù)中有效利用尖端會話 LLM 提供實用建議。

研究人員進行了兩個對話實驗。第一個實驗涉及預(yù)定義的對話流程和一系列基準(zhǔn)挑戰(zhàn),而第二個實驗需要一個開放式的「自由聊天」方法,LLM 在一個更大的項目中擔(dān)任聯(lián)合設(shè)計師。

從本質(zhì)上講,有無數(shù)種方法可以與對話模型「聊天」。為了探索使用會話式 LLM 實現(xiàn)「標(biāo)準(zhǔn)化」和「自動化」流程的潛力,研究人員定義了一個嚴(yán)格的「腳本化」對話基于一系列基準(zhǔn)。

然后,研究人員使用一致的指標(biāo)評估一系列 LLM,根據(jù)通過附帶測試平臺所需的指令水平確定對話的相對成功或失敗。然而,雖然對話流在結(jié)構(gòu)上保持相同,但它在測試運行之間固有地存在一些差異,這取決于評估者需要決定 (a) 每個步驟中需要什么反饋,以及 (b) 如何格式化人類反饋。

下圖詳細(xì)說明了與 LLM 對話以創(chuàng)建硬件基準(zhǔn)的一般流程。

10015d9e-0ac6-11ee-962d-dac502259ad0.png

圖 2:簡化的 LLM 對話流程圖。(來源:論文)

真實世界的硬件設(shè)計具有更廣泛和更復(fù)雜的要求??紤]到以前使用的方法時,這是一個挑戰(zhàn),該方法編寫并限制了人類與 LLM 交互的方式。然而,鑒于不同層次的人類反饋相對成功,研究人員試圖研究非結(jié)構(gòu)化對話是否可以帶來更高水平的表現(xiàn)和相互創(chuàng)造力。對此進行調(diào)查通常會通過大規(guī)模的用戶研究來完成,硬件工程師在開發(fā)過程中會與該工具配對。研究目標(biāo)是通過執(zhí)行概念驗證實驗來推動硬件領(lǐng)域的此類研究,將 ChatGPT-4 與經(jīng)驗豐富的硬件設(shè)計工程師(論文作者之一)配對, 并在執(zhí)行更復(fù)雜的設(shè)計任務(wù)時定性地檢查結(jié)果。

挑戰(zhàn)與機會

挑戰(zhàn):雖然很明顯,使用對話式 LLM 來協(xié)助設(shè)計和實現(xiàn)硬件設(shè)備總體上是有益的,但該技術(shù)尚不能僅通過驗證工具的反饋來一致地設(shè)計硬件。當(dāng)前最先進的模型在理解和修復(fù)這些工具出現(xiàn)的錯誤方面表現(xiàn)不夠好,無法僅通過初始人機交互來創(chuàng)建完整的設(shè)計和測試平臺。

機會:盡管如此,當(dāng)人類反饋被提供給功能更強大的 ChatGPT-4 模型,或者用于協(xié)同設(shè)計時,語言模型似乎是一個「力量倍增器」,允許快速設(shè)計空間探索和迭代??偟膩碚f,ChatGPT-4 可以生成功能正確的代碼,這可以在實現(xiàn)通用模塊時節(jié)省設(shè)計人員的時間。

未來可能的工作可能涉及更大規(guī)模的用戶研究以調(diào)查這種潛力,以及開發(fā)特定于硬件設(shè)計的會話式 LLM 以改進結(jié)果。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • HDL語言
    +關(guān)注

    關(guān)注

    0

    文章

    48

    瀏覽量

    9169
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1210

    瀏覽量

    8952
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1590

    瀏覽量

    9129
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    325

    瀏覽量

    853

原文標(biāo)題:對話式 LLM 用于硬件設(shè)計,首個完全由 AI 輔助創(chuàng)建的微處理芯片誕生

文章出處:【微信號:處芯積律,微信公眾號:處芯積律】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【比特熊充電?!繉崙?zhàn)演練構(gòu)建LLM對話引擎

    大模型時代,安全問題不容小覷。但如果把大模型比作孫悟空,那 NVIDIA NeMo Guardrails 就是“安全護欄”,可以輕松的為基于 LLM對話系統(tǒng)添加可編程護欄,來避免大語言模型輸出
    的頭像 發(fā)表于 09-19 13:40 ?1351次閱讀
    【比特熊充電?!繉崙?zhàn)演練構(gòu)建<b class='flag-5'>LLM</b><b class='flag-5'>對話</b>引擎

    對比解碼在LLM上的應(yīng)用

    為了改進LLM的推理能力,University of California聯(lián)合Meta AI實驗室提出將Contrastive Decoding應(yīng)用于多種任務(wù)的LLM方法。實驗表明,所提方法能有效改進
    發(fā)表于 09-21 11:37 ?933次閱讀
    對比解碼在<b class='flag-5'>LLM</b>上的應(yīng)用

    對話系統(tǒng)最原始的實現(xiàn)方式 檢索對話

    檢索對話作為對話系統(tǒng)最原始的實現(xiàn)方式,又蘊涵著什么有意思的東西,我們來看看。 什么是對話系統(tǒng) 對話從來就不是一個簡單的任務(wù),這是一個涉及理
    的頭像 發(fā)表于 09-25 17:08 ?2624次閱讀
    <b class='flag-5'>對話</b>系統(tǒng)最原始的實現(xiàn)方式   檢索<b class='flag-5'>式</b><b class='flag-5'>對話</b>

    Chameo:對話人工智能

    電子發(fā)燒友網(wǎng)站提供《Chameo:對話人工智能.zip》資料免費下載
    發(fā)表于 11-10 09:56 ?0次下載
    Chameo:<b class='flag-5'>對話</b><b class='flag-5'>式</b>人工智能

    用于各種NLP任務(wù)的開源LLM的finetune教程~

    ChatGLM2-6b是清華開源的小尺寸LLM,只需要一塊普通的顯卡(32G較穩(wěn)妥)即可推理和微調(diào),是目前社區(qū)非?;钴S的一個開源LLM。
    的頭像 發(fā)表于 07-24 09:04 ?2065次閱讀
    適<b class='flag-5'>用于</b>各種NLP任務(wù)的開源<b class='flag-5'>LLM</b>的finetune教程~

    Stability AI發(fā)布首個用于編程的生成LLM AI產(chǎn)品—StableCode

    Stability AI 近日宣布了他們首個用于編程的生成 LLM AI 產(chǎn)品 ——StableCode。該產(chǎn)品旨在幫助程序員完成日常工作,并為新手開發(fā)者提供實用的學(xué)習(xí)工具。
    的頭像 發(fā)表于 08-24 11:27 ?1108次閱讀
    Stability AI發(fā)布首個<b class='flag-5'>用于</b>編程的生成<b class='flag-5'>式</b><b class='flag-5'>LLM</b> AI產(chǎn)品—StableCode

    在線研討會 | 基于 Jetson 邊緣計算平臺構(gòu)建 Azure OpenAI LLM 安全護欄

    NVIDIANeMo Guardrails 是一個開源工具庫,致力于使 LLM 大語言模型的使用更加合法合規(guī)。它可以輕松地為基于 LLM對話系統(tǒng)添加可編程護欄,用以避免大語言模型輸出違法違規(guī)內(nèi)容
    的頭像 發(fā)表于 10-21 16:35 ?695次閱讀
    在線研討會 | 基于 Jetson 邊緣計算平臺構(gòu)建 Azure OpenAI <b class='flag-5'>LLM</b> 安全護欄

    育碧發(fā)布全新生成AI原型:NPC以自發(fā)行為展開對話

    近日,育碧巴黎工作室推出了一款名為 NEON NPC 的全新 AI 原型項目。借助 NVIDIA 的 Audio2Face 及 InWorld 的 LLM 大語言模型技術(shù),NPC可以根據(jù)角色設(shè)定自發(fā)生成對話。
    的頭像 發(fā)表于 03-20 10:17 ?789次閱讀

    Yellow.ai 推出業(yè)界首款 Orchestrator LLM

    無需培訓(xùn)即可產(chǎn)生情景與人性兼具的客戶對話 通過準(zhǔn)確的查詢識別、保留對話歷史記錄以及跨渠道的無縫上下文切換來解決客戶對話中斷的問題,Orchestrator LLM 將客戶滿意度提高了
    的頭像 發(fā)表于 05-09 10:52 ?804次閱讀

    解鎖LLM新高度—OpenVINO? 2024.1賦能生成AI高效運行

    LLM 的發(fā)展仍保持著驚人的速度。盡管現(xiàn)有的 LLM 已經(jīng)具備強大的功能,但通過 OpenVINO? 的優(yōu)化和推理加速,可以對這些復(fù)雜模型的執(zhí)行進行精煉,實現(xiàn)更快、更高效的處理,減少計算開銷并最大限度發(fā)揮硬件潛力,這將直接導(dǎo)致
    的頭像 發(fā)表于 05-10 10:36 ?895次閱讀

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點。LLM以其強大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?1.4w次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是一類使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語言處理(NLP)模型。LLM模型可以處理各種語言任務(wù),如文本生成、文本分類、機器翻譯等。目前
    的頭像 發(fā)表于 07-09 09:55 ?2014次閱讀

    LLM模型和LMM模型的區(qū)別

    LLM(線性混合模型)和LMM(線性混合效應(yīng)模型)之間的區(qū)別如下: 定義: LLM(線性混合模型)是一種統(tǒng)計模型,用于分析具有固定效應(yīng)和隨機效應(yīng)的線性數(shù)據(jù)。它允許研究者考慮數(shù)據(jù)中的非獨立性,例如
    的頭像 發(fā)表于 07-09 09:57 ?2692次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語言處理(NLP)任務(wù)。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?1406次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的LLM
    的頭像 發(fā)表于 11-08 09:30 ?1537次閱讀