一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LoRA繼任者ReLoRA登場(chǎng),通過(guò)疊加多個(gè)低秩更新矩陣實(shí)現(xiàn)更高效大模型訓(xùn)練效果

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:將門(mén)創(chuàng)投 ? 2023-08-25 17:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文是一篇專(zhuān)注于減輕大型Transformer語(yǔ)言模型訓(xùn)練代價(jià)的工作。作者提出了一種基于低秩更新的ReLoRA方法。過(guò)去十年中深度學(xué)習(xí)發(fā)展階段中的一個(gè)核心原則就是不斷的“堆疊更多層(stack more layers),因此作者希望探索能否同樣以堆疊的方式來(lái)提升低秩適應(yīng)的訓(xùn)練效率,實(shí)驗(yàn)結(jié)果表明,ReLoRA在改進(jìn)大型網(wǎng)絡(luò)的訓(xùn)練方面更加有效。

c080cd7c-4323-11ee-a2ef-92fbcf53809c.png

論文鏈接: https://arxiv.org/abs/2307.05695 代碼倉(cāng)庫(kù): https://github.com/guitaricet/peft_pretraining

一段時(shí)間以來(lái),大模型(LLMs)社區(qū)的研究人員開(kāi)始關(guān)注于如何降低訓(xùn)練、微調(diào)和推理LLMs所需要的龐大算力,這對(duì)于繼續(xù)推動(dòng)LLMs在更多的垂直領(lǐng)域中發(fā)展和落地具有非常重要的意義。目前這一方向也有很多先驅(qū)工作,例如從模型結(jié)構(gòu)上創(chuàng)新的RWKV,直接替換計(jì)算量較大的Transformer架構(gòu),改用基于RNN范式的新架構(gòu)。還有一些方法從模型微調(diào)階段入手,例如在原有LLMs中加入?yún)?shù)量較小的Adapter模塊來(lái)進(jìn)行微調(diào)。還有微軟提出的低秩自適應(yīng)(Low-Rank Adaptation,LoRA)方法,LoRA假設(shè)模型在任務(wù)適配過(guò)程中對(duì)模型權(quán)重的更新量可以使用低秩矩陣進(jìn)行估計(jì),因而可以用來(lái)間接優(yōu)化新加入的輕量級(jí)適應(yīng)模塊,同時(shí)保持原有的預(yù)訓(xùn)練權(quán)重不變。目前LoRA已經(jīng)成為大模型工程師必備的一項(xiàng)微調(diào)技能,但本文作者仍然不滿(mǎn)足于目前LoRA所能達(dá)到的微調(diào)效果,并進(jìn)一步提出了一種可疊加的低秩微調(diào)方法,稱(chēng)為ReLoRA。

本文來(lái)自馬薩諸塞大學(xué)洛厄爾分校的研究團(tuán)隊(duì),作者團(tuán)隊(duì)將ReLoRA應(yīng)用在具有高達(dá)350M參數(shù)的Transformer上時(shí),展現(xiàn)出了與常規(guī)神經(jīng)網(wǎng)絡(luò)訓(xùn)練相當(dāng)?shù)男阅?。此外,本文作者還觀察到ReLoRA的微調(diào)效率會(huì)隨著模型參數(shù)規(guī)模的增加而不斷提高,這使得其未來(lái)有可能成為訓(xùn)練超大規(guī)模(通常超過(guò)1B參數(shù))LLMs的新型手段。

一、引言雖然目前學(xué)術(shù)界和工業(yè)界都在不斷推出自家的各種基座模型,但不可否認(rèn)的是,完全預(yù)訓(xùn)練一個(gè)具有初等推理能力的LLMs仍然需要非常龐大的算力,例如大家熟知的LLaMA-6B模型[1]就需要數(shù)百個(gè)GPU才能完成訓(xùn)練,這種規(guī)模的算力已經(jīng)讓絕大多數(shù)學(xué)術(shù)研究小組望而卻步了。在這種背景下,參數(shù)高效微調(diào)(PEFT)已經(jīng)成為了一個(gè)非常具有前景的LLMs研究方向。具體來(lái)說(shuō),PEFT方法可以在消費(fèi)級(jí)GPU(例如RTX 3090或4090)上對(duì)十億級(jí)語(yǔ)言或擴(kuò)散模型進(jìn)行微調(diào)。因此本文重點(diǎn)關(guān)注PEFT中的低秩訓(xùn)練技術(shù),尤其是LoRA方法。作者思考到,過(guò)去十年中深度學(xué)習(xí)發(fā)展階段中的一個(gè)核心原則就是不斷的“堆疊更多層(stack more layers)”,例如ResNet的提出可以使我們將卷積神經(jīng)網(wǎng)絡(luò)的深度提升到100層以上,并且也獲得了非常好的效果。因此本文探索能否同樣以堆疊的方式來(lái)提升低秩適應(yīng)的訓(xùn)練效率呢?

c0a6266c-4323-11ee-a2ef-92fbcf53809c.png

本文提出了一種基于低秩更新的ReLoRA方法,來(lái)訓(xùn)練和微調(diào)高秩網(wǎng)絡(luò),其性能優(yōu)于具有相同可訓(xùn)練參數(shù)數(shù)量的網(wǎng)絡(luò),甚至能夠達(dá)到與訓(xùn)練100M+規(guī)模的完整網(wǎng)絡(luò)類(lèi)似的性能,對(duì)比效果如上圖所示。具體來(lái)說(shuō),ReLoRA方法包含(1)初始化全秩訓(xùn)練、(2)LoRA 訓(xùn)練、(3)參數(shù)重新啟動(dòng)、(4)鋸齒狀學(xué)習(xí)率調(diào)度(jagged learning rate schedule)和(5)優(yōu)化器參數(shù)部分重置。作者選擇目前非?;馃岬淖曰貧w語(yǔ)言模型進(jìn)行實(shí)驗(yàn),并且保證每個(gè)實(shí)驗(yàn)所使用的GPU計(jì)算時(shí)間不超過(guò)8天。二、本文方法作者首先從兩個(gè)矩陣之和的秩入手,通常來(lái)說(shuō),矩陣相加的后秩的上界會(huì)比較緊湊,對(duì)于矩陣,,然后存在矩陣,,使得矩陣之和的秩高于或。作者希望利用這一特性來(lái)制定靈活的參數(shù)高效訓(xùn)練方法,然后從LoRA算法開(kāi)始入手,LoRA可以將模型權(quán)重的更新量 分解為一組低秩矩陣乘積 ,如下式所示,其中 是固定縮放因子。

c0cbdf24-4323-11ee-a2ef-92fbcf53809c.png

在具體操作時(shí),LoRA通常是加入新的可學(xué)習(xí)參數(shù) 和 來(lái)實(shí)現(xiàn),這些參數(shù)可以在訓(xùn)練后合并回原始參數(shù)中。因此,盡管上述方程允許我們?cè)谟?xùn)練階段中實(shí)現(xiàn)總參數(shù)更新量高于任意單個(gè)矩陣的秩,但其仍然受到的限制。因此作者想到通過(guò)不斷疊加這一過(guò)程來(lái)突破限制達(dá)到更好的訓(xùn)練效果。這首先需要對(duì)LoRA過(guò)程進(jìn)行重新啟動(dòng),就可以在訓(xùn)練階段不斷合并每次得到的 和 來(lái)得到累加的權(quán)重更新量,計(jì)算公式如下:但是,想要對(duì)已經(jīng)完成的LoRA過(guò)程重新啟動(dòng)并不容易,這需要對(duì)優(yōu)化器進(jìn)行精細(xì)的調(diào)整,如果調(diào)整不到位,會(huì)導(dǎo)致模型在重啟后立即與之前的優(yōu)化方向出現(xiàn)分歧。例如Adam優(yōu)化器在更新時(shí)主要由先前步驟中所累積梯度的一階矩和二階矩引導(dǎo)。實(shí)際上,梯度矩平滑參數(shù) 和 通常非常高,因而在重新啟動(dòng)時(shí)的秩上界為 ,相應(yīng)的梯度矩 和 都是滿(mǎn)秩的,在合并參數(shù)后就會(huì)使用先前的舊梯度來(lái)優(yōu)化 朝向與 相同的子空間方向。 為了解決這個(gè)問(wèn)題,作者提出了ReLoRA方法,ReLoRA在合并和重新啟動(dòng)期間可以對(duì)優(yōu)化器進(jìn)行部分重置,并在隨后的預(yù)熱中過(guò)程中將學(xué)習(xí)率設(shè)置為0。具體來(lái)說(shuō),作者提出了一種鋸齒狀學(xué)習(xí)率調(diào)度算法,如下圖所示,在每次對(duì)ReLoRA參數(shù)進(jìn)行重置時(shí),都會(huì)將學(xué)習(xí)率設(shè)置為零,并執(zhí)行快速(50-100 步)學(xué)習(xí)率預(yù)熱使其回到與重置前相同的水平范圍內(nèi)。

c0e31cb6-4323-11ee-a2ef-92fbcf53809c.png

ReLoRA通過(guò)序列疊加的方式僅訓(xùn)練一小組參數(shù)就可以實(shí)現(xiàn)與全秩訓(xùn)練相當(dāng)?shù)男阅?,并且遵循LoRA方法的基礎(chǔ)原則,即保持原始網(wǎng)絡(luò)的凍結(jié)權(quán)重并添加新的可訓(xùn)練參數(shù)。乍一看,這種方式可能顯得計(jì)算效率低下,但我們需要清楚的是,這種方法可以通過(guò)減小梯度和優(yōu)化器狀態(tài)的大小,來(lái)顯著提高顯存效率。例如Adam優(yōu)化器狀態(tài)消耗的顯存通常是模型權(quán)重占用的兩倍。通過(guò)大幅減少可訓(xùn)練參數(shù)的數(shù)量,ReLoRA可以在相同的顯存條件下使用更大的batchsize大小,從而最大限度地提高硬件效率,ReLoRA的整體操作細(xì)節(jié)如下圖所示。

c0eb4382-4323-11ee-a2ef-92fbcf53809c.png

三、實(shí)驗(yàn)效果為了清晰的評(píng)估ReLoRA方法的性能,作者將其應(yīng)用在各種規(guī)模大?。?0M、130M、250M 和 350M)的Transformer模型上,并且都在C4數(shù)據(jù)集上進(jìn)行訓(xùn)練和測(cè)試。為了展現(xiàn)ReLoRA方法的普適性,作者重點(diǎn)考察NLP領(lǐng)域的基礎(chǔ)語(yǔ)言建模任務(wù)。模型架構(gòu)和訓(xùn)練超參數(shù)設(shè)置基本與LLaMA模型保持一致。與LLaMA不同的是,作者在實(shí)驗(yàn)中將原始的注意力機(jī)制(使用float32進(jìn)行 softmax計(jì)算)替換為了Flash注意力[2],并且使用bfloat16精度進(jìn)行計(jì)算,這樣操作可以將訓(xùn)練吞吐量提高50-100%,且沒(méi)有任何訓(xùn)練穩(wěn)定性問(wèn)題。此外,使用ReLoRA方法訓(xùn)練的模型參數(shù)規(guī)模相比LLaMA要小得多,最大的模型參數(shù)才僅有350M,使用8個(gè)RTX4090上訓(xùn)練了一天時(shí)間就可以完成。 下圖展示了本文方法與其他方法的性能對(duì)比效果,可以看到ReLoRA顯著優(yōu)于低秩LoRA方法,證明了我們提出的修改的有效性。此外,ReLoRA還實(shí)現(xiàn)了與滿(mǎn)秩訓(xùn)練(Full training)相當(dāng)?shù)男阅?,并且我們可以觀察到,隨著網(wǎng)絡(luò)規(guī)模的增加,性能差距逐漸縮小。有趣的是,ReLoRA 唯一無(wú)法超過(guò)的基線(xiàn)模型是僅具有60M參數(shù)的最小模型。這一觀察結(jié)果表明,ReLoRA在改進(jìn)大型網(wǎng)絡(luò)的訓(xùn)練方面更加有效,這與作者最開(kāi)始研究探索一種改進(jìn)大型網(wǎng)絡(luò)訓(xùn)練方法的目標(biāo)是一致的。

c10991c0-4323-11ee-a2ef-92fbcf53809c.png

此外,為了進(jìn)一步判斷ReLoRA是否能夠通過(guò)迭代低秩更新來(lái)實(shí)現(xiàn)相比LoRA更高的秩更新訓(xùn)練,作者繪制了ReLoRA、LoRA和全秩訓(xùn)練的熱啟動(dòng)權(quán)重與最終權(quán)重之間差異的奇異值譜。如下圖所示,下圖說(shuō)明了LoRA和ReLoRA之間對(duì)于 、、 和 奇異值的顯著差異,可以看到ReLoRA在所有四個(gè)矩陣參數(shù)上均得到了最小的奇異值。

c12dc658-4323-11ee-a2ef-92fbcf53809c.png

四、總結(jié)本文是一篇專(zhuān)注于減輕大型Transformer語(yǔ)言模型訓(xùn)練代價(jià)的工作,作者選取了一條非常具有前景的方向,即低秩訓(xùn)練技術(shù),并且從最樸素的低秩矩陣分解 (LoRA) 方法出發(fā),利用多個(gè)疊加的低秩更新矩陣來(lái)訓(xùn)練高秩網(wǎng)絡(luò),為了實(shí)現(xiàn)這一點(diǎn),作者精心設(shè)計(jì)了包含參數(shù)重新啟動(dòng)、鋸齒狀學(xué)習(xí)率調(diào)度算法和優(yōu)化器參數(shù)重置等一系列操作,這些操作共同提高了ReLoRA算法的訓(xùn)練效率,在某些情況下甚至能夠達(dá)到與全秩訓(xùn)練相當(dāng)?shù)男阅?,尤其?shí)在超大規(guī)模的Transformer網(wǎng)絡(luò)中。作者通過(guò)大量的實(shí)驗(yàn)證明了ReLoRA的算法可行性和操作有效性,不知ReLoRA是否也會(huì)成為大模型工程師一項(xiàng)必備的算法技能呢?

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103564
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122787
  • LoRa
    +關(guān)注

    關(guān)注

    352

    文章

    1780

    瀏覽量

    234824
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3138

    瀏覽量

    4060

原文標(biāo)題:LoRA繼任者ReLoRA登場(chǎng),通過(guò)疊加多個(gè)低秩更新矩陣實(shí)現(xiàn)更高效大模型訓(xùn)練效果

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何高效訓(xùn)練AI模型?這些常用工具你必須知道!

    特定領(lǐng)域的中小型模型。這類(lèi)模型針對(duì)垂直領(lǐng)域,性?xún)r(jià)比更高,在特定場(chǎng)景下能以較低資源實(shí)現(xiàn)高準(zhǔn)確率的專(zhuān)項(xiàng)任務(wù)。例如在邊緣計(jì)算領(lǐng)域,模型推理所需資源
    的頭像 發(fā)表于 04-17 16:43 ?1688次閱讀
    如何<b class='flag-5'>高效</b><b class='flag-5'>訓(xùn)練</b>AI<b class='flag-5'>模型</b>?這些常用工具你必須知道!

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    ,聯(lián)發(fā)科帶來(lái)了全面升級(jí)的天璣AI開(kāi)發(fā)套件2.0,在模型庫(kù)規(guī)模、架構(gòu)開(kāi)放程度、前沿端側(cè)AI技術(shù)支持和端側(cè)LoRA訓(xùn)練落地等方面均迎來(lái)全面躍遷,為開(kāi)發(fā)提供了更全面、更開(kāi)放、更強(qiáng)大的端側(cè)A
    發(fā)表于 04-13 19:52

    請(qǐng)問(wèn)如何能讓模型效果更好?

    重現(xiàn)步驟 我用yolov8n訓(xùn)練出的模型,跑出來(lái)的識(shí)別是沒(méi)有問(wèn)題的,問(wèn)題是在部署到開(kāi)發(fā)板上,無(wú)論是穩(wěn)定性還是框的大小以及識(shí)別的準(zhǔn)確性都比較差,再試了幾次訓(xùn)練后的效果還是不好,請(qǐng)問(wèn)有什么
    發(fā)表于 03-11 07:21

    讓大模型訓(xùn)練更高效,奇異摩爾用互聯(lián)創(chuàng)新方案定義下一代AI計(jì)算

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/吳子鵬)近一段時(shí)間以來(lái),DeepSeek現(xiàn)象級(jí)爆火引發(fā)產(chǎn)業(yè)對(duì)大規(guī)模數(shù)據(jù)中心建設(shè)的思考和爭(zhēng)議。在訓(xùn)練端,DeepSeek以開(kāi)源模型通過(guò)算法優(yōu)化(如稀疏計(jì)算、動(dòng)態(tài)架構(gòu))降低
    的頭像 發(fā)表于 02-18 09:19 ?1313次閱讀
    讓大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>更高效</b>,奇異摩爾用互聯(lián)創(chuàng)新方案定義下一代AI計(jì)算

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    ,減少了計(jì)算成本。LoRA(Low-Rank Adaptation):一種基于分解的微調(diào)方法,通過(guò)分解模型參數(shù)
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗(yàn)】營(yíng)銷(xiāo)領(lǐng)域大模型的應(yīng)用

    用戶(hù)體驗(yàn)和滿(mǎn)意度,進(jìn)而增加轉(zhuǎn)化率。通過(guò)精準(zhǔn)匹配消費(fèi)需求和產(chǎn)品特性,大模型幫助企業(yè)實(shí)現(xiàn)更高效的市場(chǎng)滲透和銷(xiāo)售增長(zhǎng)。 大
    發(fā)表于 12-24 12:48

    GPU是如何訓(xùn)練AI大模型

    在AI模型訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU是如何訓(xùn)練AI大
    的頭像 發(fā)表于 12-19 17:54 ?740次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    的基本原理 GPU(圖形處理單元)最初是為圖形渲染設(shè)計(jì)的,但隨著技術(shù)的發(fā)展,人們發(fā)現(xiàn)GPU在并行計(jì)算方面有著天然的優(yōu)勢(shì)。GPU擁有成千上萬(wàn)個(gè)核心,可以同時(shí)處理大量數(shù)據(jù),這使得它在進(jìn)行矩陣運(yùn)算和并行計(jì)算時(shí)比CPU更加高效。 2. 檢查GPU設(shè)備 在開(kāi)始
    的頭像 發(fā)表于 11-05 17:43 ?1399次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?959次閱讀

    如何訓(xùn)練自己的AI大模型

    訓(xùn)練自己的AI大模型是一個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類(lèi)型的AI
    的頭像 發(fā)表于 10-23 15:07 ?4951次閱讀

    2024 VDC人工智能會(huì)場(chǎng):全新藍(lán)心大模型矩陣,助力開(kāi)發(fā)高效創(chuàng)新

    取得的最新成果,以前沿解決方案引領(lǐng)大模型創(chuàng)新與用戶(hù)體驗(yàn)升級(jí),助力開(kāi)發(fā)高效創(chuàng)新。 全新藍(lán)心大模型矩陣 長(zhǎng)期以來(lái),vivo持續(xù)在AI領(lǐng)域深耕,
    發(fā)表于 10-12 14:03 ?341次閱讀
    2024 VDC人工智能會(huì)場(chǎng):全新藍(lán)心大<b class='flag-5'>模型</b><b class='flag-5'>矩陣</b>,助力開(kāi)發(fā)<b class='flag-5'>者</b><b class='flag-5'>高效</b>創(chuàng)新

    GaN如何實(shí)現(xiàn)更高效、更緊湊的電源

    電子發(fā)燒友網(wǎng)站提供《GaN如何實(shí)現(xiàn)更高效、更緊湊的電源.pdf》資料免費(fèi)下載
    發(fā)表于 09-12 10:00 ?0次下載
    GaN如何<b class='flag-5'>實(shí)現(xiàn)</b><b class='flag-5'>更高效</b>、更緊湊的電源

    如何通過(guò)增強(qiáng)抗干擾能力提高LoRa通信效果

    提高LoRa模塊的抗干擾能力是確保其在復(fù)雜無(wú)線(xiàn)環(huán)境中穩(wěn)定通信的關(guān)鍵。通過(guò)采用頻譜擴(kuò)頻技術(shù)、選擇合適的擴(kuò)頻因子、優(yōu)化信道選擇和頻率規(guī)劃、使用前向糾錯(cuò)編碼以及實(shí)現(xiàn)自適應(yīng)速率,LoRa可以顯
    的頭像 發(fā)表于 08-05 17:09 ?1956次閱讀
    如何<b class='flag-5'>通過(guò)</b>增強(qiáng)抗干擾能力提高<b class='flag-5'>LoRa</b>通信<b class='flag-5'>效果</b>

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的信息,提供更全面的上下文理解。這使得模型能夠更準(zhǔn)確地理解復(fù)雜問(wèn)題中的多個(gè)層面和隱含意義。 2. 語(yǔ)義分析 模型通過(guò)訓(xùn)練學(xué)習(xí)到語(yǔ)言的語(yǔ)義特征,能夠識(shí)別文本中的命名實(shí)體、句法結(jié)構(gòu)和語(yǔ)義關(guān)
    發(fā)表于 08-02 11:03

    LED機(jī)械矩陣屏:打造獨(dú)特視覺(jué)效果的視覺(jué)盛宴

    您更好地了解和應(yīng)用這一技術(shù)。 LED機(jī)械矩陣屏 二、LED機(jī)械矩陣屏的定義及特點(diǎn) 1. 定義 LED機(jī)械矩陣屏是一種采用LED燈珠組成的機(jī)械結(jié)構(gòu)顯示屏幕,通過(guò)紅、綠、藍(lán)三基色LED燈珠
    的頭像 發(fā)表于 07-29 09:30 ?924次閱讀