一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer常用的輕量化方法

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2022-10-25 14:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文梳理了一些Transformer常用的輕量化方法,并分領(lǐng)域的介紹了一些主流的輕量化Transformer。

引言:近年來,Transformer模型在人工智能的各個(gè)領(lǐng)域得到了廣泛應(yīng)用,成為了包括計(jì)算機(jī)視覺,自然語言處理以及多模態(tài)領(lǐng)域內(nèi)的主流方法。盡管Transformer在大部分任務(wù)上擁有極佳的性能,其過大的參數(shù)量限制了在現(xiàn)實(shí)場景下的應(yīng)用,也給相關(guān)研究帶來了困難,由此帶來了Transformer輕量化領(lǐng)域的發(fā)展。筆者首先梳理了一些Transformer常用的輕量化方法,并分領(lǐng)域的介紹了一些主流的輕量化Transformer。歡迎大家批評指正,相互交流。

021748b8-5425-11ed-a3b6-dac502259ad0.png

預(yù)訓(xùn)練模型參數(shù)量增長趨勢

1.Transformer中常用的模型壓縮方法

量化:量化的基本思想即利用低比特的數(shù)據(jù)類型來替代原本的高比特?cái)?shù)據(jù)類型,同時(shí)對數(shù)據(jù)的存儲空間與計(jì)算的復(fù)雜度進(jìn)行輕量化。簡單的訓(xùn)練后量化,即直接對訓(xùn)練好的模型參數(shù)進(jìn)行量化會帶來很大的誤差,目前主要會采用量化感知訓(xùn)練(Quantized-Aware Training, QAT)的方式,在訓(xùn)練時(shí)全精度優(yōu)化,僅模擬低精度的推理過程,很好的降低了量化過程的性能損失。

剪枝:剪枝方法基于lottery ticket假設(shè),即模型中只有小部分參數(shù)起了核心作用,其他的大部分參數(shù)是無效參數(shù),可以去除掉。剪枝可以分為非結(jié)構(gòu)化剪枝與結(jié)構(gòu)化剪枝。非結(jié)構(gòu)化剪枝即定位參數(shù)矩陣中接近于0或者有接近0趨勢的參數(shù),并將這些參數(shù)歸零,使參數(shù)矩陣稀疏化。結(jié)構(gòu)化剪枝即消減模型中結(jié)構(gòu)化的部分,如多頭注意力中不需要的注意力頭,多層Transformer中不需要的若干層等等。

022b67ee-5425-11ed-a3b6-dac502259ad0.png

非結(jié)構(gòu)化剪枝

知識蒸餾:知識蒸餾通常在一個(gè)大的老師模型與一個(gè)小的學(xué)生模型之間進(jìn)行。通過老師模型在監(jiān)督數(shù)據(jù)上輸出的“軟標(biāo)簽分布”來訓(xùn)練學(xué)生模型。這種“軟標(biāo)簽”的學(xué)習(xí)能夠很好的克服監(jiān)督數(shù)據(jù)中標(biāo)簽偏差的問題,帶來了很好的知識遷移的能力。

02378e52-5425-11ed-a3b6-dac502259ad0.png

參數(shù)共享:在模型同質(zhì)的部分間共享參數(shù)。

2.預(yù)訓(xùn)練語言模型中的輕量化Transformer

Transformer最早在自然語言領(lǐng)域中得到廣泛的應(yīng)用,其強(qiáng)大的能力帶來了預(yù)訓(xùn)練領(lǐng)域的快速發(fā)展,并在相關(guān)領(lǐng)域帶來了革新。但是隨著預(yù)訓(xùn)練模型規(guī)模的不斷增大,訓(xùn)練與部署一個(gè)預(yù)訓(xùn)練模型的代價(jià)也不斷提升,預(yù)訓(xùn)練語言模型輕量化的研究方向應(yīng)運(yùn)而生。由于以Bert為代表的預(yù)訓(xùn)練語言模型的主流架構(gòu)仍是Transformer,因此Transformer的輕量化也成為了當(dāng)前NLP領(lǐng)域的一個(gè)重要課題。以下是筆者整理的幾篇經(jīng)典的預(yù)訓(xùn)練語言模型中的輕量化工作,供讀者參考。

Q8BERT: Quantized 8Bit BERT

https://arxiv.org/pdf/1910.06188.pdf

Q8BERT是量化方法在Bert上的樸素運(yùn)用。除了采用了基本的量化感知訓(xùn)練方式外,Q8BERT還采用了指數(shù)滑動平均的方式平滑QAT的訓(xùn)練過程。最終,在壓縮了近4倍參數(shù)量,取得4倍推理加速的前提下,Q8BERT在GLUE與SQUAD數(shù)據(jù)集上取得了接近Bert的效果,證明了量化方法在Bert上的有效性。

0267b87a-5425-11ed-a3b6-dac502259ad0.png

Q8BERT在下游任務(wù)上的表現(xiàn)

DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

https://arxiv.org/pdf/1910.01108.pdf

DistillBERT是huggingface發(fā)布的一個(gè)小版本的Bert模型,它只在輸出層面采用了軟標(biāo)簽的蒸餾,將Bert的層數(shù)壓縮到了原本的1/2,并在各個(gè)下游任務(wù)上取得了不錯的結(jié)果。

0290119e-5425-11ed-a3b6-dac502259ad0.png

在GLUE上,DisitlBERT只用了60%的參數(shù),保留了97%的性能

TinyBERT: Distilling BERT for Natural Language Understanding

https://arxiv.org/pdf/1909.10351.pdf

與DistilBERT相同,TinyBERT同樣是知識蒸餾在Bert壓縮上的應(yīng)用。不同于DistillBERT只在預(yù)訓(xùn)練階段采用知識蒸餾,TinyBERT同時(shí)在預(yù)訓(xùn)練和微調(diào)階段采用了兩階段的知識蒸餾,使得小模型能夠?qū)W到通用與任務(wù)相關(guān)的語義知識。

02979de2-5425-11ed-a3b6-dac502259ad0.png

TinyBERT蒸餾策略

同時(shí),TinyBERT采用了更加細(xì)粒度的知識蒸餾方式,對embedding層的輸出,Transformer每一層中隱藏層與注意力計(jì)算的輸出以及整個(gè)模型的軟標(biāo)簽進(jìn)行了知識蒸餾,得到了更加精準(zhǔn)的知識遷移效果。

02b05850-5425-11ed-a3b6-dac502259ad0.png

更加細(xì)粒度的蒸餾方式

最終,TinyBERT將BERT模型蒸餾成了一個(gè)4層且隱藏層維度更小的模型,并取得了不亞于更高參數(shù)量的DistilBERT的效果。

ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS

https://arxiv.org/pdf/1909.11942.pdf

ALBERT是Google在ICLR2020上的一篇工作。它首先采用了詞表矩陣分解的方法,由于Bert采用了一個(gè)很大的詞表,因此詞表的embedding層包含了很大的參數(shù)量,ALBERT采用了參數(shù)分解(Factorized embedding parameterization)的方式減少這部分的參數(shù)量。具體而言,對于一個(gè)包含V 個(gè)單詞的詞表,假如詞表的隱藏層大小E 與模型的隱藏層大小H 相等,則embedding層包含的參數(shù)量為V × E ??紤]到V通常較大,embedding的總參數(shù)量也會較大。為了減少參數(shù)量, 與直接對one-hot的詞向量映射到 H 維空間不同,ALBERT首先將詞向量映射到較小的E 維空間,再映射到H 維空間。將參數(shù)量從O(V × H)降低到了O(V × E + E × H) ,實(shí)現(xiàn)了embedding層的壓縮。

除此之外,ALBERT還進(jìn)行了Transformer內(nèi)跨層的參數(shù)壓縮,通過跨Tranformer層的完全參數(shù)共享,ALBERT對參數(shù)量進(jìn)行了充分的壓縮,在低參數(shù)量的條件下取得了與Bert-base相似的效果,同時(shí)在相近的參數(shù)量下可以保證模型更深,隱藏層維度更大,在下游任務(wù)下的表現(xiàn)更好。

02bf36b8-5425-11ed-a3b6-dac502259ad0.png

ALBERT的參數(shù)量及下游任務(wù)表現(xiàn)

3.計(jì)算機(jī)視覺中的輕量化Transformer

盡管Transformer在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用相較于NLP領(lǐng)域稍慢一步,但Vision Transformer的橫空出世使得Transformer也占據(jù)了視覺模型的主流。后期基于MAE與BEiT的預(yù)訓(xùn)練方法更加鞏固了Transformer在計(jì)算機(jī)視覺領(lǐng)域的地位。與自然語言理解領(lǐng)域相同,計(jì)算機(jī)視覺中的Transformer同樣面臨著參數(shù)量過多,部署困難的問題,因此也需要輕量化的Transformer來高效的完成下游任務(wù)。以下是筆者整理的幾篇近年來計(jì)算機(jī)視覺領(lǐng)域中的輕量化工作,供讀者參考。

Training data-efficient image transformers & distillation through attention

http://proceedings.mlr.press/v139/touvron21a/touvron21a.pdf

DeiT是Facebook在2021年的一篇工作,模型的核心方法是通過知識蒸餾對視覺Transformer進(jìn)行壓縮。DeiT采用了兩種蒸餾方法實(shí)現(xiàn)了老師模型到學(xué)生模型的知識遷移:

Soft Distillation:通過老師模型輸出的軟標(biāo)簽進(jìn)行知識蒸餾。

Hard-label Distillation:通過老師模型預(yù)測出的實(shí)際標(biāo)簽進(jìn)行知識蒸餾,意義在于糾正可能存在的有監(jiān)督數(shù)據(jù)的標(biāo)簽偏差。

DeiT在蒸餾過程中引入了Distillation token的概念,其作用與Class token類似,但Class token用于在原數(shù)據(jù)上利用交叉熵進(jìn)行訓(xùn)練,Distillation token用于模擬老師模型的軟分布輸出或利用老師模型預(yù)測的hard-label進(jìn)行訓(xùn)練。

02d392d4-5425-11ed-a3b6-dac502259ad0.png

Disillation token

通過在老師模型上的蒸餾過程,DeiT擁有更小的參數(shù)規(guī)模和更快的推理速度的條件下,取得了比ViT更好的效果。

02e4b0c8-5425-11ed-a3b6-dac502259ad0.png

TinyViT: Fast Pretraining Distillation for Small Vision Transformers

https://www.ecva.net/papers/eccv_2022/papers_ECCV/papers/136810068.pdf

TinyViT是微軟在2022年的一篇工作,這篇工作的核心依然是知識蒸餾,但是在工程實(shí)現(xiàn)上進(jìn)行了一些優(yōu)化,使得小模型能夠在更大的數(shù)據(jù)規(guī)模下通過知識蒸餾獲取到大模型的知識。DeiT采用的知識蒸餾方法是相當(dāng)昂貴的,因?yàn)樵谡麴s過程中,教師模型與老師模型會同時(shí)占用GPU的內(nèi)存,限制了batch_size的增加與學(xué)生模型的訓(xùn)練速度。且軟標(biāo)簽在老師模型輸出端到學(xué)生模型輸出端的遷移也會帶來一定的計(jì)算資源損耗。

為了解決這個(gè)問題,TinyViT提出了一種軟標(biāo)簽預(yù)生成的方法,即解耦軟標(biāo)簽的生成與學(xué)生模型的訓(xùn)練過程。先進(jìn)行軟標(biāo)簽的生成與預(yù)存儲,再利用預(yù)存儲的軟標(biāo)簽對學(xué)生模型進(jìn)行訓(xùn)練。由于預(yù)存儲軟標(biāo)簽向量會帶來極大的存儲損耗,考慮到這些向量大部分是稀疏的(因?yàn)閷τ谝粋€(gè)訓(xùn)練好的老師模型,給定一張圖片,只有極小部分類別會存在成為正確標(biāo)簽的概率),作者采用了存儲稀疏標(biāo)簽的策略,即只存儲top-k概率的標(biāo)簽以及其對應(yīng)的概率。在訓(xùn)練學(xué)生模型時(shí)將這樣的稀疏標(biāo)簽還原成完整的概率分布,并進(jìn)行知識蒸餾。整個(gè)pipeline如下圖所示:

02f07df4-5425-11ed-a3b6-dac502259ad0.png

TinyViT的蒸餾流程

在相同的模型規(guī)模下,TinyViT提高了知識蒸餾的速度與數(shù)據(jù)量,并取得了分類任務(wù)上的提升。

MiniViT: Compressing Vision Transformers with Weight Multiplexing

https://openaccess.thecvf.com/content/CVPR2022/papers/Zhang_MiniViT_Compressing_Vision_Transformers_With_Weight_Multiplexing_CVPR_2022_paper.pdf

MiniViT是微軟在CVPR2022的一篇工作,采用了權(quán)重復(fù)用的方法來壓縮模型的參數(shù)。與ALBERT不同的是,作者發(fā)現(xiàn)單純的權(quán)重復(fù)用會導(dǎo)致每層梯度l2范數(shù)的同質(zhì)化以及最后幾層輸出特征相關(guān)性的降低。為了解決這個(gè)問題,MiniViT采用了Weight Transformation與Weight Distillation的方法來解決這個(gè)問題。Weight Transformation,即在每一層之間插入小型的類似Adapter的結(jié)構(gòu),以保證每層的輸出不會因?yàn)閰?shù)量相同而同質(zhì)化。Weight Distillation,即采用一個(gè)老師模型來引導(dǎo)MiniViT的輸出以增強(qiáng)模型性能。整體的pipeline如下所示:

0301717c-5425-11ed-a3b6-dac502259ad0.png

作為一個(gè)通用的壓縮方法,作者在DeiT與Swin-Transformer上進(jìn)行了測試。在更小的參數(shù)量下,在ImageNet數(shù)據(jù)集上,Mini版本的模型均取得了不亞于甚至更好的效果。

DynamicViT: Efficient Vision Transformers with Dynamic Token Sparsification

https://proceedings.neurips.cc/paper/2021/file/747d3443e319a22747fbb873e8b2f9f2-Paper.pdf

本文是清華大學(xué)在Nips2021上的一篇工作,其借鑒了模型壓縮中剪枝的思想,但是是對Transformer每一層的輸入token進(jìn)行了稀疏化。Token稀疏化的基本假設(shè)在于:對于一張圖片,一定會存在一些冗余部分對模型的預(yù)測結(jié)果影響很小,對這些部分的削減可以很大程度的增加模型的推理速度。

DynamicViT的具體做法是:通過在每一層間增加一個(gè)輕量化的預(yù)測模塊,預(yù)測哪一些部分的token是可以被丟棄掉的。在預(yù)測完后通過一個(gè)二進(jìn)制的決策掩碼來完成對token的丟棄。同時(shí),作者修改了訓(xùn)練的目標(biāo)函數(shù),保證了每一層丟棄的token數(shù)量是有限的。

0315f05c-5425-11ed-a3b6-dac502259ad0.png

DynamicViT的稀疏化模塊

最終,在上述的稀疏化策略下,DynamicViT在原始的ViT基礎(chǔ)上取得了很好的加速,并在模型性能與推理速度之間達(dá)到了一個(gè)很好的平衡。

0333396e-5425-11ed-a3b6-dac502259ad0.png

4.多模態(tài)中的輕量化Transformer

多模態(tài)模型往往同時(shí)參考了視覺模型與語言模型的設(shè)計(jì),因此也會以Transformer作為其主流架構(gòu)。但多模態(tài)中的輕量化工作較少,筆者整理了比較有代表性的幾篇多模態(tài)輕量化工作供讀者參考。

MiniVLM: A Smaller and Faster Vision-Language Model

https://arxiv.org/pdf/2012.06946.pdf

MiniVLM是微軟在Oscar模型上的輕量化工作。MiniVLM的輕量化基于一個(gè)觀察假設(shè):即在大多數(shù)多模態(tài)任務(wù)中,多模態(tài)模型的視覺端不需要特別強(qiáng)的目標(biāo)檢測信息,而目標(biāo)檢測器往往是模型的瓶頸部分。因此,用一個(gè)不那么精確的目標(biāo)檢測器可以有效的壓縮模型的參數(shù)量與加快推理速度,同時(shí)盡可能的減少性能損失。

為了達(dá)到上述效果,MiniVLM采用了一個(gè)基于EfficientNet與Bi-FPN的輕量化目標(biāo)檢測器。同時(shí),為了進(jìn)行進(jìn)一步壓縮,MiniVLM對多模態(tài)Tranformer端也進(jìn)行了壓縮,將原本的Bert結(jié)構(gòu)更換到了更加輕量化的MiniLM,其結(jié)構(gòu)如下所示:

03481f32-5425-11ed-a3b6-dac502259ad0.png

輕量化目標(biāo)檢測器

最終,在可接受的精度損失范圍內(nèi),相較于原本的OSCAR模型,MiniVLM對推理速度進(jìn)行了極大的提升:

0359f54a-5425-11ed-a3b6-dac502259ad0.png

MiniVLM的加速效果與下游任務(wù)性能

Compressing Visual-linguistic Model via Knowledge Distillation

https://arxiv.org/pdf/2104.02096

DistilVLM是MiniVLM工作的延續(xù)。不同的是,在更換目標(biāo)檢測器與Transformer架構(gòu)的同時(shí),DistilVLM同時(shí)采用了知識蒸餾來保持模型的性能。DistilVLM的蒸餾策略與TinyBERT相同,同樣是進(jìn)行預(yù)訓(xùn)練階段和微調(diào)階段的兩階段蒸餾:

03687c78-5425-11ed-a3b6-dac502259ad0.png

DistilVLM的蒸餾策略

由于采用了不同的目標(biāo)檢測器,在檢測得到的目標(biāo)區(qū)域不同的前提下,后續(xù)的知識蒸餾均是無效的。為了解決這個(gè)問題,DistilVLM采用了視覺token對齊的方式,老師模型和學(xué)生模型均采用相同的目標(biāo)檢測器,使得兩個(gè)模型的檢測區(qū)域?qū)R,保證了后續(xù)知識蒸餾的有效性。

03713a20-5425-11ed-a3b6-dac502259ad0.png

視覺對齊

最終,在與MiniVLM相同參數(shù)和推理速度的前提下,DistilVLM取得了不錯的性能提升。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7254

    瀏覽量

    91793
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46760
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    6506

原文標(biāo)題:Fast and Effective!一文速覽輕量化Transformer各領(lǐng)域研究進(jìn)展

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    碳纖維為何能實(shí)現(xiàn)汽車輕量化

    碳纖維是一種與人造絲、合成纖維絲一樣的纖維狀碳材料,是目前世界高科技領(lǐng)域中十分重要的新型工業(yè)材料,提高汽車的綠色化性能。 節(jié)約不可再生能源和提高燃料效率的汽車輕量化解決方案正推動碳纖維應(yīng)用快速增長
    發(fā)表于 01-25 16:52

    汽車輕量化采用3D打印

    輕量化制造簡單而言是在不犧牲零部件性能的前提下,減輕零部件重量的制造方式。重量的減輕帶來能耗的降低,在全球范圍控制碳排放的趨勢下,輕量化制造越來越受到重視,是未來制造的方向之一。除了合金以外,近些年
    發(fā)表于 09-27 09:12

    客車車身輕量化分析

    以某車型為例, 分別從優(yōu)化流程、優(yōu)化分析模型、分析工況等方面研究車身輕量化方法, 提出一套切實(shí)可行的技術(shù)路線。關(guān)鍵詞: 車身; 結(jié)構(gòu); 輕量化; 優(yōu)化技術(shù)Abstract: Tak ing a bus
    發(fā)表于 07-27 10:09 ?12次下載

    汽車輕量化技術(shù)

    節(jié)能減排已成為世界汽車行業(yè)的共同趨勢。汽車輕量化是在保證強(qiáng)度和安全性的前提下,盡可能降低汽車整備質(zhì)量,以提高汽車的動力性,實(shí)現(xiàn)節(jié)能減排。 2017中國(重慶)國際汽車輕量化及材料展,來自全世界頂級
    發(fā)表于 05-09 11:57 ?18次下載

    PACK輕量化設(shè)計(jì)介紹及電芯選擇

    隨著動力電池系統(tǒng)相關(guān)標(biāo)準(zhǔn)和規(guī)范的制定,推動技術(shù)的發(fā)展,市場對動力電池系統(tǒng)的比能量要求也是越來越高,輕量化在動力電池系統(tǒng)的應(yīng)用也是迫在眉睫。在電池包的輕量化設(shè)計(jì)中,可以從兩個(gè)方向:一個(gè)是系統(tǒng)層面
    發(fā)表于 09-15 11:46 ?23次下載

    常見的輕量化材料的分類與汽車輕量化材料的應(yīng)用

    主要有三種手段:輕量化結(jié)構(gòu)設(shè)計(jì)及優(yōu)化、先進(jìn)輕量化材料應(yīng)用、先進(jìn)輕量化制造技術(shù)應(yīng)用。采用新型材料是汽車輕量化最直接有效的方法。 汽車的
    發(fā)表于 09-15 16:53 ?6次下載
    常見的<b class='flag-5'>輕量化</b>材料的分類與汽車<b class='flag-5'>輕量化</b>材料的應(yīng)用

    低速電動車輕量化的作用和蘊(yùn)含的技術(shù)分析

    低速電動車需要研究輕量化有兩大原因:一是在低速電動車的標(biāo)準(zhǔn)草案中,提出了小尺寸和輕型化的標(biāo)準(zhǔn)引導(dǎo)方向;二是減輕整車質(zhì)量能夠更有效地提升電源利用效率,并提高駕乘體驗(yàn)。 低速電動車的輕量化目標(biāo),主要包括
    發(fā)表于 09-21 15:23 ?1次下載
    低速電動車<b class='flag-5'>輕量化</b>的作用和蘊(yùn)含的技術(shù)分析

    “新能源汽車輕量化的整體解決方案”主題演講

    劉峰介紹,在Pack結(jié)構(gòu)輕量化過程中,主要實(shí)現(xiàn)輕量化的方式有:1、去模組化。把以前的單模組變成大模組,電芯大量采用A/B膠粘,應(yīng)用扎帶取代側(cè)板。2、電氣件輕量化,小型化,接插件集成化。3、取消從控。4、FPC取代傳統(tǒng)線速;5、箱
    的頭像 發(fā)表于 10-24 16:58 ?5456次閱讀

    瑞德豐如何實(shí)現(xiàn)動力電池輕量化

    陸賓林介紹,瑞德豐通過結(jié)構(gòu)設(shè)計(jì)優(yōu)化、制造工藝創(chuàng)新、材料輕量化三大維度,在保證安全的大前提下來實(shí)現(xiàn)輕量化。
    的頭像 發(fā)表于 12-31 09:10 ?3546次閱讀

    康得搭建碳纖維輕量化平臺來推動國內(nèi)纖維輕量化產(chǎn)業(yè)的發(fā)展

    很多搞研發(fā)的人,身上都帶有一股偏執(zhí)。而或許正是這個(gè)特性,讓他們在某個(gè)領(lǐng)域取得非同尋常的成就。 何鵬在輕量化領(lǐng)域偏執(zhí)了15年。而他的這份偏執(zhí),也為中國輕量化事業(yè)的發(fā)展起到了助推器作用。 眾所周知
    的頭像 發(fā)表于 09-16 14:02 ?2.5w次閱讀

    日產(chǎn)全新輕量化技術(shù)獲突破,減重75%

    日前,日產(chǎn)中國官微發(fā)布消息稱,其最新開發(fā)的輕量化超級隔音材料榮獲《Popular Science》(《科技新時(shí)代》)汽車類最佳創(chuàng)新獎,這是一種全新輕量化超級隔音材料。
    的頭像 發(fā)表于 12-17 09:12 ?2257次閱讀

    淺談輕量化設(shè)計(jì):材料、創(chuàng)新技術(shù)及未來解決方案

    輕量化的材料就是可以用來減輕產(chǎn)品自重且可以提高產(chǎn)品綜合性能的材料。材料輕量化,指的是在滿足機(jī)械性能要求的前提下,通過采用輕量化的金屬和非金屬材料實(shí)現(xiàn)重量減輕的方法。在當(dāng)前汽車制造領(lǐng)域,
    的頭像 發(fā)表于 01-29 10:43 ?2047次閱讀

    分析汽車車燈輕量化技術(shù)研究

    車燈輕量化技術(shù)自身采用了現(xiàn)代化設(shè)計(jì)方法和更有效的措施對車燈優(yōu)化設(shè)計(jì)或采用新材料以盡量保證車燈的各種性能。在規(guī)定達(dá)標(biāo)的前提下盡量使汽車車燈產(chǎn)品本身的品質(zhì)大大下降,使汽車車燈在環(huán)保,降耗,減重和安全
    的頭像 發(fā)表于 05-30 10:16 ?1130次閱讀
    分析汽車車燈<b class='flag-5'>輕量化</b>技術(shù)研究

    最新專利深入“輕量化”!華為這樣做?

    具體來看,汽車輕量化的實(shí)現(xiàn)途徑主要有兩方面:一是輕量化材料,使用比強(qiáng)度更高或密度更小的高強(qiáng)度鋼、鋁合金、鎂合金、碳纖維復(fù)合材料,對傳統(tǒng)普通鋼結(jié)構(gòu)進(jìn)行替代;二是輕量化設(shè)計(jì),通過開發(fā)全新的汽車架構(gòu)實(shí)現(xiàn)
    的頭像 發(fā)表于 08-16 14:41 ?968次閱讀
    最新專利深入“<b class='flag-5'>輕量化</b>”!華為這樣做?

    5G輕量化網(wǎng)關(guān)是什么

    5G輕量化網(wǎng)關(guān):物聯(lián)網(wǎng)的新引擎 隨著5G技術(shù)的不斷發(fā)展和普及,物聯(lián)網(wǎng)(IoT)領(lǐng)域迎來了新的變革。5G輕量化網(wǎng)關(guān),作為這一變革中的關(guān)鍵角色,正逐漸成為連接人、機(jī)、物的重要橋梁。本文將深入探討5G
    的頭像 發(fā)表于 09-04 15:17 ?744次閱讀
    5G<b class='flag-5'>輕量化</b>網(wǎng)關(guān)是什么