得益于公司成立以來(lái)對(duì)GPU的專(zhuān)注和對(duì)CUDA生態(tài)十年如一日的堅(jiān)持,英偉達(dá)公司終于在最近幾年走上了巔峰,這主要得益于AI時(shí)代的大爆發(fā)。尤其是在人工智能的訓(xùn)練市場(chǎng),英偉達(dá)的GPU迄今為止也沒(méi)有遇到能威脅到他們的挑戰(zhàn)者。但他們并不止步于此,在收購(gòu)了Mellanox之后,英偉達(dá)又將目光投向了Arm,希望借此拓寬公司的目標(biāo)市場(chǎng)。
與此同時(shí),英偉達(dá)在內(nèi)部還投入到軟件方面的布局,如遷移學(xué)習(xí),就是他們近年來(lái)非常關(guān)注的一個(gè)著力點(diǎn)。按照英偉達(dá)方面所說(shuō),這項(xiàng)技術(shù)正是他們針對(duì)當(dāng)前人工智能“痛點(diǎn)”所做出的一種解決方案。
從相關(guān)報(bào)道我們可以看到,人工智能已經(jīng)走向了各行各業(yè)。同時(shí)我們也認(rèn)識(shí)到,從頭開(kāi)發(fā)一個(gè)AI應(yīng)用,需要經(jīng)歷訓(xùn)練得出模型和推理的過(guò)程。但因?yàn)楝F(xiàn)在的應(yīng)用繁多,如果所有的開(kāi)發(fā)者和初創(chuàng)公司都需要從頭開(kāi)始創(chuàng)建一個(gè)模型,這不僅會(huì)耗時(shí)耗力,同時(shí)還成本高昂。這就讓“遷移學(xué)習(xí)”找到了機(jī)會(huì)。
所謂遷移學(xué)習(xí),是指將已經(jīng)在相關(guān)任務(wù)中訓(xùn)練過(guò)的模型的一部分復(fù)用到新模型中,從而很大程度地降低對(duì)大量計(jì)算資源的需要。具體而言就是可以從現(xiàn)有神經(jīng)網(wǎng)絡(luò)中提取已學(xué)習(xí)特征,并通過(guò)從現(xiàn)有神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)移權(quán)重來(lái)遷移這些已學(xué)習(xí)特征,而英偉達(dá)的Transfer Learning Toolkit(遷移學(xué)習(xí)工具包,簡(jiǎn)稱(chēng)TLT)就是當(dāng)中的一個(gè)代表。
據(jù)介紹,英偉達(dá)遷移式學(xué)習(xí)工具包(是一個(gè)基于Python的工具包,它提供了大量預(yù)先訓(xùn)練的模型,并提供一系列的工具,使流行的網(wǎng)絡(luò)架構(gòu)適應(yīng)開(kāi)發(fā)者自己的數(shù)據(jù),并且能夠訓(xùn)練、調(diào)整、修剪和導(dǎo)出模型,以進(jìn)行部署。
在2018年發(fā)布第一代工具包的時(shí)候,英偉達(dá)方面也表示,這套方案擁有許多預(yù)訓(xùn)練的優(yōu)化過(guò)的領(lǐng)域特定DNN,預(yù)先打包在里面;有計(jì)算機(jī)視覺(jué)中,物體分類(lèi)、檢測(cè)的應(yīng)用示例;在異構(gòu)的多GPU環(huán)境中,易于做模型適應(yīng) (Model Adaptation) ,易于重新訓(xùn)練;可以輕松修改配置文件,增加新類(lèi)別、新特征,壓縮模型大小;Model Export API可以把模型輕松部署在英偉達(dá)的DeepStream SDK 3.0上,做智能視頻分析 (IVA) 應(yīng)用;Model Export API在可以把模型部署到Clara平臺(tái)上,來(lái)做醫(yī)學(xué)影像相關(guān)應(yīng)用。
自第一代產(chǎn)品發(fā)布以來(lái),英偉達(dá)TLT收到了開(kāi)發(fā)者的熱烈歡迎。公司也持之以恒地投入,并于近日推出了多個(gè)可直接用于生產(chǎn)的預(yù)訓(xùn)練模型和遷移學(xué)習(xí)工具包(Transfer Learning Toolkit, TLT)3.0 開(kāi)發(fā)者測(cè)試版,以及 DeepStream SDK 5.1。據(jù)介紹,此次發(fā)布包括一系列新型預(yù)訓(xùn)練模型。這些模型具有支持對(duì)話式 AI 應(yīng)用的創(chuàng)新功能,可提供更加強(qiáng)大的解決方案來(lái)加速開(kāi)發(fā)者從訓(xùn)練到部署的整個(gè)過(guò)程。
英偉達(dá)方面表示,預(yù)訓(xùn)練模型和 TLT 3.0(開(kāi)發(fā)者測(cè)試版)包括以下主要亮點(diǎn):
1、全新視覺(jué) AI 預(yù)訓(xùn)練模型:車(chē)牌檢測(cè)與識(shí)別、心率監(jiān)測(cè)、手勢(shì)識(shí)別、視線估計(jì)、情緒識(shí)別、人臉檢測(cè)、面部特征點(diǎn)估計(jì);
2、通過(guò)自動(dòng)語(yǔ)音識(shí)別(ASR)和自然語(yǔ)言處理(NLP)的預(yù)訓(xùn)練模型支持對(duì)話式 AI 用例
3、選擇流行的網(wǎng)絡(luò)架構(gòu)進(jìn)行訓(xùn)練,如 EfficientNet、YoloV4 和 UNET;
4;經(jīng)過(guò)改進(jìn)的 PeopleNet 模型可以檢測(cè)困難場(chǎng)景,比如坐著的人和旋轉(zhuǎn)/扭曲的物體
5;用于推動(dòng)兼容容器初始化的 TLT 啟動(dòng)器
6;支持具有第三代張量核心的 NVIDIA Ampere GPU,從而提升性能
“借助 TLT,您可以通過(guò) NVIDIA 為常見(jiàn) AI 任務(wù)開(kāi)發(fā)的多用途生產(chǎn)級(jí)模型或者 ResNet、VGG、FasterRCNN、RetinaNet 和 YOLOv3/v4 等 100 多種神經(jīng)網(wǎng)絡(luò)架構(gòu)組合,使用自己的數(shù)據(jù)對(duì)特定用例的模型進(jìn)行微調(diào)。所有模型均可從 NGC 獲得?!庇ミ_(dá)方面強(qiáng)調(diào)。
人工智能行業(yè)專(zhuān)家吳恩達(dá)教授在NIPS 2016 講座上表示:“在監(jiān)督學(xué)習(xí)之后,遷移學(xué)習(xí)將引領(lǐng)下一波機(jī)器學(xué)習(xí)技術(shù)商業(yè)化浪潮?!庇纱丝梢钥吹剑ミ_(dá)又一次走上了AI的風(fēng)口。
責(zé)任編輯:tzh
-
gpu
+關(guān)注
關(guān)注
28文章
4937瀏覽量
131176 -
AI
+關(guān)注
關(guān)注
88文章
35041瀏覽量
279104 -
人工智能
+關(guān)注
關(guān)注
1806文章
48987瀏覽量
249067 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3944瀏覽量
93613
發(fā)布評(píng)論請(qǐng)先 登錄
評(píng)論