一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于加強(qiáng)深度學(xué)習(xí)能力以簡(jiǎn)化設(shè)計(jì)、訓(xùn)練和部署模型分析和介紹

MATLAB ? 來源:djl ? 2019-09-16 10:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MATLAB Release 2017b(R2017b) 今日正式推出,其中包括MATLAB和Simulink的若干新功能、六款新產(chǎn)品以及對(duì)其他 86 款產(chǎn)品的更新和修復(fù)補(bǔ)丁。此發(fā)行版還添加了新的重要的深度學(xué)習(xí)功能,可簡(jiǎn)化工程師、研究人員及其他領(lǐng)域?qū)<以O(shè)計(jì)、訓(xùn)練和部署模型的方式。

隨著智能設(shè)備和物聯(lián)網(wǎng)的發(fā)展,設(shè)計(jì)團(tuán)隊(duì)面臨創(chuàng)造更加智能的產(chǎn)品和應(yīng)用的挑戰(zhàn),他們需要自己掌握深度學(xué)習(xí)技能或依賴其他具有深度學(xué)習(xí)專長(zhǎng)但可能不了解應(yīng)用場(chǎng)景的團(tuán)隊(duì)。借助 R2017b,工程和系統(tǒng)集成團(tuán)隊(duì)可以將 MATLAB 拓展用于深度學(xué)習(xí),以更好地保持對(duì)整個(gè)設(shè)計(jì)過程的控制,并更快地實(shí)現(xiàn)更高質(zhì)量的設(shè)計(jì)??梢酝ㄟ^使用預(yù)訓(xùn)練網(wǎng)絡(luò),協(xié)作開發(fā)代碼和模型,然后部署到 GPU嵌入式設(shè)備。使用 MATLAB 可以改進(jìn)結(jié)果質(zhì)量,同時(shí)通過自動(dòng)化地面實(shí)況標(biāo)記 App 來縮短模型開發(fā)時(shí)間。

R2017b中的具體深度學(xué)習(xí)特性、產(chǎn)品和功能包括:

Neural Network Toolbox增加了對(duì)復(fù)雜架構(gòu)的支持,包括有向無環(huán)圖 (DAG) 和長(zhǎng)短期記憶 (LSTM) 網(wǎng)絡(luò),并提供對(duì) GoogLeNet 等流行的預(yù)訓(xùn)練模型的訪問。

Computer Vision System Toolbox中的 Image Labeler 應(yīng)用現(xiàn)在提供一種方便和交互的方式來標(biāo)記一系列圖像中的地面實(shí)況數(shù)據(jù)。除對(duì)象檢測(cè)工作流程外,該工具箱現(xiàn)在還利用深度學(xué)習(xí)支持語義分割,對(duì)圖像中的像素區(qū)域進(jìn)行分類,以及評(píng)估和可視化分割結(jié)果。

MATLAB深度學(xué)習(xí):為自動(dòng)駕駛的工作流程提供語義分割

新產(chǎn)品GPU Coder可自動(dòng)將深度學(xué)習(xí)模型轉(zhuǎn)換為 NVIDIA GPU 的 CUDA 代碼。內(nèi)部基準(zhǔn)測(cè)試顯示,在部署階段為深度學(xué)習(xí)模型產(chǎn)生的代碼,比 TensorFlow 的性能提高 7倍,比 Caffe2的性能提高4.5 倍。

注:使用 TitanXP GPU 和 Intel(R) Xeon(R) CPU E5-1650 v4 @ 3.60GHz 對(duì) AlexNet 的推理性能執(zhí)行了內(nèi)部基準(zhǔn)測(cè)試。使用的軟件版本是 MATLAB(R2017b)、TensorFlow(1.2.0) 和 Caffe2(0.8.1)。每個(gè)軟件的 GPU 加速版本用于基準(zhǔn)測(cè)試。所有測(cè)試均在 Windows 10 上運(yùn)行。

與 R2017a 推出的功能相結(jié)合,可以使用預(yù)訓(xùn)練模型進(jìn)行遷移學(xué)習(xí),包括卷積神經(jīng)網(wǎng)絡(luò) (CNN) 模型(AlexNet、VGG-16 和 VGG-19)以及來自 Caffe 的模型(包括 Caffe Model Zoo)??梢詮念^開始開發(fā)模型,包括使用 CNN 進(jìn)行圖像分類、對(duì)象檢測(cè)、回歸等。

其他系列更新:

除深度學(xué)習(xí)外,R2017b 還包括其他關(guān)鍵領(lǐng)域的一系列更新,包括:

使用 MATLAB 進(jìn)行數(shù)據(jù)分析:一款新 Text Analytics Toolbox 產(chǎn)品、可擴(kuò)展數(shù)據(jù)存儲(chǔ)、用于機(jī)器學(xué)習(xí)的更多大數(shù)據(jù)繪圖和算法,以及 Microsoft Azure Blob 存儲(chǔ)支持

使用 Simulink 進(jìn)行實(shí)時(shí)軟件建模:對(duì)用于軟件環(huán)境的調(diào)度效果進(jìn)行建模并實(shí)現(xiàn)可插入式組件

使用 Simulink 進(jìn)行驗(yàn)證和確認(rèn):用于需求建模、測(cè)試覆蓋率分析和合規(guī)性檢查的新工具

MathWorks是數(shù)學(xué)計(jì)算軟件領(lǐng)域世界領(lǐng)先的開發(fā)商。它所推出的MATLAB是一種用于算法開發(fā)、數(shù)據(jù)分析、可視化和數(shù)值計(jì)算的程序設(shè)計(jì)環(huán)境,稱為“科學(xué)計(jì)算的語言”。Simulink是一種圖形環(huán)境,可用于對(duì)多域動(dòng)態(tài)系統(tǒng)和嵌入式系統(tǒng)進(jìn)行仿真和基于模型設(shè)計(jì)。全球的工程師和科學(xué)家們都依賴于MathWorks公司所提供的這些產(chǎn)品系列,來加快在汽車、航空、電子、金融服務(wù)、生物醫(yī)藥以及其他行業(yè)的發(fā)明、創(chuàng)新及開發(fā)的步伐。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5150

    文章

    19665

    瀏覽量

    317427
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122789
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何使用Docker部署模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器化技術(shù),能夠?qū)?/div>
    的頭像 發(fā)表于 05-24 16:39 ?338次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)
    發(fā)表于 01-14 16:51

    模型訓(xùn)練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是一個(gè)用于簡(jiǎn)化和加速深度學(xué)習(xí)模型訓(xùn)練的庫,它支持在多種硬件配置上進(jìn)行分布式
    的頭像 發(fā)表于 01-14 14:24 ?709次閱讀

    Flexus X 實(shí)例 ultralytics 模型 yolov10 深度學(xué)習(xí) AI 部署與應(yīng)用

    前言: ???深度學(xué)習(xí)新紀(jì)元,828 B2B 企業(yè)節(jié) Flexus X 實(shí)例特惠!想要高效訓(xùn)練 YOLOv10 模型,實(shí)現(xiàn)精準(zhǔn)圖像識(shí)別?Flexus X
    的頭像 發(fā)表于 12-24 12:24 ?787次閱讀
    Flexus X 實(shí)例 ultralytics <b class='flag-5'>模型</b> yolov10 <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b> AI <b class='flag-5'>部署</b>與應(yīng)用

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    策略,提高模型學(xué)習(xí)能力和泛化性能。 硬件友好性: 在驍龍865等硬件平臺(tái)上表現(xiàn)出色,并支持快速導(dǎo)出為 ONNX 格式,使得模型在硬件
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫數(shù)字識(shí)別

    新的數(shù)據(jù)樣本,另一個(gè)是判別器用來判斷這些樣本的真實(shí)性。兩者相互競(jìng)爭(zhēng),共同進(jìn)化,最終實(shí)現(xiàn)高質(zhì)量的數(shù)據(jù)合成。 2.4 模型優(yōu)化技術(shù) 在將深度學(xué)習(xí)模型部署
    發(fā)表于 12-06 17:20

    深度學(xué)習(xí)模型的魯棒性優(yōu)化

    。異常值和噪聲可能會(huì)誤導(dǎo)模型訓(xùn)練,導(dǎo)致模型在面對(duì)新數(shù)據(jù)時(shí)表現(xiàn)不佳。 數(shù)據(jù)標(biāo)準(zhǔn)化/歸一化 :將數(shù)據(jù)轉(zhuǎn)換到同一尺度上,有助于模型更好地學(xué)習(xí)數(shù)據(jù)
    的頭像 發(fā)表于 11-11 10:25 ?1183次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作
    的頭像 發(fā)表于 11-05 17:43 ?1399次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練
    的頭像 發(fā)表于 10-28 14:05 ?651次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>訓(xùn)練</b>的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1353次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)
    的頭像 發(fā)表于 10-25 09:22 ?1221次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來進(jìn)行訓(xùn)練和推理。
    的頭像 發(fā)表于 10-23 15:25 ?2879次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    神經(jīng)網(wǎng)絡(luò),特別是預(yù)訓(xùn)練的基礎(chǔ)模型研究得到了廣泛的應(yīng)用,但其仍然主要依賴于在大量樣本上的批量式訓(xùn)練。本報(bào)告將探討實(shí)現(xiàn)模型的增量式訓(xùn)練,針對(duì)
    的頭像 發(fā)表于 10-18 08:09 ?590次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)<b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)<b class='flag-5'>學(xué)習(xí)</b>

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    并行計(jì)算的能力,可以在硬件層面并行處理大量數(shù)據(jù)。這種并行處理能力使得 FPGA 在執(zhí)行深度學(xué)習(xí)算法時(shí)速度遠(yuǎn)超傳統(tǒng)處理器,能夠提供更低的延遲和更高的吞吐量,從而加速
    發(fā)表于 09-27 20:53

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的信息,提供更全面的上下文理解。這使得模型能夠更準(zhǔn)確地理解復(fù)雜問題中的多個(gè)層面和隱含意義。 2. 語義分析 模型通過訓(xùn)練學(xué)習(xí)到語言的語義特征
    發(fā)表于 08-02 11:03