一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【AIBOX應(yīng)用】通過(guò) NVIDIA TensorRT 實(shí)現(xiàn)實(shí)時(shí)快速的語(yǔ)義分割

Firefly開(kāi)源團(tuán)隊(duì) ? 2024-12-18 16:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA 系列 AIBOX

AIBOX-OrinNano 和 AIBOX-OrinNX 均搭載 NVIDIA 原裝 Jetson Orin 核心板模組,標(biāo)配工業(yè)級(jí)全金屬外殼,鋁合金結(jié)構(gòu)導(dǎo)熱,頂蓋外殼側(cè)面采用條幅格柵設(shè)計(jì),高效散熱,保障在高溫運(yùn)行狀態(tài)下的運(yùn)算性能和穩(wěn)定性,滿足各種工業(yè)級(jí)的應(yīng)用需求。

c56dde2a-bd1a-11ef-8084-92fbcf53809c.png

NVIDIA TensorRT

NVIDIA系列 AIBOX 支持深度學(xué)習(xí)框架TensorRT,TensorRT是用于高性能深度學(xué)習(xí)推理的 API 生態(tài)系統(tǒng),其包括推理運(yùn)行時(shí)和模型優(yōu)化,可為生產(chǎn)應(yīng)用提供低延遲和高吞吐量。

TensorRT 生態(tài)系統(tǒng)包括 TensorRT、TensorRT-LLM、TensorRT 模型優(yōu)化器和 TensorRT Cloud。

NVIDIA TensorRT 的優(yōu)勢(shì)

推理速度提升 36 倍

優(yōu)化推理性能

加速各種工作負(fù)載

使用 Triton 進(jìn)行部署、運(yùn)行和擴(kuò)展

應(yīng)用案例—語(yǔ)義分割

語(yǔ)義分割基于圖像識(shí)別,但分類是在像素級(jí)別進(jìn)行的,而不是在整個(gè)圖像上進(jìn)行。這是通過(guò)將預(yù)訓(xùn)練的圖像識(shí)別骨干網(wǎng)絡(luò)進(jìn)行卷積化來(lái)實(shí)現(xiàn)的,將模型轉(zhuǎn)換為能夠進(jìn)行逐像素標(biāo)注的全卷積網(wǎng)絡(luò)(FCN)。語(yǔ)義分割對(duì)于環(huán)境感知特別有用,它能夠?qū)γ總€(gè)場(chǎng)景中的許多不同潛在對(duì)象(包括前景和背景)進(jìn)行密集的逐像素分類。

c58caad0-bd1a-11ef-8084-92fbcf53809c.png

SegNet 模型

SegNet 的新穎之處在于解碼器對(duì)其較低分辨率的輸入特征圖進(jìn)行上采樣的方式。具體地說(shuō),解碼器使用了在相應(yīng)編碼器的最大池化步驟中計(jì)算的池化索引來(lái)執(zhí)行非線性上采樣。經(jīng)上采樣后的特征圖是稀疏的,因此隨后使用可訓(xùn)練的卷積核進(jìn)行卷積操作,生成密集的特征圖。SegNet 的架構(gòu)與廣泛采用的 FCN 以及眾所周知的 DeepLab-LargeFOV,DeconvNet 架構(gòu)進(jìn)行比較。比較的結(jié)果揭示了在實(shí)現(xiàn)良好的分割性能時(shí)所涉及的內(nèi)存與精度之間的權(quán)衡。

c5978d06-bd1a-11ef-8084-92fbcf53809c.png

下載源碼

$ git clone --recursive --depth=1 https://github.com/dusty-nv/jetson-inference

編譯 / 安裝

參考:https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md

運(yùn)行示例

$ ./segnet.py --network=fcn-resnet18-cityscapes city_0.jpg output_city_0.jpgc5bc22c4-bd1a-11ef-8084-92fbcf53809c.jpg

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1176

    瀏覽量

    41982
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106402
  • 核心板
    +關(guān)注

    關(guān)注

    5

    文章

    1162

    瀏覽量

    30885
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用英偉達(dá) NVIDIA Air 服務(wù)將仿真與現(xiàn)實(shí)世界連接

    NVIDIA Air?通過(guò)創(chuàng)建與真實(shí)數(shù)據(jù)中心基礎(chǔ)設(shè)施部署相同的副本來(lái)實(shí)現(xiàn)云規(guī)模效率。借助 NVIDIA Air,您可以啟動(dòng)數(shù)百臺(tái)交換機(jī)和服務(wù)器,并使用單個(gè)腳本進(jìn)行配置。
    的頭像 發(fā)表于 07-07 19:41 ?383次閱讀
    使用英偉達(dá) <b class='flag-5'>NVIDIA</b> Air 服務(wù)將仿真與<b class='flag-5'>現(xiàn)實(shí)</b>世界連接

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開(kāi)源庫(kù),可幫助開(kāi)發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?652次閱讀

    AIBOX 產(chǎn)品矩陣:支持主流大模型的私有化部署,滿足個(gè)性化 AI 應(yīng)用需求

    Firefly共推出9款AIBOX產(chǎn)品,通過(guò)不同的算力、能效、外觀等,適配不同行業(yè)的應(yīng)用場(chǎng)景。Firefly×NVIDIA搭載NVIDIA原裝JetsonOrin系列核心
    的頭像 發(fā)表于 06-25 16:32 ?462次閱讀
    <b class='flag-5'>AIBOX</b> 產(chǎn)品矩陣:支持主流大模型的私有化部署,滿足個(gè)性化 AI 應(yīng)用需求

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?599次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS應(yīng)用的最佳實(shí)踐

    AIBOX 應(yīng)用案例】通過(guò) U2-Net 實(shí)現(xiàn)背景移除

    NVIDIA系列AIBOXAIBOX-OrinNano和AIBOX-OrinNX均搭載NVIDIA原裝JetsonOrin核心板模組,標(biāo)配工業(yè)級(jí)全金屬外殼,鋁合金結(jié)構(gòu)導(dǎo)熱,頂蓋外殼側(cè)面采用條幅格柵
    的頭像 發(fā)表于 06-11 16:32 ?193次閱讀
    【<b class='flag-5'>AIBOX</b> 應(yīng)用案例】<b class='flag-5'>通過(guò)</b> U2-Net <b class='flag-5'>實(shí)現(xiàn)</b>背景移除

    NVIDIA技術(shù)助力Pantheon Lab數(shù)字人實(shí)時(shí)交互解決方案

    本案例中,Pantheon Lab(萬(wàn)想科技)專注于數(shù)字人技術(shù)解決方案,通過(guò) NVIDIA 技術(shù)實(shí)現(xiàn)數(shù)字人實(shí)時(shí)對(duì)話與客戶互動(dòng)交流。借助 NVIDIA
    的頭像 發(fā)表于 01-14 11:19 ?628次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡(jiǎn)稱 ReDrafter) 是蘋果公司為大語(yǔ)言模型 (LLM) 推理開(kāi)發(fā)并開(kāi)源的一種新型推測(cè)解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?753次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個(gè)專為優(yōu)化大語(yǔ)言模型 (LLM) 推理而設(shè)計(jì)的庫(kù)。它提供了多種先進(jìn)的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?867次閱讀

    NVIDIA生態(tài)】具有100 TOPS強(qiáng)勁算力的AIBOX!

    近年來(lái),AI正在通過(guò)自動(dòng)化、改進(jìn)數(shù)據(jù)分析以及提升參與度來(lái)推動(dòng)企業(yè)變革。借助強(qiáng)大的嵌入式AI計(jì)算機(jī),為生成式AI、計(jì)算機(jī)視覺(jué)和高級(jí)機(jī)器人技術(shù)打造新一代產(chǎn)品。Firefly推出搭載NVIDIA原裝
    的頭像 發(fā)表于 12-05 03:00 ?1707次閱讀
    【<b class='flag-5'>NVIDIA</b>生態(tài)】具有100 TOPS強(qiáng)勁算力的<b class='flag-5'>AIBOX</b>!

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開(kāi)發(fā)布

    感謝眾多用戶及合作伙伴一直以來(lái)對(duì)NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開(kāi)發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?721次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現(xiàn)已在GitHub上公開(kāi)發(fā)布

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對(duì)比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?1268次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理優(yōu)化

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    語(yǔ)義圖像分割,即將圖像中的每個(gè)像素分類到特定的類別中,是許多視覺(jué)理解系統(tǒng)中的重要組成部分。作為評(píng)估統(tǒng)計(jì)模型性能的主要標(biāo)準(zhǔn),損失函數(shù)對(duì)于塑造基于深度學(xué)習(xí)的分割算法的發(fā)
    的頭像 發(fā)表于 10-22 08:04 ?1618次閱讀
    <b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    使用OpenVINO C# API部署YOLO-World實(shí)現(xiàn)實(shí)時(shí)開(kāi)放詞匯對(duì)象檢測(cè)

    快速準(zhǔn)確識(shí)別,并通過(guò)AR技術(shù)將虛擬元素與真實(shí)場(chǎng)景相結(jié)合,為用戶帶來(lái)沉浸式的交互體驗(yàn)。在本文中,我們將結(jié)合OpenVINO C# API使用最新發(fā)布的OpenVINO 2024.0部署 YOLO-World實(shí)現(xiàn)實(shí)時(shí)開(kāi)放詞匯對(duì)象檢
    的頭像 發(fā)表于 08-30 16:27 ?1702次閱讀
    使用OpenVINO C# API部署YOLO-World<b class='flag-5'>實(shí)現(xiàn)實(shí)時(shí)</b>開(kāi)放詞匯對(duì)象檢測(cè)

    AIBOX旗艦版:內(nèi)置NVIDIA核心模組

    AIBOX-OrinNano和AIBOX-OrinNX均搭載NVIDIA原裝JetsonOrin核心板模組,該系列可提供40~100TOPS的AI計(jì)算能力、大容量統(tǒng)一內(nèi)存和全面的軟件堆棧,能夠以超高
    的頭像 發(fā)表于 08-30 11:51 ?1041次閱讀
    <b class='flag-5'>AIBOX</b>旗艦版:內(nèi)置<b class='flag-5'>NVIDIA</b>核心模組

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國(guó)最具影響力的模型開(kāi)源社區(qū),致力給開(kāi)發(fā)者提供模型即服務(wù)的體驗(yàn)。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語(yǔ)言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價(jià)值。”
    的頭像 發(fā)表于 08-23 15:48 ?1139次閱讀