一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊云TI平臺利用NVIDIA Triton推理服務器構造不同AI應用場景需求

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 作者:NVIDIA英偉達企業(yè)解 ? 2022-09-05 15:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

騰訊云 TI 平臺 TI-ONE 利用 NVIDIA Triton 推理服務器構造高性能推理服務部署平臺,使用戶能夠非常便捷地部署包括 TNN 模型在內(nèi)的多種深度學習框架下獲得的 AI 模型,并且顯著提升推理服務的吞吐、提升 GPU 利用率。

騰訊云 TI 平臺(TencentCloud TI Platform)是基于騰訊先進 AI 能力和多年技術經(jīng)驗,面向開發(fā)者、政企提供的全棧式人工智能開發(fā)服務平臺,致力于打通包含從數(shù)據(jù)獲取、數(shù)據(jù)處理、算法構建、模型訓練、模型評估、模型部署、到 AI 應用開發(fā)的產(chǎn)業(yè) + AI 落地全流程鏈路,幫助用戶快速創(chuàng)建和部署 AI 應用,管理全周期 AI 解決方案,從而助力政企單位加速數(shù)字化轉型并促進 AI 行業(yè)生態(tài)共建。騰訊云 TI 平臺系列產(chǎn)品支持公有云訪問、私有化部署以及專屬云部署。

TI-ONE 是騰訊云 TI 平臺的核心產(chǎn)品之一,可為 AI 工程師打造的一站式機器學習平臺,為用戶提供從數(shù)據(jù)接入、模型訓練、模型管理到模型服務的全流程開發(fā)支持。騰訊云 TI 平臺 TI-ONE 支持多種訓練方式和算法框架,滿足不同 AI 應用場景的需求。

通常我們在 AI 模型訓練好之后,需要將其部署在云端形成 AI 服務,供應用的客戶端進行調(diào)用。但如何高效地進行推理服務的部署無疑是 AI 推理平臺需要面對的挑戰(zhàn)。

一方面,推理服務部署平臺需要支持多種不同深度學習框架訓練出來的模型,以滿足不同客戶對于不同框架的偏好,甚至需要支持一些自定義的推理框架,如 TNN[1] 等。

另一方面,部署平臺需要盡可能提升推理服務的性能,包括提升吞吐、降低延時,以及提升硬件資源利用率等,這就要求平臺對模型的部署和調(diào)度進行高效的優(yōu)化。

最后,對于由前后處理、AI 模型等多個模塊組成的工作流,例如一些 AI 工作管線中除了深度學習模型之外還包含前后處理模塊,推理服務部署平臺也需要對各個模塊進行有條不紊且高效的串聯(lián)。以上這些需求,都需要對推理服務部署平臺進行精心的設計和實現(xiàn)。

針對以上挑戰(zhàn),騰訊云 TI-ONE 充分利用 NVIDIA Triton 推理服務器構建高性能的推理部署解決方案,為多個行業(yè)場景的推理工作負載提升效率。

騰訊云將 Triton 集成進 TI-ONE 的推理部署服務中。行業(yè)客戶僅需將需要推理的模型上傳至 TI-ONE 平臺上,并選擇使用 Triton 作為推理后端框架,TI-ONE 便能自動地在 Kubernetes 集群上自動拉起 Triton 容器。在容器內(nèi),Triton 服務器將會啟動,并根據(jù)客戶選定的配置參數(shù),自動地加載用戶上載的模型,以模型實例的方式管理起來,并對外提供推理服務請求的接口。

Triton 支持絕大部分主流深度學習框架的推理,包括 TensorRT, TensorFlow, PyTorch, ONNX Runtime 等。除此之外,Triton 還支持擴展自定義的推理框架 Backend。TNN 是騰訊自研的開源高性能、輕量級神經(jīng)網(wǎng)絡推理框架,被廣泛應用于騰訊云行業(yè)解決方案的推理場景中。騰訊云遵循 Triton Backend API [2],實現(xiàn)了 Triton TNN Backend,使得 TNN 模型能夠直接被 Triton 推理服務器加載、管理以及執(zhí)行推理。

ac1138d6-2ac9-11ed-ba43-dac502259ad0.jpg

圖1. 加入 TNN Backend 的 Triton 推理服務器架構示意圖

為了提升推理服務的性能、提升硬件資源利用率,騰訊云 TI-ONE 利用了 Triton 提供的 Dynamic Batching 功能。在部署推理服務時,用戶可選擇開啟該功能,Triton 則會自動地將到達服務端的零散推理請求(通常 batch size 較?。┚酆铣纱蟮?batch,輸入對應的模型實例中進行推理。如此,GPU 在執(zhí)行更大 batch size 的推理時能達到更高的利用率,從而提升服務的吞吐。且用戶可在 TI-ONE 平臺中設置將多個請求組合成 batch 的等待時長,以便在延時和吞吐之間權衡。不僅如此,TI-ONE 還利用 Triton 的 Concurrent Model Execution 功能,在每張 NVIDIA GPU 上同時部署相同或不同模型的多個模型實例,使得在單個模型較為輕量的情況下,通過多個模型實例的并行執(zhí)行來充分利用 GPU 的計算資源,在提升 GPU 利用率的同時獲得更高的吞吐。

ac260770-2ac9-11ed-ba43-dac502259ad0.jpg

圖2. Triton Dynamic Batching 機制示意圖

最后,針對需要部署由多個模塊組合的 AI 工作管線的應用場景,TI-ONE 正與 NVIDIA 一起積極探索如何利用 Triton Ensemble Model 以及 Triton Python Backend,將前后處理模塊與 AI 模型有序地串聯(lián)在一起。其中,Triton Python Backend 能夠直接將現(xiàn)有的 Python 前后處理代碼封裝為可在 Triton 上部署的模塊;Triton Ensemble Model 是一種特殊的調(diào)度器,可通過配置文件定義多個模塊之間的連接關系,并自動地將推理請求在定義好的工作管線上進行有條不紊的調(diào)度。

目前,騰訊云 TI 平臺 TI-ONE 利用 NVIDIA Triton 已為多種不同的行業(yè)解決方案提供了高性能的推理服務,包括工業(yè)質(zhì)檢、自動駕駛等業(yè)務場景,涉及到的圖像分類、對象檢測、以及實例分割等 AI 任務。

通過 Triton 提供的多框架支持以及擴展的 TNN Backend,無論用戶使用何種框架訓練 AI 模型,都能在 TI-ONE 上部署其推理服務,給了算法工程師更大的選擇自由度,節(jié)省了模型轉換的開銷。利用 Triton 的 Dynamic Batching 機制和 Concurrent Model Execution 功能, TI-ONE 在某一目標檢測場景部署 FasterRCNN ResNet50-FPN 模型,相比于使用 Tornado 部署框架在 NVIDIA T4 Tensor Core GPU 上最高可獲得 31.6% 的吞吐提升,如下圖所示:

ac46fdf4-2ac9-11ed-ba43-dac502259ad0.jpg

圖 3. TI-ONE 中不同推理服務框架部署目標檢測模型時所實現(xiàn)的服務吞吐量對比

2022 騰訊云

此圖片依據(jù)由騰訊云提供數(shù)據(jù)所制作

在另一圖像分類業(yè)務中,TI-ONE 利用 Triton 的 Dynamic Batching 機制部署包含前后處理及模型推理的工作管線,結合 TNN 對推理的加速,在 1/2 T4 Tensor Core GPU 上,相比于 Python 實現(xiàn)的 HTTP Server 獲得最高 2.6 倍延時縮減及最高 2.5 倍吞吐的提升,如下表所示:

ac643e14-2ac9-11ed-ba43-dac502259ad0.png

表 1. TI-ONE 中不同推理服務框架部署圖像分類模型時所實現(xiàn)的服務性能對比

2022 騰訊云

此表格依據(jù)由騰訊云提供數(shù)據(jù)所制作

未來,騰訊云 TI 平臺將與 NVIDIA 團隊繼續(xù)合作,探索利用 Triton 對復雜工作管線進行推理服務部署的解決方案,進一步為各個行業(yè)的 AI 推理場景提供更高效率、更低成本的推理平臺。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5309

    瀏覽量

    106464
  • 服務器
    +關注

    關注

    13

    文章

    9797

    瀏覽量

    88026
  • AI
    AI
    +關注

    關注

    88

    文章

    35189

    瀏覽量

    280227
  • 騰訊云
    +關注

    關注

    0

    文章

    221

    瀏覽量

    17120

原文標題:NVIDIA Triton 助力騰訊云 TI-ONE 平臺為行業(yè)解決方案提供高性能 AI 推理部署服務

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于RAKsmart服務器AI大模型實時推理方案設計

    面對高并發(fā)請求、嚴格的響應延遲要求及波動的業(yè)務負載,傳統(tǒng)本地化部署的算力瓶頸愈發(fā)顯著。RAKsmart服務器憑借其彈性計算資源池、分布式網(wǎng)絡架構與全棧AI加速能力,為AI大模型實時
    的頭像 發(fā)表于 05-13 10:33 ?239次閱讀

    AI 推理服務器都有什么?2025年服務器品牌排行TOP10與選購技巧

    根據(jù)行業(yè)數(shù)據(jù),AI推理服務器的性能差異可以達到10倍以上。比如,用普通服務器跑一個700億參數(shù)的大模型,可能需要30秒才能出結果,而用頂級服務器
    的頭像 發(fā)表于 04-09 11:06 ?1101次閱讀
    <b class='flag-5'>AI</b> <b class='flag-5'>推理</b><b class='flag-5'>服務器</b>都有什么?2025年<b class='flag-5'>服務器</b>品牌排行TOP10與選購技巧

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    Triton 推理服務器的后續(xù)產(chǎn)品,NVIDIA Dynamo 是一款全新的 AI 推理
    的頭像 發(fā)表于 03-20 15:03 ?655次閱讀

    AI服務平臺可以干什么

    當今,AI服務平臺,作為連接技術與應用的橋梁,正以其廣泛的功能覆蓋和深度應用場景,逐步滲透到社會經(jīng)濟的各個角落。下面,
    的頭像 發(fā)表于 02-27 10:11 ?426次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>云</b><b class='flag-5'>服務</b><b class='flag-5'>平臺</b>可以干什么

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?725次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b><b class='flag-5'>平臺</b>提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    站群服務器與VPS的適用場景有什么不同嗎

    站群服務器與VPS虛擬專用服務器在適用場景上確實存在顯著的差異。以下是兩者適用場景的具體對比,主機推薦小編為您整理發(fā)布群服務器與VPS的適
    的頭像 發(fā)表于 02-05 10:08 ?437次閱讀

    獨立服務器服務器哪個快一些?

    獨立服務器服務器哪個快一些?在數(shù)字服務部署中,獨立服務器
    的頭像 發(fā)表于 02-05 10:08 ?416次閱讀

    通用型企業(yè)服務器:優(yōu)勢與應用場景全面解析

    隨著計算技術的不斷發(fā)展和創(chuàng)新,通用型企業(yè)服務器已經(jīng)成為企業(yè)數(shù)字化轉型的重要推動力量。本文將深入探討通用型企業(yè)服務器的優(yōu)勢與應
    的頭像 發(fā)表于 01-14 11:14 ?467次閱讀

    GPU加速服務器怎么用的

    GPU加速服務器是將GPU硬件與計算服務相結合,通過服務提供商的
    的頭像 發(fā)表于 12-26 11:58 ?467次閱讀

    企業(yè)服務器平臺設計與搭建

    企業(yè)服務器平臺的設計與搭建是一個復雜但系統(tǒng)的過程,涉及多個環(huán)節(jié)和因素。主機推薦小編為您整理發(fā)布企業(yè)服務器
    的頭像 發(fā)表于 12-04 09:51 ?550次閱讀

    什么是AI服務器?AI服務器的優(yōu)勢是什么?

    AI服務器是一種專門為人工智能應用設計的服務器,它采用異構形式的硬件架構,通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合來滿足高吞吐量互聯(lián)的
    的頭像 發(fā)表于 09-21 11:43 ?2049次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態(tài)的優(yōu)勢,為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理
    的頭像 發(fā)表于 09-09 09:19 ?939次閱讀

    AI服務器:開啟智能計算新時代

    一、AI服務器的定義與特點 AI服務器的定義 AI
    的頭像 發(fā)表于 08-09 16:08 ?1657次閱讀

    美國站群vps服務器的應用場景和使用方法

    美國站群VPS服務器在多站點托管、SEO優(yōu)化、高可用性與穩(wěn)定性、成本效益、安全性以及特定行業(yè)應用等方面具有廣泛的應用場景。美國站群VPS服務器
    的頭像 發(fā)表于 07-26 15:56 ?752次閱讀

    英偉達推出全新NVIDIA AI Foundry服務NVIDIA NIM推理服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務NVIDIA NIM 推理
    的頭像 發(fā)表于 07-25 09:48 ?1065次閱讀