一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Triton推理服務(wù)器簡化人工智能推理

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Uttara Kumar ? 2022-04-08 16:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能的快速發(fā)展正在推高數(shù)據(jù)集的規(guī)模,以及網(wǎng)絡(luò)的規(guī)模和復(fù)雜性。支持人工智能的應(yīng)用程序,如電子商務(wù)產(chǎn)品推薦、基于語音的助手和呼叫中心自動化,需要數(shù)十到數(shù)百個經(jīng)過培訓(xùn)的人工智能模型。推理服務(wù)幫助基礎(chǔ)設(shè)施管理人員部署、管理和擴(kuò)展這些模型,并在生產(chǎn)中保證實(shí)時服務(wù)質(zhì)量( QoS )。此外,基礎(chǔ)架構(gòu)經(jīng)理希望提供和管理用于部署這些 AI 模型的正確計(jì)算基礎(chǔ)架構(gòu),最大限度地利用計(jì)算資源,靈活地放大或縮小規(guī)模,以優(yōu)化部署的運(yùn)營成本。將人工智能投入生產(chǎn)既是一項(xiàng)推理服務(wù),也是一項(xiàng)基礎(chǔ)設(shè)施管理挑戰(zhàn)。

NVIDIA 與谷歌云合作,將 CPUGPU 通用推理服務(wù)平臺 NVIDIA Triton Inference Server的功能與谷歌 Kubernetes 引擎( GKE )相結(jié)合,使企業(yè)更容易將人工智能投入生產(chǎn)。NVIDIA Triton Inference Server 是一個托管環(huán)境,用于在安全的谷歌基礎(chǔ)設(shè)施中部署、擴(kuò)展和管理容器化人工智能應(yīng)用程序。

使用 NVIDIA Triton 推理服務(wù)器在谷歌云上的 CPU 和 GPU 上提供推理服務(wù)

在企業(yè)應(yīng)用程序中操作 AI 模型帶來了許多挑戰(zhàn)——為在多個框架中培訓(xùn)的模型提供服務(wù),處理不同類型的推理查詢類型,并構(gòu)建一個能夠跨 CPU 和 GPU 等多個部署平臺進(jìn)行優(yōu)化的服務(wù)解決方案。

Triton 推理服務(wù)器通過提供一個單一的標(biāo)準(zhǔn)化推理平臺來解決這些挑戰(zhàn),該平臺可以從任何基于 TensorFlow 、TensorRT、 PyTorch 、 ONNX 運(yùn)行時、 OpenVINO 或自定義 C ++/ Python 框架的本地存儲或谷歌云的托管存儲在任何基于 GPU 或 CPU 的基礎(chǔ)設(shè)施上部署經(jīng)過培訓(xùn)的 AI 模型。

圖 1 Triton 部署在 Google Kubernetes 引擎( GKE )上的推理服務(wù)器

在 GKE 集群上一鍵部署 NVIDIA Triton 推理服務(wù)器

Google Kubernetes Engine ( GKE )上的 Triton 為部署在 CPU 和 GPU 上的 AI 模型提供了通用推理服務(wù)平臺,并結(jié)合了 Kubernetes 群集管理、負(fù)載平衡和基于需求的自動縮放計(jì)算的方便性。

使用谷歌市場上新的一鍵式 Triton GKE 推理服務(wù)器應(yīng)用程序,可以將 Triton 無縫部署為 Google Kubernetes Engine ( GKE )管理的集群上的容器化微服務(wù)。

GKE 的 Triton 推理服務(wù)器應(yīng)用程序是一個 helm chart 部署程序,可自動安裝和配置 Triton ,以便在具有 NVIDIA GPU 節(jié)點(diǎn)池的 GKE 集群上使用,包括 NVIDIA A100 Tensor Core GPU s 和 NVIDIA T4 Tensor Core GPU s ,并利用谷歌云上的 Istio 進(jìn)行流量進(jìn)入和負(fù)載平衡。它還包括一個水平 pod autoscaler ( HPA ),它依賴堆棧驅(qū)動程序自定義度量適配器來監(jiān)控 GPU 占空比,并根據(jù)推理查詢和 SLA 要求自動縮放 GKE 集群中的 GPU 節(jié)點(diǎn)。

關(guān)于作者

Uttara Kumar 是 NVIDIA 的高級產(chǎn)品營銷經(jīng)理,專注于 GPU - 云計(jì)算中的人工智能加速應(yīng)用。她非常關(guān)心讓每個人都能獲得技術(shù)的民主化,讓開發(fā)者能夠利用 NVIDIA 數(shù)據(jù)中心平臺的力量來加快創(chuàng)新步伐。在 NVIDIA 之前,她領(lǐng)導(dǎo)半導(dǎo)體和科學(xué)計(jì)算軟件公司的軟件產(chǎn)品營銷。她擁有安娜堡密歇根大學(xué)的 Eel CTR 工程碩士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11080

    瀏覽量

    217067
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    9795

    瀏覽量

    87980
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49018

    瀏覽量

    249466
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢在于強(qiáng)大的推理引擎能力,融合了自然語言處理(NLP)、深度
    發(fā)表于 07-16 15:29

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過程對顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大模型推理顯存和計(jì)算量的估計(jì)
    發(fā)表于 07-03 19:43

    ai服務(wù)器是什么?與普通服務(wù)器有什么區(qū)別

    AI服務(wù)器并非簡單的硬件堆砌,而是專門為人工智能任務(wù)設(shè)計(jì)的高性能計(jì)算系統(tǒng)。其核心目標(biāo)是高效處理海量數(shù)據(jù)并行計(jì)算(如矩陣乘法、模型推理),并針對AI工作負(fù)載(如深度學(xué)習(xí)訓(xùn)練、大模型推理
    的頭像 發(fā)表于 06-24 16:39 ?239次閱讀

    AI 推理服務(wù)器都有什么?2025年服務(wù)器品牌排行TOP10與選購技巧

    根據(jù)行業(yè)數(shù)據(jù),AI推理服務(wù)器的性能差異可以達(dá)到10倍以上。比如,用普通服務(wù)器跑一個700億參數(shù)的大模型,可能需要30秒才能出結(jié)果,而用頂級服務(wù)器可能只需要3秒。這就是為什么選對
    的頭像 發(fā)表于 04-09 11:06 ?1056次閱讀
    AI <b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>都有什么?2025年<b class='flag-5'>服務(wù)器</b>品牌排行TOP10與選購技巧

    推理服務(wù)器的7大可靠性指標(biāo),寬溫/抗震/EMC防護(hù)實(shí)測數(shù)據(jù)分享

    在 AIoT 設(shè)備突破百億級的今天,邊緣計(jì)算推理服務(wù)器已成為智能時代的 "神經(jīng)末梢"。根據(jù) Gartner 預(yù)測,到 2025 年將有 75% 的企業(yè)關(guān)鍵任務(wù)部署在邊緣端。然而,工業(yè)級應(yīng)用場景(如
    的頭像 發(fā)表于 04-02 10:43 ?521次閱讀
    <b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>的7大可靠性指標(biāo),寬溫/抗震/EMC防護(hù)實(shí)測數(shù)據(jù)分享

    國產(chǎn)推理服務(wù)器如何選擇?深度解析選型指南與華頡科技實(shí)戰(zhàn)案例

    人工智能技術(shù)的爆發(fā)催生了對推理算力的迫切需求,而進(jìn)口服務(wù)器的高成本與技術(shù)依賴性,推動了國產(chǎn)推理服務(wù)器的快速發(fā)展。據(jù)IDC預(yù)測,到2025年,
    的頭像 發(fā)表于 03-24 17:11 ?484次閱讀
    國產(chǎn)<b class='flag-5'>推理</b><b class='flag-5'>服務(wù)器</b>如何選擇?深度解析選型指南與華頡科技實(shí)戰(zhàn)案例

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    Triton 推理服務(wù)器的后續(xù)產(chǎn)品,NVIDIA Dynamo 是一款全新的 AI 推理服務(wù)
    的頭像 發(fā)表于 03-20 15:03 ?647次閱讀

    浪潮信息發(fā)布元腦R1推理服務(wù)器

    近日,浪潮信息正式推出了其創(chuàng)新的元腦R1推理服務(wù)器。這款服務(wù)器通過系統(tǒng)的創(chuàng)新與軟硬件的協(xié)同優(yōu)化,實(shí)現(xiàn)了對DeepSeek R1 671B模型的單機(jī)部署與運(yùn)行,為客戶在智能應(yīng)用部署方面帶
    的頭像 發(fā)表于 02-17 10:32 ?706次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?717次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高AI<b class='flag-5'>推理</b>性能

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    近日,摩爾線程智能科技(北京)有限責(zé)任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經(jīng)成功實(shí)現(xiàn)了對DeepSeek蒸餾模型推理服務(wù)的部署。這一技術(shù)突破,標(biāo)志著摩爾線程在人工智能領(lǐng)域邁出
    的頭像 發(fā)表于 02-06 13:49 ?817次閱讀

    Triton編譯在機(jī)器學(xué)習(xí)中的應(yīng)用

    1. Triton編譯概述 Triton編譯NVIDIA Triton
    的頭像 發(fā)表于 12-24 18:13 ?990次閱讀

    什么是AI服務(wù)器?AI服務(wù)器的優(yōu)勢是什么?

    AI服務(wù)器是一種專門為人工智能應(yīng)用設(shè)計(jì)的服務(wù)器,它采用異構(gòu)形式的硬件架構(gòu),通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合來滿足高吞吐量互聯(lián)的需求,為自然語言處理、計(jì)算機(jī)視覺、機(jī)器學(xué)習(xí)等
    的頭像 發(fā)表于 09-21 11:43 ?2031次閱讀

    AI云服務(wù)器:開啟智能計(jì)算新時代

    一、AI云服務(wù)器的定義與特點(diǎn) AI云服務(wù)器的定義 AI云服務(wù)器是一種基于云計(jì)算技術(shù),專為處理人工智能相關(guān)工作負(fù)載而構(gòu)建的服務(wù)器。它集成了強(qiáng)大
    的頭像 發(fā)表于 08-09 16:08 ?1646次閱讀

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)NVIDIA NIM推理服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)NVIDIA NIM 推理服務(wù)
    的頭像 發(fā)表于 07-25 09:48 ?1061次閱讀