一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何開啟Stable Diffusion WebUI模型推理部署

捷易物聯(lián) ? 2024-12-11 20:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自從模型廣場上新后,有不少朋友來咨詢小助手如何開啟模型的推理部署,今天,小助手就以Stable Diffusion WebUI為例,教大家如何捷智算平臺(tái)開啟模型的推理部署。

Web UI模型詳細(xì)部署教程

進(jìn)入捷智算,在菜單欄找到【模型廣場】就可以看到上新的模型~

44aa1dc8-b7b9-11ef-8084-92fbcf53809c.png

一、選擇模型類型

根據(jù)自己興趣的模型點(diǎn)擊【推理部署】,我們找到StableDiffusionWebUI點(diǎn)擊【推理部署】。

二、購買容器

選擇需要的GPU卡及分區(qū),然后點(diǎn)擊【啟動(dòng)實(shí)例】

44ecf08a-b7b9-11ef-8084-92fbcf53809c.png

也可以在購買容器頁面點(diǎn)擊【模型鏡像】,選擇需要的模型鏡像,進(jìn)入部署好模型的容器。

450a7b50-b7b9-11ef-8084-92fbcf53809c.png

三、打開jupyter文檔

創(chuàng)建實(shí)例運(yùn)行成功后點(diǎn)擊【更多操作】-【查看信息】,獲取并復(fù)制jupyter密碼

452c6986-b7b9-11ef-8084-92fbcf53809c.png45377ca4-b7b9-11ef-8084-92fbcf53809c.png

獲取密碼后點(diǎn)擊jupyter,輸入復(fù)制的密碼

454fd290-b7b9-11ef-8084-92fbcf53809c.png455ffa44-b7b9-11ef-8084-92fbcf53809c.png

就可以進(jìn)去到模型的jupyter文件頁面啦~例如選的是Stable diffusion模型,則點(diǎn)擊Stable Diffusion文件夾

456cc42c-b7b9-11ef-8084-92fbcf53809c.png

四、啟動(dòng)模型

點(diǎn)擊模型啟動(dòng)ipynb格式文件,按教程點(diǎn)擊點(diǎn)擊上方 ?? 按鍵直接運(yùn)行

點(diǎn)擊Restart,重啟內(nèi)核運(yùn)行

看到顯示URL鏈接就說明模型啟動(dòng)成功啦~

45aa78bc-b7b9-11ef-8084-92fbcf53809c.png

五、配置外網(wǎng)端口并外網(wǎng)打開

要留意一下哦!模型廣場web的一般是鏈接是0.0.0.0:8801,但是只能在內(nèi)網(wǎng)打開(也就是不能在您自己的電腦打開模型鏈接的意思),如果想外網(wǎng)分享鏈接,需要申請(qǐng)端口開放。返回控制臺(tái),點(diǎn)擊【更多操作】-【設(shè)置端口】

45c95700-b7b9-11ef-8084-92fbcf53809c.png

內(nèi)網(wǎng)端口輸入8801,點(diǎn)擊【確認(rèn)】,就會(huì)生成一個(gè)外網(wǎng)端口

45e21c54-b7b9-11ef-8084-92fbcf53809c.png

再次點(diǎn)擊設(shè)置端口,就可以看到生成的外網(wǎng)端口,比如20403

46054c1a-b7b9-11ef-8084-92fbcf53809c.png

這樣就可以在外網(wǎng)打開

如果看到遠(yuǎn)程地址是183.47.51.183,那你就可以在自己的電腦瀏覽器輸入【183.47.51.183:20403】打開Web UI使用界面。

461ee0a8-b7b9-11ef-8084-92fbcf53809c.png

打開后,大家就可以在SD的世界里暢玩啦~記得先去找小助手薅羊毛,再來推理部署

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280023
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249585
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50434
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?671次閱讀

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型推理過程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大模型
    發(fā)表于 07-03 19:43

    基于RK3576開發(fā)板的RKLLM大模型部署教程

    Runtime則負(fù)責(zé)加載轉(zhuǎn)換后的模型,并在Rockchip NPU上進(jìn)行推理,用戶可以通過自定義回調(diào)函數(shù)實(shí)時(shí)獲取推理結(jié)果。 開發(fā)流程分為模型轉(zhuǎn)換和板端
    的頭像 發(fā)表于 05-16 17:48 ?1408次閱讀
    基于RK3576開發(fā)板的RKLLM大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>教程

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討
    的頭像 發(fā)表于 04-03 12:09 ?508次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現(xiàn)狀

    中科馭數(shù)高性能網(wǎng)卡產(chǎn)品 成就DeepSeek推理模型網(wǎng)絡(luò)底座

    的突破性進(jìn)展,而且開源模型發(fā)展帶來部署成本的極速下降,為定制化AGI服務(wù),推理本地化部署,帶來發(fā)展機(jī)遇,也掀起了新的一輪智算基礎(chǔ)設(shè)施建設(shè)浪潮。 與按Token生成數(shù)量計(jì)費(fèi)的AI云服務(wù)模
    的頭像 發(fā)表于 03-31 11:56 ?302次閱讀
    中科馭數(shù)高性能網(wǎng)卡產(chǎn)品 成就DeepSeek<b class='flag-5'>推理模型</b>網(wǎng)絡(luò)底座

    ?Diffusion生成式動(dòng)作引擎技術(shù)解析

    Diffusion生成式動(dòng)作引擎 Diffusion生成式動(dòng)作引擎是一種基于擴(kuò)散模型Diffusion Models)的生成式人工智能技術(shù),專注于生成連續(xù)、逼真的人類動(dòng)作或動(dòng)畫序列。
    的頭像 發(fā)表于 03-17 15:14 ?1841次閱讀

    安裝OpenVINO?工具包穩(wěn)定擴(kuò)散后報(bào)錯(cuò),怎么解決?

    :\\stable-openvino2\\stable-diffusion-webui-master\\venv\\lib\\site-packages\\diffusers\\models
    發(fā)表于 03-05 06:56

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰(zhàn)與驚喜的技術(shù)探索之旅。 RK3588 開發(fā)板:AI 性能擔(dān)當(dāng) RK3588 開發(fā)板基于先進(jìn)的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在 AI
    發(fā)表于 02-14 17:42

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    近日,摩爾線程智能科技(北京)有限責(zé)任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經(jīng)成功實(shí)現(xiàn)了對(duì)DeepSeek蒸餾模型推理服務(wù)的部署。這一技術(shù)突破,標(biāo)志著摩爾線程在人工智能領(lǐng)域邁出了堅(jiān)實(shí)的一步
    的頭像 發(fā)表于 02-06 13:49 ?823次閱讀

    阿里云開源推理模型QwQ

    近日,阿里云通義團(tuán)隊(duì)宣布推出全新AI推理模型QwQ-32B-Preview,并同步實(shí)現(xiàn)了開源。這一舉措標(biāo)志著阿里云在AI推理領(lǐng)域邁出了重要一步。 據(jù)評(píng)測數(shù)據(jù)顯示,QwQ預(yù)覽版本已具備研究生水平的科學(xué)
    的頭像 發(fā)表于 11-29 11:30 ?1172次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應(yīng)用,模型的計(jì)算需求大幅提升,帶來推理時(shí)延高、資源消耗大等挑戰(zhàn)。
    的頭像 發(fā)表于 11-15 14:20 ?1430次閱讀
    使用vLLM+OpenVINO加速大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    高效大模型推理綜述

    模型由于其在各種任務(wù)中的出色表現(xiàn)而引起了廣泛的關(guān)注。然而,大模型推理的大量計(jì)算和內(nèi)存需求對(duì)其在資源受限場景的部署提出了挑戰(zhàn)。業(yè)內(nèi)一直在努力開發(fā)旨在提高大
    的頭像 發(fā)表于 11-15 11:45 ?1461次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    YOLOv6在LabVIEW中的推理部署(含源碼)

    YOLOv6 是美團(tuán)視覺智能部研發(fā)的一款目標(biāo)檢測框架,致力于工業(yè)應(yīng)用。如何使用python進(jìn)行該模型部署,官網(wǎng)已經(jīng)介紹的很清楚了,但是對(duì)于如何在LabVIEW中實(shí)現(xiàn)該模型部署,筆者
    的頭像 發(fā)表于 11-06 16:07 ?952次閱讀
    YOLOv6在LabVIEW中的<b class='flag-5'>推理</b><b class='flag-5'>部署</b>(含源碼)

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?1824次閱讀

    實(shí)操: 如何在AirBox上跑Stable Diffusion 3

    使用StableDiffusion3Medium開源模型,通過SOPHONSDK移植到SG2300X處理器系列產(chǎn)品上進(jìn)行本地TPU硬件加速推理,實(shí)現(xiàn)在radxaAirbox上離線快速生成特
    的頭像 發(fā)表于 07-23 08:34 ?595次閱讀
    實(shí)操: 如何在AirBox上跑<b class='flag-5'>Stable</b> <b class='flag-5'>Diffusion</b> 3