-
一個(gè)開(kāi)源完整的基于 PyTorch 的 ChatGPT 等效實(shí)現(xiàn)流程,涵蓋所有 3 個(gè)階段,可以幫助你構(gòu)建基于預(yù)訓(xùn)練模型的 ChatGPT 式服務(wù)。
-
提供了一個(gè)迷你演示訓(xùn)練過(guò)程供用戶試玩,它只需要 1.62GB 的 GPU 顯存,并且可能在單個(gè)消費(fèi)級(jí) GPU 上實(shí)現(xiàn),單GPU模型容量最多提升10.3 倍。
-
與原始 PyTorch 相比,單機(jī)訓(xùn)練過(guò)程最高可提升7.73 倍,單 GPU 推理速度提升 1.42 倍,僅需一行代碼即可調(diào)用。
-
在微調(diào)任務(wù)上,同樣僅需一行代碼,就可以在保持足夠高的運(yùn)行速度的情況下,最多提升單GPU的微調(diào)模型容量3.7 倍。
-
提供多個(gè)版本的單 GPU 規(guī)模、單節(jié)點(diǎn)多 GPU 規(guī)模和原始 1750 億參數(shù)規(guī)模。還支持從 Hugging Face 導(dǎo)入 OPT、GPT-3、BLOOM 和許多其他預(yù)訓(xùn)練的大型模型到你的訓(xùn)練過(guò)程中。



from chatgpt.nn import GPTActor, GPTCritic, RewardModel
from chatgpt.trainer import PPOTrainer
from chatgpt.trainer.strategies import ColossalAIStrategy
strategy = ColossalAIStrategy(stage=3, placement_policy='cuda')
with strategy.model_init_context():
actor = GPTActor().cuda()
critic = GPTCritic().cuda()
initial_model = deepcopy(actor).cuda()
reward_model = RewardModel(deepcopy(critic.model)).cuda()
trainer = PPOTrainer(strategy, actor, critic, reward_model, initial_model,...)
trainer.fit(prompts)
審核編輯 :李倩-
gpu
+關(guān)注
關(guān)注
28文章
4925瀏覽量
130920 -
服務(wù)器
+關(guān)注
關(guān)注
13文章
9752瀏覽量
87558 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1589瀏覽量
8954
原文標(biāo)題:開(kāi)源方案低成本復(fù)現(xiàn)ChatGPT流程,僅需1.6GB顯存即可體驗(yàn)
文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
香蕉派開(kāi)源社區(qū)與矽昌通信共推BPI-Wifi5 低成本路由器開(kāi)源方案
低成本藍(lán)牙串口模塊解決方案
追求性能提升 使用8GB HBM2顯存
科技大廠競(jìng)逐AIGC,中國(guó)的ChatGPT在哪?
低成本遙控器線路ICHQ1628產(chǎn)品規(guī)格書
堅(jiān)果Pro 3開(kāi)啟了促銷活動(dòng)最高直降500元8GB+128GB版僅需2399元
榮耀V30 PRO在5G網(wǎng)絡(luò)環(huán)境下下載一部1.6GB大小的1080P電影僅需2分鐘
華為Mate 20降價(jià)促銷 6+128GB版僅需2199元
ESP32低成本板開(kāi)源項(xiàng)目

低成本無(wú)線火箭發(fā)射器開(kāi)源分享

低成本機(jī)器人消毒系統(tǒng)開(kāi)源分享

開(kāi)源低成本電力監(jiān)控系統(tǒng)

源2.0-M32大模型發(fā)布量化版 運(yùn)行顯存僅需23GB 性能可媲美LLaMA3

評(píng)論