近日,韓國科研團(tuán)隊(duì)成功研發(fā)出KOALA這一種新型AI,在提升效能的同時(shí),顯著減輕了對(duì)硬件的要求。僅使用8GB內(nèi)存,便可在短短2秒鐘內(nèi)生成高品質(zhì)圖像。
由此模型的核心在于其運(yùn)用了“知識(shí)蒸餾”(knowledge distillation)技術(shù),這使得開源圖像生成工具Stable Diffusion XL可大幅縮小其規(guī)模。原Stable Diffusion XL擁有25.6億個(gè)參數(shù),經(jīng)過團(tuán)隊(duì)處理后,參數(shù)規(guī)??s減至7億。
這也意味著KOALA無需高端顯卡或其他高配置設(shè)備即能順暢運(yùn)行。
實(shí)際上,“知識(shí)蒸餾”是指挑選大型模型中的有效信息,轉(zhuǎn)移至小模型并保持其質(zhì)量與性能。如此,小型模型便能快速生成優(yōu)質(zhì)圖像。
據(jù)試測顯示,以同一主題“月球下的星際迷航員閱讀一本書”作為提示,KOALA模型完成用時(shí)只需1.6秒,相較之下,Open AI的兩款知名模型DALL-E 3(13.7秒)及DALL-E 2(12.3秒)則相對(duì)耗時(shí)更長。
-
AI
+關(guān)注
關(guān)注
88文章
35093瀏覽量
279506 -
模型
+關(guān)注
關(guān)注
1文章
3517瀏覽量
50401 -
圖像生成
+關(guān)注
關(guān)注
0文章
25瀏覽量
7036
發(fā)布評(píng)論請(qǐng)先 登錄
利用NVIDIA 3D引導(dǎo)生成式AI Blueprint控制圖像生成
NVIDIA助力初創(chuàng)公司BioTuring發(fā)布新型AI模型
了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇
Kioxia開源發(fā)布AiSAQ?技術(shù),降低生成式AI的DRAM需求
【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+第一章初體驗(yàn)
借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

評(píng)論