一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出能一次生成完整視頻的擴散模型

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-01-29 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌研究院近日發(fā)布了一款名為Lumiere的文生視頻擴散模型,基于自家研發(fā)的Space-Time U-Net基礎架構(gòu),獨立生成具有高效、完整且動作連貫性的視頻效果。

該公司指出,當前眾多文生視頻模型普遍存在無法生成長時、高品質(zhì)及動作連貫的問題。這些模型往往采用“分段生成視頻”策略,即先生成少量關(guān)鍵幀,再借助時間超級分辨率(TSM)技術(shù)生成其間的視頻文件。盡管此策略可減緩RAM負擔,但難以生成理想的連續(xù)視頻效果。

針對此問題,谷歌的Lumiere模型創(chuàng)新地引入了新型Space-Time U-Net基礎架構(gòu),這種架構(gòu)能在空間和時間兩個維度同時降低信號采樣率,使其具備更高的計算效率,進而實現(xiàn)生成更具持續(xù)性、動作連貫的視頻效果。

此外,開發(fā)者們特別說明,Lumiere每次可生成80幀視頻(在16FPS模式下相當于5秒視頻,或在24FPS模式下為約3.34秒視頻)。盡管這一時光貌似短暫,然而他們強調(diào),事實上,這段5秒視頻所包含的鏡頭時長已超出大多數(shù)媒體作品中單一鏡頭的平均時長。

除運用架構(gòu)創(chuàng)新以外,作為AI構(gòu)建基礎的預訓練文生圖像模型也得到了谷歌團隊的特別關(guān)注。該模型首次生成簡單像素草稿作為視頻分幀,然后借助空間超分辨率(SRM)模型,逐步提高分幀分辨率,同時引入通用生成框架Multi-Diffusion以增強模型穩(wěn)定性,從而確保最終輸出的視頻效果一致且連續(xù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108153
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1392

    瀏覽量

    117554
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280018
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50433
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    種基于擴散模型視頻生成框架RoboTransfer

    在機器人操作領域,模仿學習是推動具身智能發(fā)展的關(guān)鍵路徑,但高度依賴大規(guī)模、高質(zhì)量的真實演示數(shù)據(jù),面臨高昂采集成本與效率瓶頸。仿真器雖提供了低成本數(shù)據(jù)生成方案,但顯著的“模擬到現(xiàn)實”(Sim2Real)鴻溝,制約了仿真數(shù)據(jù)訓練策略的泛化能力與落地應用。
    的頭像 發(fā)表于 07-09 14:02 ?204次閱讀
    <b class='flag-5'>一</b>種基于<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的<b class='flag-5'>視頻生成</b>框架RoboTransfer

    谷歌生成式AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI 上推出新一生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?377次閱讀

    字節(jié)跳動即將推出多模態(tài)視頻生成模型OmniHuman

    完整的AI視頻。 據(jù)即夢AI相關(guān)負責人透露,OmniHuman模型在研發(fā)過程中融入了前沿的人工智能技術(shù),通過復雜的算法和深度學習機制,實現(xiàn)了圖片與音頻的精準匹配和
    的頭像 發(fā)表于 02-08 10:53 ?763次閱讀

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI 大模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新代旗艦大模型 Gemini 2.0 P
    的頭像 發(fā)表于 02-07 15:07 ?717次閱讀

    阿里云通義萬相2.1視頻生成模型震撼發(fā)布

    近日,阿里云旗下的通義萬相迎來了重要升級,正式推出了全新的萬相2.1視頻生成模型。這創(chuàng)新成果標志著阿里云在視頻生成技術(shù)領域的又
    的頭像 發(fā)表于 01-13 10:00 ?836次閱讀

    基于移動自回歸的時序擴散預測模型

    回歸取得了比傳統(tǒng)基于噪聲的擴散模型更好的生成效果,并且獲得了人工智能頂級會議 NeurIPS 2024 的 best paper。 然而在時間序列預測領域,當前主流的擴散方法還是傳統(tǒng)的
    的頭像 發(fā)表于 01-03 14:05 ?896次閱讀
    基于移動自回歸的時序<b class='flag-5'>擴散</b>預測<b class='flag-5'>模型</b>

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領域,結(jié)合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細且富有創(chuàng)意的提示,然后使用 Imagen 3
    的頭像 發(fā)表于 01-03 10:38 ?902次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質(zhì)量圖像

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無推出視頻生成模型Sora的應用程序接口(API)的計劃。Sora模型能夠基于文本和圖像生成
    的頭像 發(fā)表于 12-20 14:23 ?531次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這新品的發(fā)布,無疑為AI技術(shù)注入了新的活力。 據(jù)悉,Sora與OpenAI旗下的AI工具DALL-E有著
    的頭像 發(fā)表于 12-12 09:40 ?719次閱讀

    OpenAI開放Sora視頻生成模型

    升級,準備迎接廣大用戶的深入探索與廣泛應用。 據(jù)官方公告介紹,Sora Turbo作為Sora的升級版本,具備強大的視頻生成能力。它能夠根據(jù)用戶的文本提示,快速創(chuàng)建出最長達20秒的高清視頻片段。更令人驚喜的是,Sora Turbo還能針對同
    的頭像 發(fā)表于 12-10 11:16 ?743次閱讀

    浙大、微信提出精確反演采樣器新范式,徹底解決擴散模型反演問題

    隨著擴散生成模型的發(fā)展,人工智能步入了屬于?AIGC?的新紀元。擴散生成模型可以對初始高斯噪聲進
    的頭像 發(fā)表于 11-27 09:21 ?696次閱讀
    浙大、微信提出精確反演采樣器新范式,徹底解決<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>反演問題

    字節(jié)跳動自研視頻生成模型Seaweed開放

    近日,字節(jié)跳動旗下的AI內(nèi)容平臺即夢AI傳來新消息,宣布自研的視頻生成模型Seaweed即日起正式面向平臺用戶開放使用。這舉措標志著字節(jié)跳動在AI視頻領域邁出了堅實的
    的頭像 發(fā)表于 11-11 14:31 ?703次閱讀

    擴散模型的理論基礎

    擴散模型的迅速崛起是過去幾年機器學習領域最大的發(fā)展之。在這本簡單易懂的指南中,學習你需要知道的關(guān)于擴散模型
    的頭像 發(fā)表于 10-28 09:30 ?1388次閱讀
    <b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的理論基礎

    今日看點丨Vishay裁員800人,關(guān)閉上海等三家工廠;字節(jié)跳動發(fā)布兩款視頻生成模型

    企業(yè)市場開啟邀測。 ? 火山引擎介紹,豆包視頻生成模型基于DiT架構(gòu),通過高效的DiT融合計算單元,更充分地壓縮編碼視頻與文本,讓視頻在大
    發(fā)表于 09-25 15:48 ?952次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創(chuàng)新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這舉措標志著火山引擎在視頻內(nèi)容
    的頭像 發(fā)表于 09-25 14:11 ?647次閱讀