一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌新作Dreamix:視頻擴散模型是通用視頻編輯器,效果驚艷!

CVer ? 來源:機器之心 ? 2023-02-09 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AIGC 已經(jīng)火了很長時間了,出現(xiàn)了文本生成圖像、文本生成視頻、圖像生成視頻等廣泛的應用場景,如今谷歌研究院的一項新研究可以讓我們根據(jù)輸入視頻生成其他視頻了!

我們知道,生成模型和多模態(tài)視覺語言模型的進展已經(jīng)為具備前所未有生成真實性和多樣性的大型文本到圖像模型鋪平了道路。這些模型提供了新的創(chuàng)作過程,但僅限于合成新圖像而非編輯現(xiàn)有圖像。為了彌合這一差距,基于文本的直觀編輯方法可以對生成和真實圖像進行基于文本的編輯,并保留這些圖像的一些原始屬性。與圖像類似,近來文本到視頻模型也提出了很多,但使用這些模型進行視頻編輯的方法卻很少。 在文本指導的視頻編輯中,用戶提供輸入視頻以及描述生成視頻預期屬性的文本 prompt,如下圖 1 所示。目標有以下三個方面,1)對齊,編輯后的視頻應符合輸入文本 prompt;2)保真度,編輯后的視頻應保留原始視頻的內(nèi)容,3)質(zhì)量,編輯后的視頻應具備高質(zhì)量。 可以看到,視頻編輯比圖像編輯更加具有挑戰(zhàn)性,它需要合成新的動作,而不僅僅是修改視覺外觀。此外還需要保持時間上的一致性。因此,將 SDEdit、Prompt-to-Prompt 等圖像級別的編輯方法應用于視頻幀上不足以實現(xiàn)很好的效果。

c97ae65a-a7e3-11ed-bfe3-dac502259ad0.png

在近日谷歌研究院等發(fā)表在 arXiv 的一篇論文中,研究者提出了一種新方法 Dreamix,它受到了 UniTune 的啟發(fā),將文本條件視頻擴散模型(video diffusion model, VDM)應用于視頻編輯。

c996adcc-a7e3-11ed-bfe3-dac502259ad0.png

Dreamix: Video Diffusion Models are General Video Editors

論文地址:https://arxiv.org/abs/2302.01329

項目主頁:https://dreamix-video-editing.github.io/

文中方法的核心是通過以下兩種主要思路使文本條件 VDM 保持對輸入視頻的高保真度。其一不使用純噪聲作為模型初始化,而是使用原始視頻的降級版本,通過縮小尺寸和添加噪聲僅保留低時空信息;其二通過微調(diào)原始視頻上的生成模型來進一步提升對原始視頻的保真度。 微調(diào)確保模型了解原始視頻的高分辨率屬性。對輸入視頻的簡單微調(diào)會促成相對較低的運動可編輯性,這是因為模型學會了更傾向于原始運動而不是遵循文本 prompt。研究者提出了一種新穎的混合微調(diào)方法,其中 VDM 也在輸入視頻各個幀的集合上進行微調(diào),并丟棄了它們的時序?;旌衔⒄{(diào)顯著提升了運動編輯的質(zhì)量。 研究者進一步利用其視頻編輯模型提出了一個新的圖像動畫框架,如下圖 2 所示。該框架包含了幾個步驟,比如為圖像中的對象和背景設置動畫、創(chuàng)建動態(tài)相機運動等。他們通過幀復制或幾何圖像變換等簡單的圖像處理操作來實現(xiàn),從而創(chuàng)建粗糙的視頻。接著使用 Dreamix 視頻編輯器對視頻進行編輯。此外研究者還使用其微調(diào)方法進行目標驅(qū)動的視頻生成,也即 Dreambooth 的視頻版本。

c9aa1678-a7e3-11ed-bfe3-dac502259ad0.png

在實驗展示部分,研究者進行了廣泛的定性研究和人工評估,展示了他們方法的強大能力,具體可參考如下動圖。

c9c1c62e-a7e3-11ed-bfe3-dac502259ad0.gif

?

ca0b8e44-a7e3-11ed-bfe3-dac502259ad0.gif

cab5acee-a7e3-11ed-bfe3-dac502259ad0.gif

對于谷歌這項研究,有人表示,3D + 運動和編輯工具可能是下一波論文的熱門主題。

cb1f10da-a7e3-11ed-bfe3-dac502259ad0.png

還有人表示:大家可以很快在預算內(nèi)制作自己的的電影了,你所需要的只是一個綠幕以及這項技術:

cb39199e-a7e3-11ed-bfe3-dac502259ad0.png

方法概覽 本文提出了一種新的方法用于視頻編輯,具體而言: 通過逆向被破壞視頻進行文本引導視頻編輯 他們采用級聯(lián) VDM( Video Diffusion Models ),首先通過下采樣對輸入視頻就行一定的破壞,后加入噪聲。接下來是級聯(lián)擴散模型用于采樣過程,并以時間 t 為條件,將視頻升級到最終的時間 - 空間分辨率。 在對輸入視頻進行破壞處理的這一過程中,首先需要進行下采樣操作,以得到基礎模型(16 幀 24 × 40),然后加入方差為cb4acffe-a7e3-11ed-bfe3-dac502259ad0.png高斯噪聲,從而進一步破壞輸入視頻。 ? 對于上述處理好的視頻,接下來的操作是使用級聯(lián) VDM 將損壞掉的低分辨率視頻映射到與文本對齊的高分辨率視頻。這里的核心思想是,給定一個嘈雜的、時間空間分辨率非常低的視頻,有許多完全可行的、高分辨率的視頻與之對應。本文中基礎模型從損壞的視頻開始,它與時間 s 的擴散過程具有相同的噪聲。然后該研究用 VDM 來逆向擴散過程直到時間 0。最后通過超分辨率模型對視頻進行升級。 ?混合視頻圖像微調(diào)? 僅利用輸入視頻進行視頻擴散模型的微調(diào)會限制物體運動變化,相反,該研究使用了一種混合目標,即除了原始目標(左下角)之外,本文還對無序的幀集進行了微調(diào),這是通過「masked temporal attention」來完成的,以防止時間注意力和卷積被微調(diào)(右下)。這種操作允許向靜態(tài)視頻中添加運動。 ?

cb5b667a-a7e3-11ed-bfe3-dac502259ad0.png

推理 在應用程序預處理的基礎上(Aapplication Dependent Pre-processing,下圖左),該研究支持多種應用,能將輸入內(nèi)容轉換為統(tǒng)一的視頻格式。對于圖像到視頻,輸入圖像被復制并被變換,合成帶有一些相機運動的粗略視頻;對于目標驅(qū)動視頻生成,其輸入被省略,單獨進行微調(diào)以維持保真度。然后使用 Dreamix Video Editor(右)編輯這個粗糙的視頻:即前面講到的,首先通過下采樣破壞視頻,添加噪聲。然后應用微調(diào)的文本引導視頻擴散模型,將視頻升級到最終的時間空間分辨率。

cb7a6520-a7e3-11ed-bfe3-dac502259ad0.png

實驗結果 視頻編輯:下圖中 Dreamix 將動作改為舞蹈,并且外觀由猴子變?yōu)樾埽曨l中主體的基本屬性沒有變:

cb8bda80-a7e3-11ed-bfe3-dac502259ad0.gif

Dreamix 還可以生成與輸入視頻時間信息一致的平滑視覺修改,如下圖會滑滑板的小鹿:

cbd6fd08-a7e3-11ed-bfe3-dac502259ad0.gif

圖像到視頻:當輸入是一張圖像時,Dreamix 可以使用其視頻先驗添加新的移動對象,如下圖中添加了在有霧的森林中出現(xiàn)一頭獨角獸,并放大。

cc397f00-a7e3-11ed-bfe3-dac502259ad0.gif

小屋旁邊出現(xiàn)企鵝:

cc73cb56-a7e3-11ed-bfe3-dac502259ad0.gif

目標驅(qū)動視頻生成:Dreamix 還可以獲取顯示相同主題的圖像集合,并以該主題為運動對象生成新的視頻。如下圖是一條在葉子上蠕動的毛毛蟲:

ccb304ba-a7e3-11ed-bfe3-dac502259ad0.gif

除了定性分析外,該研究還進行了基線比較,主要是將 Dreamix 與 Imagen-Video、 Plug-and-Play (PnP) 兩種基線方法進行對比。下表為評分結果:

ccec576a-a7e3-11ed-bfe3-dac502259ad0.png

圖 8 展示了由 Dreamix 編輯的視頻和兩個基線示例:文本到視頻模型實現(xiàn)了低保真度的編輯,因為它不以原始視頻為條件。PnP 保留了場景,但不同幀之間缺乏一致性;Dreamix 在這三個目標上都表現(xiàn)良好。

cd035e2e-a7e3-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視頻
    +關注

    關注

    6

    文章

    1971

    瀏覽量

    73835
  • 編輯器
    +關注

    關注

    1

    文章

    821

    瀏覽量

    31929
  • 語言模型
    +關注

    關注

    0

    文章

    561

    瀏覽量

    10747

原文標題:谷歌新作Dreamix:視頻擴散模型是通用視頻編輯器,效果驚艷!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Vim編輯器的基本操作

    在代碼的世界里,效率是永恒的追求。無論是新手開發(fā)者還是資深工程師,都渴望擁有一款能讓自己如虎添翼的編輯器。而在Linux生態(tài)中,有一款被無數(shù)程序員奉為神器、被譽為“效率之王”的編輯器——Vim。它以
    的頭像 發(fā)表于 05-06 13:41 ?395次閱讀
    Vim<b class='flag-5'>編輯器</b>的基本操作

    Linux下Vim編輯器的使用技巧

    【Vim】常用總結? 簡介? image 什么是vim?? Linux下兩大編輯神器之一 vim ? Linux/Unix下使用最多的編輯器 ? vi的改進版 ? 可能是最難上手的編輯器之一
    的頭像 發(fā)表于 04-01 17:36 ?488次閱讀
    Linux下Vim<b class='flag-5'>編輯器</b>的使用技巧

    簡化樹莓派文件操作:Picockpit 編輯器應用上手體驗

    我們激動地宣布推出全新的文件編輯器應用,讓您能夠在RaspberryPi上遠程創(chuàng)建和編輯文件和目錄!不僅如此,通過我們的文件編輯器應用,您還能獲得我們的AI系統(tǒng)——RaspiGPT的協(xié)助。要您擁有
    的頭像 發(fā)表于 03-25 09:26 ?209次閱讀
    簡化樹莓派文件操作:Picockpit <b class='flag-5'>編輯器</b>應用上手體驗

    《AI Agent 應用與項目實戰(zhàn)》----- 學習如何開發(fā)視頻應用

    學習、自然語言處理(NLP)、計算機視覺(CV)等先進技術提供的強大的數(shù)據(jù)處理和分析能力。 在視頻應用開發(fā)中,AI Agent可以用于視頻內(nèi)容分析、推薦、編輯等。 下面跟隨作者的指導,使用語聚AI平臺
    發(fā)表于 03-05 19:52

    福昕軟件國內(nèi)版PDF編輯器成功接入DeepSeek模型

    近日,福昕軟件在互動平臺上宣布,其國內(nèi)版PDF編輯器產(chǎn)品已經(jīng)成功完成了DeepSeek模型的適配接入工作。這一舉措標志著福昕軟件在AI技術融合方面取得了重要進展,為用戶提供了更加智能、高效的PDF
    的頭像 發(fā)表于 02-19 09:28 ?772次閱讀

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無推出其視頻生成模型Sora的應用程序接口(API)的計劃。Sora模型能夠基于文本和圖像生成視頻,引發(fā)了廣泛關注。然而,由于訪問量遠超預期,OpenAI此
    的頭像 發(fā)表于 12-20 14:23 ?513次閱讀

    圖紙編輯器的基本操作

    “ ?之前幾篇推文詳細介紹了圖紙編輯器的亮點功能,最后我們再介紹一下圖紙編輯器的基本操作,來結束這個系列 ? ” 主窗口工具欄 工具欄由以下工具組成,不同操作系統(tǒng)的圖標樣式可能不同;不同版本的工具欄
    的頭像 發(fā)表于 12-04 18:18 ?520次閱讀
    圖紙<b class='flag-5'>編輯器</b>的基本操作

    浙大、微信提出精確反演采樣新范式,徹底解決擴散模型反演問題

    。當前的采樣不能兼顧反演的準確性和采樣的質(zhì)量。 為徹底解決這一問題,微信視覺團隊與浙江大學和清華大學聯(lián)手提出了基于雙向顯式線性多步法的擴散模型精確反演采樣(BELM)這一
    的頭像 發(fā)表于 11-27 09:21 ?658次閱讀
    浙大、微信提出精確反演采樣<b class='flag-5'>器</b>新范式,徹底解決<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>反演問題

    可靈AI全球首發(fā)視頻模型定制功能,助力AI視頻創(chuàng)作

    近日,快手旗下的可靈AI在全球范圍內(nèi)率先推出了視頻模型定制功能,這一創(chuàng)新之舉成功解決了AI視頻生成過程中人物IP穩(wěn)定性不足的難題。 據(jù)了解,用戶現(xiàn)在可以在可靈AI的web端利用這一功能,訓練并定制
    的頭像 發(fā)表于 11-26 14:02 ?1209次閱讀

    擴散模型的理論基礎

    擴散模型的迅速崛起是過去幾年機器學習領域最大的發(fā)展之一。在這本簡單易懂的指南中,學習你需要知道的關于擴散模型的一切。
    的頭像 發(fā)表于 10-28 09:30 ?1326次閱讀
    <b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的理論基礎

    Vivado編輯器亂碼問題

    我們在日常開發(fā)中經(jīng)常使用sublime、vim、vs code等第三方的編輯器,這些編輯器可以使用很多插件來提高我們的編碼效率,但是也往往會帶來亂碼的問題。我一般使用的是sublime來進行編碼
    的頭像 發(fā)表于 10-15 17:24 ?2410次閱讀
    Vivado<b class='flag-5'>編輯器</b>亂碼問題

    vim編輯器命令模式使用方法

    Vim編輯器是一款功能強大的文本編輯器,廣泛應用于程序員和開發(fā)者的日常工作中。Vim編輯器擁有多種模式,其中命令模式(Command mode)是最基本的模式之一,它允許用戶執(zhí)行各種命令來操作
    的頭像 發(fā)表于 08-30 15:01 ?1019次閱讀

    vim編輯器如何使用

    Vim編輯器是一個功能強大的文本編輯器,它基于Vi進行改進,并增加了許多新特性。Vim編輯器的使用主要涉及其不同的工作模式及相應操作。以下是Vim編輯器的基本使用方法: 一、Vim
    的頭像 發(fā)表于 08-30 14:58 ?856次閱讀

    嵌入式學習-常用編輯器之Vim編輯器

    在Linux下我們對文本進行編輯,經(jīng)常用到的編輯器就是Vi/Vim,Vi/Vim命令眾多,功能強大,是大多數(shù)Linux程序員選擇使用的編輯器。下面先簡單介紹Vim編輯器的安裝和工作模式
    發(fā)表于 08-23 09:12

    常用編輯器之Vim編輯器

    在Linux下我們對文本進行編輯,經(jīng)常用到的編輯器就是Vi/Vim,Vi/Vim命令眾多,功能強大,是大多數(shù)Linux程序員選擇使用的編輯器。下面先簡單介紹Vim編輯器的安裝和工作模式
    發(fā)表于 08-22 09:48