一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文生視頻Pika 1.0爆火!一句話生成視頻,普通人也能當(dāng)“導(dǎo)演”

Carol Li ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-12-01 01:08 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)11月29日,美國(guó)AI初創(chuàng)公司Pika labs發(fā)布了全新的文生視頻產(chǎn)品Pika 1.0,這款產(chǎn)品能夠生成和編輯3D動(dòng)畫(huà)、動(dòng)漫、卡通和電影。用Pika 1.0制作視頻幾乎不需要任何門(mén)檻,用戶只需要輸入一句話,就可以生成想要的各種風(fēng)格的視頻,并通過(guò)簡(jiǎn)單的描述,更改視頻中的形象和風(fēng)格。

一句話生成視頻,顛覆傳統(tǒng)視頻制作

Pika成立于今年4月,創(chuàng)始人郭文景和聯(lián)合創(chuàng)始人兼CTO Chenlin Meng,都是斯坦福大學(xué)AI Lab博士生。一位專注于NLP(自然語(yǔ)言處理)和圖形學(xué),另一位主攻計(jì)算機(jī)視覺(jué)方向,都有生成式AI的學(xué)術(shù)經(jīng)歷。今年7月,Pika在Discord推出服務(wù)器,截至目前用戶已超50萬(wàn),每周能生成數(shù)百萬(wàn)個(gè)視頻。

11月29日,Pika Labs正式推出了最新一代視頻生成模型Pika 1.0。Pika 1.0 不僅對(duì)視頻生成質(zhì)量進(jìn)行了提升,還支持 3D 動(dòng)畫(huà)、動(dòng)漫或電影等多種風(fēng)格視頻。此外,用戶還能夠通過(guò) Pika 實(shí)現(xiàn)畫(huà)布延展、局部修改、視頻時(shí)長(zhǎng)拓展等編輯需求。

具體來(lái)看,Pika 1.0的效果有多驚艷。視頻生成方面,可以通過(guò)文字生成視頻,也可以圖片生成視頻。比如,只需輸入提示詞“馬斯克穿著太空服,3D動(dòng)畫(huà)”,一個(gè)動(dòng)畫(huà)版本、穿著太空服準(zhǔn)備乘坐火箭上太空的馬斯克即可生成,外形、動(dòng)作、背景等元素均十分逼真,可以媲美花大成本制作的3D動(dòng)畫(huà)影像。





這是文字生成視頻,另外也可以圖片配合提示詞生成視頻,圖片為第一幀,再用文字控制動(dòng)畫(huà)變化效果和鏡頭。比如,可以輕松讓名畫(huà)《最后的晚餐》變得生動(dòng)起來(lái)。



除了文字生成視頻,圖片生成視頻,還可以通過(guò)原有視頻生成更高質(zhì)量的視頻。其展示了一個(gè)騎馬的黑白原視頻,通過(guò)Pika 1.0生成了物種不同風(fēng)格的動(dòng)畫(huà),幾乎涵蓋現(xiàn)有電影和動(dòng)畫(huà)大部分風(fēng)格,看上去質(zhì)量效果非常好。



除了視頻生成,Pika 1.0還能夠進(jìn)行視頻編輯,用戶只需要選定編輯區(qū)域,就能根據(jù)文本提示詞修改特定區(qū)域。比如,不喜歡視頻中的衣服,可以輕松更換衣服的款式和顏色;只需要用鼠標(biāo)框一下,輸入“一副酷酷的太陽(yáng)鏡”,馬上就能給視頻中的狒狒帶上墨鏡。




此外,Pika 1.0還能夠修改輕松修改視頻尺寸。雖然這個(gè)技術(shù)在AI繪畫(huà)領(lǐng)域早就實(shí)現(xiàn)了,但是目前Pika第一個(gè)將其用在視頻領(lǐng)域。



總的來(lái)說(shuō),Pika 1.0的功能包括:文本生成視頻、圖像生成視頻功能,只需要輸入簡(jiǎn)單的文本描述,或上傳圖像配合文字,就可以創(chuàng)建高質(zhì)量的視頻;視頻風(fēng)格轉(zhuǎn)換;對(duì)視頻內(nèi)容進(jìn)行編輯,更改或者增加圖片里面的元素,還能夠更改視頻的寬高比尺寸等。

據(jù)稱,當(dāng)前Pika Labs團(tuán)隊(duì)僅有4位全職成員,但兼具學(xué)術(shù)和創(chuàng)意兩個(gè)領(lǐng)域的頂尖人才。Demi Guo 和 Chenlin Meng 同為 Stanford AILab 的博士研究人員,擁有頂尖的學(xué)術(shù)和科研經(jīng)歷;Karli Chen 作為團(tuán)隊(duì)第三位創(chuàng)始人及創(chuàng)始工程師擁有CMU的ML&CV碩士學(xué)位,Karlin 本科期間就在機(jī)器視覺(jué)公司 SenseTime 擔(dān)任工程師;Matan Cohen-Grumi則在創(chuàng)意領(lǐng)域經(jīng)驗(yàn)豐富。

在正式推出Pika 1.0的同一天,Pika也公開(kāi)透露,目前已完成A輪融資,籌資總額達(dá)到5500萬(wàn)美元。投資人包括OpenAI創(chuàng)始成員安德烈·卡帕西(Andrej Karpath)、Github前CEO納特·弗里德曼(Nat Friedman)、Quora創(chuàng)始人亞當(dāng)·迪安杰羅(Adam D'Angelo)等。

目前Pika 1.0已經(jīng)開(kāi)啟申請(qǐng)?jiān)囉?,該公司表示,正在努力修?a target="_blank">算法進(jìn)一步改進(jìn)模型,并開(kāi)發(fā)用于過(guò)濾受版權(quán)保護(hù)材料的模型。另外,目前Pika的產(chǎn)品還是免費(fèi)的,但最終可能會(huì)推出分層訂閱模式,付費(fèi)用戶能享受更多功能。同時(shí)Pika也在開(kāi)啟招聘計(jì)劃,包括技術(shù)、產(chǎn)品、運(yùn)營(yíng)等,預(yù)計(jì)明年會(huì)將團(tuán)隊(duì)擴(kuò)充到20人。

AI視頻生成技術(shù)的前景及挑戰(zhàn)

近段時(shí)間,除了Pika 1.0,已經(jīng)有多家企業(yè)發(fā)布新的視頻生成工具。11月16日,社交媒體巨頭Meta發(fā)布工具Emu Video,能夠基于文本和圖像輸入生成視頻剪輯。幾乎同時(shí),字節(jié)跳動(dòng)發(fā)布了PixelDance模型,通過(guò)描述(純文本)+首幀指導(dǎo)(圖片)+尾幀指導(dǎo)(圖片),即可生成包含復(fù)雜場(chǎng)景和動(dòng)作的視頻。

11月21日,Runway動(dòng)態(tài)筆刷Motion Brush面世,該工具發(fā)布的時(shí)候引起不小的關(guān)注,其特別之處在于,只需在任意圖片上抹一筆,就能讓其變成一段動(dòng)態(tài)視頻。作為最早探索視頻生成領(lǐng)域的領(lǐng)頭羊之一,過(guò)去一年,Runway先后發(fā)布了 Gen1、Gen2,此次推出的Motion Brush在可靠性上更是又向前邁進(jìn)一大步。



11月24日,專注于開(kāi)發(fā)人工智能產(chǎn)品的初創(chuàng)公司Stable AI發(fā)布了其最新的AI模型Stable Video Diffusion(穩(wěn)定視頻擴(kuò)散模型),這款模型能夠通過(guò)現(xiàn)有圖片生成視頻,是基于之前發(fā)布的Stable Diffusion文本轉(zhuǎn)圖片模型的延伸。

除此之外,Adobe也在文生視頻領(lǐng)域有新動(dòng)作。日前,該公司宣布已收購(gòu)AI視頻生成創(chuàng)業(yè)公司Rephrase.ai,后者主要通過(guò)AI技術(shù)將文本轉(zhuǎn)換為虛擬形象視頻。Adobe高級(jí)副總裁兼總經(jīng)理Ashley Still稱,Rephrase.ai團(tuán)隊(duì)在生成式AI音視頻技術(shù)、文本到視頻生成工具方面的專業(yè)知識(shí)將擴(kuò)展Adobe的生成式視頻功能。

從Adobe收購(gòu)Rephrase.ai,及國(guó)內(nèi)外企業(yè)紛紛布局AI視頻生成領(lǐng)域,可以看到,AI生成內(nèi)容大潮已經(jīng)逐漸從文本和圖片,進(jìn)一步轉(zhuǎn)向視頻生成。

當(dāng)前,短視頻、短劇市場(chǎng)方興未艾,AI視頻技術(shù)的不斷成熟和應(yīng)用,有望讓視頻創(chuàng)作更簡(jiǎn)單,成本更低。正如在Pika 1.0發(fā)布之際,OpenAI創(chuàng)始成員安德烈·卡帕西(Andrej Karpathy)在X平臺(tái)發(fā)文感慨“每個(gè)人都能成為多模式夢(mèng)想的導(dǎo)演,就像《盜夢(mèng)空間》中的建筑師一樣?!?br />
全世界最大的AI開(kāi)源社區(qū)Hugging Face的CEO克萊門(mén)特(Clement)表示:“2024年,某個(gè)主流媒體領(lǐng)域?qū)?huì)充斥AI生成的內(nèi)容?!?br />
AI視頻生成有著可想象的美好前景,同時(shí)當(dāng)前來(lái)看,它也存在一些挑戰(zhàn)。它與此前的AI生成圖片有所不同,Pika Labs創(chuàng)始人Demi接受媒體采訪時(shí)表示,視頻有很多和圖片不一樣的問(wèn)題,比如要確保視頻的流暢性、確保動(dòng)作,視頻比圖像更大,需要更大的GPU內(nèi)存,視頻生成需要考慮邏輯問(wèn)題,還要考慮如何生成,是一幀一幀生成,還是一起生成,現(xiàn)在很多模型是一起生成,生成的視頻就很短。如果要一幀一幀生成,要怎么做,其實(shí)視頻生成有很多圖片生成不會(huì)面臨的新的技術(shù)問(wèn)題。

該公司的聯(lián)合創(chuàng)世人Chenlin談到,雖然視頻的每一幀都是一張圖片,但比圖片困難得多。每一幀的生成質(zhì)量要高,相鄰幀之間還要有關(guān)聯(lián)性。當(dāng)視頻很長(zhǎng)時(shí),確保每一幀都協(xié)調(diào)一致是個(gè)相當(dāng)復(fù)雜的問(wèn)題。在訓(xùn)練時(shí),處理視頻數(shù)據(jù)時(shí)要處理多張圖片,模型需要適應(yīng)這種情況。比如,如何將100幀圖片傳輸?shù)紾PU上是一個(gè)挑戰(zhàn)。而在推理時(shí),由于涉及到生成大量幀,推理速度相對(duì)于單張圖片會(huì)更慢,計(jì)算成本也會(huì)增加。

從目前的情況來(lái)看,雖然現(xiàn)在的AI視頻生成已經(jīng)展現(xiàn)出很驚人的效果,不過(guò)仍然面臨新的挑戰(zhàn),還有需要突破的地方,比如視頻的時(shí)長(zhǎng),清晰度等等,相關(guān)企業(yè)對(duì)此還需要持續(xù)探索。

總結(jié)

過(guò)去兩年,生成式AI大潮席卷全球,圖片生成率先火出圈并獲得大量使用,不少AI創(chuàng)業(yè)企業(yè)也因此實(shí)現(xiàn)盈利。如今,AI視頻生成逐漸成為創(chuàng)業(yè)企業(yè)及資本追逐的新熱點(diǎn),目前已經(jīng)有眾多企業(yè)推出相關(guān)產(chǎn)品,隨著Pika 1.0的發(fā)布,AI視頻生成技術(shù)也走上了一個(gè)新高度??梢韵胂?,隨著技術(shù)的不斷突破,AI視頻生成技術(shù)將短視頻、短劇等行業(yè)帶來(lái)新的可能。








聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    血壓測(cè)量重磅升級(jí)|當(dāng) AI 語(yǔ)音芯片賦血壓計(jì),重新定義 “智能健康管理

    在健康監(jiān)測(cè)領(lǐng)域,4GCat.1語(yǔ)音模組與血壓計(jì)的深度融合,讓傳統(tǒng)醫(yī)療設(shè)備搖身變成為**“會(huì)說(shuō)話的健康管家”**。助力產(chǎn)品在健康賽道脫穎而出:賣點(diǎn):全流程語(yǔ)音交互,老人輕松操作
    的頭像 發(fā)表于 04-23 11:44 ?137次閱讀
    血壓測(cè)量重磅升級(jí)|<b class='flag-5'>當(dāng)</b> AI 語(yǔ)音芯片賦<b class='flag-5'>能</b>血壓計(jì),重新定義 “智能健康管理

    朋友圈被DeepSeek刷屏了?普通人如何也能吃上AI紅利?

    開(kāi)了家24小時(shí)平價(jià)米其林餐廳。今天咱們就說(shuō)說(shuō)這些AI公司到底在卷什么,以及咱們普通人該怎么搭上這趟車。、拆解DeepSeek三大技術(shù)亮點(diǎn)開(kāi)源策略與生態(tài)建設(shè)Dee
    的頭像 發(fā)表于 02-11 10:31 ?550次閱讀
    朋友圈被DeepSeek刷屏了?<b class='flag-5'>普通人</b>如何也能吃上AI紅利?

    騰訊混元大模型上線并開(kāi)源文生視頻能力

    近日,騰訊宣布其混元大模型正式上線,并開(kāi)源了項(xiàng)令人矚目的能力——文生視頻。該大模型參數(shù)量高達(dá)130億,支持中英文雙語(yǔ)輸入,為用戶提供了更為便捷和多樣化的視頻生成體驗(yàn)。 據(jù)官方介紹,騰
    的頭像 發(fā)表于 12-04 14:06 ?429次閱讀

    晶科能源N型TOPCon技術(shù)為什么領(lǐng)跑行業(yè)

    晶科能源在N型TOPCon的領(lǐng)導(dǎo)者地位,用一句話形容就是:領(lǐng)先行業(yè)6個(gè)月!
    的頭像 發(fā)表于 11-21 11:08 ?652次閱讀
    晶科能源N型TOPCon技術(shù)為什么<b class='flag-5'>能</b>領(lǐng)跑行業(yè)

    開(kāi)關(guān)電源布線 一句話:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    開(kāi)關(guān)電源在布線上最大的特點(diǎn)是拓?fù)湟鸬母哳l(高壓)強(qiáng)電流與控制級(jí)的弱電信號(hào)交織在起,首先要保證強(qiáng)電流的存在不干擾電源內(nèi)部的控制信號(hào),其次要盡量減少對(duì)外部的干擾(EMC)。一句話:要運(yùn)行最穩(wěn)定、波形
    的頭像 發(fā)表于 10-28 14:06 ?1699次閱讀
    開(kāi)關(guān)電源布線 <b class='flag-5'>一句話</b>:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    求助,關(guān)于TLE2141的供電問(wèn)題求解

    在TLE2141的DATASHEET中,在供電方面有一句話,Single or Split Supply . . . 4 V to 44 V,此句話不甚明確,雖然DATASHEET中有例子,可證明 此運(yùn)放可5V單電源供電,我本人仍有疑問(wèn),40V單電源供電可否,請(qǐng)各位大拿
    發(fā)表于 09-09 06:46

    如何設(shè)計(jì)RC去耦的R和C的值?

    如何設(shè)計(jì)RC去耦的R和C的值,最后一句話的意思是負(fù)載電流的變化決定R和C的值,舉個(gè)例子怎么計(jì)算這個(gè)值嗎?
    發(fā)表于 08-14 07:47

    曠視AI開(kāi)源新突破:上傳照片即可生成表情包視頻

    為了展示其泛化性,MegActor甚至可以將VASA中的人物肖像和視頻組合生成,得到生動(dòng)的表情視頻。即使與阿里EMO的官方案例相比,MegActor
    的頭像 發(fā)表于 07-12 11:20 ?648次閱讀
    曠視AI開(kāi)源新突破:上傳照片即可<b class='flag-5'>生成</b>表情包<b class='flag-5'>視頻</b>!

    Sora還在PPT階段,“中國(guó)版Sora”已經(jīng)開(kāi)放使用了!

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)今年春節(jié)期間,OpenAI的AI文字生成視頻模型Sora驚艷全世界,極高的視頻生成效果、長(zhǎng)達(dá)60秒的視頻生成長(zhǎng)度,讓過(guò)去
    的頭像 發(fā)表于 06-17 09:07 ?3829次閱讀

    esp32c3 vdd_spi如何作為gpio11使用?

    看到C3的手冊(cè)里有這樣一句話 當(dāng) VDD_SPI 無(wú)需為外部供電時(shí),VDD_SPI 亦可作為 GPIO11 使用 請(qǐng)問(wèn) 怎么設(shè)置呢? 在 arduino 中設(shè)定 pinMode(11
    發(fā)表于 06-17 06:27

    一句話讓你理解線程和進(jìn)程

    今天給大家分享下線程與進(jìn)程,主要包含以下幾部分內(nèi)容:一句話說(shuō)明線程和進(jìn)程操作系統(tǒng)為什么需要進(jìn)程為什么要引入線程圖說(shuō)明線程和進(jìn)程的關(guān)系一句話讓你理解進(jìn)程和線程進(jìn)程:是指?個(gè)內(nèi)存中運(yùn)?
    的頭像 發(fā)表于 06-04 08:04 ?1448次閱讀
    <b class='flag-5'>一句話</b>讓你理解線程和進(jìn)程

    智譜AI劉江:5-10年內(nèi)AGI會(huì)達(dá)到普通人水平

    在2024亞馬遜云科技中國(guó)峰會(huì)上,智譜AI首席生態(tài)官劉江發(fā)表了引人注目的觀點(diǎn)。他預(yù)測(cè),在未來(lái)的5至10年內(nèi),AGI(通用人工智能)的發(fā)展將達(dá)到普通人的水平,這將是“我們這代人遇到的最大的技術(shù)突破”。
    的頭像 發(fā)表于 05-31 10:33 ?1020次閱讀

    谷歌發(fā)布全新視頻生成模型Veo與Imagen文生圖模型

    谷歌近日宣布了兩項(xiàng)重大技術(shù)進(jìn)展,首先是視頻生成模型Veo的正式推出。這款先進(jìn)的模型能夠支持生成質(zhì)量更高的視頻內(nèi)容,讓用戶能夠根據(jù)自己的需求設(shè)定光照、鏡頭語(yǔ)言、視頻顏色風(fēng)格等參數(shù),為
    的頭像 發(fā)表于 05-16 10:46 ?533次閱讀

    一句話概括DDR、LPDDR、GDDR的區(qū)別

    以DDR開(kāi)頭的內(nèi)存適用于計(jì)算機(jī)、服務(wù)器和其他高性能計(jì)算設(shè)備等領(lǐng)域,目前應(yīng)用廣泛的是DDR3和DDR4;
    的頭像 發(fā)表于 05-10 14:21 ?1w次閱讀
    <b class='flag-5'>一句話</b>概括DDR、LPDDR、GDDR的區(qū)別

    智譜AI正研發(fā)對(duì)標(biāo)Sora的國(guó)產(chǎn)文生視頻模型

    智譜AI,這家國(guó)內(nèi)估值超過(guò)200億的AI大模型獨(dú)角獸企業(yè),正全力投入研發(fā)款與OpenAI的Sora相媲美的國(guó)產(chǎn)文生視頻模型。據(jù)公司內(nèi)部人士透露,該模型預(yù)計(jì)最快將在今年內(nèi)發(fā)布,將成為AI視頻生
    的頭像 發(fā)表于 05-07 09:22 ?659次閱讀