一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用一張圖像合成動(dòng)圖,讓蒙娜麗莎開(kāi)口說(shuō)話

電子工程師 ? 來(lái)源:YXQ ? 2019-05-27 13:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

蒙娜麗莎開(kāi)口說(shuō)話你見(jiàn)過(guò)嗎?這位神秘的畫(huà)中人也能做出各種 gif 表情?來(lái)自三星莫斯科 AI 中心和 Skolkovo 科學(xué)技術(shù)研究所的研究人員創(chuàng)建了一個(gè)模型,利用這個(gè)模型可以從一張圖像中生成人物頭像的動(dòng)圖,而且是開(kāi)口說(shuō)話的動(dòng)圖。而且,這一模型沒(méi)有采用 3D 建模等傳統(tǒng)方法。

開(kāi)口說(shuō)話的蒙娜麗莎好像看著沒(méi)那么高冷。

除了蒙娜麗莎,研究人員還生成了風(fēng)情萬(wàn)種的瑪麗蓮·夢(mèng)露。

他們生成的名人頭部動(dòng)畫(huà)包括瑪麗蓮·夢(mèng)露、愛(ài)因斯坦、蒙娜麗莎以及 Wu Tang Clan 的 RZA 等。

近年來(lái)出現(xiàn)了很多利用 AI 模擬人臉的研究。2018 年,華盛頓大學(xué)的研究人員分享了他們創(chuàng)建的 ObamaNet,它是一種基于 Pix2Pix 的唇語(yǔ)口型模型,以美國(guó)前總統(tǒng)奧巴馬的視頻進(jìn)行訓(xùn)練。去年秋天,加州大學(xué)伯克利分校的研究人員開(kāi)發(fā)出一個(gè)模型,使用 YouTube 視頻來(lái)訓(xùn)練 AI 數(shù)據(jù)集,生成的人物可以做跳舞或后空翻等雜技動(dòng)作。

為了創(chuàng)建個(gè)性化模型,上面這些研究需要在大量個(gè)人數(shù)據(jù)上進(jìn)行訓(xùn)練。但是,在許多實(shí)際場(chǎng)景中,我們需要從個(gè)人的少量甚至是一張圖像中學(xué)習(xí)。因此在這項(xiàng)研究中,三星和 Skolkovo 研究所的研究人員只用少量甚至一張圖像或畫(huà)作就合成了人物開(kāi)口說(shuō)話狀態(tài)的頭部動(dòng)畫(huà)。

研究人員利用了 Few-shot learning 等技術(shù),主要合成頭部圖像和面部 landmark,可應(yīng)用于電子游戲、視頻會(huì)議或者三星 Galaxy S10 上現(xiàn)在可用的數(shù)字替身(digital avatar)。這種虛擬現(xiàn)實(shí)項(xiàng)目的數(shù)字替身技術(shù)可用于創(chuàng)建 deepfake 圖像和視頻。

Few-shot 學(xué)習(xí)意味著該模型在僅使用幾幅甚至一幅圖像的情況下模擬人臉。研究人員使用 VoxCeleb2 視頻數(shù)據(jù)集進(jìn)行元訓(xùn)練(meta trainning)。在元學(xué)習(xí)過(guò)程中,系統(tǒng)創(chuàng)建了三種神經(jīng)網(wǎng)絡(luò):將幀映射到向量的嵌入器網(wǎng)絡(luò)、在合成視頻中映射面部特征點(diǎn)的生成器網(wǎng)絡(luò)以及評(píng)估生成圖像真實(shí)性和姿態(tài)的判別器網(wǎng)絡(luò)。

聯(lián)合三種網(wǎng)絡(luò),該系統(tǒng)能在大型視頻數(shù)據(jù)集上執(zhí)行長(zhǎng)時(shí)間的元學(xué)習(xí)過(guò)程。待元學(xué)習(xí)收斂后,就能構(gòu)建 few-shot 或 one-shot 的神經(jīng)頭像特寫(xiě)模型。該模型將未見(jiàn)過(guò)的目標(biāo)任務(wù)視為對(duì)抗學(xué)習(xí)問(wèn)題,這樣就能利用已學(xué)習(xí)的高質(zhì)量生成器與判別器。

論文作者表示:「至關(guān)重要的一點(diǎn)是,盡管需要調(diào)整數(shù)千萬(wàn)參數(shù),該系統(tǒng)能夠因人而異地初始化生成器和判別器參數(shù),因此訓(xùn)練可以在僅借助幾幅圖像的情況下快速完成。這種方法能夠快速學(xué)習(xí)新面孔甚至是人物肖像畫(huà)和個(gè)性化的頭像特寫(xiě)模型?!?/p>

該論文已被 2019 CVPR 會(huì)議接收,本屆會(huì)議將于六月份在加利福尼亞州的長(zhǎng)灘舉行。

新穎的對(duì)抗學(xué)習(xí)架構(gòu)

在這項(xiàng)研究中,研究者提出了一種新系統(tǒng),可以只使用少量圖像(即Few shot learning)和有限的訓(xùn)練時(shí)間,構(gòu)建「頭像特寫(xiě)」模型。實(shí)際上,研究者的模型可以基于單張圖像(one-shot learning)生成合理的結(jié)果,而且在添加少量新樣本后,模型能生成保真度更高的個(gè)性化圖像。

與很多同類工作相同,研究者的模型使用卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建頭像特性,它通過(guò)一個(gè)序列的卷積運(yùn)算直接合成視頻幀,而不是通過(guò)變形(warping)。研究者模型創(chuàng)建的頭像特寫(xiě)可以實(shí)現(xiàn)大量不同的姿態(tài),其性能顯著高于基于變形(warping-based)的系統(tǒng)。

通過(guò)在頭像特寫(xiě)語(yǔ)料庫(kù)上的大量預(yù)訓(xùn)練(meta-learning),模型能獲得 few-shot 學(xué)習(xí)的能力。當(dāng)然這需要語(yǔ)料庫(kù)足夠大,且頭部特寫(xiě)視頻對(duì)應(yīng)不同的說(shuō)話者與面孔。在元學(xué)習(xí)過(guò)程中,研究者的系統(tǒng)模擬了 few-shot 學(xué)習(xí)任務(wù),并學(xué)習(xí)將面部 landmark 位置轉(zhuǎn)換到逼真的個(gè)性化照片。在 few-shot 學(xué)習(xí)中,他們只需要提供轉(zhuǎn)換目標(biāo)的少量訓(xùn)練圖像就可以。

隨后,轉(zhuǎn)換目標(biāo)的少量圖像可視為一個(gè)新的對(duì)抗學(xué)習(xí)問(wèn)題,其高復(fù)雜度的生成器與判別器都通過(guò)元學(xué)習(xí)完成了預(yù)訓(xùn)練。新的對(duì)抗問(wèn)題最終會(huì)完成收斂,即在少量訓(xùn)練迭代后能生成真實(shí)和個(gè)性化的圖像。

元學(xué)習(xí)架構(gòu)

下圖 2 展示了研究者方法中的元學(xué)習(xí)階段,簡(jiǎn)單而言它需要訓(xùn)練三個(gè)子網(wǎng)絡(luò)。注意,若我們有 M 個(gè)視頻序列,那么 x_i(t) 表示第 i 個(gè)視頻的第 t 幀。

第一個(gè)子網(wǎng)絡(luò) embedder E:它會(huì)輸入視頻幀 x_i(s) 以及對(duì)應(yīng)的 landmark 圖像 y_i(s),該網(wǎng)絡(luò)會(huì)將輸入映射到 N 維向量 e hat_i(s) 中。

第二個(gè)子網(wǎng)絡(luò) generator G:它會(huì)輸入新的 landmark 圖像 y_i(t),且 embedder 看不到其對(duì)應(yīng)的視頻幀;該網(wǎng)絡(luò)還會(huì)輸入 embedder 輸出的 e hat_i,并希望能輸出合成的新視頻幀 x hat_i(t)。

第三個(gè)子網(wǎng)絡(luò) discriminator D:它會(huì)輸入視頻幀 x_i(t)、對(duì)應(yīng)的 landmark 圖像 y_i(t),以及訓(xùn)練序列的索引 i。該網(wǎng)絡(luò)希望判斷視頻幀 x_i(t) 到底是不是第 i 個(gè)視頻中的內(nèi)容,以及它到底匹不匹配對(duì)應(yīng)的 landmark 圖像 y_i(t)。

圖 2:元學(xué)習(xí)架構(gòu)的整體結(jié)構(gòu),主要包含嵌入器(embedder)、生成器和判別器三大模塊。

嵌入器網(wǎng)絡(luò)希望將頭像特寫(xiě)圖像與對(duì)應(yīng)的人臉 landmark 映射到嵌入向量,該向量包含獨(dú)立于人臉姿態(tài)的信息。生成器網(wǎng)絡(luò)通過(guò)一系列卷積層將輸入的人臉 landmark 映射到輸出幀中,其生成結(jié)果會(huì)通過(guò)嵌入向量以及自適應(yīng)實(shí)例歸一化進(jìn)行調(diào)整。在元學(xué)習(xí)中,研究者將相同視頻一組視頻幀傳遞到嵌入器,并對(duì)嵌入向量求均值以便預(yù)測(cè)生成器的自適應(yīng)參數(shù)。

隨后,研究者將不同幀的 landmark 輸入到生成器中,并對(duì)比標(biāo)注圖像和生成圖像之間的差別。模型的整體優(yōu)化目標(biāo)包括感知和對(duì)抗兩種損失函數(shù),后者通過(guò)條件映射判別器實(shí)現(xiàn)。

此外,元學(xué)習(xí)的三大子網(wǎng)絡(luò)在原論文中都有具體的表達(dá)式,讀者可具體查閱原論文 3.2 章。

Few-shot 學(xué)習(xí)過(guò)程

一旦元學(xué)習(xí)完成收斂,那么系統(tǒng)就能學(xué)習(xí)到如何合成新目標(biāo)的頭像特寫(xiě)序列,即使元學(xué)習(xí)中不曾見(jiàn)過(guò)這個(gè)人。當(dāng)然,除了要提供新目標(biāo)的一些圖像樣本,我們還需要提供新目標(biāo)的 landmark,合成過(guò)程是以這些目標(biāo) landmark 為條件的。

很自然地,我們可以使用元學(xué)習(xí)收斂后的嵌入器(embedder),用來(lái)估計(jì)新頭像特寫(xiě)序列的嵌入向量:

一種比較直觀的想法是使用上面的嵌入向量,以及預(yù)訓(xùn)練的生成器生成新的視頻幀與對(duì)應(yīng) landmark 圖像。理論上這樣也能生成真實(shí)的圖像,但真實(shí)性并不是太強(qiáng)。為此,研究者還需要一個(gè)精調(diào)過(guò)程以生成更完美的圖像,即 few-shot 學(xué)習(xí)過(guò)程。

精調(diào)過(guò)程可視為前面元學(xué)習(xí)過(guò)程的簡(jiǎn)化版,它只在單個(gè)視頻序列和較少的幀上完成訓(xùn)練。精調(diào)過(guò)程主要包含判別器與生成器兩個(gè)模塊,這里嵌入器是不需要調(diào)整的。

其中生成器還是根據(jù) landmark 合成視頻幀,只不過(guò)對(duì)應(yīng)具體人物的生成器參數(shù) ψ'會(huì)和原來(lái)一般人物參數(shù)ψ共同優(yōu)化,以學(xué)習(xí)生成目標(biāo)人物的某些特征。判別器和元學(xué)習(xí)階段也差不多,只不過(guò)會(huì)增加一個(gè)新參數(shù)以學(xué)習(xí)更好地預(yù)測(cè)真實(shí)度分?jǐn)?shù)。

實(shí)驗(yàn)

研究者在定性和定量評(píng)估實(shí)驗(yàn)中用到了兩個(gè)數(shù)據(jù)集:VoxCeleb1 和 VoxCeleb2。后者的視頻數(shù)量大約是前者的 10 倍。VoxCeleb1 用于與基線和控制變量研究作對(duì)比,VoxCeleb2 用于展示本文中所提方法的全部潛力。實(shí)驗(yàn)結(jié)果如下表所示:

如表 1 所示,基線模型在兩個(gè)相似度度量標(biāo)準(zhǔn)上始終優(yōu)于三星的方法。三星研究人員認(rèn)為,這是方法本身所固有的:X2Face 在優(yōu)化期間使用 L_2 損失函數(shù),因此 SSIM 得分較高。另一方面,Pix2pixHD 只最大化了感知度量,沒(méi)有 identity preservation 損失,導(dǎo)致 FID 最小化,但從 CSIM 一欄中可以看出,Pix2pixHD 的 identity 不匹配更大。

此外,這些度量標(biāo)準(zhǔn)和人類的感知并沒(méi)有特別緊密的關(guān)聯(lián),因?yàn)檫@些方法都會(huì)產(chǎn)生恐怖谷偽影(uncanny valley artifact),這從圖 3 和用戶研究結(jié)果中可以看出。另一方面,余弦相似度與視覺(jué)質(zhì)量有更好的相關(guān)性,但仍然傾向于模糊、不太真實(shí)的圖像,這也可以通過(guò)表 1 與圖 3 中的結(jié)果對(duì)比來(lái)看出。

圖 3:在 VoxCeleb1 數(shù)據(jù)集上的結(jié)果。對(duì)于每一種對(duì)比方法,研究者在一個(gè)元訓(xùn)練或預(yù)訓(xùn)練期間未見(jiàn)過(guò)的人物視頻上執(zhí)行 one-shot 和 few-shot 學(xué)習(xí)。他們將訓(xùn)練的幀數(shù)設(shè)為 T(最左邊的數(shù)字)。Source 列顯示了訓(xùn)練幀之一。

接下來(lái),研究者擴(kuò)展了可用的數(shù)據(jù),開(kāi)始在視頻數(shù)目更多的 VoxCeleb2 上訓(xùn)練模型。他們訓(xùn)練了兩種模型:FF(前饋)和 FT。前者訓(xùn)練 150 個(gè) epoch,沒(méi)有嵌入匹配損失 LMCH,因此用的時(shí)候不進(jìn)行微調(diào)。后者訓(xùn)練 75 個(gè) epoch,但有 LMCH,支持微調(diào)。

他們對(duì)這兩種模型都進(jìn)行了評(píng)估,因?yàn)樗鼈兛梢栽?few-shot 學(xué)習(xí)速度和結(jié)果質(zhì)量之間進(jìn)行權(quán)衡。與在 VoxCeleb1 上訓(xùn)練的小型模型相比,二者都得到了很高的分?jǐn)?shù)。值得注意的是,F(xiàn)T 模型在 T=32 的設(shè)定下達(dá)到了用戶研究準(zhǔn)確率的下界,即 0.33,這是一個(gè)完美的分?jǐn)?shù)。兩種模型的結(jié)果如圖 4 所示:

圖 4:三星最好的模型在 VoxCeleb2 數(shù)據(jù)集上的結(jié)果。

最后,研究者展示了模型在照片或畫(huà)像上的結(jié)果。為此,研究者評(píng)估了在 one-shot 設(shè)定下訓(xùn)練的模型,任務(wù)姿態(tài)來(lái)自 VoxCeleb2 數(shù)據(jù)集的測(cè)試視頻。他們使用 CSIM 度量給這些視頻排序,并在原始圖像和生成圖像之間進(jìn)行計(jì)算。這使得研究者可以發(fā)現(xiàn)擁有相似標(biāo)志幾何特征的人臉,并將它們由靜態(tài)變?yōu)閯?dòng)態(tài)。結(jié)果見(jiàn)圖 5 和圖 1.

圖 5:使靜止的照片栩栩如生。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 三星電子
    +關(guān)注

    關(guān)注

    34

    文章

    15888

    瀏覽量

    182353
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49028

    瀏覽量

    249529

原文標(biāo)題:[機(jī)器人頻道|大V說(shuō)]蒙娜麗莎開(kāi)口說(shuō)話了:三星新研究用一張圖像合成動(dòng)圖,無(wú)需3D建模

文章出處:【微信號(hào):robovideo,微信公眾號(hào):機(jī)器人頻道】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    物聯(lián)網(wǎng)設(shè)備也能‘開(kāi)口說(shuō)話’?Aircall實(shí)時(shí)通話功能讓智能交互觸手可及

    “Aircall的最新技術(shù)成果——實(shí)時(shí)通話功能,為物聯(lián)網(wǎng)設(shè)備賦予了‘語(yǔ)音生命’。無(wú)論是智能音箱、車(chē)載終端還是工業(yè)傳感器,都能通過(guò)實(shí)時(shí)語(yǔ)音交互接收指令、反饋信息。這變革設(shè)備不再局限于數(shù)據(jù)傳遞,而是
    的頭像 發(fā)表于 07-07 09:26 ?156次閱讀
    物聯(lián)網(wǎng)設(shè)備也能‘<b class='flag-5'>開(kāi)口說(shuō)話</b>’?Aircall實(shí)時(shí)通話功能讓智能交互觸手可及

    WT2801:顆藍(lán)牙語(yǔ)音芯片的血糖守護(hù)之旅

    地辨認(rèn)測(cè)量結(jié)果。這個(gè)時(shí)候有些同學(xué)就要舉手了:為什么不能讓血糖儀"開(kāi)口說(shuō)話"呢?在中國(guó),糖尿病患者已經(jīng)超過(guò)1.4億人,位居全球首位,其中60歲以上人群的患病率高達(dá)20.
    的頭像 發(fā)表于 06-06 16:37 ?252次閱讀
    WT2801:<b class='flag-5'>一</b>顆藍(lán)牙語(yǔ)音芯片的血糖守護(hù)之旅

    橋梁結(jié)構(gòu)健康安全如何做到“未病先治”智能監(jiān)測(cè)系統(tǒng)給出答案

    在現(xiàn)代城市中,橋梁如同人體的血管,承載著經(jīng)濟(jì)與社會(huì)的生命線。然而,隨著時(shí)間的推移,風(fēng)雨侵蝕、重載交通、材料老化等問(wèn)題不斷威脅著這些龐然大物的安全。如何提前發(fā)現(xiàn)隱患,避免災(zāi)難發(fā)生?橋梁結(jié)構(gòu)健康監(jiān)測(cè)正是答案所在——它如同給橋梁裝上“智慧之眼”,沉默的鋼鐵混凝土“開(kāi)口說(shuō)話”,
    的頭像 發(fā)表于 05-26 15:56 ?105次閱讀
    橋梁結(jié)構(gòu)健康安全如何做到“未病先治”智能監(jiān)測(cè)系統(tǒng)給出答案

    大模型“開(kāi)口說(shuō)話”,啟英泰倫重塑AI玩具交互新體驗(yàn)!

    2025年,AI玩具已成為全球消費(fèi)科技領(lǐng)域最炙手可熱的賽道之。DeepSeek的崛起,顯著降低了大模型的部署成本和門(mén)檻,成功點(diǎn)燃了整個(gè)行業(yè)以及資本市場(chǎng)對(duì)端側(cè)AI落地的熱情,進(jìn)步推動(dòng)了AI玩具
    的頭像 發(fā)表于 04-11 18:31 ?460次閱讀
    <b class='flag-5'>讓</b>大模型“<b class='flag-5'>開(kāi)口說(shuō)話</b>”,啟英泰倫重塑AI玩具交互新體驗(yàn)!

    工業(yè)數(shù)據(jù)采集網(wǎng)關(guān):工廠 &quot;開(kāi)口說(shuō)話&quot; 的超級(jí)翻譯官

    、工業(yè)界的 "超級(jí)間諜":為什么它比老板更懂工廠? 在智能制造的江湖里, 工業(yè)數(shù)據(jù)采集網(wǎng)關(guān) 堪稱 "最會(huì)偷聽(tīng)的掃地僧"。它潛伏在車(chē)間角落,默默收集機(jī)器的 "心跳"、流水線的 "呼吸",甚至能
    的頭像 發(fā)表于 04-07 09:35 ?240次閱讀
    工業(yè)數(shù)據(jù)采集網(wǎng)關(guān):<b class='flag-5'>讓</b>工廠 &quot;<b class='flag-5'>開(kāi)口說(shuō)話</b>&quot; 的超級(jí)翻譯官

    數(shù)傳終端:數(shù)據(jù)飛起來(lái)的 “空中快遞員”

    就像位隱形的 “空中快遞員”,在看不見(jiàn)的電波中穿梭,把海量數(shù)據(jù)安全、快速地送到目的地。 它的核心使命 :將傳感器、設(shè)備、系統(tǒng)產(chǎn)生的數(shù)據(jù),通過(guò)無(wú)線或有線網(wǎng)絡(luò)傳輸?shù)皆贫嘶蚩刂浦行摹:?jiǎn)單來(lái)說(shuō),就是 “啞巴” 設(shè)備開(kāi)口說(shuō)話,
    的頭像 發(fā)表于 04-02 23:59 ?369次閱讀
    數(shù)傳終端:<b class='flag-5'>讓</b>數(shù)據(jù)飛起來(lái)的 “空中快遞員”

    光伏電站智能分析管理系統(tǒng)電站管理更簡(jiǎn)單

    光伏電站智能分析管理系統(tǒng)電站管理更簡(jiǎn)單 光伏電站建好后,管理才是真正的考研。過(guò)去靠人工巡檢,設(shè)備壞了要等好幾天才能發(fā)現(xiàn),發(fā)電損失人心疼。現(xiàn)在,光伏電站智能分析管理系統(tǒng)就能讓電站自己開(kāi)口說(shuō)話,所有
    的頭像 發(fā)表于 03-14 15:20 ?382次閱讀
    光伏電站智能分析管理系統(tǒng)<b class='flag-5'>讓</b>電站管理更簡(jiǎn)單

    電飯煲“開(kāi)口說(shuō)話”了!NV128H語(yǔ)音芯片煮飯玩出科技感

    電飯煲,又叫電飯鍋,是種設(shè)計(jì)用來(lái)煮米飯或蒸米飯的自動(dòng)化廚房用具。它由個(gè)熱源、個(gè)烹飪碗和個(gè)恒溫器組成。恒溫器測(cè)量烹飪碗的溫度并控制熱量。復(fù)雜的高科技電飯鍋可能有更多的傳感器和其他
    的頭像 發(fā)表于 03-12 15:07 ?408次閱讀
    電飯煲“<b class='flag-5'>開(kāi)口說(shuō)話</b>”了!NV128H語(yǔ)音芯片<b class='flag-5'>讓</b>煮飯玩出科技感

    DMD啟動(dòng)后反射的圖像左下角的那個(gè)像是怎么形成的?

    一張是在DMD未啟動(dòng)時(shí),激光照射DMD芯片時(shí)反射的圖像 第二是DMD啟動(dòng)后,
    發(fā)表于 03-03 06:13

    DLP3010+DLPC3478開(kāi)機(jī)是一張splah圖片,是否可以通過(guò)更改固件讓開(kāi)機(jī)就進(jìn)入internal pattern mode進(jìn)行投呢?

    DLP3010+DLPC3478目前開(kāi)機(jī)是一張splah圖片,是否可以通過(guò)更改固件讓開(kāi)機(jī)就進(jìn)入internal pattern mode 進(jìn)行投呢,同時(shí)trigger也默認(rèn)配置。 因?yàn)镈LP4500通過(guò)更改ini文件是可以做到這樣的,我想實(shí)現(xiàn)和4500
    發(fā)表于 02-26 07:49

    DLPLCR4500EVMGUI加載大量圖片并按1bit圖像播放如何設(shè)置?

    ,而非每一張都需要點(diǎn)擊鼠標(biāo)好幾次。 4 說(shuō)明文檔當(dāng)中提到vidio模式,也是按1bit的圖像進(jìn)行播放的,是否可以理解為,如果把24bit圖像按照順序做成vidio,最后播放出來(lái),對(duì)
    發(fā)表于 02-25 07:30

    DLP4500燒錄98bit位深度的相移,3合成一張24bit,結(jié)果每一張24bit都重復(fù)投射三次,這是為什么?

    你好,吳工,DLP4500燒錄98bit位深度的相移,3合成一張24bit,結(jié)果每
    發(fā)表于 02-24 08:00

    DLP4710一張張加載圖片顯示這個(gè)速度是否能夠更改?

    工程師您好,DMD一張張加載圖片顯示這個(gè)速度是否能夠更改?在DMD上加載圖片顯示目前只能6幀/s。如果需要提高速度應(yīng)該從哪里去考慮?謝謝回答。
    發(fā)表于 02-21 12:12

    請(qǐng)查收!一張來(lái)自南京會(huì)“發(fā)光”的城市名片 智慧路燈 物聯(lián)網(wǎng)太陽(yáng)能路燈

    請(qǐng)查收!一張來(lái)自南京會(huì)“發(fā)光”的城市名片 智慧路燈 物聯(lián)網(wǎng)太陽(yáng)能路燈
    的頭像 發(fā)表于 10-28 14:48 ?895次閱讀
    請(qǐng)查收!<b class='flag-5'>一張</b>來(lái)自南京會(huì)“發(fā)光”的城市名片 智慧路燈 物聯(lián)網(wǎng)太陽(yáng)能路燈

    2024年芯片行業(yè)有多難?數(shù)據(jù)說(shuō)話

    2024年芯片行業(yè)有多難?數(shù)據(jù)說(shuō)話
    的頭像 發(fā)表于 08-10 18:20 ?5877次閱讀