展會(huì)信息港展會(huì)大全

瘋了!Meta的AI可以根據(jù)語(yǔ)音指令生成視頻
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2022-10-04 08:51:42   瀏覽:36813次  

導(dǎo)讀:近幾個(gè)月來(lái),人工智能文本-圖像生成器一直是頭條新聞,但研究人員已經(jīng)在向下一個(gè)前沿領(lǐng)域邁進(jìn)。人工智能文本到視頻生成器。 來(lái)自Facebook母公司Meta的一個(gè)機(jī)器學(xué)習(xí)工程師團(tuán)隊(duì)公布了一個(gè)名為Make-A-Video的新系統(tǒng)。顧名思義,這個(gè)人工智能模型允許用戶鍵入一...

近幾個(gè)月來(lái),人工智能文本-圖像生成器一直是頭條新聞,但研究人員已經(jīng)在向下一個(gè)前沿領(lǐng)域邁進(jìn)。人工智能文本到視頻生成器。

瘋了!Meta的AI可以根據(jù)語(yǔ)音指令生成視頻

來(lái)自Facebook母公司Meta的一個(gè)機(jī)器學(xué)習(xí)工程師團(tuán)隊(duì)公布了一個(gè)名為Make-A-Video的新系統(tǒng)。顧名思義,這個(gè)人工智能模型允許用戶鍵入一個(gè)場(chǎng)景的粗略描述,它將生成一個(gè)與他們的文字相匹配的短視頻。這些視頻顯然是人造的,主體模糊,動(dòng)畫扭曲,但仍然代表了人工智能內(nèi)容生成領(lǐng)域的一個(gè)重大發(fā)展。

該模型的輸出顯然是人工的,但仍然令人印象深刻

"梅塔在宣布這項(xiàng)工作的博文中說(shuō):"生成性人工智能研究正在推動(dòng)創(chuàng)造性表達(dá),為人們提供了快速和輕松創(chuàng)造新內(nèi)容的工具。"只需幾個(gè)字或幾行文字,Make-A-Video就能將想象力帶入生活,創(chuàng)造出充滿生動(dòng)色彩和風(fēng)景的獨(dú)一無(wú)二的視頻。"

在Facebook的一篇文章中,Meta首席執(zhí)行官馬克-扎克伯格將這項(xiàng)工作描述為 "驚人的進(jìn)步",并補(bǔ)充說(shuō)。"生成視頻比生成照片難得多,因?yàn)槌苏_生成每個(gè)像素,系統(tǒng)還必須預(yù)測(cè)它們將如何隨時(shí)間變化。

這些片段不超過(guò)5秒,不包含音頻,但跨越了巨大的提示范圍。判斷該模型性能的最好方法是觀看其輸出。下面的每段視頻都是由Make-A-Video生成的,并標(biāo)明了用于生成視頻的提示。然而,值得注意的是,每個(gè)視頻都是由Meta公司提供給The Verge的,該公司目前不允許任何人訪問(wèn)該模型。這意味著這些片段可能被挑選出來(lái),以展示該系統(tǒng)的最佳狀態(tài)。

(8031273)


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港