近幾個(gè)月來(lái),人工智能文本-圖像生成器一直是頭條新聞,但研究人員已經(jīng)在向下一個(gè)前沿領(lǐng)域邁進(jìn)。人工智能文本到視頻生成器。
來(lái)自Facebook母公司Meta的一個(gè)機(jī)器學(xué)習(xí)工程師團(tuán)隊(duì)公布了一個(gè)名為Make-A-Video的新系統(tǒng)。顧名思義,這個(gè)人工智能模型允許用戶鍵入一個(gè)場(chǎng)景的粗略描述,它將生成一個(gè)與他們的文字相匹配的短視頻。這些視頻顯然是人造的,主體模糊,動(dòng)畫扭曲,但仍然代表了人工智能內(nèi)容生成領(lǐng)域的一個(gè)重大發(fā)展。
該模型的輸出顯然是人工的,但仍然令人印象深刻
"梅塔在宣布這項(xiàng)工作的博文中說(shuō):"生成性人工智能研究正在推動(dòng)創(chuàng)造性表達(dá),為人們提供了快速和輕松創(chuàng)造新內(nèi)容的工具。"只需幾個(gè)字或幾行文字,Make-A-Video就能將想象力帶入生活,創(chuàng)造出充滿生動(dòng)色彩和風(fēng)景的獨(dú)一無(wú)二的視頻。"
在Facebook的一篇文章中,Meta首席執(zhí)行官馬克-扎克伯格將這項(xiàng)工作描述為 "驚人的進(jìn)步",并補(bǔ)充說(shuō)。"生成視頻比生成照片難得多,因?yàn)槌苏_生成每個(gè)像素,系統(tǒng)還必須預(yù)測(cè)它們將如何隨時(shí)間變化。
這些片段不超過(guò)5秒,不包含音頻,但跨越了巨大的提示范圍。判斷該模型性能的最好方法是觀看其輸出。下面的每段視頻都是由Make-A-Video生成的,并標(biāo)明了用于生成視頻的提示。然而,值得注意的是,每個(gè)視頻都是由Meta公司提供給The Verge的,該公司目前不允許任何人訪問(wèn)該模型。這意味著這些片段可能被挑選出來(lái),以展示該系統(tǒng)的最佳狀態(tài)。
(8031273)