【資料圖】
近幾個月來,人工智能文本-圖像生成器一直是頭條新聞,但研究人員已經(jīng)在向下一個前沿領(lǐng)域邁進。人工智能文本到視頻生成器。
來自Facebook母公司Meta的一個機器學(xué)習(xí)工程師團隊公布了一個名為Make-A-Video的新系統(tǒng)。顧名思義,這個人工智能模型允許用戶鍵入一個場景的粗略描述,它將生成一個與他們的文字相匹配的短視頻。這些視頻顯然是人造的,主體模糊,動畫扭曲,但仍然代表了人工智能內(nèi)容生成領(lǐng)域的一個重大發(fā)展。
該模型的輸出顯然是人工的,但仍然令人印象深刻
"梅塔在宣布這項工作的博文中說:"生成性人工智能研究正在推動創(chuàng)造性表達,為人們提供了快速和輕松創(chuàng)造新內(nèi)容的工具。"只需幾個字或幾行文字,Make-A-Video就能將想象力帶入生活,創(chuàng)造出充滿生動色彩和風(fēng)景的獨一無二的視頻。"
在Facebook的一篇文章中,Meta首席執(zhí)行官馬克-扎克伯格將這項工作描述為 "驚人的進步",并補充說。"生成視頻比生成照片難得多,因為除了正確生成每個像素,系統(tǒng)還必須預(yù)測它們將如何隨時間變化。
這些片段不超過5秒,不包含音頻,但跨越了巨大的提示范圍。判斷該模型性能的最好方法是觀看其輸出。下面的每段視頻都是由Make-A-Video生成的,并標(biāo)明了用于生成視頻的提示。然而,值得注意的是,每個視頻都是由Meta公司提供給The Verge的,該公司目前不允許任何人訪問該模型。這意味著這些片段可能被挑選出來,以展示該系統(tǒng)的最佳狀態(tài)。
(8031273)
關(guān)鍵詞: 瘋了Meta的AI可以根據(jù)語音指令生成視頻 人工智能 meta