《科創(chuàng)板日報》1月28日訊(編輯 宋子喬)在生成式AI模型的賽道上,谷歌正一路“狂飆”。繼文字生成AI模型Wordcraft、視頻生成工具Imagen Video之后,谷歌將生成式AI的應用場景擴展到了音樂圈。
當?shù)貢r間1月27日,谷歌發(fā)布了新的AI模型——MusicLM,該模型可以從文本甚至圖像中生成高保真音樂,也就是說可以把一段文字、一幅畫轉化為歌曲,且曲風多樣。
谷歌在相關論文中展示了大量案例,如輸入字幕“雷鬼和電子舞曲的融合,帶有空曠的、超凡脫俗的聲音,引發(fā)迷失在太空中的體驗,音樂的設計旨在喚起一種驚奇和敬畏的感覺,同時又適合跳舞”,MusicLM便生成了30秒的電子音樂。
(資料圖片僅供參考)
又如以世界名畫《跨越阿爾卑斯山圣伯納隘口的拿破侖》為“題”,MusicLM生成的音樂莊重典雅,將冬日的凌厲肅殺和英雄主義色彩體現(xiàn)地淋漓盡致。寫實油畫之外,《舞蹈》《吶喊》《格爾尼卡》《星空》等抽象派畫作均可為題。
MusicLM甚至來個音樂串燒,在故事模式下將不同風格的曲子混雜在一起。即便要求生成5分鐘時長的音樂,MusicLM也不在話下。
另外,MusicLM具備強大的輔助功能,可以規(guī)定具體的樂器、地點、流派、年代、音樂家演奏水平等,對生成的音樂質量進行調整,從而讓一段曲子幻化出多個版本。
MusicLM并非第一個生成歌曲的AI模型,同類型產品包括Riffusion、Dance Diffusion等,谷歌自己也發(fā)布過AudioML,時下最熱門的聊天機器人“ChatGPT”的研發(fā)者OpenAI則推出過Jukebox。
MusicLM有何獨到之處?
它其實是一個分層的序列到序列(Sequence-to-Sequence)模型。根據(jù)人工智能科學家Keunwoo Choi的說法,MusicLM結合了MuLan+AudioLM和MuLan+w2b-Bert+Soundstream等多個模型,可謂集大成者。
其中,AudioLM模型可視作MusicLM的前身,MusicLM就是利用了AudioLM的多階段自回歸建模作為生成條件,可以通過文本描述,以24kHz的頻率生成音樂,并在幾分鐘內保持這個頻率。
相較而言,MusicLM的訓練數(shù)據(jù)更多。研究團隊引入了首個專門為文本-音樂生成任務評估數(shù)據(jù)MusicCaps來解決任務缺乏評估數(shù)據(jù)的問題。MusicCaps由專業(yè)人士共建,涵蓋5500個音樂-文本對。
基于此,谷歌用280000小時的音樂數(shù)據(jù)集訓練出了MusicLM。
谷歌的實驗表明,MusicLM在音頻質量和對文本描述的遵守方面都優(yōu)于以前的模型。
不過,MusicLM也有著所有生成式AI共同的風險——技術不完善、素材侵權、道德爭議等。
對于技術問題,比方說當要求MusicLM生成人聲時,技術上可行,但效果不佳,歌詞亂七八糟、意義不明的情況時有發(fā)生。MusicLM也會“偷懶”——起生成的音樂中,約有1%直接從訓練集的歌曲中復制。
另外,由AI系統(tǒng)生成的音樂到底算不算原創(chuàng)作品?可以受到版權保護嗎?能不能和“人造音樂”同臺競技?相關爭議始終未有一致見解。
這些都是谷歌沒有對外發(fā)布MusicLM的原因?!拔覀兂姓J該模型有盜用創(chuàng)意內容的潛在風險,我們強調,需要在未來開展更多工作來應對這些與音樂生成相關的風險。”谷歌發(fā)布的論文寫道。