谷歌“狂飆”在生成式AI賽道 最新模型可憑文字、圖片“創作”音樂
1年前

$天娛數科(SZ002354)$  

谷歌“狂飆”在生成式AI賽道 最新模型可憑文字、圖片“創作”音樂

財聯社40分鐘前
1評論
  • 相關股票/基金:
  •  
  • 谷歌-A +1.90% 
  •  
  • 谷歌-C +1.56% 

K圖 GOOGL_0

K圖 GOOG_0


在生成式AI模型的賽道上,谷歌正一路“狂飆”。繼文字生成AI模型Wordcraft、視頻生成工具Imagen Video之後,谷歌將生成式AI的應用場景擴展到了音樂圈。

當地時間1月27日,谷歌發布了新的AI模型——MusicLM,該模型可以從文本甚至圖像中生成高保真音樂,也就是說可以把一段文字、一幅畫轉化爲歌曲,且曲風多樣。

谷歌在相關論文中展示了大量案例,如輸入字幕“雷鬼和電子舞曲的融合,帶有空曠的、超凡脫俗的聲音,引發迷失在太空中的體驗,音樂的設計旨在喚起一種驚奇和敬畏的感覺,同時又適合跳舞”,MusicLM便生成了30秒的電子音樂。

又如以世界名畫《跨越阿爾卑斯山聖伯納隘口的拿破侖》爲“題”,MusicLM生成的音樂莊重典雅,將冬日的凌厲肅殺和英雄主義色彩體現地淋漓盡致。寫實油畫之外,《舞蹈》《吶喊》《格爾尼卡》《星空》等抽象派畫作均可爲題。

MusicLM甚至來個音樂串燒,在故事模式下將不同風格的曲子混雜在一起。即便要求生成5分鐘時長的音樂,MusicLM也不在話下。

另外,MusicLM具備強大的輔助功能,可以規定具體的樂器、地點、流派、年代、音樂家演奏水平等,對生成的音樂質量進行調整,從而讓一段曲子幻化出多個版本。

MusicLM並非第一個生成歌曲的AI模型,同類型產品包括Riffusion、Dance Diffusion等,谷歌自己也發布過AudioML,時下最熱門的聊天機器人“ChatGPT”的研發者OpenAI則推出過Jukebox。

MusicLM有何獨到之處?

它其實是一個分層的序列到序列(Sequence-to-Sequence)模型。根據人工智能科學家Keunwoo Choi的說法,MusicLM結合了MuLan+AudioLM和MuLan+w2b-Bert+Soundstream等多個模型,可謂集大成者。

其中,AudioLM模型可視作MusicLM的前身,MusicLM就是利用了AudioLM的多階段自回歸建模作爲生成條件,可以通過文本描述,以24kHz的頻率生成音樂,並在幾分鐘內保持這個頻率。

相較而言,MusicLM的訓練數據更多。研究團隊引入了首個專門爲文本-音樂生成任務評估數據MusicCaps來解決任務缺乏評估數據的問題。MusicCaps由專業人士共建,涵蓋5500個音樂-文本對。

基於此,谷歌用280000小時的音樂數據集訓練出了MusicLM。

谷歌的實驗表明,MusicLM在音頻質量和對文本描述的遵守方面都優於以前的模型。

不過,MusicLM也有着所有生成式AI共同的風險——技術不完善、素材侵權、道德爭議等。

對於技術問題,比方說當要求MusicLM生成人聲時,技術上可行,但效果不佳,歌詞亂七八糟、意義不明的情況時有發生。MusicLM也會“偷懶”——起生成的音樂中,約有1%直接從訓練集的歌曲中復制。

另外,由AI系統生成的音樂到底算不算原創作品?可以受到版權保護嗎?能不能和“人造音樂”同台競技?相關爭議始終未有一致見解。

這些都是谷歌沒有對外發布MusicLM的原因。“我們承認該模型有盜用創意內容的潛在風險,我們強調,需要在未來开展更多工作來應對這些與音樂生成相關的風險。”谷歌發布的論文寫道。

追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:谷歌“狂飆”在生成式AI賽道 最新模型可憑文字、圖片“創作”音樂

地址:https://www.breakthing.com/post/43068.html