在2024年國際音樂信息檢索會議(ISMIR)上,研究人員展示了他們最新研發的MusiConGen模型。這一模型是基於Transformer的文本生成音樂模型,通過引入時間條件機制,顯著提升了對音樂節奏和和絃的控制能力。

image.png

產品入口:https://top.aibase.com/tool/musicongen

MusiConGen模型是在預訓練的MusicGen-melody框架基礎上進行微調的,主要用於生成各種風格的音樂片段。研究團隊通過設置和絃和節奏的控制參數,展示了模型生成的音樂樣本,涵蓋了五種不同風格:休閒布魯斯、平滑酸爵士、經典搖滾、高能放克以及重金屬。

每種風格的音樂都有明確的和絃和節奏要求,這些數據來源於RWC-pop-100數據庫,生成的和絃通過BTC和絃識別模型進行估計。

爲了驗證MusiConGen的效果,研究人員將其與基線模型和經過微調的基線模型進行了對比。通過相同的和絃和節奏控制設置,MusiConGen在生成的音樂樣本中展示了更高的準確性和風格一致性,體現了其在音樂生成方面的技術優勢。

劃重點:

🎵 MusiConGen是一種基於Transformer的文本生成音樂模型,能通過時間條件增強對節奏和和絃的控制。

🔍 通過與傳統模型和微調模型對比,MusiConGen展示了其在音樂生成上的顯著提升。

🎸 模型生成的音樂涵蓋了五種不同風格,能夠精確模擬特定的和絃和節奏要求。