
{{aisd}}
AI生成 免责声明
当地时间8月2日周三,Meta发布了一款开源人工智能工具AudioCraft,该工具可以帮助用户根据文本提示创作音乐和音频。Meta表示,这款人工智能工具将AudioGen、EnCodec和MusicGen三种模型及技术融为一炉,可用文本内容生成高质量、逼真的音频和音乐。
Meta在官网介绍称,MusicGen接受过Meta拥有的和特别授权的音乐训练,可以从文本提示生成音乐;AudioGen接受过公共音效训练,可从文本提示生成音频,比如模拟狗叫或脚步声;再加上EnCodec编解码器的改进版本,用户可以更高效率地生成更高质量的音乐。
Meta表示,目前AI已在图像、视频及文本生成领域有许多突破,但在音频方面“似乎有点落后”,目前已有的音频类模型“非常复杂”且“不是很开放”。
今年早些时候,谷歌发布了名为MusicLM的音乐生成模型,并于5月向所有用户开放。除此之外,目前较为常见的音乐模型还有Riffusion、Mousai和Noise2Music等。与其他音乐模型相比,AudioCraft系列模型能够生成长期一致的高质量音乐和音频,并简化了音频生成模型的整体设计。
Meta发布全新开源AI工具 可用文本生成高质量音乐。点击视频,一看究竟!
华尔街的心跳 陆家嘴的脉搏 共话投资逻辑!
华尔街的心跳 陆家嘴的脉搏 共话投资逻辑!
华尔街的心跳 陆家嘴的脉搏 共话投资逻辑!
华尔街的心跳 陆家嘴的脉搏 共话投资逻辑!
华尔街的心跳 陆家嘴的脉搏 共话投资逻辑!