腾讯混元开源语音数字人模型,支持自然说话与唱歌
腾讯混元公众号今日宣布开源其语音数字人模型HunyuanVideo-Avatar。这款模型由腾讯混元视频大模型(HunyuanVideo)与腾讯音乐天琴实验室MuseV技术联合研发,仅需一张人物图像和一段音频,即可让图像中的人物自然地说话或唱歌。HunyuanVideo-Avatar模型具备高度一致性和动态性的视频生成能力,支持头肩、半身与全身景别,以及多风格、多物种与双人场景。用户上传人物图像与音频后,模型会自动理解图片与音频内容,包括人物所在环境、音频情感等,从而生成包含自然表情、唇形同步及全身动作的视频。
该模型适用于短视频创作、电商与广告等多种应用场景,可以快速制作产品介绍视频或多人互动广告,有效降低制作成本。目前,HunyuanVideo-Avatar的单主体能力已经开源,并在腾讯混元官网上线,用户可以在“模型广场-混元生视频-数字人-语音驱动-HunyuanVideo-Avatar”中体验,支持上传不超过14秒的音频进行视频生成。后续,腾讯还将逐步上线和开源其他能力。
腾讯混元此次开源语音数字人模型,不仅展示了其在人工智能领域的深厚技术积累,也为视频创作者提供了更多可能性,有望推动短视频、电商与广告等行业的创新发展。
页:
[1]