周四,微软人工智能部门正式发布了其首批两款自研AI模型——MAI-Voice-1语音模型与MAI-1-preview通用模型。据微软介绍,MAI-Voice-1语音模型具有高效生成音频的能力,仅需单块GPU便可在1秒内生成长达1分钟的音频内容。目前,该模型已被应用于“Copilot Daily”功能中,AI主持人通过该模型播报当日热点新闻,同时还能生成播客风格的对话内容,助力用户深入理解各类话题。
普通用户现已能在Copilot Labs平台上亲身体验MAI-Voice-1的魅力,不仅可以输入希望AI表达的内容,还能根据个人喜好自定义语音音色与说话风格。与此同时,微软还同步推出了MAI-1-preview模型,其训练过程动用了约1.5万块英伟达H100 GPU,展现了微软在AI领域的强大实力。该模型专为满足特定需求用户而设计,具备出色的指令遵循能力,能够为日常咨询提供实用且精准的回应。
微软AI负责人穆斯塔法・苏莱曼曾在《Decoder》播客中透露,公司内部研发的AI模型并未将企业级应用场景作为核心方向,而是致力于打造一款对消费者而言体验极佳的产品,并针对自身应用场景进行深度优化。他指出,微软在广告业务、消费者行为数据等领域拥有海量高预测性、高实用性的数据,因此工作重点是构建真正适配“消费者伙伴”定位的模型。
据悉,微软计划将MAI-1-preview模型应用于Copilot助手的特定文本使用场景,以进一步丰富和提升用户体验。目前,Copilot主要依赖OpenAI的大型语言模型,而MAI-1-preview的加入无疑将为其注入新的活力。同时,该模型也已在AI基准测试平台LMArena上展开公开测试,接受业界和用户的检验。
微软AI团队在博客中表示,对未来发展有着宏大的规划。接下来,将持续推进技术突破,并坚信通过整合一系列针对不同用户需求与应用场景的专业模型,将释放出巨大的价值。 |