微软推出其首款自研 AI 模型:MAI-Voice-1 秒级生成音频,MAI-1-preview 剑指 Copilot 文本场景
8 月 29 日消息,周四,微软人工智能部门正式推出其首批两款自研 AI 模型 ——MAI-Voice-1 语音模型与 MAI-1-preview 通用模型。据微软介绍,全新的 MAI-Voice-1 语音模型仅需单块 GPU,就能在 1 秒内生成时长 1 分钟的音频;而 MAI-1-preview 模型则“让用户提前窥见 Copilot 未来功能的发展方向”。
目前,微软已将 MAI-Voice-1 应用于多项功能中:例如在“Copilot Daily”功能里,AI 主持人会通过该模型播报当日热点新闻;同时,它还能生成播客风格的对话内容,帮助用户理解各类话题。
普通用户可在 Copilot Labs 平台亲自体验 MAI-Voice-1:不仅能输入希望 AI 表达的内容,还可自定义语音音色与说话风格。除这款语音模型外,微软此次同步推出的 MAI-1-preview 模型,训练过程动用了约 1.5 万块英伟达 H100 GPU。该模型专为特定需求用户设计,具备遵循指令的能力,可“为日常咨询提供实用回应”。
微软 AI 负责人穆斯塔法・苏莱曼去年在《Decoder》播客某期节目中表示,公司内部研发的 AI 模型并未将企业级应用场景作为核心方向,他解释道:“我的思路是,我们必须打造一款对消费者而言体验极佳的产品,并针对自身应用场景进行深度优化。在广告业务、消费者行为数据等领域,我们拥有海量高预测性、高实用性的数据,因此我的工作重点是构建真正适配‘消费者伙伴’定位的模型。”
据悉,微软 AI 计划将 MAI-1-preview 模型应用于 Copilot 助手的特定文本使用场景(目前 Copilot 主要依赖 OpenAI 的大型语言模型)。同时,该模型已开始在 AI 基准测试平台 LMArena 上进行公开测试。
注意到,微软 AI 团队在博客文章中写道:“我们对未来发展有着宏大规划。接下来,我们不仅会持续推进技术突破,更相信通过整合一系列针对不同用户需求与应用场景的专业模型,将释放出巨大价值。”
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。