谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境

2025-08-16 发布 · 浏览10次 · 点赞0次 · 收藏0次

8 月 16 日消息,谷歌宣布旗下开源旗下 Gemma 系列家族中最轻量的版本“Gemma 3 270M”,该模型拥有 2.7 亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。

获悉,目前 Gemma 3 系列模型包括 270M、1B、4B、12B 与 27B 五种规模版本。在 Q4_0 量化格式下,各模型的 RAM 内存需求分别为 240MB、892MB、3.4GB、8.7GB 和 21GB。其中,Gemma 3 270M 以最低 RAM 内存门槛(INT4 量化版本的 RAM 内存需求仅约 240MB),成为系列模型中最适合低功耗设备部署的版本,号称在 Pixel 9 Pro 手机上运行 25 轮对话仅消耗手机 0.75% 的电量。

据谷歌介绍,该模型特别适合处理高频率、任务明确的场景,同时特别适合处理个人隐私信息,例如“情感分析、实体识别、人生规划”等,同时也适用于开发多个专用任务的小型模型。

谷歌同步发布了微调教学资源,涵盖基于 Hugging Face Transformers 进行全模型训练的完整流程,支持开发者在分类、信息抽取、情感分析等任务上进行定制化开发。目前已有第三方开发者通过 transformers.js 将该模型运行在浏览器端,证明 Gemma 3 270M 在 Web 环境中同样具备良好的性能与可控性。

谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。