Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.25.0·
页面加载耗时 0.00 毫秒·物理内存 69.5MB ·虚拟内存 1236.0MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
8 月 16 日消息,谷歌宣布旗下开源旗下 Gemma 系列家族中最轻量的版本“Gemma 3 270M”,该模型拥有 2.7 亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。
获悉,目前 Gemma 3 系列模型包括 270M、1B、4B、12B 与 27B 五种规模版本。在 Q4_0 量化格式下,各模型的 RAM 内存需求分别为 240MB、892MB、3.4GB、8.7GB 和 21GB。其中,Gemma 3 270M 以最低 RAM 内存门槛(INT4 量化版本的 RAM 内存需求仅约 240MB),成为系列模型中最适合低功耗设备部署的版本,号称在 Pixel 9 Pro 手机上运行 25 轮对话仅消耗手机 0.75% 的电量。
据谷歌介绍,该模型特别适合处理高频率、任务明确的场景,同时特别适合处理个人隐私信息,例如“情感分析、实体识别、人生规划”等,同时也适用于开发多个专用任务的小型模型。
谷歌同步发布了微调教学资源,涵盖基于 Hugging Face Transformers 进行全模型训练的完整流程,支持开发者在分类、信息抽取、情感分析等任务上进行定制化开发。目前已有第三方开发者通过 transformers.js 将该模型运行在浏览器端,证明 Gemma 3 270M 在 Web 环境中同样具备良好的性能与可控性。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。