Gemma是Google最新发布的开源轻量级AI模型家族,主打开放权重、多模态能力和高度定制性,支持文本、图片等复杂场景,适合开发者、研究者及企业多平台部署。
免费获取模型,灵活本地或云端使用,低门槛推动AI创新。
2025年7月,Google宣布其最新开放AI模型平台Gemma正式登陆开发者与企业市场。 Gemma(官方网址点此)是Google DeepMind联合多部门倾力打造的轻量、开放、智能的AI训练模型工具家族,致力于推动研究创新与业务落地。
在生成式AI浪潮席卷全球之际,Google以Gemma为核心,为广大开发者、研究者、企业打开低门槛、高扩展性的新一代AI应用之门,在开放AI生态、技术安全与多模态能力上处于领先。

Gemma的主要功能
Gemma主打开放权重、高度定制与多模态能力,为AI训练模型赋能多元场景。 Gemma家族模型以生成式语言能力为核心,支持文本和图像输入,能够涵盖对话、摘要、理解、编码乃至视觉等多重任务,满足开发、研究与企业应用需求。
Key Features
- 多模态输入:自Gemma 3起,支持文本和图片同时处理,具备视觉语言能力,如图片内容分析、文本问答、对象识别等。
- 超长上下文窗口:支持128K token,轻松处理超长文档或批量图片,适用于法律、医疗等大文本场景。
- 强大多语言支持:原生支持140+种语言,全球化AI开发无障碍。
- 灵活模型参数及量化:涵盖1B、4B、12B、27B参数规模,支持32~4位多级别量化。
- 开放权重及自定义训练:所有模型权重开放,支持二次微调与定制,适配专属数据。
- 函数调用及结构化输出:便于智能对话、自动化代码等API深度集成。
- 安全与审计:如ShieldGemma图片安全分类器,帮助企业合规排查高风险内容。

| 型号 | 参数量 | enter | Output | 推荐硬件 | 32位显存 | 8位显存 | 4位显存 |
|---|---|---|---|---|---|---|---|
| Gemma 1B | 10亿 | 文本 | 文本 | 手机/笔电 | 4GB | 1.1GB | 892MB |
| Gemma 4B | 40亿 | Text/Image | 文本 | 台机/轻服务器 | 16 GB | 4.4GB | 3.4GB |
| Gemma 12B | 120亿 | Text/Image | 文本 | 高端桌面/服务器 | 48GB | 12.2GB | 8.7GB |
| Gemma 27B | 270亿 | Text/Image | 文本 | 服务器集群 | 108GB | 29.1GB | 21GB |

更多技术细节:Gemma 3技术报告
多样化模型家族
- Gemma Core:(1B/4B/12B/27B)文本和视觉生成、推理、摘要等多任务。
- CodeGemma:代码生成、自动补全。
- PaliGemma:图片问答、视觉摘要。
- ShieldGemma:内容安全审计及检测。
- TxGemma:医学和垂类预测、推理。
Gemma模型可通过Hugging Face与Kaggle免费下载使用。

Gemma的价格 & 方案
Gemma秉承开放策略,模型权重完全免费,支持多平台自由部署与训练。如需更高性能的云端API、企业级服务,可选用Google Cloud相关付费方案。
定价方案速览

| plan | price | 说明与适用场景 |
|---|---|---|
| 本地模型下载 | free | Hugging Face/Kaggle下载权重,本地或自有服务器部署 |
| Google Colab | 免费/升级版 | 免费试用Gemma,微调与推理,付费可获更高资源 |
| Google Cloud AI | 新用户$300赏金 | 云端API推理/训练,首开账户送$300,适合企业与科研 |
| Vertex AI | Charged based on usage | 主打企业级AI部署,API调用即付 |
For reference费用详情和试用
如何使用Gemma
Gemma支持多框架多平台,适合零基础到专业级用户,操作便捷。官方入门指引
核心使用方式
- 下载模型权重:
accessHugging Face或Kaggle选择需要的模型。 - 开发框架选择:
Keras、PyTorch、JAX、Transformers等均兼容支持(详细教程),也可Gemma.cpp、Ollama边端运行。 - 推理与微调:
支持本地/云端prompt推理、LoRA/QLoRA高效微调,小样本适用。微调教程 - 一站式部署:
企业支持Vertex AI、GKE、Dataflow等MLOps集成云服务。
集成步骤简要
| step | Brief | Reference Links |
|---|---|---|
| 获取权重 | 下载权重文件 | Hugging Face |
| 环境配置 | 安装库加载模型 | Official documentation |
| 推理调用 | 编写脚本 | 快速指引 |
| 部署上线 | 集成员工/云端/手机 | 部署教程 |
新手推荐从Colab在线试用,官方Notebook示例

Gemma的适用人群
Gemma以开放易用、安全多元、兼容性强的优势,成为以下群体AI开发首选:Gemma社区案例
主要适用对象
- AI开发者/创业者团队:自定产品如对话机器人、生成式内容等。
- 学术研究者:开放权重、可微调、便于创新方法论研究。
- 中小/大型企业IT:低成本私有部署,数据合规安全。
- AI教育/培训:新技术教学、实验。
- 全球化/本地化需求开发者:多语种交互,适配不同地区。
典型适配场景举例

| Scene | 模型/能力 | illustrate |
|---|---|---|
| Intelligent Customer Service | Gemma 3 4B/12B | 多轮问答、自动摘要 |
| 文本生成摘要 | Gemma 3 1B/4B | 长文档处理 |
| 图片内容审核 | ShieldGemma 2 | 合规、安全分类 |
| Programming Automation | CodeGemma | 代码补全分析 |
| 多语言教学 | Gemma 3 | 140+语言支持 |
| 医学垂直领域 | TxGemma | 领域定制、推理预测 |
Gemma平台生态与安全合规
Gemma高度重视责任AI与内容安全。 Google在Gemma平台设计了多样责任组件(Responsible GenAI Toolkit、限制策略等),结合ShieldGemma支持自动内容审核、敏感信息拦截与合规追踪。
- 防偏见与滥用:全流程去偏与层级内容管理。
- 研发合规性:符合Google Responsible AI政策,保障健康发展。
更多说明见社区政策页
Gemma的技术生态与社区创新
Google鼓励开发者/研究者进行创新模型研发与生态共建。Princeton NLP等科研机构,以及OmniAudio多模态扩展案例,已丰富Gemmaverse社区 。
Gemma与Hugging Face、Ollama、Vertex AI、Colab、Keras等平台无缝衔接,可高效集成行业业务链路。大大加速AI技术民主化进程。

Frequently Asked Questions
Gemma和Gemini区别?
Gemini定位旗舰,超大规模多模态AI,Gemma主打开源轻量、低门槛、可本地化部署,适合私有化和创新开发。 See detailsGemma vs Gemini官方说明
如何本地部署Gemma?
直接下载权重,按硬件选择参数/精度,配合PyTorch/Keras等或Ollama、Gemma.cpp等工具实现本地推理与训练。无需依赖云,详见部署指南
支持定制化领域微调吗?
Gemma支持定制化微调(如LoRA/QLoRA),支持本地/云端多场景。 See details微调教程。请注意微调显存需求比推理高。
Gemma的发布,意味着生成式AI民主化迈出新步伐。个人和企业均可在Gemma生态中创新和成长,推动下一代AI广泛应用。体验更多,请访问Gemma官网。
data statistics
Data evaluation
This site's AI-powered navigation is provided by Miao.GemmaAll external links originate from the internet, and their accuracy and completeness are not guaranteed. Furthermore, AI Miao Navigation does not have actual control over the content of these external links. As of 5:30 PM on July 14, 2025, the content on this webpage was compliant and legal. If any content on the webpage becomes illegal in the future, you can directly contact the website administrator for deletion. AI Miao Navigation assumes no responsibility.

