Gemma

新品

Google 推出的轻量级开放模型系列,支持多模态生成、嵌入、安全评估和端侧部署

编程开发 付费 1 0
访问 Gemma 官网

Gemma 是什么?

Gemma 是 Google DeepMind 与 Google 团队推出的一系列轻量级开放模型,官方说明其研究成果与技术源自 Gemini 模型系列,面向 AI 开发社区开放权重并配套工具支持。Gemma 不只是单一模型,而是一组覆盖通用生成、嵌入、安全评估和边缘运行的模型家族,适合开发者在本地、移动设备、硬件或托管服务上构建和定制 AI 应用。

开放模型系列 文本/音频/图片输入 端侧与托管部署

截至官方文档 2026 年 4 月 2 日更新,Gemma 4 支持文本、音频和图片输入,可覆盖多种生成式 AI 任务,支持 140 多种语言,并提供最高 128K 到 256K 的长上下文窗口。除通用模型外,官方还提供 EmbeddingGemma 用于信息检索、语义相似性、分类和聚类,ShieldGemma 2 用于按安全政策评估生成式 AI 输入与输出。

核心能力

轻量开放权重

面向开发者开放模型权重,便于在本地、云端或自有硬件上进行实验、评估和部署。

多语言与长上下文

Gemma 4 覆盖 140 多种语言,并面向长文档、对话和多步骤任务提供长上下文版本。

EmbeddingGemma

将文本转换为数值向量,可用于 RAG 检索、语义搜索、聚类、分类和相似度计算。

ShieldGemma

用于生成式 AI 输入和输出安全评估,帮助开发者在应用层补充内容安全与策略审核。

Gemma 适合希望自主管理模型权重、做私有化或端侧 AI 实验的团队。选择前应结合模型卡片核对许可、能力边界、上下文长度、硬件需求和安全策略;对于线上产品,还需要配套评测、监控、提示词防护和人工兜底机制。

产品信息

开发团队
Google DeepMind 与 Google
模型形态
通用生成、嵌入、安全评估等变体
工具生态
Keras、Colab、Hugging Face、Kaggle
文档更新
官方文档最后更新:2026-04-02

适用场景

本地模型应用

在本地或自有服务器运行轻量开放模型,构建聊天、摘要、写作和业务助手。

端侧 AI 与边缘推理

在移动设备、边缘硬件或嵌入式场景中探索离线、低延迟和隐私友好的 AI 能力。

RAG 与语义检索

使用 EmbeddingGemma 生成向量,支持知识库检索、推荐、聚类和相似文本匹配。

模型微调与研究

结合 Keras、JAX、Hugging Face 或 Colab 对特定任务进行微调和评测。

Gemma

Gemma

编程开发

前往官网
ai.google.dev/gemma/docs?hl=zh-cn

数据统计

浏览量 1
点击量 0
收录时间 2026-05-14
更新时间 2026-05-15