除了 Gemini 系列 AI 模型外,谷歌还提供 Gemma 系列轻量级开放模型。今天,他们发布了 Gemma 2,这是基于全新架构的下一代产品,旨在实现突破性的性能和效率。
Gemma 2 有两种大小:90 亿 (9B) 和 270 亿 (27B) 个参数。正如预期的那样,这一新一代模型在推理方面更高效,性能也比第一代 Gemma 模型更好。谷歌声称,27B 模型的性能可与比其大两倍以上的模型相媲美,而 9B 模型则优于 Llama 3 8B 和其他类似大小的开源模型。未来几个月,谷歌计划发布一个 26 亿参数的 Gemma 2 模型,该模型将更适合智能手机 AI 场景。
新的 Gemma 2 模型可以托管在单个 NVIDIA A100 80GB Tensor Core GPU、NVIDIA H100 Tensor Core GPU 或单个 TPU 主机上,从而降低 AI 基础设施成本。您甚至可以通过 Hugging Face Tranormers 在 NVIDIA RTX 或 GeForce RTX 桌面 GPU 上运行 Gemma 2。从下个月开始,Google Cloud 客户可以在 Vertex AI 上部署和管理 Gemma 2。开发人员现在可以在 Google AI Studio 上试用新的 Gemma 2 模型。
在 Gemma 2 的训练过程中,谷歌过滤了预训练数据,并根据一套全面的安全指标进行了测试和评估,以识别和减轻潜在的偏见和风险。
Google 正在通过 Kaggle 或 Colab 免费套餐免费提供 Gemma 2。学术研究人员可以申请Gemma 2 学术研究计划以获得 Google Cloud 积分。