Google 推出 Gemma 2:提升 AI 性能、速度和开发人员的可访问性

谷歌推出了 Gemma 2,这是其开源轻量级语言模型的最新版本,提供 90 亿 (9B) 和 270 亿 (27B) 个参数大小。与其前身 Gemma 模型相比,此新版本有望提高性能并加快推理速度。Gemma 2 源自谷歌的 Gemini 模型,旨在让开发人员更容易访问 […] 文章 Google 推出 Gemma 2:提升 AI 性能、速度和开发人员的可访问性首先出现在 Unite.AI 上。

来源:Unite.AI

Google 发布了 Gemma 2,这是其开源轻量级语言模型的最新版本,提供 90 亿 (9B) 和 270 亿 (27B) 个参数大小。与其前身 Gemma 模型相比,此新版本有望提高性能并加快推理速度。Gemma 2 源自 Google 的 Gemini 模型,旨在让研究人员和开发人员更易于使用,速度和效率均有显著提升。与多模式和多语言 Gemini 模型不同,Gemma 2 仅专注于语言处理。在本文中,我们将深入探讨 Gemma 2 的突出功能和进步,将其与该领域的前辈和竞争对手进行比较,重点介绍其用例和挑战。

Gemma 2 Gemma 模型 Gemma 模型

构建 Gemma 2

与其前身一样,Gemma 2 模型基于仅解码器的变压器架构。27B 变体在 13 万亿个主要为英语的标记上进行训练,而 9B 模型使用 8 万亿个标记,2.6B 模型在 2 万亿个标记上进行训练。这些标记来自各种来源,包括网络文档、代码和科学文章。该模型使用与 Gemma 1 和 Gemini 相同的标记器,确保数据处理的一致性。

Gemma 2 使用一种称为知识蒸馏的方法进行预训练,它从更大的预训练模型的输出概率中学习。初始训练后,通过称为指令调整的过程对模型进行微调。首先对合成和人工生成的纯英文文本提示-响应对进行监督微调 (SFT)。然后,应用带人工反馈的强化学习 (RLHF) 来提高整体性能

知识提炼 监督微调 (SFT) 带人工反馈的强化学习 (RLHF)

Gemma 2:跨多种硬件增强性能和效率

NVIDIA H100 Tensor Core GPU Axolotl Hugging Face NVIDIA TensorRT-LLM Google 的 JAX Keras

用例

Navarasa