Back to Feed
总结
Google今日发布开源翻译模型TranslateGemma,基于Gemma 3推出4B、12B、27B三种规模,面向55种语言的翻译任务。技术评测显示,12B版本在WMT24++基准测试中超过参数量更大的Gemma 3 27B基线模型。TranslateGemma采用两阶段微调:先在多样化平行数据上进行监督微调,再用强化学习优化翻译质量,并保留Gemma 3多模态能力,可在移动端、消费级笔记本与云GPU等环境部署,提升落地与覆盖范围。
正文
Google 发布 TranslateGemma 开源翻译模型,支持 55 种语言 Google 今日发布 TranslateGemma,这是一套基于 Gemma 3 构建的开源翻译模型,提供 4B、12B 和 27B 三种参数规模版本,支持 55 种语言的翻译任务。 技术评估显示,12B 参数的 TranslateGemma 模型在 WMT24++ 基准测试中超越了参数量两倍的 Gemma 3 27B 基线模型。该模型采用两阶段微调过程,先通过监督微调在多样化平行数据上训练,再使用强化学习进一步优化翻译质量。TranslateGemma 保留了 Gemma 3 的多模态能力,可在移动设备、消费级笔记本电脑和云端 GPU 等不同环境中部署。
发布时间: