跳到正文
Back to Feed

总结

1月8日,韩国科技巨头NAVER宣布建成韩国最大规模AI计算集群,集成4000块英伟达B200 AI GPU,以加速内部AI模型训练。NAVER称内部模拟显示,使用包含2048块A100的现有系统训练72B规模模型约需18个月,新集群约1.5个月即可完成同等训练量,效率提升约12倍。公司计划借此加速自主基础模型升级,扩大多模态通用模型训练规模,提升至全球领先水平,并逐步应用于各类服务与产业场景。

正文

IT之家 1 月 8 日消息,韩国科技巨头 NAVER 今日宣布已建成韩国最大规模的 AI 计算集群。其 集成了 4000 块英伟达的 B200 AI GPU ,可大幅加速 NAVER 内部 AI 模型训练进程。 NAVER 表示,根据其内部模拟结果,使用现有系统(IT之家注:包含 2048 块英伟达 A100)训练一个 72B 规模的 AI 模型大约需要 18 个月,而新系统仅需 1.5 个月就能完成相同量的工作, 效率是此前的 12 倍 。 NAVER 计划借助这一新集群加速推进自主基础模型升级工作:大幅扩展多模态通用模型的训练规模,使其性能提升至全球领先水平,并逐步将其应用于各类服务及产业场景。
发布时间: