Back to Feed
总结
据雅虎财经报道,当地时间1月14日,刚卸任伯克希尔·哈撒韦CEO的沃伦·巴菲特在CNBC两小时特别节目中警告,快速演进的AI存在失控风险,影响可类比核武器。他称行业领军者对技术终局缺乏清晰认知本身即是威胁,且AI一旦走得太远难以“撤回”。巴菲特援引爱因斯坦观点称技术突破会改变世界却未必改变人的思维,并回顾核扩散担忧从单国扩展到多国,延续其对AI“巨大潜力与同等规模破坏风险并存”的公开立场。
正文
IT之家 1 月 15 日消息,当地时间 1 月 14 日,据雅虎财经报道,刚刚卸任伯克希尔 · 哈撒韦 CEO 的"股神"沃伦 · 巴菲特将快速演进的 AI 风险,与自己职业生涯中最深刻的全球安全议题之一相提并论 -- 核武器 。 在当地时间周二晚播出的 CNBC 两小时特别节目中,巴菲特直言,AI 行业领军者 对技术未来缺乏明确认知 ,本身就构成潜在威胁。 巴菲特说,即便是最顶尖的 AI 专家,也无法说清这项技术 最终会走向哪里 。他用哥伦布作比喻指出,探索未知尚可回头,但 AI 已经 不存在"撤回"的选项 。 在谈及技术失控的风险时,巴菲特引用了爱因斯坦在二战期间关于原子弹的一句名言,强调技术突破往往改变世界," 却未必改变人的思维方式 "。 他进一步指出,人类在核武器问题上的"进展",不过是从最初担心"某一个国家拥有",演变成如今 多个国家同时掌握 。虽然自己不认为核武器威胁无法简单用金钱解决,但哪怕在二战背景下,核武器被视为"美国的必要选择",自己依然愿意 不计代价尝试消除这种威胁 ,而这也是自己思考慈善事业时最先浮现的核心问题。 IT之家从报道中获悉,这番表态也延续了巴菲特近年来对 AI 的公开态度。2024 年 5 月,他在伯克希尔年度股东大会上曾强调,AI 同时具备 巨大的正面潜力与同等规模的破坏性风险 。 相关阅读: 《 买入谷歌成封笔之作,一代股神巴菲特正式退休 》
发布时间: