跳到正文
Back to Feed

总结

文章汇总多方对AI能力演进的预测:谷歌DeepMind研究员称2026年或成“持续学习”落地之年,杰夫·迪恩也在NeurIPS 2025指出LLM缺乏持续学习是痛点;Anthropic CEO认为2026可实用,并出现Claude Code在自编码中大幅代替人类编程的案例。前OpenAI研究员团队用AI Futures Model外推METR-HRS,预测2030年前后可能实现全自动编程,并给出约25%概率在一年内跃迁至ASI。Nature等展望到2050年AI或成诺奖级研究主力,推动“黑灯实验室”等科研形态。

正文

2026 年点亮持续学习,2030 年实现全自动编程,2050 年垄断诺奖级研究...... 人类向 AI 让渡科学主导权的倒计时,似乎已经开始。 一早,谷歌 DeepMind 研究员重磅预测刷屏全网! 2026 年,将会成为「持续学习」之年。 或许它已经在谷歌内部实现了。 此前,Jeff Dean 曾在 NeurIPS 2025 炉边谈话上,指出了目前 LLM 痛点在于「缺乏持续学习」。 去年底,谷歌团队提出的「嵌套化方法」增强了 LLM 上下文处理能力,实现了持续学习。 拓展阅读: 终结 Transformer 统治!清华姚班校友出手,剑指 AI「灾难性遗忘」 持续学习,对于任何一个模型和智能体来说,至关重要。它是 AI 能否自我改进,不断涌现的一个核心要素。 Anthropic CEO Dario Amodei 也表示,持续学习将在 2026 年就搞定了,并能实用起来。 实际上,AI 这种持续学习的苗头,早已显现。 Anthropic 工程师自曝,过去一个月,自己对 Claude Code 的贡献,全部由 AI 100% 直出代码。 另一位非技术型程序员 Ben Tossell 四个月,烧掉 30 亿 Token,用 Claude Code 连造 50 个项目。 Tossell 全程所做的,只是看着 AI 完成编码。 这一刻,模型不再通过训练获得改进,而是在自编码过程中不断进化。 人类不用插手,几乎 0 干预,全自动化编程和研究的时代更近了。 OpenAI 研究员 Hieu Pham 预测,2026 将见证 AI 破解一个千禧年难题 2030 告别手搓代码?前 OpenAI 研究员揭秘 ASI 倒计时 全自动化编程(Automated Coder, AC),会不会成为 AGI 乃至 ASI 加速到来的关键拐点? 前 OpenAI 研究员 Daniel Kokotajlo 和他的团队给出了肯定答案。 他们利用自主开发的 AI Futures Model 做出了惊人预测: 2030 年不仅可能实现完全自动化编程,更有约 25% 的概率在一年内实现向 ASI 的飞跃! 团队认为,AC 就像是 AGI 研发进入自动化加速阶段的「开关」。 一旦这个开关被按下,ASI 就极有可能快速起飞(25% 概率在 1 年内实现)。 扩展阅读(前作): 末日时间表来了!前 OpenAI 研究员 76 页硬核推演:2027 年 ASI 接管世界,人类成 NPC https://blog.ai-futures.org/p/ai-futures-model-dec-2025-update 核心锚点:用 METR-HRS 外推「编码时间跨度」 针对 AGI 时间线预测这一争议话题,团队认为 METR-HRS 是目前最适合用于线性外推至超强 AI 的基准。 具体来说,就是以「能力基准趋势外推」作为核心方法,利用 METR 的编码时间跨度套件(METR-HRS)来设定达到 AGI 所需的有效算力,并沿着这条趋势线进行推演。 AI Futures Model 将 AI 软件研发的自动化与加速轨迹,直观地划分为三个阶段: 自动化编程 自动化研究品味 智能爆炸 阶段 1:自动化编程 首先预测「写代码」何时会被完全自动化。 模型对自动化编程器(Automated Coder,AC)的定义非常硬核: AC 可以将某个 AGI 项目的代码编写工作完全自动化,直接替代该项目的整个程序员团队。 模型的推演起点的依据是 METR 图表的趋势外推,并预估「智能体式编码时间跨度」达到何种水平才算作 AC。 同时,模型不仅仅盯着曲线,还综合考量了多重变量: 供给约束是否会导致增长放缓; AI 研发自动化是否会带来加速效应; 时间跨度趋势是否呈现超指数级增长; ...... 阶段 2:自动化研究品味 除了代码之外,模型还追踪了另一项关键能力 -- 研究品味(Research Taste)。 它指的是确定研究方向、挑选实验、解读结果以及从实验中提取知识的能力。 这更像是一种「团队协作」:写代码是执行力,研究品味是方向感。执行力再强,如果方向感跟不上,也只是在跑无效里程。 阶段 2 的目标是预测从 AC 进化到超人类 AI 研究员(Superhuman AI Researcher,SAR)需要多长时间。 SAR 的定义同样强悍: SAR 可以将 AI 研发完全自动化,完全替代所有人类研究员。 这一阶段的速度取决于三个因素: 写代码自动化能为 AI 研发带来多大的加速; 当 AC 出现时,AI 的研究品味已经达到了什么水平; AI 研究品味的提升速度(即在同样的进展输入下,每做一次实验能带来多少额外价值)。 阶段 3:智能爆炸 当 AI 研发实现完全自动化,模型便进入了最让人心跳加速的阶段: AI 会以多快的速度自我提升,逼近智能上限。 这一阶段追踪的里程碑包括: 超智能 AI 研究员(Superintelligent AI Researcher,SIAR): 在顶尖 AGI 项目中,AI 研究员与人类研究员的差距,达到了顶尖人类研究员与中位研究员差距的 2 倍。 顶尖专家级 AI(Top-human-Expert-Dominating AI,TED-AI): 在几乎所有认知任务上,至少达到顶尖人类专家的水平。 超级人工智能(Artificial Superintelligence,ASI): 在几乎所有认知任务上,ASI 与最强人类的差距,是最强人类与中位专业人士差距的 2 倍。 在模拟推演中,研究人员发现,存在一些轨迹显示 AI 可以在数月内从 SIAR 跃升至 ASI;但也存在在智能爆炸阶段「哑火」的可能,即需要继续通过堆算力才能达到 ASI。 要想实现最快的起飞,通常需要一个反馈循环:让 AI 能力每一次翻倍所需的时间,都比上一次更短。 在此,模型提出了一个关键概念 --「仅靠研究品味的奇点(taste-only singularity)」: 速度的翻倍完全来自于研究品味的提升,而非算力增加或代码能力的提升。 这一奇点是否会出现,将取决于「创新想法变得越来越难挖掘的速度」与「AI 研究品味提升速度」之间的博弈。 Nature:2050 年,AI 扛下诺奖级研究 如果说 AI Futures Model 描绘的是 AI 自身进化的「速度」,那么 Nature 最新的展望则向我们展示了这种进化将如何重塑科学探索的「广度」。 尽管时间线难以精确锁定,但科学界对终局的共识逐渐清晰: 到 2050 年,AI 系统或将成为「诺奖级」科学研究的主力军。 常驻牛津、《超级智能:路径、危险与策略》的作者 Nick Bostrom 预计,AGI 将 2050 年前后出现,并具备回答「我们当前关心、且原则上可以由科学回答的大多数问题」的能力。 即便没有所谓的超级智能全面主导,到了 2050 年,AI 也可能让科学研究的方式发生根本变化。 对此,伦敦研究与前瞻公司 Outsmart Insight 联创 Alex Ayad 描述了一种名为「黑灯实验室」(lights out labs)的场景: 由 AI 算法驱动的自主系统,结合机器人实验员,能够 24 小时不间断地攻克生物技术难题。 在此期间,完全不需要人类在场,故名「黑灯」。 而这,也将催生一个完美的「共生循环」: 新技术催生新的科研方式,新知识反过来推动更新、更强的技术,从而不断解锁新的科学领域。 在此基础上,墨西哥国立自治大学物理学家 Juan Carlos Hidalgo 给出了一个乐观的预测: 在 AI 的辅助攻坚下,到 2050 年,核聚变能源成熟的前景「相当可期」。 参考资料:HYB https://www.nature.com/articles/d41586-025-04100-6 https://x.com/slow_developer/status/2006800088627048584 ?s=20 https://www.aifuturesmodel.com/%20 https://blog.ai-futures.org/p/ai-futures-model-dec-2025-update 本文来自微信公众号: 新智元(ID:AI_era)
发布时间: