Back to Feed
总结
据英国《卫报》1月4日报道,英国先进研究与发明署(ARIA)项目主管、AI安全专家David Dalrymple警告,前沿AI系统能力跃升过快,世界可能来不及为安全风险建立充分准备。他认为政府部门与AI企业对即将到来的技术突破存在认知落差,防护措施可能难以跑在技术前面,各国政府不能假定先进AI天然可靠,应优先控制并缓解潜在风险。英国AI安全研究所本月评估称,部分模型能力指标约每8个月翻倍,已能独立完成耗时超1小时的专业任务;自我复制测试中两款前沿模型成功率超60%,虽现实出现极端失控概率仍被认为较低。Dalrymple并预测到2026年底AI或可自动完成整日研发并自我强化,可能冲击就业与安全、经济体系稳定。
正文
IT之家 1 月 5 日消息,当地时间 1 月 4 日,据英国《卫报》报道,英国先进研究与发明署(Aria Agency)项目主管、AI 安全专家 David Dalrymple 警告称,前沿 AI 系统带来的安全风险发展速度之快,可能已经让 世界来不及充分准备 。 Dalrymple 在接受采访时指出,AI 能力的快速跃升值得高度关注。人们应当关注 在现实世界中完成各类事务、并且表现优于人类的系统 。"为了维持对文明、社会和地球的控制,人类需要在若干关键领域保持主导地位,而在这些领域中,人类将被全面超越。" Dalrymple 认为,政府部门与 AI 企业之间,对即将出现的技术突破仍存在明显认知落差。从安全角度看,防护措施很可能难以跑在技术前面。在 5 年左右的时间尺度内,大多数具有经济价值的工作,可能会被机器以 更低成本和更高质量 完成。 他同时强调,各国政府 不能假定先进 AI 系统天然可靠 。"在经济压力之下,用于验证可靠性的科学方法,很可能无法及时成熟。因此,现实可行的选择,是尽可能控制并缓解潜在风险。" 他将"技术进步跑在安全前面"的后果形容为 安全与经济体系的潜在失稳 ,并呼吁加强对先进 AI 行为的理解与控制。技术进步也可能带来积极结果,但整体风险极高,而人类社会对这场转变 仍显得警觉不足 。 IT之家从报道中获悉,英国 AI 安全研究所本月发布的评估显示,先进 AI 模型能力在各领域持续快速提升,部分性能指标约每 8 个月翻倍。领先模型在学徒级任务中的成功率已从去年的约 10% 升至 50% ,并已能够独立完成耗时超过 1 小时的专业任务。 研究所还测试了模型的自我复制能力。由于自我复制可能导致系统失控,这被视为核心安全风险之一。测试中,两款前沿模型的成功率超过 60%,但研究所同时指出,在现实环境中出现极端失控情况的概率仍然较低。 Dalrymple 进一步判断,到 2026 年末,AI 可能具备 自动完成整日研发工作的能力 ,并在数学和计算机科学等关键领域实现自我强化,从而推动新一轮能力加速。
发布时间: