Back to Feed
总结
据《麻省理工科技评论》报道,通用人工智能(AGI)概念自2007年由本·格策尔和谢恩·莱格提出后,从边缘设想转为科技公司核心目标。OpenAI、Google DeepMind、Anthropic高层将其描绘为推动繁荣或带来灾难的关键,并据此推动巨额算力与能源基础设施投资,如OpenAI与英伟达、AMD合作规划10GW与6GW电力需求。文章同时指出AGI叙事具不可证伪等特征,可能转移资源与监管注意力,更多反映商业与信念驱动而非确凿证据。
正文
🤖 通用人工智能(AGI):从边缘构想到全球科技行业核心叙事的演变 通用人工智能(AGI)已从二十年前的边缘构想演变为当今科技行业及全球经济的主导叙事。根据《麻省理工科技评论》的报道,AGI这一概念最早由研究员本·格策尔(Ben Goertzel)和谢恩·莱格(Shane Legg)在2007年提出,旨在描述一种能执行人类大脑几乎所有功能的假设性技术。尽管目前学术界对AGI尚无统一的科学定义,且该技术尚未真正实现,但包括OpenAI、Google DeepMind和Anthropic在内的顶尖AI公司负责人均已将其作为核心发展目标。OpenAI首席执行官萨姆·奥特曼(Sam Altman)预测AGI将极大增加社会繁荣,而Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)则将其智能程度比作"天才国家"。 这一愿景正驱动着庞大的资本投入与基础设施建设。OpenAI与英伟达近期宣布了高达1000亿美元的合作伙伴关系,旨在满足至少10吉瓦(GW)的电力需求;随后OpenAI又与AMD达成了涉及6吉瓦电力的合作。然而,文中指出AGI的叙事方式与阴谋论存在多处相似特性,包括其不可证伪性、对未来救赎或灾难的极端预测,以及对"隐藏真相"的追求。例如,以艾利泽·尤德科夫斯基(Eliezer Yudkowsky)为代表的"毁灭论者"认为AGI有极高概率导致人类灭绝,甚至主张通过国际禁令及武力手段阻止其开发。 这种对假设性技术的单一关注引发了多方担忧。社会学家和政策专家指出,对AGI的追求可能导致资源从医疗保健等实际应用领域流失,并使监管机构的注意力从当前的算法不平等、劳动力影响等紧迫问题转向遥远的生存风险。此外,AGI的"必然性"叙事被认为是一种商业策略,旨在吸引投资并招募顶尖人才。尽管GPT-4等模型展现了显著的能力,但专家提醒,智能并非可以单纯通过增加算力和数据就能无限叠加的商品,目前行业对AGI的追求在很大程度上建立在技术信仰而非确凿的证据之上。 (MIT Technology Review)
发布时间: