Routine国际 · 科技MIT提出递归语言模型RLM解锁千万级上下文人工智能推理海外新闻科技创新+2麻省理工CSAIL团队提出“递归语言模型”(RLM)长文本推理策略,旨在缓解大模型处理超长文本时的“上下文腐烂”。该方法不改模型架构,而是将超长提示词存入可交互的Python REPL环境,由模型通过写代码筛选与探查文本、拆解任务并递归调用自身或轻量子模型处理片段,再汇总结果,从而按需读取信息并将有效处理规模推至千万级token。实验中,RLM在OOLONG-Pairs等长文本任务显著提升F1/正确率;成本中位数与其他方案接近,但高分位成本会随动态步骤增加而上升。论文发布于arXiv:2512.24601。-