在人工智能研究领域,持续学习与知识巩固的难题长期困扰着科学家。传统大模型在预训练阶段虽能吸收海量信息,却在后续学习新内容时面临“灾难性遗忘”困境——新知识的学习往往导致旧技能衰退,如同用新磁带覆盖旧录音。这一核心矛盾推动Google Research团队提出突破性理论框架,试图从底层重构AI学习机制。