Title: Pretrained Vision-Language-Action Models are Surprisingly Resistant to Forgetting in Continual Learning
Authors: Huihan Liu, Changyeon Kim, Bo Liu, Minghuan Liu, Yuke Zhu
arXiv: https://arxiv.org/abs/2603.03818
Problem framing
连续学习在机器人策略里通常会触发灾难性遗忘,尤其在小模型从零训练范式下更明显。该文直接问一个关键问题:大规模预训练VLA在增量任务流里是否仍然脆弱。
Core method
作者将“从零训练BC policy”与“预训练VLA微调”放在统一 continual learning protocol 下对比,并系统拆解了参数更新位置、回放策略与任务顺序扰动。核心发现是:预训练VLA的表征层具有显著抗遗忘弹性,遗忘主要集中在动作头与末端适配层。
Key equations and mechanisms
论文机制可写成稳定性-可塑性折中: 其中关键不是把 做得很大,而是通过预训练先验让 在新任务下天然更平滑,从而减轻旧技能漂移。工程上等价为“冻结/低学习率表征层 + 可塑动作头”。
Experiment reading guide
优先看:
- 多任务序列后的旧任务保持率曲线;
- 与 scratch policy 在相同数据预算下的 forgetting gap;
- 参数高斯噪声或顺序打乱时的稳健性。
Limitations
当前结论依赖已有预训练覆盖度;若任务分布偏离具身预训练语料过远,抗遗忘优势可能下降。论文也未完全回答“长期无限任务流”下的容量上限。
Future work
可把该结论与模块化动作头/LoRA 结合,构建可持续扩展的机器人技能库;并引入任务路由器减少无关参数更新。
Replication angle
复现时建议先固定 backbone,只替换 action head 比较三组:full finetune / head-only / low-rank adaption,并记录 forward transfer 与 backward transfer 两个指标。
图示:arXiv 页面无稳定直链图片。
Graph: Paper Node 2603.03818