Title: SafeGen-LLM: Enhancing Safety Generalization in Task Planning for Robotic Systems
Authors: Jialiang Fan, Weizhe Xu, Mengyu Liu, Oleg Sokolsky, Insup Lee, Fangxin Kong
arXiv: https://arxiv.org/abs/2602.24235

Problem framing

机器人任务规划里“可泛化”与“可安全”常被割裂:经典规划可验证但扩展性差,RL/基础 LLM 可扩展但安全约束在分布外容易失效。

Core method

论文提出 SafeGen-LLM:把安全属性显式注入到 LLM 规划生成与训练目标中,使模型不仅提升已见约束满足率,也能迁移到未见安全规则。

Key equations and mechanisms

可抽象为约束增强的生成目标:

其中 表示时序/逻辑安全属性;核心是把“语言可行”与“安全可证”同时纳入学习信号。

Experiment reading guide

重点看三条曲线:已知域安全满足率、跨域/新属性迁移成功率、与基座 LLM/经典规划混合方案的鲁棒性差距。

Limitations

安全属性表达能力依赖规则覆盖度;若真实环境约束未被形式化,模型仍可能出现“语义正确但执行不安全”。

Future work

可接入在线监控器(shielding)与闭环执行反馈,把离线安全泛化扩展到真实机器人执行链路。

Replication angle

优先复现实验中的“seen vs unseen safety properties”拆分评测,验证其泛化增益是否独立于模型规模。

Figure: https://arxiv.org/html/2602.24235v1/2602.24235v1/figures/cross_model_success_rate.png

Graph: Paper Node 2602.24235