Title: TactAlign: Human-to-Robot Policy Transfer via Tactile Alignment
Authors: Youngsun Wi, Jessica Yin, Elvis Xiang, et al.
arXiv: https://arxiv.org/abs/2602.13579
Problem framing
人到机器人(H2R)迁移里,触觉常被假设“同构传感器+配对数据”,现实难成立。TactAlign 试图在无配对、跨本体条件下,把人类触觉先验转移到机器人。
Core method
采用 rectified flow 构建跨本体触觉潜空间对齐,并用 hand-object interaction 伪配对辅助低成本 transport,最终服务接触丰富策略迁移。
Key equations and mechanisms
将人/机触觉分布映射到共享潜空间 ,通过流匹配学习可逆迁移路径,减少对显式配对样本依赖。
Experiment reading guide
重点看 pivoting、insertion、lid closing 与 zero-shot 灯泡旋入任务,判断“少于5分钟人类数据”带来的真实增益。
Limitations
任务族仍偏局部接触操作;对复杂双手协同与高速动态接触的泛化未充分展示。
Future work
可与 VLA 高层语义结合,形成“语言意图→触觉对齐→动作执行”的统一跨本体链路。
Replication angle
建议先在单任务验证无配对对齐质量,再扩到跨任务迁移,区分“触觉对齐收益”与“策略容量收益”。
Figure links
- arXiv 页面无稳定直链图片
- https://arxiv.org/pdf/2602.13579.pdf (Fig.2, p3)
Graph: Paper Node 2602.13579