Title: TactAlign: Human-to-Robot Policy Transfer via Tactile Alignment
Authors: Youngsun Wi, Jessica Yin, Elvis Xiang, et al.
arXiv: https://arxiv.org/abs/2602.13579

Problem framing

人到机器人(H2R)迁移里,触觉常被假设“同构传感器+配对数据”,现实难成立。TactAlign 试图在无配对、跨本体条件下,把人类触觉先验转移到机器人。

Core method

采用 rectified flow 构建跨本体触觉潜空间对齐,并用 hand-object interaction 伪配对辅助低成本 transport,最终服务接触丰富策略迁移。

Key equations and mechanisms

将人/机触觉分布映射到共享潜空间 ,通过流匹配学习可逆迁移路径,减少对显式配对样本依赖。

Experiment reading guide

重点看 pivoting、insertion、lid closing 与 zero-shot 灯泡旋入任务,判断“少于5分钟人类数据”带来的真实增益。

Limitations

任务族仍偏局部接触操作;对复杂双手协同与高速动态接触的泛化未充分展示。

Future work

可与 VLA 高层语义结合,形成“语言意图→触觉对齐→动作执行”的统一跨本体链路。

Replication angle

建议先在单任务验证无配对对齐质量,再扩到跨任务迁移,区分“触觉对齐收益”与“策略容量收益”。

Graph: Paper Node 2602.13579