Title: EgoScale: Scaling Dexterous Manipulation with Diverse Egocentric Human Data
Authors: Ruijie Zheng et al.
arXiv: https://arxiv.org/abs/2602.16710

Problem framing

关键问题是:大规模人类第一视角数据能否稳定迁移到高自由度灵巧手控制,并形成可预测的性能收益。

Core method

两阶段:大规模 human VLA 预训练(20,854h)+ 轻量 human-robot 对齐中训。

Key equations and mechanisms

给出近似缩放关系:

且验证损失与真实机器人成功率强相关。

Experiment reading guide

先看 22DoF 成功率提升(+54% 相对 no-pretrain),再看 one-shot 与跨 DoF 迁移。

Limitations

纯 human-only 迁移仍不足;human-robot 动作空间错配仍是瓶颈。

Future work

结合 embodiment-aware tokenizer 与约束映射,降低迁移失真。

Replication angle

先做 1x/5x/10x 数据缩放,验证 loss-性能相关性是否可复现。

图链接(可直链渲染):https://arxiv.org/html/2602.16710v1/x1.png

Graph: Paper Node 2602.16710