欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 新车 > 论文阅读笔记——π0.5: a Vision-Language-Action Model with Open-World Generalization

论文阅读笔记——π0.5: a Vision-Language-Action Model with Open-World Generalization

2025/4/25 7:14:58 来源:https://blog.csdn.net/Multiple_x/article/details/147470530  浏览:    关键词:论文阅读笔记——π0.5: a Vision-Language-Action Model with Open-World Generalization

π0.5 论文
通过异构数据协同训练与分层推理,用中等规模的目标数据(400小时)实现了大规模泛化能力,为现实世界机器人学习提供了新范式。
在这里插入图片描述
在这里插入图片描述
高层推理(high-level) 根据当前观测和任务指令预测子任务(如“打开抽屉”)。低层推理(low-level) 基于当前观测和子任务生成具体动作序列。低级推理动作能够受益于其他机器人收集的数据;高级推理能从网络上的语义示例,高级注释预测中受益。

  • 输入:多摄像头图像、语言指令、机器人本体状态(关节位姿)。
  • 输出:高层语义子任务(文本 token)和底层动作序列(连续向量)。
  • 模态交互:图像通过视觉编码器嵌入,文本和动作通过独立编码器处理,通过双向注意力机制(不同于 LLM 的因果注意力)交互。
  • 动作专家(Action Expert:专用于 flow matching 的小型 Transformer,生成高精度连续动作。
  • 注意力掩码:限制动作 token 与文本/图像 token 的单向信息流,避免信息泄露。
    在这里插入图片描述

模型的核心分布为 π θ ( a t : t + H , ℓ ^ ∣ o t , ℓ ) \pi_{\theta}(\mathbf{a}_{t:t+H},\hat{\ell}|\mathbf{o}_{t},\ell) πθ(at:t+H,^ot,) 其中 ℓ \ell 是整体任务提示, ℓ ^ \hat{\ell} ^ 是各个子任务的提示。
将联合分布拆解为高层次和低层次两个子任务:
π θ ( a t : t + H , ℓ ^ ∣ o t , ℓ ) = π θ ( a t : t + H ∣ o t , ℓ ^ ) π θ ( ℓ ^ ∣ o t , ℓ ) \pi_\theta(\mathbf{a}_{t:t+H},\hat{\ell}\left|\mathbf{o}_t,\ell\right)=\pi_\theta(\mathbf{a}_{t:t+H}\left|\mathbf{o}_t,\hat{\ell}\right.)\pi_\theta(\hat{\ell}\left|\mathbf{o}_t,\ell\right) πθ(at:t+H,^ot,)=πθ(at:t+H ot,^)πθ(^ot,)
动作的 token 采用 π 0 − f a s t \pi_0-fast π0fast 的 token,但这种离散化表示不适合实时推理,因为需要昂贵的自回归解码推理,故而提出了一个结合 FAST 分词器和迭代整合流场来预测动作:
min ⁡ θ E D , τ , ω [ H ( x 1 : M , f θ l ( o t , l ) ) ⏟ 文本token交叉熵损失 + α ∥ ω − a t : t + H − f θ a ( a t : t + H τ , ω , o t , l ) ∥ 2 ⏟ 流匹配MSE损失 ] \min_{\theta}\mathbb{E}_{D,\tau,\omega}\left[\underbrace{\mathcal{H}(x_{1:M},f_{\theta}^{l}(o_{t},l))}_{\text{文本token交叉熵损失}}+\alpha\underbrace{\|\omega-a_{t:t+H}-f_{\theta}^{a}(a_{t:t+H}^{\tau,\omega},o_{t},l)\|^{2}}_{\text{流匹配MSE损失}}\right] θminED,τ,ω 文本token交叉熵损失 H(x1:M,fθl(ot,l))+α流匹配MSE损失 ωat:t+Hfθa(at:t+Hτ,ω,ot,l)2
阶段一:预训练(VLM模式)

  • 仅使用文本token损失(α=0)
  • 将动作视为特殊文本 token(FAST编码),继承语言模型强语义能力
  • 采用 <control mode> joint/end effector 区分末端执行器和关节
  • 各数据集动作维度单独归一化至 [-1,1](采用1%与99%分位数)
数据类型符号数据量关键特性作用
移动机械臂家庭数据MM400小时100+真实家庭环境,清洁/整理任务(图7)目标场景直接适配
多环境静态机械臂数据ME跨200+家庭轻量化单/双机械臂,安装于固定平台增强物体操作多样性
跨本体实验室数据CE含OXE数据集桌面任务(叠衣/餐具收纳等)+移动/固定基座机器人迁移无关场景技能(如咖啡研磨)
高层子任务标注数据HL全数据集标注人工标注原子子任务(如"拾取枕头")+关联定位框实现分层推理能力
多模态网络数据WD百万级样本图像描述(COCO)、问答(VQAv2)、室内场景物体检测(扩展标注)注入语义先验知识

阶段二:微调(混合模式

  • 引入动作专家分支,逐步提升α
  • 流匹配分支从文本 token 条件生成动作,建立语言-动作关联

推理流程

  1. 自回归解码:生成语义子任务 ℓ ^ \hat{\ell} ^(如“拿起盘子”)
  2. 条件去噪:基于 ℓ ^ \hat{\ell} ^ 执行10步流匹配去噪,输出连续动作 a t : t + H a_{t:t+H} at:t+H

实验结果

Q1: π 0.5 \pi_{0.5} π0.5 能否有效泛化到全新环境中的复杂多阶段任务?
在三个未曾见过的真实环境中,使用两种类型的机器人,每个机器人被指示执行卧室和厨房的清洁任务。比较了大致对应于每个任务成功完成的步骤百分比。
在这里插入图片描述
A!: 能够在各种家庭任务中持续取得成功。泛化水平超过了以往的 VLA 模型。

Q2: π 0.5 \pi_{0.5} π0.5 泛化能力随训练数据中不同环境的数量如何变化?
在这里插入图片描述
在这里插入图片描述
A2:随着训练位置的增加,任务之间的平均表现通常会有所提高。随着训练数据中地点数量的增加,语言跟随表现和成功率都有所提高。

Q3: π 0.5 \pi_{0.5} π0.5 各个共同训练成分对最终性能的贡献如何?
在这里插入图片描述
在这里插入图片描述
A3: π 0.5 \pi_{0.5} π0.5 从跨刚体(ME和CE)转移中获得了相当大的好处。移除网络数据(WD)会导致模型在处理异常分布(OOD)对象时表现显著变差。

Q4: π 0.5 \pi_{0.5} π0.5 π 0 V L A \pi_0 VLA π0VLA 相比?
在这里插入图片描述
A4: π 0.5 \pi_{0.5} π0.5 显著优于 π 0 \pi_0 π0 以及增强版本 p i 0 − pi_0- pi0-FAST+FLOW。 π 0 \pi_0 π0-FAST+FLOW 是按照混合训练设置的,但仅用包含机器人动作的数据进行训练,因此无法执行高层次推理。

Q5: π 0.5 \pi_{0.5} π0.5 的高层推理组件有多重要?与单一的低层次推理以及显式的高层基线相比如何?
在这里插入图片描述

不足之处

  • π 0.5 \pi_{0.5} π0.5 虽然展示了广泛的泛化能力,但在某些环境中仍存在挑战,如不熟悉的抽屉把手或机器人难以打开的橱柜。
  • 一些行为在部分可观测性方面存在挑战,比如:机器人手臂遮挡了应该擦拭的溢出物。
  • 在某些情况下,高层子任务推理容易分心,比如:在收拾物品时多次关闭和打开抽屉。
    目前仅能处理的是相对简单的提示。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词