mmn## 重要的日子
7/1:♥️糖醋羊排CP成立!!♥️
Track
- sunclientlogin发票报销到账
- 开固态硬盘发票
Routine
爱心屋签到: aixinwu.sjtu.edu.cn/products/asw-store
每日二GRISSO💊, 米诺地尔
Starting from 10/9:
| Time | Monday | Tuesday | Wednesday | Thursday | Friday | Saturday | Sunday |
|---|---|---|---|---|---|---|---|
| 08:00 | |||||||
| 09:00 | |||||||
| 10:00 | |||||||
| 11:00 | |||||||
| 12:00 | |||||||
| 13:00 | |||||||
| 14:00 | 攀爬机器人组会 | ||||||
| 15:00 | |||||||
| 16:00 | |||||||
| 17:00 | |||||||
| 18:00 | |||||||
| 19:00 | |||||||
| 20:00 | |||||||
| 21:00 | |||||||
| 22:00 | |||||||
| Credits: No need |
Non-routine
论文
Due
- 和建模的人商量项目 3/1
- 小鹏
- gitlab权限
- 查看mmlm代码分支
- 熟悉fuyao平台
- 登陆
- remote kernel
- submit job
- docker
- pytorch
- nvim
- claude code
- fuyao尝试跑一下mlmm代码
- SMPL数据集,设计哪些数据集,指标
- 大论文
- 硕士论文的布局,参考已有的(journal paper)
- 实机试验,在工业环境/生活场景(难度更高)下,工具抓取
- 64G内存
- tzc233.github.io 一周年纪念日 2026/5/21
- 读书会吃饭 2026/3/23
- Nvidia GR00T Intern 3/1
No Due
- 保温杯
- “现在的贺卡好高级”
- 软考
- ccf csp
- Godot Learning [[Godot Learning Plan]]
- 琪琪水彩
- 流萤水彩
- 美罗城 云海肴 汽锅鸡
- 《涉过愤怒的海》
- 《被讨厌的勇气》读书会p16
- 《被寄生的家庭》读书会p18
- 《蛙》读书会 p21
- 《断舍离》读书会 p20
- 潮汕砂锅粥
- 想买…
- ipad(matebook e go)
- 欧珑无极乌龙
- bose大鲨2耳塞套
- 综合效果器 ..?
- 清音音箱
- 220V户外电源
有生之年系列
- 手工🎸
- 侍奉社
Archived
- 攀爬机器人 🔒Done! 2025-10-21 🕸️ Track > Routine > Non-routine > Due
- 群组建立
- 其他构型的机器人
- 数字样机调研
- 初步进度安排
- AI Lab 具身智能简历投递 10/11 🔒Done! 2025-10-21 🕸️ Track > Routine > Non-routine > Due
- 奖学金申请10/18 5p.m. 🔒Done! 2025-10-31 🕸️ Track > Routine > Non-routine > Due
- 电网论文修改(作为通讯) 🔒Done! 2025-11-08 🕸️ Track > Routine > Non-routine > Due
- 分类号加一下TN919.8,标识码A
- 公式精简,保持现有篇幅,加入测试图片,文章前部分的图片往后挪
- 合并一下1.2,1.3(2.1空间定位, 2.2分布推理机制,2.3预警方式), 第一章为系统总体架构设计,删除第一句话,不需要人机交互模块
- 性能测试(仅保留第一句话)
- 3.1 视觉检测模块分布推理的性能测试
- 3.2 参考bohan实验
- 把系统实现合并到系统设计,不需要系统实现章节
- 明确论文重点(low latency)
- 版面空间节省
- 对比试验设计
- 系统延迟表现
- model quantization
- layer pruning
- 整个系统的综合表现(survey,参考bohan论文)
- 系统延迟表现
- 对比试验设计
- 低光照’
- 电网验收 11/11 上午 🔒Done! 2025-12-02 🕸️ Track > Routine > Non-routine > Due
- hololens和手机开会议
- 预训练识别
- draumurvakna.github.io 一周年纪念日 2025/10/27 🔒Done! 2025-12-02 🕸️ Track > Routine > Non-routine > Due
- 攀爬机器人 🔒Done! 2026-01-02 🕸️ Track > Routine > Non-routine > Due
- 需要的数据
- 真实的角钢照片,问byy要
- 3D渲染生成照片
- 深度图生成(包括噪声)
- 更换背景
- moveit路径规划视频
- 测试塔需求文档(结构,工期,价格)
- 机器人URDF导入unity,演示基本步态,动作流
- 需要的数据
- 糖糖呵护指南 🔒Done! 2026-01-02 🕸️ Track > Routine > Non-routine > No Due
- 给糖糖补补 🔒Done! 2026-01-02 🕸️ Track > Routine > Non-routine > No Due
- 小鹏机器人实习 🔒Done! 2026-01-29 🕸️ Track > Routine > Non-routine > No Due
- ACL 补实验 🔒Done! 2026-02-22 🕸️ Track > Routine > Non-routine > Due
- sft_train.py roll一个指标大于66的结果,保存预测,和encoder-only做paired t-test
- 跑到指标
- paired t-test
- zero-shot, few-shot, content-1000,content-full测试数据(包括acc,missing rate)注意参考原论文,数据不能偏差太大
- zero-shot
- few-shot
- content-1000
- content-full
- rag,lstm,encoder做非配对t-test
- sft_train.py roll一个指标大于66的结果,保存预测,和encoder-only做paired t-test
- ICRA paper acceptance notification 1/31 🔒Done! 2026-02-22 🕸️ Track > Routine > Non-routine > Due
Neovim SSH 剪贴板配置
概述
SSH 远程环境下 Neovim 无法直接访问本地剪贴板,需要通过 OSC 52 转义序列实现跨终端复制粘贴。
OSC 52 配置
推荐配置(仅复制使用 OSC 52)
1 | vim.g.clipboard = { |
简化配置
1 | vim.g.clipboard = 'osc52' |
使用方法
| 操作 | 方式 |
|---|---|
| 复制 | "+y 或 "*y(Neovim 内) |
| 粘贴 | 终端快捷键 Ctrl+Shift+V 或 Cmd+V |
常见问题
粘贴时显示”等待来自 OSC 52 的响应”
原因:OSC 52 的 paste 在 SSH 环境下不稳定
解决:使用上述推荐配置,paste 改用本地寄存器,粘贴时用终端快捷键
终端支持
支持 OSC 52 的终端:
- iTerm2
- Alacritty
- kitty
- Windows Terminal
- tmux(需配置
set -g set-clipboard on)
Neovim 剪贴板工具优先级
1 | g:clipboard → pbcopy → wl-copy → xsel → xclip → lemonade → tmux → osc52 |
SSH 环境下推荐直接指定 osc52。
MoveIt2 轨迹规划
MoveIt2 官方文档 | MoveGroupInterface API
概述
MoveIt2 是 ROS2 中用于机器人运动规划的框架。通过 MoveGroupInterface 或直接调用服务可以设置目标位姿,调用 OMPL 等规划器计算关节轨迹,实现机械臂的运动控制。
核心架构
通讯机制
MoveGroupInterface 是客户端,通过 ROS2 通讯与 move_group 节点交互:
| 通讯类型 | 用途 | 示例 |
|---|---|---|
| Action | 执行运动 | /move_action, /execute_trajectory |
| Service | 规划和查询 | /compute_ik, /plan_kinematic_path |
| Topic | 状态监控 | /joint_states, /display_planned_path |
1 | 你的节点 (MoveGroupInterface 或 Service Client) |
使用方法
依赖配置
package.xml:
1 | <depend>moveit_ros_planning_interface</depend> <!-- C++ --> |
CMakeLists.txt (C++):
1 | find_package(moveit_ros_planning_interface REQUIRED) |
C++ 实现(推荐)
1 |
|
Python 实现(直接调用服务)
MoveIt2 的 Python binding (moveit.planning) 可能不可用,推荐直接调用 /plan_kinematic_path 服务:
1 | from rclpy.node import Node |
常用配置
1 | move_group.setPlanningTime(5.0); // 规划时间限制(默认5秒) |
避障规划
方式一:Octomap(推荐)
MoveIt2 内置支持将点云转换为 Octomap 进行碰撞检测。
配置文件 sensors_3d.yaml:
1 | sensors: |
在 launch 文件中加载:
1 | moveit_config = ( |
方式二:手动添加碰撞物体
1 | from moveit_msgs.msg import PlanningScene, CollisionObject |
常见问题
Found empty JointState message
原因:没有设置规划的起始状态。
解决:订阅 /joint_states 获取当前关节状态,设置到 motion_plan_request.start_state。
服务回调中调用其他服务导致死锁
原因:默认单线程执行器无法在处理一个回调时同时处理另一个回调。
解决:
1 | from rclpy.callback_groups import ReentrantCallbackGroup |
Python binding 不可用
错误:ModuleNotFoundError: No module named 'moveit.planning'
解决:直接调用 /plan_kinematic_path 服务,不依赖 Python binding。
启动顺序
1 | # 1. 启动 move_group 节点 |
注意事项
planning_group名称在 MoveIt Setup Assistant 生成的 SRDF 文件中定义move_group节点必须先启动- 默认规划时间为 5 秒,复杂场景可能需要增加
- 点云数据量大时建议先进行体素降采样
- Python 实现需要使用
MultiThreadedExecutor避免死锁
ROS2 Package 结构与编译
概述
ROS2 Package 是代码组织的基本单元。每个 Package 至少包含:
package.xml- 包元数据(名称、版本、依赖、维护者)- 构建系统文件(
CMakeLists.txt或setup.py)
CMake vs Python Package 对比
| 方面 | CMake Package | Python Package |
|---|---|---|
| 构建文件 | CMakeLists.txt |
setup.py + setup.cfg |
| 语言 | C/C++(可包含 Python) | 纯 Python |
| 编译 | 编译为二进制 | 解释执行(无需编译) |
| build_type | ament_cmake |
ament_python |
| 节点位置 | src/ 目录 |
<package_name>/ 目录 |
| 入口点 | CMakeLists.txt 定义 | setup.py entry_points 定义 |
典型目录结构
CMake Package
1 | my_cpp_pkg/ |
Python Package
1 | my_py_pkg/ |
Python Package 特殊目录说明
| 目录 | 用途 | 安装位置 |
|---|---|---|
launch/ |
启动文件 | install/<pkg>/share/<pkg>/launch/ |
resource/ |
包发现标记(空文件) | install/<pkg>/share/ament_index/resource_index/packages/ |
test/ |
测试文件 | 不安装,仅用于 colcon test |
在 setup.py 中配置:
1 | data_files=[ |
编译与可执行文件位置
编译命令
1 | colcon build |
Workspace 结构
1 | workspace/ |
运行节点
1 | source install/setup.bash |
Launch 文件编写
基本结构
1 | from launch import LaunchDescription |
Node 常用参数
| 参数 | 用途 |
|---|---|
package |
包名 |
executable |
可执行文件名 |
name |
覆盖节点名 |
namespace |
命名空间前缀 |
parameters |
参数列表或 yaml 文件路径 |
remappings |
Topic/Service 重映射 |
output |
'screen' 显示输出,'log' 仅记录 |
arguments |
命令行参数 |
包含其他 Launch 文件
1 | from launch.actions import IncludeLaunchDescription |
运行 Launch 文件
1 | ros2 launch <package_name> <launch_file.py> |
接口包(Interface Package)
专门定义自定义 msg/srv/action 的包,必须使用 ament_cmake。
目录结构
1 | my_interfaces/ |
package.xml 关键依赖
1 | <buildtool_depend>ament_cmake</buildtool_depend> |
CMakeLists.txt 关键配置
1 | find_package(rosidl_default_generators REQUIRED) |
在其他包中使用
1 | <!-- package.xml --> |
1 | # Python |
注意事项
- 接口包(msg/srv/action)必须使用 CMake,不能用纯 Python 包
--symlink-install对 Python 包开发很有用,修改后无需重新编译resource/目录中的标记文件是 ament_python 包发现机制必需的- Launch 文件支持
.py、.xml、.yaml三种格式,Python 格式最灵活
3D-Scene
Atlas
CLIP
CV
Chemistry
Contrastive-Learning
DINO
DT
Diffusion
DiffusionModel
Embodied-AI
FL
FPN
FoundationModel
Gated-NN
HRI
Hierarchical
HumanoidRobot
Image-Grounding
Image-Text
Image-generation
Image2Text
ImgGen
ImitationLearning
LLM
LatentAction
ML
MoE
MR/AR
Message-Passing
Multi-modal
Multi-view
MultiModal
NLP
NN
Object-Detection
Open-Vocabulary
Panoptic
Physical-Scene
PoseEstimation
QML
Quantum
RL
RNN
Real2Sim
Reconstruct
Representation-Learning
RobotLearning
Robotics
Scalability
Scene-graph
Scene-synthesis
Segmentation
Semantic
Sim2Real
Subgraph
Survey
Task-Planning
Transformer
Translation-Embedding
VAE
VLA
VLM
VLP
VQ-VAE
ViT
Visual-Relation
WorldModel
Unified-Multimodal
LingBot-VLA: A Pragmatic VLA Foundation Model
论文链接 | GitHub | Checkpoints
研究背景
视觉-语言-动作(Vision-Language-Action, VLA)基础模型是机器人操作领域的新兴方法,通过大规模预训练使机器人能够执行由自然语言指令引导的多样化操作任务。然而,目前存在以下问题:
- 缺乏关于真实机器人性能如何随预训练数据规模增长而变化的系统性实证研究
- 缺乏高效的训练代码库来支持大规模数据的扩展评估
- 缺乏跨多平台、多任务的系统性真实世界评估基准
研究目标
- 探索 VLA 模型在真实世界机器人数据上的扩展规律(Scaling Law)
- 建立跨多平台、多任务的系统性真实世界评估基准
- 开发高效的大规模 VLA 训练代码库
核心概念
Mixture-of-Transformers (MoT) 架构
将预训练的视觉语言模型(VLM)与动作生成模块(Action Expert)结合,通过共享自注意力机制实现跨模态统一建模。视觉-语言和动作模态通过独立的 Transformer 路径处理,既保留 VLM 的语义先验,又避免跨模态干扰。
Flow Matching
一种用于连续动作建模的生成方法,通过学习从噪声到目标动作的向量场来生成平滑的机器人控制信号。
Blockwise Causal Attention
将序列划分为图像-指令块、状态块和动作块,应用因果掩码防止信息泄露,确保动作预测只能访问当前和历史观测信息。
研究方法
模型架构
LingBot-VLA 采用 MoT 架构,整合 Qwen2.5-VL 作为视觉语言骨干网络,配合独立的 Action Expert 模块:
联合建模序列:
$$[O_t, A_t] = [I_t^1, I_t^2, I_t^3, T_t, s_t, a_t, a_{t+1}, \ldots, a_{t+T-1}]$$
其中 $I_t^{1,2,3}$ 为三视角图像,$T_t$ 为任务指令,$s_t$ 为机器人状态,$A_t$ 为动作序列(chunk length = 50)。
类似[[BAGEL-Unified-Multimodal-Pretraining]]
Flow Matching 目标函数
定义概率路径通过线性插值:
$$A_{t,s} = sA_t + (1-s)\epsilon, \quad \epsilon \sim \mathcal{N}(0, I)$$
训练目标:
$$\mathcal{L}{FM} = \mathbb{E}{s \sim U[0,1], A_t, \epsilon}|v_\theta(A_{t,s}, O_t, s) - (A_t - \epsilon)|^2$$
深度信息蒸馏
通过可学习查询 $Q_t$ 与 LingBot-Depth 模型的深度 token $D_t$ 对齐,增强空间感知:
$$\mathcal{L}{distill} = \mathbb{E}{Q_t}|Proj(Q_t) - D_t|$$
训练效率优化
- FSDP 分布式策略:采用混合分片数据并行(HSDP),为 Action Expert 模块构建专用分片组
- 算子级优化:使用 FlexAttention 优化稀疏注意力计算,torch.compile 进行算子融合
- 混合精度:reduction 使用 float32,存储和通信使用 bfloat16
主要发现
扩展规律验证
- 预训练数据从 3,000 小时扩展到 20,000 小时,下游任务成功率持续显著提升
- 在 20,000 小时数据量下仍未出现饱和迹象,表明 VLA 性能持续受益于数据量增加
- 首次提供了真实世界机器人学习中有利扩展特性的实证证据
数据效率
- 仅使用 80 个演示即可超越 π0.5 使用 130 个演示的性能
- 随着后训练数据量增加,与基线的性能差距进一步扩大
实验设计
预训练数据
- 规模:约 20,000 小时真实世界操作数据
- 来源:9 种双臂机器人平台(AgiBot G1、AgileX、Galaxea R1Lite/R1Pro、Realman Rs-02、Leju KUAVO、Qinglong、ARX Lift2、Bimanual Franka)
评估基准
- GM-100 基准:100 个操作任务,39,000 个专家演示
- 评估规模:3 个机器人平台,每任务 130 个后训练 episode,共 22,500 次试验
- 对比方法:π0.5、GR00T N1.6、WALL-OSS
真实世界评估结果
| 方法 | 平均成功率(SR) | 平均进度分(PS) |
|---|---|---|
| WALL-OSS | 4.05% | 10.35% |
| GR00T N1.6 | 7.59% | 15.99% |
| π0.5 | 13.02% | 27.65% |
| LingBot-VLA w/o depth | 15.74% | 33.69% |
| LingBot-VLA w/ depth | 17.30% | 35.41% |
仿真评估结果(RoboTwin 2.0)
| 方法 | Clean 场景 SR | Randomized 场景 SR |
|---|---|---|
| π0.5 | 82.74% | 76.76% |
| LingBot-VLA w/o depth | 86.50% | 85.34% |
| LingBot-VLA w/ depth | 88.56% | 86.68% |
训练吞吐量
- 实现 261 samples/s/GPU(8-GPU 配置)
- 相比 StarVLA、DexBotic、OpenPI 提升 1.5~2.8 倍
- 在 256 GPU 规模下仍保持接近线性扩展
讨论
优势
- 首次在大规模真实世界数据上验证 VLA 扩展规律
- 显著优于现有 SOTA 方法的多平台泛化能力
- 高效的训练代码库,支持大规模分布式训练
- 开源代码、模型和基准数据
局限性
- 目前仅支持双臂机器人配置
- 评估主要集中在桌面操作任务
- 深度信息蒸馏依赖额外的 LingBot-Depth 模型
相关工作
Foundation VLA
- π0:Vision-language-action flow model for general robot control
- π0.5:VLA model with open-world generalization
- GR00T N1.6:Open foundation model for generalist humanoid robots
Spatial VLA
- SpatialVLA:探索 VLA 模型的空间表示
- Spatial Forcing:通过对齐策略增强 VLA 空间理解
- GeoVLA:赋能 VLA 模型 3D 表示能力
高效训练框架
- OpenPI:支持 JAX 和 PyTorch 的 π 系列模型训练框架
- StarVLA:VLA 和 VLM 联合训练的模块化代码库
- DexBotic:统一高效��� VLA 开发生命周期解决方案
未来方向
- 扩展机器人类型:整合单臂和移动机器人数据,支持更多样化的操作能力
- 非约束环境:探索在非结构化环境中的移动操作能力
- 持续扩展:进一步扩大预训练数据规模,探索扩展规律的上限
参考文献
- Black et al. (2025). π0: A vision-language-action flow model for general robot control. RSS.
- Black et al. (2025). π0.5: A vision-language-action model with open-world generalization. CoRL.
- Bjorck et al. (2025). GR00T N1: An open foundation model for generalist humanoid robots. arXiv.
- Bai et al. (2025). Qwen2.5-VL technical report. arXiv.
- Lipman et al. (2022). Flow matching for generative modeling. arXiv.
- Wang et al. (2026). The Great March 100: 100 detail-oriented tasks for evaluating embodied AI agents.
人形机器人控制方法综述
Boston Dynamics | Tesla Optimus | 1X Technologies
概述
人形机器人控制是机器人学中最具挑战性的领域之一,需要处理高维状态空间、复杂动力学、多接触约束和实时性要求。当前主流方法可分为基于模型的控制、学习方法以及两者的混合方案。
主流控制方法
1. 基于模型的控制 (Model-Based Control)
全身动力学控制 (Whole-Body Control, WBC)
- 原理:通过优化求解器实时计算关节力矩
- 目标:满足接触约束和任务目标
- 优势:物理可解释性强,稳定性有保证
- 应用:Boston Dynamics Atlas、ANYmal
模型预测控制 (Model Predictive Control, MPC)
- 原理:预测未来状态轨迹,优化控制序列
- 特点:滚动优化,只执行第一步控制
- 优势:可处理约束,具有前瞻性
- 详见:[[MPC-and-Learning-Integration]]
零力矩点控制 (Zero Moment Point, ZMP)
- 原理:确保 ZMP 在支撑多边形内
- 特点:经典方法,理论成熟
- 局限:假设平坦地面,无法处理动态运动
- 应用:早期人形机器人(ASIMO、HRP 系列)
质心动量控制 (Centroidal Momentum Control)
- 原理:控制质心轨迹和角动量
- 优势:降维表示,计算效率高
- 应用:多足机器人步态规划
2. 强化学习 (Reinforcement Learning)
端到端策略学习
- 输入:传感器原始数据(视觉、IMU、关节状态)
- 输出:关节控制指令
- 优势:无需手工设计特征和控制器
- 挑战:样本效率低,sim-to-real gap
分层强化学习 (Hierarchical RL)
1 | 高层策略: 任务规划、步态选择 |
- 优势:解耦决策层次,提高学习效率
- 代表:DeepMind 的分层控制架构
Sim-to-Real 迁移
- Domain Randomization:随机化仿真参数
- Domain Adaptation:使用真实数据微调
- System Identification:辨识真实系统参数
- 成功案例:MIT Mini Cheetah、Unitree Go1
3. 模仿学习 (Imitation Learning)
行为克隆 (Behavior Cloning)
- 数据来源:人类演示、专家策略
- 方法:监督学习拟合状态-动作映射
- 局限:分布偏移问题
远程操作数据 (Teleoperation Data)
- 流程:
- 人类通过遥操作控制机器人
- 记录传感器数据和动作序列
- 训练神经网络策略
- 代表:Tesla Optimus、1X NEO
动作捕捉 (Motion Capture)
- 方法:使用人类运动数据训练策略
- 技术:Retargeting(运动重定向)
- 挑战:人类和机器人动力学差异
4. 混合方法
学习 + 优化
1 | # 神经网络预测参考轨迹 |
学习残差 (Residual Learning)
$$
u_{total} = u_{model} + u_{learned}
$$
- $u_{model}$:传统控制器输出
- $u_{learned}$:神经网络学习的补偿项
- 优势:结合两者优点,提高鲁棒性
视觉-运动策略 (Visuomotor Policy)
- 输入:RGB/深度图像 + 本体感受
- 输出:运动控制指令
- 架构:CNN 特征提取 + RNN/Transformer 序列建模
最新趋势
基础模型 (Foundation Models)
Vision-Language-Action (VLA)
- 代表:RT-2、OpenVLA、PaLM-E
- 能力:
- 理解自然语言指令
- 视觉场景理解
- 生成机器人动作
- 优势:零样本泛化、多任务学习
扩散策略 (Diffusion Policy)
- 原理:将动作生成建模为去噪过程
- 优势:
- 多模态动作分布
- 生成平滑轨迹
- 避免模式崩溃
- 应用:灵巧操作、复杂任务
Transformer-based 方法
- Decision Transformer:序列决策建模
- Trajectory Transformer:轨迹生成
- 优势:长期依赖建模、上下文学习
方法对比
| 方法类别 | 优势 | 劣势 | 适用场景 |
|---|---|---|---|
| 基于模型控制 | 稳定性强、可解释 | 需要精确模型、泛化性差 | 结构化环境、已知任务 |
| 强化学习 | 适应性强、端到端 | 样本效率低、训练困难 | 复杂环境、探索任务 |
| 模仿学习 | 数据效率高、快速部署 | 受限于演示质量 | 有专家数据的任务 |
| 混合方法 | 结合优点、鲁棒性好 | 系统复杂度高 | 工业应用、实际部署 |
工业界实践
Boston Dynamics Atlas
- 方法:MPC + 优化 + 学习补偿
- 特点:高动态运动(后空翻、跑酷)
- 核心:接触力优化、全身协调
Tesla Optimus
- 方法:端到端神经网络 + 全身控制器
- 数据:大规模遥操作数据
- 目标:通用人形机器人
Unitree H1
- 方法:强化学习 + MPC
- 特点:快速行走、动态平衡
- 开源:部分算法和仿真环境
实现建议
选择控制方法的考虑因素
任务复杂度
- 简单任务:基于模型控制
- 复杂任务:学习方法或混合方案
数据可用性
- 有专家数据:模仿学习
- 无数据:强化学习或基于模型
实时性要求
- 高实时性:MPC、WBC
- 可离线计算:学习方法
安全性要求
- 高安全性:混合方法(学习 + 约束优化)
- 探索性任务:纯学习方法
开源资源
仿真环境
- MuJoCo:高效物理引擎
- Isaac Gym:GPU 加速并行仿真
- PyBullet:轻量级、易用
控制库
- Pinocchio:刚体动力学库
- TSID:任务空间逆动力学
- Crocoddyl:最优控制库
学习框架
- Stable Baselines3:RL 算法库
- RLlib:分布式 RL
- LeRobot:机器人学习框架
未来方向
- 大规模预训练模型:类似 GPT 的机器人基础模型
- 物理信息神经网络:融合物理先验的学习方法
- 可微分仿真:端到端优化仿真和控制
- 多模态感知融合:视觉、触觉、力觉的统一表示
- 人机协作:人类反馈驱动的在线学习







