当前位置:   article > 正文

斯坦福 Mobile Aloha 开源ACT代码复现教程_mobile aloha开源代码

mobile aloha开源代码

0. 项目地址:Mobile ALOHA


GitHub - MarkFzp/act-plus-plus: Imitation learning algorithms with Co-training for Mobile ALOHA: ACT, Diffusion Policy, VINNicon-default.png?t=N7T8https://github.com/MarkFzp/act-plus-plus

1. 环境配置

新建Pycharm工程,从github上下载项目拷贝过去,在termina里进行环境配置:

1.1 安装部分依赖项

  1. conda create -n aloha python=3.8.10
  2. conda activate aloha
  3. pip install pyquaternion
  4. pip install pyyaml
  5. pip install rospkg
  6. pip install pexpect
  7. pip install mujoco==2.3.7
  8. pip install dm_control==1.0.14
  9. pip install opencv-python
  10. pip install matplotlib
  11. pip install einops
  12. pip install packaging
  13. pip install h5py
  14. pip install ipython
  15. pip install diffusers
  16. cd act/detr && pip install -e .

1.2 安装torch

pytorch需要单独安装,保证安装的是gpu版本,根据自己的cuda版本在torch官网选择安装命令:

conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

不需要额外安装cudNN

1.3 安装egl-probe

egl-probe直接安装(pip install or pip build)会有一些问题(如下图所示:找不到egl-probe.glad package&&CMake指令报错),需要去github下载源码进行编译安装。

i.首先安装一下CMake进行后续编译

pip install CMake

ii.从egl-probe的github项目地址拉取源代码

iii.修改setup.py如下(注释掉的是原来的)

  1. # build using cmake
  2. #subprocess.check_call("cmake ..; make -j", cwd=build_dir, shell=True)
  3. subprocess.check_call("cmake ..", cwd=build_dir, shell=True)
  4. # build using cmake
  5. #subprocess.check_call("cmake ..; make -j", cwd=build_dir, shell=True)
  6. subprocess.check_call("cmake ..", cwd=build_dir, shell=True)

iv.编译并安装egl-probe

  1. #先进入到下载的egl-probe项目根目录里
  2. cd egl_probe-master
  3. python setup.py build
  4. python setup.py install

至此,egl-probe终于安装完成了(和gpt勾心斗角了好久)

1.4 Robomimic

Robomimic是斯坦福大学开发的一个用于机器人演示学习的框架。它提供了在机器人操作领域收集的广泛的演示数据集,以及从这些数据集学习的学习算法。该项目是通过模拟环境更深层次的推进机器人智能(ARISE)计划的一部分,旨在降低人工智能和机器人交叉领域前沿研究的进入门槛。

直接pip安装Robomimic框架后会报错:

  1. ModuleNotFoundError: No module named 'robomimic.algo.diffusion_policy'
  2. # 原因:robomimic的release版本还不支持diffusion_policy模块。

下载,离线安装diffusion-policy-mg分支即可:GitHub - ARISE-Initiative/robomimic at diffusion-policy-mg

  1. git clone https://github.com/ARISE-Initiative/robomimic.git -b diffusion-policy-mg
  2. cd robomimic && pip install -v -e .

1.5 util

配置环境的最后一步,安装detr所需要的util库,这个库已经在Mobile ALOHA的源码里了,路径为

act-plus-plus-main\detr\util

将util整个文件夹复制到刚才创建的conda虚拟环境下的这个路径:

D:\Anaconda3\envs\aloha\Lib\site-packages

2.SIM仿真环境训练

2.1数据集构建

模拟实验(LEGACY table-top ALOHA environments)数据集收集

模拟实验(LEGACY table-top ALOHA environments)中运行sim_transfer_cube_scripted任务,生成50集脚本数据,运行:

  1. python record_sim_episodes.py --task_name sim_transfer_cube_scripted --dataset_dir <data save dir> --num_episodes 50
  2. #运行示例
  3. python record_sim_episodes.py --task_name sim_transfer_cube_scripted --dataset_dir data/sim_transfer_cube_scripted --num_episodes 50

若要实时查看仿真环境数据收集效果,可以在上述运行代码后加上:

 --onscreen_render

50个demo以hdf5格式保存至--dataset_dir 

  1. python record_sim_episodes.py --dataset_dir <data save dir> --episode_idx <num>
  2. #运行示例
  3. python visualize_episodes.py --dataset_dir data/sim_transfer_cube_scripted --episode_idx 0

(可选:直接下载项目自带的模拟数据集

最终,将数据集目录更改成如下格式:

  1. act-plus-plus/data
  2. ├── sim_insertion_human
  3. │ ├── episode_0.hdf5
  4. ├── ...
  5. ├── sim_insertion_scripted
  6. │ ├── episode_0.hdf5
  7. ├── ...
  8. ├── sim_transfer_cube_human
  9. │ ├── episode_0.hdf5
  10. │ ├── ...
  11. └── sim_transfer_cube_scripted
  12. ├── episode_0.hdf5
  13. ├── ...

2.2训练

i. 修改数据集读取路径,找到constants.py,修改如下

  1. ### Task parameters
  2. #DATA_DIR = '/home/zfu/interbotix_ws/src/act/data'
  3. DATA_DIR = 'D:/aloha/data'

DATA_DIR是存放数据集的位置,每个子文件夹对应着训练的子任务,名字一一对应。

ii. 修改源码,找到/detr/model/detr_vae.py文件285行,修改如下

  1. #encoder = build_transformer(args)
  2. encoder = build_encoder(args)

iii. 运行训练命令:

  1. python imitate_episodes.py --task_name sim_transfer_cube_scripted --ckpt_dir <ckpt dir> --policy_class ACT --kl_weight 10 --chunk_size 100 --hidden_dim 512 --batch_size 8 --dim_feedforward 3200 --num_steps 2000 --lr 1e-5 --seed 0
  2. #运行示例
  3. python imitate_episodes.py --task_name sim_transfer_cube_scripted --ckpt_dir trainings --policy_class ACT --kl_weight 1 --chunk_size 10 --hidden_dim 512 --batch_size 1 --dim_feedforward 3200 --lr 1e-5 --seed 0 --num_steps 5
  4. # 训练时会提示下面内容,由于没有W&B account,直接选择3
  5. wandb: (1) Create a W&B account
  6. wandb: (2) Use an existing W&B account
  7. wandb: (3) Don't visualize my results
  8. wandb: Enter your choice:

出现如下界面训练成功开始:

2.3 可选:使用wandb(官方使用手册):

i. 注册wandb账号,获取API密钥

ii. 在imitate_episodes.py里插入密钥

os.environ["WANDB_API_KEY"] = '密钥'

iii. 设置proxy

  1. set HTTP_PROXY=http://127.0.0.1:7890
  2. set HTTPS_PROXY=http://127.0.0.1:7890

iv.简单修改imitate_episodes.py并使用

  1. #wandb.init(project="mobile-aloha2", reinit=True, entity="mobile-aloha2", name=expr_name)
  2. wandb.init(project="myaloha",name=expr_name)

2.4 测试

python imitate_episodes.py --eval --task_name sim_transfer_cube_scripted --ckpt_dir trainings\test1 --policy_class ACT --kl_weight 10 --chunk_size 100 --hidden_dim 512 --batch_size 8 --dim_feedforward 3200 --lr 1e-5 --seed 0 --num_steps 100 --onscreen_render

要评估策略,运行相同的命令,但要添加--eval,这将加载最佳验证检查点。sim_transfer_cube的成功率约为90%,insertion成功率约为50%。可以添加--onscreen_render来查看评估期间的实时渲染。

对于难以建模的真实世界数据,在损失趋于平稳后,至少训练5000次或3-4倍的时间。有关更多信息,请参考调优提示。如果你的ACT策略不稳定,或者在中间停顿,那就训练更长时间吧!成功率和平滑度可以在损失平台期后提高。

2.5 导出eval视频

  1. # 定义输出视频的参数
  2. height, width = 480, 640
  3. fourcc = cv2.VideoWriter_fourcc(*'XVID')
  4. out = cv2.VideoWriter('output_video.avi', fourcc, 30.0, (width, height))
  5. # 在循环中保存每一帧图像
  6. #以下注释为源代码,修改时源码勿动,在下补充输出视频的代码
  7. #if onscreen_render:
  8. #image = env._physics.render(height=480, width=640, camera_id=onscreen_cam)
  9. #plt_img.set_data(image)
  10. #plt.pause(DT)
  11. ##输出视频
  12. frame = cv2.cvtColor(image, cv2.COLOR_RGB2BGR) # 将RGB格式转换为BGR格式
  13. out.write(frame)
  14. # 释放资源
  15. out.release()

参考博客:

源码复现|10分钟带你复现Mobile ALOHA SIM,超详细教程(附范文+代码) - 知乎 (zhihu.com)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/400823
推荐阅读
相关标签
  

闽ICP备14008679号