Skip to content

Latest commit

 

History

History
194 lines (133 loc) · 7.09 KB

README_CN.md

File metadata and controls

194 lines (133 loc) · 7.09 KB

rl_sar

English document

版本选择: ROS-Noetic | ROS2-Foxy

本仓库提供了机器人强化学习算法的仿真验证与实物部署框架,适配四足机器人、轮足机器人、人形机器人。"sar"代表"simulation and real"

特性:

  • 支持基于IaacGym的legged_gym,也支持基于IsaacSim的IsaacLab,用framework加以区分。
  • 代码有ROSROS2两个版本
  • 代码有python和cpp两个版本,python版本可以在src/rl_sar/scripts中找到

点击在Discord上讨论

准备

拉取代码

git clone https://github.com/fan-ziqi/rl_sar.git

依赖

本项目使用ros-noetic(Ubuntu20.04),且需要安装以下的ros依赖包

sudo apt install ros-noetic-teleop-twist-keyboard ros-noetic-controller-interface ros-noetic-gazebo-ros-control ros-noetic-joint-state-controller ros-noetic-effort-controllers ros-noetic-joint-trajectory-controller

在任意位置下载并部署libtorch

cd /path/to/your/torchlib
wget https://download.pytorch.org/libtorch/cpu/libtorch-cxx11-abi-shared-with-deps-2.0.1%2Bcpu.zip
unzip libtorch-cxx11-abi-shared-with-deps-2.0.1+cpu.zip -d ./
echo 'export Torch_DIR=/path/to/your/torchlib' >> ~/.bashrc

安装yaml-cpplcm,若您使用Ubuntu,可以直接使用包管理器进行安装

sudo apt install liblcm-dev libyaml-cpp-dev
也可以使用源码安装,点击展开

安装yaml-cpp

git clone https://github.com/jbeder/yaml-cpp.git
cd yaml-cpp && mkdir build && cd build
cmake -DYAML_BUILD_SHARED_LIBS=on .. && make
sudo make install
sudo ldconfig

安装lcm

git clone https://github.com/lcm-proj/lcm.git
cd lcm && mkdir build && cd build
cmake .. && make
sudo make install
sudo ldconfig

编译

在项目根目录编译

cd ..
catkin build

如果 catkin build 报错: Unable to find either executable 'empy' or Python module 'em', 在catkin build 之前执行 catkin config -DPYTHON_EXECUTABLE=/usr/bin/python3

运行

下文中使用 <ROBOT>_<PLATFORM> 代替表示不同的环境,可以是 a1_isaacgyma1_isaacsimgo2_isaacgymgr1t1_isaacgymgr1t2_isaacgym

运行前请将训练好的pt模型文件拷贝到rl_sar/src/rl_sar/models/<ROBOT>_<PLATFORM>中,并配置config.yaml中的参数。

仿真

打开一个终端,启动gazebo仿真环境

source devel/setup.bash
roslaunch rl_sar gazebo_<ROBOT>_<PLATFORM>.launch

打开一个新终端,启动控制程序

source devel/setup.bash
(for cpp version)    rosrun rl_sar rl_sim
(for python version) rosrun rl_sar rl_sim.py

控制:

  • <Enter> 切换仿真器运行/停止。
  • WS 控制x轴,AD 控制yaw轴,JL 控制y轴,按下空格重置控制指令。
  • <Space> 将所有控制指令设置为零。
  • 如果机器人摔倒,按 R 重置Gazebo环境。

真实机器人

Unitree A1

与Unitree A1连接可以使用无线与有线两种方式

  • 无线:连接机器人发出的Unitree开头的WIFI (注意:无线连接可能会出现丢包断联甚至失控,请注意安全)
  • 有线:用网线连接计算机和机器人的任意网口,配置计算机ip为192.168.123.162,网关255.255.255.0

新建终端,启动控制程序

source devel/setup.bash
rosrun rl_sar rl_real_a1

按下遥控器的R2键让机器人切换到默认站起姿态,按下R1键切换到RL控制模式,任意状态按下L2切换到最初的趴下姿态。左摇杆上下控制x左右控制yaw,右摇杆左右控制y。

或者按下键盘上的0键让机器人切换到默认站起姿态,按下P键切换到RL控制模式,任意状态按下1键切换到最初的趴下姿态。WS控制x,AD控制yaw,JL控制y。

Unitree Go2

  1. 用网线的一端连接Go2机器人,另一端连接用户电脑,并开启电脑的 USB Ethernet 后进行配置。机器狗机载电脑的 IP 地地址为 192.168.123.161,故需将电脑 USB Ethernet 地址设置为与机器狗同一网段,如在 Address 中输入 192.168.123.222 (“222”可以改成其他)。
  2. 通过ifconfig命令查看123网段的网卡名字,如enxf8e43b808e06,下文用 <YOUR_NETWORK_INTERFACE> 代替
  3. 新建终端,启动控制程序
    source devel/setup.bash
    rosrun rl_sar rl_real_go2 <YOUR_NETWORK_INTERFACE>
  4. Go2支持手柄与键盘控制,方法与上面a1相同

训练执行器网络

下面拿A1举例

  1. 取消注释rl_real_a1.cpp中最上面的#define CSV_LOGGER,你也可以在仿真程序中修改对应部分采集仿真数据用来测试训练过程。
  2. 运行控制程序,程序会在执行后记录所有数据。
  3. 停止控制程序,开始训练执行器网络。注意,下面的路径前均省略了rl_sar/src/rl_sar/models/
    rosrun rl_sar actuator_net.py --mode train --data a1/motor.csv --output a1/motor.pt
  4. 验证已经训练好的训练执行器网络。
    rosrun rl_sar actuator_net.py --mode play --data a1/motor.csv --output a1/motor.pt

添加你的机器人

下文中使用 <ROBOT>_<PLATFORM> 代替表示你的机器人环境

  1. rl_sar/src/robots路径下创建名为<ROBOT>_description的模型包,将模型的urdf放到rl_sar/src/robots/<ROBOT>_description/urdf路径下并命名为<ROBOT>.urdf,并在rl_sar/src/robots/<ROBOT>_description/config路径下创建命名空间为<ROBOT>_gazebo的关节配置文件
  2. 将训练好的RL模型文件放到rl_sar/src/rl_sar/models/<ROBOT>_<PLATFORM>路径下,并在此路径中新建config.yaml文件,参考rl_sar/src/rl_sar/models/a1_isaacgym/config.yaml文件修改其中参数
  3. 按需修改代码中的forward()函数,以适配不同的模型
  4. 若需要运行仿真,则参考rl_sar/src/rl_sar/launch路径下的launch文件自行修改
  5. 若需要运行实物,则参考rl_sar/src/rl_sar/src/rl_real_a1.cpp文件自行修改

贡献

衷心欢迎社区的贡献,以使这个框架更加成熟和对所有人有用。贡献可以是bug报告、功能请求或代码贡献。

贡献者名单

引用

如果您使用此代码或其部分内容,请引用以下内容:

@software{fan-ziqi2024rl_sar,
  author = {fan-ziqi},
  title = {{rl_sar: Simulation Verification and Physical Deployment of Robot Reinforcement Learning Algorithm.}},
  url = {https://github.com/fan-ziqi/rl_sar},
  year = {2024}
}

致谢

本项目使用了以下开源代码库中的部分代码: