用于足式机器人定位方法测试的repo
- 列出主要特性
- 支持的算法/平台 目前支持ubuntu20.04
- 可扩展性等
sudo apt install libgoogle-glog-dev
sudo apt install joint-state-publisher ros-noetic-openni-* ros-noetic-pointcloud-to-laserscan
# 克隆仓库
git clone [email protected]:Tipriest/legged_localization_benchmark.git
cd legged_localization_benchmark
git submodule update --init --recursive# for fast_lio
# install livox_sdk
cd ~/Downloads
git clone [email protected]:Tipriest/Livox-SDK.git
cd Livox-SDK
cd build && cmake ..
make
sudo make install
# go back to legged_localization_benchmark ws
catkin build./scripts/sim_keyboard.sh
# 在sim_keyboard.sh打开的第一个terminal终端中,机器人初始为passive状态
# 输入2机器人进入站立fixed stand状态
# 输入3机器人进入free stand状态,此时可以通过wasd控制机器人足端不动,但是机身位置变化
# 输入4机器人进入trotting状态,此时机器人将开始连续踏步,此时可以通过wasd控制机器人移动
# ------------------------------------------------------------------------
# ------------------------------------------------------------------------
# 进入trot状态之后,可以通过键盘上的wasd控制机器人的X和Y方向的速度
# 进入trot状态之后,可以通过键盘上的jl控制机器人的yaw角速度./scripts/sim_joystick.sh
# 按住手柄的X键(右侧的左边的方块键)起立,Y键(右侧的上边的三角键)进入TROT模式,然后左旋杆控制移动,右旋杆控制yaw角度legged_localization_benchmark/
├── assets
├── Awesome-Legged-Robot-Localization-and-Mapping
├── build
├── devel
├── logs
├── README.md
├── scripts
└── src- [FIXED]现在示例里面用的是velodyne的16线lidar,对较近的物体lidar是没有输出的,据估计这个 没有输出的范围大概在1m左右,如下图所示,看一下实际的lidar是什么情况,也是一样没有输出吗,如果 不是的话修改现在lidar的仿真模型,是的话就加入一个相机进行补盲
- 大致问了一下,距离很近的话也是会有点的,只是噪声增加的比较严重
- 有一个全局地图之后,怎么样使用localization的方法对于随机出生点可以获得自己的位置
- 对于机器人小跳向前的这种冲击情况进行考虑
- 光照突然变化
- 机器人进入电梯
- 有一个较大的IMU冲击
欢迎提交 issue 和 pull request!请先阅读 贡献指南。
本项目采用 MIT 许可证,详见 LICENSE。
如有问题或建议,请联系:[email protected]


