您的位置:首页 > 其它

REMODE+ORBSLAM运行配置(2) REMODE和编译后的ORB ros工程利用节点实现通讯

2017-01-03 09:16 706 查看
将ORB编译成ROS工程后,就可以利用ROS的节点通信实现ORB和REMODE的数据传输。

步骤:

1 仿照SVO-REMODE的编译方式。安装googletest 和rpg_open_remode至~/catkin_ws/src 目录下。

2 修改 ORB的主函数,以便发送数据。

2.1 加入头文件

#include<vikit/file_reader.h>
#include<vikit/params_helper.h>
#include<vikit/camera_loader.h>
//以上几个头文件是从程序外从参数用的,需要下载vikit源码
#include<cv_bridge/cv_bridge.h>
#include <sensor_msgs/image_encodings.h>
#include <image_transport/image_transport.h>
//以上3个头文件是发送图片用的
#include<ros/ros.h>
#include<ros/package.h>
#include"std_msgs/String.h"
#include"sstream"
#include"DenseInput.h"//这个头文件 说明了传输数据的结构,需要从svo工程svo_msgs里的拷出来。
#include <Converter.h>//位姿矩阵转四元素
#include <pangolin/pangolin.h>
#include <iomanip>
2.2 在main函数中完成通信

以下修改在main函数中

开启ros节点,vk::getParam才能找到launch文件的参数

ros::init(argc,argv,"ORB_SLAM");
ros::NodeHandle SendMessage;
// 发布
ros::Publisher pub_dense_=SendMessage.advertise<svo_msgs::DenseInput>("dense_input",10);
//利用vikit读取参数
const string dataset_path(vk::getParam<std::string>("ORB_SLAM/Img_Path"));
const string CamPara_Path(vk::getParam<std::string>("ORB_SLAM/CamPara_Path"));
const string BOW_Path(vk::getParam<std::string>("ORB_SLAM/BOW_Path"));
发送数据:每执行一次slam,发送一次数据。数据包括

1 frame的id

2 左图

3 四元数格式的位姿

4 当前场景的最大最小深度。

/////////////////////////////////////////////////////////与REMODE通信//////////////////////////////

svo_msgs::DenseInput msg;
msg.header.stamp=ros::Time(20);//svo中设置20可以正常运行
msg.header.frame_id="/world";
msg.frame_id=framecnt;
cv_bridge::CvImage img_msg;
img_msg.header.stamp=msg.header.stamp;
img_msg.header.frame_id="camera";
img_msg.image=imRGB;

img_msg.encoding = sensor_msgs::image_encodings::MONO8;
msg.image = *img_msg.toImageMsg();

double min_z = std::numeric_limits<double>::max();
double max_z = std::numeric_limits<double>::min();
SLAM.mpTracker->getSceneDepth(SLAM.mpTracker->mCurrentFrame,max_z,min_z);
cout<<"min_z-----------------------------------------  "<<min_z<<endl;
cout<<"max_z-------------------------------------------  "<<max_z<<endl;
msg.min_depth=(float)min_z;
msg.max_depth=(float)max_z;

cv::Mat  TWC=SLAM.mpTracker->mCurrentFrame.mTcw.inv();
cv::Mat RWC=TWC.rowRange(0,3).colRange(0,3);
cv::Mat tWC=TWC.rowRange(0,3).col(3);
vector<float> q=ORB_SLAM2::Converter::toQuaternion(RWC);

msg.pose.position.x = tWC.at<float>(0,0);
msg.pose.position.y = tWC.at<float>(1,0);
msg.pose.position.z = tWC.at<float>(2,0);
msg.pose.orientation.w = q[3];//q.w();
msg.pose.orientation.x = q[0];//q.x();
msg.pose.orientation.y = q[1];//q.y();
msg.pose.orientation.z = q[2];//q.z();
pub_dense_.publish(msg);
////////////////////////////////////////////////////////////////////////////////////////////////////////


opencv的cv::Mat 和ros中的sensor_msgs/Image 需要cv_bridge::CvImage 做个转换。

用法:http://wiki.ros.org/cv_bridge/Tutorials/UsingCvBridgeToConvertBetweenROSImagesAndOpenCVImages

3 仿照

ubuntu下通过命令打开多个终端并在相应终端执指令

写一个脚本,目的是在运行工程的时候方便,快捷。脚本内容为

gnome-terminal -x bash -c "roscore"
gnome-terminal -x bash -c "rosrun rviz rviz -d /home/baohua/project/SLAM/REMODE_ORB/catkin_ws/src/rpg_open_remode/open_remode.rviz  "
gnome-terminal -x bash -c " source '/home/baohua/project/SLAM/REMODE_ORB/catkin_ws/devel/setup.sh';roslaunch ORB_SLAM MH01.launch "
gnome-terminal -x bash -c " source '/home/baohua/project/SLAM/REMODE_ORB/catkin_ws/devel/setup.sh';roslaunch rpg_open_remode remode_EuRoC.launch "


至此,运行脚本就可以运行REMODE+ORBSLAM工程了。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息