REMODE+ORBSLAM运行配置(2) REMODE和编译后的ORB ros工程利用节点实现通讯

将ORB编译成ROS工程后,就可以利用ROS的节点通信实现ORB和REMODE的数据传输。

步骤:

1 仿照SVO-REMODE的编译方式。安装googletest 和rpg_open_remode至~/catkin_ws/src 目录下。

2 修改 ORB的主函数,以便发送数据。

2.1 加入头文件

#include<vikit/file_reader.h>      
#include<vikit/params_helper.h> 
#include<vikit/camera_loader.h>
//以上几个头文件是从程序外从参数用的,需要下载vikit源码
#include<cv_bridge/cv_bridge.h>
#include <sensor_msgs/image_encodings.h>
#include <image_transport/image_transport.h>
//以上3个头文件是发送图片用的
#include<ros/ros.h>
#include<ros/package.h>
#include"std_msgs/String.h"
#include"sstream"
#include"DenseInput.h"//这个头文件 说明了传输数据的结构,需要从svo工程svo_msgs里的拷出来。
#include <Converter.h>//位姿矩阵转四元素
#include <pangolin/pangolin.h>
#include <iomanip>

2.2 在main函数中完成通信

 

以下修改在main函数中

开启ros节点,vk::getParam才能找到launch文件的参数

ros::init(argc,argv,"ORB_SLAM");
   ros::NodeHandle SendMessage;
// 发布
   ros::Publisher pub_dense_=SendMessage.advertise<svo_msgs::DenseInput>("dense_input",10);
   //利用vikit读取参数
    const string dataset_path(vk::getParam<std::string>("ORB_SLAM/Img_Path"));
    const string CamPara_Path(vk::getParam<std::string>("ORB_SLAM/CamPara_Path"));
    const string BOW_Path(vk::getParam<std::string>("ORB_SLAM/BOW_Path"));
 

发送数据:每执行一次slam,发送一次数据。数据包括 

 

1 frame的id

2 左图

3 四元数格式的位姿

4 当前场景的最大最小深度。

 

/////////////////////////////////////////////////////////与REMODE通信//////////////////////////////

	svo_msgs::DenseInput msg;
	msg.header.stamp=ros::Time(20);//svo中设置20可以正常运行
	msg.header.frame_id="/world";
	msg.frame_id=framecnt;
	cv_bridge::CvImage img_msg;
	img_msg.header.stamp=msg.header.stamp;
	img_msg.header.frame_id="camera";
	img_msg.image=imRGB;

	img_msg.encoding = sensor_msgs::image_encodings::MONO8;
	msg.image = *img_msg.toImageMsg();

	double min_z = std::numeric_limits<double>::max();
	double max_z = std::numeric_limits<double>::min();
	SLAM.mpTracker->getSceneDepth(SLAM.mpTracker->mCurrentFrame,max_z,min_z);
	cout<<"min_z-----------------------------------------  "<<min_z<<endl;
	cout<<"max_z-------------------------------------------  "<<max_z<<endl;
         msg.min_depth=(float)min_z;
         msg.max_depth=(float)max_z;

	cv::Mat  TWC=SLAM.mpTracker->mCurrentFrame.mTcw.inv();
	cv::Mat RWC=TWC.rowRange(0,3).colRange(0,3);
	cv::Mat tWC=TWC.rowRange(0,3).col(3);
	vector<float> q=ORB_SLAM2::Converter::toQuaternion(RWC);



	    msg.pose.position.x = tWC.at<float>(0,0);
	    msg.pose.position.y = tWC.at<float>(1,0);
	    msg.pose.position.z = tWC.at<float>(2,0);
	    msg.pose.orientation.w = q[3];//q.w();
	    msg.pose.orientation.x = q[0];//q.x();
	    msg.pose.orientation.y = q[1];//q.y();
	    msg.pose.orientation.z = q[2];//q.z();
	    pub_dense_.publish(msg);
////////////////////////////////////////////////////////////////////////////////////////////////////////

 

opencv的cv::Mat  和ros中的sensor_msgs/Image 需要cv_bridge::CvImage  做个转换。

用法:http://wiki.ros.org/cv_bridge/Tutorials/UsingCvBridgeToConvertBetweenROSImagesAndOpenCVImages

3 仿照

ubuntu下通过命令打开多个终端并在相应终端执指令

写一个脚本,目的是在运行工程的时候方便,快捷。脚本内容为

 

gnome-terminal -x bash -c "roscore"
gnome-terminal -x bash -c "rosrun rviz rviz -d /home/baohua/project/SLAM/REMODE_ORB/catkin_ws/src/rpg_open_remode/open_remode.rviz  "
gnome-terminal -x bash -c " source '/home/baohua/project/SLAM/REMODE_ORB/catkin_ws/devel/setup.sh';roslaunch ORB_SLAM MH01.launch "
gnome-terminal -x bash -c " source '/home/baohua/project/SLAM/REMODE_ORB/catkin_ws/devel/setup.sh';roslaunch rpg_open_remode remode_EuRoC.launch "


至此,运行脚本就可以运行REMODE+ORBSLAM工程了。

 

 

 

posted on 2017-01-03 09:16  从小白做起  阅读(368)  评论(0编辑  收藏  举报