0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于激光雷达和视觉融合的机器人SLAM应用研究

iotmag ? 来源:物联网技术 ? 作者:物联网技术 ? 2022-09-20 10:31 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

摘 要 :通过研究激光雷达和视觉传感器融合 SLAM,实现双目视觉传感器对单线激光雷达点云的补充,以提高建图精度。实现方案以 2D 激光雷达点云数据为主,双目视觉传感器作为激光雷达点云盲区的补充,搭建 SLAM实验平台,完成机器人实时地图构建并获取当前位置信息,同时降低携带传感器的成本。

0 引 言

随着机器人技术的发展,越来越多的机器人已经实现自主运动,但可靠性和制作成本依然制约着机器人的普及。通过使用相较3D激光雷达传感器成本更低的2D激光雷达和视觉传感器进行点云数据融合,实现平台搭建,优化机器人的SLAM技术,解决当前2D激光雷达存在的感知单一平面点云数据不足、视觉传感器数据计算量大等问题[1-2],提升地图精度,减少SLAM应用过程中的不确定性。

1 实验平台搭建

研究基于ROS构建由2D激光雷达和深度相机点云融合的SLAM[3]平台,通过NVIDIA Jetson TX2运算平台和STM32微控制器通信传送数据,实现机器人自主运动。实验平台包括点云数据识别部分和运动部分,整体结构如图1所示。

云数据识别部分包括激光雷达获取平面点云数据和双目相机深度点云计算。运行时激光雷达获取2D平面内障碍物点云信息,双目相机获取机器人正面范围的影像[4],通过Stereo Matching 计算可视范围内的深度点云数据,并对其进行范围剔除和距离筛选 ;最后将双目相机获得的点云与激光雷达点云序列进行比较更新,融合点云数据后根据占据栅格地图算法构建地图[5]。点云数据融合过程如图1所示。

运动部分通过单片机STM32F4从NUC获取运动速度向量或从遥控中获取控制信息,经PID解算将电流或电压值发送给底盘电机,电机连接联轴器带动麦克纳姆轮转动,从而实现全方向移动[6]。机器人整体设计如图1所示。

7a630f70-388a-11ed-ba43-dac502259ad0.png

2 研究与测试

围绕ROS节点话题进行研究和测试。双目相机点云生成节点(cameraNode),将相机点云(/camera_cloud)传送给点云数据处理节点(/transNode)处理,得到深度数据(/depth);激光雷达点云生成节点,得到点云数据(/laser),二者由点云合成节点(/mergeNode)融合得到点云数据(/scan),再将其输出到 HectorMapping 的节点。点云融合建图部分 ROS 节点与话题如图2 所示 [7]。

7aaea426-388a-11ed-ba43-dac502259ad0.png

2.1 双目校正与像素匹配

使用金乾象工业相机中的两个自制双目深度相机,需要保证左右画面的同步和亮度,否则会导致深度图的计算结果不佳。因此,在相机点云生成(/camera_cloud)之前,需要对左右相机读取的原图像进行双目校正和像素匹配。

双目校正根据摄像头标定后获得的单目内参(焦距、成像原点、畸变系数)和双目相对位置关系(旋转矩阵和平移向量),分别对左右视图进行消除畸变和行对准,使得左右视图的成像原点坐标一致、摄像头光轴与对极线行对齐。原图像与校正后图像对比情况如图3所示。

7aceade8-388a-11ed-ba43-dac502259ad0.png

像素匹配通过匹配代价计算、代价聚合、视差计算和视差优化等步骤 [8],对左右视图上对应的像素点进行匹配得到视差图。依靠视差图,结合双目相机的内参,计算得到正交空间下的点云数据。

2.2 点云数据处理

由于双目相机参数的差异,帧速率不能完全同步,获取的点云数据存在一定误差,需要先通过点云数据处理节点(/transNode)变换和剔除数据,再通过点云合成节点(/mergeNode)融合同种格式的数据。

正交空间下的点云通过透视除法的逆变换得到相机空间下的点云数据,获得相对于相机实际位置的坐标。坐标变换与效果如图4所示。

7b37d098-388a-11ed-ba43-dac502259ad0.png

数据转换部分将点云投影到二维平面,并转换为激光雷达点云格式的数据,即角度和对应方向的深度值[9]。转换时,通过反正切函数,根据点云位置的水平偏移与深度值计算出角度和距离值,筛选取得各个角度上距离最近的点云,效果如图5所示。在融合点云之前,应当剔除视锥内不需要的部分,效果如图5中截取点云后的投影图所示 ;否则地面和天花板将对投影后的点云造成影响,效果如图5中的原点云投影图所示。考虑到双目左右图像的边缘缺少完整的匹配信息,点云可能出现极不稳定的深度值,效果如图5中未进行边缘剔除的投影图所示。因此,在能够反映完整深度值的情况下,剔除部分边缘深度值,效果如图5中边缘剔除后的投影图所示。

7b882d72-388a-11ed-ba43-dac502259ad0.png

2.3 点云融合建图

点云合成节点将深度数据和激光雷达点云数据融合,并筛选出各个角度距离最近的点云输出到 HectorMapping 的节点。

经过测试,增加双目相机后的建图能够获取单线雷达扫描平面外的细节,自身位姿估计和建图结果更加精确,测试对比结果如图6所示。但与工业级产品相比稳定性差,建图过程中会有微小偏差。

7ba9c234-388a-11ed-ba43-dac502259ad0.png

3 结 语

本文通过激光雷达提供大范围点云信息,视觉传感器提供机器人正面区域补充激光雷达缺失的点云,较单线雷达大范围稀疏点云提高了计算准确度,使用Hector SLAM算法融合点云数据,更好地实现机器人点云获取和建图[10]。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器人
    +关注

    关注

    213

    文章

    29835

    浏览量

    213735
  • 雷达
    +关注

    关注

    51

    文章

    3129

    浏览量

    120422
  • 视觉传感器
    +关注

    关注

    3

    文章

    268

    浏览量

    23386
  • 激光雷达
    +关注

    关注

    971

    文章

    4245

    浏览量

    193140

原文标题:论文速览 | 基于激光雷达和视觉融合的机器人 SLAM 应用研究

文章出处:【微信号:iotmag,微信公众号:iotmag】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI驱动的人形机器人,成为激光雷达产业的下一个爆发点

    电子发烧友网报道(文/梁浩斌)过去两年,激光雷达跟随ADAS在电动汽车上大放异彩。作为视觉感知基础上的进阶感知硬件,激光雷达机器人领域的应用,也开始随着人形
    的头像 发表于 12-23 09:07 ?3124次阅读
    AI驱动的人形<b class='flag-5'>机器人</b>,成为<b class='flag-5'>激光雷达</b>产业的下一个爆发点

    禾赛科技荣获中国割草机器人行业激光雷达引领者认证

    2025 年 7 月,禾赛凭借深厚的技术积累、强劲的市场表现以及引领市场的商业价值,登顶高工机器人产业研究所《2025 上半年中国机器人 3D 激光雷达出货量排行榜》榜首,并荣获 CE
    的头像 发表于 07-18 10:36 ?499次阅读

    AGV/AMR机器人单线激光雷达选型指南

    随着机器人行业的飞速发展,各种场景机器人的广泛应用,激光雷达作为必不可少的传感仪器在帮助机器人实现对环境的感知方面,遇到障碍物时能灵活绕障碍,在整个导航过程中可以精准停靠以及在特殊环境
    的头像 发表于 07-01 14:28 ?226次阅读
    AGV/AMR<b class='flag-5'>机器人</b>单线<b class='flag-5'>激光雷达</b>选型指南

    详细介绍机场智能指路机器人的工作原理

    负责接收旅客的语音指令,以便机器人理解旅客的需求。 环境感知与信息融合 :这些传感器收集到的信息会进行融合处理。例如,激光雷达提供的距离信息和摄像头捕捉的
    发表于 05-10 18:26

    【「# ROS 2智能机器人开发实践」阅读体验】视觉实现的基础算法的应用

    的本质是解决“鸡与蛋”问题:机器人需要地图来定位,又需要准确定位来构建地图。书中从前端(传感器数据处理)和后端(位姿优化)两个层面解析了SLAM的算法逻辑。 激光雷达视觉
    发表于 05-03 19:41

    【「# ROS 2智能机器人开发实践」阅读体验】+内容初识

    、Gazebo仿真(含RGBD相机/激光雷达仿真)、实物机器人运动控制,实现\"仿真→实物\"的无缝衔接 高阶应用篇(7-9章) 聚焦视觉SLAM、自主导航等前沿场景,提供完整项目链路
    发表于 04-27 11:24

    LD Gen2 Lite激光雷达:赋予机器人 “感知力” 的关键

    机器人的感知世界里,激光雷达宛如一双敏锐的“慧眼”,赋予机器人“看”清周围环境、自主决策的能力。亮道智能最新推出的纯固态Flash短距激光雷达LD Gen2 Lite,凭借其独特的技
    的头像 发表于 04-25 10:42 ?266次阅读

    速腾聚创第100万台激光雷达下线,用于人形机器人?

    电子发烧友网综合报道 数日前,RoboSense 速腾聚创成功交付了其第 100 万台激光雷达,订单接收方为人形机器人(上海)有限公司。速腾聚创由此成为全球首家实现百万台高线数激光雷达下线的企业
    发表于 03-16 01:00 ?724次阅读

    洛微科技助力机器人领域激光雷达技术升级

    近日,由中国国际经济技术合作促进会标准化工作委员会牵头制定的《机器人激光雷达通用技术条件》(T/CIET 879-2024)正式发布。
    的头像 发表于 03-01 09:42 ?915次阅读

    40个激光雷达!苹果布局机器人感知系统,让碰撞降低63.7%

    机器人感知系统。ARMOR系统的创新之处在于采用 分布式感知方案 。研究团队在机器人的手臂和手掌上战略性地布置了 40个小型ToF激光雷达传感器 ,每边手臂20个。这些传感器体积小巧
    的头像 发表于 01-22 17:58 ?689次阅读
    40个<b class='flag-5'>激光雷达</b>!苹果布局<b class='flag-5'>机器人</b>感知系统,让碰撞降低63.7%

    禾赛拒绝“激光雷达无用论”

    1440线激光雷达AT1440和车规级纯固态激光雷达FTX以及面向机器人的JT系列。 李一帆指出,目前行业对机器人的定义尚无共识,但激光雷达
    的头像 发表于 01-16 11:58 ?1358次阅读
    禾赛拒绝“<b class='flag-5'>激光雷达</b>无用论”

    禾赛科技推出面向机器人领域的迷你3D激光雷达

    近日,在拉斯维加斯举行的 CES 2025 国际消费电子展上,禾赛面向机器人领域的迷你 3D 激光雷达 JT 系列产品正式面向全球发布。全新产品迷你型 3D 激光雷达 JT 系列发布即交付,已向客户交付超过 2 万颗。
    的头像 发表于 01-10 09:05 ?891次阅读

    【「具身智能机器人系统」阅读体验】2.具身智能机器人的基础模块

    具身智能机器人的基础模块,这个是本书的第二部分内容,主要分为四个部分:机器人计算系统,自主机器人的感知系统,自主机器人的定位系统,自主机器人
    发表于 01-04 19:22

    激光雷达SLAM:全面掌握同步定位与地图构建指南

    ? SLAM 背后的核心思想是让机器人或自主系统能够探索未知环境并创建该环境的地图,同时确定其在生成的地图中的位置。这是通过融合来自各种传感器(例如激光雷达、摄像头和惯性测量单元 (I
    的头像 发表于 11-16 10:57 ?2463次阅读

    激光雷达SLAM算法中的应用综述

    一、文章概述 1.1 摘 要 即时定位与地图构建(simultaneous localization and mapping,SLAM)是自主移动机器人和自动驾驶的关键 技术之一,而激光雷达则是支撑
    的头像 发表于 11-12 10:30 ?2662次阅读
    <b class='flag-5'>激光雷达</b>在<b class='flag-5'>SLAM</b>算法中的应用综述