0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用合成数据处理自动驾驶新视角感知

NVIDIA英伟达企业解决方案 ? 来源:未知 ? 2023-11-24 19:25 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

虽然,从小型客车到多轴半挂卡车,自动驾驶汽车 (AV) 有各种尺寸和大小,但部署在这些车辆上的感知算法都要经过训练,以处理诸如避障或行人检测等类似场景。

用于开发和验证这些算法的数据集通常从某一款车型中收集,例如配备摄像头、雷达、激光雷达和超声波传感器的某款小轿车。

使用某类传感器配置的车队数据训练的感知算法可以在同类传感器配置的车型上稳定运行。但当相同的算法被部署到使用了不同传感器配置的车辆上时,感知性能会降低,因为现在是从新的视角来感知的。

分析感知精度的损失,需要测量深度神经网络 (DNN) 对新传感器位置的敏感度。通过灵敏度分析,可以从多个角度重新训练感知算法,从而有针对性地提高鲁棒性。

但是,灵敏度分析和重新训练感知都需要收集和标注各种传感器配置的数据集。这个过程耗时且成本高昂。

本文展示了 NVIDIA DRIVE Sim 中的合成数据集以及 NVIDIA 在新视角合成 (NVS) 方面的最新研究如何填补数据缺口,并帮助在部署新传感器配置时保持感知准确性。

测量 DNN 灵敏度

在为不同传感器视角创建合成数据集之前,首先需要在 NVIDIA DRIVE Sim 中构建数字孪生的测试车队车辆,并配备经过与真实世界的传感器配置标定的摄像头传感器模型。

合成数据是通过在预定义场景中按照某个轨迹驾驶汽车,收集并保存仿真摄像头数据。每次驾驶的场景各不相同,例如传感器装备高度、俯冲和安装位置等方面,以模拟其他尺寸类型的车辆。

通过使用 NVIDIA Omniverse Replicator 在 Omniverse 中生成真值 (Ground Truth, GT) 标注(如 3D 边界框)和评估感知算法所需的目标类别。整个工作流都是可重复的,并且能够运行设计好的实验,以便快速测量感知算法的灵敏度。

在生成的数据集做推理,将预测的输出与 GT 标签进行比较,用以测量在不同摄像头高度配置下的模型精度,如图 1 和 图 2 所示。数据集的场景相同,但传感器角度不同。在图 1 中,蓝色框代表 GT 标签,而绿色框代表网络的预测。在图 2 中,蓝色框代表 GT 标签,而红色框代表网络的预测。

wKgZomVgiUCABs72AHEXfm5gCjw794.gif

图 1. 目标检测模型

在四个不同的合成数据集上运行的示例,

重点关注车辆物体类别

wKgZomVgiUGAROkgAG2e1PpDvB4602.gif

图 2. 目标检测模型

在四个不同的合成数据集上运行的示例,

重点关注行人物体类

鉴于网络是基于一类车辆采集数据进行训练的,因此(与采集车)相似的摄像头配置,检测会更准确,随着摄像头位置的显著变化而检测性能降低。

要解决感知模型在新车型上部署的差距,需要视角不同于原始采集车的新车型的训练数据集。虽然现有的车队数据可通过数据增强来使用,但这种方法并不能完全满足数据集收集新视角的需求。

新视角合成

NVS 是一种计算机视觉方法,用于从一组现有图像中生成未见过的新场景视图。这项功能可以从不同视角或角度创建场景图像,而不是由车载相机捕获。

wKgZomVgiUGAOtWuAANZeFB8UWA590.png

图 3. 新视角合成的完整管线

NVIDIA 研究团队最近提出了一种 NVS 方法,该方法能够将动态驾驶数据从一个传感器位置转换到新视角,用于模拟不同的高度、俯仰角 (pitch) 和航向角 (yaw) 等传感器的新视角。有关详细信息,请参阅 Towards Viewpoint Robustness in Bird’s Eye View Segmentation

(https://nvlabs.github.io/viewpoint-robustness/assets/tzofi2023view.pdf)

该方法基于 Worldsheet,一种结合深度估计和 3D 网格合成来生成静态场景新视角的技术。首先,根据预测的深度值将Lattice网格变形以匹配场景,从而创建 3D 场景网格。然后,使用纹理采样器将原始图像中的 RGB 像素强度投射到 3D 网格的纹理图上。相比之前的工作,进一步采用基于激光雷达的深度监督和自动掩码来提高深度估计的准确性并处理遮挡问题。

NVS 模型现在可用于生成数据,就像是从不同类型的车辆中获取的一样。从而能帮助解锁现有车队数据,以便在未来的自动驾驶汽车开发中使用。

wKgZomVgiUKAcHffAAft0rtSBUc798.png

图 4. NVS 变换后的图像示例,这些图像生成的视角会改变原始俯仰角、深度和高度

验证 NVS 并提升感知性能

在将 NVS 生成的数据纳入训练数据集之前,首先要验证其是否准确的反映了真实世界,并且是否对感知训练有效。

为此,验证 NVS 算法需要结合车队数据和 NVS 转换后的数据来训练感知算法。如果没有多视角的真实数据来测试模型的性能,可以在 DRIVE Sim 中生成合成数据和 GT 标注,与前面讨论的灵敏度测试类似。

wKgZomVgiUKAJXOwABL35o4XAh4021.png

图 5. 在 DRIVE Sim 中生成的一组用于感知验证的具有不同俯仰角、深度和高度的摄像头图像

在这些合成数据集上做推理表明,使用 NVS 生成的数据进行训练可以提高感知性能。具体而言:

  • NVS 生成的数据质量非常合适用于不同俯仰角场景,不适用于较大高度的场景。

  • 用于训练的 NVS 转换数据能够恢复感知性能,而这曾只有通过为每个新传感器配置收集新数据才能实现。

这种方法开启了一种 AV 开发新途径,即只需一次数据采集,然后再将其重新用于多种车型,从而显著降低部署成本和时间。

结语

开发能够在不同类型车辆上鲁棒的运行的感知堆栈是一项巨大的数据挑战。而合成数据生成和用于新视角合成 (NVS) 的 AI 技术能够实现感知灵敏度的系统测量。这大大提高了现有数据集的价值,并缩短了为其他车辆部署感知堆栈的时间。

我们邀请了广大研究人员参与这项工作。因此,我们在 Towards Viewpoint Robustness in Bird’s Eye View Segmentation 中公布了来自 DRIVE Sim 的合成数据:

https://nvlabs.github.io/viewpoint-robustness/assets/tzofi2023view.pdf

欢迎探索这些数据并了解详情

https://nvlabs.github.io/viewpoint-robustness/

点击“阅读原文”,获取更多资讯。

了解更多

  • NVIDIA 与其汽车行业合作伙伴共同开发的领先设计与技术:

    https://developer.nvidia.cn/drive

  • 适用于自动驾驶汽车的 NVIDIA 解决方案:

    https://www.nvidia.cn/self-driving-cars/

GTC 2024 将于 2024 年 3 月 18 至 21 日在美国加州圣何塞会议中心举行,线上大会也将同期开放。扫描下方海报二维码,立即注册 GTC 大会


原文标题:使用合成数据处理自动驾驶新视角感知

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3973

    浏览量

    94370

原文标题:使用合成数据处理自动驾驶新视角感知

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    自动驾驶数据标注主要是标注什么?

    [首发于智驾最前沿微信公众号]在自动驾驶系统的研发过程中,数据标注是实现高性能感知模型的基础环节,其核心目标是将车辆从环境中采集到的原始感知数据
    的头像 发表于 07-30 11:54 ?208次阅读
    <b class='flag-5'>自动驾驶</b><b class='flag-5'>数据</b>标注主要是标注什么?

    什么是自动驾驶数据标注?如何好做数据标注?

    [首发于智驾最前沿微信公众号]在自动驾驶系统的开发过程中,数据标注是一项至关重要的工作。它不仅决定了模型训练的质量,也直接影响了车辆感知、决策与控制的性能表现。随着传感器种类和数据量的
    的头像 发表于 07-09 09:19 ?436次阅读
    什么是<b class='flag-5'>自动驾驶</b><b class='flag-5'>数据</b>标注?如何好做<b class='flag-5'>数据</b>标注?

    SONY FCB-CR8530,如何重塑自动驾驶视觉感知格局?

    自动驾驶技术快速发展的当下,车辆对周围环境的精准感知是确保安全与高效运行的关键。凯茉锐电子SONY FCB-CR8530摄像机凭借其卓越性能,正逐渐成为自动驾驶领域视觉感知系统的核心
    的头像 发表于 06-25 17:54 ?257次阅读

    浅析4D-bev标注技术在自动驾驶领域的重要性

    感知领域的一项突破性创新,通过引入时间维度与全局视角,为自动驾驶系统提供了高精度、多模态的时空真值数据,重塑了自动驾驶系统的开发范式。 4D
    的头像 发表于 06-12 16:10 ?493次阅读

    新能源车软件单元测试深度解析:自动驾驶系统视角

    。 ?自动驾驶软件的特殊性? ? 感知层: ?激光雷达、摄像头等传感器数据处理算法的单元测试需覆盖极端场景。例如,激光雷达点云滤波算法在雨雪天气下的噪声抑制能力需通过边界测试验证。某厂商曾在测试中遗漏
    发表于 05-12 15:59

    技术分享 | 高逼真合成数据助力智驾“看得更准、学得更快”

    自动驾驶研发如何高效获取海量训练数据?高逼真合成数据技术正在提供新解法。通过仿真平台可生成多场景、多传感器的精准标注数据。文章详解如何构建符合nuScenes标准的
    的头像 发表于 04-29 10:47 ?3018次阅读
    技术分享 | 高逼真<b class='flag-5'>合成数据</b>助力智驾“看得更准、学得更快”

    感知融合如何让自动驾驶汽车“看”世界更清晰?

    ”,更是车辆实现自主决策的基础。 环境感知系统需要实时采集、处理和分析车辆周围的动态和静态信息,包括其他车辆、行人、交通标志、道路状况以及天气条件等。这些信息直接影响到自动驾驶的路径规划与控制决策的准确性和安全性
    的头像 发表于 04-27 16:24 ?319次阅读
    <b class='flag-5'>感知</b>融合如何让<b class='flag-5'>自动驾驶</b>汽车“看”世界更清晰?

    技术分享 | AVM合成数据仿真验证方案

    AVM 合成数据仿真验证技术为自动驾驶环境感知发展带来助力,可借助仿真软件配置传感器、搭建环境、处理图像,生成 AVM 合成数据,有效加速算
    的头像 发表于 03-19 09:40 ?3161次阅读
    技术分享 | AVM<b class='flag-5'>合成数据</b>仿真验证方案

    标贝科技:自动驾驶中的数据标注类别分享

    自动驾驶训练模型的成熟和稳定离不开感知技术的成熟和稳定,训练自动驾驶感知模型需要使用大量准确真实的数据。据英特尔计算,L3+级
    的头像 发表于 11-22 15:07 ?2125次阅读
    标贝科技:<b class='flag-5'>自动驾驶</b>中的<b class='flag-5'>数据</b>标注类别分享

    标贝科技:自动驾驶中的数据标注类别分享

    自动驾驶训练模型的成熟和稳定离不开感知技术的成熟和稳定,训练自动驾驶感知模型需要使用大量准确真实的数据。据英特尔计算,L3+级
    的头像 发表于 11-22 14:58 ?4014次阅读
    标贝科技:<b class='flag-5'>自动驾驶</b>中的<b class='flag-5'>数据</b>标注类别分享

    直播预告 | 干簧技术应用:汽车行业新视角

    打开汽车应用领域新视角
    的头像 发表于 11-13 09:23 ?2310次阅读
    直播预告 | 干簧技术应用:汽车行业<b class='flag-5'>新视角</b>

    自动驾驶技术的现状与L4级挑战:2024年的新视角

    随着科技的飞速发展,自动驾驶汽车已不再是遥不可及的未来概念,而是逐渐融入了我们的日常生活。特别是在武汉等城市,百度萝卜快跑的无人出租车服务让人们亲身体验到了自动驾驶的魅力,这一创新技术频频登上网络热搜,其无驾驶员的设计更是令人印
    的头像 发表于 08-26 16:04 ?2088次阅读

    聊聊自动驾驶离不开的感知硬件

    自动驾驶飞速发展,绕不开感知、决策和控制决策的经典框架,而感知作为自动驾驶汽车“感官”的重要组成部分,决定了自动驾驶系统对环境的理解和反应能
    的头像 发表于 08-23 10:18 ?1236次阅读