0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

【AIBOX应用】通过 NVIDIA TensorRT 实现实时快速的语义分割

Firefly开源团队 ? 2024-12-18 16:33 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

NVIDIA 系列 AIBOX

AIBOX-OrinNano 和 AIBOX-OrinNX 均搭载 NVIDIA 原装 Jetson Orin 核心板模组,标配工业级全金属外壳,铝合金结构导热,顶盖外壳侧面采用条幅格栅设计,高效散热,保障在高温运行状态下的运算性能和稳定性,满足各种工业级的应用需求。

c56dde2a-bd1a-11ef-8084-92fbcf53809c.png

NVIDIA TensorRT

NVIDIA系列 AIBOX 支持深度学习框架TensorRT,TensorRT是用于高性能深度学习推理的 API 生态系统,其包括推理运行时和模型优化,可为生产应用提供低延迟和高吞吐量。

TensorRT 生态系统包括 TensorRT、TensorRT-LLM、TensorRT 模型优化器和 TensorRT Cloud。

NVIDIA TensorRT 的优势

推理速度提升 36 倍

优化推理性能

加速各种工作负载

使用 Triton 进行部署、运行和扩展

应用案例—语义分割

语义分割基于图像识别,但分类是在像素级别进行的,而不是在整个图像上进行。这是通过将预训练的图像识别骨干网络进行卷积化来实现的,将模型转换为能够进行逐像素标注的全卷积网络(FCN)。语义分割对于环境感知特别有用,它能够对每个场景中的许多不同潜在对象(包括前景和背景)进行密集的逐像素分类。

c58caad0-bd1a-11ef-8084-92fbcf53809c.png

SegNet 模型

SegNet 的新颖之处在于解码器对其较低分辨率的输入特征图进行上采样的方式。具体地说,解码器使用了在相应编码器的最大池化步骤中计算的池化索引来执行非线性上采样。经上采样后的特征图是稀疏的,因此随后使用可训练的卷积核进行卷积操作,生成密集的特征图。SegNet 的架构与广泛采用的 FCN 以及众所周知的 DeepLab-LargeFOV,DeconvNet 架构进行比较。比较的结果揭示了在实现良好的分割性能时所涉及的内存与精度之间的权衡。

c5978d06-bd1a-11ef-8084-92fbcf53809c.png

下载源码

$ git clone --recursive --depth=1 https://github.com/dusty-nv/jetson-inference

编译 / 安装

参考:https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md

运行示例

$ ./segnet.py --network=fcn-resnet18-cityscapes city_0.jpg output_city_0.jpgc5bc22c4-bd1a-11ef-8084-92fbcf53809c.jpg

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 解码器
    +关注

    关注

    9

    文章

    1190

    浏览量

    42082
  • NVIDIA
    +关注

    关注

    14

    文章

    5324

    浏览量

    106644
  • 核心板
    +关注

    关注

    5

    文章

    1179

    浏览量

    30985
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    北京迅为itop-3588开发板NPU例程测试deeplabv3 语义分割

    北京迅为itop-3588开发板NPU例程测试deeplabv3 语义分割
    的头像 发表于 07-22 15:51 ?529次阅读
    北京迅为itop-3588开发板NPU例程测试deeplabv3 <b class='flag-5'>语义</b><b class='flag-5'>分割</b>

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署。
    的头像 发表于 07-04 14:38 ?757次阅读

    AIBOX 产品矩阵:支持主流大模型的私有化部署,满足个性化 AI 应用需求

    Firefly共推出9款AIBOX产品,通过不同的算力、能效、外观等,适配不同行业的应用场景。Firefly×NVIDIA搭载NVIDIA原装JetsonOrin系列核心
    的头像 发表于 06-25 16:32 ?562次阅读
    <b class='flag-5'>AIBOX</b> 产品矩阵:支持主流大模型的私有化部署,满足个性化 AI 应用需求

    使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践

    针对基于 Diffusion 和 LLM 类别的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能显著提升推理速度。在单张 NVIDIA Ada Lovelace
    的头像 发表于 06-12 15:37 ?711次阅读
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS应用的最佳实践

    AIBOX 应用案例】通过 U?-Net 实现背景移除

    NVIDIA系列AIBOXAIBOX-OrinNano和AIBOX-OrinNX均搭载NVIDIA原装JetsonOrin核心板模组,标配工业级全金属外壳,铝合金结构导热,顶盖外壳侧面采用条幅格栅
    的头像 发表于 06-11 16:32 ?222次阅读
    【<b class='flag-5'>AIBOX</b> 应用案例】<b class='flag-5'>通过</b> U?-Net <b class='flag-5'>实现</b>背景移除

    NVIDIA技术助力Pantheon Lab数字人实时交互解决方案

    本案例中,Pantheon Lab(万想科技)专注于数字人技术解决方案,通过 NVIDIA 技术实现数字人实时对话与客户互动交流。借助 NVIDIA
    的头像 发表于 01-14 11:19 ?662次阅读

    NVIDIA TensorRT-LLM中启用ReDrafter的一些变化

    Recurrent Drafting (简称 ReDrafter) 是苹果公司为大语言模型 (LLM) 推理开发并开源的一种新型推测解码技术,该技术现在可与 NVIDIA TensorRT-LLM 一起使用。
    的头像 发表于 12-25 17:31 ?803次阅读
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中启用ReDrafter的一些变化

    解锁NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一个专为优化大语言模型 (LLM) 推理而设计的库。它提供了多种先进的优化技术,包括自定义 Attention Kernel、Inflight
    的头像 发表于 12-17 17:47 ?944次阅读

    NVIDIA生态】具有100 TOPS强劲算力的AIBOX

    近年来,AI正在通过自动化、改进数据分析以及提升参与度来推动企业变革。借助强大的嵌入式AI计算机,为生成式AI、计算机视觉和高级机器人技术打造新一代产品。Firefly推出搭载NVIDIA原装
    的头像 发表于 12-05 03:00 ?1783次阅读
    【<b class='flag-5'>NVIDIA</b>生态】具有100 TOPS强劲算力的<b class='flag-5'>AIBOX</b>!

    NVIDIA TensorRT-LLM Roadmap现已在GitHub上公开发布

    感谢众多用户及合作伙伴一直以来对NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 现已在 GitHub 上公开发布!
    的头像 发表于 11-28 10:43 ?763次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap现已在GitHub上公开发布

    TensorRT-LLM低精度推理优化

    本文将分享 TensorRT-LLM 中低精度量化内容,并从精度和速度角度对比 FP8 与 INT8。首先介绍性能,包括速度和精度。其次,介绍量化工具 NVIDIA TensorRT Model
    的头像 发表于 11-19 14:29 ?1363次阅读
    <b class='flag-5'>TensorRT</b>-LLM低精度推理优化

    语义分割25种损失函数综述和展望

    语义图像分割,即将图像中的每个像素分类到特定的类别中,是许多视觉理解系统中的重要组成部分。作为评估统计模型性能的主要标准,损失函数对于塑造基于深度学习的分割算法的发
    的头像 发表于 10-22 08:04 ?1665次阅读
    <b class='flag-5'>语义</b><b class='flag-5'>分割</b>25种损失函数综述和展望

    使用OpenVINO C# API部署YOLO-World实现实时开放词汇对象检测

    快速准确识别,并通过AR技术将虚拟元素与真实场景相结合,为用户带来沉浸式的交互体验。在本文中,我们将结合OpenVINO C# API使用最新发布的OpenVINO 2024.0部署 YOLO-World实现实时开放词汇对象检
    的头像 发表于 08-30 16:27 ?1763次阅读
    使用OpenVINO C# API部署YOLO-World<b class='flag-5'>实现实时</b>开放词汇对象检测

    AIBOX旗舰版:内置NVIDIA核心模组

    AIBOX-OrinNano和AIBOX-OrinNX均搭载NVIDIA原装JetsonOrin核心板模组,该系列可提供40~100TOPS的AI计算能力、大容量统一内存和全面的软件堆栈,能够以超高
    的头像 发表于 08-30 11:51 ?1099次阅读
    <b class='flag-5'>AIBOX</b>旗舰版:内置<b class='flag-5'>NVIDIA</b>核心模组

    魔搭社区借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社区是中国最具影响力的模型开源社区,致力给开发者提供模型即服务的体验。魔搭社区利用NVIDIA TensorRT-LLM,大大提高了大语言模型的推理性能,方便了模型应用部署,提高了大模型产业应用效率,更大规模地释放大模型的应用价值。”
    的头像 发表于 08-23 15:48 ?1185次阅读