0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于NVIDIA Triton的AI模型高效部署实践

NVIDIA英伟达企业解决方案 ? 来源:NVIDIA英伟达企业解决方案 ? 作者:NVIDIA英伟达企业解 ? 2022-06-28 15:49 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在每周的预告中,你可以:

了解一周的在线研讨会时间及详细内容,选择感兴趣的研讨会并提前安排收听时间;

找到每场研讨会的参会方式,保存并转发到朋友圈及微信群,与朋友分享精彩内容。

基于 NVIDIA Triton 的 AI 模型高效部署实践

内容

NVIDIA Triton 推理服务器(以前称为 TensorRT 推理服务器)是一款开源软件,可简化深度学习模型在生产环境中的部署。借助 Triton 推理服务器,Devops 和 MLops 团队可以将各类框架(TensorFlowPyTorch、TensorRT、ONNX Runtime、MXNet、XGBoost 等或自定义框架后端)训练的 AI 模型,在基于 GPUCPU 的本地、数据中心、云、边缘云等平台,快速可靠地部署在诸如 Kubernetes、KFServing、Prometheus、Grafana 等大规模生产环境中,并轻松扩展。

借助 NVIDIA Ampere 架构 Tensor Core 和多实例并行运行多个工作负载( MIG ),Triton 推理服务器可以最大化 A100 GPU 和 A30 GPU 的利用率。它不仅可在单个 NVIDIA GPU 上同时运行多个模型,以更大限度地提高利用率,与 Kubernetes 集成以用于编排、指标和自动扩展,还可以让多个用户共享一个 GPU ,通过将单个 GPU 划分为多个 GPU 实例,让每个实例都有专用的内存和计算资源,在确保执行工作负载的同时,保证服务质量和故障隔离。

本次研讨会 NVIDIA 解决方案架构师张萌将参与主讲环节, NVIDIA 解决方案架构师申意则将主要参与问答环节。

通过本次在线研讨会您将了解以下内容:

应用 Triton 的收益

基于 Ampere 架构多实例 GPU 特性和 K8s 实现 Triton 大规模部署

如何使用 Triton 部署端到端的 CV 模型

Triton 在行业内的一些应用案例

日程

6 月 28 日,周二,19:00 – 20:00

演讲嘉宾

张萌

NVIDIA 解决方案架构师

申意

NVIDIA 解决方案架构师

内容

随着人工智能、数据科学、虚拟仿真等数据流量负载呈现指数增长,企业需要在任何位置都有足够的处理能力,这对传统的数据中心基础设施带来全新挑战与巨大冲击,需要构建现代数据中心来支撑企业业务应用。

NVIDIA BlueField DPU 是一款非常强大的片上数据中心基础设施,可用于卸载、加速和隔离在主机 CPU 上运行的各种软件定义基础设施服务,将数据中心基础设施与业务应用解耦,提升在云计算、数据中心或边缘计算的性能、安全性和效率,突破性能和可扩展性的瓶颈,并消除现代数据中心的安全威胁,简化运营并降低总拥有成本( TCO)。

为了充分发挥 BlueField DPU 这一强大的片上数据中心基础设施硬件能力,简单、高效的 NVIDIA DOCA 软件框架应运而生,为开发者打造一个全面、开放的开发平台,支持广大的开发者在 BlueField DPU 上进行简单、灵活的软件开发,让开发者可以快速创建 BlueField DPU 加速的、高性能应用程序和服务。

本次课程将帮助开发者深入了解如下内容:

什么是 DPU?

NVIDIA BlueField DPU 简介

NVIDA DOCA 软件框架

NVIDIA BlueField DPU 加速功能

日程

6 月 30 日,星期四,20:00 – 21:00

演讲嘉宾

崔岩

NVIDIA 网络技术专家

负责以技术角度推进 DPU 和 DOCA 产品及联合解决方案在中国的市场营销,驱动 DOCA 开发者社区在中国的增长与发展,促进客户与合作伙伴在未来数据中心基础设施上取得成功。

原文标题:一周预告丨本周 NVIDIA 在线研讨会精彩亮点抢先看

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5324

    浏览量

    106638
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4968

    浏览量

    131661
  • 服务器
    +关注

    关注

    13

    文章

    9826

    浏览量

    88224
  • AI
    AI
    +关注

    关注

    88

    文章

    35476

    浏览量

    281271

原文标题:一周预告丨本周 NVIDIA 在线研讨会精彩亮点抢先看

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    ai_cube训练模型最后部署失败是什么原因?

    ai_cube训练模型最后部署失败是什么原因?文件保存路径里也没有中文 查看AICube/AI_Cube.log,看看报什么错?
    发表于 07-30 08:15

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 开源其物理 AI 平台 NVIDIA Cosmos 中的关键模型——NVIDIA Cosmos Reason-1-7B。
    的头像 发表于 07-09 10:17 ?214次阅读

    使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践

    针对基于 Diffusion 和 LLM 类别的 TTS 模型NVIDIA Triton 和 TensorRT-LLM 方案能显著提升推理速度。在单张 NVIDIA Ada Love
    的头像 发表于 06-12 15:37 ?707次阅读
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM<b class='flag-5'>部署</b>TTS应用的最佳<b class='flag-5'>实践</b>

    企业部署AI模型怎么做

    当下,AI模型已成为驱动决策自动化、服务智能化与产品创新的核心引擎。然而,企业面对动辄数百亿参数的大模型部署时,常陷入算力不足、响应延迟高、成本失控等困境。如何突破瓶颈,实现
    的头像 发表于 06-04 09:26 ?245次阅读

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    应用开发不用“等平台”,彻底释放开发效率和模型接入自由度。 自DeepSeek横空出世以来,这种更适合端侧部署,回答效率更高效的训练模式快速引爆了AI行业,主流大
    发表于 04-13 19:52

    英伟达GTC2025亮点:NVIDIA认证计划扩展至企业存储领域,加速AI工厂部署

    ,现在已将企业存储纳入其中,旨在通过加速计算、网络、软件和存储,助力企业更高效部署 AI 工厂。 在企业构建 AI 工厂的过程中,获取高质量数据对于确保
    的头像 发表于 03-21 19:38 ?1178次阅读

    英伟达GTC25亮点:NVIDIA Dynamo开源库加速并扩展AI推理模型

    Triton 推理服务器的后续产品,NVIDIA Dynamo 是一款全新的 AI 推理服务软件,旨在为部署推理 AI
    的头像 发表于 03-20 15:03 ?704次阅读

    AI Agent 应用与项目实战》阅读心得3——RAG架构与部署本地知识库

    的片段,再利用预训练模型进行向量化,建立高效的检索索引。在检索阶段,系统计算查询与文档片段的向量相似度,筛选出最相关的内容。这些内容会通过注入提示的方式提供给LLM,指导其生成准确且符合上下文的回答
    发表于 03-07 19:49

    添越智创基于 RK3588 开发板部署测试 DeepSeek 模型全攻略

    AI 开发爱好者,不妨亲自上手实践,亲身感受强大 AI 模型与高性能开发板结合带来的独特魅力与无限可能。部署过程中难免遇到问题,这是技术探
    发表于 02-14 17:42

    Triton编译器在机器学习中的应用

    1. Triton编译器概述 Triton编译器是NVIDIA Triton推理服务平台的一部分,它负责将深度学习模型转换为优化的格式,以便
    的头像 发表于 12-24 18:13 ?1054次阅读

    企业AI模型部署攻略

    当下,越来越多的企业开始探索和实施AI模型,以提升业务效率和竞争力。然而,AI模型部署并非易事,需要企业在多个层面进行细致的规划和准备。下
    的头像 发表于 12-23 10:31 ?824次阅读

    NVIDIA NIM助力企业高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等厂商的开源 Kubernetes 平台集成了 NVIDIA NIM,将允许用户通过 API 调用来大规模地部署大语言模型
    的头像 发表于 10-10 09:49 ?815次阅读

    NVIDIA助力提供多样、灵活的模型选择

    在本案例中,Dify 以模型中立以及开源生态的优势,为广大 AI 创新者提供丰富的模型选择。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和
    的头像 发表于 09-09 09:19 ?974次阅读

    NVIDIA RTX AI套件简化AI驱动的应用开发

    NVIDIA 于近日发布 NVIDIA RTX AI套件,这一工具和 SDK 集合能够帮助 Windows 应用开发者定制、优化和部署适用于 Windows 应用的
    的头像 发表于 09-06 14:45 ?933次阅读

    借助NVIDIA NIM加速AI应用部署

    大语言模型(LLM)在企业组织中的应用日益广泛,许多企业都将其整合到 AI 应用中。虽然从基础模型着手十分高效,但需要花费一定的精力才能将它们整合到生产就绪型环境中。
    的头像 发表于 08-23 16:38 ?795次阅读
    借助<b class='flag-5'>NVIDIA</b> NIM加速<b class='flag-5'>AI</b>应用<b class='flag-5'>部署</b>