0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA A100加速医学图像处理深度学习研究

星星科技指导员 ? 来源:NVIDIA ? 作者:NVIDIA ? 2022-05-20 15:13 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

案例简介

? 本案例中通过 NVIDIA A100 GPU 加速器,上海市磁共振重点实验室构建了高效的深度学习科研硬件平台,建立高效且稳定的针对医学图像处理的深度学习平台。

? 本案例中 NVIDIA 精英级合作伙伴信弘智能助力上海市磁共振重点实验室部署了高效的科研硬件平台。

客户简介及应用背景

上海市磁共振重点实验室(Shanghai Key Laboratory of Magnetic Resonance)是从属于华东师范大学的省部级重点实验室, 是国内核磁共振研究和人才培养的主要基地之一。多年来,坚持自己在磁振物理学上的专业特色,逐渐形成了应用研究与技术研发并重,磁共振波谱与磁共振成像兼顾的局面,并先后建立了“上海市磁共振成像技术平台”和“上海市核磁共振波谱技术服务平台”两个开放平台,进一步强化了实验室的开放服务功能。

目前该实验室已与上海市范围内十几家重点医院展开科研合作,对高效的大数据的医学图像处理有着急切的需求。此次借助 NVIDIA A100 GPU 和自身庞大的计算能力,构建出了高效稳定的科研硬件平台,用于医学图像的各种后处理任务,深度学习相关任务。

客户挑战

不同于二维自然图像,医学图像往往单个数据数据量较大,对于网络传输带宽及 GPU 显存都提出了新的挑战。并且由于科研课题较大、研究内容跨度较大和研究人员较多等因素。深度学习的硬件平台效率成为了科研工作效率的瓶颈。如何在有限的预算内完成深度学习平台的构建成为了新的挑战。

跨节点使用性能不高,需要优化网络环境,目前实验室仅使用了一根 1GB 带宽网线连接公用存储服务器,在大型训练任务中数据传输速度低成为深度学习任务的瓶颈。

应用方案

基于以上挑战,作为解决方案的第一步,上海市磁共振重点实验室使用了 NVIDIA A100 GPU 加速器,将深度学习训练、推理和分析整合至一个易于部署的统一 AI 基础架构中,通过大显存方法减少IO速度带来的影响。

目前,实验室包括 A100 计算服务器总计拥有 7 个计算服务器(计算节点),每台服务器拥有 4 块 NVIDIA GPU 加速器用于深度学习,每台服务器共享同一个存储服务器。所有用户通过 Active Directory 账户共享计算及存储服务器。

并且为了进一步整合当前实验室中 NVIDIA GPU 服务器资源,实验室开发了面向临床及科研的医学图像 AI 开发开源平台“Strix”。该平台基于 NVIDIA 团队的 MONAI 医学图像 AI 处理库开发。整合了医学图像 AI 开发中涉及的数据准备,数据预处理,多种任务框架,结果可视化等步骤。让医学图像 AI 开发可以更为简单易于上手。针对不同架构的 GPU, Strix 也做了针对性的优化。例如 A100 GPU 的 MIG 虚拟 GPU 技术,我们提供了虚拟 GPU 交互式选择,实现让用户更轻松的选择目标 GPU 进行训练。

使用效果

通过NVIDIA A100 GPU的MIG技术,在小团队的工作环境中有较高的自由度,在计算资源较为紧缺的情况下,可以增加可用用户数。在显存资源较为紧缺的情况下,可以减少用户数增加单个显存容量。

更大的显存可以运行需要更大显存的深度学习任务,让许多从前无法实现的科研课题在新的GPU上成为可能。同时最新的Ampere架构支持了半精度运算,搭配 NVIDIA的自动混合精度(Automatic Mixed Precision ) 技术,在节省运行显存开销的同时,加速神经网络训练速度。带来了更快的网络训练及推理效率。

上海市磁共振重点实验室表示,“作为以医学图像处理为重点的课题组,通过与 NVIDIA 的紧密合作,我们将更高效地利用前沿AI技术及医学图像技术,解决医疗行业的高价值问题,专注在更智能更高效更安全的未来医疗的新技术。”

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5353

    浏览量

    106868
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4981

    浏览量

    132161
  • 服务器
    +关注

    关注

    13

    文章

    9867

    浏览量

    88450
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NVIDIA RTX AI加速FLUX.1 Kontext现已开放下载

    NVIDIA RTX 与 NVIDIA TensorRT 现已加速 Black Forest Labs 的最新图像生成和编辑模型;此外,Gemma 3n 现可借助 RTX 和
    的头像 发表于 07-16 09:16 ?671次阅读

    NVIDIA Isaac Sim与NVIDIA Isaac Lab的更新

    在 COMPUTEX 2025 上,NVIDIA 宣布了机器人仿真参考应用 NVIDIA Isaac Sim 和机器人学习框架 NVIDIA Isaac Lab 的更新,以
    的头像 发表于 05-28 10:06 ?743次阅读

    NVIDIA NVLink 深度解析

    引言 NVIDIA NVLink 是一种关键的高速互连技术,专为加速计算而设计,尤其是在多 GPU 系统以及 GPU 和支持 CPU 之间 ^1^。NVLink 的出现标志着传统互连瓶颈的突破,凸显
    的头像 发表于 05-06 18:14 ?2113次阅读

    Oracle 与 NVIDIA 合作助力企业加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速计算和推理软件与 Oracle 的 AI 基础设施以及生成式 AI 服务首次实现集成,以帮助全球企业组织加速创建代理式
    发表于 03-19 15:24 ?396次阅读
    Oracle 与 <b class='flag-5'>NVIDIA</b> 合作助力企业<b class='flag-5'>加速</b>代理式 AI 推理

    NVIDIA使用加速计算与AI推动精准医学发展

    在加利福尼亚州圣克拉拉举行的精准医学世界大会上,NVIDIA 因推动了医学成像、基因组学、计算化学和 AI 驱动机器人技术的发展而受到表彰。NVIDIA 创始人兼首席执行官黄仁勋荣获“
    的头像 发表于 02-17 17:14 ?592次阅读

    英伟达A100和H100比较

    英伟达A100和H100都是针对高性能计算和人工智能任务设计的GPU,但在性能和特性上存在显著差异。以下是对这两款GPU的比较: 1. 架构与核心规格: A100: 架构: 基于Ampere架构
    的头像 发表于 02-10 17:05 ?5747次阅读
    英伟达<b class='flag-5'>A100</b>和H<b class='flag-5'>100</b>比较

    GPU在深度学习中的应用 GPUs在图形设计中的作用

    。 GPU的并行计算能力 GPU最初被设计用于处理图形和图像的渲染,其核心优势在于能够同时处理成千上万的像素点。这种并行处理能力使得GPU非常适合执行
    的头像 发表于 11-19 10:55 ?1753次阅读

    NPU在深度学习中的应用

    设计的硬件加速器,它在深度学习中的应用日益广泛。 1. NPU的基本概念 NPU是一种专门针对深度学习算法优化的
    的头像 发表于 11-14 15:17 ?2209次阅读

    基于深度学习的三维点云分类方法

    近年来,点云表示已成为计算机视觉领域的研究热点之一,并广泛应用于自动驾驶、虚拟现实、机器人等许多领域。虽然深度学习技术在处理常规结构化的二维网格图像
    的头像 发表于 10-29 09:43 ?1671次阅读
    基于<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的三维点云分类方法

    Pytorch深度学习训练的方法

    掌握这 17 种方法,用最省力的方式,加速你的 Pytorch 深度学习训练。
    的头像 发表于 10-28 14:05 ?746次阅读
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>学习</b>训练的方法

    GPU深度学习应用案例

    能力,可以显著提高图像识别模型的训练速度和准确性。例如,在人脸识别、自动驾驶等领域,GPU被广泛应用于加速深度学习模型的训练和推理过程。 二、自然语言
    的头像 发表于 10-27 11:13 ?1623次阅读

    激光雷达技术的基于深度学习的进步

    信息。这使得激光雷达在自动驾驶、无人机、机器人等领域具有广泛的应用前景。 二、深度学习技术的发展 深度学习是机器学习的一个分支,它通过模拟人
    的头像 发表于 10-27 10:57 ?1176次阅读

    FPGA加速深度学习模型的案例

    FPGA(现场可编程门阵列)加速深度学习模型是当前硬件加速领域的一个热门研究方向。以下是一些FPGA加速
    的头像 发表于 10-25 09:22 ?1364次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借其强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 ?693次阅读

    FPGA做深度学习能走多远?

    并行计算的能力,可以在硬件层面并行处理大量数据。这种并行处理能力使得 FPGA 在执行深度学习算法时速度远超传统处理器,能够提供更低的延迟和
    发表于 09-27 20:53