0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU及由其驱动的深度学习技术推动智能医疗的无限接近

NVIDIA英伟达企业解决方案 ? 2017-12-09 11:51 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

几个世纪以来,医生都试图借助更好的医疗工具来深入检查病人的身体状况,让他们远离病痛的折磨。CT扫描、3D超声和MRI(磁共振成像)等诊断成像技术在医学上的运用已经帮助挽救了数百万人的生命。如今,GPU及由其驱动的深度学习技术正在为智能医学仪器打开一扇全新的大门。

智能医学仪器其实都是可运行复杂数学运算的计算机,将传感器捕捉的信号转化为2D和3D图像以供医生读取。医生们除了要求这些仪器能够安全、简便地运行,还希望能够提高生成图像的分辨率和保真度。

基于Volta架构的GPU加快信号和算法的处理速度

如今,医生们的诉求成为了可能。凭借大规模并行计算能力,NVIDIA基于Volta架构的GPU能够高速处理信号和成像算法。

在深度学习神经网络处理方面,借助全新的NVIDIA Volta GPU,嵌入式人工智能计算机可以每秒进行320万亿次操作,并且运行功耗不超过500瓦。这相当于使用原来1/60的功耗实现60个CPU服务器节点的性能。

深度学习、NVIDIA GPU计算和医学成像的结合开启了智能医疗仪器的新时代。通过使用NVIDIA GPU,众多诊断成像领域的先驱已经在医学成像领域的各个主要环节取得了令人惊艳的成果。

全新的图像重建深度学习框架

图像重建是将数据采集阶段获取的信号转化为图像的过程。

在过去十年间,人类在信号处理算法方面取得多项进展,不仅提高了重建CT图像的质量,还将 X 光的用量减少了将近 80%。GE Healthcare全新推出的Revolution Frontier CT就在使用NVIDIA GPU来进行超级计算,用以处理复杂的重建算法。

来自麻省总医院、A.A.Martinos生物医学成像中心和哈佛大学的研究人员开发了一种全新的名为“AUTOMAP”的图像重建深度学习框架。

传统的图像重建需要使用离散变换和各种过滤算法,并在实施时使用手动信号处理。而AUTOMAP则使用统一的图像重建框架取代了这种方法,无需任何专业知识就可以学习传感器与图像域之间的重建关系。

左边为传统图像重建,右边为AUTOMAP新型框架。

除了重建外,医学成像的图像处理阶段还包括检查、分类和分割。

用于3D分割的立体卷积神经网络

慕尼黑工业大学、慕尼黑大学和约翰·霍普金斯大学的研究人员开发了一种名为“V-net”的立体卷积神经网络,可执行前列腺MRI数据的3D分割。在此过程中,系统会对需要注意的器官进行划分,对3D图像中器官的每个体素进行分类并分配相同的标签

通过执行立体分割以处理3D数据的完全卷积神经网络示意图。

V-net在描绘前列腺状况的MRI图像体上接受端到端的训练,学习一次便可预测整体的分割。V-net 分割图像中会存在数百万个3D体素,训练其中每一个体素都需要大量的计算,因此这个团队使用了NVIDIA GPU。

如今,医生们无需尝试分析多张2D图像,仅使用立体渲染即可生成全方位3D图像。通过功能强大的NVIDIA GPU,医生可以从不同角度控制并查看图像,以更好地了解解剖结构的空间关系。

使用电影渲染实现解剖结构可视化

在约翰·霍普金斯大学,Elliot Fishman博士和Siemens的研究人员开发了一种名为“电影渲染”的新方法,使用基于物理性质的光扩散模拟,以生成逼真的人体图像。电影渲染受到了电脑动画电影中使用的计算机绘图和GPU技术的启发,使用全局照明,通过数千条直接和间接光线制作出一张逼真的图像。

电影渲染可以生成逼真的图像,这些图像有可能更准确地描绘解剖细节和复杂的解剖结构。“电影渲染:原理、应用和在CT中的观察结果”,

通过这些令人惊艳的图像,放射科医生可以识别出细微的纹理变化和周围解剖结构的空间关系。另外,Fishman博士和霍普金斯的团队正在研究深度学习算法是否可以从电影渲染的图像保真度中获益。

实现新一轮的成果突破

NVIDIA GPU计算和深度学习将带来新一轮的成果突破,提高图像保真度、降低放射量并进一步实现微型化。

通过NVIDIA GPU,未来的医学成像系统将成为小型人工智能超级计算机。它能够赋予医生超人般的透视能力,让医生即时查找和重点关注需要注意的解剖区域。

早期检测往往是治愈疾病的关键,而这些智能医学仪器正在不断增强早期检测的成效,拯救越来越多人的生命。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 智能医疗
    +关注

    关注

    27

    文章

    1389

    浏览量

    75187
  • 深度学习
    +关注

    关注

    73

    文章

    5569

    浏览量

    123087

原文标题:由GPU驱动的深度学习技术正在为智能医学仪器敞开大门

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    让老旧医疗设备“听懂”新语言:CAN转EtherCAT的医疗行业应用

    100Mbps),并启用DC同步功能,将延迟压缩至0.5ms以内。 最终,设备实现了探头运动指令与图像采集的实时联动,定位精度提升30%,同时保留了原有CAN设备的投资价值。 总结:技术赋能医疗智能化 耐达
    发表于 07-18 15:27

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    DeepSeek-R1:强大的AI推理引擎底座DeepSeek是杭州深度求索人工智能基础技术研究有限公司开发的新一代AI大模型。核心优势
    发表于 07-16 15:29

    无限穿墙技术西安品茶工作室南郊北郊教学简约网络延迟

    积极参与的课堂互动,因延迟而大打折扣,这些都严重影响了教学质量。就是要为南郊和北郊的教学,打破网络延迟这道“墙”。 采用的技术独具特色。自主研发的网络优化算法,能够智能识别网络拥堵节点,并迅速做出
    发表于 07-05 16:21

    ARM Mali GPU 深度解读

    ARM Mali GPU 深度解读 ARM Mali 是 Arm 公司面向移动设备、嵌入式系统和基础设施市场设计的图形处理器(GPU)IP 核,凭借异构计算架构、能效优化和生态协同,
    的头像 发表于 05-29 10:12 ?1518次阅读

    军事应用中深度学习的挑战与机遇

    ,并广泛介绍了深度学习在两个主要军事应用领域的应用:情报行动和自主平台。最后,讨论了相关的威胁、机遇、技术和实际困难。主要发现是,人工智能技术并非无所不能,需要谨慎应用,同时考虑到
    的头像 发表于 02-14 11:15 ?596次阅读

    深度学习工作负载中GPU与LPU的主要差异

    当前,生成式AI模型的参数规模已跃升至数十亿乃至数万亿之巨,远远超出了传统CPU的处理范畴。在此背景下,GPU凭借出色的并行处理能力,已成为人工智能加速领域的中流砥柱。然而,就在GPU
    的头像 发表于 12-09 11:01 ?3527次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>工作负载中<b class='flag-5'>GPU</b>与LPU的主要差异

    GPU深度学习中的应用 GPUs在图形设计中的作用

    随着人工智能技术的飞速发展,深度学习作为核心部分,已经成为推动技术进步的重要力量。
    的头像 发表于 11-19 10:55 ?1738次阅读

    NPU在深度学习中的应用

    随着人工智能技术的飞速发展,深度学习作为核心驱动力之一,已经在众多领域展现出了巨大的潜力和价值。NPU(Neural Processing
    的头像 发表于 11-14 15:17 ?2166次阅读

    GPU市场趋势与未来发展

    随着科技的飞速发展,图形处理单元(GPU)已经成为现代计算领域不可或缺的一部分。从游戏到专业图形设计,再到人工智能深度学习GPU在各个领
    的头像 发表于 10-27 14:14 ?1549次阅读

    常见GPU问题及解决方法

    GPU(图形处理单元)是计算机硬件的重要组成部分,负责处理图形和视频渲染任务。随着技术的发展,GPU深度学习、游戏、视频编辑等领域扮演着越
    的头像 发表于 10-27 14:12 ?4045次阅读

    GPU深度学习应用案例

    GPU深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 ?1603次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 ?678次阅读

    《AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    人工智能在科学研究中的核心技术,包括机器学习深度学习、神经网络等。这些技术构成了AI for
    发表于 10-14 09:16

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    ,无疑为读者铺设了一条探索人工智能(AI)如何深刻影响并推动科学创新的道路。在阅读这一章后,我深刻感受到了人工智能技术在科学领域的广泛应用潜力以及其带来的革命性变化,以下是我个人的学习
    发表于 10-14 09:12

    FPGA做深度学习能走多远?

    、高效的开发工具和编程模型,降低 FPGA 的开发门槛,吸引更多的开发者参与到 FPGA 在深度学习中的应用开发中来,进一步推动发展。 ? 挑战方面: ? 编程复杂性:FPGA 的编
    发表于 09-27 20:53