0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

利用AI与数据中心规模的加速计算相结合的强大指数级算力

NVIDIA英伟达 ? 来源:NVIDIA英伟达 ? 作者:NVIDIA英伟达 ? 2021-11-15 14:14 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

科学界和工业界正开始利用 AI 与数据中心规模的加速计算相结合的强大指数级算力

研究人员正在寻找能使他们的工作所需计算性能提升百万倍的“燃料”。

不断增长的数据导致计算需求飞涨。面对此情况,他们无法完全依靠已是明日黄花的摩尔定律。

因此,他们利用三大“推进器”,获取所需的指数级加速。

纵向加速和横向扩展

加速计算是科技的三大现代驱动力之一。在过去的十年中,借助五代 GPU 的进步以及我们在这些 GPU 之上构建的完整软件栈,加速计算已实现了 1000 倍性能提升。

扩展能力是第二个驱动力,已取得近十万倍的性能提升。这是因为数据中心正在成为新的计算单元。

例如,在 2015 年,使用一个 Kepler GPU 训练 ResNet-50(热门的计算机视觉模型之一)花了将近一个月的时间。今天,我们在 Selene 上训练同样的模型只用了不到半分钟的时间。Selene 是世界上性能超强的工业超级计算机,其包含数千个 NVIDIA Ampere 架构 GPU。

我们开发了许多关键技术来实现这种扩展,例如 Megatron 软件、用于多 GPU 和多节点处理的 Magnum IO,以及用于网络计算的 SHARP。

开启深度学习的新时代

当今时代的第三个,也是最具变革性的驱动力是 AI。

去年,深度学习在一毫秒的时间尺度内对 3.05 亿个原子进行了模拟,揭示了新冠病毒 SARS-CoV-2 的内部结构。这项工作标志着与 15 年前在 20 秒内对 100 万个原子进行模拟的最先进技术相比,其效能增加了 1000 万倍以上。

这就是 AI 和高性能计算的结合正在席卷科学界的原因。研究人员去年在 arXiv 上发表了近 5000 篇关于利用 AI+HPC 进行工作的论文,而五年前此类论文还不到 100 篇。

最近的一篇论文来自 NVIDIA 的研究人员。它展示了一种将神经网络与经典物理方程式相结合的方法,可令传统模拟获得 1000 倍的速度提升。

加快药物研发

如今,加速计算、大规模扩展和 AI 的结合正在推动科学和工业计算的发展。

在疾病治疗领域,加速药物研发是一切工作的重中之重。这项工作颇具挑战,开发者需要解码 3D 蛋白质结构,了解其工作原理,然后发现能够阻止它们感染健康细胞的化合物。

使用 X 射线和电子显微镜的传统方法只解码了大约 25000 种人类蛋白质中的 17%。DeepMind 去年在其 AlphaFold 系统中使用了一套 AI 模型,实现了重大飞跃,预测了超过 20000 种人类蛋白质的 3D 结构。

无独有偶,NVIDIA 和美国加州理工学院的研究人员将机器学习和物理相结合,创造了 OrbNet,可加速多个数量级的分子模拟。初创公司 Entos 利用 OrbNet,令其蛋白质和候选药物之间的化学反应模拟速度提高了 1000 倍,在三个小时内就完成了原本需要超过三个月时间的工作量。

了解气候变化

类似情况在其他领域也屡屡发生。科学家希望尽快以千米级分辨率模拟全球气候,以帮助我们适应不断变化的天气模式,更好地为灾难做好准备。

但是,为了准确追踪云层和风暴的运动模式,科学家需要在一米的分辨率级别进行研究。这需要高达 1000 亿倍的计算能力。

按照摩尔定律,我们要到 2060 年才能获得这个能力。因此,寻求百万倍性能飞跃的科学家正在通过大规模加速计算和 AI 来构建我们星球的数字孪生。

多行业已应用数字孪生

研究人员已经在利用这些技术来构建工厂和城市的数字孪生。

例如,西门子能源公司使用在云中数十个 GPU 上运行的 NVIDIA Modulus AI 框架,模拟了整个发电厂。它可以预测蒸汽的腐蚀性影响造成的机械故障,减少宕机时间,节约成本并持续运作。

这种模拟技术可打造更高效的农场、医院,以及帮助任何行业转型。这就是我们开发 Modulus 原因:使创建 AI 驱动、物理级准确的模拟变得简单。

这是在当今新计算引擎的助力下,我们打造出的又一个工具,可实现下一个百万倍的飞跃。

数据中心规模的 AI 加速计算将带来百万倍的性能提升,从而解决诸如了解气候变化、研发药物和推动工业转型等问题。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    7270

    浏览量

    92494
  • NVIDIA
    +关注

    关注

    14

    文章

    5363

    浏览量

    106933
  • AI
    AI
    +关注

    关注

    88

    文章

    35926

    浏览量

    283224

原文标题:GTC21 | 百万级因子:令计算能力实现Million-X 百万倍飞跃的三大驱动力

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    睿海光电以高效交付与广泛兼容助力AI数据中心800G光模块升级

    引领AI时代网络变革:睿海光电的核心竞争AI时代,数据中心正经历从传统架构向AI工厂与AI
    发表于 08-13 19:01

    加速AI未来,睿海光电800G OSFP光模块重构数据中心互联标准

    在人工智能需求呈指数增长的2025年,数据传输效率已成为制约AI发展的关键瓶颈。作为全球
    发表于 08-13 16:38

    PCIe协议分析仪在数据中心中有何作用?

    数据中心的整体可靠性。以下是其核心作用及具体应用场景的详细分析:一、性能优化:突破带宽瓶颈,提升计算效率 链路带宽利用率分析 场景:在AI训练集群中,GPU通过PCIe与CPU交换
    发表于 07-29 15:02

    即国力,比克电池如何为AI时代“蓄能

    引擎》中明确提出,“是数字经济时代的新质生产,更是国家竞争的重要指标。”随着AI大模型训练
    的头像 发表于 06-04 14:22 ?596次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>即国力,比克电池如何为<b class='flag-5'>AI</b>时代“蓄能

    芯片的生态突围与革命

    电子发烧友网报道(文 / 李弯弯)大芯片,即具备强大计算能力的集成电路芯片,主要应用于高性能计算(HPC)、人工智能(AI)、
    的头像 发表于 04-13 00:02 ?1923次阅读

    适用于数据中心AI时代的800G网络

    和性能隔离能力,以保障不同用户任务互不干扰。 分布式AI计算与网络架构设计 分布式计算已成为AI训练的主流方式,通过将工作负载分配到多个GPU节点并行处理,以
    发表于 03-25 17:35

    DeepSeek推动AI需求:800G光模块的关键作用

    数据传输速率,减少带宽瓶颈,成为数据中心AI集群架构优化的重点。光模块速率的跃升不仅提升了传输效率,也为大规模并行计算任务提供了必要的带宽
    发表于 03-25 12:00

    施耐德电气如何助力数据中心行业平衡能耗与

    随着AI大模型井喷式快速发展,数据中心行业正处于通用向智能的革新期。高功率密度需求、高散
    的头像 发表于 03-24 11:29 ?523次阅读

    千亿规模AI数据中心,电感如何提高电源效率?

    市场规模为1251亿美元,2025年将增至1587亿美元,2028年有望达到2227亿美元。其中,生成式人工智能服务器占比将从2025年的29.6%提升至2028年的37.7%。 ? 在数据中心规模增长的同时,也面临着能源问题。
    的头像 发表于 03-15 00:53 ?1692次阅读

    信而泰CCL仿真:解锁AI极限,智中心网络性能跃升之道

    中心RoCE网络提供精准评估方案,助力企业突破瓶颈,释放AI澎湃动力! 什么是智中心
    的头像 发表于 02-24 17:34 ?550次阅读
    信而泰CCL仿真:解锁<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>极限,智<b class='flag-5'>算</b><b class='flag-5'>中心</b>网络性能跃升之道

    AI需求激增,数据中心如何应对能源挑战

    ? “AI的爆发带来了巨大的需求,为了满足AI大模型的训练和应用推理,智中心的建设将
    的头像 发表于 02-22 09:49 ?690次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>需求激增,<b class='flag-5'>数据中心</b>如何应对能源挑战

    中心如何衡量?

    (ComputationalPower)是指智中心通过其内部的计算设备(如CPU、GPU、AI芯片等)对数据进行处理和
    的头像 发表于 01-16 14:03 ?2959次阅读
    <b class='flag-5'>算</b>智<b class='flag-5'>算</b><b class='flag-5'>中心</b>的<b class='flag-5'>算</b><b class='flag-5'>力</b>如何衡量?

    中心会取代通用中心吗?

    随着人工智能(AI)技术的飞速发展,计算需求不断攀升,数据中心行业正经历着前所未有的变革。传统的通用
    的头像 发表于 01-06 14:45 ?677次阅读
    智<b class='flag-5'>算</b><b class='flag-5'>中心</b>会取代通用<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>中心</b>吗?

    华迅光通AI计算加速800G光模块部署

    400G光模块。更多信息可以在这篇文章中找到:NVIDIA DGX H100简介。这表明在叶脊架构下,数据中心对高速光模块的需求呈指数增长。随着数据中心
    发表于 11-13 10:16

    AI数据中心的能源危机,需要更高效的PSU

    电子发烧友网报道(文/梁浩斌)数据中心在近年AI的浪潮中得到极大的发展,需求的膨胀带动全球数据中心建设
    的头像 发表于 11-04 02:21 ?7075次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>数据中心</b>的能源危机,需要更高效的PSU