0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU之间是怎么通信互联的呢?

SDNLAB ? 来源:了不起的云计算 ? 2023-11-10 16:49 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

今天想跟大家一起学习下GPU之间是怎么通信互联的

自从GPU出现后,计算机爱好者和发烧友们就一直寻找新的方法来进一步提高系统GPU性能。

在单个GPU性能有限的情况下,将两个或多个GPU连接起来这种在当时看起来非常荒谬的想法竟然渐渐成为提升系统GPU性能的主流方法。

特别是随着游戏、图形应用的发展,以及AI、HPC等新兴应用的助推,多个GPU之间的互联技术得到了快速迭代和发展,如今的GPU互联已经成为系统内非常常见的一种技术。今天我们就来聊聊这些GPU互联的那些技术。

第一个连接多个GPU解决方案:SLI

SLI,全称为 " 可扩展的链接接口 "( Scalable Link Interface),最早是由 3DFx Interactive 开发。

然而,3DFx Interactive这家公司在2000年破产,NVIDIA公司收购了这家公司并获得了多GPU技术的权利。

于是,在2004年,NVIDIA首次推出了SLI技术版本,同时发布了GeForce 6800 Ultra GPU。该技术允许两个GeForce 6800 Ultra GPU一起工作,以增强游戏时的图形性能**。**因此,SLI技术迅速在游戏玩家和爱好者中流行起来。

SLI采用主从配置方式在系统中实现使用多个GPU,这种配置的重点是使用一个GPU作为主车,其他GPU作为从卡,SLI能够同时连接4个GPU。

**SLI是第一个连接多个GPU的解决方案。**但是与所有技术一样,SLI也有各种优点和局限性。SLI配置必须选择相同型号的兼容GPU。同时还需要分配一个单独的PSU来满足多个GPU的协调要求,导致GPU之间的通信延迟较高,且GPU之间的数据共享缺乏灵活性。

另外,NVIDIA大约在两年前停止了对该技术的支持,为开发NVLink等新技术让路。

SLI与CrossFire:多GPU解决方案之争

虽然NVIDIA的SLI走在了多GPU互联的前面,但也并非没有竞争。

作为NVIDIA GPU市场上多年的老对手,AMD也推出了CrossFire这个技术来参与竞争。

与SLI技术类似,使用CrossFire技术时,用户可选择使用两个或更多显卡进行渲染,从而增加帧数和提高游戏运行效率。

CrossFire技术的一大优点是用户可以使用不同型号的AMD显卡,从而节省成本。

然而,CrossFire也有其自身的优势和挑战,CrossFire经常因其软件堆栈而受到批评,一些用户发现该软件堆栈不如NVIDIA SLI可靠且配置更复杂。

尽管存在这些差异,但这两种技术都致力于实现相同的目标:增强游戏和消费者图形体验。它们在处理更高级、数据密集型任务方面的局限性最终将为 NVLink等下一代解决方案铺平道路。

随着2010年代的到来,计算领域开始发生巨大变化。人工智能 (AI)、高性能计算(HPC)和大数据分析的兴起需要更强大的多GPU解决方案。很明显,最初设计时考虑到游戏和消费者工作负载的SLI不足以满足这些计算密集型任务。NVIDIA需要一个新的GPU互联技术。

双GPU卡:多GPU计算的独特存在

虽然SLI和CrossFire等技术专注于连接多个独立GPU,但还有另一种不太常见或者可以说是奇葩的多 GPU配置方法:双GPU卡。

这些专用显卡在单个PCB(印刷电路板)上安装了两个GPU核心,有效地充当单张卡上的SLI或CrossFire 设置。NVIDIA GeForce GTX 690和AMD Radeon HD 6990等卡是这种方法的流行示例。

双GPU卡具有多种优势, 他们通过将两个GPU压缩到一个卡槽中来节省空间,这使得它们对小型PC很有吸引力。同时他们还无需将单独的卡与外部连接器连接起来,从而简化了设置。

然而,这些双GPU卡散热是一个重大问题,可以说每一个卡都是一个**"小火炉"****。**通常这种配置方式需要先进的冷却解决方案。同时功耗也很高,需要强大的电源来提供稳定的电流

双GPU卡的方式看起来是一种"两全其美"的解决方案,将多GPU设置的原始功能与单卡的简单性结合在一起。然而,由于其高成本和相关的技术挑战,双GPU卡经常被视为鸡肋产品。

随着NVLink等多GPU技术不断发展以提供更高的带宽和更低的延迟,对双 GPU卡的需求已经减少。尽管如此,它仍然是GPU发展史上一个独特的存在。

****** NVLink 的诞生******

NVLink是2017年随NVIDIA Volta架构推出的技术。这项技术不仅仅是SLI技术的升级,而且是对GPU如何互连的根本性重新思考

NVLink提供了更高的带宽(最新版本高达900 GB/s)、更低的延迟以及允许GPU之间更复杂和大量互连的网状拓扑。此外,NVLink引入了统一内存的概念,支持连接的 GPU 之间的内存池,这对于需要大型数据集的任务来说是一个至关重要的功能。

SLI与NVLink有何区别?

乍一看,人们可能会认为NVLink是SLI的简单升级,但这过于武断了。虽然这两种技术都旨在连接多个GPU,但NVLink的设计考虑了不同的受众。它专为科学研究、数据分析,尤其是人工智能和机器学习应用而设计。更高的带宽、更低的延迟和统一的内存使NVLink成为应对当今计算挑战的更加灵活和强大的解决方案。

虽然NVLink和SLI两者均由Nvidia开发,但存在一些差异。S****LI按照主从关系原理运行,而NVLink通过网状网络运行。结果,SLI中形成了NVLink中不存在的数据瓶颈。

采用网状网络开发的并行连接可增强GPU的性能。因此,多个GPU作为一个单元,有助于提供增强的处理能力。连接的GPU拥有自己的内存,从而增加了系统的总可用内存。NVLink桥还支持20至30 GB/s 的带宽,为4个GPU 的设置提供超过100GB/s 的速度。

网状网络消除 GPU之间的层级关系。计算数据因此连接到每个GPU的节点,从而提高了整体渲染速度。因此,150至200GB/s的带宽也可以实现。与SLI 相比,NVLink的延迟非常低。

****** NVLink的技术原理******

NVLink代表了多GPU互联技术的逻辑演变,不仅在速度方面,而且在架构设计方面。NVLink的结构由可以双向传输数据的高速数据通道组成。与传统的基于总线的系统不同,NVLink采用点对点连接,有效减少瓶颈并提高数据吞吐量。最新的迭代提供高达900GB/s的带宽,比SLI的功能有了显著增强。

NVLink与众不同的关键功能之一是它支持网状拓扑的能力。与旧技术的菊花链或中心辐射型拓扑相比,网格设置允许GPU之间实现更通用且数量更多的连接。这在数据中心和高性能计算应用程序中特别有用,在这些应用程序中,复杂的数据路由是常态。

统一内存是NVLink的另一个特点。这允许GPU共享公共内存池,从而实现更高效的数据共享并减少在GPU之间复制数据的需要。这对于机器学习和大数据分析等应用程序来说是一个巨大的推动,在这些应用程序中,大型数据集通常超过单个GPU的内存容量。

NVLink还改善了延迟,这是任何高性能计算设置中的一个关键因素。较低的延迟可确保GPU之间更快的数据传输和同步,从而实现更高效的并行计算。这是通过NVLink的直接内存访问 (DMA) 功能实现的,允许GPU直接读写彼此的内存,而不需要CPU的参与。

NVlink的影响

鉴于人工智能在现代计算中的重要性日益增加,NVLink的优势不仅是渐进式的,而且是变革性的。在AI模型训练和数据创建中,NVLink可实现GPU之间更快的数据传输,从而实现更高效的并行处理。这在处理大型训练数据集时尤其有用,这是一个与人工智能模型训练数据创建的新兴领域密切相关的主题。

随着量子模拟、实时分析和下一代人工智能算法等先进计算的需求不断增长,我们可以期待NVLink的功能进一步增强。无论是带宽的增加还是促进GPU之间更好合作的新功能,NVLink或其后继者无疑仍将是满足未来计算需求的核心。

从SLI到NVLink的过渡是多GPU技术的一个重要里程碑,它反映了NVIDIA 对创新的承诺以及对不断变化的计算环境的敏锐理解。从游戏到人工智能,从消费应用程序到数据中心,NVLink和SLI的发展历程说明了需求对孕育创新、推动技术发展的重要价值。







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5363

    浏览量

    106926
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4985

    浏览量

    132233
  • HPC
    HPC
    +关注

    关注

    0

    文章

    333

    浏览量

    24445
  • PSU
    PSU
    +关注

    关注

    0

    文章

    48

    浏览量

    12215

原文标题:一文读懂:多卡GPU是如何互联通信的?

文章出处:【微信号:SDNLAB,微信公众号:SDNLAB】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    aicube的n卡gpu索引该如何添加?

    请问有人知道aicube怎样才能读取n卡的gpu索引,我已经安装了cuda和cudnn,在全局的py里添加了torch,能够调用gpu,当还是只能看到默认的gpu0,显示不了
    发表于 07-25 08:18

    华为助力算力互联网跨域算间无损互联

    近日,NIDA发布的《工信部首提数据通信产业,赋能算力互联网新征程》一文引发广泛关注。文章解读工信部最新发布的《算力互联互通行动计划》,清晰地揭示了数据通信产业与算力
    的头像 发表于 06-14 11:17 ?631次阅读

    如何破解GPU集群集合通信路径的“黑盒”难题?

    集合通信库(如NCCL、HCCL)的运行细节用户完全无感知,形成“黑盒”状态。EPS通过实时解析集合通信库的底层运行状态,将隐蔽的通信路径、GPU与网卡状态等信息可视化,并提供智能路由
    的头像 发表于 05-22 10:13 ?432次阅读
    如何破解<b class='flag-5'>GPU</b>集群集合<b class='flag-5'>通信</b>路径的“黑盒”难题?

    奇异摩尔以互联之长推进OISA GPU卡间互联生态适配

    进行了精彩的主题分享。 作为AI网络特别组及网络工作组的成员,奇异摩尔积极参与大会,与业界同仁共同探讨AI网络互联应用的发展趋势。 当前,国内外GPU卡间互联技术正呈现出多样化的繁荣景象,不同标准、协议及产业链生态迅速发展,
    的头像 发表于 04-01 19:35 ?1187次阅读
    奇异摩尔以<b class='flag-5'>互联</b>之长推进OISA <b class='flag-5'>GPU</b>卡间<b class='flag-5'>互联</b>生态适配

    高性能GPU服务器推荐

    面对市场上种类繁多的GPU服务器,如何选择一款适合自身需求的设备?接下来,AI部落小编为您推荐。
    的头像 发表于 03-20 10:14 ?576次阅读

    OpenVINO?检测到GPU,但网络无法加载到GPU插件,为什么?

    OpenVINO?安装在旧的 Windows 10 版本 Windows? 10 (RS1) 上。 已安装 GPU 驱动程序版本 25.20.100.6373,检测到 GPU,但网络无法加载
    发表于 03-05 06:01

    GPU云计算服务怎么样

    在当今数字化快速发展的时代,高性能计算需求日益增长。为满足这些需求,GPU云计算服务应运而生。那么,GPU云计算服务怎么样?接下来,AI部落小编带您了解。
    的头像 发表于 02-05 15:01 ?549次阅读

    将两片TLK3101之间用光收发模块通过光纤互联,TLK3101和光收发模块之间的接口匹配不存在问题,为什么?

    我们将两片 TLK 3101之间用光收发模块通过光纤互联,TLK 3101和光收发模块之间的接口匹配不存在问题,光功率都在正常的范围之内 ,但在实验室测试中经常出现TLK 3101帧同步丢失
    发表于 02-05 07:22

    设备之间互联互通解决方案

    实现物联网的广泛应用,需要解决设备之间互联互通问题。由于不同的设备和传感器使用不同的通信协议和接口,因此需要一个中间设备来实现不同设备之间通信
    的头像 发表于 01-24 16:31 ?1087次阅读
    设备<b class='flag-5'>之间</b>的<b class='flag-5'>互联</b>互通解决方案

    高速ADC、DAC与处理器之间是怎么通信

    一般低速的ADC、DAC通过串行通信接口,比如SPI与处理器/DSP通信,但高速ADC、DAC与处理器之间是怎么通信
    发表于 01-10 08:30

    DAC7568与C8051F040之间的串行通信接口可否用GPIO代替?

    DAC7568芯片与C8051之间的接线如图:但是由于MCU采用的是C8051F040芯片,其只有两组“TX RX”串行通信接口,均用于他用了,那么与DAC7568通讯的“TX RX”是否可采用普通I/O?若采用普通I/O
    发表于 01-07 07:51

    GPU加速云服务器怎么用的

    GPU加速云服务器是将GPU硬件与云计算服务相结合,通过云服务提供商的平台,用户可以根据需求灵活租用带有GPU资源的虚拟机实例。那么,GPU加速云服务器怎么用的
    的头像 发表于 12-26 11:58 ?550次阅读

    常见GPU问题及解决方法

    各种问题。以下是一些常见的GPU问题及其解决方法: GPU驱动程序过时或不兼容 问题描述:GPU驱动程序是GPU与操作系统之间的桥梁,负责将
    的头像 发表于 10-27 14:12 ?4170次阅读

    DS1302芯片与FPGA之间SPI通信原理

    本文通过以DS1302芯片为基础,介绍该芯片与FPGA之间SPI通信原理,详细描述硬件设计原理及FPGA SPI接口驱动设计。
    的头像 发表于 10-24 14:16 ?1734次阅读
    DS1302芯片与FPGA<b class='flag-5'>之间</b>SPI<b class='flag-5'>通信</b>原理

    GPU算力租用平台是什么

    GPU算力租用平台是一种基于云计算的服务模式,它允许用户通过互联网按需租用高性能GPU资源,而无需自行购买、部署和维护这些硬件。
    的头像 发表于 10-16 10:15 ?791次阅读