黄仁勋在GTC大会上的第一个大招是Blackwell Ultra——NVIDIA要把AI算力打成“白菜价”;
1.1 ExaFLOPS算力:相当于1.3亿部iPhone同时运行ChatGPT;
20TB海量内存:装下整个维基百科英文版400次;
推理成本暴降:训练GPT-5的耗电量感觉是一下从“开劳斯莱斯”降到“坐地铁”。
对比数据更扎心:用Blackwell训练大模型,速度比前代快1.5倍,能耗仅为1/3。
- ?Blackwell Ultra(GB300/B300)系列芯片
- 采用液冷与硅光子技术,单芯片集成 ?288GB HBM3e 显存?,FP4 算力达 ?15 PetaFLOPS?,推理速度较前代 Hopper 架构提升 ?40 倍??。
- 推出 ?NVL72 超节点架构?,支持 72 颗 GPU 互联,面向大规模推理场景,性能较传统 8 卡服务器提升 ? 50% ?。
- 计划 2025 年第三季度量产,HBM 容量从 192GB 升级至 288GB,运算效能较 B200 提升 ? 50% ??。
NVIDIA Blackwell数据手册免费下载 涵盖了NVIDIA Blackwell数据表中的关键信息
*附件:blackwell-datasheet-3645868.pdf
NVIDIA Blackwell 架构打破生成式 AI 和加速计算的壁垒
探索 NVIDIA Blackwell 架构为生成式 AI 和加速计算带来的突破性进步。Blackwell 基于多代 NVIDIA 技术构建,以出众的性能、效率和规模揭开了生成式 AI 领域的新篇章。
新型 AI 超级芯片
Blackwell 架构 GPU 具有 2080 亿个晶体管,采用专门定制的台积电 4NP 工艺制造。所有 Blackwell 产品均采用双倍光刻极限尺寸的裸片,通过 10 TB/s 的片间互联技术连接成一块统一的 GPU。
第二代 Transformer 引擎
第二代 Transformer 引擎将定制的 Blackwell Tensor Core技术与 NVIDIA? TensorRT? -LLM 和 NeMo? 框架创新相结合,加速大语言模型 (LLM) 和专家混合模型 (MoE) 的推理和训练。
为了强效助力 MoE 模型的推理 Blackwell Tensor Core增加了新的精度 (包括新的社区定义的微缩放格式),可提供较高的准确性并轻松替换更大的精度。Blackwell Transformer 引擎利用称为微张量缩放的细粒度缩放技术,优化性能和准确性,支持 4 位浮点 (FP4) AI。这将内存可以支持的新一代模型的性能和大小翻倍,同时保持高精度。
安全 AI
Blackwell 内置 NVIDIA 机密计算技术,可通过基于硬件的强大安全性保护敏感数据和 AI 模型,使其免遭未经授权的访问。Blackwell 是业内首款具备可信执行环境 (TEE) I/O 功能的 GPU,它不仅能够与具备 TEE-I/O 功能的主机一同提供性能卓越的机密计算解决方案,还能通过 NVIDIA? NVLink? 技术提供实时保护。与未加密模式相比, Blackwell 机密计算功能供了几乎相同的吞吐量性能。现在,除了保护 AI 知识产权 (IP) 和安全地实现机密 AI 训练、推理和联邦学习,企业甚至还能以高性能的方式保护最大的模型。
NVLink、NVSwitch 和 NVLink Switch 系统
是否能释放百亿亿级计算和万亿参数 AI 模型的全部潜力取决于服务器集群中每个 GPU 之间能否快速、顺畅的通信。第五代 NVIDIA? NVLink? 可扩展至 576 个 GPU,为万亿和数万亿参数 AI 模型释放加速性能。
NVIDIA NVLink 交换机芯片可在一个有 72 个 GPU 的 NVLink 域 (NVL72) 中实现 130TB/s 的 GPU 带宽,并通过 NVIDIA SHARP? 技术对 FP8 的支持实现 4 倍于原来的带宽效率。NVIDIA NVLink 交换机芯片能以惊人的 1.8TB/s 互连速度为多服务器集群提供支持。采用 NVLink 的多服务器集群可以在计算量增加的情况下同步扩展 GPU 通信,因此 NVL72 可支持的 GPU 吞吐量是单个 8 卡 GPU 系统的 9 倍。
解压缩引擎
过去,数据分析和数据库工作流依赖 CPU 进行计算。加速数据科学可以显着提高端到端分析性能,加速价值创造,同时降低成本。Apache Spark 等数据库在接手、处理和分析大量数据等数据分析工作上发挥着关键作用。
Blackwell 拥有的解压缩引擎以及通过 900GB/s 双向带宽的高速链路访问 NVIDIA Grace? CPU 中大量内存的能力,可加速整个数据库查询工作流,从而在数据分析和数据科学方面实现更高性能。Blackwell 支持 LZ4、Snappy 和 Deflate 等最新压缩格式。
可靠性、可用性和可服务性 (RAS) 引擎
Blackwell 通过专用的可靠性、可用性和可服务性 (RAS) 引擎增加了智能恢复能力,以识别早期可能发生的潜在故障,从而更大限度地减少停机时间。NVIDIA AI 驱动的预测管理功能持续监控硬件和软件中数千个数据点的整体运行状况,以预测和拦截停机时间和低效的来源。这建立了智能可靠性技术,节省时间、能源和计算成本。
NVIDIA 的 RAS 引擎提供深入的诊断信息,可以识别关注领域并制定维护计划。RAS 引擎通过快速定位问题来源缩短周转时间,并通过促进有效的补救最大限度地减少停机时间。
NVIDIA Blackwell 数据表总结
一、概述
- ?NVIDIA Blackwell?:被誉为新工业革命的引擎,为生成式AI和加速计算带来突破性进展。通过第二代Transformer Engine和更快的NVLink?互联,数据中心性能大幅提升。
二、核心组件与性能
- ?GB200 NVL72?
- 连接36颗Grace CPU和72颗Blackwell GPU,采用NVLink连接和液冷设计,形成单一大规模GPU,实现30倍更快的实时万亿参数大语言模型(LLM)推理。
- 支持高达17TB的LPDDR5X内存和13.5TB的HBM3E内存,NVLink域提供130TB/s的低延迟GPU通信。
- ?HGX B200?
- 集成NVIDIA Blackwell GPU和高速互联,加速AI性能。
- 实现高达15倍更快的实时推理性能,12倍更低的成本和能耗。
- 配备8颗Blackwell GPU,支持高达1.4TB的HBM3E内存。
三、技术亮点
- ?第二代Transformer Engine?:支持FP4 AI,通过新一代Tensor Cores实现高精度和高吞吐量。
- ?NVLink与液冷?:GB200 NVL72利用NVLink和液冷技术创建单一72-GPU机架,克服通信瓶颈。
- ?高速内存与互联?:第五代NVLink提供1.8TB/s的GPU-to-GPU互联。
- ?能源效率?:液冷GB200 NVL72机架降低数据中心碳足迹和能耗,与H100空气冷却基础设施相比,性能提升25倍。
四、应用场景与性能数据
- ?大规模训练?
- GB200 NVL72的第二代Transformer Engine支持FP8精度,实现4倍更快的大规模LLM训练。
- 训练GPT-MoE-1.8T模型时,性能较HGX H100显著提升。
- ?数据处理?
- GB200 NVL72加速关键数据库查询,性能较CPU提升18倍,总拥有成本(TCO)降低5倍。
- ?实时推理?
- HGX B200实现GPT-MoE-1.8T模型实时推理性能较HGX H100提升15倍。
五、可持续性与安全性
- ?可持续计算?:通过采用可持续计算实践,数据中心可降低碳足迹和能耗,同时提高底线。HGX B200较Hopper一代在LLM推理性能上提高能源效率12倍,降低TCO 12倍。
- ?安全AI?:Blackwell包含NVIDIA Confidential Computing,保护敏感数据和AI模型免受未经授权的访问。
六、技术规格
- ?GB200 NVL72?:72颗Blackwell GPU,36颗Grace CPU,总FP4 Tensor Core性能达1440 PFLOPS,总内存带宽高达576TB/s。
- ?HGX B200?:8颗Blackwell GPU,总FP4 Tensor Core性能达144 PFLOPS,总内存带宽高达62TB/s。
七、附加功能
- ?解压缩引擎?:加速数据库查询的完整管道,支持最新压缩格式。
- ?RAS引擎?:提供智能弹性,通过专用可靠性、可用性和可服务性(RAS)引擎识别潜在故障。
- ?NVIDIA AI Enterprise?:提供端到端软件平台,简化AI就绪平台的构建,加速价值实现。
-
NVIDIA
+关注
关注
14文章
5324浏览量
106635 -
AI大模型
+关注
关注
0文章
378浏览量
667
发布评论请先 登录
Supermicro推出直接液冷优化的NVIDIA Blackwell解决方案

进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片
NVIDIA 推出 Blackwell 架构 DGX SuperPOD,适用于万亿参数级的生成式 AI 超级计算

评论