0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU 引领的深度学习

母猪会上树 ? 2023-01-04 11:17 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

早期的机器学习是基于搜索的,主要依赖于经过一些优化的蛮力方法。但随着机器学习的成熟,它专注于加速成熟的统计方法和优化问题。深度学习也出现了,它找到了一个不太可能的优化来源。在这里,我们将了解现代机器学习如何找到新方法来带来规模和速度。

人工智能的转变

在本系列的第 1 部分中,我们探讨了 AI 的一些历史以及从 Lisp 到现代编程语言和深度学习等计算智能新范式的旅程。我们还讨论了依赖于优化搜索形式的早期人工智能应用、在海量数据集上训练的现代神经网络架构,以及解决十年前认为不可能解决的问题。今天的重点是双重的;进一步加速这些应用程序并将它们限制在智能手机等功率优化环境中。

今天大多数加速的重点是深度学习。深度学习是一种神经网络架构,它依赖于许多层次的神经网络,其中层可以支持不同的特征检测功能。这些深度神经网络依赖于可以轻松受益于并行性的向量运算。这些架构代表了神经网络层的分布式计算以及层内许多神经元的并行计算的机会。

使用 GPU 加速机器学习

加速深度学习应用程序的不太可能的来源是图形处理单元或 GPU。GPU 是一种特殊设备,用于加速输出到显示设备的帧缓冲区(内存)的构建。GPU 卸载帧缓冲区中的图像渲染,而不是依赖处理器来执行此操作。GPU 由数千个独立内核组成,这些内核并行运行并执行特定类型的计算,例如矢量数学。尽管最初的 GPU 专为视频应用而设计,但人们发现它们还可以加速科学计算中的运算,例如矩阵乘法。

GPU 供应商乐于提供 API,允许开发人员将 GPU 处理集成到他们的应用程序中,但这项工作也可以通过适用于各种不同环境的标准包来完成。R 编程语言和环境包括与 GPU 配合使用以加速处理的包,例如gputools、gmatrix和gpuR。GPU 也可以通过各种库(例如numba包或Theano )与 Python 一起使用。

这些软件包使任何有意使用它们的人都可以使用 GPU 加速机器学习。但更专业的方法也在路上。2019 年,英特尔?以 20 亿美元的价格收购了 Habana Labs。Habana Labs 为服务器中的各种机器学习加速器开发了定制芯片。在此之前,2017 年以 150 亿美元的价格收购了 Mobileye 的自动驾驶芯片技术

定制硅和说明

除了服务器和台式机中的 GPU 加速之外,机器学习加速器正在超越传统平台,进入功率受限的嵌入式设备和智能手机。这些加速器采用多种形式,从 U 盘、API 到智能手机神经网络加速器,以及用于深度学习加速的矢量指令。

智能手机的深度学习

深度学习工具包已经从 PC 发展到适用于更受限网络的智能手机。TensorFlow Lite 和 Core ML 等框架已经部署在移动设备上用于机器学习应用程序。Apple ?最近发布了 A12 仿生芯片,其中包含一个 8 核神经网络引擎,用于开发更节能的神经网络应用程序。这将扩展 Apple 智能手机上的深度学习应用程序。

Google 为 Android ? 8.1 发布了具有机器学习功能的神经网络 API (NNAPI)。这些在 Google Lens 应用程序的自然语言处理和图像识别环境中用于 Google Assistant。NNAPI 类似于其他深度学习工具包,但专为 Android 智能手机环境及其资源限制而构建。

深度学习 USB

英特尔发布了其神经计算棒的更新版本,以 USB 棒的形式加速深度学习应用程序。这可以被各种机器学习框架使用,例如 TensorFlow、Caffe 和 PyTorch。当 GPU 不可用时,该设备是一个有趣的选择,而且还允许深度学习应用程序的快速原型设计。

深度学习说明

最后,虽然机器学习计算已从 CPU 转移到 GPU,但英特尔已使用新指令优化其至强指令集以加速深度学习。这些称为 AVX-512 扩展的新指令(称为向量神经网络指令或 VNNi)提高了卷积神经网络操作的吞吐量。

概括

GPU 在机器学习中的应用创造了为各种应用程序构建和部署大规模深度神经网络的能力。机器学习框架使构建深度学习应用程序变得简单。但也不甘示弱,智能手机供应商已经为受限应用程序集成了节能的神经网络加速器(以及用于自定义应用程序使用的 API)。现在也可以找到其他加速器来卸载到 USB 硬件,许多新的初创公司正在挖掘这个加速器空间以用于未来的机器学习应用程序。

审核编辑hhy

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4968

    浏览量

    131676
  • 机器学习
    +关注

    关注

    66

    文章

    8510

    浏览量

    134864
  • 深度学习
    +关注

    关注

    73

    文章

    5564

    浏览量

    122948
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    GPU架构深度解析

    GPU架构深度解析从图形处理到通用计算的进化之路图形处理单元(GPU),作为现代计算机中不可或缺的一部分,已经从最初的图形渲染专用处理器,发展成为强大的并行计算引擎,广泛应用于人工智能、科学计算
    的头像 发表于 05-30 10:36 ?467次阅读
    <b class='flag-5'>GPU</b>架构<b class='flag-5'>深度</b>解析

    ARM Mali GPU 深度解读

    ARM Mali GPU 深度解读 ARM Mali 是 Arm 公司面向移动设备、嵌入式系统和基础设施市场设计的图形处理器(GPU)IP 核,凭借其异构计算架构、能效优化和生态协同,成为全球移动
    的头像 发表于 05-29 10:12 ?1342次阅读

    SLAMTEC Aurora:把深度学习“卷”进机器人日常

    在人工智能和机器人技术飞速发展的今天,深度学习与SLAM(同步定位与地图构建)技术的结合,正引领着智能机器人行业迈向新的高度。最近科技圈顶流DeepSeek简直杀疯了!靠着逆天的深度
    的头像 发表于 02-19 15:49 ?491次阅读

    深度学习工作负载中GPU与LPU的主要差异

    ,一个新的竞争力量——LPU(Language Processing Unit,语言处理单元)已悄然登场,LPU专注于解决自然语言处理(NLP)任务中的顺序性问题,是构建AI应用不可或缺的一环。 本文旨在探讨深度学习工作负载中GPU
    的头像 发表于 12-09 11:01 ?3417次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>工作负载中<b class='flag-5'>GPU</b>与LPU的主要差异

    GPU深度学习中的应用 GPUs在图形设计中的作用

    随着人工智能技术的飞速发展,深度学习作为其核心部分,已经成为推动技术进步的重要力量。GPU(图形处理单元)在深度学习中扮演着至关重要的角色,
    的头像 发表于 11-19 10:55 ?1689次阅读

    NPU在深度学习中的应用

    设计的硬件加速器,它在深度学习中的应用日益广泛。 1. NPU的基本概念 NPU是一种专门针对深度学习算法优化的处理器,它与传统的CPU和GPU
    的头像 发表于 11-14 15:17 ?2027次阅读

    pcie在深度学习中的应用

    深度学习模型通常需要大量的数据和强大的计算能力来训练。传统的CPU计算资源有限,难以满足深度学习的需求。因此,GPU(图形处理单元)和TPU
    的头像 发表于 11-13 10:39 ?1411次阅读

    PyTorch GPU 加速训练模型方法

    深度学习领域,GPU加速训练模型已经成为提高训练效率和缩短训练时间的重要手段。PyTorch作为一个流行的深度学习框架,提供了丰富的工具和
    的头像 发表于 11-05 17:43 ?1457次阅读

    Pytorch深度学习训练的方法

    掌握这 17 种方法,用最省力的方式,加速你的 Pytorch 深度学习训练。
    的头像 发表于 10-28 14:05 ?706次阅读
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>学习</b>训练的方法

    常见GPU问题及解决方法

    GPU(图形处理单元)是计算机硬件的重要组成部分,负责处理图形和视频渲染任务。随着技术的发展,GPU深度学习、游戏、视频编辑等领域扮演着越来越重要的角色。然而,在使用
    的头像 发表于 10-27 14:12 ?3854次阅读

    如何提高GPU性能

    在当今这个视觉至上的时代,GPU(图形处理单元)的性能对于游戏玩家、图形设计师、视频编辑者以及任何需要进行高强度图形处理的用户来说至关重要。GPU不仅是游戏和多媒体应用的心脏,它还在科学计算、深度
    的头像 发表于 10-27 11:21 ?2627次阅读

    GPU深度学习应用案例

    GPU深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 ?1487次阅读

    AI大模型与深度学习的关系

    AI大模型与深度学习之间存在着密不可分的关系,它们互为促进,相辅相成。以下是对两者关系的介绍: 一、深度学习是AI大模型的基础 技术支撑 :深度
    的头像 发表于 10-23 15:25 ?2975次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借其强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 ?651次阅读

    FPGA做深度学习能走多远?

    。例如,在数据中心中,可以将 FPGA 与 CPU 或 GPU 结合使用,根据不同的任务需求进行灵活的资源分配和协同计算,提高整个系统的性能和效率。 ? 算法优化和创新:随着深度学习算法的不断发展和优化
    发表于 09-27 20:53