0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

SL1680 SoC本地运行DeepSeek R1 1.5B大模型

jf_59991523 ? 来源:jf_59991523 ? 作者:jf_59991523 ? 2025-04-17 17:09 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

SL1680 SoC本地运行DeepSeek R1 1.5B大模型

自DeepSeek大模型发布以来,深蕾半导体SoC团队针对在端侧运行DeepSeek大模型不断进行研究,探索将DeepSeek大模型与SoC系列产品相结合的模式。目前已经实现利用深蕾半导体的ASTRA SL1680 SoC本地运行DeepSeek R1 Distill Qwen2.5 1.5B大模型。

DeepSeek R1 Distill Qwen2.5 1.5B是DeepSeek R1发布中最小的模型 - 它可以在ASTRA SL1680上舒适地运行。

一、SL1680本地运行Deepseek-R1-1.5B大模型展示

wKgZO2gAntaAO81xAAeYe0My_Lo217.png

SL1680本地运行Deepseek-R1-1.5B大模型视频效果

执行过程

要在ASTRA开发板上运行Qwen,我们将使用llama-cpp-python包,它为Georgi Gerganov的llamacpp提供了便捷的Python绑定。

wKgZO2gAnxWAWZV6AAS9_ylq1gM966.png

wKgZO2gAnzCAE_4rAANlmcMqdrY486.png

除了在SL1680本地运行Deepseek-R1-1.5B大模型,还实现了运行Llama 3.2 1B大模型。

运行环境

系统:Linux(yocto)

硬件:SL1680 RDK开发板


产品化路径

对于SL1680产品如何与大模型结合的问题,建议采用端侧大模型与云端大模型相结合的工程化方式处理,本地能处理的用户任务使用端侧大模型快速解决和输出,而较复杂的逻辑以及联网功能则通过请求云端大模型API的方式实现。

如视频所展示的,将Deepseek-R1-1.5B大模型部署到SoC本地,能够实现知识问答、FuntionCall等AI能力。通过将云端的大模型与端侧的语音识别机器视觉功能、端侧小参数大模型相结合,从而让AI赋能我们的产品,提升产品的智能化程度。

二、本地小参数大模型与端云大模型结合的应用场景

1,多媒体终端:本地小参数大模型可在端侧如智能大屏,快速处理一些常见的简单任务,如语音助手对常见指令的快速响应、文本的简单摘要生成、数据加工整理、设备操控、产品说明、产品售后问题自助解决等。当遇到复杂任务,如深度文本分析、多模态内容生成时,可将任务发送到云侧大模型进行处理,利用云侧大模型强大的计算能力和丰富的知识储备来完成。

2,智能办公设备(MINI PC):本地小参数大模型可以实时处理用户的语音交互、文字输入信息处理、智能控制等任务,作为用户AI助手。而对于一些复杂的逻辑理解、内容生成设计和决策任务等,则借助云侧大模型的强大算力和更全面的数据分析能力来完成。

3,零售电商:在商品展示平台的搜索推荐场景中,本地小参数大模型可以根据用户在本地设备上的浏览历史、购买行为、环境感知等数据,快速生成初步的推荐结果。当用户有更复杂的搜索需求,如对比不同商品的详细参数、询问商品的使用场景等问题时,云侧大模型可以利用其庞大的商品知识库和强大的语言理解能力,给出更准确、详细的回答和推荐。

三、ASTRA SL1680 SoC介绍

ASTRA SL1680是一款专为智能应用设计的高性能系统级芯片(SoC),它拥有

1,4*Cortex A73 CPU处理器

Cortex A73是ARM公司设计的一款高性能CPU核心,适用于需要高性能计算的应用场景,能够提供强大的处理能力和多任务处理能力,为Deepseek-R1-1.5B大模型的运行提供坚实保障。


2,高达7.9 Top NPU算力:

NPU(Neural Processing Unit,神经网络处理单元)是专门用于加速神经网络计算的硬件单元。7.9 Top的算力使SL1680在神经网络计算方面有着极高的性能,为端云结合的应用模式创造了有利条件。


3,64-bit高速内存:

64位内存架构支持更大的内存寻址空间,使得SL1680能够同时处理更多的数据和运行更复杂的应用程序。高速内存则保证了数据访问的迅速性,提升了整体性能。

wKgZPGgAn4uAM23GAAvynChu45w281.png




审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • soc
    soc
    +关注

    关注

    38

    文章

    4406

    浏览量

    223194
  • 大模型
    +关注

    关注

    2

    文章

    3191

    浏览量

    4147
  • DeepSeek
    +关注

    关注

    2

    文章

    804

    浏览量

    1830
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【幸狐Omni3576边缘计算套件试用体验】CPU部署DeekSeek-R1模型1B和7B

    ,使用如下命令: ollama pull deepseek-r1:1.5b 拉取deepseek-r1 1.5b模型,过程中会下载速度和进
    发表于 04-21 00:39

    DeepSeek R1模型本地部署与产品接入实操

    针对VS680/SL1680系列大算力芯片,我们的研发团队正在研究将蒸馏后的轻量级DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B)部署到
    的头像 发表于 04-19 16:32 ?340次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b><b class='flag-5'>模型</b><b class='flag-5'>本地</b>部署与产品接入实操

    ORinNano离线部署Deepseek R1模型教程

    ORinNano离线部署Deepseek R1模型教程
    的头像 发表于 04-10 15:32 ?570次阅读
    ORinNano离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程

    如何基于Android 14在i.MX95 EVK上运行Deepseek-R1-1.5B和性能

    Internet,或者您可以手动下载模型。按“ ”并选择 “从Hugging Face添加” 并搜索1.5B,找到deepseek-R1-1.5B模型,下载
    发表于 04-04 06:59

    RK3588开发板上部署DeepSeek-R1模型的完整指南

    下载DeepSeek-R1-Distill-Qwen-1.5B权重文件。 (2)安装转换工具 在Ubuntu创建虚拟环境并安装RKLLM-Toolkit,以便将DeepSeek-R1大语言模型转换
    发表于 02-27 16:45

    兆芯全面部署DeepSeek R1模型

    近日,基于兆芯高性能通用处理器的PC终端、工作站以及服务器成功实现DeepSeek-R1-Distill模型1.5B/7B/32B/70
    的头像 发表于 02-25 13:45 ?574次阅读

    9.9万元用上“满血”DeepSeek R1一体机,本地部署成新商机?

    电子发烧友综合报道? 最近DeepSeek R1的火爆,引起了本地部署的热潮,但大部分个人用户,受到设备的限制,一般只能在个人电脑上部署小尺寸的1.5B或7
    发表于 02-18 01:16 ?5615次阅读

    宇芯基于T527成功部署DeepSeek-R1

    近日,宇芯成功在全志T527 Linux系统上本地部署并运行DeepSeek-R1 1.5B模型
    的头像 发表于 02-15 09:06 ?1149次阅读
    宇芯基于T527成功部署<b class='flag-5'>DeepSeek-R1</b>

    景嘉微JM11 GPU已流片,JM、景宏系列完成DeepSeek R1系列模型适配

    DeepSeek-R1-Distill-Qwen-1.5B模型DeepSeek-R1-Distill-Qwen-7B模型的适配。 ? ? 同时,景宏系列已全面兼容并适配
    发表于 02-15 00:01 ?2493次阅读
    景嘉微JM11 GPU已流片,JM、景宏系列完成<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列<b class='flag-5'>模型</b>适配

    IBM在watsonx.ai平台推出DeepSeek R1蒸馏模型

    ,进一步增强企业在安全、治理以及规模化部署方面的能力。 DeepSeek R1是IBM在AI领域的一项重要创新,它采用了蒸馏模型技术,能够在保持模型性能的同时,显著减小
    的头像 发表于 02-14 10:21 ?578次阅读

    Gitee AI 联合沐曦首发全套 DeepSeek R1 千问蒸馏模型,全免费体验!

    Gitee AI 刚刚上线了DeepSeek-R1-Distill-Qwen-1.5BDeepSeek-R1-Distill-Qwen-7B
    的头像 发表于 02-10 09:56 ?776次阅读
    Gitee AI 联合沐曦首发全套 <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> 千问蒸馏<b class='flag-5'>模型</b>,全免费体验!

    部署DeepSeek R1于AX650N与AX630C平台

    背景 春节前,国产大模型 DeepSeek 横空出世,迅速成为AI领域的焦点。作为端侧AI能效比优异的 AX650N、AX630C 芯片平台早已在节前完成 DeepSeek R1 蒸馏
    的头像 发表于 02-09 09:32 ?1205次阅读
    部署<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>于AX650N与AX630C平台

    壁仞科技顺利部署DeepSeek R1千问蒸馏模型

    DeepSeek 的国内算力支持队伍进一步壮大:来自上海的壁仞科技顺利部署DeepSeek-R1-Distill千问蒸馏模型(1.5B/7B
    的头像 发表于 02-08 16:56 ?1893次阅读

    云天励飞上线DeepSeek R1系列模型

    模型DeepSeek V3/R1 671B MoE大模型也在有序适配中。适配完成后,DeepEdge10芯片平台将在端、边、云全面支持
    的头像 发表于 02-06 10:39 ?717次阅读
    云天励飞上线<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列<b class='flag-5'>模型</b>

    AI赋能驾驶安全:Synaptics SL1680疲劳驾驶检测方案

    Synaptics SL1680 作为一款高性能、低功耗的 AI 原生 SoC,为驾驶安全解决方案提供了稳定的硬件基础,加上先进的 AI 模型,可以实现实时、精准的疲劳驾驶检测。
    的头像 发表于 12-31 16:31 ?653次阅读
    AI赋能驾驶安全:Synaptics <b class='flag-5'>SL1680</b>疲劳驾驶检测方案