0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Deepseek R1在树莓派5上的真实表现...

上海晶珩电子科技有限公司 ? 2025-03-24 14:51 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近期科技圈对Deepseek R1的热度持续升温。这款AI模型是否真的如传闻中那般神奇?让我通过Raspberry Pi实测带您一探究竟。

自DeepSeek AI发布以来,科技媒体圈就掀起了一场风暴。这款模型不断打破性能基准测试记录,俨然已成为AI创新领域的标杆。

718d3898-087c-11f0-9434-92fbcf53809c.jpg

DeepSeek与OpenAI基准对比 | 来源:Brian Roemmele

最近我在X平台偶然看到有人声称在Raspberry Pi上以200 token/秒的速度运行Deepseek。

719c8604-087c-11f0-9434-92fbcf53809c.jpg

这让我瞬间怀疑人生:"什么鬼?!"

仔细研究整个讨论串后发现,该用户是通过在Raspberry Pi上叠加AI加速模块才达成的成绩。但好奇心驱使我决定挑战极限:在没有额外硬件的情况下,用原生Raspberry Pi 5(8GB版)测试Deepseek的真实性能。

71c0319e-087c-11f0-9434-92fbcf53809c.png

因此,为了这篇文章,我在我的Raspberry Pi 5(8GB内存型号)上安装了Ollama,并下载了具有不同参数(即15B、70B、80B和140B参数)的Deepseek模型。

Ollama:

https://ollama.com/

Deepseek模型:

https://ollama.com/library/deepseek-r1

以下是每个模型的性能表现:

Deepseek 1.5B

71cb1ff0-087c-11f0-9434-92fbcf53809c.jpg

这个模型反应迅速。它出乎意料地灵敏,能够轻松处理改写任务。我没有遇到任何幻觉(生成不符合逻辑或上下文的内容)问题,这使其成为日常任务(如摘要生成和文本生成)的理想选择。


性能数据

为了进一步测试其能力,我提出了一个问题:Podman和Docker有什么区别?

模型给出了相当不错的回答,清晰地阐述了这两种容器化工具之间的区别。它强调了Podman是无守护进程的,而Docker依赖于守护进程,并涉及了无根操作等安全方面。

这个回答花了大约两分钟,以下是性能数据:

总时长:1m33.59302487s加载时长:44.322672ms提示评估次数:13个tokens提示评估时长:985ms提示评估速率:13.20个tokens/s评估次数:855个tokens评估时长:1m32.562s评估速率:9.24个tokens/s

Deepseek 7B

71df4a8e-087c-11f0-9434-92fbcf53809c.jpg

7B模型引入了一定程度的幻觉。我尝试编写一个创意提示,要求生成三首俳句,但它开始生成无尽的文本,甚至自己问自己问题!

虽然很有趣,但并不实用。为了基准测试的目的,我简化了提示,如视频所示。在性能方面,它更慢,但仍然可用。


性能数据

为了进一步测试,我问:Docker Compose和Docker Run有什么区别?回答是准确信息和不准确信息的混合体。

它正确地解释了Docker Compose通过docker-compose.yml文件用于管理多容器应用程序,而Docker Run通常用于使用特定标志运行单个容器。

然而,它很快就开始自己问问题,比如“但是,对于一个单应用,比如单台机器上的简单Flask应用,Docker Run可能就足够了?还是有其他命令或方法?”

以下是性能数据:

总时长:4m20.665430872s加载时长:39.565944ms提示评估次数:11个token(s)提示评估时长:3.256s提示评估速率:3.38个token/秒评估次数:517个token评估时长:4m17.368s评估速率:2.01个token/秒

Deepseek 8B

7208bf22-087c-11f0-9434-92fbcf53809c.png

这是一个变数。考虑到这些模型对资源的巨大需求,我没想到8B模型能运行起来。令我惊讶的是,它竟然成功了!

性能与7B模型相当,既不快,也不是特别灵敏,但在没有任何额外硬件的Raspberry Pi上运行一个8B模型,在我看来就是胜利。


性能数据

我通过提问“编写一个HTML模板和CSS模板”来测试它。模型成功地在单个代码块中生成了一个功能性的HTML和CSS模板,并确保它们整齐地配对。

然而,在跳到解决方案之前,模型解释了它的方法、它将要做什么以及还可以添加什么。

虽然这提供了信息,但对于一个直接的查询来说,这感觉是不必要的。如果我更精确地构造提示,回答可能会更直接(即用户错误)。

以下是性能数据:

总时长:6m53.350371838s加载时长:44.410437ms提示评估次数:13个 token(s)提示评估时长:4.99s提示评估速率:2.61个tokens/s评估次数:826个token评估时长:6m48.314s评估速率:2.02个tokens/s

Deepseek 14B?

7221aeba-087c-11f0-9434-92fbcf53809c.jpg

不幸的是,这并没有成功。14B模型需要超过10GB的内存,而我的8GB Raspberry Pi无法处理。在8B模型成功后,我充满希望,但现实给了我一击。

结论

DeepSeek在Raspberry Pi 5上的原始性能展示了单板计算机(SBC)在处理AI工作负载方面的巨大潜力。

1.5B模型是轻量级任务的实际选择,而7B和8B模型则展示了Raspberry Pi处理更大工作负载的能力,尽管速度较慢。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 树莓派
    +关注

    关注

    122

    文章

    2034

    浏览量

    107692
  • DeepSeek
    +关注

    关注

    2

    文章

    804

    浏览量

    1845
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    树莓5开启YOLO姿态估计识别之旅!

    大家好,接下来会为大家开一个树莓5和YOLO的连载文章。内容包括四个部分:树莓
    的头像 发表于 07-18 15:31 ?292次阅读
    <b class='flag-5'>在</b><b class='flag-5'>树莓</b><b class='flag-5'>派</b><b class='flag-5'>5</b><b class='flag-5'>上</b>开启YOLO姿态估计识别之旅!

    树莓5使用YOLO进行物体和动物识别-入门指南

    大家好,接下来会为大家开一个树莓5和YOLO的专题。内容包括四个部分:树莓
    的头像 发表于 07-17 17:16 ?289次阅读
    <b class='flag-5'>在</b><b class='flag-5'>树莓</b><b class='flag-5'>派</b><b class='flag-5'>5</b><b class='flag-5'>上</b>使用YOLO进行物体和动物识别-入门指南

    DeepSeek开源新版R1 媲美OpenAI o3

    DeepSeek“悄悄”地又放了一个大招,DeepSeek开源了R1最新0528版本。尽管DeepSeek目前还没有对该版本进行任何说明,但是根据著名代码测试平台Live CodeBe
    的头像 发表于 05-29 11:23 ?500次阅读

    ORinNano离线部署Deepseek R1大模型教程

    ORinNano离线部署Deepseek R1大模型教程
    的头像 发表于 04-10 15:32 ?576次阅读
    ORinNano离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型教程

    4台树莓5跑动大模型!DeepSeek R1分布式实战!

    树莓5(8GB内存)运行DeepSeekR1Distill8B模型,推理速度达6.43tokens/s,功耗仅20W!本文将深入解析:
    的头像 发表于 03-24 14:50 ?580次阅读
    4台<b class='flag-5'>树莓</b><b class='flag-5'>派</b><b class='flag-5'>5</b>跑动大模型!<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>分布式实战!

    RK3588开发板上部署DeepSeek-R1大模型的完整指南

    现任何延迟或卡顿现象。CPU占用:DeepSeek-R1OK3588-C开发板运行的CPU占用为12%~17%,这一表现证明了框架的高效性,使其即便在资源受限的设备
    发表于 02-27 16:45

    OpenAI O3与DeepSeek R1:推理模型性能深度分析

    ,OpenAI的O3在编码任务方面超过了DeepSeekR1,而R1在数学和推理方面表现出了竞争力,同时成本效益和开源可访问性方面也具有
    的头像 发表于 02-18 11:07 ?1002次阅读

    安霸大算力AI芯片接入DeepSeek R1

    安霸(Ambarela)人工智能领域持续发力,已成功多款 AI 芯片,包括 N 系列大算力 AI 芯片本地部署了 DeepSeek R1
    的头像 发表于 02-17 13:36 ?593次阅读

    IBMwatsonx.ai平台推出DeepSeek R1蒸馏模型

    ,进一步增强企业安全、治理以及规模化部署方面的能力。 DeepSeek R1是IBMAI领域的一项重要创新,它采用了蒸馏模型技术,能够
    的头像 发表于 02-14 10:21 ?584次阅读

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    DeepSeek-R1 更适合电子工程核心工作流,因其符号数学、代码严谨性、长文档结构化理解的优势。 二、其他领域专用模型推荐 若需更高精度,可结合以下工具组成混合方案: 1.
    发表于 02-14 02:08

    超星未来惊蛰R1芯片适配DeepSeek-R1模型

    日前,超星未来研发团队成功完成了惊蛰R1芯片对DeepSeek-R1模型的适配工作,实现了与用户之间的流畅对话。这一成果标志着超星未来人工智能芯片和模型优化方面取得了重要进展
    的头像 发表于 02-13 14:05 ?748次阅读

    Deepseek R1大模型离线部署教程

    。作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,全球人工智能领域引发广泛关注。 本文主要说明DeepSeek-R1如何离线运行在EASY-EAI-Orin-Nano(RK3576)硬件, RK357
    的头像 发表于 02-12 09:37 ?1855次阅读
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型离线部署教程

    Krea发布Deepseek R1驱动的Chat功能

    Krea平台上的所有功能,而无需再关注繁琐的界面操作。这一创新设计不仅极大地简化了用户的操作流程,还提升了用户使用Krea平台时的效率和体验。 Deepseek R1作为Krea chat的强大后盾,以其卓越的自然语言处理能力
    的头像 发表于 02-08 11:09 ?736次阅读

    云天励飞上线DeepSeek R1系列模型

    -Distill-Llama-70B大模型、DeepSeek V3/R1 671B MoE大模型也在有序适配中。适配完成后,DeepEdge10芯片平台将在端、边、云全面支持DeepSeek全系列模型。
    的头像 发表于 02-06 10:39 ?718次阅读
    云天励飞上线<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列模型

    英伟达发布DeepSeek R1于NIM平台

    网站上发布。 据悉,DeepSeek R1 NIM微服务是英伟达人工智能领域的一项重要创新,旨在为用户提供高效、精准的推理服务。单个英伟达HGX H200系统
    的头像 发表于 02-05 14:48 ?663次阅读