0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

新品 | Module LLM Kit,离线大语言模型推理模块套装

明栈科技 ? 2025-03-28 18:49 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

5c1a27ac-0bc2-11f0-9434-92fbcf53809c.jpg

●●●

PART. 01

产品简介

Module LLM Kit 是一款专注于离线 AI 推理与数据通信接口应用的智能模块套件,整合了 Module LLM 与 Module13.2 LLM Mate 模块,满足多场景下的离线 AI 推理与数据交互需求。Module LLM 是一款集成化的离线大语言模型 (LLM) 推理模块,专为需要高效、智能交互的终端设备设计。Module13.2 LLM Mate 模块通过 M5BUS 接口与 Module LLM 实现堆叠供电,并提供Type-CRJ45FPC-8P 等多种接口功能,便于系统集成和扩展。

5c333292-0bc2-11f0-9434-92fbcf53809c.jpg

PART. 02

产品特性

◎ 高算力,低能耗

Module LLM Kit 采用 爱芯AX630C SoC 先进处理器,内置 3.2 TOPs 高能效 NPU,支持 Transformer 模型推理,轻松应对复杂 AI 任务。模块搭载 4GB LPDDR4 内存(其中 1GB 供用户使用,3GB 专用于硬件加速)及 32GB eMMC 存储,支持多模型并行加载与串联推理,满足多任务处理需求。模块运行功耗仅 1.5W,远低于同类产品,节能高效,适合长期稳定运行。

◎便捷语音与数据交互

集成麦克风、扬声器、TF 存储卡、USB OTG 及 RGB 状态灯,满足多样化应用需求,轻松实现语音交互与数据传输。

灵活拓展

板载 SD 卡槽支持固件冷/热升级,UART 通信接口简化连接与调试,确保模块功能持续优化与扩展。USB 口支持主从自动切换,既可以做调试口,也可以外接更多 USB 设备如摄像头。

◎多模型兼容

出厂预装 Qwen2.5-0.5B 大语言模型,内置 KWS(唤醒词)、ASR(语音识别)、LLM(大语言模型)及 TTS(文本生成语音)功能,且支持 apt 快速更新软件和模型包。安装 openai-api 插件后,即可兼容 OpenAI 标准 API,支持聊天、对话补全、语音转文字和文字转语音等多种应用模式。官方 apt 仓库提供丰富的大模型资源,包括 deepseek-r1-distill-qwen-1.5b、InternVL2_5-1B-MPO、Llama-3.2-1B、Qwen2.5-0.5B 以及 Qwen2.5-1.5B,同时还涵盖文本转语音模型(whisper-tiny、whisper-base、melotts)和视觉模型(如 yolo11 等 SOTA 模型)。仓库将持续更新,以支持最前沿的模型应用,满足各种复杂 AI 任务。

◎ 即插即用,快速集成

搭配 M5 主机,无需繁琐设置,即可将其集成到现有智能设备中,快速实现 AI 交互体验。

PART. 03

应用场景

◎ 离线语音助手

◎ 文本语音转换

智能家居控制

◎ 互动机器人

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Module
    +关注

    关注

    0

    文章

    72

    浏览量

    13274
  • 语言模型
    +关注

    关注

    0

    文章

    563

    浏览量

    10836
  • LLM
    LLM
    +关注

    关注

    1

    文章

    328

    浏览量

    889
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署。
    的头像 发表于 07-04 14:38 ?756次阅读

    小白学大模型:从零实现 LLM语言模型

    在当今人工智能领域,大型语言模型LLM)的开发已经成为一个热门话题。这些模型通过学习大量的文本数据,能够生成自然语言文本,完成各种复杂的任
    的头像 发表于 04-30 18:34 ?615次阅读
    小白学大<b class='flag-5'>模型</b>:从零实现 <b class='flag-5'>LLM</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>

    详解 LLM 推理模型的现状

    2025年,如何提升大型语言模型LLM)的推理能力成了最热门的话题之一,大量优化推理能力的新策略开始出现,包括扩展
    的头像 发表于 04-03 12:09 ?573次阅读
    详解 <b class='flag-5'>LLM</b> <b class='flag-5'>推理模型</b>的现状

    无法在OVMS上运行来自Meta的大型语言模型LLM),为什么?

    无法在 OVMS 上运行来自 Meta 的大型语言模型LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 llama_chat Python* Demo 时遇到错误。
    发表于 03-05 08:07

    Deepseek R1大模型离线部署教程

    DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型 。DeepSeek-R1采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理
    的头像 发表于 02-12 09:37 ?1846次阅读
    Deepseek R1大<b class='flag-5'>模型</b><b class='flag-5'>离线</b>部署教程

    新品| LLM630 Compute Kit,AI 大语言模型推理开发平台

    LLM630LLM推理,视觉识别,可开发,灵活扩展···LLM630ComputeKit是一款AI大语言模型
    的头像 发表于 01-17 18:48 ?758次阅读
    <b class='flag-5'>新品</b>| <b class='flag-5'>LLM</b>630 Compute <b class='flag-5'>Kit</b>,AI 大<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>开发平台

    在NVIDIA TensorRT-LLM中启用ReDrafter的一些变化

    Recurrent Drafting (简称 ReDrafter) 是苹果公司为大语言模型 (LLM) 推理开发并开源的一种新型推测解码技术,该技术现在可与 NVIDIA Tensor
    的头像 发表于 12-25 17:31 ?800次阅读
    在NVIDIA TensorRT-<b class='flag-5'>LLM</b>中启用ReDrafter的一些变化

    解锁NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一个专为优化大语言模型 (LLM) 推理而设计的库。它提供了多种先进的优化技术,包括自定义 Att
    的头像 发表于 12-17 17:47 ?941次阅读

    语言模型开发框架是什么

    语言模型开发框架是指用于训练、推理和部署大型语言模型的软件工具和库。下面,AI部落小编为您介绍大语言
    的头像 发表于 12-06 10:28 ?566次阅读

    什么是LLMLLM在自然语言处理中的应用

    随着人工智能技术的飞速发展,自然语言处理(NLP)领域迎来了革命性的进步。其中,大型语言模型LLM)的出现,标志着我们对语言理解能力的一次
    的头像 发表于 11-19 15:32 ?3763次阅读

    使用vLLM+OpenVINO加速大语言模型推理

    随着大语言模型的广泛应用,模型的计算需求大幅提升,带来推理时延高、资源消耗大等挑战。
    的头像 发表于 11-15 14:20 ?1487次阅读
    使用vLLM+OpenVINO加速大<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    如何训练自己的LLM模型

    训练自己的大型语言模型LLM)是一个复杂且资源密集的过程,涉及到大量的数据、计算资源和专业知识。以下是训练LLM模型的一般步骤,以及一些关
    的头像 发表于 11-08 09:30 ?1593次阅读

    新品LLM Module离线语言模型模块

    。NewModuleLLMLLMModule是一款集成化的离线语言模型LLM推理模块,无需
    的头像 发表于 11-02 08:08 ?1093次阅读
    <b class='flag-5'>新品</b>|<b class='flag-5'>LLM</b> <b class='flag-5'>Module</b>,<b class='flag-5'>离线</b>大<b class='flag-5'>语言</b><b class='flag-5'>模型模块</b>

    【飞凌嵌入式OK3576-C开发板体验】rkllm板端推理

    : ulimit -HSn 10240 最后,执行llm_demo可执行文件,并指定rkllm模型文件的路径。这样即可开始推理过程: ./llm_demo --model_path
    发表于 08-31 22:45

    魔搭社区借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社区是中国最具影响力的模型开源社区,致力给开发者提供模型即服务的体验。魔搭社区利用NVIDIA TensorRT-LLM,大大提高了大语言模型
    的头像 发表于 08-23 15:48 ?1183次阅读