原厂入驻New

Deepseek等大模型的火爆,其背后的算力需求成指数级增长,如GPT-4的算力达到数万亿级,传统的冯诺伊曼数据来回搬运形成功耗墙以及存储墙,能效比低,存内计算架构的出现,在存储器内完成计算的形式,延迟降低90%,能效较之传统架构提升数10倍,成为AI智能时代变革的重要力量。在此背景下,知存科技联动复旦大学,邀请华东地区高校教授以及知存企业精英共同打造存内计算系列课程,与国内知名开发者社区梦幻联动,面向高校学生与国内外开发者,助力人才成长,推动技术进步。

本系列课程以“从电路架构到存储工艺:存内计算全栈技术突破”为核心脉络,系统性解析存内计算领域的前沿进展与落地实践。课程由权威专家领衔,深度融合学术创新与产业需求,覆盖电路设计、架构优化、软硬件协同、存储介质革新及先进工艺集成五大模块,致力于为开发者、AI科技爱好者与行业工程师构建“理论-器件-系统-应用”的全景知识体系。

微信二维码 微信二维码

存内计算电路设计

存内计算的架构设计方案详解与应用

存内计算的软硬件协同设计

存内计算传统与新型存储介质

存内计算芯片工艺制程

前瞻性与实用性并重

涵盖大模型推理、自动驾驶、边缘AI、类脑芯片等热点场景,直击行业痛点

跨学科深度融通

贯通材料介质、电路设计、体系架构与算法生态,构建系统性认知

产学研案例驱动

结合知存科技行业前沿企业芯片原型、学术顶会(ISSCC/VLSI/DAC)突破性论文,解析技术落地路径

课程序列

存内计算电路设计:突破冯·诺依曼桎梏的物理创新 一

本课程聚焦存内计算技术中的数字电路设计方法,通过将计算逻辑嵌入存储器单元,突破传统冯·诺依曼架构的存储墙瓶颈。重点探讨数字电路的高效逻辑门集成、低功耗设计,以及如何优化数据带宽与延迟,适用于高精度AI推理和实时数据处理场景。

No.1

存内计算电路设计:突破冯·诺依曼桎梏的物理创新 一

简介

本课程聚焦存内计算技术中的数字电路设计方法,通过将计算逻辑嵌入存储器单元,突破传统冯·诺依曼架构的存储墙瓶颈。重点探讨数字电路的高效逻辑门集成、低功耗设计,以及如何优化数据带宽与延迟,适用于高精度AI推理和实时数据处理场景。

存内计算电路设计:突破冯·诺依曼桎梏的物理创新 二

课程围绕存内计算的模拟电路实现,利用模拟信号处理的天然并行性,在存储器内直接完成乘累加(MAC)等运算。内容涵盖模拟电路的非线性补偿、噪声抑制及能效优化策略,适用于低功耗边缘计算和神经网络加速。

No.2

存内计算电路设计:突破冯·诺依曼桎梏的物理创新 二

简介

课程围绕存内计算的模拟电路实现,利用模拟信号处理的天然并行性,在存储器内直接完成乘累加(MAC)等运算。内容涵盖模拟电路的非线性补偿、噪声抑制及能效优化策略,适用于低功耗边缘计算和神经网络加速。

存内计算架构:硬件加速架构设计方法

从系统级视角解析存内计算的硬件架构创新,包括并行计算范式、数据流动态调度、FP/INT混合计算架构及异构加速技术。通过优化片上资源分配与任务映射,显著提升深度学习等数据密集型任务的吞吐量。

No.3

存内计算架构:硬件加速架构设计方法

简介

从系统级视角解析存内计算的硬件架构创新,包括并行计算范式、数据流动态调度、FP/INT混合计算架构及异构加速技术。通过优化片上资源分配与任务映射,显著提升深度学习等数据密集型任务的吞吐量。

存内计算的软硬件协同设计

课程以“算法-电路共进化”为核心,探索指令集架构革新(如存内计算专用指令扩展)、算子硬件适配优化,以及EDA工具链的定制开发策略。通过软硬件深度融合,最大化存内计算的能效比与灵活性。

No.4

存内计算的软硬件协同设计

简介

课程以“算法-电路共进化”为核心,探索指令集架构革新(如存内计算专用指令扩展)、算子硬件适配优化,以及EDA工具链的定制开发策略。通过软硬件深度融合,最大化存内计算的能效比与灵活性。

传统存储介质在存内计算中的应用

系统解析SRAM、DRAM和闪存等传统存储器的存内计算实现方案,对比其速度、密度与功耗特性,并探讨基于电荷存储机制的电路设计挑战,例如DRAM存内逻辑的刷新策略优化。

No.5

传统存储介质在存内计算中的应用

简介

系统解析SRAM、DRAM和闪存等传统存储器的存内计算实现方案,对比其速度、密度与功耗特性,并探讨基于电荷存储机制的电路设计挑战,例如DRAM存内逻辑的刷新策略优化。

新型存储介质与神经形态计算

聚焦阻变存储器(RRAM)、相变存储器(PCRAM)等新型非易失存储技术,结合神经形态器件特性,实现类脑计算与脉冲神经网络加速,推动高能效仿生智能硬件的落地。

No.6

新型存储介质与神经形态计算

简介

聚焦阻变存储器(RRAM)、相变存储器(PCRAM)等新型非易失存储技术,结合神经形态器件特性,实现类脑计算与脉冲神经网络加速,推动高能效仿生智能硬件的落地。

氧化物晶体管存内计算芯片工艺

深入探讨超薄ITO薄膜、氧化物半导体(如IGZO)等新材料在存内计算芯片中的应用,分析其超低漏电、高迁移率特性对三维集成与柔性电子器件的赋能潜力,覆盖工艺制程创新与原型芯片案例。

No.7

氧化物晶体管存内计算芯片工艺

简介

深入探讨超薄ITO薄膜、氧化物半导体(如IGZO)等新材料在存内计算芯片中的应用,分析其超低漏电、高迁移率特性对三维集成与柔性电子器件的赋能潜力,覆盖工艺制程创新与原型芯片案例。

存内计算芯片工艺制程节点未来展望:前沿材料与异构架构

聚焦存内计算芯片工艺制程的核心驱动力——前沿材料研发,深入解析如何通过材料科学革新突破传统硅基器件的物理极限,赋能高密度、高能效存算一体芯片的规模化落地。从原子级材料设计到晶圆级工艺集成,揭示新材料如何重构“存储-计算-通信”范式,为后摩尔时代算力革命提供底层支撑。

No.8

存内计算芯片工艺制程节点未来展望:前沿材料与异构架构

简介

聚焦存内计算芯片工艺制程的核心驱动力——前沿材料研发,深入解析如何通过材料科学革新突破传统硅基器件的物理极限,赋能高密度、高能效存算一体芯片的规模化落地。从原子级材料设计到晶圆级工艺集成,揭示新材料如何重构“存储-计算-通信”范式,为后摩尔时代算力革命提供底层支撑。

知存科技是全球领先的存内计算芯片企业。公司针对AI应用场景,在全球率先商业化量产基于存内计算技术的神经网络芯片。凭借颠覆性的技术创新,知存科技突破传统计算架构局限,利用存储与计算的物理融合大幅减少数据搬运,在相同工艺条件下将AI计算效率提升2个数量级,充分满足快速发展的神经网络模型指数级增长的算力需求。2022年,知存科技推出全球首颗大规模量产的存内计算芯片WTM2101。该芯片已被多家国际知名企业用于智能语音、AI健康监测等场景,相比传统芯片在算力和功耗上优势显著,赋能行业用户实现端侧AI能力的提升和应用的推广。

目前,知存科技自主研发的边缘侧算力芯片WTM-8系列即将量产。该系列芯片能够提供高达48Tops算力,而功耗仅为市场同类方案的5%,将助力移动设备实现更高性能的图像处理和空间计算。

知存科技自2017年成立以来,获得多家科技领军企业和顶级财务投资机构的持续支持。未来,知存科技将进一步提升AI算力,完善生态体系,为AI技术的普及应用提供强大的基础设施。

获取相关资料