AI边缘加速

模拟计算:低功耗,低成本,高速度

数字计算

工艺要求高

提高速度和晶体管密度

大陆先进制程受限

流片成本高

要求先进工艺

大量计算要求高面积

能量效率低

电平频繁翻转

毛刺产生短路电流

模拟计算

放宽工艺限制

40nm对标22nm

180nm对标65nm

降低制造成本

工艺要求降低

芯片面积减小

减少能量消耗

功耗来源有显著区别

能效优势可达上百倍

从模拟计算到模拟神经网络

早期被数字计算取代
●  精度不足:工艺和器件不稳定,易受制造误差和噪声干扰。
● 存储低效:模拟计算难以进行存储。

在神经网络中卷土重来
● 精度需求降低:神经网络对精度的要求更低,同时制造工艺更加成熟。
● 存储能力提升:模拟计算和数字存储进行融合,提升存储能力。

模拟计算的独特优势
● 速度快:提高计算并行度,减少模数转换次数。
速度相较CPU提升最高5000倍
● 面积小:将数字电路中复杂的多位加法器乘法器使用少量ADC
和电阻网络代替,减少晶体管数量。
面积相较数字电路减小10倍
● 能耗低:减少模数转换次数,减少内存访问能耗,减少器件运算能耗。
能效相较数字电路提升可达1000倍

模拟神经网络原理介绍


以可变阻值的电阻表示神经网络中的权重,电阻阻值由SRAM,FLASH,RRAM等存储器件记录。

使用物理定律代替计算电路,将数字电路中结构复杂的加法器和乘法器使用电阻代替。

本例中,权重 W 映射到电阻阵列中每个节点电阻的电导值 G ,输入向量 x映射到电阻阵列每行的输入电压 V。
输出向量映射到每个列上的电流I中。加法和乘法的计算由欧姆定律和基尔霍夫电流定律确定。

应用方向:语音识别、图像识别、人脸识别、动作识别、环境监测...

边缘AI发展路线

VWI1

灵活的边缘数字神经网络IP

已完成硬件设计,预计2024Q4在MCU中流片

NPU硬件加速器支持CNN,RNN.

支持目标分类,目标探测,人脸识别,手势识别等多种神经网络应用

以数字计算为核心,初步建立神经网络全套工具链

运算朝模拟演进

能效指数级提升

VWI2

极高能效边缘模拟计算神经网络IP

正在进行设计,预计完成VWI1回片测试,验证后投产

NPU硬件加速器支持CNN,RNN.

支持目标分类,目标探测,人脸识别,手势识别等多种神经网络应用

以数量级为单位降低功耗

建立模拟计算工具链