模拟计算:低功耗,低成本,高速度
数字计算
工艺要求高
提高速度和晶体管密度
大陆先进制程受限
流片成本高
要求先进工艺
大量计算要求高面积
能量效率低
电平频繁翻转
毛刺产生短路电流
模拟计算
放宽工艺限制
40nm对标22nm
180nm对标65nm
降低制造成本
工艺要求降低
芯片面积减小
减少能量消耗
功耗来源有显著区别
能效优势可达上百倍
从模拟计算到模拟神经网络
早期被数字计算取代
● 精度不足:工艺和器件不稳定,易受制造误差和噪声干扰。
● 存储低效:模拟计算难以进行存储。
在神经网络中卷土重来
● 精度需求降低:神经网络对精度的要求更低,同时制造工艺更加成熟。
● 存储能力提升:模拟计算和数字存储进行融合,提升存储能力。
模拟计算的独特优势
● 速度快:提高计算并行度,减少模数转换次数。
速度相较CPU提升最高5000倍。
● 面积小:将数字电路中复杂的多位加法器乘法器使用少量ADC
和电阻网络代替,减少晶体管数量。
面积相较数字电路减小10倍。
● 能耗低:减少模数转换次数,减少内存访问能耗,减少器件运算能耗。
能效相较数字电路提升可达1000倍。
模拟神经网络原理介绍
以可变阻值的电阻表示神经网络中的权重,电阻阻值由SRAM,FLASH,RRAM等存储器件记录。
使用物理定律代替计算电路,将数字电路中结构复杂的加法器和乘法器使用电阻代替。
本例中,权重 W 映射到电阻阵列中每个节点电阻的电导值 G ,输入向量 x映射到电阻阵列每行的输入电压 V。
输出向量映射到每个列上的电流I中。加法和乘法的计算由欧姆定律和基尔霍夫电流定律确定。
应用方向:语音识别、图像识别、人脸识别、动作识别、环境监测...
边缘AI发展路线
VWI1
灵活的边缘数字神经网络IP
已完成硬件设计,预计2024Q4在MCU中流片
NPU硬件加速器支持CNN,RNN.
支持目标分类,目标探测,人脸识别,手势识别等多种神经网络应用
以数字计算为核心,初步建立神经网络全套工具链
运算朝模拟演进
能效指数级提升
VWI2
极高能效边缘模拟计算神经网络IP
正在进行设计,预计完成VWI1回片测试,验证后投产
NPU硬件加速器支持CNN,RNN.
支持目标分类,目标探测,人脸识别,手势识别等多种神经网络应用
以数量级为单位降低功耗
建立模拟计算工具链