清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

AI行业动态6个月前发布 ainavi
8,736 0

对于攻克「卡脖子」关键核心技术,这类忆阻器存算一体芯片具有积极的意义。

10 月 9 日,清华大学官微报道了该校研制全球首颗支持片上学习忆阻器存算一体芯片的成果。

近日,清华大学集成电路学院吴华强教授、高滨副教授基于存算一体计算范式,在支持片上学习的忆阻器存算一体芯片领域取得重大突破,研究成果已发表于最新一期国际科学期刊《科学》杂志。

清华大学介绍,记忆电阻器(Memristor)是继电阻、电容、电感之后的第四种电路基本元件。它可以在断电之后,仍能「记忆」通过的电荷,可成为新型纳米电子突触器件。

自 2012 年以来,清华大学钱鹤、吴华强团队从忆阻器件、原型芯片再到系统集成,逐步协同攻关了 AI 算力瓶颈难题,新的研究一定程度上攻克了「卡脖子」关键核心技术。

论文《Edge learning using a fully integrated neuro-inspired memristor chip》如下。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

论文地址:https://www.science.org/doi/full/10.1126/science.ade3483

研究概览

我们知道,基于忆阻器的计算技术近来受到了极大的关注,该技术有可能克服传统计算架构所谓的「冯诺依曼瓶颈」。忆阻器特别的地方在于可以为各种边缘智能应用实现实时的、高能效的片上学习,即使完全片上学习的实现仍然具有挑战性。

下图 1 为使用神经启发忆阻器芯片的边缘学习,A 展示了人类大脑具备的改进学习能力。B 为基于忆阻器的神经启发计算芯片的设计和未来应用。这种芯片为完全片上学习设计,将所有必要的模块与忆阻器阵列集成在一起,使边缘 AI 设备具备了学习能力,从而快速适应新场景。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

为了解决相关问题,清华大学集成电路学院博士生张文彬、博士后姚鹏等人提出了一种基于忆阻器特征符号和阈值的学习架构(STELLAR),并制作了一个全系统集成芯片。该芯片由多个忆阻器阵列以及支持完整片上学习的所有必要互补金属氧化物半导体外围电路组成。

下图 2 为用于片上学习的忆阻器特征架构设计,A 为忆阻器芯片中使用的 STELLAR 架构,B 和 C 为分类准确率的比较,D 为具有差分电导对(左)以及 1T1R(中)和 2T2R(右)配置的权重,E 为循环并联电导调整方案。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

下图 3 为用于片上学习的忆阻器芯片,A 为架构概览,B 为芯片的光学显微镜图像,C 为 2T2R cell 的横截面透射电子显微镜图像。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

研究者展示了在各种任务上的端到端片上改进学习,比如运动控制、图像分类语音识别,实现了媲美软件的准确率和较低的硬件成本。该工作标志着存内计算领域迈出了重要一步。

下图 4 为忆阻器芯片的改进学习示例,A 为运动控制任务(左)及其控制系统,B 为光追车(Light-chasing car)新样本学习,F 为图像分类任务中新类别学习。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

我们来看以下几个动图演示。

首先是手写数字新类别学习任务。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

此外可以在运动控制领域改进学习。如下所示,在改进学习之前,向前移动的蓝车往往会错过目标红车。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

在改进学习之后,向前移动的蓝车会先有一个向后倒的动作以做调整,最终继续向前驶向目标红车。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

不仅如此,在明亮场景下没有改进学习之前,蓝车往往会在追随过程中偏离目标红车。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

在明亮场景下有了改进学习之后,蓝车很好地适应调整,始终追随目标红车。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

张文彬、姚鹏作为学术论文的共同第一作者,博士期间接触了大量如半导体、微电子、软件算法和类脑计算等不同方向的科研知识,积累了丰硕的研发成果和丰富的工程建设经验。

清华全球首颗片上学习忆阻器存算一体芯片,成果登上Science

                                研究团队合影。

参考报道:

https://mp.weixin.qq.com/s/w0VZNIQ1KbClJJ8c05hPqg

© 版权声明

关注公众号,免费获取chatgpt账号
免费获取chatgpt

相关文章

暂无评论

暂无评论...