面向神经网络的模拟型阻变存储器的可靠性研究

作者: 赵美然

出版社: 清华大学出版社

出版日期: 2024-05-01

  • 优惠券
  • ¥3
    ¥10
    ¥30
    ¥70
  • 领券
电子书 ¥51.35 定价:79.0
  • 收藏

  • 加书架

  • 引用

简介

神经网络计算在诸多领域取得突破,引发新一轮信息技术革命,但也对硬件载体的性能和能效提出更高的需求。阻变存储器的可靠性退化问题是影响存算一体系统准确率的关键因素,然而,前期的可靠性研究多是面向存储应用,尚缺乏面向神经网络应用的可靠性研究。本书则针对这一领域开展研究。本书从神经网络计算的应用需求出发,建立了从器件到系统的跨层次可靠性分析与评估框架,提出了面向神经网络的可靠性的评估方法、表征方法及可靠性影响的量化方法。建立了适用于多阻态、多温度和多阵列形态的阵列级保持特性退化模型,评估了保持特性退化对系统准确率的影响,确定了特定神经网络应用离线训练对器件数据保持特性的最低需求,并提出了相关优化方法。针对循环耐久性表征方法难以模拟在线训练时权重更新的问题,本书提出了小步长增量阻变方法,建立了循环耐久性与其耦合的非线性和开关比的关系模型,量化了循环耐久性对准确率的影响,证明了循环耐久性的耦合效应是导致在线训练准确率损失的直接原因。本书可供专业从事神经网络计算、面向神经网络应用的可靠性、阻变存储器研究的高校师生、科研院所研究人员和相关技术人员阅读和参考。

编辑推荐

深度学习算法的兴起带来了智能化的信息技术革命。神经网络计算是一种数据为中心的任务,需要计算硬件具有高性能、低功耗的处理能力。基于传统冯诺依曼架构的计算需要大量数据搬移,无法实现高能效的处理。然而,基于阻变阵列的存算一体系统中,存储和计算都发生在原位,不需要数据搬移。这种全新的计算架构可以并行的完成乘累加操作,能够高能效、低延时地实现神经网络计算,这也是近年来广受追捧的原因。本书在神经网络之下构建了全新的计算架构,能够高能效、低延时地实现神经网络计算,在近些年广受欢迎。

更多出版物信息
  • 版权: 清华大学出版社
  • 出版: 2024-05-01
  • 作者:赵美然
  • 更新: 2024-10-24
  • 书号:9787302658306
  • 中图:TP183
  • 学科:
    工学
    控制科学与工程
    工学
    计算机科学与技术
    交叉学科
    智能科学与技术

作者信息

赵美然

赵美然,2013年9月考入西安交通大学电子与信息学院微电子科学与工程专业,2017年7月本科毕业并获得工学学士学位。同年9月进入清华大学集成电路学院学习,师从高滨副教授,2022年6月毕业取得博士学位。博士期间共发表17篇SCI/EI论文和四项专利,其中以学生第一作者共发表了7篇论文,包括一篇“ESI高被引论文” 和两篇行业顶会IEDM,其个人谷歌被引次数超过300。博士期间曾获得2020年中国电子学会集成电路特等奖学金、国家奖学金等荣誉,博士毕业论文当选2022年清华大学优秀博士论文。