公司将数控加工机床的相关产品做到深度服务,产品款式齐全
高功能核算和数据处理芯片是软件算法功用完成的硬件载体, 软件算法和高功能核算芯片有着相互依存、相互促进的联系. 近年来, 集成电路蓬勃开展带来的算力进步对根据深度神经网络的智能使用取得巨大成功有着不可磨灭的奉献. 一起, 大数据和人工智能年代的降临也给传统的核算/存储别离的硬件架构带来了的存储墙及功耗墙应战. 为了下降核算和存储单元间数据频频交流带来的推迟和功耗, 以存储为中心的核算架构逐步鼓起. 近存核算和存内核算技能可以有用紧缩核算单元和存储单元的时刻与空间间隔, 进步面向智能使用芯片的能效和功能, 遭到了学术界和工业界广泛重视.
世界和国内学者报导了众多近存/存内核算技能范畴的重要开展, 包含根据传统动态随机存储器(DRAM)等的近存核算和存内核算芯片, 以及根据阻变存储器(ReRAM)、相变存储器(PCM)、磁存储器(MRAM)等新式存储器材的近存/存内核算范式. 该范畴现已逐步开展到从单纯的器材研讨向电路、架构、算法归纳研讨的新阶段. 研讨人员开端愈加重视器材、电路及体系稳定性与可靠性、新网络和新算法等对芯片的影响及对应的优化办法, 协同规划开端得到重视.
根据新存储技能(3D内存技能和可变电阻式存储器)的图核算和机器学习的加快器体系结构可以有用地削减加快器体系结构的数据活动来取得高功能和下降功耗. 南加州大学Xuehai Qian教授在总述文章“Graph processing and machine learning architectures with emerging memory technologies: a survey”中对根据新存储技能(3D内存技能和可变电阻式存储器)的图核算和机器学习的加快器体系结构的最新研讨成果进行了全面的总结: 关于3D内存技能, 首要问题是如何将核算映射到散布式的内存模块和相应的核算单元, 从软硬件协同规划的视点削减通讯; 关于可变电阻式存储器, 首要问题是如何将根本的核算映射到可以进行矩阵向量乘的穿插式内存控制器结构, 并对当时和未来的热门研讨问题进行了展望.
存内核算范式可削减数据搬运并进步核算功率. 根据自旋磁存储器(MRAM)的存内核算规划具有非易失、高能效、易于集成等特色. 东南大学Jun Yang教授团队与合作者在总述“A survey of in-spin transfer torque MRAM computing”一文中从存储单元、电路规划和体系协同优化3个方向总述了根据MRAM的存内核算技能, 解析了当时的规划应战及潜在的处理计划.
近年来, 人工智能处理器被广泛用于智能视觉、语音、健康监测等使用. 可是, 人工智能处理器存在核算与存储单元之间的大规模数据移动, 给传统的核算架构带来了严峻的存储墙及功耗墙应战. 为了处理数据移动带来的功耗问题, 经过在核算芯片内布置很多存储单元, 让存储单元具有核算才能, 可以大幅削减或防止数据移动, 然后处理以上问题. 电子科技大学Jun Zhou教授团队在总述文章“Energy-efficient computing-in-memory architecture for AI processor: device, circuit, architecture perspective”中剖析了现有人工智能处理器对数据移动和低功耗的需求, 介绍了存内核算的布景和完成办法, 剖析了现有的根据数模混合的存内核算规划计划和其他规划计划, 总结了近几年存内核算芯片的研讨状况, 并对存内核算未来的开展进行了评论.
存内核算技能被认为是打破“冯·诺依曼瓶颈”的有用办法. 中科院核算所的Yinhe Han教授团队与合作者在研讨开展“Breaking the von Neumann bottleneck: architecture-level processing-in-memory technology”中从体系结构的视点动身, 对根据DRAM的存内核算(PIM)技能所面对的首要应战进行了总结和介绍. 剖析了其在数据一致性、PIM兼容性和PIM透明性等方面所面对的问题, 并对应介绍了当时的研讨开展和处理这些问题的办法. 一起, 评论了现有PIM模拟器的相对局限性, 以及4种传统的PIM仿真器. 最终, 展望了体系结构级DRAM PIM技能的远景和开展方向.
发现神经网络内部的衔接办法对了解脑的作业机理及类脑核算的研讨有重要的含义. 密歇根大学Wei D. Lu教授团队在论文“Neural connectivity inference with spike-timing dependent plasticity network”中提出一个根据二阶忆阻器的人工神经网络, 可以实时、高效地处理生物神经网络产生的数据并映射出生物神经网络内部的衔接办法.
比较于传统核算芯片, 根据忆阻器的存算一体芯片在神经网络核算方面具有更高的能效, 可是存算一体芯片的核算精度往往遭到忆阻器的非抱负特性影响. 清华大学Bin Gao教授和Huaqiang Wu教授团队在论文“Array-level boosting method with spatial extended allocation to improve the accuracy of memristor based computing-in-memory chips”中提出一种阵列空间仿制的识别率进步办法, 并针对神经网络不同层的识别率重要性不同的特色, 提出了贪婪空间分配算法. 试验结果表明, 该办法可以有用按捺忆阻器非抱负特性的影响. 该作业为进步忆阻器存算一体芯片的核算精度供给了新思路和办法.
根据RRAM的存算一体神经网络加快器有高并发、低功耗等长处, 但本身束缚对所处理的神经网络提出必定要求. 一方面, 神经网络需求考虑模拟核算带来的噪声问题和数模转化等问题; 另一方面, 神经网络的权重数量受RRAM单元数量的束缚, 权重和中心激活值需求进行量化以布置到硬件. 因而, 一般为RRAM存算一体加快器规划和布置的神经网络开支教大, 且模型功能较差. 北京大学Guangyu Sun教授团队在论文“NAS4RRAM: neural network architecture search for inference on RRAM-based accelerators”中提出针对根据RRAM加快器的神经网络查找结构——NAS4RRAM, 在规划束缚下, 自动化地探究规划空间, 寻觅契合束缚的高功能神经网络, 然后明显进步规划功率.
根据忆阻器的穿插阵列可以有用地加快神经网络的核算, 为新式神经形状核算供给了一种很有出路的范式. 可是忆阻器存在电阻漂移的问题, 会严峻影响神经网络的功能, 阻止其实践使用. 西南大学Shukai Duan教授团队在论文“Bayesian neural network enhancing reliability against conductance drift for memristor neural networks”中针对忆阻器神经网络硬件完成中的电导漂移等导致网络精确度产生严峻退化的问题, 提出了一种根据贝叶斯神经网络的权值优化办法将权值散布与电导误差相关联, 使网络在权值产生较大改动时依然可以保持高精度, 明显进步了网络的鲁棒性. 该计划可以集成到神经形状核算的硬件化中, 为其大规模使用供给了保证.
存内核算技能可以有用地下降内存拜访推迟, 加快传统神经网络的推理运算. 可是新式的图卷积神经网络(GCN)混合了核算和内存拜访特性, 束缚了存内核算架构的访存优势. 深圳大学Yi Wang教授团队在论文“Towards efficient allocation of graph convolutional networks on hybrid computation-in-memory architecture”中面向异构存内核算架构, 提出了一种GCN的使命调度办法. 该调度办法可以有用地分配GCN中具有不同核算和存储资源需求的使命, 明显进步异构架构的利用率并下降GCN的推理推迟. 该作业为进一步加快图神经网络的处理功率供给了新的思路和技能途径.