• 1
  • 2
  • 3
  • 4

首页 / 行业

未来人工智能芯片设计将更倾向于软硬件协同设计模式

2023-06-08 00:56:00

未来人工智能芯片设计将更倾向于软硬件协同设计模式

目前,人工智能BSP50领域已成为最受关注的热点之一。人工智能领域是一个研究和应用领域,通过计算机的研究和开发,使其与人类智能相似,并对环境输入做出有意义的判断和反应。决定人工智能质量的因素通常是计算能力和数据量的大小,而实现人工智能的方法是机器学习,使机器通过培训和学习逐渐接近我们想要实现的效果。随着处理器能力和数据量的快速增长,机器学习方法也在发生革命性的变化,引入了深度学习的概念。由于其多层次的形式,深度学习增强了其非线性程度,可以带来更强的拟合能力。此外,它类似于仿生逐层自动提取特征的过程,保证了提取特征的质量和丰富性,使其性能与传统的机器学习算法相比得到了质的提高。

随着模型算法的发展,模型的性能逐渐提高,模型本身的深度和复杂性也大大提高。大规模图像识别竞争(ILSVRC)例如,2012年多伦多大学AlexKrizhecsky随同其倒是GeoffreyHinton发布的AlexNet以83.0%的Top与以往传统模型相比,分类准确率提高了10%以上。AlexNet它是一个卷积神经网络,有5层卷积层和3层全连接层,包括6100万个权重参数和7层.乘加运算24亿次。截至2017年,最复杂的网络模型层数已超过1000层,权重参数和乘加运算次数均比AlexNet提高了几个数量级,所能达到的识别准确性已经超过了人眼。

阿尔法围棋最近击败了许多人类围棋大师(AlphaGo),其复杂的决策算法模型分布式实现版中,其复杂的决策算法模型需要1300多个CPU和280个GPU为计算能力提供支持。因此,面对日益复杂的人工智能算法,需要强大的处理器来满足严格的功耗和实时需求;因此,处理器芯片的精细设计已成为提高芯片计算功能和满足应用需求的必要条件。

一般来说,处理器芯片的计算速度是人工智能模型标,无论是人工智能模型培训还是前向推断应用过程;在嵌入式移动终端等一些低功耗场景中,硬件计算的功耗也需要严格控制。传统的CPU由于其串行执行方式,在处理数据和计算密集型人工智能算法时显得短缺。因此,增加处理器计算的并行性成为性能提升的主要方向。英伟达提出了通用计算GPU(GPGPU)有大量可并行计算流处理器的概念GPU应用于人工智能算法的研发过程中,并提供成熟稳定的算法CUDA和cuDNN软件环境支持。由于GPU在关注模型准确性和基于数据中心和服务器环境的模型培训场景中,计算能力强,GPU应用广泛。但与此同时,我们也注意到,常见的GPU板卡功耗高达200-3000W,这限制了它在低功耗场景中的应用。因此,根据应用场景和算法类型,定制芯片内部结构,提高芯片的整体能效比,成为人工智能芯片发展的另一个主流方向。

一般来说,对于某一类型的人工智能算法,它往往具有可分割的特性,分割的子算法块具有一定的相似性。以图像应用中常见的卷积神经网络为例,最密集的卷积层可以抽象为滑窗类型的乘加操作,滑窗的大小和步幅以及计算通道数可以抽象为可配置参数。在硬件结构的设计过程中,往往会根据算法划分和抽象的方式,在计算通路和存储结构上进行定制和可配置的设计。大多数研究人员都会采用FPGA加速硬件结构的快速迭代开发。许多研究机构在顶级学术会议上发布了基于FPGA通过加速结构设计,行业企业也开始通过常见的算法模型FPGA加速器的形式部署到应用端,性能好,功耗低。下一步,我们还可以用专用集成电路固化计算和存储的核心部分(ASIC)实现能效比较高的方法。已知的优秀ASIC芯片设计已经实现了数百个GOPS(每秒10亿次运算数)将功耗控制在毫瓦级。ASIC在广泛应用市场的前提下,它具有效率高、生产成本低的优点,但其一次性工程成本和较大的开发成本往往在快速算法演变过程中存在一定的风险。因此,应选择不同的平台来实现不同的研发和市场需求。

近年来,硬件算法优化也在发展,包括数据量化、模型稀疏等技术;这些技术有助于减少人工智能芯片的计算资源和存储带宽限制,以更低的硬件成本实现更高的吞吐量。数据位宽的变化和模型稀疏带来的不规则对硬件结构的实现提出了挑战。未来的人工智能芯片设计将更倾向于软硬件协同设计模式,从软硬件两个方向考虑限制条件和优化路径的选择,从而实现更优化、更通用的解决方案。


芯片模式软硬件协同设计人工智能计算硬件

  • 1
  • 2
  • 3
  • 4

最新内容

手机

相关内容

  • 1
  • 2
  • 3

猜你喜欢