APP下载

AI芯片的发展及应用

2019-12-02刘衡祁

电子技术与软件工程 2019年22期
关键词:处理器架构芯片

文/刘衡祁

AI(Artificial Intelligence,人工智能)是当今社会所面临的重要科学技术变革,支撑着不同应用场景。传统的计算架构已无法支撑深度学习大规模并行计算的需求,此时,AI 芯片的出现让人工智能领域中大规模计算的需求得以满足。虽然中国在芯片设计领域起步晚,但我国在大数据采集分析技术以及人工智能算法等方面具有一定的实力,加之国家对芯片自主可控的重视,为AI 芯片的发展和技术追赶创造了良好的环境。针对人工智能领域运算的特征,AI 芯片的应用主要包括图像识别、语音识别和搜索引擎优化等。在做智能处理任务时,AI 芯片的性能是普通芯片的百倍,而且能耗更低,能够为人工智能技术的应用和实现提供强有力的计算基础。

1 AI芯片的发展及现状

随着AI 产业的发展,越来越多的企业相继投入到AI 芯片的研发中。目前人工智能领域中的机器学习、深度学习等颠覆性技术对芯片提出了更高的要求,原有的CPU(Central Processing Unit,中央处理器)已无法满足,所以GPU(Graphics Processing Unit,图像处理器)、FPGA(Field Programmable Gate Array,现场可编程逻辑门阵列)和ASIC(Application Specific Integrated Circuit,专用集成电路)等芯片被广泛用于人工智能领域。上世纪80年代后期神经网络算法和模式识别成为AI 的主要应用,并在数年后开始使用专用芯片来突破计算资源和内存访问的瓶颈。2004年以后,随着基于深度学习的视觉识别和语音识别算法水平的大幅度提升,AI 芯片的发展得到更多的关注和机会。目前,人工智能芯片技术领域的国外代表性企业包括Google、NVIDIA、Intel 和SAMSUNG 等公司,国内则呈现出百花齐放的态势,主要包括中科寒武纪、地平线机器人、深鉴科技、百度、华为、平头哥等,其中寒武纪在2016年发布的AI 处理器是世界首款商用深度学习专用处理器。2019年9月25日,阿里巴巴旗下的芯片研发公司平头哥发布了首颗云端超大型AI 推理芯片——含光800。该芯片的性能及能效比已经突破了现有AI 芯片的记录,据说在业务测试中,一颗该芯片的计算能力相当于十颗GPU(通用AI 处理器)。该芯片目前已经部署在阿里云平台,供阿里内部的多个视觉业务场景大规模使用,未来还将应用到医疗影像、自动驾驶等场景。

目前全球各大芯片公司和科技公司都在积极进行AI 芯片的布局。就目前来看,AI 芯片领域逐渐呈现出三股势力,第一股势力是致力于通用AI 芯片的专业芯片厂商,比如NVIDIA、Intel 等等;第二股势力是致力于定制化AI 芯片的新兴AI 独角兽企业,比如商汤科技、旷视科技、依图科技;第三股势力是致力于云端AI 芯片的互联网公司,比如谷歌、百度、阿里巴巴等。

2 AI芯片的应用

2.1 ADAS(高级驾驶辅助系统)的应用

随着人工智能技术的不断发展,智能汽车也得到高速发展。无人驾驶技术也是当下发展的热点,其中ADAS(Advanced Driving Assistant System,高级驾驶辅助系统)做出了决定性的贡献。ADAS 需要处理大量的激光雷达、摄像头等传感器实时采集的数据,并在极短时间内处理完数据并及时反馈。ADAS 的优越性体现在对控制模型优化和综合信息处理的算法上,主要包括神经网络控制和深度学习算法等。AI 芯片的飞速发展,可以满足ADAS中的图像分析、环境感知等环节对计算速度的要求。传统芯片的计算延时无法满足无人驾驶的应用场景,只有AI 芯片才能实时处理随时变化的交通信息及各类传感器的反馈信息。现在各大AI 芯片厂商都发布了或正在研究专用ADAS 处理器芯片,例如美国高通公司在国际消费类电子产品展览会上推出首个基于Snapdragon 820A 平台的车规级ADAS 芯片产品。该产品可以实现道路移动障碍物的识别,但离商用还有一定距离。除此之外,Intel、瑞萨、英飞凌等公司都有推出自己基于智能驾驶的AI 芯片产品。

2.2 智能手机中的应用

华为在2017年9月推出包含专用AI 模块的麒麟970 芯片,并成功应用在随后推出的Mate10 系列的智能手机上。该款芯片搭载了寒武纪的NPU(Neural-network Processing Unit,嵌入式神经网络处理器),成为“全球首款智能手机终端AI 芯片”。紧跟其后,Apple 公司发布了A11 Bionic 芯片并应用在iPhone X 系列的手机终端。A11 Bionic 芯片中应用了双核架构神经网络处理引擎,提升了用户在拍照等方面的使用体验。在智能手机终端上应用AI 芯片可以让其具备更强的深度学习和推断能力,让各类基于深度神经网络图像处理技术的应用能够为用户提供更完美的使用体验。除了在智能手机上,AI 芯片在其他智能终端上也有广泛的应用,比如智能家居、无人机领域。在AI 芯片的帮助下,扫地机器人可以敏捷地躲避障碍物,较脏的地方重点清扫,无人机的图像处理功能也变得更加强劲。

2.3 安防监控中的应用

安防领域现在正处于“智能化”升级阶段,边缘推理芯片使得安防摄像头具有了推理、筛选功能,而不是只具备之前单纯的影像记录功能。比如安装在家里的AI 智能监控系统,可以对陌生面孔进行识别,并且通过Wifi 将安装在家里的视频、音频、监控门窗损坏的传感器等连接起来,使用AI 技术进行筛选,将有用信息发送到手机、笔记本电脑等终端,紧急时刻还可以主动向出门在外的主人进行报警提醒。智慧安防监控系统将使用边缘推理芯片的安防摄像头所采集到的信息传递到云端,并且在IT 系统所在的云端引入人工智能、大数据等技术,有效降低了传统安防领域过度依赖人力的问题。除此之外,AI 技术可以用在商店客流量监控器、入侵者检测器等设备中,采用图像识别技术,过滤掉监控视频中的无用信息,自动识别不同物体,使得统计结果更为可靠。

Intel 斥巨资收购了ASIC 芯片设计厂商Movidius,积极布局安防监控领域,云天励飞设计的具有人脸识别抓拍功能的AI 芯片——DeepEye1000 也已流片成功。与此同时,海康、宇视、大华等安防巨头均开始设计制造自己的安防芯片。

2.4 CV设备与VR设备的应用

CV(Computer Vision,计算机视觉)设备主要应用在无人机、行车记录仪、智能摄像头以及智能手写板等方面。目前计算机视觉技术的成熟度及相关AI 芯片的发展将决定CV 设备的应用是否广泛。应用于CV 设备的AI 芯片多基于ASIP(Application Specific Instruction Set Processor,定制指令集处理器)架构,有效解决了CPU 计算能力不足和GPU功耗、成本过高的矛盾,因此,ASIP 是CV发展的关键技术。VR(Virtual Reality,虚拟现实)是指利用计算机图形系统和多种控制的接口设备,在计算机上生成的可交互的三维环境,并给用户提供沉浸感觉的一种技术。现在VR 设备主要用在游戏体验和电影电视方面。比如微软为自身VR 设备研制的HPU 芯片,可同时处理来自多个摄像头和多种运动传感器的数据,并具有CNN(Convolutional Neural Networks,卷积神经网络)运算的加速功能,能够充分满足VR 设备实现功能的计算需求。

3 AI芯片的关键技术

AI 芯片是基于新工艺、新器件,从工具到架构都有所优化的新型芯片,加上不断迭代的算法和超前、多样化的应用,才形成了AI芯片的核心竞争力。AI 芯片涉及的关键技术众多,其中主要分为五大类:工艺、器件、芯片架构、算法、应用这五大类,以下重点对其中几点进行介绍。

3.1 新型工艺与器件的突破

基于CMOS 工艺节点(16nm,7nm,5nm)的不断突破,器件的集成度越来越高。一些新兴器件,比如3D NAND、Flash Tunning FETs、FeFET、FinFET,应用的越来越广泛。3D NAND 通过堆叠内存颗粒来扩展2D NAND 闪存的存储容量,可满足移动消费端AI 芯片的存储要求。FeFET(Ferroelectric Gate Field-effect Transistors),全称为铁电栅场效应晶体管,其主要原理是使用基于铁电氧化铪的High-K 栅电介质和金属栅进行堆叠,使栅极具有铁电性。所以FeFET 虽然与现有逻辑晶体管的结构相同,但是具有可拓展、非易失、低功率等优点。高带宽片外存储器技术,如HBM、高速GDDR、LPDDR、STT-MRAM的应用也可以大大提升芯片的存储和运算能力,STT-MRAM 为自旋转移矩磁阻内存,其第一代产品是基于40nm 制造工艺,容量只有32MB。第二代产品基于28nm 制造工艺,容量已增加到了128MB。LPDDR(Low Power Double Data Rate SDRAM)作为第二代低功耗内存技术,由于功耗低、体积小的特点,可以用于移动终端的AI 芯片中。

除了器件工艺的突破,封装技术的提升也能大大提高微系统的性能,3D 堆叠技术是将不同功能的芯片通过层间孔互联工艺堆叠起来的系统级封装工艺技术,可以减小微系统外形尺寸,降低功耗,提高芯片速度。

3.2 算法的迭代和创新

算法是AI 技术的灵魂,目前AI 云端芯片主要以训练、学习为主,AI 终端芯片以推理、应用为主。但无论是类脑芯片的自我学习功能,还是终端芯片的推理功能,都是基于神经网络算法和机器学习算法。神经网络算法又是基于神经网络互联结构(比如卷积神经网络CNN、循环神经网络RNN、长短时记忆LSTM 等)以及深度神经网络系统结构(如AlexNet、GoogleNet、VGGNet 等)的一类算法。可见AI 算法是一门很大的学问,AI 芯片必须与AI 算法相互迭代升级,才能得到更广泛的应用。

深度学习算法是人工神经网络算法的拓展,多基于半监督式学习算法,通过输入数据的分类和回归,进而进行预测。常见的深度学习算法有:受限玻尔兹曼机RBN、堆栈式自动编码器等。深度学习算法相比以前的神经网络算法相比,拥有更多的“神经元”、更复杂的连接层、更强大的计算能力来训练,所以基于深度学习的AI 技术有更强的推理能力和迁移学习的能力。可见AI 算法的突破和创新,能让AI 技术更上一层楼。

3.3 芯片系统级结构的优化

为了满足云计算和边缘计算AI 芯片的性能和功耗的要求,需要优化人工智能芯片的系统架构。比如,神经网络芯片的卷积神经网络吞吐量和功耗之间的平衡,就需要架构师在芯片系统级架构上给出优化方案。AI 芯片多采用多核、众核的系统级架构,以突破在提高芯片性能时遇到的三个限制(互联时延、设计复杂度、功耗)。设计这些系统级架构是将AI芯片中各个处理器分别设计和优化,从而降低整体设计的复杂度;单个处理器中的互联减小了传输的距离,降低了互联时延;多核结构在满足性能提高的同时,减小晶体管整体翻转的频率,从而降低功耗,解决了单核结构高频率、高功耗的老问题。

AI 芯片的结构优化方法还有很多,比如SIMD(Single Instruction Multiple Data,单指令多数据流)技术,用于数据密集型的运算上,能让多媒体应用芯片如虎添翼。片上网络NoC是片上集成系统SoC 发展来的新的通信方法,常用于多核架构中。除此之外,存储器结构、内存接口结构的优化也是AI芯片的关键技术。

4 AI芯片产业的发展趋势

当今AI 芯片的研发方向基本还是基于冯诺依曼架构,但随着深度学习加速器的不断增加,原有的架构并不能有效地解决带宽的问题,架构的创新是AI 芯片产业发展面临的一个不可回避的问题。目前,模仿人类脑部神经元结构设计的“脑类芯片”和“神经形态芯片”已经在研发的初期阶段。不同于之前处理器和存储器要分开的架构,它的主要思想是模仿人脑神经元结构,将CPU、内存和通信部件都集成在一起,以分布式和并发式的方式传导信息,极大地提高了数据传输速度和计算能力,而且大大降低了功耗。

AI 算法与AI 芯片开发的一体化发展也将是AI 芯片产业的趋势。首先算法公司和芯片公司分别专注各自的领域,硬件性能的提升很快会被软件消化掉。而且目前算法公司和芯片公司不能实现倾囊相授的合作,传统的合作模式无法解决芯片迭代速度慢和AI 算法更新速度快之间的矛盾。所以现在有一些公司开始将算法和芯片作为一个整体进行开发、迭代,最终构建一个完整的人工智能平台,这种开发方式将具有明显优势。

除此之外,广阔的移动终端消费市场决定了应用在移动终端上的AI 芯片将会是开发重点。前段时间击败世界围棋冠军的谷歌智能机器人AlphaGo 其实是基于谷歌的云端AI 处理器,所以击败世界冠军是一个很大的云端人工智能平台,而不是一个小小的机器人。阿里巴巴的含光800 也是基于云平台。应用在移动终端的AI 芯片要求体积小,集成度高、功能定制化程度高,需要芯片公司的职能集中化。现在许多公司都成立的自己专门的芯片部门,比如中兴微电子、华为海思、阿里平头哥等等,都体现了各大公司对核心芯片自主可控的追求,以及芯片研发的部门化和战略化。

5 结束语

AI 技术的应用和发展需要使用基于新架构的AI 芯片来突破计算量和数据吞吐量的瓶颈,今年可是说是端侧AI 芯片的商业化元年,众多AI 芯片流片成功。本文主要介绍了AI 芯片的发展现状和应用场景,分析了AI 芯片涉及的关键技术,并对未来发展趋势做了简单分析。AI 芯片是未来发展智能安防、智能家居、智能驾驶、智能终端必须攻克的难题,对于科学技术的变革和人类社会的发展具有重要的意义。

猜你喜欢

处理器架构芯片
基于FPGA的RNN硬件加速架构
功能架构在电子电气架构开发中的应用和实践
LSN DCI EVPN VxLAN组网架构研究及实现
芯片测试
多通道采样芯片ADS8556在光伏并网中的应用
一种基于FPGA+ARM架构的μPMU实现
Imagination的ClearCallTM VoIP应用现可支持Cavium的OCTEON® Ⅲ多核处理器
ADI推出新一代SigmaDSP处理器
74HC164芯片的应用
AItera推出Nios II系列软核处理器