深度学习带动了本轮人工智能浪潮的大发展,AI芯片成为人工智能产业发展的核心驱动力,AI芯片产业通过引入GPU突破了CPU并行计算短板,AI芯片已经成为业界研究热点。本文分析了当前四类主流AI芯片的技术特点,认为ASIC芯片更符合未来的发展趋势,并对通信运营商在AI芯片领域研发布局提出了四方面的建议。
一、AI芯片成为人工智能产业发展核心驱动力
深度学习带动了本轮人工智能浪潮的大发展,而海量数据和AI芯片提供的高效算力是支撑深度学习算法实现的基础,AI芯片对人工智能的意义,就像发动机之于汽车。当前对AI芯片尚无公认的标准定位,广义上,能驱动AI程序的芯片都可叫AI芯片;狭义上,AI芯片是为适应AI算法进行特殊设计的芯片。
从功能上来看,AI芯片需满足训练和推理两个环节。在训练环节,通过大数据训练出一个复杂的神经网络模型。目前训练环节主要使用英伟达的GPU(图形处理单元)集群完成,谷歌的TPU2.0也支持训练环节和深度网络加速。在推理环节,利用训练好的模型,使用新数据推理出各种结论。总体来看,训练环节对芯片性能要求比较高,推理环节对简单指定的重复计算和低延迟的要求很高。
从应用场景来看,AI芯片既用于云端也应于设备端。在训练环节,需要极大的数据量和运算量,单一处理器无法独立完成,只能在云端实现。在设备端,智能终端的数量庞大,需求差异较大,比如VR设备对于实时性要求很高,推理环节无法在云端完成,要求设备有独立的推理计算能力。
从技术架构来看,人工智能芯片主要可分为四类。一是通用性芯片,如GPU;二是以FPGA(现场可编程门阵列)为代表的半定制化芯片,如深鉴科技的DPU;三是ASIC(专用集成电路)全定制化芯片,如谷歌的TPU;四是类脑芯片。
二、四类主流AI芯片技术特点分析
GPU:即图形处理器,是一种大规模并行计算架构的众核处理器,专为同时处理多重任务而设计,原本是帮助CPU处理图形显示的任务,尤其是3D图形显示。为了执行复杂的并行计算,快速进行图形渲染,GPU的核数远超CPU,但每个核拥有的缓存相对较小,数字逻辑运算单元也更简单,更适合计算密集型的任务。GPU硬件结构固定,不具备可调整性。
FPGA:现场可编程门阵列,利用门电路直接运算,速度快,用户可自定义门电路和存储器之间的布线,改变执行方案,以期得到最佳效果。FPGA可采用OpenCL等更高效的编程语言,降低了硬件编程的难度,同时可以集成重要的控制功能,整合系统模块,提高了应用的灵活性。FPGA作为专用集成电路领域中的一种半定制电路出现,既解决了定制电路灵活性不足的问题,又克服了原有可编程器件门电路数量有限的缺点。与GPU相比,FPGA具备更强的计算能力和更低的功耗。
ASIC是不可配置的高度定制专用计算芯片。不同于GPU和FPGA的灵活性,定制化的ASIC一旦制造完成将不能更改,所以初期成本高、开发周期长、进入门槛高。但ASIC性能高于FPGA,相同工艺的ASIC计算芯片比FPGA计算芯片快5-10倍,同时规模效应会使ASIC成本大幅降低。总体来看,ASIC芯片在功耗、可靠性、体积方面均具备优势,尤其适用于对性能、功耗、体积要求较高的移动端设备。
类脑芯片还处于理论研究阶段,主流理念采用电子技术模拟已被证明的生物脑的运作规则,构建类似于生物脑的电子芯片,即“仿生电子脑”。受到脑结构研究的成果启发,复杂神经网络在计算上具有低功耗、低延迟、高速处理、时空联合等特点。
四类AI芯片的技术特点总结如表1所示。
三、ASIC芯片更符合未来发展趋势
分析可知,GPU和FPGA都属于AI通用芯片,在性能、应用广泛性等方面都有一些局限。类脑芯片是一种相对处于概念阶段的集成电路,面世的并不多,大规模的商用进展缓慢。而ASIC芯片作为全定制化芯片,从长远看更适用于行业人工智能解决方案。因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应,ASIC基于人工智能算法进行定制,其发展前景看好。
当前,ASIC芯片市场百家争鸣,国内外主流芯片厂家均推出了相应的芯片。英伟达(NVIDIA)发布了一款全新AI芯片Jetson Xavier,每秒可执行30万亿次操作,功率仅为30瓦。谷歌发布了TPU3.0,性能进一步提升。IBM提出的基于PCM的个性化AI芯片,可达到GPU 280倍的能源效率,并在同样面积上实现 100倍的算力。英特尔发布了专为机器学习而设计的神经网络处理器系列芯片Lake Crest。百度宣布了首款AI芯片昆仑,是中国首款云端全功能AI芯片,是目前为止设计算力最高的AI芯片,且功耗仅为100+W。华为发布了昇腾910和昇腾310两款AI芯片,前者的单芯片计算密度比目前最强的NVIDIA V100的125T还要高上一倍,后者是昇腾的mini系列。
四、对通信运营商在AI芯片领域布局的建议
AI赋能通信已成为通信运营商重要的发展战略,当前国内几大通信运营商基于英伟达P40、P4、V100等系列GPU芯片产品,研发支撑现网业务需求的人工智能基础平台和应用,在网络运维、在线客服、市场营销、系统安全、企业管理等业务场景下,已经做出了一些实践和探索,但尚未有运营商直接开展AI芯片技术相关的研发工作,在此笔者提出几条建议,建议通信运营商在AI芯片领域提前布局,助力企业人工智能战略推进和相关工作开展。
一是加强与科研机构和产业界的沟通与合作,支撑企业集采和投资分析。在开展网络智能化重构、5G创新试验的同时,及时掌握AI芯片产业发展情况,分析和探索不同AI芯片在企业各种业务领域的具体应用场景及选型策略,支撑5G智能终端和AI芯片产品的集中采购工作。同时跟踪AI芯片领域初创企业发展动态,适时开展AI芯片领域战略性布局的投资或收购。
二是研发基于AI专用芯片的人工智能终端产品和应用系统,助力AI赋能垂直行业。加速AI终端产品和应用系统的研发,不断提升AI能力和产品覆盖水平。在用户端积极布局智能终端产品;在网络侧致力于打造网络运维大脑,提升面向下一代网络的智能运维能力;在应用侧注重场景驱动,探索能力开放运营和生态合作,积极切入智能家居、智慧城市等垂直领域,推动AI变现。
三是在网络领域使用搭载AI专用芯片的定制化高性能服务器,增强云端训练和推理能力,提高通信网络智能化水平。5G网络将进一步开放实现分层解耦,网络各层逐步使用搭载AI专用芯片的定制化高性能服务器,可促进AI的应用:在基础设施层使用AI专用芯片,实现不同层级的训练和推理能力,比如在核心数据中心引入AI专用芯片可以满足全局性的策略或算法模型的集中训练以及推理需求;在基站内嵌入AI专用芯片,可以支撑设备级的AI策略及应用;在网络和业务控制层,可以利用AI专用芯片推理能力,对网络和业务实现智能控制,如网络智能运维及智能调优,通过机器学习快速拦截恶意行为、预防攻击,维护网络安全等;在运营及编排层,可以利用AI专用芯片云端训练能力,对数据做深度、智能化挖掘,从而指导运维和运营,实现运营智能化。
同时可尝试CPU + FPGA + ASIC的芯片“混搭”架构,研究和试验各类AI应用场景下,不同技术架构芯片的组合使用方式,增强企业核心AI能力。
四是探索基于AI专用芯片的多接入边缘计算技术应用场景,提升5G网络服务能力。研究边缘计算设备与AI的结合,开展基于AI专用芯片的边缘计算试点,研究和分析适合在终端计算节点上开展的业务应用场景,如自动驾驶、安防、IR/VR等,设计匹配该类业务的网络架构,提升5G网络服务能力。
来源:《中国电信业》