中投研究:AI芯片拥抱高速增长期
文/新浪财经意见领袖(微信公众号kopleader)专栏机构 中投研究
执笔:刘烜
刚过去的2018年正值芯片巨擘英特尔成立五十年,抚今追昔、纵观中外,有助于在喧嚣中发掘真正机会。
随着人工智能与物联网、大数据热度不断蹿升,国内外涌现出多家AI芯片(即人工智能芯片)初创公司,一时间“乱花渐欲迷人眼”。然而,AI芯片是一个宽泛的概念,其中既有通用性强的高端芯片,也有技术门槛较低的专用芯片,个中差别不可以道里计。
刚过去的2018年正值芯片巨擘英特尔成立五十年,抚今追昔、纵观中外,有助于在喧嚣中发掘真正机会。
一、芯片往事与AI新战场
芯片约占整个半导体行业市场规模的84%,与AI芯片相关的主要是数字逻辑芯片[1]、微芯片[2]等用于逻辑处理与计算的处理芯片。21世纪初,Dennard缩放定律[3]失效之后,处理芯片的性能提升越来越慢(见图1),不得不转向多核方案,但正如Amdahl定律所言多核方案亦有局限,摩尔定律[4]似乎也摇摇欲坠,目前产业界仍在通过尝试新工艺、新材料乃至新架构的解决方案。
图1 处理芯片的性能演变路线
来源:赛灵思,Versal: the First Adaptive Compute Acceleration Platform,2018年10月
(一)通用处理芯片:CPU与GPU
CPU[5]和GPU[6]都是通用型芯片,前者通用性最强,擅长逻辑控制和顺序运算,是各类计算机和智能手机的核心部件;后者擅长并发计算,适合图形和多媒体渲染、模式识别、密码破译等。与CPU相比,GPU大幅缩减了控制逻辑和存储单元,将更多晶体管分配给计算单元(见图2),以牺牲一定程度通用性为代价,显著提升了游戏、3D建模、人工智能、金融分析等计算密集型应用场景下的处理能力(见图3)。换言之,CPU的大部分晶体管都用于控制逻辑和缓存,能用于各种情景下的任务,但正因为这种通用性,CPU在计算复杂度低的密集计算场景下就有许多晶体管处于闲置状态,造成处理能力和能效不如GPU。更通俗地讲,CPU能做的事GPU不一定能做,但某些情况下CPU的工作效率不如GPU。
图2 CPU与GPU对比:权衡与取舍
来源:英伟达,中投研究院
图3 CPU与GPU对比:计算能力(上)、内存带宽(下)
注:GeForce系列GPU主要面向消费市场,Tesla系列GPU是面向高性能并行计算的通用GPU。
资料来源:英伟达,中投研究院
(二)专用处理芯片:FPGA、ASIC及类脑芯片
专用处理芯片功能有限、技术门槛低,相对通用处理芯片功耗更小、在特定场景下更快,但是灵活性更低。总体上,专用处理芯片可以分为定制和半定制两大类,前者包括ASIC、类脑芯片等,后者包括FPGA等。
FPGA和ASIC都是应用于特定场景的专用处理芯片,前者允许用户通过硬件编程定义逻辑[7],后者出厂后无法修改。两相比较,FPGA的前期启动成本低,通过再编程特性提供了灵活性,适合为包括ASIC在内的芯片提供原型验证,但这种优势是以更高总成本、功耗以及牺牲性能为代价;ASIC运行速度比FPGA快,但设计和制造周期更长,前期投入高、投资风险大,适合于市场容量较大的领域,比如潜力巨大的边缘计算和嵌入式应用市场。
所谓半定制化FPGA、结构化ASIC等芯片,实际上是在FPGA和ASIC之间选取了中间路线。例如,eASIC芯片设计公司(已被英特尔收购)采用单过孔方案大幅减少了裸片尺寸,使得其与FPGA相比功耗和总成本更低,与标准ASIC相比前期成本更低、设计开发时间更短——从流片到交付测试原型只需5周时间[8]。