启闳半导体科技(江苏)有限公司QiHong Semicon TECHNOLOGY (JIANGSU) CO.,LTD
综上所述,我们认为GPU市场的转折将会是传统游戏相关收入逐渐饱和(甚至在短期内大幅下降),而在人工智能和高性能计算(即GPGPU)相关的数据中心市场会成为目前和中期内的首要增长点,远期来看元宇宙相关的渲染任务有可能会取代传统游戏相关收入,但是还存在很大的不确定性。
GPU技术演进路线
如前所述,数据中心中的人工智能和高性能计算正在成为GPU目前最关键的增长点,因此GPU厂商技术研发目前也主要围绕这个目标。这里我们将会分析GPU领域两大龙头Nvidia和AMD的相关技术路线图,来分析一下GPU在未来几年内演进的一些重要技术路线。
首先是专用加速器与通用GPU的融合。在人工智能硬件刚兴起的时候,使用专用加速器还是使用通用GPU做加速几乎是两大阵营——专用加速器效率高但是只能支持几种特定的算法和模型;通用GPU兼容性好,但是效率较差,功耗也较大。但是,随着人工智能硬件的演进,目前我们看到通用GPU和专用加速器正在慢慢融合,或者说在GPU上我们在看到越来越多的针对一些特定人工智能模型的专用IP来实现加速。举例来说,混合精度计算和低精度整数运算加速已经成为数据中心GPU的标配。在这个领域,Nvidia更为激进,凭借其对于人工智能模型生态的大量布局和龙头地位,Nvidia能够把握人工智能模型发展的态势(如新模型的流行程度)并且据此在GPU产品上加入相关支持。在Nvidia下一代的H100 GPU中就加入了对于Transformer系列模型的专用加速模块,而这样的专用加速模块集成在通用GPU中恰恰说明了通用GPU和专用加速器之间的融合将会是未来的重要技术演进方向。
除此之外,决定GPU计算性能的关键指标是存储访问带宽和延迟。在这个方面,增加DRAM带宽,使用HBM等最新的内存接口已经是GPU的标准配置,相信未来随着DRAM接口标准的演进,GPU也会优先使用最新的DRAM接口。而除了DRAM之外,高速缓存(cache)也是关键的存储,缓存容量会大大影响计算的延迟和功耗。Nvidia和AMD都在积极地扩大高速缓存的容量,而在这方面AMD使用新技术的步伐则领先Nvidia——目前Nvidia在H100增加缓存主要还是考虑2D的方式即在同芯片上加大缓存面积,而根据AMD今年六月份公布的最新CDNA3 GPU架构,CDNA3会使用高级封装技术,使用单独的缓存芯片粒(chiplet),并且将缓存芯片粒和GPU使用堆叠的方式集成在一起(即Infinity Cache)。这样一来,高速缓存芯片粒的存储容量就有可能大大增加,从而提升性能。