半导体将可能迎来新一轮超强周期

北京澎泰资本   2023-11-27 本文章111阅读
核心观点


●   AI的涌现,将持续驱动半导体需求的爆发,强度将远超预期。

●   多项数据证实,当前半导体周期正处于低位,我不知道是不是底部,但一定不是顶部。

●   新一轮供需错配的严重程度超预期,我们认为未来的半导体周期弹性将远超以往。

一、人工智能横空出世,AIGC引发革命


当前人工智能正在进入大规模落地应用的关键时期。2022年云端部署的算力中,推理占比已经达到了58.5%,训练占比只有41.5%,有研究机构预计到2026年,推理占比将达到62.2%。云端推理占比逐渐提升意味着,AI落地应用数量不断增加,人工智能模型将逐步进入广泛投产阶段。

1

AIGC仍然在快速迭代


GPT-3,在2020年5月发布,当时使用了1750亿的参数,预训练数据集规模达到45TB。

GPT-4,在2023年3月发布,但没有公布参数量和数据集规模。从它可以处理的数据规模来看,其参数量只会变得更加庞大。例如文字输入上限提升到2.5万字,可接受图片数据并对图片进行理解和分析,在人类专业考试中,多次拿到比人类还要优秀的成绩等。

多模态大模型大势所趋,应用场景极大丰富。多模态大模型可整合图像、语音、文本等输入输出方式,实现对多种类型和模态数据的学习、分析及生成,有望极大丰富人机交互场景。可以看到,多模态大模型将充分发挥人工智能创造价值的潜力,赋能各行各业实现降本增效,甚至加速迈向通用人工智能的步伐。


图片


2

中国等玩家快速入场,模型数量大幅增加


预训练大模型基于“预训练+精调”等新开发范式具有良好的通用性和泛化性,可通过零样本、小样本学习获得领先效果,大幅加速人 工智能大规模产业化进程。

自2020年起,中国的大模型数量骤增,仅2020年到2021年,中国大模型数 量就从2个增至21个,和美国量级同等,大幅领先于其他国家。可以预见,以谷歌的BERT、OpenAI的GPT和百度的文心一言为代表的大模型,未来将成为智能化升级中可大规模复用的重要基础设施。


3

大模型算法对算力提出极高要求


ChatGPT基于Transformer模型,并改进训练算法,一方面采用大量数据信息分析训练,模型参数高达1750亿,另一方面要求海量数据下并行计算的能力,需要消耗巨大的算力才能支持这种大模型的训练和内容生产。具体举例,OpenAI训练使用了10000张英伟达训练卡,而训练1750亿参数的GPT-3,需要一个英伟达V100GPU计算约355年,且需要增加并行度;此外175B模型需要显存按全精度预估在700GB左右,需要10张左右80GBA100卡。生成式AI主要依赖于人工智能大模型,参数达数十亿至数万亿个,需要庞大的数据集进行训练,致使AI算力的需求也呈现出指数级的增长。

根据IDC数据,2021年中国智能算力规模达155.2每秒百亿亿次浮点运算(EFLOPS),2022年智能算力规模将达到268.0EFLOPS,预计到2026年智能算力规模将进入每秒十万亿亿次浮点计算(ZFLOPS)级别,达到1,271.4EFLOPS,2021-2026年复合增长率达52.3%。预计中国人工智能支出中硬件占比将保持最大,未来5年将一直保持65%左右的份额。

基于此,看好AI大模型训练及推理需求创造的算力芯片等硬件基础设施的增量市场空间。

二、AIGC大模型对算力硬件的需求


1

CPU+xPU的异构方案成为大算力场景标配


过去40年间,在指令集简化、核心数增加、制程微缩、架构改进等技术变革的推动下,CPU的性能已经提升接近5万倍,但不可避免的边际效应递减。目前CPU受制成本功耗难以匹配AI对算力需求的高速增长,CPU+AI芯片的异构方案应运而生,AI芯片类型包括GPU、FPGA和NPU等。


2

CPU+GPU是目前最流行的异构计算系统


从计算资源占比角度看,CPU包含大量的控制单元和缓存单元,实际运算单元占比较小。GPU则使用大量的运算单元,少量的控制单元和缓存单元。GPU的架构使其能够进行规模化并行计算,尤其适合逻辑简单,运算量大的任务。CPU+GPU是目前最流行的异构计算系统,在HPC、图形图像处理以及AI训练/推理等场景得到广泛应用。根据IDC数据,2021年中国AI芯片市场中,GPU市占率近90%。


3

大参数调用及海量数据存取需更强存储能力


ChatGPT需要很庞大的通用数据集,作为训练数据的输入,此外训练与推理还需要大参数调用及海量数据读存,数据存储、访问及传输速度对模型的训练及推理效率存在显著影响,因此对应需要相应的存储服务器硬件设施,如温冷存储,数据访问加速,数据湖等;以及对大容量存储的需求,如AI服务器,除了内存需要128GB或更大容量的高性能HBM和高容量服务器DRAM,还需硬盘去存储大量数据;另外还需要专门面向AI定制的一些存储协议、访问协议。根据IDC数据,存储在高性能/推理型/机器学习型服务器中的占比分别达29%/25%/16%,AI服务器有望提高存储市场相关需求。


三、静待半导体周期自底部回暖


1

半导体的行业属性是周期+成长


过去20年来,全球半导体行业呈现明显的周期+成长特性,每隔4-5年经历一轮周期。全球半导体销售额是反应全球半导体景气周期的显著指标,我们通过跟踪2000年至今全球半导体销售额的季度数据,用全球半导体销售额同比增速的最低点作为周期底部,同比增速的最高点作为周期顶部,发现2000Q2、2004Q2、2010Q1、2014Q1、2018Q2、2021Q2是周期顶部,2001Q3、2009Q1、2011Q4、2016Q2、2019Q3是周期底部。全球半导体行业每隔4-5年经历一轮周期。从周期底部到周期顶通常1-3年时间,从周期顶部下行周期底部通常需要1-2年时间。


2

供需错配是造成半导体行业周期的核心原因


整体来看,上行周期——需求爆发、缺货涨价、投资扩产,衰退周期——滞后产能释放,需求萎缩、产能过剩、价格下跌。周期伊始,因划时代新技术与新产品的出现,半导体需求呈现连续数年的爆发性增长,半导体生产企业亦加大资本开支/产能以满足正在扩张中的产品需求,半导体行业景气度上行,而当技术创新趋缓、需求饱和或下降,滞后产能释放引发供给过剩,供需产生失衡,进入存量竞争阶段,半导体销售额与价格产生大幅下滑,产能利用率下降,行业景气度下行,而当库存消化完毕,新需求动能出现,又会带来新一轮景气上行。

由于半导体行业周期是行业供需错配所致,因此供给及需求端的相关指标通常与半导体周期所处阶段具有强相关性,部分指标具有前瞻性。需求端相关的有IC设计厂商的库存水平(库存价值、库存周转天数),存储厂商的芯片出货价格;供给端相关的有晶圆代工厂产能利用率、全球半导体设备销售额等。


3

不断涌现的新应用持续驱动半导体市场成长


从1980年至今,PC、功能机、智能机、5G应用等下游交替轮动,成为半导体市场的核心推动力。二十世纪80年代初到90年代末,PC逐渐渗透,成为半导体市场需求的主力军。二十一世纪初,互联网兴起,2G手机及液晶电视促进半导体市场增长,2008年后,3G智能手机、平板电脑渗透率快速提升,随后4G、5G逐渐更迭,新产品和新技术不断推动下游需求。展望未来,物联网、人工智能、自动驾驶、AR/VR有望成为下一轮半导体市场增长的核心驱动力。


4

储器周期明确指示半导体行业在周期底部


存储器本轮周期起始于2020Q1,到2021Q3存储器价格见顶,此后价格持续下滑,至今持续6个季度。

这个周期的波动原因也很好解释:2020Q1-Q3,全球范围爆发新冠疫情,各类终端需求受到一定影响,全球半导体销售额增速平缓;2020Q3-2021Q3,由疫情催化的企业加速数字化及“上云”转型,个人远程办公的需求带动了服务器、PC等产品销量激增。

2022Q3、2022Q4存储器均有约15%~20%的降价幅度,2023Q1DRAM价格下跌20%,NAND价格下跌25%。从高频数据看,当前4GbDDR3现货价、8GbDDR4合约价、台股DRAM月度营收同比等数据均已跌破上轮周期低点。

图表:DDR3现货价、DDR4合约价、台股DRAM月度营收同比增速对比

图片


从供给端来看,龙头厂商相继削减资本开支,其中SK海力士2023年资本开支同比削减57%,美光削减42%,三星电子则仅仅优化旧制程产线,灵活调整2023年设备方面的资本支出,符合其一贯的竞争策略。龙头厂商2023年资本开支同比减少19%,超过2019年的-13%;台厂2023年资本开支同比减少46%,超过2019年的-34%。


四、半导体新周期的上升强度将超预期


1

市场预期需求继续疲软,我们认为这是错的


根据Trendforce预计,2023年存储的三大应用:服务器、手机出货量微增,PC仍有衰退;而高通认为全球手机仍有5%-10%的衰退。

整体而言,2023年服务器出货量难有增长,手机、PC出货量恐面临衰退。结合近期半导体厂商的库存水平(大容量存储原厂库存在2个季度上下,DRAM为6个月,NAND为5个月;模组厂为6个月;利基型存储在3-6个月)和库存去化节奏(去库存大约需要2个季度),预计库存见底在2023H2,需求恢复有待观察。

从前面的大模型的相关分析可以看到,市场在未来几乎铁定将出现需求的爆发式增长,而市场根据现在的市场环境,仍然在等待需求恢复的信号,我们认为当前市场正在过度高估需求不足的风险,而选择性无视了人工智能在未来将带来的需求爆发。


2

新一轮半导体行业周期强度将超预期


目前的算力分配,都集中在巨头和云端上。绝大部分训练算力由大模型的提出者完成,而推理算力则根据用户提交的需求在云端完成。前面已经提到推理算力的占比正在快速提升。在这个阶段上,对于用户端的算力资源的要求并不高。但这绝非长久之计。

可以非常简单地断言,随着大模型数量的增多,各种垂类应用的不断推出,推理算力如果全部上云的话,经济上必然不划算。服务提供商要自行采购算力资源来满足用户推理算力需求,这必然导致成本向用户转移,从而导致部分大模型因为用户不足在经济上运行起来是非常不合适的。而且必然有相当多的用户,有个人隐私或者行业隐私的需求,这必然在终端上提出了本地化部署大模型的需求。

云边端一体化的算力架构就是在这个情境下推出的,大模型服务商在云端或者自备算力资源完成模型参数训练,为用户提供高质量参数的大模型;边缘算力通过传感器或者其他输入设备获取信息和数据;而用户端的设备也要提供算力用以在终端推理以满足高速、安全、私密等用户需求。

随着大模型的不断部署成熟,各个垂类多种多样应用的实时涌现,很可能在未来不长的时间内,将出现对个人终端的新增迭代需求。可以想象,具备高算力资源的个人终端将会成为未来一轮新的iPhone时刻。到那个时候,半导体需求的突然爆发就是必然的事情。

而此时行业供给能力却处于低估状态,这将显著放大供需错配的弹性。所以我们认为,未来半导体的上行周期中,其上行弹性将远超以往的周期波动。