转自:财联社APP
《科创板日报》3月22日讯(编辑 郑远方)短短一天时间,AI领域混战再度升级。
谷歌前脚正式向公众开放聊天机器人Bard访问权限,Adobe后脚扛着创意生成式AI“萤火虫(Firefly)”,正式杀入AIGC商业化赛道。英伟达又紧跟发布H100 NVL,与谷歌云、微软Azure、甲骨文云联手推出DGX(AI超级计算机)云服务。
高算力需求随着AI战火迅速攀升。正如19世纪末,美国西部的“淘金热”引发了对铲子与牛仔裤的大量需求,眼下ChatGPT引发的AI战火,也点燃了对高算力与算力基础设施的需求。
值得一提的是,OpenAI上周推出GPT-4之后,已连续多次下调付费用户访问限制,由第一天的150msg/4hr到100msg/4hr到50msg/3hr再到最近的25msg/3hr,安信证券推论目前AI大模型的算力水平已显著供不应求。
而当前许多公司,尤其是开发大模型的中小型公司,都在担心计算能力不足,英伟达CEO黄仁勋也表示,将在中国与云服务提供商合作,“阿里巴巴、腾讯、百度等都是优秀的合作伙伴,我很期待他们通过最先进的系统进行AI计算。”
腾讯也在今日透露,公司正在投资于人工智能的能力和云基础设施,以拥抱基础模型趋势;
谷歌CFO Ruth Porat本月也提到2023年资本开支结构发生重大调整,大幅上调有关数据中心和服务器等算力技术设施的预算;
Meta也曾在2月宣布暂停全球数据中心建设,重新评估和调整机房来满足AI方向算力需求。
算力的大小,表明对数字化信息处理能力的强弱。各家大厂的模型预训练、迭代和运营带来的算力渴望,进一步催生了对数据中心(尤其是AI数据中心)的多维度大规模需求,PCB、IC载板、CPO、存储芯片、液冷等多环节均有望乘风。
▌PCB与IC载板或迎量价齐升 CPO有望成AI高算力下最佳方案
一方面,随着AI需求兴起,服务器平台向更强大性能设备方向产品的换代需求同步加速。国金证券指出,在这一发展过程中,PCB行业将呈现产品价值量普遍提升的趋势。
以英特尔服务器平台为例,其从Whitley升级至Eagle Stream的过程中,PCB层数从12-16层升级至16-20层,价值量至少提升50%。
同时,AI对算力的需求增速已超越摩尔定律的进步速度,先进封装也成为一大解法,而载板作为核心材料,分析师预计其有望在算力提升的大背景下打开价值空间。
另一方面,CPO在数据中心中也有着广泛的应用前景,该技术可实现更高的数据密度、更快的数据传输速度、减少系统功耗与空间占用、降低数据中心能源消耗与维护成本。例如,微软的云计算平台Azure中,便采用了CPO技术。而人工智能、机器学习的延迟敏感型流量激增,则进一步推高了对光收发器的数据速率要求。
国金证券指出,得益于高效率、低功耗的性能,CPO有望成为后续AI高算力下最好的解决方案,也是目前最有希望解决ChatGPT算力需求的一个方向。预计在ChatGPT浪潮下,CPO产品将迎来3-5年的黄金爆发性成长期。
值得注意的是,今日CPO、PCB板块多股大涨。截至收盘,中际旭创20CM涨停,新易盛涨15.31%,南亚新材涨11.11%,鹏鼎控股、沪电股份、光迅科技涨停。
▌还有哪些领域?
除了CPO与PCB之外,存储芯片与液冷也有望迎来增量需求。
存储芯片方面,应用材料数据显示,机器产生的数据量已于2018年首次超越人类所创造的数据量,之后每年几乎以倍数幅度增加,从2020年到2025年,全球数据增量将达157Zetabytes,复合增速高达89%。
国金证券预计,2028年或将出现超过1 Yotabyte的数据增量。而如此庞大的数据增量,将持续带动7nm以下高速运算HBM存储器、3D NAND等需求,并顺势带动成熟制程的配套芯片如电源管理芯片、PCIE Gen 4/5 retimer等需求。
液冷方面,相较于传统的服务器,AI服务器需要配备GPU/NPU/FPGA/ASIC等芯片以支持高算力,异构计算平台应运而生,未来有望成为主流。天风证券指出,基于CPU+GPU的异构计算平台可以优势互补,但与此同时,功耗将明显提升。
以英伟达的DGX A100 640GB为例,其配置了8片A100 GPU,系统功耗最大6.5千瓦,未来随着A100服务器应用增多,数据中心机柜功耗或将进一步提升,单机柜的功率或将超过30kW,更适宜应用液冷冷却方案,从而带动数据中心液冷应用需求。
0 留言