美元换人民币  当前汇率7.27

DeepSeek 横空出世,AI 半导体格局风云变幻

* 来源 : * 作者 : admin * 发表时间 : 2025-02-17
美国市场研究公司 Gartner 于 2025 年 2 月 3 日(当地时间)发布了 2024 年全球半导体销售额排名(暂定资料)。韩国三星电子时隔两年重返榜首,位居第一。美国英特尔排名第二。英特尔在 2023 年曾时隔三年夺回第一的位置,但仅一年后便将宝座让给了三星。2024 年全球半导体市场的主导力量无疑是人工智能(AI)。事实上,本次排名上升的企业,几乎都得益于 AI 半导体市场的强劲增长,尤其是 GPU(图形处理单元)和 HBM(高带宽存储器)DRAM 的畅销。举例来说,在生成式 AI 训练用 GPU 市场中独占鳌头的美国英伟达,其排名从 2023 年的第五位上升至本次的第三位。同样,凭借 HBM DRAM 表现亮眼的韩国 SK 海力士和美国美光科技,分别从第六名上升至第四名,以及第十二名跃升至第六名。虽然 AI 半导体对排名变化影响巨大,但这并不能完全解释所有情况。例如,三星的 HBM DRAM 业务并不算特别出色,却依然稳居第一,而英特尔虽然在 GPU 领域落后,却仍排名第二。根本原因在于,尽管 GPU 和 HBM DRAM 作为 AI 半导体的代表,主要负责神经网络运算,但 AI 应用的整体处理仍依赖于微处理器(MPU)和传统 DRAM。从增长率来看,AI 半导体无疑更胜一筹,但从整体销售额来看,MPU 和传统 DRAM 仍占据主导地位。根据 Gartner 的资料,2024 年半导体需求最大的应用仍然是智能手机,这意味着 NAND 闪存(NAND Flash Memory)仍然保持较高的销售。排名第二的半导体需求市场是数据中心,生成式 AI 的训练计算大幅推动了数据中心对半导体的需求。2023 年,数据中心相关半导体销售额为 648 亿美元(约 9.85 兆日元,以 1 美元兑 152 日元计算,下同),而 2024 年这一数字激增至 1,120 亿美元(约 17.02 兆日元)。

小结

从这份榜单不难看出,生成 AI 对半导体产业的绩效影响是巨大的。未来 AI 专用芯片(ASIC、TPU、NPU)会加速发展;AI 运算架构成多元化态势(GPU vs. HBM vs. FPGA)尽管英伟达 GPU 仍是 AI 训练的主流选择,但 HBM(高带宽存储器)、FPGA(可编程逻辑门阵列)和新型 AI 运算架构正在挑战 GPU 的霸主地位。近期中国 Deepseek 的横空出世,也将全面影响以及改变现在的 AI 半导体的产业格局。AI 芯片国产化与供应链本土化也是大趋势。另一个主题就是 DeepSeek 在成本效益上有巨大优势,加上开放的开源政策,这些创新对英伟达等传统 AI 半导体企业构成了挑战。随着 AI 模型训练成本的降低,高阶 GPU 的需求可能减少,进而影响英伟达的市场主导地位。然而,也有观点认为,降低 AI 开发成本将促进 AI 应用的普及,反而可能增加对 GPU 的整体需求。英特尔前 CEO 帕特・基辛格(Pat Gelsinger)表示,计算成本的降低将扩大 AI 市场需求,对芯片制造商而言是利多消息。在 ChatGPT 掀起全球 AI 狂欢两年后,大模型赛道迎来一位现象级选手 ——DeepSeek 以黑马姿态闯入公众视野。高性能、低成本,并且完全开源,DeepSeek 成为了搅动市场的 “鲶鱼”。毫无疑问,DeepSeek 的开源,将推动 AI 应用生态的繁荣,这也大大加快了整个 AI 大模型的发展进程。伴随大模型技术的持续发展和生成式 AI 新兴应用场景不断涌现,全球人工智能算力发展正呈现出五大发展趋势。

一、规模法则在当前人工智能发展中仍然占主导地位

规模法则目前正在从预训练扩展到后训练和推理阶段。基于强化学习、思维链等算法创新在后训练和推理阶段更多的算力投入,可以进一步大幅提升大模型的深度思考能力。同时,基于杰文斯悖论的现象表明,DeepSeek 带来的算法效率的提升并未抑制算力需求,反而因更多的用户和场景的加入,推动大模型普及与应用落地,重构产业创新范式,带动数据中心、边缘及端侧算力建设。其主张当技术进步提高了使用资源的效率,但成本降低导致需求增加,令资源消耗的速度不减反增。针对 DeepSeek,IDC 中国副总裁周震刚表示,其将通过技术普惠化、场景纵深化和算力泛在化三重路径,推动大模型的普及与应用落地,驱动算力需求增长。周震刚称,在技术普惠化方面,DeepSeek 的核心技术不仅显著提升了模型性能,还大幅降低了算力消耗,为用户参与大模型应用生态创造了条件;在场景纵深化方面,得益于其强大的模型能力,DeepSeek 在金融、医疗、汽车、电信等多个行业逐步落地,重构了产业模式。而在算力泛在化方面,DeepSeek 通过其先进的算法优化和高效的模型性能,促进了人工智能技术在 C 端和 B 端用户中更广泛的应用,显著拉动了人工智能算力在数据中心、端侧及边缘侧的发展。IDC 数据显示,2024 年全球人工智能服务器市场规模预计为 1251 亿美元,2025 年将增至 1587 亿美元,2028 年有望达到 2227 亿美元,其中生成式人工智能服务器占比将从 2025 年的 29.6% 提升至 2028 年的 37.7%。

二、企业更加重视发挥平台价值,构建互联的生态体系

生成式人工智能代表了一种全新的技术范式,这种范式要求企业从硬件到软件、从开发工具到用户体验实现全面创新。若将生成式人工智能发展作为企业战略性工作负载,企业需要寻求新的供应商和合作伙伴支持生成式人工智能落地。IDC 数据显示,全球 85% 的组织认为,需要制定全新的供应商 / 合作伙伴战略,在基础设施、软件、数据、云等维度获得不同的服务能力。周震刚指出,鉴于生成式人工智能技术栈复杂、供应链漫长,为企业提供低门槛的生成式人工智能应用开发平台越来越重要。通过平台整合服务能力,企业可获得模型构建和精排、应用开发与部署、数据管理等相关软件及工具,以及资源统筹和调度管理等服务和先进的行业智能化解决方案,从而有效加速先进技术落地和商业价值实现。

三、面向人工智能场景构建先进数据基础设施,并打造高质量数据集

生成式人工智能重塑了数据生命周期特征,数据的生成、采集、存储、处理和分析变得更加复杂。IDC 数据显示,2024 年全球产生的总数据量达到 163ZB,2025 年将增至 201.6ZB,2028 年将翻番至 393.9ZB,2023-2028 年五年年复合增长率为 24.4%。生成式人工智能还带来了更多的混合内容生成和处理需求。目前,生成式人工智能生成的数据中,文本内容占比超 35%,到 2028 年,图像和视频类数据占比将增加,超过 75% 的生成数据将均匀覆盖文本、图像和视频三种类型,此外,还有接近 18% 的生成数据为软件代码。周震刚向记者表示,企业需要面向训练和推理过程中的数据特征,构建先进数据基础设施,为数据收集、预处理、写入读出、稳定训练集、数据安全、推理结果使用等环节提供支撑,并根据数据量、访问模式及成本效益决定采用云存储、本地存储或混合存储方案,发挥先进存储介质和存储架构优势。同时,伴随数据逐渐成为企业的核心资产和重要生产要素,企业需要提升数据质量和数量,从而优化企业决策和业务流程。

四、优化策略制定、关注技术创新,加速实现投资高效回报

深度学习和生成式人工智能模型的规模和复杂性增加,使得支持这些模型的基础设施变得更加复杂、庞大且昂贵。周震刚称,为避免给企业造成不必要的财务负担,企业在投资人工智能基础设施时,需要创建合适的投入产出比(ROI)模型,将投资回报率与生成式人工智能的应用案例和业务成果联系起来,通过加速应用部署,使高投资实现价值回报。生成式人工智能带来的成果既包括可通过 KPI 衡量的有形收益,如加速内容创作、提高客服效率和降低成本;也涵盖无形价值, 比如提升员工体验、加强客户关系和忠诚度以及优化品牌营销。周震刚认为,这些软性收益虽然不易量化,但对企业的长期成功至关重要。企业可以利用技术评估、项目组合管理和企业整体战略管理等方法,制定符合自身发展需求的生成式人工智能投资和应用策略。

五、能耗挑战持续加剧,冷却技术不断创新

人工智能大模型技术的研发和应用带来了更高的能耗需求。2024 年,人工智能数据中心 IT 能耗(含服务器、存储系统和网络)达到 55.1 太瓦时(TWh),2025 年将增至 77.7 太瓦时,是 2023 年能耗量的两倍,2027 年将增长至 146.2 太瓦时,2022-2027 年五年年复合增长率为 44.8%,五年间实现六倍增长。大模型的训练和优化作为能源密集型任务,需要高密度机架的支持,而这些机架的能耗已超出传统风冷的能力范围,促使越来越多的数据中心转向使用液冷技术。IDC 预测,到 2028 年,60% 的数据中心将采用微电网、定制硅芯片、液体冷却和加固结构等创新解决方案,以应对电力短缺和日益增长的可持续性要求。此外,数据中心正积极探索从储电能向储大模型算力的跨越性转变。这一转型的核心策略,在于通过大幅增加和优化 IT 基础设施,将原本静态储存的电能,转化为驱动大规模计算模型的动态算力。周震刚表示,这些基础设施的升级与扩容,不仅提升了数据中心的算力水平,更为基于大模型的 “智能蓄势” 提供了稳定、强大的计算支撑。通过这一转变,智算数据中心不仅可以优化能源利用结构,减少能源浪费,更以就近、快速的方式,满足现代计算对算力的迫切需求。如果你对文中的某些观点、数据或案例感兴趣,想要深入探讨,或者希望我补充更多相关信息,都可以随时告诉我。