Top
首页 > 财经 > 相关动态 > 正文

AI算力需求大增 产业链公司迎来新机遇

相关动态 上海证券报 2023-09-05 10:36:05
[摘要]AI大模型呈现爆发式增长,由此带来了海量的算力需求,这对数据中心的基础设施建设、技术等提出了新要求,也让数据中心走向智算中心。如何满足智算中心建设需求、解决其中难题、进一步为行业提供高效算力服务等,成为当前业界关注的焦点。

  AI大模型呈现爆发式增长,由此带来了海量的算力需求,这对数据中心的基础设施建设、技术等提出了新要求,也让数据中心走向智算中心。如何满足智算中心建设需求、解决其中难题、进一步为行业提供高效算力服务等,成为当前业界关注的焦点。

  8月31日,以“AI造物 算引变革”为主题的第十八届中国IDC产业(长三角)年度大典在上海举行。本次大会邀请到了来自政府部门、行业协会、知名企业的数百位专家学者,共同探讨数据中心和云计算领域的最新动态和趋势。

  在美国西部掘金时代,淘金者发财的少,但卖铲子、牛仔裤等“卖铲人”却实实在在所获不菲。在大模型时代,GPU(算力芯片)、DPU(专用数据处理器)、液冷、高速连接线等就是给产业提供配套的“卖铲人”。与会多位专家强调,大模型时代,智算中心迎来快速发展,算力基座先行,高端算力芯片等“卖铲人”也迎来新机遇。

  向智算中心加速演进

  以大模型为代表的AIGC火热发展,带来了AI算力需求的爆发式增长,直接驱动算力基础设施迭代创新,数据中心正在向智算中心加速演进。

  “往年,算力的年化增长率为20%至30%;今年,保守估计增速在50%以上,呈现井喷的状态。”燧原科技产品市场总经理高平表示,这对行业的核心部件有新要求,如AI芯片从以前单纯的追求算力指标到追求带宽和大存储,服务器的稳定可靠性也是越来越重要。

  腾讯云分布式云产品负责人杨志华表示,未来,AI服务将无处不在,企业的需求和算力会被重构。在AI高速浪潮推动下,传统的应用系统必须迭代更新,否则就会落后于竞争对手。分布式云将是下一步的首选。企业的算力底层云服务的运维可以交给腾讯云等。

  算力产业有多大的成长潜力?华为数字能源中国区副总裁胡春池称:“我们未来要真正掌握和占据数字经济的高地,中国人工智能的发展还有很长的路要走。站在未来十年来看,至少我们的算力需求的增长应该是在百倍以上。”

  当前在数据中心向智算中心加速演变的过程中,技术、运维等方面还存在着诸多难点。中国航空规划设计研究总院有限公司电子工程设计院副院长范强表示,从基础设施的角度来说,有两个难点:一是供应链,因为电的供应是一个大问题,还有内部的改造,配电房的比例、架构等都很重要;二是GPU服务器的制冷技术,因为纯靠风冷制冷效率越来越低,能否和液冷结合,这是未来非常好的发展方向。

  “卖铲人”淘金大模型时代

  “‘算力浦江计划’明确提出,高性能算力占比35%、国产化算力占比达到50%以上。”上海市通信管理局信息通信发展处魏征介绍,“算力浦江计划”助力国产芯片制造,大量的GPU、DPU企业落地上海,构建了完整的算力芯片产业布局。

  “AI大模型对算力的核心诉求是大带宽和低时延,这就需要新型算力底座支撑,硬件不再以CPU(中央处理器)为中心,而是从芯片内到节点内向系统级分布式异构延伸,CPU+GPU+DPU+PFGA(可编程逻辑门阵列芯片)成为主流的趋势。”中科驭数产品运营部副总经理曹辉认为,DPU可为AI算力底座提供必需的大带宽和低时延能力,云、边、端构成了泛在的立体架构,通过与DPU的深度融合,构成新型的算力底座。

  曹辉介绍,作为DPU芯片初创公司,中科驭数将iaaS层(基础设施即服务,包括网络、存储、云原生和安全等)放在DPU上运行,从而为用户提供全套的性能更高和算力更好的解决方案,超低时延可低至1微秒。魏征介绍,上海市通信管理局的绿色算力“试点+改造”项目显示,使用DPU芯片,数据中心的数据传输降低能耗可降低超过35%。

  随着大模型浪潮涌起,智算中心除了需要更多的GPU、DPU等芯片,其服务器巨大的能耗、数据高速交换等也对散热、节能、互联等提出新需求。

  “几年前AI芯片的功率是两三百瓦,未来可能达到六七百甚至上千瓦,是名副其实的电老虎。”高平认为,AI服务器能耗的降低、稳定可靠性变得越来越重要,液冷很重要。范强介绍,普通的数据中心机架功率4千瓦至8千瓦,智算中心的两台服务器就可能达到10至20千瓦;服务器制冷已经从传统水冷发展到现在的蒸发冷、液冷等,需求量巨大。

  互联科技华东区总经理练羽认为,算力稀缺将推动国内几十家GPU初创公司的技术加速突破。

编辑:张芬

相关热词搜索:

上一篇:今年前7月我国服务进出口总额同比增长8.1%

本地 新闻 娱乐 财经 数码 教育