\u200E
最新动态 一手掌握

八位AI算力CEO:2026,算力旧规则正在作废,算力平台

时间: 2026-02-24 23:32作者: 大魂牵



AI越厉害,面临的瓶颈越「降维」。

作者丨赵之齐 刘伊伦

编辑丨包永刚

自DeepSeek在去年春节出圈以来,春节已然成了AI行业的“狂欢季”。

各大晚会连番登台的机器人、科技从业者们在代码堆里守岁,本身就是一种隐喻:AI正逐渐长成社会运转中不能停下的“基础设施”。

站在马年的新起点,雷峰网对话了算力产业链上八家标杆企业的CEO,探讨AI给算力产业带来的种种逻辑重塑。

有趣的是,如今,行业看待AI的方式正在经历一场集体“降维”:当技术红利阶段性触达天花板,真正决定行业生死的命题变得更加具体且真实——

电力缺口、存储产能瓶颈、算力利用率与成本、硬件连接与算法协同,乃至AI给组织架构带来的深层颠覆等等……(算力链面临挑战的更多细节,欢迎添加作者微信Ericazhao23交流)

作为这场变革的亲历者,CEO们亲述的八个片段互为印证,共同拼凑出算力产业当下最核心、真实的命题。

01

需求狂飙,基建托底

当算力需求越来越大,IDC基建作为根基,会面临什么新的挑战?

秦淮数据 CEO 吴华鹏:GW级智算不是盖「完美大楼」,而是搭「可拆装积木」


我是一个有着强烈技术信仰的人。

亲历互联网和移动互联网风起云涌的30年,在当前,我强烈感受到数据中心行业正站在由AI重构产业格局的新起点上。

过去一年,GW(吉瓦,10亿瓦特)级智算园区这一“新物种”,已成为行业发展的重要方向,但超大规模算力如何与电力体系适配、协同,依然挑战重重。

这一瓶颈的核心在于:算力需求和建设规模在爆发式增长,但新能源体系的支撑能力,尚未完全匹配发展需求。

具体来看,矛盾主要集中在三个层面:

一方面,GW级园区一年的耗电量堪比一座中等城市,传统分步拓建的电力基建模式,面对“整体规划预留、分阶段规模化交付”的建设需求,已经很难满足。

其二,GW级园区要求高比例绿电,但高比例新能源接入后,在负荷波动、热源管理、智能控制等方面,都还没有足够成熟的方案应对。

而在如此庞大的用电基数下,效率每提升一个百分点,都意味着巨大的商业价值——这也让效率优化拥有了前所未有的紧迫性。

而外部的技术供应和市场竞争,仍在给行业带来不确定性。

GPU 产能、进口相关因素,会直接影响算力部署节奏。同时,头部企业扎堆涌入乌兰察布、中卫这类核心节点,让优质电力、土地资源的争夺越来越激烈,企业拿资源的难度明显加大。

整体看下来,行业竞争的核心,已经从“拼规模”,转向“规模”与“质量”并重。相对完善的能源解决方案,是当下数据中心企业突破瓶颈的关键一环。

在这方面,我们通过与东阳光集团的战略整合,已经取得实质性进展。去年9月,东阳光牵头的银团以280亿元现金收购秦淮数据中国区全部业务,今年1月完成股权交割。

过去几个月,我们已在韶关、乌兰察布、宜昌签约重点项目,“东数西算”十大集群,秦淮已落子过半。目前,我们投运及在建IT容量近1GW,储备与规划容量达到4GW。接下来还将在乌兰察布,和东阳光联手打造国内首个GW级超大规模绿电直供垂直一体化产业示范区

此外,我们还联合东阳光以及产业链伙伴,推出全球首个基于SST(固态变压器)的算力中心智能直流供电商业化方案,将于今年4月在张家口怀来正式投运。

这个方案能让电力转换效率达到98.5%,是业内最高水平;单功率柜输出功率达1MW,占地面积仅1㎡,相较传统方案减少50%以上。与此同时,面对AI GPU负载的剧烈波动,这个系统还能主动调节供电策略,实时智能应对。

这些业务进展,为我们建设GW级园区奠定了坚实基础。但我也深知,打造GW级AI算力中心,不是盖一栋一步到位、极致完美的楼,而是搭一套“可拆装的积木”——

面对算力、电力、技术的多重不确定性,解决方法是采用模块化、分期建设和能力解耦,达成弹性交付

AI革命将掀起一场持续20年的技术浪潮,在这之中,焦虑和压力都在所难免,坚守初心就更为关键。结合我的体悟,我也想与管理者们共勉:

坚持做行业中的“良币”,锚定底层逻辑、持续创新、走长期主义,才能在这场AI革命里立得住、走得远。

作为基建中同样重要的参与者,云厂商在AI时代的护城河会是什么?

UCloud CEO 季昕华:AI迭代进入「月更」时代,云厂商面临跨学科的认知重塑


当下,AI技术迭代速度极快,几乎每隔一个月就会出现一次行业级突破,行业模型与应用的市场热度呈指数级增长,这些都要求我们云厂商具备高频、高强度持续学习的能力深入理解跨学科、跨行业的产业链条,在理解AI技术本质的基础上,推动业务联动与生态合作,才能实现商业价值的最大化。

我和团队观察下来,目前限制行业突破的核心瓶颈,在于对AI的认知水平

对AI技术发展的认知,决定我们跟进的速度;对AI使用效果的认知,决定我们使用的广度;对AI商业发展的认知,决定我们投入的力度;对AI影响能力的认知,决定我们成长的高度。

去年,我们负责了一项海外千卡智算中心项目,这本身就是一个复杂度极高的综合性工程。

我们不仅需要把控产品本身的能力,还必须统筹各类场外因素——从前期的工地勘察、架构建设,到中期的物流运输、测试模拟,再到后期的集群构建和优化保障,每个环节都要统筹到位,挑战很大。

而在海外落地,难度还要再上一个量级。

我们面对的是多样化的国家政策与市场环境,前期要投入大量精力调研和实地考察;到交付阶段,还会遇到许多不可控因素——国际政治形势、当地法律法规、极端天气、海关流程等,都可能成为棘手的挑战,导致项目延期。

好在,团队顶住了压力,稳步推进着项目。当客户最终完成压力测试,系统平稳上线运行的那一刻,我们连续数月紧绷的神经终于得以放松。

在海外拓展布局的过程中,客户一直很理解、支持我们。许多新节点资源一上线,就迅速被客户采购一空。我们对此深怀感激,并对未来的合作与市场前景保持乐观。

但与此同时,业界也普遍感受到:由于内存、存储、CPU等核心硬件产能不足,供应链正出现显著波动。这可能引发各行业在传统IT支出上出现结构性调整,后续走势仍需持续观察。

并且,每次具有突破性的新模型发布,都可能重塑竞争格局,使得资源有限的中小企业面临更大压力。正如当年GPT系列的出现,导致大量传统NLP公司被洗牌出局,持续的迭代浪潮可能令类似的历史再次上演。

做难而正确的事,有如推石上山。我们清醒地知晓其重量与反复,而真正的选择在于:手不松,步不止。价值,就在这持续的攀登之中。

在2026年,我们将坚定AI和全球化两大战略

AI层面,我们将围绕六大方向继续深入:基础模型、行业模型、AI应用、AI+硬件、机器人和无人驾驶,以及Agent拓展。例如,AI创新应用层面,我们将继续以UModelVerse模型服务平台为载体,通过token计费方式,让初创企业在AI成本支出更为可控;同时,我们推出的Agent Sandbox可以降低AI Agent的生产应用门槛,为AI真正自主处理高复杂度、高风险任务提供基础设施级保障。

全球化层面,我们将加速完善全球云计算服务网络,计划在2026年新增更多海外服务节点,重点助力中国企业、尤其是一带一路沿线市场的出海业务发展。

02

算力决胜点:场景与成本

算力资源完成初步沉淀后,如何将裸金属高效转化为开发者可用的“数字燃料”,成了算力运营商必须回答的命题。

并行科技董事长、CEO 陈健:AI Coding主导Token需求,「高效、稳定、低成本」将成为算力服务竞争焦点


2025年,人工智能领域经历了一场由规模化应用驱动的深刻变革,大模型Token调用量爆炸式增长,这一变化直接引发了算力供需关系、技术优化焦点和产业竞争格局的连锁反应。

作为衡量大模型应用规模的核心指标,日均Token调用量在2025年实现惊人突破,全市场Token使用量同比增长300倍,且全球Token技术标准统一,采用开源模型的企业呈现一致发展态势。

一方面,Token需求暴涨的重要场景是AI Coding,业界预测到2030年,绝大多数代码将由AI自动生成,这既是IT行业的自我革新,也是AI成为通用技术的基础。2025年全年,Token使用量的一半集中在AI Coding领域,也标志着大模型正式进入规模化生产阶段。

不过,在我看来,Token使用量激增的核心诱因是成本优化。2025年初,DeepSeek凭借极高的性能与成本优势,实现了Token成本10倍的性价比提升,将大模型使用门槛降低一个数量级。

在这波浪潮中,并行科技也成功将在线服务的Token成本大幅降低,从一百多元降至几元,离线模式更是可能降至1元以下,主力Token成本整体下降近30倍,TPS(每秒Token输出量)也提升10倍,达到行业前沿水平。

回望2025年,市场呈现“一卡难求——供大于求——年底优质卡一卡难求”的快速轮回。需求端看,我和团队认为,当前主要分为三类:头部大模型企业的超大规模训练需求(企业数量缩减至不足20家,但单家需求量翻倍)、推理服务需求(含Token生成,达万卡级别且快速增长)、科研研发需求(稳步增长)。但供给端一侧,则因2023-2024年小规模智算中心无序建设、供应链不稳定等影响,供给形势多次反转。

对此,并行科技采取“弹性供给”和高效资源调度策略,使自有GPU算力利用率在2025年上半年达到85%-90%的饱和状态,且在12月市场转向供不应求前,通过多次大规模采购提前锁定优质算力资源,从容应对2026年初优质算力“一卡难求”的格局。

但2025年算力市场带来的挑战仍在继续:受AI需求暴涨与产能不足的双重影响,全球显存、GPU显存、内存及闪存等存储产品大幅涨价,直接导致服务器成本翻倍,严重制约了算力资源的扩建进程。

不过,在这之中,也蕴含着国产算力的重要发展机遇。从政策层面和资本市场资金流向来看,国产算力正在呈现出百花齐放的态势,从小规模适配迈向大规模单集群生态建设的新阶段,既强调“大规模”布局,也注重“生态”适配,加速与国际市场接轨。

2026年,行业对未来已经达成这些共识:一是推理需求持续主导,随着模型大规模部署,推理所需的算力规模和复杂度将远超训练,成为算力消耗的绝对主体;二是Agent成为主流形态,大模型应用正从单一问答向能规划、执行、使用工具的智能体演进,要求底层服务架构重构;三是价值重心上移,未来竞争焦点不在于单纯拥有算力,而在于能否提供高效、稳定、低成本的模型服务和AI应用。

总结而言,2026年将是AI大规模商业化应用的元年。

成本之外,门槛仍在。如何让非技术背景的企业能在多样化的算力架构上,自由地生长出属于自己的Agent生态?

九章云极 CEO 方磊:摒弃「规模噱头」,场景适配才是智算产业的关键「胜负手」


站在2026年的新起点回望,2025年算力市场最大的变化,就是彻底告别了“盲目堆硬件”的狂热,从“CPU云主导”迈入“GPU云崛起”的关键转型期。

我和团队最直观的体会是,2025年行业核心瓶颈集中于“供需错配”与“效率不足”

一方面,传统CPU云适配通用计算,与AI高并行、密集型需求存在本质矛盾,而“CPU+GPU混合数据中心” 既抬高了成本,又制约了GPU性能的释放;

另一方面,算法从“深度学习”向“强化学习”跃迁,算力呈十倍、百倍级增长,但行业GPU平均利用率仅70%左右,且“裸金属租赁”模式门槛高,导致中小企业与开发者难以高效使用算力,抑制产业创新活力。

同时,算力需求已进入集中爆发期:端到端模型训练、仿真测试、车路协同等场景,都需要10倍以上的算力支撑,对算力的稳定性、泛在性提出了更高要求。从全球格局看,国外头部企业聚焦超大规模算力集群与专用芯片研发,核心服务于高端训练场景,但高昂的成本与封闭的生态体系,让广大中小企业难以触及算力资源。

因此,算力的“普惠化”行动势在必行

2025年,九章云极推出智算云平台,依托Serverless与强化学习相关技术,实现了万卡至十万卡级异构算力的统一调度,将AI智能体训推流程简化至一行代码即可启动,让更多主体能够参与到AI创新中来。

与此同时,行业正经历关键跃迁:竞争核心从预训练时期的“拼规模”到后训练时期的“拼效率”,强化学习作为驱动模型进化的核心引擎,已成为下一代智算基础设施的刚性需求;智能体已从“纯对话交互”,转向“复杂任务执行”,工业控制、流程自动化、城市治理等实景场景,催生出海量碎片化、动态化的算力诉求

基于此,我们团队也在两个方向上发力:

一方面,继续推进强化学习云的工业级落地,以全异步训练架构、离线回放算法等核心技术,让中小企业无需承担高昂投入即可完成专家模型训练;

另一方面,针对智能体“执行化”转型需求,打通强化学习云与工具调用、复杂工作流的适配,延续按度计费的模式,支持一行代码启动训练、推理、执行,从而匹配从机器人调度到城市规划的多元动态算力需求。

虽然当下行业里仍有“算力过剩”“企业无真实算力需求”的声音,市场也在纠结“是否要加速推进大规模、大体量算力布局”。

但我们始终坚持自己的判断是,AI基础设施仍处于发展上升期,长期潜力巨大。未来有能力开展模型训练的主体会持续增多,算力需求的增长空间远未触顶,所谓“算力过剩”只是短期供需波动的阶段性现象,而非行业终局。

市场的反馈与实际体感也在印证我们的判断:Forrester调研显示,45%的中小企业选择智算云服务,12%的独立开发者将其作为核心支撑,企业对AI算力的使用逻辑已转向“经济、弹性”,依托我们的智算云,部分客户成本直接降低了40%。

最后,我想说说我对这个行业的理解:行业的胜负手不是谁的GPU更多,而是谁能放下“规模噱头”,深耕场景适配,把算力变成企业“算着清、用得好”的基础设施。

03

软硬件新战场

Context Window带来巨大内存消耗、高带宽DRAM走向供需失衡,需求端的反向施压,为创新性技术方案的实现提供机遇。

昉擎科技 CEO 梁军:Agent爆发与供应趋紧,AI基础设施迎来「创新发展」窗口期


2025年年初,DeepSeek R1的发布引起巨大反响,Sparse MoE(稀疏混合专家模型)迅速成为主流。过去一年里,模型能力持续跃升、迭代速度显著加快,各类应用也随之快速普及。

然而,上层应用的繁荣与底层算力的就绪之间存在明显的时间差。

针对Sparse MoE模型的计算特性,AI Infra在过去一年里实现了多层面的深度优化,但由于芯片有固定的开发节奏,除了华为超节点方案外,国内其他芯片厂商的对应产品仍处于开发阶段,这也制约了相关业务的增长。

瓶颈的出现,让行业在设计、部署Scale-Up集群上迅速达成共识。UALink、SUE及ESUN等Scale-Up通信协议标准进展非常迅速,产业链配套的通信协议IP、Switch、支持Scale-Up接口的算力芯片,以及Scale-Up集群硬件等各种产品的开发进展也全面提速。

另一方面,行业供应形势持续趋紧:除了众所周知的高带宽DRAM供需失衡,还有不少部件、材料都面临供应紧张的境况。

这一紧张态势并非单纯的周期性波动,而是应用范式变革对资源需求的结构性重塑。

Agent应用的爆发式增长,既要满足超长Context Window(上下文窗口)带来的巨大内存消耗,又需将Token成本压缩至极致。

与此同时,Agent普及带来的low latency(低时延推理)需求,正从需求端反向施压,对系统软硬件设计产生深远影响。

这些变化让行业面临很大挑战,但也带来发展机遇。

从模型、应用、AI Infra到底层软硬件,各层面均在高速迭代演进,客观上催生了巨大的市场机会,也为创新性技术方案的落地提供了宝贵的窗口期。

这一窗口属于敢于冒险、擅长系统性思维的团队。在诸多难题与挑战之下,我们始终坚持以高标准方案和更基础性的方式求解,这也让我们团队收获超出预期的成果。

过去一年我们的多次实践,都在不断验证这一方法论的有效性,也让我们面对未来的信心更加坚定。

Token需求进入爆发期后,底层硬件碎片化的“互联墙”不容小觑,行业要如何避免让算力集群沦为性能孤岛?

奇异摩尔 CEO 田陌晨:「互联碎片化」成超节点瓶颈,AI下一战拼的是交付


这波AI的发展,对硬件提出了双重挑战:

一方面,市场上AI大模型数量快速增长,要求芯片厂商能广泛且高效地适配;

另一方面,大模型领域技术迭代极快,多模态、世界模型等创新层出不穷,如今,市场重心也已经明显转向:一是从追求规模扩张,转向深耕性能;二是从“生成式AI”,转向“AI Agent”这一形态。

尤其在推理场景中,不同应用场景对Prefill(预填充)与Decode(解码)阶段的需求不同,对时延、精度、功耗、可靠性等方面的侧重点也不同,这些都会直接影响计算、互联与存储等各个模块的设计

这也直接拉高了对硬件团队的要求:

软件技术演进常以“季度”甚至“月”为单位,芯片等硬件的迭代周期却通常长达数年,因此,硬件研发团队不仅要精通软硬件深度技术具备跨领域视野,还需具备前瞻性,能够预判未来两至三年的技术需求,以提前规划硬件设计。

我们从2021年起,就预见到AI快速发展将面临的网络互联瓶颈,在布局片内互联芯粒产品后,也逐步构建起面向AI网络互联的全栈解决方案。

然而,这一路并非坦途:

2024年,我们已前瞻性地在超节点领域进行了技术和资源布局,但那时候“超节点”概念还没有火起来,我们的工作显得有些“超前”,这使得公司当时的资本化进程一度有些阻力。好在,有中科创星等早期投资人始终如一的信任,以及客户和合作伙伴的并肩同行,到2025年,超节点成为AI训推集群的关键技术焦点。

不过,制约超节点部署效率与可扩展性的核心瓶颈,也随之显现:

超节点内部的各个计算单元,要依赖统一、高效的互联协议,才能实现协同。然而,目前还没有出现像以太网或移动通信那样成熟且被广泛接纳的标准体系,这就导致不同厂家的设备很难兼容、互通,交换机和计算节点之间的对接方式,都是各家自己定制,这让系统集成和后期维护都变得更复杂且麻烦

尽管最近两年间,国内外已涌现出多项致力于推进标准化的倡议与规范,如SUE、OISA、ETH-X、UALink等。然而,“生态碎片化”的解决并非单纯的技术竞赛,而是要依赖于产业链上下游的紧密协作。在我看来,短期内,多元技术标准并存的格局还会持续

针对这一情况,奇异摩尔推出超节点互联芯粒Kiwi G2G IOD——基于我们独创的HPDE可编程架构,能支持不同的协议类型及其升级。

并且,早在2023年,奇异摩尔便作为首批核心生态成员,深度参与由中国移动牵头的OISA 1.0协议制定工作。2025年,公司进一步参与到OISA 2.0协议的制定中,负责制定了协议中互联芯粒部分的标准设计,还开发了业界首个OISA Scale up协议的验证平台。

2026年,我相信超节点的热度仍会继续,且会进一步产业化。这背后也指向一个关键共识:AI时代的竞技场,胜负在于交付——无论是触达用户的最终应用,还是支撑一切的底层硬件,真正拉开差距的,都是交付。

如今,硬件问题也不能仅靠硬件解决,如果无法在指令集与精度层面实现芯片与大模型的深度协同,算力天花板依然近在咫尺。

清程极智 CEO 汤雄超:「单向适配」不是终局,未来模型与芯片架构设计要互相指导


去年,我们比较关注大模型的推理部署场景。

印象里最焦虑的时候,可能是春节后在各种平台上适配优化DeepSeek模型:当时我们发现,DeepSeek在一些平台上很容易能运行起来,但在另一些平台上却会面临很多挑战,算力平台之间的差距非常大

经过团队的努力,我们在几个月后终于实现了计划中的近10种算力平台的推理部署方案。对比当时,其实可以明显感受到,国产算力对新发布模型的支持速度已经大幅提升——

从最初模型发布数月后才能完成适配,到后来往往新模型发布后几天即可适配。去年WAIC大会期间,清程极智的“赤兔”推理引擎更是实现了国产算力对新模型的0 Day支持,让GLM4.5模型发布当天就能在华为昇腾算力上推理部署。

适配速度的加快,体现了国产算力上的软件生态不断成熟。今年初,我们和T-One孵化器联合发布了一份大模型API服务行业报告,在和几十家做大模型API服务的伙伴沟通后发现,国产算力是真实可用的,但与此同时,硬件架构差异带来的问题,无法通过软件手段完全解决。

以往大家认为,软硬件分别面临生态成熟度与绝对性能上的差异,但到了2025年,新兴大模型算法架构与国际先进算力的硬件架构绑定得更加紧密,其影响已经超出通常意义上的“软件生态”范畴。

例如,去年初开源的DeepSeek-V3/R1模型,是基于FP8数据精度原生训练与推理的,但当时国产算力硬件架构并不支持FP8。我们预感到后续会有更多模型采用FP8、FP4这类新兴低精度数据类型,于是,清程极智就通过软件的方式,在国产算力上实现了FP8精度的计算,后来又进一步完成了FP4精度的软件支持。

但这仅仅解决了易用性问题,让用户能在国产算力平台上快速跟进最新大模型与数据精度,却无法从硬件底层真正提升模型的实际运算速度

而现在,低精度算力已逐渐成为智能算力的主流配置。在海外高端算力芯片中,FP4算力普遍能达到BF16算力的6-8倍。如果国产算力只是在BF16算力上追平海外产品,却没有在硬件层面补齐对FP4精度的支持,那么其真实有效算力依然只有海外芯片的零头,很难形成性价比优势。

好在去年很多国产算力厂商在下一代芯片规划中,都提出将支持低精度的算力类型,比如昇腾950就支持FP4。预计2026年,硬件架构的差异有望进一步缩小

但在我看来,国产算力在硬件架构上逐步对齐海外特性,还只是早期阶段。根本的解决方案,应该是国产算力和大模型研发机构更紧密地合作:让大模型算法的发展需求指导芯片架构的设计,芯片架构也反过来指导大模型的算法设计

放眼2026,大模型推理对算力的需求仍将保持高速增长,并且,无论是大模型算法架构还是底层硬件设计,都会更加多样化——

模型方面,去年主流还是基于自回归解码的文本类模型,今年则会出现更多扩散模型与多模态模型;算力方面,除了类GPU架构和NPU架构,一些架构更激进的算力也将开始量产。在这样百花齐放的格局下,可能会碰撞出新的“硬件-算法”协同的行业最优解。

国产算力在功能上已经能满足大量实际场景的需求,但在绝对性能和性价比上,仍需进一步提升,才能真正建立商业优势。这需要全行业共同努力,实现市场化的正向循环。

04

颠覆全栈

最后,当底层技术栈逐步打通、Agent 真正成长为新一代操作系统,一个更重磅、更根本的命题也随之到来:

人类,是否已准备好向 AI 移交决策权?

PPIO CEO 姚欣:敢不敢放权给AI,是属于人类的「奇点时刻」


过去业界将2045年视为“奇点临近”,认为跨过奇点后,智能将指数级迭代、机器进化速度会远超人类。但在我看来,2025年已经过了奇点的拐点

回看去年,DeepSeek的爆发让我们团队很兴奋。一季度我们快速加码算力、对接需求,全力冲刺MaaS业务增长。但到了五六月,市场风向突然转变——开发者更倾向选择海外价格更高的闭源模型。

这一度让我们陷入焦虑:PPIO核心业务MaaS,跟开源模型生态息息相关,只有开源模型足够强,才能带动MaaS和算力需求增长。但我始终对开源非常坚定——从PC互联网到移动互联网,历次浪潮几乎都遵循“闭源开辟、开源统治”的规律,这一轮AI浪潮也不会例外。

所以我们坚持到九月十月,终于,国内大模型迎来爆发。临近春节这段时间,我们也几乎每天都在对接新模型,春节大家可能也休息不了。这个过程对我们来说,痛并快乐着

不过,模型能力只是单点突破,我们始终相信Agent层才是开发者真正的“操作系统”。去年Agent技术栈还不成熟,大多停留在概念与雏形阶段;但春节前OpenClaw的诞生,已经让行业看到全新的机会和希望。

最近还让我震撼的是,Cursor的CEO拿GPT 5.2写了三百多万行代码,基本复现了chromium 浏览器,要知道写浏览器的难度挑战和操作系统是一个级别的,由此可以看出,AI已经几乎没有写不了的代码。

在这背后,我也看到了技术方向上的“会师”:OpenClaw这类Agent的“权力”太大了,有很大的安全隐患。可见,今天的AI基础设施,已经不再仅仅是为人设计,同时也要为AI服务——高弹性、高并发、高任务响应、甚至长时记忆能力,都是AI原生的核心需求

作为经历过互联网,移动互联网多个时代的连续创业者,我认为当下又是一个重大的技术范式变迁,我们过去的各类软硬件都是针对人的使用体验设计的,但是行业正从“以人使用为中心设计Infra”,转向“以AI或机器为中心设计的Infra”。我们去年推出的Agent沙箱系统,恰好就可以成为Agent Infra的核心组件——在保障高效运行的同时,实现安全隔离与风险可控。

与此同时,在需求爆发的背景下,算力的梯次利用与精细化调度也变得至关重要。未来算力需求的增长速度会大幅领先于今天算力供应速度,行业会进入一段长期供不应求的时段。

而一个愈发清晰的趋势是:越是传统的组件,越容易成为新的瓶颈

我在本届CES观察到,GPU行业已在为产能实现十倍、百倍增长做准备,但其他组件完全没跟上,比如硬盘,过去20年每年的产能只上涨平均3%-5%。这就意味着,我们已经进入到基础设施的综合博弈,木桶短板效应会集中爆发

因此,我们今年的目标也很明确:全栈化和全球化。前者是打通从IaaS、MaaS到Agent Infra的端到端技术能力;后者则是依托不同区域的资源优势,在日本、欧洲、东南亚等地进一步布局,挖掘更多元的算力供给与市场机会。

我还有个观察:未来制约AI普及与应用深度的关键,不在于技术或算力,而在于企业组织能力能否跟上AI的迭代速度

今年我会在公司内部推进全面向AI Native组织转型。这背后是一个根本性命题:当机器在效率与智能水平上全面超越人类时,组织与管理者是否敢于放权

如果我们的决策依然依赖冗长流程、追求100%绝对安全、所有事项最终都需要CEO签字确认,决策效率必然被严重制约。这就是人类史上又一把 “达摩克利斯之剑”:在安全与效率、稳定与进化之间,如何做出抉择?

这将是人类自身的奇点时刻。

作者长期关注AI算力链条,欢迎添加作者微信Ericazhao23交流。