阿里云的“反差”2025:于无声处寻找 ASI
在2025年9月的云栖大会上,阿里巴巴集团CEO吴泳铭发表演讲认为实现AGI是个确定性事件,实现全面超越人类的ASI才是终局。
ASI的概念起源,通常会追溯到统计学家/密码学家I.J.Good在1965年发表的文章:“Speculations Concerning the First Ultraintelligent Machine”,在性质上更接近学术随笔讨论。因此,排除所有面向资本市场的叙事后,如何准确理解ASI,某种程度上也决定了阿里云的去路和归处。
吴泳铭认为实现ASI,需要满足两大核心条件:
AI能获取真实世界的全量原始数据;
实现“Self-learning(自主学习)”,即AI能为自身模型搭建训练基础设施、优化数据流程与升级架构;
两个条件的“基础设施味”都很重,再结合阿里广为人知的3800亿投资计划,导向已经十分明显:在一段时间内,阿里云都会是企业在AI时代的“隐形”支撑者、赋能者和陪跑者。相比于平台注册数据、公有云Token调用数据……客户数据+基础设施投产进度,是阿里云业务发展更重要的KPI。
据IDC 2025年对中国公有云基础设施市场的追踪报告:阿里云在多个行业市场份额位列第一,典型市场包括金融行业占比43%、汽车行业占比40%、游戏行业占比41%。
阿里最新财报则提到,在2026财年第二财季,云智能集团累计收入398.24亿元,同比增长34%,为历史最佳表现。但整个阿里巴巴经营利润为53.65亿元,同比下降85%,主要归因于对即时零售、用户体验以及科技的投入,其中所谓科技投入,特指云+AI基础设施方面的支出。有信息指出,泰国、韩国、墨西哥等地新数据中心,都是阿里云在2025年开服。
从市场份额增长到利润下降,二者之间的差值,或许就是寻找ASI的“路费”。抛开资本市场不谈,普通人很难理解这份“路费”的价值与合理性,大家更乐于见到“Manus式”的C端产品上岸故事,而不是一家云计算公司如何帮助成千上万家实体企业做AI提效。
这也使得2025年的阿里云极具“反差感”:一方面,它是中国云计算市场的领头羊,决计要做全球领先的人工智能服务商;另一方面,在最热闹的AI营销大战中,它又似乎不那么性感。
1 阿里云的“反差感”之一:AI不能只靠“热闹”赚钱
从2025年初到2025年底,国内的AI热度实际是由有限的几个C端应用串联而成的,包括了:DeepSeek、元宝、千问、豆包、夸克、蚂蚁阿福等。而AI原生App的月活,在这些应用的影响下,量级也来到了数以亿计。剩下一部分公共注意力,则被具身智能包揽。
AI ToC应用的火爆,加速了AI的落地。
由于C端火热,全民对AI的前景抱有期待,让企业内部“要不要上AI”更容易达成共识。此外大量C端产品的出现,造成了技术价值外溢,间接推动提示词工程、Agent工作流、评测方法、开源工具带入企业。
最后,20%的头部ToC产品瓜分了互联网80%的流量,作为数字世界入口,它们把AI做成默认功能,倒逼企业被动升级对接与治理策略(尤其是权限、数据边界、知识库)。
应该说,过去一年,AI ToC实在太热闹了,以至于在AI时代,市场教育经常是不需要的。
如果将这些C端产品的北极星指标定为“用户价值x增长效率x商业化质量”,前两者看似已经完成了,独独商业化质量成为了“拦路虎”。
北美AI ToC类工具,无论是Coding工具,还是搜索工具,一般都是付费订阅的,最低档通常为20美元/月。而国内大部分C端AI工具,通常是免费的,没有订阅收入。换句话说,“用户愿付费的核心场景”还没找到。当C端竞争主要集中在渠道和入口问题上,这种从“热闹”到“留存/付费”的落差,成为了2025 AI ToC最大的结构性矛盾。
AI在B端的进展,某种程度上要比C端的进展更为顺利。至少在业务的核心评估模型上,不存在明显短板。AI ToB领域以云模式、项目制/交付制为主,目标主要包括:
Attach Rate(云挂载率,有多少项目最终绑定了云用量/云产品)
Time-to-Usage(从验收到产生稳定用量的时间)
Post-GoLive 90天用量达标率(交付后90天,达到预期用量/调用量/活跃服务数的客户占比)
云侧NRR(“某批上线客户”半年后/一年后是否扩张)
项目对云的“单位获客成本”
五大指标在AI的牵引下,都已经进入自增长轨道。
云计算的核心竞争标的是客群,这是阿里云的天然优势。
一方面,庞大且稳定的客群将云变成了复利生意,是将AI业务收入越做越厚的基础。另一方面,ToB的关键在于需求驱动,数以百万计的客户每天反馈的问题和需求,本身就是ToB企业最大的护城河。有足够客群的企业,可以在工单中组装未来演进路线;没有足够客群的企业,只能靠猜和跟随。
在2025年12月底的一场小规模沟通会中,阿里云智能集团资深副总裁、公共云业务事业部总裁刘伟光表示,2025年他拜访了146个客户,包括汽车主机厂、机器人、基础大模型公司、金融、手机、AI硬件、零售行业、在线教育、物流、制造业、医疗制药、大型跨国企业、食品加工、漫剧短剧、畜牧业等,几乎覆盖了各行各业。
从拜访结果来看,企业引入AI改善业务流程和产品的决心,要比C端消费者购买一个AI语音助手的决心要大得多。更关键的是,企业使用AI具有强连续性的。
在重工业制造领域,诸如AI顾问、设备维修助手、智能客服、财务助手、工艺标准AI助手、试验在线助手这些新兴事物正在形成的过程中,价值空间巨大。
在农牧业,比如国内两家最大的龙头集团,已实现猪兽医领域大模型"猪小新"、实现猪场猪只数量识别、猪死淘鉴定、后备猪筛选、猪异常行为识别等业务场景,通过体貌图片等数据,实时获取猪群健康信息,交由AI系统能够在后台快速完成初步诊断。即便是新手员工,也能凭借平台系统辅助,像经验丰富的养殖专家一样快速判断猪群的健康状况,并及时处置指导,降低了对资深专家经验的依赖。
在线教育行业,习题问答、作业批改都已经是成熟场景,终端设备也从ChatBot过渡到学习机,甚至是智能教室这样的立体解决方案。
金融行业仍然进展最快的行业之一,在部分场景下,其技术产品的储备速度,已经不亚于国际同行。比如在车险中,从前高度依赖人工的车辆定损和理赔,今天也正尝试交由AI来完成。
整体来看,如果不考虑应用深度、改造程度,仅从采用率口径来看,AI对各行业的渗透将是一个恐怖的数字。
以上共同铸就了阿里云在2025年叙事的第一个“反差感”:尽管诸如Kimi这般广为人知的模型是在阿里云上训练的,其核心定位仍然偏“幕后”和“服务”,是在推动企业把AI写进KPI、写进工单、写进流程,最后写进预算。
而当AI开始从“有没有用过”走向“每天必须用”,衡量方式就会变化:从下载量、DAU、Token吞吐量,走向成本结构与组织结构的重估。
2 阿里云的“反差感”之二:流量逻辑失效
无论是下载量、DAU,还是Token吞吐量,本质都是在复述流量逻辑,复述移动互联网时代的增长规则。
在AI时代,尤其是ToB领域,这显然不不合时宜。
尤其是Token的吞吐量,恐怕是AI时代集精准、模糊于一身的最矛盾指标。
一方面,Token的吞吐量等同于模型用量;另一方面,所谓模型用量只是MaaS平台上的模型调用,仅为全量市场的九牛一毛,且非价值单位,不能代表模型价值。
实际上,IDC报告里的“中国公有云调用率”,这个定语本身就存在限制:大量AI使用根本不是调用公有云MaaS API,因此不可见。
而不可见的部分至少包括:
通过公共云租赁GPU部署模型(需要大规模部署特定领域模型的企业);
采购GPU服务器进行开源大模型私有化部署,创建私有化推理平台内部使用(金融、制造、能源等对数据外流高度敏感行业);
汽车、具身智能等端侧模型闭环(时延与隐私决定无法上云实时调用);
模型蒸馏后的边缘推理(云上训练、端侧运行,消费不表现为token);
下载开源大模型在企业内部使用(诸如AirBnb的模式);
开源衍生模型的长尾使用(下载、微调、再分发,统计口径天然缺失)。
如果只按MaaS平台上Token调用量去计量,开源生态里发生的微调、蒸馏与私域部署都会被系统性抹掉。仅Qwen系列模型,就已有18万+全球衍生模型和全球7亿+的模型下载量——这部分‘消费’不以Token形式出现在公共统计数据里,却已经进入企业内部的实际生产环节。
概而言之,如果把全量的AI token比作一座冰山,MaaS平台上可统计的部分只是冰山露出水面的一角而已。
我们必须重置对企业AI用量的认知。
来自阿里云的数据显示,截止到现在,在阿里云上调用MaaS API的客户,与使用GPU的客户重合度竟然达到70%,这说明中国第一批深度拥抱AI的客户在全方位的选择不同的方式使用AI技术。
所以,一批正在形成“智能预算”的企业。他们既买Token,也买算力——他们不是在做选择题,而是在做场景分级:哪里需要公有云Token,哪里必须结合自己数据进行后训练,哪里要端侧小模型,哪里值得自建“智能工厂”:
轻量场景用API/MaaS:客服质检、内容生成、企业知识库问答、基础办公Copilot、翻译审核等,强调易用、快接入、低门槛。
中等复杂度场景做后训练:把业务规则、私域知识、历史行为数据灌进模型里,用微调、RAG、强化学习把“能用”推到“稳定可用”。
重资产场景直接训/蒸馏/端侧部署:自动驾驶、具身智能、摄像头多模态理解、工业设备诊断等,强调时延、隐私、安全与闭环。
这也直接改变了对企业级AI用量的统计算法:“公有云用量+专有云用量+开源衍生模型用量”不等于真实用量,三者存在很大的重叠部分。
另外一个问题是,模型越先进,消耗的的高质量Token其实越少。所谓Token ROI,对于深度使用AI的企业而言,是核心经营概念。虽然Token的单价下降了,但是Agentic AI兴起后,一次调用产生的Token总数也被放大了。
因为Token单价会越来越便宜,所以刻意忽视企业在为更多低效Token而付费的事实,颇有点掩耳盗铃的味道。用“吞吐量”当成唯一指标,会把“高效智能模型”误判成“低活跃”,把“唠叨模型”误判成“高消费”。
这也是为什么阿里云不断把叙事从“Token工厂”拉回“AI超级工厂”——后者强调的是全链路供给能力,而不是单一化的Token吞吐。模型能力,是背后价值兑现的关键。
2025年4月底,阿里发布了Qwen3,成为国内首个“混合推理模型”,“快思考”与“慢思考”集成进同一个模型,对简单需求可使用低算力“秒回”,对复杂问题可多步骤“深度思考”。AIME25测评81.5分,刷新开源纪录;LiveCodeBench评测超过70分,超过Grok3;ArenaHard测评95.6分超越OpenAI-o1及DeepSeek-R1。
同时,4张H20即可部署Qwen3满血版,显存占用仅为性能相近模型的三分之一。开源版本丰富,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款稠密模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能)。
开源是阿里云在模型竞争力上最为关键的一步棋。这允许企业可以在不签大合同、不押单一供应商的前提下先跑通POC,这对中国企业尤其重要。
3 AI价值锚点在AI原生市场、中国企业级市场和全球化
毋庸置疑,AI原生企业天然地拥抱AI,深度使用AI,它们是中国AI市场的“种子用户”。
在阿里云的观察里,除了AI原生企业,第一批深度拥抱AI的企业还往往具备以下共同特征:
数据治理相对成熟:Agent上限取决于模型与数据质量——这不是口号,而是工程现实。
业务流程重且连续:用量曲线更像复利而非潮汐。
对安全与合规敏感:这决定了“MaaS/云上专有环境VPC/私有化部署/端侧闭环”会长期存在,市场不可能被一种形态吃掉。
这简直是对上云并能用好云的客户的精准侧写。
这意味着:阿里云如果要把“AI超级工厂”的投入摊薄到足够低的边际成本,并把技术优势兑现为现金流,它必须走向更大的、付费更坚实的企业级市场。
这一轮中美AI竞争的胜负手,就在于谁能用AI提升改造各自的支柱产业,带来生产力的变革。
当前,中国AI的第一波市场聚焦在娱乐、陪聊等消费端场景;从美国AI市场发展看,SAP、Salesforce等SaaS软件对AI大模型的调用量最大,其次是AI编程。
Open AI和谷歌的报告也显示,ChatGPT和Gemini的企业客户调用量远超C端个人用户调用量。
所以,“领头羊”阿里云想要做的是,让AI深入到各行各业,用AI提升生产效率。
与此同时,当中国的AI原生企业在海外遍地开花,当中国的第一、第二及第三产业客户纷纷出海,使得阿里云加速剑指全球化。
刘伟光表示,2024–2025,中国企业的出海,不再只是把供应链优势搬出去,而是把AI能力当作产品溢价的一部分:
新能源车出海:没有智能化能力就很难维持差异化;
家电、照明、厨具等传统硬件出海:正在被“自然语言对话+多模态理解”重新定义交互方式;
机器人、安防、摄像头等品类出海:本质上都需要端云协同的模型能力。
对阿里云来说,这类客户天然会提出“海外部署”的硬需求:低时延、数据合规、跨区域运维、弹性供给,以及在海外可用的模型服务与训练推理能力。也因此,2025年阿里云在泰国、韩国、墨西哥等地新建数据中心的动作,不只是“基建扩张”,更像是在给下一轮AI应用出海提前铺路。
当然,全球化竞争,激烈程度远超国内:
模型能力只是门票:语言、coding、多模态缺一不可。
工程化才决定可用性:稳定性、时延、SLA、合规、跨区域交付能力,决定企业是否敢把核心流程交给你。
生态与接口决定渗透速度:当软件与工具链MCP化、API化,云厂商能否把“可调用的能力”变成“可组合的系统”,决定了Agent落地的上限。
这也是为什么阿里云正在“把3万多个产品的API服务全面做MCP化开放”。海外更像一个“标准件市场”,一旦你能用标准件快速交付,就能更快形成规模。
阿里云的2025可以被理解为一场“前置换轨”:
在国内,它用开源与超级工厂体系抓住最先动起来的AI企业,把AI从“试用”推向“连续使用”;
在海外,它需要把这套能力转化为规模化商业闭环——不是为了讲更大的故事,而是为了让故事具备财务可持续性。
其核心在于:先把路修出来,再等车流出现。
“这十多年来,中国云计算市场各种概念曾层出不穷,价格战屡见不鲜,但阿里云始终在牌桌上。如果用更长的时间去穿越周期洞察未来,技术能力和技术布局的前瞻性永远是核心竞争力。”刘伟光说。




