本文整理自 2025 云栖大会,阿里云智能集团高级产品专家张凤婷的演讲
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。
阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新,而不是基础设施。
传统容器化、微服务应用的稳健托管
过去的“裸机+脚本”时代,部署繁琐、扩容低效、故障频发;随后 Docker 与 Kubernetes 将算力进一步抽象,但自建集群仍需维护节点与控制面,稳定性与人力成本难以平衡。而进入 AI 时代后,仅仅“跑得稳、跑得快”已不够,企业还需要打通模型、工具链、知识库的体系化支撑与生产级治理。
SAE 正是为此而生:它将阿里巴巴十几年来沉淀的运维经验产品化,将复杂的 Kubernetes 体系产品化封装成“应用级”能力,以企业级高可用、极致资源效率、深度云生态集成为底座,既支持传统 Web/微服务/批作业等应用,也面向 AI Agent、RAG 与工作流类应用提供一键式生产级托管。
降本增效是企业长期的追求。SAE 通过精细化的资源管理,帮助企业实现资源的最大利用率。按需使用、按量计费的特性能够根据业务负载的变化,在秒级时间内快速完成资源的扩容或缩容,从容应对流量的波峰波谷,确保业务体验的同时避免了资源浪费。
SAE 独有的“闲置计费”能力,在业务低峰期(如夜间),能够自动将应用缩容至极小规格甚至为零,将资源智能回收至阿里云庞大的共享资源池。当流量回升时,又能在一秒内快速恢复服务。这一全自动化的过程,可为用户节省大量的闲置资源成本,真正把每一分钱都花在刀刃上。
智能运维:SAE 内置 AI 运维助手,让“救火”变“决策”
深耕垂直场景:以 SAE 平台侧深度知识和大量生产数据为训练基础。
高覆盖智能诊断:覆盖 95% 以上可枚举问题,准确率 80% 以上。
预警与自愈:聚焦平台特性,面向配置与操作错误给出优化建议,平台自身故障率降低约 90% 以上。
面向 AI 应用的生产级托管:从快速探索到高效落地
根据预测,未来 90% 以上的互联网入口或将由 AI 智能体(Agent)构成。然而,理想与现实之间仍有鸿沟:开源AI框架层出不穷,但其技术复杂性、版本不稳定性以及高昂的资源成本,常常让企业在“生产化”的最后一公里望而却步。
AI 技术与开源生态迭代极快,但“开源≠生产就绪”。SAE 不参与模型训练,而是专注让 AI 应用“跑得稳、跑得快、管得住”,将 AI 落地的基础设施与治理产品化。
SAE 开源 AI 托管平台:开启企业 AI 应用的“简单时代”
一站式 AI 应用中心: 支持工作流编排、运行沙箱、版本管理、流量治理、灰度发布;默认集成日志/监控/追踪与性能评测、链路压测,保障环境一致性。
开放兼容: 无论开源模型还是自研模型,均可与阿里云存储、网络、可观测、服务治理等能力深度集成。
模板与生态: 已支持 Dify(低代码 AI 应用平台)、OpenManus(AI 工作流引擎)、JManus(Java 版、MCP 协议)、RAGFlow(检索增强生成框架)、Airflow(工作流调度),后续将陆续支持 N8N、Maker 等自动化工具。