在 AI 与云原生协同创新的浪潮下,多模型、多场景智能应用日益普及。开发者面临的首要挑战,是如何实现模型之间、服务之间的高效协同,以及如何便捷地将自主研发能力拓展到云端,形成灵活可扩展的智能服务。MCP 即模型上下文协议(Model Context Protocol),其提供了一套通用的上下文管理和交互规范,帮助开发者聚焦于模型推理及业务创新,同时解决模型集成、通讯、调度和上下文共享等复杂问题。开发者可以根据自身业务场景,自主开发符合 MCP 协议的服务代码,并通过简单配置,一键部署至 Function AI 平台,并通过平台提供的访问地址提供给你进行调用,实现与模型服务的快速开发与集成。
Function AI 提供 MCP 代码一键上云的全流程能力
为了让开发者更高效地将自主实现的 MCP 协议代码构建、部署到云端服务,Function AI 针对开发阶段,提供了如下图所示的多途径的便捷构建和部署能力。
开发者可以将源码、交付物或镜像上传或托管至 Function AI 平台,通过修改构建配置和运行配置,点击部署后,便可将你的 MCP 服务源码部署至平台,平台提供公网访问地址可以连接你云端部署的 MCP 服务。
绑定代码仓库,自动拉取代码进行构建部署
Function AI 提供了 Github、Gitee、Gitlab 和 Codeup 源码仓库代码一键构建部署的能力。MCP 服务的代码开发者只需将 MCP 代码托管到源码仓库,Function AI 支持仓库绑定获取源码,自动触发构建和一键部署。每一次提交后,平台都能持续集成,使云端部署与本地开发同步,适合团队协作及敏捷交付。
首先登录 Function AI 平台,点击创建项目,在项目下创建一个 MCP 服务。
如你或团队已开通对象存储(OSS)服务,可将完整源码包上传至 OSS。Function AI 会自动拉取你上传到 OSS 的源码,按照配置高效完成构建和部署,帮你助你实现资源管理与交付流程的统一。
新建 MCP 服务,点击 OSS 上传,你可以选择你当前账号下的 Bucket 和 Object 目录,如果上传的 Object 为 ZIP 压缩文件,平台会自动帮你解压缩,在代码根目录下执行构建命令,同样填写运行配置、资源配置和网络配置后(步骤与第一节相同),点击部署,便可将你的代码部署至 Function AI 平台。
上传本地构建交付物
如果你觉得在本地构建的方式更加自由和灵活,Function AI 提供了上传本地交付物直接进行部署的能力。你可以本地编译、打包好可执行文件(例如二进制文件、JAR 包、安装好依赖的解释性语言包等)后,即可通过 ZIP 压缩包上传至 Function AI,由平台自动完成部署,无需平台端二次构建,大幅缩短部署周期。
新建 MCP 服务,点击代码包上传,你可以将你本地的构建好的交付物压缩为 ZIP 文件,拖拽至控制台进行上传。平台会自动帮你解压缩。由于你上传的是交付文件,平台将不为你进行代码构建,在填写运行配置、资源配置和网络配置后(步骤与第一节相同),点击部署,便可将你的交付物部署至 Function AI 平台。
镜像上传至 ACR,平台自动部署
考虑到 MCP 服务的定制遇到复杂运行环境时,传统的基于程序语言的运行时可能不能满足你的需求,Function AI 提供了容器化的部署方式。