找回密码
 立即注册
首页 业界区 业界 MCP神器!MCP-USE 一键部署连接任何MCP服务器 ...

MCP神器!MCP-USE 一键部署连接任何MCP服务器

静轾 2025-9-28 16:40:11
Hello, 大家好,我是程序员海军, 全栈开发 |AI爱好者 | 独立开发。
最近一直在研究MCP方面的事情,使用的技术栈是Python + FastAPi + FastMCP,开发了多个MCP-Server,本地化访问没啥问题,准备部署试着玩一下,调研发现这样的一个 MCP 神器,可一键部署MCP 服务器托管,并且它简化了很多操作,简直太方便了。
1.png

mcp-use 是连接任何 LLM 到任何 MCP 服务器并构建自定义 MCP 智能体最简单的开源方式,无需依赖闭源或特定应用客户端。 它解决了开发者在构建 AI 智能体时面临的工具集成复杂性问题,让开发者能够轻松地将 LLM 连接到各种工具,如网页浏览、文件操作等。
什么是 mcp-use

2.png

mcp-use 是一个开源 Python 库,专门用于连接LLM 和 MCP服务器。它充当了 LLM 和各种工具服务之间的桥梁,让开发者能够创建具有工具访问能力的自定义智能体。
核心价值

  • 开放性:完全开源,不依赖任何闭源或特定应用的客户端
  • 通用性:支持任何 LangChain 兼容的 LLM 提供商(OpenAI、Anthropic、Groq 等)
  • 灵活性:通过简单的 JSON 配置即可连接各种 MCP 服务器
  • 易用性:提供简洁的 Python API,几行代码即可创建功能强大的智能体
mcp-use 功能

LLM 灵活性


  • 支持各大模型系列的模型
多种连接方式


  • Stdio 连接:标准输入输出连接方式
  • HTTP 连接:支持连接到特定端口的 MCP 服务器
  • SSE 连接:支持服务端事件流连接
  • 沙盒执行:通过 E2B 云基础设施运行 MCP 服务器
高级功能

3.png


  • 多服务器支持:同时连接多个 MCP 服务器
  • 动态服务器选择:智能选择最合适的服务器执行任务
  • 工具访问控制:限制智能体可使用的工具范围
  • 流式输出:支持实时输出智能体的执行过程
  • 调试模式:提供详细的调试信息帮助开发
2.4 配置管理

4.png


  • 支持 JSON 配置文件
  • 支持字典配置
  • 环境变量管理
  • 灵活的服务器配置选项
mcp-use 如何使用

安装
  1. # 基础安装
  2. pip install mcp-use
  3. # 安装 LLM 提供商依赖
  4. pip install langchain-openai  # OpenAI
  5. pip install langchain-anthropic  # Anthropic
  6. # 安装沙盒支持(可选)
  7. pip install "mcp-use[e2b]"
复制代码
基本使用
  1. import asyncio
  2. from dotenv import load_dotenv
  3. from langchain_openai import ChatOpenAI
  4. from mcp_use import MCPAgent, MCPClient
  5. async def main():
  6.     load_dotenv()
  7.    
  8.     # 配置 MCP 服务器
  9.     config = {
  10.         "mcpServers": {
  11.             "playwright": {
  12.                 "command": "npx",
  13.                 "args": ["@playwright/mcp@latest"],
  14.                 "env": {"DISPLAY": ":1"}
  15.             }
  16.         }
  17.     }
  18.    
  19.     # 创建客户端和智能体
  20.     client = MCPClient.from_dict(config)
  21.     llm = ChatOpenAI(model="gpt-4o")
  22.     agent = MCPAgent(llm=llm, client=client, max_steps=30)
  23.    
  24.     # 执行任务
  25.     result = await agent.run(
  26.         "上海有哪些美食"
  27.     )
  28.     print(f"结果: {result}")
  29. if __name__ == "__main__":
  30.     asyncio.run(main())
复制代码
使用配置文件

创建 mcp-config.json 文件:
  1. {
  2.   "mcpServers": {
  3.     "playwright": {
  4.       "command": "npx",
  5.       "args": ["@playwright/mcp@latest"],
  6.       "env": {
  7.         "DISPLAY": ":1"
  8.       }
  9.     },
  10.     "airbnb": {
  11.       "command": "npx",
  12.       "args": ["-y", "@openbnb/mcp-server-airbnb"]
  13.     }
  14.   }
  15. }
复制代码
在代码中使用mcpserver
  1. client = MCPClient.from_config_file("mcp-config.json")
复制代码
流式输出
  1. async for chunk in agent.astream("山西哪里好玩?"):
  2.     print(chunk["messages"], end="", flush=True)
复制代码
工具访问控制
  1. # 限制智能体可使用的工具
  2. agent = MCPAgent(
  3.     llm=llm,
  4.     client=client,
  5.     disallowed_tools=["get_Personal",]  # 禁用一些工具调用
  6. )
复制代码
调试模式
  1. #在代码中设置
  2. import mcp_use
  3. mcp_use.set_debug(2)  # 启用详细调试信息
复制代码
总结

mcp-use 为开发者提供了一个强大而灵活的解决方案,解决了 LLM 与外部工具集成的复杂性问题。
我们可以通过几行代码快速构建AI Agent,并且还可以轻松的集成MCP 服务器和工具了。
随着 MCP 生态系统的不断发展,我觉得不管是大模型的开发还是Agent 开发等等,门槛都会被降低下来了,现在已经是这个趋势了。AI 的飞速发展,以往的很多知识点可能被推翻,化繁为简,变的更简单。
mcp-use:  https://mcp-use.com/

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

相关推荐

您需要登录后才可以回帖 登录 | 立即注册