找回密码
 立即注册
首页 业界区 业界 张高兴的大模型开发实战:(六)在 LangGraph 中使用 MC ...

张高兴的大模型开发实战:(六)在 LangGraph 中使用 MCP 协议

喙审 2025-6-3 00:08:11
目录

  • 什么是 MCP 协议
  • MCP 协议与 API 调用的区别
  • MCP 协议的连接方式

    • SSE(Server-Sent Events)
    • stdio(标准输入输出)

  • 在 LangGraph 中使用 MCP 协议

什么是 MCP 协议

MCP(Model Context Protocol,模型上下文协议)是一种专为大语言模型设计的开源通信协议,使用 MCP 可以标准化模型与外部数据源、工具或服务之间的交互。也就是说通过 MCP 协议,可以使模型具备调用外部工具的能力,比如获取数据、执行外部操作等。
MCP 协议与 API 调用的区别

到这里,可能不少同学会有疑问,MCP 协议听起来和 API 调用差不多,就算不使用 MCP 协议,也可以通过 API 调用来实现模型与外部数据源、工具或服务之间的交互。MCP 协议的意义在于为不同的 API 创建了一个通用标准,就像 USB-C 让不同设备能够通过相同的接口连接一样。
1.png

与 API 调用相比,MCP 协议具有一些特性:

  • 上下文感知与会话状态管理:MCP 协议允许模型在多个请求之间保持上下文感知和会话状态管理。这意味着模型可以记住之前的对话历史、用户偏好和其他相关信息,从而提供更个性化和上下文相关的响应。API 调用通常是无状态的,每个请求都是独立的,模型无法记住之前的对话历史或上下文信息。例如,用户问“我的快递到哪了?”,MCP 会自动关联历史订单信息并返回物流状态,无需用户重复提供订单号。而 API 调用需要手动提供订单号才能查询物流状态。
  • 双向实时通信:MCP 协议支持双向实时通信,允许模型和外部服务之间进行实时交互。这使得模型能够在需要时主动请求信息或执行操作,而不仅仅是被动响应请求。API 调用通常是单向的,模型只能在接收到请求时进行响应。例如,MCP 服务在处理复杂任务时,可主动反馈中间结果(如“正在查询数据库,请稍候”)。
  • 动态工具发现与集成:MCP 协议允许模型动态发现和集成新的工具或服务,而无需修改代码或重新部署。这使得模型能够灵活地适应新的需求和环境。API 调用通常是静态的,模型只能使用预先定义的 API 接口。例如,用户问“帮我订机票”,MCP 会自动识别可用的航班查询工具和支付接口,无需提前配置。而 API 调用需要单独开发调用机票查询和支付的接口。
MCP 协议的连接方式

MCP 协议通常使用两种方式建立连接。
SSE(Server-Sent Events)

SSE 是一种基于 HTTP 的通信协议,它使用单向连接,从 MCP 服务端到客户端发送数据流。SSE 适用于需要实时更新的场景,例如聊天应用、股票行情等。在通过 SSE 连接时,你会用到类似 http://localhost:8001/sse 的 URL 地址,因此 SSE 连接更像传统的网络 API 调用。
stdio(标准输入输出)

stdio 通过标准输入输出流进行通信,通常 MCP 服务端是运行在本地的,适用于本地开发和调试。
在 LangGraph 中使用 MCP 协议

下面通过一个最简单的实例来演示如何在 LangGraph 中使用 MCP 协议。项目文件结构如下:
  1. .
  2. ├── mcp_servers  # MCP 服务器
  3. │   ├── math.py     # 数学计算
  4. │   └── weather.py  # 天气查询
  5. └── main.py      # 主程序
复制代码
首先安装所需要的包。
  1. pip install langchain-mcp-adapters mcp
复制代码
然后在 mcp_servers 目录下创建两个 MCP 服务。math.py 使用 stdio 连接,实现了加法和乘法运算,用于解决数学计算问题。weather.py 使用 SSE 连接,实现了天气和时间查询功能。
math.py 代码如下:
  1. from mcp.server.fastmcp import FastMCP
  2. mcp = FastMCP("Math")
  3. @mcp.tool()
  4. def add(a: int, b: int) -> int:
  5.     return a + b
  6. @mcp.tool()
  7. def multiply(a: int, b: int) -> int:
  8.     return a * b
  9. if __name__ == "__main__":
  10.     mcp.run(transport="stdio")
复制代码
weather.py 代码如下:
  1. from datetime import datetime
  2. from mcp.server.fastmcp import FastMCP
  3. mcp = FastMCP("Weather", port=8001)
  4. @mcp.tool()
  5. def get_weather(location: str) -> str:
  6.     return "晴天"
  7. @mcp.tool()
  8. def get_time() -> str:
  9.     return datetime.now().strftime('%Y-%m-%d %H:%M:%S')
  10. if __name__ == "__main__":
  11.     mcp.run(transport="sse")
复制代码
接着在 main.py 中引用相关的包。
  1. import asyncio
  2. from contextlib import asynccontextmanager
  3. from typing import Annotated, TypedDict
  4. from langchain.prompts import ChatPromptTemplate
  5. from langchain_mcp_adapters.client import MultiServerMCPClient
  6. from langgraph.graph import END, START, StateGraph
  7. from langgraph.graph.message import add_messages
  8. from langgraph.prebuilt import ToolNode, tools_condition
  9. from langchain_ollama import ChatOllama
复制代码
编写 load_mcp_tools() 方法,将 MCP 服务转换成 LangChain 中的工具(langchain_core.tools)。
  1. @asynccontextmanager
  2. async def load_mcp_tools():
  3.     """加载 MCP 工具"""
  4.     async with MultiServerMCPClient(
  5.         {
  6.             "math": {
  7.                 "command": "python",
  8.                 "args": ["mcp_servers/math.py"],
  9.                 "transport": "stdio",
  10.             },
  11.             "weather": {
  12.                 "url": f"http://localhost:8001/sse",
  13.                 "transport": "sse",
  14.             }
  15.         }
  16.     ) as client:
  17.         yield client.get_tools()
复制代码
加载模型、设置提示词以及定义 LangGraph 图的状态。
  1. model = ChatOllama(model="qwen2.5:7b")
  2. prompt = ChatPromptTemplate.from_template("You are an assistant for question-answering tasks. If necessary, external tools can also be called to answer. If you don't know the answer, just say that you don't know. Answer in Chinese.\n\nQuestion: {question}")
  3. class State(TypedDict):
  4.     messages: Annotated[list, add_messages]
复制代码
编写 create_graph() 方法,创建一个最简单的图,仅包含一个对话节点和一个工具节点。在 LangGraph 中调用工具,需要将工具转换成工具节点 ToolNode,工具节点会自动处理工具的调用和结果的返回。
2.png
  1. @asynccontextmanager
  2. async def create_graph():
  3.     """创建图"""
  4.     def agent(state: State):
  5.         messages = state["messages"]
  6.         state["messages"] = llm_with_tool.invoke(messages)
  7.         return state
  8.     async with load_mcp_tools() as tools:   # 获取 MCP 工具
  9.         print(f"可用的 MCP 工具:{[tool.name for tool in tools]}")
  10.         llm_with_tool = prompt | model.bind_tools(tools)    # 绑定工具并创建模型调用链
  11.         graph_builder = StateGraph(State)
  12.         graph_builder.add_node(agent)
  13.         # 添加工具节点
  14.         graph_builder.add_node("tool", ToolNode(tools))
  15.         graph_builder.add_edge(START, "agent")
  16.         graph_builder.add_conditional_edges(
  17.             "agent",
  18.             tools_condition,    # LangGraph 中预定义的方法,用于判断是否需要调用工具
  19.             {
  20.                 "tools": "tool",
  21.                 END: END,
  22.             },
  23.         )
  24.         graph_builder.add_edge("tool", "agent")
  25.         yield graph_builder.compile()
复制代码
最后编写主程序,运行观察一下结果。
  1. async def main():
  2.     async with create_graph() as graph:
  3.         result = await graph.ainvoke({"messages": "徐州天气怎么样"})
  4.         print(result["messages"][-1].content)
  5.         result = await graph.ainvoke({"messages": "现在几点了"})
  6.         print(result["messages"][-1].content)
  7.         result = await graph.ainvoke({"messages": "(3+5)x12等于多少"})
  8.         print(result["messages"][-1].content)
  9. if __name__ == "__main__":
  10.     asyncio.run(main())
复制代码
可以看到输出结果如下:
  1. 可用的 MCP 工具:['add', 'multiply', 'get_weather', 'get_time']
  2. 徐州现在的天气是晴天。
  3. 现在的时刻是17:22:15。
  4. (3+5)×12等于96。
复制代码
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
您需要登录后才可以回帖 登录 | 立即注册