[AIML] Model Context Protocol 介紹 (1)
在目前 LLM 模型的發展下, 一個共通的模型還有一段距離,
取而代之的是, 各家各有擅長的模型,
同時, 對於 Agentic AI 的需求, 我們對於 AI 也不再是處理文字訊息,
而是希望其可以融合各式模型的能力, 自動判斷使用者意圖,
進而操作各式模型, 已完成使用者意圖中的目標.
老慮到這樣的需求, 如何定義這些 AI 模型的介面, 也就變成一個問題,
對此, MCP (Model Context Protocol) 也就順應而生.
MCP 是由 Anthropic 於2024 年11 月推出的開放標準,
目標是在讓 LLM 能夠透過標準化的方式與外部工具, 資料庫和應用程式,
透過 MCP 定義的 API 介面進行安全, 結構化地溝通.
在 MCP 的架構中, 有三個主要的角色: Host, Server, Client, 其架構如下圖:
其中, Host 為 MCP 的平台, 提供 AI 應用或代理執行環境,
例如: 聊天介面, IDE 外掛, 桌面助理等, 為使用者操作的介面.
Host 負責協調多個 client, 管理工作階段, 並把結果回饋給使用者.
然而, Host 不直接跟各種資料源與 AI 模型溝通, 而是透過 client 進行.
MCP Client 在 MCP 架構下, 並非服務的使用者, 而是 AI 模型的代理.
其連線代理由 Host 發起, 同時每個 client 維持與一個 MCP server 的連線,
負責把 Host 的需求翻成 MCP 訊息, 處理握手/重試/能力宣告等需求,
並把 MCP Server 的回應再轉給 Host.
最後, MCP Server 是真實真正提供服務的地方, 有以下功能:
1) 對外宣告可用的 resources (資料), tools (函式庫), prompts (提示範本).
Server 可以在本機或遠端, 也可由不同團隊維護, 已達成擴充性需求.
留言
張貼留言