안녕하세요.
오늘은 OpenAI에서 Agents SDK에 MCP(Model Context Protocol)를 공식 지원하게 되었습니다. MCP는 AI 모델과 외부 도구를 쉽고 안전하게 연결하는 표준 인터페이스로, 복잡한 API 연동 없이도 강력한 기능을 실현할 수 있습니다. Open AI 에서 MCP 지원하는 의미와 기본 사용방법에 대해서 소개드리겠습니다.
MCP란 무엇인가?
🔌 AI와 외부 시스템을 연결하는 범용 포트
MCP(Model Context Protocol)는 AI 모델과 외부 데이터 소스(예: 파일 시스템, API, DB 등)를 연결하기 위한 개방형 표준 프로토콜입니다. USB-C처럼 다양한 외부 자원을 하나의 인터페이스로 통합하는 역할을 하며, OpenAI의 Agents SDK에서 이를 공식 지원합니다.
📈 표준화의 필요성과 도입 배경
이전에는 다양한 API나 데이터 소스를 직접 연결해야 했기 때문에 개발 난이도와 유지보수 비용이 컸습니다. MCP는 이러한 비효율을 해소하고, AI 모델이 다양한 환경에서 손쉽게 도구를 활용할 수 있도록 지원합니다.
자세한 내용을 아래 글을 참고하세요.
2025.03.12 - [AI 트렌드] - [AI 트렌드] MCP vs API 비교: AI 통합 방식의 혁신적 변화
[AI 트렌드] MCP vs API 비교: AI 통합 방식의 혁신적 변화
안녕하세요.최근 AI 모델이 다양한 도구 및 데이터 소스와 효율적으로 연결될 수 있도록 Model Context Protocol(MCP)이 등장했습니다. 마치 USB-C 포트처럼 AI 시스템이 여러 애플리케이션과 원활하게 연
deepcoder1.tistory.com
OpenAI의 공식 MCP 지원 의미는?
🌍 통합 개발 환경 제공
OpenAI Agents SDK에서 MCP를 공식 지원함으로써, 별도의 커스텀 코드 없이 외부 도구를 AI 모델과 연동할 수 있습니다. 개발자 입장에서는 구현과 유지보수 모두가 단순해집니다.
⚡ 확장성 및 유연성 확보
로컬 및 원격 MCP 서버를 자유롭게 추가할 수 있으며, 이를 통해 AI 모델이 실시간 데이터, 파일 시스템, 외부 API 등에 자유롭게 접근할 수 있는 기반이 마련됩니다.
🔄 반복적인 코드 제거
다양한 API 호출 코드를 일일이 작성할 필요 없이, MCP 서버에 툴만 등록하면 AI가 직접 인식하고 실행합니다. 이는 개발자 생산성을 획기적으로 높이는 요소입니다.
Open AI SDK 에서 MCP 서버 추가하기
⚙️ 에이전트에 MCP 서버 연결하기
Agent
객체 생성 시 MCP 서버를 리스트에 추가하면, 에이전트 실행 시 list_tools()
가 자동 호출되어 사용 가능한 도구가 AI에 전달됩니다.
agent=Agent(
name="Assistant",
instructions="Use the tools to achieve the task",
mcp_servers=[mcp_server_1, mcp_server_2]
)
🧠 MCP 기반 툴 실행 흐름
AI 모델은 필요한 작업에 따라 툴을 선택하고, 해당 MCP 서버에 call_tool()
을 호출하여 실행합니다. 사용자는 툴 동작을 일일이 지정할 필요 없이, 목적만 정의하면 됩니다.
Open AI의 MCP 서버 종류
🖥️ Stdio (로컬 통합 방식)
Stdio 서버는 MCP 서버를 애플리케이션의 하위 프로세스로 실행합니다. 네트워크 연결 없이 빠른 응답이 가능하며, 테스트나 개인 환경에서 주로 활용됩니다.
코드 예제
async with MCPServerStdio(
params={"command": "npx", "args": ["@modelcontextprotocol/server-filesystem", "samples_dir"]}
) as server:
tools = await server.list_tools()
🌐 Http Over SSE (원격 HTTP 서버 방식)
SSE 기반 MCP 서버는 URL을 통해 네트워크로 접근하며, 클라우드 환경이나 협업 시스템에 적합합니다. OpenAI SDK는 이 서버와도 자동으로 연결 및 통신할 수 있습니다.
코드 예제
async with MCPServerSse(url="https://example.com/mcp-server") as server:
tools = await server.list_tools()
캐싱을 활용한 MCP 성능 최적화
🚀 list_tools() 호출 최소화
리모트 서버의 경우, list_tools()
호출이 빈번하면 응답 지연이 발생할 수 있습니다. 이를 줄이기 위해 cache_tools_list=True
옵션으로 툴 목록을 메모리에 저장할 수 있습니다.
🔄 캐시 무효화로 최신 도구 유지
툴 목록이 변경된 경우 invalidate_tools_cache()
를 호출하여 기존 캐시를 제거하고 최신 상태로 유지할 수 있습니다. 실시간 환경에서는 매우 중요한 기능입니다.
결론: 왜 지금 MCP를 사용해야 하는가?
🧩 복잡한 API 연결 없이도 강력한 AI 구축 가능
OpenAI Agents SDK에서의 MCP 지원은 AI 개발의 진입 장벽을 낮추고, 툴 연결을 표준화함으로써 확장성과 관리 효율성을 동시에 높여줍니다.
🚀 AI 기능을 실시간으로 확장하는 가장 쉬운 방법
단 한 번의 설정으로 로컬 또는 원격 도구를 연결하고, 다양한 응용 사례에 즉시 적용할 수 있습니다. 특히 파일 시스템, 대화형 에이전트, 데이터 분석 툴 등 다양한 분야에 이상적입니다.
출처
https://openai.github.io/openai-agents-python/mcp/
Model context protocol (MCP) - OpenAI Agents SDK
Model context protocol (MCP) The Model context protocol (aka MCP) is a way to provide tools and context to the LLM. From the MCP docs: MCP is an open protocol that standardizes how applications provide context to LLMs. Think of MCP like a USB-C port for AI
openai.github.io
'AI 트렌드' 카테고리의 다른 글
ARC-AGI-2, 인공지능의 한계를 시험하는 가장 어려운 AI 벤치마크 (1) | 2025.03.28 |
---|---|
자신의 가치를 세상에 알리는 법 – Sell Yourself, Sell Your Work (0) | 2025.03.27 |
AI의 진정한 경제적 가치는 R&D보다 자동화에 있다 (0) | 2025.03.27 |
Open AI의 GPT-4o 이미지 생성 기능 공개 (5) | 2025.03.26 |
Gemini 2.5 Pro – 사고하는 인공지능, 그 미래를 말하다 (3) | 2025.03.26 |