1. 등장 배경
- 대형 언어 모델(LLM)이 외부 도구·데이터와 연결될 때 표준화된 인터페이스 부족
- 다양한 외부 시스템과 연동 시 각기 다른 API 및 구조로 인해 통합 비용 과다 발생
- Anthropic, 2024년 11월 ‘MCP’를 오픈 프로토콜로 제안하여, AI 모델과 외부 시스템 간 통신을 표준화
2. 기본 개념
- MCP는 모델과 외부 애플리케이션 간 상호작용을 위한 통합 통신 프로토콜
- JSON-RPC 기반의 메시지 포맷 활용
- LLM이 다양한 리소스(Resource), 도구(Tool), 프롬프트(Prompt) 등을 호출 가능하도록 구조화
3. 구성 요소 및 통신 구조
3.1 MCP 전체 아키텍처
- MCP 호스트: LLM이 실행되는 환경, MCP 클라이언트를 통해 외부와 상호작용 수행
- MCP 클라이언트: 요청 포워딩 및 응답 수신 역할
- MCP 서버: 외부 리소스·도구 제공 주체, 다양한 API 또는 시스템에 연결
3.2 지원 통신 채널
stdio
기반 로컬 통신 지원HTTP + Server-Sent Events(SSE)
기반 실시간 통신 제공WebSocket
기반 양방향 스트리밍도 선택 가능
4. MCP 제공 기능
4.1 Resources
- 문서, 코드, 이메일, 이미지 등 정적 또는 쿼리 가능한 데이터 리소스 제공
4.2 Tools
- 외부 함수, API 등 호출 가능한 기능 지원 (예: 작업 생성, 검색 API 등)
4.3 Prompts
- 사용자 입력에 따라 자동 완성, 요약, 분석 등 맞춤형 프롬프트 템플릿 반환
5. 기술적 특징
- 모델의 컨텍스트 해석 범위를 외부로 확장하는 구조
- 외부 시스템을 ‘기억 확장 장치’로 활용 가능
- Plug-in 또는 Agent 개념과 유사하나, 표준 기반이라는 점에서 차별화
- 독립성 높은 도구 간 연동 가능 (모듈화 지향)
6. 주요 활용 사례
6.1 소프트웨어 개발 지원
- IDE 통합 사례 증가 (예: Replit, Zed)
- LLM이 코드 컨텍스트를 해석하여 실시간 도움 제공
- 디버깅, 코드 생성, 수정 힌트 제공 가능
6.2 기업 내부 시스템 연동
- 문서 저장소, CRM, 사내 지식베이스 등과 연결
- 업무 비서형 AI로 발전 (예: Block, Apollo)
6.3 데이터 자연어 접근
- SQL DB, 문서형 데이터베이스 등에 자연어 질의 제공
- AI2SQL 등에서 적용됨
7. 보안 및 프라이버시 이슈
- LLM이 외부 MCP 서버를 호출하면서 악성 응답을 받을 가능성 존재
- 민감한 정보 유출, 시스템 명령 실행 우려 발생
대응 방안
- MCP 서버를 샌드박스 또는 별도 가상환경에서 실행
- 사용자 승인 기반 접근 권한 제어 필수
- OAuth 등 인증 기반 접근 제어 적용 권장
8. 시사점
- GPT, Claude, Gemini 등 다수 LLM이 MCP와 유사한 구조로 진화 중
- AI가 툴 실행 주체가 되면서, UI 중심에서 Agent 중심 아키텍처로 전환 가속
- 미래에는 “모델 ↔ 툴 ↔ 사용자” 흐름이 일상화될 가능성 높음
- AI와 백엔드 시스템을 연결하는 통합 프로토콜로서 MCP 중요성 증대 예상
'IT Study > 인공지능 관련' 카테고리의 다른 글
🤖 컨볼루션 필터의 시각적 해석과 특성 추출 과정 이해 (1) | 2025.04.19 |
---|---|
🤖 클래스 활성화 맵(Class Activation Map, CAM)과 시각적 설명 기법 (0) | 2025.04.18 |
🤖 Data Leakage의 개념과 학습 데이터 구성 시 주의점 (0) | 2025.04.17 |
🤖 의료 영상 AI 진단에서의 신뢰도 추정(Uncertainty Estimation) (0) | 2025.04.16 |
🤖 강화학습에서 Exploration vs Exploitation 균형 전략 (0) | 2025.04.15 |