
AI 개발 생태계에서 혁신적인 변화가 일어나고 있습니다. Model Context Protocol(MCP)이 AI 모델과 외부 서비스 간의 통합을 표준화하면서, Cursor, Claude, Windsurf 등 주요 AI 클라이언트들이 속속 이를 채택하고 있습니다. 특히 주목할 점은 Vercel의 MCP 어댑터를 활용한 서버에서 새로운 Streamable HTTP 전송 방식으로 전환하여 CPU 사용량을 50% 이상 절약했다는 것입니다.
MCP의 급속한 성장과 확산
MCP(Model Context Protocol)는 AI 모델이 외부 데이터 소스와 도구에 접근할 수 있도록 하는 개방형 프로토콜입니다. 이 프로토콜의 가장 큰 장점은 AI 애플리케이션이 다양한 서비스와 표준화된 방식으로 소통할 수 있다는 점입니다.
현재 Zapier, Composio, Vapi, Solana 등의 주요 기업들이 Vercel의 MCP 어댑터를 사용하여 자체 MCP 서버를 구축하고 있으며, 지난 한 달간 상당한 성장을 보이고 있습니다. 이러한 급속한 채택은 MCP가 AI 생태계에서 얼마나 중요한 역할을 하고 있는지를 보여줍니다.
기존 SSE 방식의 한계점
2024년 11월 첫 번째 MCP 사양이 발표되었을 때, 원격 서버와의 통신을 위해 Server-Sent Events(SSE) 방식을 사용했습니다. 하지만 이 방식은 몇 가지 심각한 문제점을 가지고 있었습니다.
지속적 연결의 비효율성
SSE 방식의 가장 큰 문제는 클라이언트와 서버 간에 지속적인 연결을 유지해야 한다는 점입니다. 이는 다음과 같은 문제를 야기했습니다:
- 리소스 낭비: 실제로 데이터를 주고받지 않는 유휴 시간에도 연결을 유지해야 함
- 확장성 문제: 동시 연결 수가 늘어날수록 서버 부하가 급격히 증가
- 연결 관리 복잡성: 두 개의 별도 엔드포인트(SSE 스트림용과 메시지 전송용)를 관리해야 함
연결 복구의 어려움
SSE 연결이 중단되면 진행 중인 작업을 복구하기 어려웠습니다. 특히 장시간 실행되는 작업 중에 연결이 끊어지면 응답이 손실되는 경우가 많았습니다.

Streamable HTTP: 게임 체인저의 등장
2025년 3월, MCP 사양의 새로운 버전에서 Streamable HTTP가 권장 전송 방식으로 도입되었습니다. 이는 MCP 생태계에 혁신적인 변화를 가져왔습니다.
단일 엔드포인트의 장점
Streamable HTTP의 가장 큰 혁신은 단일 엔드포인트를 통한 양방향 통신입니다:
// 기존 SSE 방식 (두 개의 엔드포인트)
// - /sse (수신용)
// - /sse/messages (송신용)
// 새로운 Streamable HTTP 방식 (단일 엔드포인트)
// - /mcp (송수신 모두)
이러한 단순화는 개발자에게 다음과 같은 이점을 제공합니다:
- 구현 복잡성 감소: 하나의 엔드포인트만 관리하면 됨
- 에러 처리 단순화: 모든 오류가 동일한 채널을 통해 전달됨
- 디버깅 용이성: 요청과 응답이 동일한 연결에서 처리됨
동적 연결 업그레이드
Streamable HTTP의 핵심 특징 중 하나는 작업의 성격에 따라 연결 방식을 동적으로 조정할 수 있다는 점입니다:
- 간단한 작업: 일반적인 HTTP 요청/응답 방식으로 처리
- 복잡한 작업: 필요시 스트리밍 연결로 자동 업그레이드
이러한 적응형 연결 방식은 각 작업에 최적화된 통신 패턴을 제공합니다.
실제 성능 개선 사례
Vercel에서 공개한 Streamable HTTP 전환 후 CPU 사용량 50% 이상 절약 사례 – Source: Vercel
Vercel에 배포된 한 MCP 서버는 Streamable HTTP로 완전 전환한 후 사용자 증가에도 불구하고 CPU 사용량을 절반으로 줄일 수 있었습니다. 이는 단순히 이론적인 개선이 아닌, 실제 운영 환경에서 검증된 성과입니다.
성능 향상의 핵심 요인
- 연결 오버헤드 감소: 지속적인 연결 유지가 불필요해져 메모리 사용량 대폭 감소
- 효율적인 리소스 활용: 필요한 경우에만 연결을 생성하고 유지
- 향상된 확장성: 동시 사용자 수 증가에도 선형적인 리소스 증가
Vercel MCP 어댑터 활용하기
Vercel의 MCP 어댑터를 사용하면 개발자들이 쉽게 효율적인 MCP 서버를 구축할 수 있습니다. 다음은 간단한 구현 예시입니다:
import { createMcpHandler } from '@vercel/mcp-adapter';
const handler = createMcpHandler(server => {
server.tool(
'roll_dice',
'N면 주사위 굴리기',
{ sides: z.number().int().min(2) },
async ({ sides }) => {
const value = 1 + Math.floor(Math.random() * sides);
return {
content: [{
type: 'text',
text: `🎲 ${value}이 나왔습니다!`
}]
};
}
);
});
export { handler as GET, handler as POST, handler as DELETE };
이 어댑터는 Streamable HTTP와 SSE를 모두 지원하며, 필요에 따라 SSE를 비활성화할 수도 있습니다.
호환성 전략: 기존 클라이언트 지원
새로운 Streamable HTTP로의 전환이 빠르게 진행되고 있지만, 아직 모든 클라이언트가 이를 지원하지는 않습니다. 이를 해결하기 위해 mcp-remote
패키지를 사용할 수 있습니다.
mcp-remote를 통한 브리징
mcp-remote
패키지는 Streamable HTTP를 stdio로 프록시하여 기존 클라이언트와의 호환성을 보장합니다. Solana와 같은 기업들이 이미 이 방식을 채택하여 Streamable HTTP의 효율성을 누리면서도 기존 클라이언트를 지원하고 있습니다.
이러한 접근 방식의 장점은 다음과 같습니다:
- 점진적 마이그레이션: 한 번에 모든 것을 바꿀 필요 없음
- 미래 호환성: 새로운 클라이언트가 Streamable HTTP를 지원하면 자연스럽게 전환
- 리스크 최소화: 기존 시스템을 유지하면서 새로운 기능 도입
MCP의 미래와 AI 개발
MCP 생태계는 빠르게 진화하고 있으며, Streamable HTTP는 이러한 발전의 핵심 동력입니다. 향후 추가될 예정인 기능들을 살펴보면:
연결 복구 기능 (Resumability)
미래 버전에서는 연결이 중단되어도 정확히 중단된 지점부터 작업을 재개할 수 있는 기능이 추가될 예정입니다. 이는 장시간 실행되는 AI 작업에 특히 유용할 것입니다.
명시적 취소 메커니즘
클라이언트가 진행 중인 작업을 깔끔하게 취소할 수 있는 기능도 구현될 예정입니다. 이는 리소스 관리와 사용자 경험 개선에 큰 도움이 될 것입니다.
세션 관리
보안 세션 처리 기능을 통해 여러 연결에 걸쳐 상태를 유지할 수 있게 되어, 더욱 정교한 AI 에이전트 간 통신이 가능해질 것입니다.
개발자를 위한 실용적 가이드
새로운 MCP 서버 개발 시
- Streamable HTTP 우선 채택: 처음부터 새로운 전송 방식으로 구현
- 사양 문서 지속 확인: MCP 사양이 빠르게 진화하고 있으므로 최신 업데이트 추적
- 견고한 에러 처리: 연결 문제와 클라이언트 오류를 우아하게 처리하는 로직 구현
기존 MCP 서버 업그레이드 시
- 이중 지원 구현: SSE와 Streamable HTTP 모두 지원하는 구조로 변경
- 마이그레이션 계획 수립: 최종적으로 Streamable HTTP만 사용하는 전환 계획 마련
- 클라이언트 라이브러리 업데이트: 두 전송 방식을 모두 지원하도록 라이브러리 갱신
결론: AI 개발의 새로운 표준
Streamable HTTP로의 전환은 단순한 기술적 개선을 넘어서, AI 개발 생태계 전체의 효율성을 높이는 패러다임 변화입니다. 지속적인 연결의 부담에서 벗어나 필요에 따라 적응하는 스마트한 통신 방식은 확장 가능하고 지속 가능한 AI 인프라의 기반이 됩니다.
Vercel의 Fluid compute와 MCP 어댑터를 통해 개발자들은 현재와 미래의 클라이언트를 모두 지원하는 효율적인 MCP 서버를 구축할 수 있습니다. 50% 이상의 성능 향상이라는 실제 검증된 결과는 이러한 기술적 전환이 단순한 이론이 아닌 실질적인 비즈니스 가치를 제공한다는 것을 보여줍니다.
AI 개발자라면 지금이 MCP와 Streamable HTTP를 도입할 최적의 시기입니다. 빠르게 진화하는 AI 생태계에서 앞서 나가려면, 이러한 표준화된 효율적인 통신 방식을 적극적으로 활용해야 할 것입니다.
Comments