AI가 실제로 결제를 처리하고, 다른 AI와 협상하고, 실시간으로 데이터를 가져오는 시대가 열렸습니다. Analytics Vidhya의 최근 분석에 따르면 2025년 AI 혁명의 핵심은 파라미터 수가 아니라 ‘AI 통신 인프라’입니다. 구글의 Agent Payments Protocol(AP2), 오픈 표준인 Agent-to-Agent Protocol(A2A), 그리고 Anthropic의 Model Context Protocol(MCP)—이 세 가지 프로토콜이 SDK, 클라우드 마켓플레이스, IDE 플러그인에 내장되면서 AI 에이전트의 실행 능력을 근본적으로 바꾸고 있습니다.

핵심 포인트:
- 세 계층, 세 가지 역할: AP2는 돈의 계층(결제), A2A는 신뢰의 계층(협상), MCP는 데이터의 계층(정보 접근). 서로 경쟁이 아닌 상호보완 관계
- 20초 트랜잭션의 비밀: 도쿄 여행 예약 사례에서 MCP가 실시간 항공권 정보를 가져오고, A2A가 호텔 에이전트와 협상하고, AP2가 결제 처리—세 프로토콜의 완벽한 조합
- 실무 의사결정 기준: 돈이 움직이면 AP2, 두 코드가 합의해야 하면 A2A, 모델이 최신 정보가 필요하면 MCP—이 구분을 놓치면 6개월간 레거시 통합 작업에 시간 낭비
AI 에이전트의 새로운 언어
이 글은 Analytics Vidhya의 “AP2 vs A2A vs MCP: Defining AI Communication Protocols” 분석을 중심으로, 세 가지 핵심 프로토콜의 기술적 차이점과 실무 활용 방법을 정리합니다.
LLM이 단순히 텍스트를 생성하는 것을 넘어 실제 세계와 상호작용하려면 표준화된 통신 방식이 필요합니다. REST API처럼 각 서비스마다 커스텀 래퍼를 만드는 대신, 이 세 프로토콜은 AI 에이전트가 “비용 지불”, “협상”, “데이터 접근”이라는 세 가지 핵심 작업을 수행할 수 있게 해줍니다.
세 프로토콜의 본질
AP2: 돈의 계층
Agent Payments Protocol(AP2)는 구글이 주요 결제 및 기술 기업들과 협력해 개발한 결제 전용 프로토콜입니다. AI 에이전트가 사용자를 대신해 안전하고 합법적으로 비용을 지불할 수 있는가라는 하나의 질문에만 집중합니다.
TLS 1.3 암호화와 서명된 mandate(권한 위임), 규제 준수를 핵심으로 설계되었습니다. mandate chain은 암호화 서명과 해시를 통해 “누가 누구를 대신해 얼마를 쓸 수 있는지” 검증합니다. 기존 결제 게이트웨이와도 호환됩니다. 게이트웨이는 mandate verification 엔드포인트를 제공하고, mandate chain 해시가 인증 요청과 일치하면 일반 카드/UPI 트랜잭션처럼 처리합니다.
A2A: 신뢰의 계층
Agent-to-Agent Protocol(A2A)은 구글 클라우드가 Atlassian, Langchain, Salesforce, SAP, ServiceNow 등 50개 이상의 파트너와 함께 개발한 오픈 표준입니다. 단순 트랜잭션을 넘어 자율적 개체 간 검증 가능한 합의를 구축합니다.
이 프로토콜의 핵심은 DID(Decentralized Identifier)와 검증 가능한 자격 증명(Verifiable Credentials), 감사 가능한 메시지 체인입니다. 두 에이전트가 서로 무엇을 약속했는지 증명할 수 있어야 합니다. 협상, 협업, 책임 추적에 최적화되어 있죠.
A2A는 JSON-RPC 2.0, gRPC, HTTP+JSON 세 가지 전송 프로토콜을 지원합니다. Agent Card라는 메타데이터 문서를 통해 에이전트의 정체성, 능력, 인증 요구사항을 선언합니다. 메시지, 태스크, 아티팩트 개념을 통해 장기 실행 작업과 비동기 상호작용을 자연스럽게 처리합니다.

MCP: 데이터의 계층
Model Context Protocol(MCP)은 Anthropic이 개발한 오픈 표준으로, AI 도구와 데이터 소스 간의 안전한 양방향 연결을 만듭니다. USB-C 포트처럼 작동합니다. 하나의 표준 커넥터로 서로 다른 도구와 데이터 소스가 “대화”할 수 있게 만드는 것이죠.
LLM이 정적 모델에서 동적이고 맥락을 인식하는 에이전트로 변신하려면 실시간 정보가 필요합니다. MCP는 바로 이 문제를 해결합니다. AI 모델은 저장 위치와 관계없이 필요한 정보에 접근할 수 있고, 개발자는 각 데이터 소스마다 커스텀 커넥터를 만드는 대신 하나의 표준 프로토콜로 개발할 수 있습니다.
MCP는 OAuth 2 + TLS 1.3 위에서 작동하며, 기본 API의 scope를 상속합니다. Filesystem, Git, Memory, Time 등 다양한 레퍼런스 서버를 제공하며, Claude 데스크톱 앱에서 직접 사용할 수 있습니다.
실전 시나리오: 도쿄 여행 예약
세 프로토콜이 어떻게 함께 작동하는지 구체적인 예시로 살펴보겠습니다.
사용자: “도쿄 여행 계획하고 200만원 이하로 예약해줘.”
- MCP 작동: LLM이 Google Flights에서 실시간 항공권 정보를 가져옵니다. MCP 서버가 최신 가격과 일정 데이터를 제공하죠.
- A2A 협상: LLM이 여행 에이전트를 생성하고, 호텔 에이전트와 A2A를 통해 패키지 협상을 시작합니다. 서명된 제안(signed offers)을 주고받으며 최적 조합을 찾습니다.
- AP2 결제: 여행 에이전트가 장바구니를 만들고, 사용자가 “예약” 버튼을 누르면 AP2 mandate가 결제 시스템을 통해 비용을 이동시킵니다.
총 소요 시간: 20초.
전통적인 방식이라면 사용자가 직접 여러 사이트를 방문하고, 가격을 비교하고, 예약해야 했을 것입니다. 세 프로토콜의 조합으로 이 모든 과정이 자동화됩니다.
기술적 비교
세 프로토콜의 기술적 차이를 표로 정리하면 다음과 같습니다.
구분 | AP2 | A2A | MCP |
---|---|---|---|
통신 대상 | 에이전트 ↔ 결제 시스템 | 에이전트 ↔ 에이전트 | LLM ↔ 외부 데이터 소스 |
전송 방식 | TLS 1.3 + 서명된 mandates | TLS 1.3 + Noise 프로토콜 | HTTPS/HTTP 2 |
데이터 형식 | JSON mandate 객체 | JSON + 서명된 blob | JSON-LD context |
인증 방식 | mTLS + 검증 가능한 mandates | DID + 검증 가능한 자격 증명 | OAuth 2 + JWT |
레이턴시 목표 | 사람의 생각 속도(체크아웃 시간) | WAN 환경 100ms 이하 | 사람의 생각 속도 |
오픈소스 저장소:
- AP2: github.com/google/ap2
- A2A: github.com/open-a2a/a2a
- MCP: github.com/modelcontextprotocol
A2A의 경우 DID 서명 체인과 아티팩트 해싱이 LAN에서 약 5ms, WAN에서 약 50ms의 오버헤드를 추가하지만, 나중에 감사 작업에서 며칠을 절약해줍니다. MCP는 PII나 PHI 데이터를 다룰 때 행 단위 암호화와 서명된 JWT를 추가할 수 있습니다.
실무 의사결정 가이드
어떤 프로토콜을 언제 사용해야 할까요?
AP2를 선택하는 경우
- 비용이 실제로 이동하는 경우
- 규제 준수가 필수적인 경우
- 금융 트랜잭션의 감사 추적이 필요한 경우
A2A를 선택하는 경우
- 두 개의 코드/에이전트가 합의해야 하는 경우
- 협상 과정의 증명이 필요한 경우
- 조직 간 신뢰 구축이 필요한 경우
MCP를 선택하는 경우
- LLM이 최신 정보나 실시간 데이터가 필요한 경우
- 여러 데이터 소스에 통합 접근이 필요한 경우
- 모델에게 행동 능력을 부여해야 하는 경우
대부분의 제품은 MCP로 시작합니다. 그런 다음 비용 처리나 조직 간 신뢰가 필요해지면 다른 프로토콜을 추가하는 방식이죠. 세 가지를 모두 구현할 필요는 없습니다.
자주 묻는 질문
세 프로토콜이 하나로 통합될 가능성은?
가능성은 낮습니다. 이들은 서로 다른 문제(돈, 신뢰, 데이터)를 해결하기 때문입니다. 대신 브리지 방식이 나타날 것으로 예상됩니다. 예를 들어 MCP가 서명된 전달을 위해 A2A를 호출하는 식이죠.
기존 결제 게이트웨이와 AP2의 호환성은?
네, 호환됩니다. 게이트웨이는 mandate verification 엔드포인트를 노출하고, mandate chain 해시가 인증 요청과 일치하면 일반 트랜잭션처럼 처리합니다.
성능 오버헤드는?
A2A가 가장 무겁습니다. DID 서명 체인과 아티팩트 해싱이 LAN에서 약 5ms, WAN에서 약 50ms를 추가하지만, 나중에 감사 작업에서 며칠을 절약합니다.
세 프로토콜의 차이를 이해하고 적재적소에 활용하면, 로드맵은 더 이상 어댑터 클래스가 아닌 사용자 가치에 집중할 수 있습니다. AI 에이전트가 실제 세계에서 작동하려면 이 세 가지 인프라—돈, 신뢰, 데이터—가 모두 필요하니까요.
참고자료:
답글 남기기