OpenAI는 GPT-5.5를 출시하면서 “응답이 더 짧아져 가격 인상이 상쇄될 것”이라고 했습니다. AI 라우팅 플랫폼 OpenRouter가 실사용 데이터로 이 주장을 검증했고, 결과는 달랐습니다.

OpenRouter가 GPT-5.4에서 5.5로 전환한 실사용자 코호트를 분석해 실제 청구 비용 변화를 공개했습니다. GPT-5.5의 표시 가격은 GPT-5.4 대비 2배로 올랐고(입력 토큰 $2.50→$5.00/M, 출력 토큰 $15→$30/M), 실제 비용은 입력 길이에 따라 49~92% 증가한 것으로 나타났습니다.
출처: GPT-5.5 Price Increase: What It Actually Costs – OpenRouter
“짧은 응답”의 실제 효과는 절반짜리
OpenAI가 내세운 논리는 단순합니다. 모델이 더 간결하게 답하면 출력 토큰이 줄어들고, 가격 인상분이 어느 정도 상쇄된다는 것이었습니다.
실제로 이 효과는 긴 프롬프트에서만 작동했습니다. 입력 토큰이 10,000개를 넘는 경우, GPT-5.5의 응답 길이는 GPT-5.4보다 19~34% 짧아졌습니다. 하지만 2,000~10,000 토큰 구간에서는 오히려 응답이 52% 길어졌고, 2,000 토큰 미만의 짧은 입력에서는 응답 길이가 거의 그대로였습니다.
결국 “짧은 응답으로 상쇄”되는 효과는 긴 컨텍스트를 다루는 사용자에게만 부분적으로 적용됩니다.
프롬프트 길이에 따라 비용 증가폭이 달라진다
OpenRouter는 전환 전후의 실제 청구 비용을 입력 길이별로 비교했습니다.
| 입력 길이 | GPT-5.4 평균 비용 | GPT-5.5 평균 비용 | 변화 |
|---|---|---|---|
| 2K 토큰 미만 | $4.89/M | $9.37/M | +92% |
| 2K – 10K | $2.25/M | $3.81/M | +69% |
| 10K – 25K | $1.42/M | $2.15/M | +51% |
| 25K – 50K | $1.02/M | $1.65/M | +62% |
| 50K – 128K | $0.74/M | $1.10/M | +49% |
| 128K 초과 | $0.71/M | $1.31/M | +85% |
짧은 프롬프트 사용자가 가장 타격이 큽니다. 챗봇, 간단한 질의응답, 단편적인 API 호출처럼 입력이 짧은 워크플로우는 체감 비용이 거의 2배 수준입니다. 반면 긴 문서 요약, 코드베이스 분석, RAG처럼 대규모 컨텍스트를 다루는 작업은 응답 단축 효과 덕분에 증가폭이 49~51% 선에서 억제됩니다.
OpenAI만의 이야기가 아니다
비슷한 패턴이 Anthropic에서도 나타났습니다. OpenRouter가 이전에 분석한 Opus 4.7은 토큰 소비량 증가로 인해 실제 비용이 30~40% 올랐습니다. 공식 가격표가 그대로여도 실사용 비용이 달라지는 구조는 두 회사가 공유하는 방식입니다.
두 회사 모두 IPO를 준비 중이라는 점도 주목할 만합니다. The Decoder는 이 맥락에서 가격 인상 기조가 이어질 가능성을 언급합니다. 모델 성능과 토큰 효율이 함께 올라가는 시기에, 실제 비용 변화를 파악하려면 공식 단가보다 사용 패턴 기반의 분석이 더 유용합니다.
참고자료: GPT-5.5 costs 49 to 92 percent more than its predecessor, depending on the input length – The Decoder

답글 남기기