
출처: TechCrunch
업계 최고 성능, 그에 맞는 가격
구글이 지난 3월 말 발표한 제미니 2.5 Pro의 API 가격이 공개되었습니다. 이 모델은 코딩, 추론, 수학 능력을 측정하는 여러 벤치마크에서 업계 최고 성능을 보이는 AI 추론 모델인데요. 그에 걸맞게 가격도 구글의 다른 AI 모델들보다 높게 책정되었습니다.
제미니 2.5 Pro는 20만 토큰(약 75만 단어, ‘반지의 제왕’ 시리즈 전체보다 긴 길이) 이하의 프롬프트에 대해 입력 토큰당 $1.25, 출력 토큰당 $10의 요금이 부과됩니다. 20만 토큰을 초과하는 경우(대부분의 경쟁사가 지원하지 않는 길이)에는 입력 토큰당 $2.50, 출력 토큰당 $15로 책정되었습니다.
이 가격은 구글이 현재 제공하는 다른 AI 모델보다 비싸며, 특히 제미니 2.0 Flash(입력 토큰당 $0.10, 출력 토큰당 $0.40)와 비교하면 상당한 차이가 있습니다. 또한 OpenAI의 o3-mini(입력 토큰당 $1.10, 출력 토큰당 $4.40)나 DeepSeek의 R1(입력 토큰당 $0.55, 출력 토큰당 $2.19)과 같은 다른, 최첨단 AI 모델보다도 높은 가격입니다.
경쟁사와의 가격 비교
다음은 제미니 2.5 Pro와 주요 경쟁 AI 모델들의 가격을 비교한 표입니다:
AI 모델 | 입력 토큰 가격(백만 토큰당) | 출력 토큰 가격(백만 토큰당) | 비고 |
---|---|---|---|
구글 제미니 2.5 Pro | $1.25 (≤20만 토큰)<br>$2.50 (>20만 토큰) | $10.00 (≤20만 토큰)<br>$15.00 (>20만 토큰) | 엄격한 속도 제한으로 무료 사용 가능 |
구글 제미니 2.0 Flash | $0.10 | $0.40 | 일상적인 작업에 적합 |
OpenAI o3-mini | $1.10 | $4.40 | |
DeepSeek R1 | $0.55 | $2.19 | |
Anthropic Claude 3.7 Sonnet | $3.00 | $15.00 | |
OpenAI GPT-4.5 | $75.00 | $150.00 | |
OpenAI o1-pro | $150.00 | $600.00 | OpenAI의 가장 비싼 API 모델 |
AI 모델 가격 비교 (2025년 기준)
위 표에서 볼 수 있듯이, 제미니 2.5 Pro는 구글의 다른 모델보다는 비싸지만, Anthropic의 Claude 3.7 Sonnet이나 OpenAI의 GPT-4.5 및 o1-pro와 같은 상위 경쟁 모델보다는 여전히 저렴합니다. 기술 업계의 초기 반응은 대체로 긍정적이며, 개발자들은 이 가격이 합리적이라고 평가하고 있습니다.
그러나 전반적으로 최신 최고급 모델의 가격이 하락하기보다는 상승하는 추세가 보입니다. 구글, OpenAI, Anthropic과 같은 기업의 최신 모델 출시 가격이 계속 상승하는 모습입니다. 예를 들어 OpenAI가 최근 출시한 o1-pro는 회사의 API 제품 중 가장 비싼 가격인 입력 토큰당 $150, 출력 토큰당 $600로 책정되었습니다.
급증하는 수요와 제미니 2.5 Pro의 특징
구글 CEO 순다르 피차이에 따르면, 제미니 2.5 Pro는 개발자들 사이에서 구글의 가장 인기 있는 AI 모델이며, 이달에만 구글의 AI Studio 플랫폼과 제미니 API 사용량이 80% 증가했다고 합니다. 이런 높은 수요와 컴퓨팅 비용이 가격 상승 추세를 이끌고 있는 것으로 보입니다.
출처: Google, Ars Technica
제미니 2.5 Pro의 핵심 특징 중 하나는 ‘동적 사고(Dynamic Thinking)’라는 기능입니다. 이 기능을 통해 모델은 출력에 필요한 추론의 양을 조절할 수 있습니다. 구글의 제미니 제품 관리 책임자인 툴시 도시는 “2.5 Pro 모델은 현재 더 간단한 프롬프트에 대해서도 과도하게 생각하는 경향이 있어, 이를 개선하기 위해 노력 중”이라고 말했습니다.
이는 생성형 AI의 가장 큰 문제점 중 하나인 비용 문제를 해결하는 데 도움이 될 수 있습니다. AI 모델이 크고 복잡해질수록 운영 비용이 증가하는데, “안녕하세요, 어떻게 지내세요?”와 같은 간단한 질문에 불필요하게 많은 연산을 사용하지 않는 모델을 구축하는 것이 중요합니다.
모델 발표 속도 vs 투명성
주목할 만한 또 다른 점은 구글이 최근 AI 모델 출시 속도를 크게 높였다는 것입니다. 제미니 2.5 Pro는 2024년 12월에 발표된 제미니 2.0 Flash의 출시 이후 불과 3개월 만에 등장했습니다. 구글은 OpenAI의 ChatGPT 출시 이후 약 2년 동안 AI 경쟁에서 뒤처져 있었으나, 현재는 그 격차를 빠르게 좁히고 있습니다.
그러나 이렇게 빨라진 출시 일정은 투명성을 희생시키는 대가로 이루어지고 있다는 우려가 있습니다. 구글은 아직 제미니 2.5 Pro와 제미니 2.0 Flash에 대한 안전성 보고서를 발표하지 않았으며, 이는 회사가 속도를 투명성보다 우선시하고 있다는 비판을 받고 있습니다.
현재 OpenAI, Anthropic, Meta를 포함한 최첨단 AI 기업들은 새로운 모델을 출시할 때마다 안전성 테스트, 성능 평가, 사용 사례 등을 보고하는 것이 표준입니다. 구글은 2019년 연구 논문에서 ‘모델 카드’라는 접근 방식을 제안한 최초의 기업 중 하나였지만, 현재는 자사의 기준을 따르지 않는 것으로 보입니다.
구글은 제미니 2.5 Pro를 “실험적” 출시로 간주하기 때문에 모델 카드를 발표하지 않았다고 설명하며, 모델이 일반적으로 사용 가능해지면 모델 카드를 발표할 예정이라고 밝혔습니다. 그러나 일부 전문가들은 이러한 모델이 더 강력하고 정교해짐에 따라 나쁜 선례를 남기고 있다고 주장합니다.
속도와 능력의 균형
제미니 2.5 Pro는 다른 추론 모델에 비해 매우 빠른 것으로 알려져 있습니다. 구글은 이러한 “사고” 기능을 앞으로 모든 모델에 통합할 계획이라고 밝혔으며, 이는 출력의 품질을 향상시킬 것으로 예상됩니다. 2024년 대형 언어 모델의 추론 능력 확장은 이러한 도구의 품질을 눈에 띄게 향상시켰지만, 실행 비용도 증가시켰습니다.
도시는 제미니 2.5가 2.0보다 실질적으로 더 큰 모델이 아니라 크기가 “비슷하다”고 설명했습니다. 하지만 제미니 2.5는 한 가지 핵심 영역에서 더 효율적입니다: 사고 과정입니다. 이는 곧 단순한 질문에는 적은 연산을, 복잡한 질문에는 더 많은 연산을 할당할 수 있다는 의미입니다.
구글은 2025년에 AI 인프라에 750억 달러를 지출할 계획이므로, 이 매우 비싼 하드웨어를 최대한 활용하는 것이 중요할 것입니다. “안녕하세요, 어떻게 지내세요?”와 같은 단순한 질문에 불필요하게 많은 사이클을 낭비하지 않는 모델을 구축하는 것이 큰 도움이 될 수 있습니다.
결론
제미니 2.5 Pro의 가격 책정은 최첨단 AI 기술의 현재 시장 상황을 잘 보여줍니다. 가격은 다른 유사한 최첨단 모델과 비교하면 경쟁력이 있지만, 이전 세대보다는 확실히 높아졌습니다. 업계 전반적으로 보이는 가격 상승 추세는 생성형 AI의 수요가 높고 운영 비용이 많이 든다는 점을 반영합니다.
그러나 구글이 모델 출시 속도를 높이면서 투명성과 안전성 보고에 대한 약속을 이행하지 않는 것은 우려되는 부분입니다. AI 능력이 계속 발전함에 따라, 신뢰를 구축하고 책임감 있는 개발을 보장하기 위해 투명성은 더욱 중요해질 것입니다.
개발자들은 이제 제미니 2.5 Pro를 테스트하고 이 강력한 모델이 제공하는 새로운 가능성을 탐색할 수 있게 되었습니다. 앞으로 몇 개월 동안 이 모델이 실제 환경에서 어떻게 수행되는지, 그리고 가격 대비 얼마나 많은 가치를 제공하는지 지켜보는 것이 흥미로울 것입니다.
Comments