AI 모델은 클수록 좋다는 공식이 깨졌습니다. 구글이 공개한 TranslateGemma는 12B(120억) 파라미터 모델이 27B(270억) 모델보다 번역 품질이 우수하다는 걸 증명했죠. 파라미터가 절반인데 성능은 더 좋다는 건 단순히 효율적이라는 것 이상의 의미를 갖습니다. 같은 하드웨어로 더 빠르게, 더 저렴하게, 더 좋은 번역을 얻을 수 있다는 뜻이니까요.

구글이 Gemma 3 기반의 오픈소스 번역 모델 TranslateGemma를 공개했습니다. 4B, 12B, 27B 세 가지 크기로 제공되며 55개 언어를 지원하는 이 모델의 핵심은 놀라운 효율성입니다. 특히 12B 모델은 두 배 큰 27B 베이스라인보다 번역 오류율이 낮아 개발자들이 적은 리소스로 높은 품질을 얻을 수 있게 했습니다.
출처: TranslateGemma: A new family of open translation models – Google AI Blog
12B 모델이 27B를 이기는 비결
구글은 MetricX라는 번역 오류 측정 지표로 성능을 평가했습니다. 낮을수록 좋은 이 지표에서 TranslateGemma 12B는 3.60점을, 베이스라인인 Gemma 3 27B는 4.04점을 기록했어요. 같은 크기인 Gemma 3 12B(4.86점)와 비교하면 오류율이 약 26% 감소한 셈이죠.
이 개선은 모든 55개 언어 쌍에서 일관되게 나타났습니다. 특히 저자원 언어에서 두드러지는데, 영어-아이슬란드어는 오류율이 30% 이상, 영어-스와힐리어는 약 25% 줄었습니다. 번역 데이터가 상대적으로 부족한 언어에서 더 큰 효과를 낸 거죠.
비결은 Gemini의 “직관”을 작은 모델에 증류하는 2단계 학습 방식입니다. 먼저 사람이 번역한 텍스트와 Gemini가 생성한 고품질 합성 번역 데이터로 파인튜닝을 진행했어요. 그 다음 강화학습 단계에서는 MetricX-QE, AutoMQM 같은 평가 모델들을 조합해 더 자연스럽고 문맥에 맞는 번역을 생성하도록 유도했습니다. 사람의 참조 번역 없이도 자동으로 품질을 판단하는 모델이 교사 역할을 한 셈이죠.
모바일부터 클라우드까지, 어디서나 작동
TranslateGemma는 세 가지 크기로 다양한 환경을 지원합니다. 4B 모델은 스마트폰 같은 모바일 기기에 최적화돼 있고, 12B는 일반 노트북에서 구동할 수 있습니다. 27B는 단일 H100 GPU나 TPU로 클라우드에서 돌릴 수 있어요.
흥미로운 건 멀티모달 능력을 그대로 유지한다는 점입니다. Gemma 3의 특성을 물려받아 이미지 속 텍스트도 번역할 수 있죠. 별도의 이미지 번역 학습 없이도 Vistra 벤치마크에서 텍스트 번역 개선이 이미지 번역에도 긍정적 영향을 미쳤습니다.
구글은 프롬프트 작성 팁도 제공했어요. 모델에게 “문화적 뉘앙스를 고려하는 전문 번역가” 역할을 부여하면 최상의 결과를 얻는다고 합니다.
오픈 모델 경쟁에서 구글의 전략
TranslateGemma는 구글이 Gemma 패밀리를 빠르게 확장하는 전략의 일부입니다. 의료 이미지 분석용 MedGemma, 기기 제어용 FunctionGemma, 저사양 환경용 Gemma 3 270M, 모바일용 Gemma 3n에 이어 이번에 번역 특화 모델이 추가된 거죠.
이런 움직임은 오픈 모델 시장에서 중국 기업들의 약진과 무관하지 않습니다. 알리바바의 Qwen, 바이두, DeepSeek 같은 중국 기업들이 지난 1년간 오픈 모델 분야에서 존재감을 크게 키웠거든요. 반면 OpenAI(최근 독립형 번역 도구 ChatGPT Translate 출시)나 Anthropic은 여전히 클로즈드 시스템에 집중하고 있습니다.
구글은 범용 대형 모델 경쟁 대신 특정 작업에 최적화된 효율적인 오픈 모델 포트폴리오를 구축하는 방식을 택했습니다. TranslateGemma의 “작지만 강하다”는 접근법이 이 전략을 잘 보여주죠. 개발자들이 클라우드 비용 걱정 없이 노트북에서 고품질 번역을 돌릴 수 있다면, 그게 바로 실용적 경쟁력이니까요.
참고자료: Google’s new open TranslateGemma models bring translation for 55 languages to laptops and phones – The Decoder

답글 남기기