알리바바가 2025년 9월 22일 하루 동안 역대 최대 규모의 AI 모델들을 포함한 Qwen3 패밀리 전체 라인업을 공개하며, 오픈소스와 상용 AI 시장에서 새로운 경쟁 구도를 만들어냈습니다.

1조 파라미터의 거대한 도전장, Qwen3-Max
이번 발표의 최대 화제는 단연 Qwen3-Max입니다. 1조 개가 넘는 파라미터를 가진 이 모델은 알리바바 역사상 가장 큰 AI 모델입니다. 36조 개의 토큰으로 훈련된 Qwen3-Max는 최대 100만 단어까지 처리할 수 있어요. 이는 책 여러 권 분량에 해당하는 길이입니다.
무엇보다 놀라운 점은 안정성입니다. 보통 이런 초거대 모델을 훈련할 때는 중간에 오류가 생겨 처음부터 다시 시작해야 하는 경우가 많아요. 하지만 Qwen3-Max는 훈련 과정에서 한 번도 롤백 없이 순조롭게 완성됐다고 합니다.
현재 Text Arena 리더보드에서 전 세계 3위를 기록하며, OpenAI의 GPT-5-Chat보다도 높은 순위를 차지했습니다. 특히 프로그래밍 분야에서 두각을 나타내는데, 실제 버그 수정을 테스트하는 SWE-Bench Verified에서 69.6점을 기록했어요.
진짜 멀티모달 AI의 등장, Qwen3-Omni
Qwen3-Omni는 이번 발표에서 가장 혁신적인 모델입니다. 텍스트, 이미지, 오디오, 비디오를 모두 이해하고, 텍스트와 음성으로 실시간 답변하는 30B 파라미터 모델이에요.

핵심은 Thinker-Talker 아키텍처입니다. Thinker가 생각하고 추론하면, Talker가 이를 자연스러운 음성으로 바꿔서 실시간으로 들려줍니다. 음성 응답 지연시간이 211ms로 거의 실시간 대화가 가능해요.
실제 테스트에서는 흥미로운 결과가 나왔습니다. 텍스트 생성과 이미지 생성은 뛰어난 성능을 보였지만, 비디오 생성 품질은 아직 아쉬운 수준이었어요. 특히 모드 전환할 때마다 새 채팅을 시작해야 하는 불편함이 있어, 완전한 통합 경험과는 거리가 있었습니다.
크기별로 골라 쓰는 Qwen3 패밀리
Qwen3 시리즈는 다양한 크기로 출시되어 용도에 맞게 선택할 수 있습니다.
MoE(Mixture of Experts) 모델:
- Qwen3-235B-A22B: 235B 파라미터, 22B 활성화. 연구용 최고 성능 모델
- Qwen3-30B-A3B: 30B 파라미터, 3B 활성화. 실용성과 성능의 균형
Dense 모델:
- Qwen3-32B: 고성능 추론과 창작 작업용
- Qwen3-14B/8B: 중간 규모 서버용 범용 모델
- Qwen3-4B/1.7B/0.6B: 로컬 앱과 경량 용도
모든 모델이 하이브리드 추론을 지원합니다. 복잡한 문제는 단계별로 천천히 생각하는 Thinking 모드를, 간단한 질문은 즉답하는 Non-Thinking 모드를 자동으로 선택해요.
특수 목적 모델들의 등장
Qwen3-VL (235B 파라미터):
비전-언어 모델의 최신 버전으로 이미지와 텍스트를 함께 처리합니다. Gemini 2.5 Pro와 비교해도 뒤지지 않는 성능을 보여줍니다.
Qwen3-TTS-Flash:
10개 언어로 자연스러운 음성을 생성하는 모델입니다. 다양한 목소리 톤과 방언을 지원하며, 실시간 음성 합성이 가능해요.
Qwen3-Guard:
119개 언어로 콘텐츠 안전성을 검사하는 모더레이션 모델입니다. 8B, 4B, 0.6B 세 가지 크기로 제공되며, 모두 Apache 2.0 라이센스로 오픈소스입니다.
Qwen Image Edit 2509:
이미지 편집 모델의 업데이트 버전으로 여러 이미지를 동시에 입력받아 편집할 수 있습니다. 얼굴, 제품, 텍스트 처리 성능이 크게 개선됐어요.

실제 사용해보니 어떨까
Analytics Vidhya의 핸즈온 테스트 결과를 보면, Qwen3-Omni의 장단점이 뚜렷하게 드러납니다.
텍스트 생성은 매우 우수했습니다. 전자자전거 매거진 스타일 광고 제작 요청에 완벽한 2페이지 분량의 전문적인 콘텐츠를 생성했어요.
이미지 생성도 만족스러웠습니다. 3가지 색상의 전자자전거를 나란히 보여달라는 요청에 거의 완벽한 이미지를 만들었습니다. 다만 빨간색이 아닌 주황색으로 나온 작은 오류가 있었어요.
반면 비디오 생성은 아직 갈 길이 멉니다. 색감이 칙칙하고, 텍스트 오버레이도 제대로 표시되지 않았어요. 전반적으로 비현실적인 느낌이 강했습니다.
하드웨어 요구사항과 접근성
모델 크기별 GPU 메모리 요구사항은 다음과 같습니다:
- 0.6B-4B: 일반 PC나 노트북에서 실행 가능
- 8B-14B: 16-24GB VRAM 필요
- 32B: 64GB 이상 권장
- 235B: 전문 연구용 하드웨어 필요 (471GB)
대부분 모델은 Hugging Face와 ModelScope에서 다운로드할 수 있고, Docker 컨테이너도 제공됩니다. 직접 실행이 어렵다면 Alibaba Cloud API를 통해 접근할 수 있어요.
오픈소스 vs 클로즈드소스의 경계선
흥미로운 점은 알리바바의 전략입니다. Qwen3-Omni와 Qwen3-Guard는 완전 오픈소스로 공개했지만, Qwen3-Max와 Qwen3-TTS-Flash는 API로만 제공합니다.
이는 기본 기술은 오픈소스로 커뮤니티와 공유하되, 최고 성능 모델은 상업적으로 활용한다는 균형잡힌 접근법으로 보입니다.
AI 생태계에 미치는 파급효과
이번 Qwen3 패밀리 발표는 여러 면에서 의미가 큽니다.
첫째, 중국 AI 기업이 서구 기업들과 정면 경쟁할 수 있는 수준에 도달했다는 점입니다. Text Arena에서 GPT-5를 앞서는 성과는 기술력의 증명이에요.
둘째, 오픈소스 멀티모달 AI의 새로운 기준을 제시했습니다. Qwen3-Omni 같은 고성능 멀티모달 모델을 무료로 사용할 수 있게 된 건 개발자 커뮤니티에게 큰 선물입니다.
셋째, 모델의 전문화가 가속화되고 있습니다. 범용 모델 하나로 모든 걸 해결하려던 과거와 달리, 이제는 용도별로 최적화된 모델을 선택하는 시대가 왔어요.
하지만 아직 한계도 분명합니다. 모달리티 간 완전한 통합은 여전히 과제이고, 실제 사용 시 워크플로우의 끊김 현상도 개선이 필요합니다.
알리바바의 이번 발표는 AI 산업 전체에 새로운 경쟁의 불씨를 지폈습니다. 이제 다른 AI 기업들이 어떤 대응을 내놓을지 지켜볼 차례입니다.
참고자료:
- Qwen3-Omni GitHub Repository
- Qwen3-VL: Sharper Vision, Deeper Thought, Broader Action
- Alibaba Launches Its Largest AI Model Yet
- Alibaba’s Open-source Qwen3 Omni Model
- Qwen3-Omni Hands-on: Is Alibaba’s new Omni-modal AI Good?
- Four new releases from Qwen
- Alibaba launches Qwen3-Max, a trillion-parameter AI model
Comments