MiMo-V2.5-Pro는 Xiaomi MiMo 팀이 2026년 4월 27일 오픈소스로 공개한 대형 언어 모델이다. 1.02T 파라미터의 Mixture-of-Experts(MoE) 아키텍처에 42B 활성 파라미터, 하이브리드 어텐션 구조, 1M 토큰 컨텍스트 창을 갖춘 플래그십 모델이다. 이전 모델 MiMo-V2-Pro 대비 일반 에이전트 능력, 복잡한 소프트웨어 엔지니어링, 장기 작업에서 큰 개선을 이뤘다.
HuggingFace 및 Xiaomi AI Studio에서 이용 가능.
성능 벤치마크
| 벤치마크 | MiMo-V2.5-Pro | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|
| Coding Agent | 57.2 | 57.3 | 57.7 | 54.2 |
| SWE-Bench Pro | 73.7 | 77.1 | — | 67.8 |
| MiMo Coding Bench | 68.4 | 65.4 | 75.1 | 68.5 |
| Terminal-Bench 2.0 | #3.4 | #2.0 | — | #3.9 |
SWE-Bench Pro에서 Claude Opus 4.6에 다소 뒤지지만, 코딩 에이전트 점수는 거의 동등하고, 자체 MiMo Coding Bench에서는 Claude Opus 4.6을 앞선다.
아키텍처 특징
- 파라미터: 1.02T 총 파라미터, 42B 활성 파라미터 (MoE 희소 활성화)
- 아키텍처: 하이브리드 어텐션(Hybrid Attention) 기반 MoE
- 컨텍스트 창: 1M 토큰
- 특화 영역: 에이전트 작업, 장기 작업(long-horizon tasks), 소프트웨어 엔지니어링
MiMo 시리즈 위치
| 모델 | 특징 |
|---|---|
| MiMo-V2.5-Pro | 플래그십, 에이전트·코딩 특화 |
| MiMo-V2.5 | 중간급, V2.5-Pro보다 가벼움 |
| MiMo-V2-Pro | 이전 세대 플래그십 |
접근 방법
- API: Xiaomi Platform
- 모델 가중치: HuggingFace XiaomiMiMo
- 직접 사용: Xiaomi AI Studio
관련 문서
- qwen — Alibaba의 오픈소스 LLM 시리즈 (유사 대형 MoE 모델)
- kimi — Moonshot AI의 에이전트 특화 오픈소스 LLM
- deepseek-v4 — 초저가 오픈 가중치 MoE 모델
참고 자료
- MiMo-V2.5-Pro 공식 페이지 — Xiaomi MiMo (2026-04-27)
- XiaomiMiMo/MiMo-V2.5-Pro — HuggingFace