AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

MiMo V2.5 Pro – Xiaomi의 1T 파라미터 에이전트·장기 작업 특화 오픈소스 MoE 모델

MiMo-V2.5-Pro는 Xiaomi MiMo 팀이 2026년 4월 27일 오픈소스로 공개한 대형 언어 모델이다. 1.02T 파라미터의 Mixture-of-Experts(MoE) 아키텍처에 42B 활성 파라미터, 하이브리드 어텐션 구조, 1M 토큰 컨텍스트 창을 갖춘 플래그십 모델이다. 이전 모델 MiMo-V2-Pro 대비 일반 에이전트 능력, 복잡한 소프트웨어 엔지니어링, 장기 작업에서 큰 개선을 이뤘다.

HuggingFaceXiaomi AI Studio에서 이용 가능.

성능 벤치마크

벤치마크MiMo-V2.5-ProClaude Opus 4.6GPT-5.4Gemini 3.1 Pro
Coding Agent57.257.357.754.2
SWE-Bench Pro73.777.167.8
MiMo Coding Bench68.465.475.168.5
Terminal-Bench 2.0.4#2.0.9

SWE-Bench Pro에서 Claude Opus 4.6에 다소 뒤지지만, 코딩 에이전트 점수는 거의 동등하고, 자체 MiMo Coding Bench에서는 Claude Opus 4.6을 앞선다.

아키텍처 특징

  • 파라미터: 1.02T 총 파라미터, 42B 활성 파라미터 (MoE 희소 활성화)
  • 아키텍처: 하이브리드 어텐션(Hybrid Attention) 기반 MoE
  • 컨텍스트 창: 1M 토큰
  • 특화 영역: 에이전트 작업, 장기 작업(long-horizon tasks), 소프트웨어 엔지니어링

MiMo 시리즈 위치

모델특징
MiMo-V2.5-Pro플래그십, 에이전트·코딩 특화
MiMo-V2.5중간급, V2.5-Pro보다 가벼움
MiMo-V2-Pro이전 세대 플래그십

접근 방법

관련 문서

  • qwen — Alibaba의 오픈소스 LLM 시리즈 (유사 대형 MoE 모델)
  • kimi — Moonshot AI의 에이전트 특화 오픈소스 LLM
  • deepseek-v4 — 초저가 오픈 가중치 MoE 모델

참고 자료



AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)