MoE
API 없이 Claude Code 쓴다, LM Studio 헤드리스 CLI와 Gemma 4 실전기
LM Studio 헤드리스 CLI로 Gemma 4를 로컬에서 실행하고 Claude Code와 연결하는 실전기. API 비용 없이 초당 51토큰, 데이터는 기기 밖으로 나가지 않습니다.
Written by

Gemma 4, 스마트폰에서 돌아가는 에이전트 오픈 모델 출시
Google DeepMind가 공개한 Gemma 4는 스마트폰과 라즈베리파이에서 자율 에이전트를 실행하는 오픈 모델 패밀리입니다. Apache 2.0 라이선스로 상업적 활용이 자유롭습니다.
Written by

Mistral Small 4, 추론·멀티모달·코딩을 하나로 합친 119B 오픈소스 모델
Mistral AI가 추론·멀티모달·코딩 에이전트 기능을 통합한 119B 오픈소스 모델 Mistral Small 4를 공개했습니다. MoE 아키텍처로 효율을 유지하면서 다목적 활용이 가능한 모델입니다.
Written by

Qwen3.5, 397B MoE 아키텍처로 네이티브 멀티모달 에이전트 시대 열다
Alibaba가 공개한 Qwen3.5는 397B 파라미터 MoE 모델로, 추론 시 17B만 활성화해 비용을 낮추고 네이티브 멀티모달과 에이전트 특화 훈련을 결합했습니다.
Written by

GLM-5 등장, 744B 파라미터 오픈소스 모델이 에이전트 벤치마크 1위
Z.ai가 744B 파라미터 오픈소스 모델 GLM-5를 공개했습니다. DeepSeek 기술을 통합해 에이전트 작업에 특화된 성능을 보여줍니다.
Written by

Qwen3-Coder-Next 출시, 3B 활성 파라미터로 코딩 에이전트 시장 진입
Alibaba Qwen 팀이 코딩 에이전트 특화 모델 Qwen3-Coder-Next를 출시했습니다. 80B 파라미터 중 3B만 활성화하는 희소 MoE 구조로 비용 효율성과 성능을 동시에 달성했습니다.
Written by

NVIDIA, 에이전트 AI 특화 모델 Nemotron 3 공개: 10조 토큰 데이터까지 오픈소스로
NVIDIA가 에이전트 AI에 특화된 Nemotron 3 모델을 공개하며 10조 토큰 학습 데이터까지 오픈소스로 제공. 칩 회사의 전략적 변신과 오픈소스 AI 생태계의 새로운 국면을 소개합니다.
Written by

Miles 프레임워크 공개: 355B MoE 모델 훈련에 쓰인 실전 RL 도구
LMSYS가 355B MoE 모델 훈련에 실제 사용된 엔터프라이즈급 RL 프레임워크 Miles를 공개. 25% 추론 속도 향상과 True on-policy 구현이 핵심입니다.
Written by

OpenAI gpt-oss: GPT-2에서 오픈소스 추론 모델까지의 기술 진화 여정
OpenAI의 첫 오픈소스 추론 모델 gpt-oss의 기술적 혁신과 활용 방법을 GPT-2와 비교 분석하여 소개하는 실용 가이드
Written by

알리바바의 Qwen3: ‘생각하는’ AI의 새로운 시대를 열다
알리바바가 출시한 Qwen3 시리즈는 ‘생각하기’와 ‘생각하지 않기’ 모드를 결합한 하이브리드 추론 방식을 도입한 최초의 AI 모델입니다. 이 글에서는 Qwen3 모델의 핵심 특징, MoE 아키텍처, 119개 언어 지원, 실제 활용 방법 및 AI 생태계에 미치는 영향을 알아봅니다.
Written by
