오픈소스모델
Qwen3.5, 397B MoE 아키텍처로 네이티브 멀티모달 에이전트 시대 열다
Alibaba가 공개한 Qwen3.5는 397B 파라미터 MoE 모델로, 추론 시 17B만 활성화해 비용을 낮추고 네이티브 멀티모달과 에이전트 특화 훈련을 결합했습니다.
Written by

TranslateGemma, 절반 크기로 두 배 성능을 내는 구글의 번역 AI
구글의 TranslateGemma는 12B 모델이 27B보다 우수한 성능을 내며, 모바일부터 클라우드까지 55개 언어 번역을 지원하는 오픈소스 AI입니다.
Written by

Ollama가 Codex와 Claude Code를 지원, 오픈소스 모델로 AI 코딩 도구 쓰는 법
Ollama가 Codex CLI와 Claude Code를 지원하면서 오픈소스 모델로도 프리미엄 AI 코딩 도구를 사용할 수 있게 됐습니다. 설정 방법과 의미를 소개합니다.
Written by
