유료 AI 코딩 도구를 쓰고 싶은데 비용이 부담스러웠나요? 이제 Ollama를 통해 오픈소스 모델로도 Codex CLI와 Claude Code를 사용할 수 있습니다.
Ollama가 OpenAI의 Codex CLI와 Anthropic의 Claude Code를 지원하기 시작했습니다. 로컬에서 돌아가는 오픈소스 모델로도 이 프리미엄 개발 도구들을 사용할 수 있게 된 거죠. 비용 부담 없이 AI 코딩 어시스턴트를 쓸 수 있고, 민감한 코드를 외부로 보내지 않아도 됩니다.

출처:
- OpenAI Codex with Ollama – Ollama Blog
- Claude Code with Anthropic API compatibility – Ollama Blog
Codex CLI, 오픈소스 모델로 쓰기
OpenAI의 Codex CLI는 터미널에서 코드를 읽고 수정하고 실행까지 해주는 도구입니다. 원래는 OpenAI 모델만 쓸 수 있었는데, 이제 Ollama를 통해 gpt-oss:20b나 gpt-oss:120b 같은 오픈소스 모델로도 돌릴 수 있어요.
설치는 간단합니다. npm install -g @openai/codex로 Codex를 설치하고, codex --oss 명령어로 실행하면 됩니다. 기본적으로 로컬 gpt-oss:20b 모델을 사용하고, -m 플래그로 다른 모델로 바꿀 수 있죠. Ollama Cloud의 클라우드 모델도 지원합니다.
다만 Codex는 큰 컨텍스트 윈도우가 필요해서 최소 32K 토큰 이상을 권장합니다. Ollama 설정에서 컨텍스트 길이를 조정할 수 있어요.
Claude Code, Anthropic API 호환으로
Ollama v0.14.0부터는 Anthropic의 Messages API와 호환됩니다. 덕분에 Anthropic의 에이전틱 코딩 도구인 Claude Code도 Ollama 모델로 쓸 수 있게 됐어요.
설치 스크립트를 실행한 뒤, 환경 변수 두 개만 설정하면 됩니다. ANTHROPIC_AUTH_TOKEN=ollama, ANTHROPIC_BASE_URL=http://localhost:11434로 설정하고 claude --model gpt-oss:20b 명령어로 실행하면 로컬 모델이 작동합니다. 클라우드 모델(glm-4.7:cloud, minimax-m2.1:cloud 등)도 물론 지원하죠.
코딩 작업에는 최소 64K 토큰 컨텍스트 길이가 권장됩니다. 로컬 모델은 Ollama 설정에서 조정할 수 있고, 클라우드 모델은 자동으로 최대 컨텍스트로 실행돼요.
Anthropic SDK를 사용하는 기존 애플리케이션도 베이스 URL만 바꾸면 Ollama와 연결됩니다. 메시지 생성, 스트리밍, 시스템 프롬프트, 툴 호출, 비전 입력까지 주요 기능이 다 지원됩니다.
선택의 폭이 넓어졌습니다
이번 호환성 확장의 의미는 명확합니다. 개발자들이 비용과 프라이버시 사이에서 선택할 수 있게 됐다는 거예요. 개인 프로젝트나 실험에는 무료 로컬 모델을, 프로덕션 작업에는 클라우드 모델을 유연하게 쓸 수 있죠.
특히 민감한 코드를 다루는 조직이나 API 비용이 부담스러운 스타트업에게는 실질적인 대안이 생긴 셈입니다. 오픈소스 생태계가 프리미엄 도구와 경쟁할 수 있는 환경이 조금씩 만들어지고 있어요.

답글 남기기