목차
이 가이드는 OpenCode + Ollama + Qwen3-Coder 세 도구를 조합해 완전한 오프라인 AI 코딩 환경을 구축하는 방법을 설명한다. 코드는 내 컴퓨터에서만 처리되고, 인터넷도 월정액도 필요 없다.
구성 요소 소개
| 도구 | 역할 |
|---|---|
| opencode | 인터페이스. 터미널·IDE에서 동작하는 AI 코딩 에이전트 |
| Ollama | 모델 관리자. 로컬에서 LLM을 다운로드·실행 |
| Qwen3-Coder | AI 브레인. Alibaba Cloud의 코딩 특화 LLM (256K 컨텍스트 창) |
로컬 설정의 이점
- 완전한 프라이버시: 코드가 외부 서버로 전송되지 않음
- 무제한 무료 사용: 설정 이후 API 요금 없음
- 오프라인 동작: 비행기, 인터넷 불안정 환경에서도 사용 가능
- 모델 선택권: 필요에 따라 모델 교체·전환 가능
시스템 요구 사항
- RAM: 최소 8GB (16GB 권장)
- 저장 공간: 10–15GB 이상 여유 공간 (모델 파일 4–5GB)
- OS: Windows, macOS (Intel·Apple Silicon), Linux
- 터미널 기본 사용 능력
1단계: Ollama 설치
macOS / Linux:
curl -fsSL https://ollama.com/install.sh | shWindows: ollama.com/download에서 .exe 설치 파일 다운로드 후 실행.
설치 확인:
ollama -v2단계: Qwen3-Coder 모델 다운로드
ollama pull qwen2.5-coder:7b다운로드 완료 후 테스트:
ollama run qwen2.5-coder:7b "Write a hello world in Python"참고:
qwen2.5-coder:7b모델은 약 4–5GB. GPU 없이도 CPU 모드로 동작하지만 응답 속도가 느릴 수 있다. GPU가 있으면 자동으로 활용된다.
3단계: OpenCode 설치
opencode.ai/download에서 운영체제에 맞는 버전을 다운로드하거나:
# macOS (Homebrew)
brew install opencode-ai/tap/opencode4단계: OpenCode에서 Ollama 연결
OpenCode를 실행하고 설정에서 모델 프로바이더를 Ollama로 선택한 뒤 모델명에 qwen2.5-coder:7b를 입력한다. Ollama가 기본 포트(11434)에서 실행 중이면 자동으로 연결된다.
5단계: 첫 번째 코딩 세션
# 프로젝트 디렉터리로 이동
cd ~/my-project
# OpenCode 실행
opencode프롬프트에 자연어로 작업을 설명하면 된다:
> Fix the failing test in the auth module
> Add a loading spinner to the login form
> Explain what this function does: [파일 붙여넣기]더 강력한 모델 옵션
| 모델 | 크기 | 특징 |
|---|---|---|
qwen2.5-coder:7b | ~4GB | 입문용, CPU에서도 동작 |
qwen2.5-coder:14b | ~8GB | 균형잡힌 성능·속도 |
qwen2.5-coder:32b | ~20GB | 고성능, 16GB+ RAM 권장 |
# 더 큰 모델로 업그레이드
ollama pull qwen2.5-coder:14b참고 자료
- Seeing What’s Possible with OpenCode + Ollama + Qwen3-Coder — KDnuggets (2026-04-21)
- opencode.ai — OpenCode 공식 사이트
- ollama.com — Ollama 공식 사이트