AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

OpenCode 튜토리얼 – Ollama + Qwen3-Coder로 무료 로컬 AI 코딩 환경 구축

이 가이드는 OpenCode + Ollama + Qwen3-Coder 세 도구를 조합해 완전한 오프라인 AI 코딩 환경을 구축하는 방법을 설명한다. 코드는 내 컴퓨터에서만 처리되고, 인터넷도 월정액도 필요 없다.

구성 요소 소개

도구역할
opencode인터페이스. 터미널·IDE에서 동작하는 AI 코딩 에이전트
Ollama모델 관리자. 로컬에서 LLM을 다운로드·실행
Qwen3-CoderAI 브레인. Alibaba Cloud의 코딩 특화 LLM (256K 컨텍스트 창)

로컬 설정의 이점

  • 완전한 프라이버시: 코드가 외부 서버로 전송되지 않음
  • 무제한 무료 사용: 설정 이후 API 요금 없음
  • 오프라인 동작: 비행기, 인터넷 불안정 환경에서도 사용 가능
  • 모델 선택권: 필요에 따라 모델 교체·전환 가능

시스템 요구 사항

  • RAM: 최소 8GB (16GB 권장)
  • 저장 공간: 10–15GB 이상 여유 공간 (모델 파일 4–5GB)
  • OS: Windows, macOS (Intel·Apple Silicon), Linux
  • 터미널 기본 사용 능력

1단계: Ollama 설치

macOS / Linux:

curl -fsSL https://ollama.com/install.sh | sh

Windows: ollama.com/download에서 .exe 설치 파일 다운로드 후 실행.

설치 확인:

ollama -v

2단계: Qwen3-Coder 모델 다운로드

ollama pull qwen2.5-coder:7b

다운로드 완료 후 테스트:

ollama run qwen2.5-coder:7b "Write a hello world in Python"

참고: qwen2.5-coder:7b 모델은 약 4–5GB. GPU 없이도 CPU 모드로 동작하지만 응답 속도가 느릴 수 있다. GPU가 있으면 자동으로 활용된다.

3단계: OpenCode 설치

opencode.ai/download에서 운영체제에 맞는 버전을 다운로드하거나:

# macOS (Homebrew)
brew install opencode-ai/tap/opencode

4단계: OpenCode에서 Ollama 연결

OpenCode를 실행하고 설정에서 모델 프로바이더를 Ollama로 선택한 뒤 모델명에 qwen2.5-coder:7b를 입력한다. Ollama가 기본 포트(11434)에서 실행 중이면 자동으로 연결된다.

5단계: 첫 번째 코딩 세션

# 프로젝트 디렉터리로 이동
cd ~/my-project

# OpenCode 실행
opencode

프롬프트에 자연어로 작업을 설명하면 된다:

> Fix the failing test in the auth module
> Add a loading spinner to the login form
> Explain what this function does: [파일 붙여넣기]

더 강력한 모델 옵션

모델크기특징
qwen2.5-coder:7b~4GB입문용, CPU에서도 동작
qwen2.5-coder:14b~8GB균형잡힌 성능·속도
qwen2.5-coder:32b~20GB고성능, 16GB+ RAM 권장
# 더 큰 모델로 업그레이드
ollama pull qwen2.5-coder:14b

참고 자료


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)