로컬LLM
-
Ollama GUI 앱 출시: 로컬 AI 모델의 대중화 시대
CLI 전용이었던 Ollama가 GUI 앱을 출시하며 로컬 AI 모델을 누구나 쉽게 사용할 수 있게 되었습니다. 새 앱의 주요 기능과 로컬 AI의 장점, 실제 활용 방법을 소개합니다.
Written by
-
Docker Model Runner로 로컬 환경에서 Gemma 3 실행하기
Docker Model Runner를 활용하여 로컬 환경에서 Google의 Gemma 3 AI 모델을 실행하는 방법과 이점을 소개합니다. API 비용 절감, 데이터 프라이버시 확보, 오프라인 개발 가능 등 로컬 AI 개발의 장점과 실제 구현 사례를 알아보세요.
Written by