Ollama
Ollama 0.19, MLX 탑재로 Mac에서 AI 추론 속도 2배 빨라졌다
Ollama 0.19가 Apple MLX 프레임워크를 탑재해 Mac에서 AI 추론 속도를 최대 2배 향상. NVFP4 지원과 캐시 개선도 포함한 주요 업데이트를 소개합니다.
Written by

Ollama Launch 출시, AI 코딩 도구와 로컬 모델 연결을 한 줄로
Ollama의 새로운 launch 명령어로 Claude Code, Codex 같은 AI 코딩 도구가 로컬/클라우드 모델을 한 줄로 연결하는 방법을 소개합니다.
Written by

Ollama가 Codex와 Claude Code를 지원, 오픈소스 모델로 AI 코딩 도구 쓰는 법
Ollama가 Codex CLI와 Claude Code를 지원하면서 오픈소스 모델로도 프리미엄 AI 코딩 도구를 사용할 수 있게 됐습니다. 설정 방법과 의미를 소개합니다.
Written by

LlamaIndex RAG 실전 가이드: 인덱스 재사용으로 비용 90% 줄이기
LlamaIndex로 RAG 앱을 만들 때 인덱스 재사용으로 비용을 90% 줄이고, LLM을 자유롭게 교체하고, 비동기 쿼리로 성능을 높이는 실전 패턴을 소개합니다.
Written by

책상 위의 AI 슈퍼컴퓨터: NVIDIA DGX Spark가 바꾸는 AI 개발 환경
NVIDIA DGX Spark는 128GB 통합 메모리로 200B 파라미터 AI 모델을 책상 위에서 실행할 수 있는 $4,000짜리 소형 AI 슈퍼컴퓨터입니다. 클라우드 비용 부담 없이 로컬에서 AI 개발과 파인튜닝이 가능해진 새로운 개발 환경을 소개합니다.
Written by

Ollama가 로컬 AI의 한계를 깬다: 웹 검색 API로 실시간 정보 접근이 가능해진 이유
로컬 AI 모델의 정보 제한과 환각 문제를 해결하는 Ollama 웹 검색 API 완전 가이드. 실시간 정보 접근부터 검색 에이전트 구축, 개발 도구 통합까지 실용적인 활용법을 제시합니다.
Written by

Ollama GUI 앱 출시: 로컬 AI 모델의 대중화 시대
CLI 전용이었던 Ollama가 GUI 앱을 출시하며 로컬 AI 모델을 누구나 쉽게 사용할 수 있게 되었습니다. 새 앱의 주요 기능과 로컬 AI의 장점, 실제 활용 방법을 소개합니다.
Written by

오프라인에서도 AI와 함께 코딩하기: Continue와 Ollama로 만드는 완전한 개발 환경
Continue와 Ollama를 활용하여 인터넷 연결 없이도 AI 지원을 받으며 개발할 수 있는 완전한 오프라인 개발 환경을 구축하는 실용적인 가이드. 실제 사용 경험과 함께 컨텍스트 엔지니어링 기법과 효과적인 활용 방법을 소개합니다.
Written by

DeepSeek-R1-0528 모델을 내 컴퓨터에서 실행하기: 715GB 거대 AI 모델의 로컬 구동 완벽 가이드
DeepSeek-R1-0528 대형 AI 모델을 개인 컴퓨터에서 실행하는 완벽 가이드. 715GB 모델을 80% 축소하여 로컬 환경에서 구동하는 방법을 단계별로 설명합니다.
Written by

