Docker
-
Docker가 AI 에이전트 개발을 혁신하는 방법 – Compose부터 MCP Gateway까지
Docker가 AI 에이전트 개발을 혁신하는 방법을 소개합니다. Docker Compose 확장, MCP Gateway, Docker Offload 등 새로운 기능들을 통해 복잡한 AI 에이전트 개발을 어떻게 단순화하고 있는지, 그리고 이것이 개발자 생태계에 미치는 영향을 분석합니다.
Written by
-
로컬 LLM 도구 호출 성능 비교: 21개 모델 실증 평가로 찾은 최적의 선택
Docker 팀이 21개 LLM 모델을 대상으로 3,570개 테스트를 실행해 도구 호출 성능을 실증 평가한 연구 결과를 바탕으로, 개발자들이 AI 에이전트 구축 시 최적의 로컬 모델을 선택할 수 있는 실용적인 가이드를 제공합니다.
Written by
-
RAGFlow – 깊은 문서 이해력을 갖춘 차세대 오픈소스 RAG 엔진
깊은 문서 이해 능력을 갖춘 오픈소스 RAG 엔진 RAGFlow의 특징과 설치 방법, 활용 사례를 상세히 소개합니다. 복잡한 문서 형식도 정확히 처리하고 신뢰할 수 있는 출처 기반 답변을 제공하는 차세대 문서 AI 솔루션을 알아보세요.
Written by
-
Docker Model Runner로 로컬 환경에서 Gemma 3 실행하기
Docker Model Runner를 활용하여 로컬 환경에서 Google의 Gemma 3 AI 모델을 실행하는 방법과 이점을 소개합니다. API 비용 절감, 데이터 프라이버시 확보, 오프라인 개발 가능 등 로컬 AI 개발의 장점과 실제 구현 사례를 알아보세요.
Written by
-
Docker MCP: AI 에이전트를 위한 표준화된 도구 생태계의 등장
Docker의 MCP Catalog와 Toolkit으로 AI 에이전트와 도구 간의 통합이 표준화되고 보안이 강화되는 과정을 살펴봅니다. MCP(Model Context Protocol) 생태계의 주요 문제점들과 Docker가 제시하는 해결책, 그리고 그 실효성에 대한 분석을 담고 있습니다.
Written by
-
로컬 LLM을 어디서나 사용하기: Tailscale을 활용한 원격 접근 가이드
로컬에서 운영하는 대규모 언어 모델(LLM)을 Tailscale과 Open WebUI를 이용해 어디서나 안전하게 접근할 수 있는 방법을 단계별로 알아봅니다.
Written by
-
Docker Model Runner로 로컬에서 LLM 구동하기
Docker의 새로운 기능인 Model Runner를 활용하여 로컬 환경에서 LLM을 쉽게 구동하는 방법을 소개합니다. 개념부터 실제 사용법까지 상세히 알아봅니다.
Written by