Docker
-
Docker MCP Catalog과 Toolkit: AI 에이전트를 위한 표준화된 도구 생태계
Docker MCP Catalog과 Toolkit을 활용해 AI 에이전트와 외부 도구를 안전하고 효율적으로 연결하는 방법과 실제 활용 사례를 소개합니다. 200개 이상의 검증된 MCP 서버로 개발 생산성을 향상시키세요.
Written by
-
Docker가 AI 에이전트 개발을 혁신하는 방법 – Compose부터 MCP Gateway까지
Docker가 AI 에이전트 개발을 혁신하는 방법을 소개합니다. Docker Compose 확장, MCP Gateway, Docker Offload 등 새로운 기능들을 통해 복잡한 AI 에이전트 개발을 어떻게 단순화하고 있는지, 그리고 이것이 개발자 생태계에 미치는 영향을 분석합니다.
Written by
-
로컬 LLM 도구 호출 성능 비교: 21개 모델 실증 평가로 찾은 최적의 선택
Docker 팀이 21개 LLM 모델을 대상으로 3,570개 테스트를 실행해 도구 호출 성능을 실증 평가한 연구 결과를 바탕으로, 개발자들이 AI 에이전트 구축 시 최적의 로컬 모델을 선택할 수 있는 실용적인 가이드를 제공합니다.
Written by
-
RAGFlow – 깊은 문서 이해력을 갖춘 차세대 오픈소스 RAG 엔진
깊은 문서 이해 능력을 갖춘 오픈소스 RAG 엔진 RAGFlow의 특징과 설치 방법, 활용 사례를 상세히 소개합니다. 복잡한 문서 형식도 정확히 처리하고 신뢰할 수 있는 출처 기반 답변을 제공하는 차세대 문서 AI 솔루션을 알아보세요.
Written by
-
Docker Model Runner로 로컬 환경에서 Gemma 3 실행하기
Docker Model Runner를 활용하여 로컬 환경에서 Google의 Gemma 3 AI 모델을 실행하는 방법과 이점을 소개합니다. API 비용 절감, 데이터 프라이버시 확보, 오프라인 개발 가능 등 로컬 AI 개발의 장점과 실제 구현 사례를 알아보세요.
Written by
-
Docker MCP: AI 에이전트를 위한 표준화된 도구 생태계의 등장
Docker의 MCP Catalog와 Toolkit으로 AI 에이전트와 도구 간의 통합이 표준화되고 보안이 강화되는 과정을 살펴봅니다. MCP(Model Context Protocol) 생태계의 주요 문제점들과 Docker가 제시하는 해결책, 그리고 그 실효성에 대한 분석을 담고 있습니다.
Written by
-
로컬 LLM을 어디서나 사용하기: Tailscale을 활용한 원격 접근 가이드
로컬에서 운영하는 대규모 언어 모델(LLM)을 Tailscale과 Open WebUI를 이용해 어디서나 안전하게 접근할 수 있는 방법을 단계별로 알아봅니다.
Written by
-
Docker Model Runner로 로컬에서 LLM 구동하기
Docker의 새로운 기능인 Model Runner를 활용하여 로컬 환경에서 LLM을 쉽게 구동하는 방법을 소개합니다. 개념부터 실제 사용법까지 상세히 알아봅니다.
Written by