OpenClaw는 Kimi K2.6 등 고성능 LLM을 백엔드로 사용해 24시간 능동적으로 동작하는 AI 에이전트 플랫폼이다. 단순 채팅 인터페이스가 아닌, 스케줄 관리·코드 실행·크로스플랫폼 오케스트레이션을 백그라운드에서 자율 수행한다. Ollama와 연동해 로컬 LLM으로도 구동할 수 있다.
주요 특징
- 24/7 능동적 실행: 사용자 입력 없이도 스케줄 기반으로 작업 자율 처리
- 코드 실행 및 툴 사용: 셸 명령·API 호출 등 실제 작업 수행
- 크로스플랫폼 오케스트레이션: 여러 앱과 서비스를 연결해 워크플로 자동화
- 로컬 LLM 지원: Ollama + 로컬 모델로 API 비용과 데이터 외부 전송 없이 운영
- Kimi K2.6 최적화: Kimi의 에이전트 스웜·장기 코딩 능력과 잘 결합됨
보안 고려사항
NVIDIA가 NemoClaw 튜토리얼을 통해 DGX Spark 기반 셀프 호스팅 방법을 제공한다. 그러나 기본 아키텍처상 몇 가지 보안 한계가 있다:
| 영역 | 한계 |
|---|---|
| 프로세스 경계 | 에이전트 전체를 컨테이너로 감싸는 구조 — 툴 레이어에 권한 개념 부재 |
| 네트워크 격리 | 샌드박스가 loopback에 접근하려면 Ollama를 0.0.0.0에 바인딩해야 함 |
| 신원 분리 | 채널별 별도 아이덴티티 없음 — 단일 토큰으로 모든 채널 공유 |
대안 아키텍처 참고: Wirken.AI는 각 채널을 별도 프로세스로 분리하고, 볼트를 별도 프로세스로 운영하며, 셸 실행을 하드닝된 Docker 컨테이너 안에서만 수행하는 방식으로 이 한계를 보완한다.
빠른 시작
OpenClaw는 openclaw.ai에서 설치할 수 있다. NVIDIA DGX Spark 환경에서는 NemoClaw 튜토리얼을 참고한다.
# Ollama로 로컬 모델 준비
ollama pull kimi-k2-6
ollama run kimi-k2-6사용 대상 및 케이스
- 개인 자동화 구축자: 일정 관리, 이메일 처리, 코드 빌드 자동화 등을 AI가 스스로 처리하길 원하는 사람
- 프라이버시 중시 사용자: 외부 API에 데이터를 보내지 않고 로컬에서만 실행하고 싶은 경우
- 개발자: 24/7 코딩 에이전트가 지속적으로 PR·CI를 모니터링하게 하고 싶은 경우
라이선스
오픈소스. 구체적인 라이선스는 공식 저장소 확인.
관련 문서
- kimi — OpenClaw의 핵심 모델인 Kimi K2.6 상세 설명
- agent-governance — AI 에이전트 거버넌스 및 보안 정책
- agent-harness — 에이전트 하네스 엔지니어링으로 OpenClaw 같은 에이전트를 더 안정적으로 만드는 법