LLM 앱을 빌드할 때 워크플로우 오케스트레이션, RAG 파이프라인, 모델 관리, 관측성을 각각 다른 도구로 조합하는 일은 복잡하고 유지보수 비용이 높다. Dify는 이 모든 것을 하나의 플랫폼에 통합한 오픈소스 LLM 앱 개발 환경으로, 시각적 캔버스에서 에이전트 워크플로우를 구성하고 프로토타입을 바로 프로덕션에 배포할 수 있다. GitHub ★140,094를 기록한 Linux Foundation 인큐베이션 프로젝트다.
핵심 기능
1. 워크플로우(Workflow) 시각적 캔버스에서 AI 워크플로우를 구성하고 테스트한다. 조건 분기, 반복, 병렬 실행, 변수 전달을 드래그앤드롭으로 정의한다.
2. 포괄적인 모델 지원 GPT, Claude, Mistral, Llama3 및 OpenAI API 호환 모델 포함, 수십 개 프로바이더의 수백 개 독점·오픈소스 LLM을 하나의 인터페이스로 통합 호출한다.
3. RAG 파이프라인 문서 업로드·전처리·청킹·임베딩·벡터 저장소 연동까지 RAG 파이프라인 전체를 내장한다. 주요 벡터 DB와 통합되며 하이브리드 검색을 지원한다.
4. 에이전트 기능 ReAct·Function Calling 기반 에이전트를 설정하고, 내장 도구(웹 검색, DALL·E, 코드 실행 등) 또는 커스텀 도구를 연결한다.
5. 관측성 Langfuse, Opik, Arize Phoenix 등 주요 관측 플랫폼과 기본 통합된다. 실행 트레이스, 토큰 비용, 응답 품질을 시각화한다.
경쟁 도구와의 비교
| 항목 | Dify | LangChain | LlamaIndex | Flowise |
|---|---|---|---|---|
| UI | 시각적 캔버스 | 코드 우선 | 코드 우선 | 시각적 캔버스 |
| 대상 | 개발자·비개발자 | 개발자 | 개발자 | 저코드 사용자 |
| 관측성 | 내장 + 외부 연동 | 별도 구성 | 별도 구성 | 제한적 |
| 셀프호스팅 | Docker Compose | 직접 구축 | 직접 구축 | Docker |
| 라이선스 | Apache 2.0 | MIT | MIT | Apache 2.0 |
설치
Docker Compose로 빠르게 시작한다:
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d브라우저에서 http://localhost/install로 접속하면 초기 설정 화면이 열린다.
시스템 요구사항: CPU 2코어 이상, RAM 4GiB 이상
누구에게 유용한가?
- 프로토타입을 빠르게 프로덕션으로 전환하려는 개발자: 코드 없이 워크플로우를 구성하고 API로 바로 노출할 수 있다.
- 기업 AI 앱을 내재화하려는 팀: 셀프호스팅으로 데이터 유출 없이 내부 지식 베이스 기반 챗봇·에이전트를 구축한다.
- LLM 앱 운영 가시성이 필요한 팀: 모델 교체·비용 비교·품질 모니터링을 한 대시보드에서 처리한다.
라이선스
Apache 2.0 (Linux Foundation 인큐베이션 프로젝트)
관련 도구
- langfuse — LLM 앱 관찰·평가·모니터링 오픈소스 플랫폼
- pydantic-ai — 타입 안전한 Python AI 에이전트 프레임워크
- litellm — 100개+ LLM 통합 호출 게이트웨이
- rag — RAG 개념 및 패턴 개요
참고 자료
- langgenius/dify — GitHub 공식 저장소