Stash는 세션 간 기억이 없는 LLM 에이전트에 영속적인 인지 레이어를 추가하는 오픈소스 메모리 시스템이다. 에피소드(raw 관찰)를 사실로, 사실을 관계로, 관계를 패턴으로 변환하는 8단계 통합 파이프라인이 핵심이다. Apache-2.0 라이선스, 셀프호스팅, 싱글 바이너리.
alash3al/stash — Postgres + pgvector, MCP 서버, 백그라운드 통합 파이프라인을 도커 한 줄로 실행.
빠른 시작
git clone https://github.com/alash3al/stash.git
cd stash
cp .env.example .env # API 키 + 모델 설정
docker compose up8단계 통합 파이프라인
원시 관찰에서 구조화된 지식으로 변환하는 과정:
에피소드(Episodes)
↓
사실(Facts)
↓
관계(Relationships)
↓
인과 연결(Causal Links)
↓
목표 추적(Goal Tracking)
↓
실패 패턴(Failure Patterns)
↓
가설 검증(Hypothesis Verification)
↓
신뢰도 감쇠(Confidence Decay)
↓
지혜(Wisdom)각 단계는 마지막 실행 이후의 새로운 데이터만 처리한다.
호환 도구
MCP 프로토콜을 지원하는 모든 에이전트와 연동된다:
- AI 코딩 에이전트: Claude Desktop, Cursor, Windsurf, Cline, Continue
- LLM 플랫폼: OpenAI Agents, Ollama, OpenRouter
- 기타 MCP 클라이언트
auto-memory vs. Stash vs. OpenChronicle
| Stash | auto-memory | OpenChronicle | |
|---|---|---|---|
| 저장소 | Postgres + pgvector | 파일시스템 | SQLite (로컬) |
| 파이프라인 | 8단계 구조화 | 단순 요약 | AX 트리 기반 |
| 배포 | Docker | CLI (제로 의존성) | 로컬 퍼스트 |
| MCP 서버 | ✅ | ✅ | ✅ |
Stash는 구조화된 지식 그래프가 필요한 팀 또는 서버 환경에 적합하고, auto-memory는 로컬 개발자 개인 사용에 더 간단하다.
관련 문서
- auto-memory — 제로 의존성 AI 에이전트 세션 간 기억 CLI
- openchronicle — AX 트리 기반 로컬 퍼스트 에이전트 메모리
- supermemory — LongMemEval 1위 AI 메모리·컨텍스트 엔진
- reasoning-bank — 성공·실패 경험에서 추론 전략을 학습하는 에이전트 메모리
참고 자료
- alash3al/stash — GitHub 공식 저장소