AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

Stash – AI 에이전트를 위한 셀프호스팅 영속 메모리 레이어 (Postgres + MCP)

Stash는 세션 간 기억이 없는 LLM 에이전트에 영속적인 인지 레이어를 추가하는 오픈소스 메모리 시스템이다. 에피소드(raw 관찰)를 사실로, 사실을 관계로, 관계를 패턴으로 변환하는 8단계 통합 파이프라인이 핵심이다. Apache-2.0 라이선스, 셀프호스팅, 싱글 바이너리.

alash3al/stash — Postgres + pgvector, MCP 서버, 백그라운드 통합 파이프라인을 도커 한 줄로 실행.

빠른 시작

git clone https://github.com/alash3al/stash.git
cd stash
cp .env.example .env   # API 키 + 모델 설정
docker compose up

8단계 통합 파이프라인

원시 관찰에서 구조화된 지식으로 변환하는 과정:

에피소드(Episodes)
    ↓
사실(Facts)
    ↓
관계(Relationships)
    ↓
인과 연결(Causal Links)
    ↓
목표 추적(Goal Tracking)
    ↓
실패 패턴(Failure Patterns)
    ↓
가설 검증(Hypothesis Verification)
    ↓
신뢰도 감쇠(Confidence Decay)
    ↓
지혜(Wisdom)

각 단계는 마지막 실행 이후의 새로운 데이터만 처리한다.

호환 도구

MCP 프로토콜을 지원하는 모든 에이전트와 연동된다:

  • AI 코딩 에이전트: Claude Desktop, Cursor, Windsurf, Cline, Continue
  • LLM 플랫폼: OpenAI Agents, Ollama, OpenRouter
  • 기타 MCP 클라이언트

auto-memory vs. Stash vs. OpenChronicle

Stashauto-memoryOpenChronicle
저장소Postgres + pgvector파일시스템SQLite (로컬)
파이프라인8단계 구조화단순 요약AX 트리 기반
배포DockerCLI (제로 의존성)로컬 퍼스트
MCP 서버

Stash는 구조화된 지식 그래프가 필요한 팀 또는 서버 환경에 적합하고, auto-memory는 로컬 개발자 개인 사용에 더 간단하다.

관련 문서

  • auto-memory — 제로 의존성 AI 에이전트 세션 간 기억 CLI
  • openchronicle — AX 트리 기반 로컬 퍼스트 에이전트 메모리
  • supermemory — LongMemEval 1위 AI 메모리·컨텍스트 엔진
  • reasoning-bank — 성공·실패 경험에서 추론 전략을 학습하는 에이전트 메모리

참고 자료



AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)