AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

OpenChronicle – LLM 에이전트를 위한 오픈소스 로컬 퍼스트 컨텍스트 메모리

OpenChronicle은 도구 호출 가능 LLM 에이전트에게 로컬 퍼스트 메모리를 제공하는 오픈소스 프로젝트다. OpenAI Chronicle이 가리키는 방향(“에이전트가 실제 작업 컨텍스트를 기억한다”)은 맞지만 폐쇄적·OpenAI 종속적이라는 한계가 있었다. OpenChronicle은 이를 MIT 라이선스로 열고, 모델 무관(model-agnostic)으로 만든 대안이다. v0.1.0 기준 macOS 전용 얼리 알파 상태다.

등장 배경

AI 에이전트의 가장 큰 약점 중 하나는 세션 간 기억이 없다는 것이다. 지금 어떤 프로젝트를 작업 중인지, 어떤 결정을 내렸는지, 어떤 도구를 쓰는지 — 에이전트가 매번 새로 파악해야 한다. OpenAI Chronicle은 스크린샷·OCR로 이 문제를 해결하려 했지만, 비용이 높고 폐쇄적이다. OpenChronicle은 AX 트리(접근성 트리) 우선 접근으로 더 저렴하고 정확한 컨텍스트 캡처를 추구한다.

AX 트리 우선 설계

스크린샷 기반 캡처 대신 macOS 접근성 트리(AX Tree)를 주요 신호로 사용한다.

스크린샷/OCRAX 트리 우선
비용높음 (비전 파이프라인)낮음 (구조화 텍스트)
의도 캡처간접적활성 앱·포커스 요소·편집 텍스트·URL 직접 파악
메모리 크기방대소형·중복 제거 용이
장기 보존어려움색인·정규화 용이

스크린샷은 AX 트리가 부족한 시각적 맥락을 보완하는 보조 신호로 추후 지원 예정이다.

작동 방식

AX 이벤트 → S0 디스패처(중복 제거·디바운스) → S1 파서(포커스 요소·URL)
→ 캡처 버퍼 → 타임라인 정규화(1분 단위) → 세션 관리(유휴 5분·최대 2시간)
→ S2 리듀서 → 이벤트 마크다운(event-YYYY-MM-DD.md)
→ 분류기 → user-/project-/tool-/topic-/person-/org-*.md
→ SQLite FTS5 + Markdown 저장소

핵심 단계는 다섯 가지다:

  1. 컨텍스트 캡처 — macOS AX 이벤트 스트림에서 실시간 수집
  2. 세션 압축 — 노이즈 많은 이벤트 로그 대신 세션 단위 메모리 작성
  3. 영속 사실 추출 — 분류기가 user·project·tool·topic·person·org 파일로 분리
  4. 로컬 저장 — Markdown + SQLite FTS5 로컬 인덱싱
  5. 에이전트 쿼리 — MCP 엔드포인트(http://127.0.0.1:8742/mcp)를 통해 조회

메모리 파일 구조

OpenChronicle이 생성하는 Markdown 파일 유형:

  • user-*.md — 사용자의 작업 패턴·선호도
  • project-*.md — 진행 중인 프로젝트 컨텍스트
  • tool-*.md — 자주 쓰는 도구·앱 정보
  • topic-*.md — 관심 주제·개념
  • person-*.md / org-*.md — 협업 관계
  • event-YYYY-MM-DD.md — 일별 상세 이벤트 타임라인

설치 및 실행

# macOS 13+ 및 Xcode CLT 필요
git clone https://github.com/openchronicle/openchronicle.git
cd openchronicle
bash install.sh

# 데몬 시작
openchronicle start
openchronicle status
openchronicle pause / resume / stop

유용한 점검 명령:

openchronicle capture-once    # 즉시 캡처 1회 실행
openchronicle timeline tick   # 타임라인 수동 처리
openchronicle writer run      # 메모리 작성 수동 트리거
openchronicle rebuild-index   # SQLite 인덱스 재구성

MCP 연동

Claude Code, Claude Desktop, Codex, opencode 등 MCP를 지원하는 모든 에이전트에서 바로 연결할 수 있다.

http://127.0.0.1:8742/mcp

모델은 Ollama, LM Studio, OpenAI, Anthropic, LiteLLM 호환 프로바이더 모두 지원한다.

누가, 언제 쓰면 좋은가

  • 여러 프로젝트를 동시에 진행하며 에이전트가 컨텍스트를 잃는 문제를 겪는 개발자
  • 세션이 끊길 때마다 배경 설명을 반복해야 하는 상황이 피곤한 경우
  • 로컬에 데이터를 보관하면서 모델 제공사를 자유롭게 바꾸고 싶은 경우

주의: v0.1.0 기준 macOS 전용 얼리 알파. Linux/Windows 지원 미정.

관련 문서

  • auto-memory — AI 에이전트에 세션 간 기억 능력을 추가하는 제로 의존성 CLI
  • ai-agent-tips-memory — AI 에이전트 메모리 아키텍처 3단계 개요
  • mcp — Model Context Protocol 소개

참고 자료



AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)