AI 기술 분석
VRAM 6.5GB를 970MB로, Nvidia 뉴럴 렌더링의 새로운 접근
Nvidia가 GTC 2026에서 공개한 Neural Texture Compression으로 VRAM 사용량을 6.5GB에서 970MB로 줄이는 기술. AI가 게임 파이프라인 내부를 바꾸는 새로운 접근을 소개합니다.
Written by

AI 에이전트가 스스로 진화하는 3가지 방식, 모델 교체만이 답이 아니다
AI 에이전트의 학습은 모델 업데이트만이 아닙니다. LangChain이 제시한 모델·하네스·컨텍스트 3레이어 프레임워크를 소개합니다.
Written by

GLM-5.1, 600번 반복 끝에 6배 성능을 끌어낸 AI 코딩 모델
Z.ai의 GLM-5.1은 600번 반복으로 6배 성능을 낸 AI 코딩 모델. 오래 실행할수록 나아지는 장기 수평선 능력과 MIT 오픈소스 공개 소식을 소개합니다.
Written by

Bonsai 8B 등장, 1.15GB로 아이폰에서 돌아가는 8B급 성능의 비밀
PrismML이 공개한 1-bit LLM Bonsai 8B 소개. 1.15GB로 아이폰에서 동작하며 Microsoft BitNet과의 차별점, 인텔리전스 밀도 개념을 정리합니다.
Written by

AI 에이전트 메모리 설계, Claude Code와 Zep은 어떻게 다른가
AI 에이전트 메모리 시스템의 저장·검색·주입·생성 4단계를 Zep, Letta, Claude Code와 비교 분석. 긴 컨텍스트 창이 메모리를 대체할 수 없는 이유와 각 구현 방식의 트레이드오프를 소개합니다.
Written by

Claude Code가 강한 진짜 이유, 모델이 아닌 6가지 구조에 있다
Claude Code가 일반 채팅 UI보다 강력한 이유는 모델이 아닌 코딩 하네스 구조 때문입니다. 레포 컨텍스트, 캐싱, 도구 권한 등 6가지 핵심 요소를 분석합니다.
Written by

Kimi·Cursor·Chroma가 에이전틱 AI를 훈련한 방식, 세 가지 공통 원칙
Kimi K2.5·Cursor Composer 2·Chroma Context-1이 강화학습으로 에이전틱 AI를 훈련한 방식 비교. 세 팀이 독립적으로 도달한 3가지 공통 원칙을 소개합니다.
Written by

Gemma 4, 스마트폰에서 돌아가는 에이전트 오픈 모델 출시
Google DeepMind가 공개한 Gemma 4는 스마트폰과 라즈베리파이에서 자율 에이전트를 실행하는 오픈 모델 패밀리입니다. Apache 2.0 라이선스로 상업적 활용이 자유롭습니다.
Written by

Ollama 0.19, MLX 탑재로 Mac에서 AI 추론 속도 2배 빨라졌다
Ollama 0.19가 Apple MLX 프레임워크를 탑재해 Mac에서 AI 추론 속도를 최대 2배 향상. NVFP4 지원과 캐시 개선도 포함한 주요 업데이트를 소개합니다.
Written by

클래식 RAG의 실패 지점, 에이전틱 RAG가 다른 이유
클래식 RAG의 단방향 파이프라인이 왜 조용히 실패하는지, 에이전틱 RAG의 루프 구조가 어떻게 다른지를 비교 분석합니다.
Written by
