AI 개발 가이드
AI 에이전트 코딩 회의론자가 마음을 바꾼 이유, AGENTS.md와 Opus 4.5 실전 후기
AI 에이전트 코딩 회의론자였던 데이터 사이언티스트 Max Woolf가 Claude Opus 4.5로 Rust ML 라이브러리를 구현하며 생각을 바꾼 실전 후기. AGENTS.md 파일이 결과 품질을 결정한다는 통찰을 소개합니다.
Written by

AI 에이전트, 프로덕션에 올리기 전에 반드시 알아야 할 것들
에이전트는 기존 소프트웨어와 다르게 모니터링해야 합니다. LangChain이 정리한 자연어 입력의 무한성과 LLM 비결정성 문제, 그리고 어노테이션 큐·LLM 평가자를 활용한 프로덕션 옵저버빌리티 전략을 소개합니다.
Written by

AI 에이전트 비결정성 문제, 실전에서 통하는 두 가지 해법
AI 에이전트가 지시를 무시하는 비결정성 문제, 가드레일로 행동을 강제하는 방법과 Evals로 AGENTS.md 자체를 검증하는 두 가지 실전 해법을 소개합니다.
Written by

Claude Code vs Codex 실전 비교, 두 에이전트를 모두 쓰는 개발자의 선택 기준
Claude Code와 Codex를 동시에 쓰는 개발자의 2026년 2월 실전 비교. 계획·툴 사용은 Opus, 코드 정확도는 Codex로 나눠 쓰는 실무 전략을 소개합니다.
Written by

Claude Code 9개월 실전 사용자가 발견한 핵심 원칙, 계획 전까지 코드 쓰지 말기
Claude Code 9개월 실전 사용자가 발견한 핵심 원칙. 계획과 실행을 분리하는 주석 사이클 워크플로우와 그 이유를 소개합니다.
Written by

AI 에이전트 스펙 작성, 2,500개 파일이 알려준 실패 패턴
GitHub 2,500개 에이전트 파일 분석이 밝힌 AI 에이전트 스펙 실패 패턴과 성공하는 스펙의 6가지 핵심 영역, 3계층 경계 설정 방법을 소개합니다.
Written by

모델은 그대로, 하네스만 바꿨더니 Top 5, LangChain 코딩 에이전트 실험
LangChain이 모델 교체 없이 하네스만 바꿔 코딩 에이전트 성능을 13.7점 올린 방법. 자기 검증 루프, 맥락 주입, 추론 샌드위치 전략을 공개했습니다.
Written by

AI 테스트 전부 통과, 버그는 그대로였다, Ground Truth 문제
AI가 작성한 테스트가 모두 통과해도 버그가 남아있는 이유. Ground Truth 문제와 AST 비교 방식으로 해결한 Doodledapp 팀의 실전 경험을 소개합니다.
Written by

AI 에이전트 샌드박스 통합, 두 가지 아키텍처 패턴과 선택 기준
AI 에이전트와 샌드박스를 통합하는 두 가지 아키텍처 패턴을 분석합니다. 각 패턴의 장단점과 선택 기준을 제시합니다.
Written by

Claude 에이전트 팀, 2주 만에 리눅스 컴파일러 제작한 방법
16개의 Claude 에이전트가 2주 만에 10만 줄 C 컴파일러를 제작한 과정. 에이전트 팀의 작동 원리와 자율 AI 개발의 가능성과 한계를 소개합니다.
Written by
