코딩을 한 줄도 모르는 디자이너가 자기 업무를 자동화하는 앱을 만든다면 어떨까요? 엔지니어가 코드를 직접 쓰는 대신 AI 에이전트를 지휘하는 ‘매니저’가 된다면요? Every.to의 창업자 댄 쉬퍼(Dan Shipper)와 COO 브랜든 겔(Brandon Gell)은 이것이 2026년의 현실이 될 거라고 예측합니다.

Every.to가 발행한 ‘AI & I’ 팟캐스트 2026년 신년 특집 에피소드에서 두 사람은 AI가 소프트웨어 개발 방식을 어떻게 바꿀지 네 가지 예측을 공유했습니다. 단순히 “AI 기능이 추가된다”는 수준이 아니라, 소프트웨어 자체가 AI 에이전트를 염두에 두고 재설계되는 패러다임 전환을 이야기합니다.
출처: Four Predictions for How AI Will Change Software in 2026 – Every.to
소프트웨어가 에이전트를 위해 재설계된다
가장 핵심적인 예측은 “에이전트 네이티브 아키텍처(agent-native architecture)”의 등장입니다. 댄은 이를 3단계 사다리로 설명해요.
1단계: 당신이 할 수 있는 건 에이전트도 할 수 있다
지금도 많은 앱에 AI 챗봇이 있지만, 특정 기능만 실행할 수 있죠. 에이전트 네이티브 앱에서는 AI가 당신처럼 모든 버튼과 설정에 접근합니다. 예를 들어 댄은 OpenAI의 브라우저 에이전트 Atlas를 사용해서 누군가를 Notion 팀에 추가하는 작업을 시킵니다. 직접 설정 페이지를 클릭하는 대신 AI에게 “이 사람 추가해줘”라고 말하면 끝이에요.
2단계: 앱 코드가 할 수 있는 건 에이전트도 할 수 있다
앱에는 사용자에게 보이지 않는 “뒷무대” 기능들이 많습니다. Every팀이 만든 이메일 도우미 Cora는 하루 두 번 받은편지함 요약을 생성하는데, 그 요약을 다른 스타일로 재생성하는 코드가 내부에 존재하지만 버튼으로 노출되지 않았어요. 에이전트 네이티브 앱에서는 AI가 이런 숨겨진 기능까지 활용할 수 있습니다. “이 요약 좀 더 짧게 다시 써줘”라고 요청하면 내부 코드를 직접 실행하는 거죠.
3단계: 개발자가 할 수 있는 건 에이전트도 할 수 있다
여기서는 AI가 실시간으로 코드를 수정하고 기능을 추가합니다. 사용자가 “이 버튼 색깔을 파란색으로 바꿔줘”라고 하면 에이전트가 즉시 구현하는 식이에요. 모든 사용자에게 배포될 수도 있고, 개인화된 버전으로 남을 수도 있습니다. 댄은 Every팀이 이미 내부적으로 이런 실험을 하고 있으며, Anthropic과 Notion도 비슷한 방향으로 움직이고 있다고 말합니다.
디자이너가 개발자가 되고, 개발자는 매니저가 된다
두 번째 예측은 역할의 경계가 흐려진다는 겁니다. Every의 크리에이티브 리드 루카스 크레스포(Lucas Crespo)는 원래 전통적인 디자이너였지만, 이제는 자신의 업무를 돕는 작은 앱들을 “바이브 코딩(vibe coding)”으로 만들어냅니다. 코드를 정확히 이해하지 못해도 AI와 대화하며 작동하는 결과물을 얻는 거죠.
하지만 브랜든은 회의적인 면도 지적합니다. 많은 디자이너들이 여전히 터미널이나 Cursor 같은 코드 에디터를 두려워한다는 거예요. 이런 도구들이 대중적으로 확산되려면 코드를 완전히 숨기고 더 직관적인 인터페이스를 제공해야 할 겁니다.
반대쪽에서는 엔지니어의 역할도 변하고 있어요. 댄은 세 가지 유형을 구분합니다. 첫째는 AI를 속도 향상 도구로 쓰되 여전히 코드를 읽고 쓰는 전통적 엔지니어, 둘째는 작동만 시키면 되는 바이브 코더, 그리고 셋째가 새로운 부류인 “에이전틱 엔지니어(agentic engineer)”입니다.
에이전틱 엔지니어는 코드를 거의 쓰지 않아요. 대신 무엇을 만들지 정의하고, 문제를 나누고, 여러 AI 에이전트를 조율하는 데 집중합니다. 코딩 능력은 약해지지만, 에이전트 매니저로서의 새로운 능력을 키우는 거죠. 일종의 의식적인 거래라고 댄은 말합니다.
자율성으로 가는 길은 아직 멀다
마지막 예측은 가장 어려운 과제를 다룹니다. 진정한 자율 에이전트—당신이 지시하지 않아도 알아서 계속 일하는—를 만드는 것이죠.
댄은 아이 성장에 비유합니다. 아기는 5분만 혼자 둬도 위험하지만, 점점 오래 혼자 놀 수 있게 되죠. AI도 몇 년 전엔 한 번에 한 대화만 처리했지만, 이제는 20분에서 한 시간까지 지속적으로 작업합니다. 하지만 “무한정” 돌아가는 수준은 아직 멉니다.
문제는 지금까지의 학습 방식에 있어요. AI는 예측 가능하고 순종적이도록—정확히 시키는 대로 하도록—훈련됐습니다. 진정한 자율성을 갖추려면 스스로 탐색하고 실수할 자유가 필요한데, 안전성 우려 때문에 우리가 그걸 허용하지 않았던 거죠.
댄은 2026년에 새로운 훈련 방식과 아키텍처가 등장해서 이 제약을 조금씩 풀기 시작할 거라고 예측합니다. 에이전트가 더 독립적으로 행동할 수 있도록 말이에요.
실험은 이미 시작됐다
이 예측들이 흥미로운 이유는 Every팀이 직접 실험하며 겪은 경험에서 나왔다는 점입니다. Cora나 Lucas의 작업 도구처럼 실제 사례가 있고, Anthropic의 Claude Code나 OpenAI의 Atlas 같은 구체적인 제품들이 이미 시장에 나와 있어요.
2026년은 AI가 소프트웨어에 “추가되는” 마지막 해가 될지도 모릅니다. 그 다음부터는 소프트웨어 자체가 처음부터 AI와 함께 쓰도록 설계되는 시대가 올 테니까요.

답글 남기기