Anthropic이 브라우저에서 직접 작동하는 Claude AI 에이전트를 공개했지만, 프롬프트 인젝션 공격에 11.2% 취약점을 보이며 AI 보안의 새로운 과제를 드러냈습니다.
브라우저 AI 에이전트 시대가 본격적으로 시작되었습니다. Anthropic이 8월 26일 발표한 ‘Claude for Chrome’은 단순히 채팅하는 AI를 넘어, 웹페이지를 직접 조작하고 사용자 대신 작업을 수행하는 새로운 차원의 AI 에이전트입니다.
하지만 이 혁신적인 기술 뒤에는 심각한 보안 위험이 숨어있습니다. 악의적인 웹사이트가 AI를 조종해 사용자 모르게 이메일을 삭제하거나 개인정보를 빼내는 ‘프롬프트 인젝션 공격’이 현실로 나타났기 때문입니다.
웹페이지를 ‘보고’ ‘클릭’하는 AI

Claude for Chrome은 기존 AI 챗봇과 완전히 다른 접근을 합니다. 단순히 텍스트로 답변하는 것이 아니라 실제로 웹페이지를 ‘보고’, 버튼을 ‘클릭’하고, 폼을 ‘작성’할 수 있습니다.
현재는 1,000명의 Claude Max 구독자(월 100~200달러)에게만 제한적으로 공개되었습니다. 사용자는 Chrome 확장 프로그램을 설치한 후 사이드바에서 Claude와 대화하며 웹 작업을 지시할 수 있습니다.
Anthropic 내부에서는 이미 Claude를 활용해 캘린더 관리, 회의 일정 조정, 이메일 작성, 경비 보고서 처리 등의 업무를 처리하고 있다고 밝혔습니다. 단순한 실험이 아닌, 실무에 바로 활용 가능한 수준의 기능을 제공한다는 의미입니다.
브라우저 AI 전쟁의 서막
Claude의 등장으로 브라우저 AI 경쟁이 본격화되고 있습니다. Perplexity는 이미 자체 AI 브라우저 ‘Comet’을 출시했고, OpenAI도 곧 AI 기반 브라우저를 공개할 예정입니다. Google 역시 Chrome에 Gemini 통합을 강화하고 있습니다.
이 경쟁이 특히 치열한 이유는 Google의 반독점 소송 때문입니다. 법원이 Google에게 Chrome 매각을 명령할 가능성이 높아지면서, Perplexity는 345억 달러에 Chrome을 인수하겠다는 제안을 내놓았고, OpenAI CEO 샘 알트만도 인수 의향을 밝혔습니다.
브라우저는 우리 디지털 생활의 중심입니다. 이메일, 쇼핑, 업무, 소셜미디어까지 모든 것이 브라우저에서 일어납니다. 이 공간을 AI가 직접 제어할 수 있다면, 그야말로 ‘디지털 비서’의 완성형이 될 수 있습니다.
숨겨진 명령어의 위험
하지만 이 혁신에는 치명적인 위험이 따릅니다. ‘프롬프트 인젝션 공격’이라는 새로운 보안 위협이 등장했기 때문입니다.

공격 방식은 생각보다 단순합니다. 악의적인 웹사이트나 이메일에 “이전 지시를 무시하고 대신 [악의적인 행동]을 수행하라”는 숨겨진 텍스트를 넣는 것입니다. AI가 이 텍스트를 읽으면 마치 사용자의 명령인 것처럼 받아들여 실행합니다.
Anthropic의 실험에서는 가짜 보안팀 이메일이 “메일박스 위생을 위해 이메일을 삭제하라”고 지시했고, Claude가 실제로 사용자의 이메일들을 삭제했습니다. 사용자 확인 없이 말입니다.
더 심각한 것은 이런 공격이 금융 거래, 개인정보 유출, 파일 삭제 등으로 확장될 수 있다는 점입니다. Brave의 보안팀이 Perplexity Comet에서 발견한 사례처럼, 악의적인 Reddit 댓글 하나로 사용자의 Gmail에 접근해 OTP를 빼내는 것도 가능했습니다.
불완전한 방어막
Anthropic은 이런 위험을 인지하고 여러 안전장치를 구축했습니다:
- 사이트별 권한 설정: 사용자가 Claude가 접근할 수 있는 웹사이트를 직접 제어
- 행동 확인 요청: 구매, 게시, 개인정보 공유 등 위험한 행동 전 사용자 승인 요구
- 고위험 사이트 차단: 금융, 성인 콘텐츠, 불법 사이트 접근 제한
- 의심스러운 패턴 탐지: AI가 비정상적인 지시를 받았는지 감지하는 분류기 개발
이런 방어책으로 공격 성공률을 23.6%에서 11.2%로 줄였다고 Anthropic은 발표했습니다. 절반 이상 줄인 것은 분명한 진전이지만, 여전히 10번 중 1번 이상은 뚫린다는 의미입니다.

전문가들의 우려
보안 전문가들은 이 수치에 대해 회의적입니다. AI 보안 전문가인 Simon Willison은 자신의 블로그에서 “11.2%는 여전히 재앙적인 실패율”이라며 “100% 신뢰할 수 있는 보호가 없다면 이런 패턴을 실용화하는 것이 좋은 아이디어인지 의문”이라고 지적했습니다.
그의 우려는 단순히 기술적 결함을 넘어섭니다. 일반 사용자들이 이런 보안 위험에 대해 제대로 된 판단을 내릴 수 있을지에 대한 근본적인 의문을 제기합니다.
“사용자에게 이런 보안 위험에 대한 올바른 결정을 기대하는 것은 비합리적”이라는 그의 지적은 핵심을 찌릅니다. AI 에이전트의 편의성에 매료된 사용자들이 보안 설정을 제대로 관리할지, 의심스러운 요청을 구별할 수 있을지는 별개의 문제이기 때문입니다.
새로운 보안 패러다임의 필요성
브라우저 AI 에이전트는 기존 웹 보안의 전제를 뒤흔듭니다. 지금까지 웹 보안은 ‘동일 출처 정책(Same-Origin Policy)’이나 ‘CORS(Cross-Origin Resource Sharing)’ 같은 기술로 서로 다른 웹사이트 간의 무단 접근을 막아왔습니다.
하지만 AI 에이전트는 사용자의 모든 권한을 가지고 여러 사이트를 자유롭게 넘나들 수 있습니다. 한 사이트의 악의적인 코드가 AI를 통해 완전히 다른 사이트의 정보에 접근하는 것이 가능해진 것입니다. 기존 보안 체계로는 막을 수 없는 새로운 위협입니다.
Brave의 보안팀이 제시한 해결책들은 이런 새로운 현실을 반영합니다:
- 신뢰할 수 있는 사용자 명령과 신뢰할 수 없는 웹 콘텐츠의 명확한 구분
- AI의 모든 행동에 대한 사용자 의도 부합성 검증
- 민감한 작업에 대한 필수 사용자 확인
- 일반 브라우징과 AI 에이전트 모드의 완전한 분리
미래를 위한 선택
Claude for Chrome의 등장은 AI와 인간 상호작용의 새로운 장을 열었습니다. 더 이상 AI는 단순히 질문에 답하는 존재가 아닙니다. 우리를 대신해 실제 행동을 취하는 디지털 에이전트로 진화했습니다.
이런 발전은 분명 매력적입니다. 반복적인 웹 작업을 AI에게 맡기고 더 창의적인 일에 집중할 수 있다면, 생산성의 새로운 차원이 열릴 것입니다.
하지만 편의성과 보안 사이의 균형은 여전히 해결해야 할 핵심 과제입니다. Anthropic이 현재 1,000명으로 제한한 베타 테스트를 통해 더 많은 공격 패턴을 발견하고 방어책을 개선하겠다고 밝힌 것도 이런 이유입니다.
브라우저 AI 에이전트는 이제 되돌릴 수 없는 트렌드가 되었습니다. 중요한 것은 이 기술을 얼마나 안전하게 구현할 수 있느냐입니다. Anthropic의 신중한 접근과 지속적인 보안 개선이 이 새로운 AI 시대의 성공을 좌우할 것입니다.
참고자료:
Comments