OpenAI가 GPT-5를 활용한 자율형 보안 연구 에이전트 Aardvark를 공개했습니다. 2024년 한 해에만 4만 개가 넘는 새로운 취약점이 보고되는 현실에서, 제한된 보안 인력으로는 감당하기 어려운 규모입니다. Aardvark는 인간 보안 연구자처럼 코드를 읽고 분석하며 테스트를 실행하는 방식으로 이 문제에 접근합니다.

핵심 포인트:
- 벤치마크 테스트 92% 탐지율: “골든” 레포지토리에서 알려진 취약점과 합성 취약점을 대상으로 한 테스트에서 92%의 탐지율을 기록하며 실전 효과성 입증
- 인간 연구자의 사고 방식 구현: 퍼징이나 정적 분석 대신 LLM 기반 추론과 도구 활용으로 코드를 읽고, 분석하고, 테스트를 작성하며 실행하는 인간 보안 연구자의 워크플로우 재현
- 오픈소스 생태계 기여: 오픈소스 프로젝트에서 10개의 새로운 CVE를 발견하고 책임 있게 공개했으며, 향후 비상업 오픈소스 레포지토리에 무료 스캐닝 제공 계획
기존 방식과 완전히 다른 접근
대부분의 보안 도구는 퍼징(fuzzing)이나 소프트웨어 구성 분석(SCA) 같은 전통적인 프로그램 분석 기법에 의존합니다. 정해진 규칙과 패턴에 따라 코드를 스캔하는 방식이죠. Aardvark는 다릅니다.
LLM 기반 추론과 도구 사용으로 코드의 동작을 이해하고 취약점을 식별합니다. 보안 연구자가 코드를 검토하는 것처럼 읽고, 분석하고, 테스트 코드를 작성하고 실행합니다. 단순히 알려진 패턴만 찾는게 아니라, 복잡한 조건에서만 발생하는 버그까지 찾아냅니다.
OpenAI의 VP인 Matt Knight는 “복잡한 조건에서만 발생하는 이슈를 찾아내는 분석의 깊이”를 파트너사들이 특히 높이 평가했다고 밝혔습니다.
4단계 파이프라인으로 작동하는 방식
Aardvark는 체계적인 4단계 프로세스로 취약점을 탐지하고 수정합니다.
1단계: 분석(Analysis)
전체 레포지토리를 분석해 프로젝트의 보안 목적과 설계를 반영한 위협 모델을 생성합니다. 코드베이스가 무엇을 위한 것인지, 어떤 보안 설계가 적용되었는지 이해하는 단계입니다.
2단계: 커밋 스캐닝(Commit Scanning)
새로운 코드가 커밋될 때마다 커밋 단위 변경사항을 전체 레포지토리 및 위협 모델과 대조하며 취약점을 스캔합니다. 레포지토리가 처음 연결되면 기존 이력도 스캔해 기존 이슈를 식별합니다. 발견한 취약점은 단계별로 설명하고 코드에 주석을 달아 사람이 검토할 수 있게 만듭니다.
3단계: 검증(Validation)
잠재적 취약점을 발견하면 격리된 샌드박스 환경에서 실제로 트리거를 시도해 악용 가능성을 확인합니다. 정확하고 고품질이며 낮은 오탐률의 인사이트를 제공하기 위해 취한 단계를 설명합니다.
4단계: 패치(Patching)
OpenAI Codex와 통합해 발견한 취약점을 수정하도록 돕습니다. 각 발견 사항에 Codex가 생성하고 Aardvark가 스캔한 패치를 첨부해 사람이 검토하고 원클릭으로 패치할 수 있게 합니다.
GitHub, Codex와 통합되며 기존 워크플로우에 자연스럽게 녹아들어 개발 속도를 늦추지 않으면서 명확하고 실행 가능한 인사이트를 제공합니다.

실전에서 증명된 성과
Aardvark는 수개월간 OpenAI의 내부 코드베이스와 외부 알파 파트너의 환경에서 지속적으로 운영되었습니다. OpenAI 내부에서는 의미 있는 취약점을 발견하며 방어 태세에 기여했습니다.
벤치마크 테스트 결과는 더 인상적입니다. “골든” 레포지토리에서 알려진 취약점과 합성으로 주입된 취약점을 대상으로 테스트한 결과, 92%를 탐지했습니다. 높은 재현율과 실제 환경에서의 효과성을 입증한 수치입니다.
보안 취약점 외에도 로직 결함, 불완전한 수정, 프라이버시 이슈 같은 버그도 발견할 수 있다고 OpenAI는 밝혔습니다.
오픈소스 생태계에 환원
Aardvark는 오픈소스 프로젝트에도 적용되어 이미 여러 취약점을 발견했습니다. 그중 10개는 CVE(Common Vulnerabilities and Exposures) 식별자를 부여받았습니다.
OpenAI는 수십 년간 오픈 연구와 책임 있는 공개의 수혜자였던 만큼, 이제는 되돌려줄 때라고 생각합니다. 선별된 비상업 오픈소스 레포지토리에 무료 스캐닝을 제공해 오픈소스 소프트웨어 생태계와 공급망의 보안에 기여할 계획입니다.
OpenAI는 2025년 6월에 아웃바운드 협력적 공개 정책(outbound coordinated disclosure policy)을 발표했습니다. 개발자 친화적인 접근을 취하며 개발자에게 압박을 줄 수 있는 엄격한 공개 일정보다는 협력과 확장 가능한 영향에 초점을 맞춥니다. Aardvark 같은 도구가 점점 더 많은 버그를 발견할 것이고, 장기적 회복력 달성을 위해 지속 가능하게 협력하고 싶다는 의도입니다.

보안팀의 구조적 딜레마를 해결하다
2024년에만 4만 개가 넘는 CVE가 보고되었지만, 문제는 숫자만이 아닙니다. 커밋의 약 1.2%가 버그를 포함한다는 OpenAI의 데이터는 더 본질적인 현실을 보여줍니다. 하루에도 수십, 수백 번의 커밋이 일어나는 환경에서 보안팀은 구조적으로 방어에 실패할 수밖에 없습니다.
공격자는 단 하나의 취약점만 찾으면 되지만, 방어자는 모든 취약점을 찾아야 합니다. 이 비대칭성이 핵심 문제입니다. 보안 전문가를 더 고용한다고 해결될 문제가 아닙니다. 코드가 작성되는 속도를 따라잡을 수 없으니까요.
Aardvark가 흥미로운 이유는 여기에 있습니다. 커밋마다 자동으로 스캔하고, 복잡한 조건에서만 발생하는 버그까지 찾아내며, 검증과 패치 제안까지 한 번에 처리합니다. 사람이 검토해야 할 시점에는 이미 “이게 문제고, 이렇게 악용 가능하며, 이렇게 고치면 됩니다”라는 패키지가 준비되어 있습니다.
물론 프라이빗 베타 단계라 모든 팀이 당장 쓸 수 있는 건 아닙니다. 하지만 방향성은 분명합니다. AI 에이전트가 24시간 쉬지 않고 코드를 감시하는 시대가 열렸습니다.
프라이빗 베타 참여 방법
현재 Aardvark는 OpenAI가 초대한 선별된 파트너에게만 프라이빗 베타로 제공되고 있습니다. 참가자는 조기 접근권을 얻고 OpenAI 팀과 직접 협력하며 탐지 정확도, 검증 워크플로우, 리포팅 경험을 개선하게 됩니다.
OpenAI는 다양한 환경에서 성능을 검증하려고 합니다. 조직이나 오픈소스 프로젝트가 참여에 관심이 있다면 OpenAI 웹사이트에서 신청할 수 있습니다.
참고자료:

답글 남기기