OpenAI는 “최대한 많은 사람에게 열겠다”는 원칙을 내세웠습니다. 그런데 새로 공개한 GPT-5.4-Cyber는 신원을 인증한 극소수만 쓸 수 있습니다. 이 역설에는 꽤 구체적인 이유가 있습니다.

OpenAI가 방어적 사이버보안 전용으로 파인튜닝한 모델 GPT-5.4-Cyber를 공개했습니다. 기존 GPT-5.4를 보안 작업에 더 허용적으로 조정한 버전으로, 2월에 시작한 TAC(Trusted Access for Cyber) 프로그램의 확장입니다. 우선 수백 명의 검증된 보안 전문가에게 먼저 열리고, 이후 수천 명, 수백 개 팀으로 점진적으로 확대할 계획입니다.
출처: Trusted access for the next era of cyber defense – OpenAI
소스코드 없이 악성코드를 분석한다
GPT-5.4-Cyber의 핵심 기능은 바이너리 리버스 엔지니어링입니다. 소스코드에 접근하지 않아도 컴파일된 실행 파일을 분석해 악성코드 가능성이나 취약점을 찾아냅니다.
보안 분야에서 이 작업은 전통적으로 고도의 전문성이 필요한 영역입니다. 공격자가 배포한 바이너리를 받아도 소스코드가 없으면 내부 동작을 파악하기 어렵기 때문입니다. GPT-5.4-Cyber는 이 과정을 AI가 보조할 수 있도록 모델 수준에서 제한을 낮췄습니다.
모델 자체가 더 허용적으로 설계된 만큼, 제로데이터 보존(ZDR) 계약이나 서드파티 플랫폼을 통한 접근은 제한될 수 있습니다. OpenAI가 사용자와 용도를 직접 확인하기 어려운 환경에서는 접근을 열어주지 않겠다는 방침입니다.
접근 계층을 나누는 방식
OpenAI는 이번 발표에서 TAC 프로그램을 단계적으로 구조화했습니다.
- 일반 사용자: 기존 모델 + 기본 안전장치
- 신원 인증 완료 개인: chatgpt.com/cyber에서 정부 발급 ID 인증 → 사이버보안 관련 요청에서 거부 빈도 낮아짐
- 최상위 티어: 추가 인증 후 GPT-5.4-Cyber 접근 가능 (현재 별도 신청 필요)
OpenAI가 “민주화된 접근(democratized access)”을 원칙으로 내세우면서도 계층을 나눈 이유는, 사이버 역량이 본질적으로 이중 용도이기 때문입니다. 같은 바이너리 분석 기능이 방어자에겐 취약점 탐지 수단이고, 공격자에겐 익스플로잇 개발 도구가 됩니다. OpenAI는 “누가 쓰느냐”가 리스크의 핵심 변수라고 보고, 이를 자동화된 신원 확인으로 판단하려 합니다.
Anthropic과의 경쟁, 그리고 업계의 흐름
출시 일주일 전, Anthropic은 운영체제와 브라우저의 취약점을 찾아 공략하는 데 특화된 Claude Mythos를 공개했습니다. 이 모델 역시 제한된 그룹에게만 열려 있습니다. 미국 재무부 기술팀이 자체 시스템 점검을 위해 Mythos 접근을 요청 중이라는 Bloomberg 보도도 나왔습니다.
GPT-5.4-Cyber와 Claude Mythos, 두 모델 모두 방어적 목적을 강조하지만 접근 방식은 미묘하게 다릅니다. OpenAI는 자동화된 신원 인증 + 단계적 확장을 내세우고, Anthropic은 Project Glasswing이라는 별도 프로그램으로 접근을 관리합니다. 개발자 Simon Willison은 “결국 둘 다 별도 신청 절차가 필요하다는 점에서 크게 다르지 않다”고 지적했습니다.
AI 회사들이 ‘접근 설계’를 고민하기 시작했다
이번 발표가 흥미로운 이유는 모델 성능보다 접근 구조 때문입니다. AI 모델이 강력해질수록, 누구에게 어떤 조건으로 열 것인가가 안전 전략의 핵심 변수가 됩니다. OpenAI는 이를 중앙에서 수동으로 결정하는 대신, 신원 인증과 신뢰 신호 기반의 자동화된 시스템으로 풀겠다는 입장입니다.
TAC 프로그램의 세부 계층 구조, 기존 Codex Security와의 연계 방식, 향후 더 강력한 모델에 대한 접근 계획은 원문에서 더 구체적으로 확인할 수 있습니다.
참고자료:

답글 남기기