Anthropic이 두 가지 원칙을 지키다 Pentagon에 블랙리스트에 올랐습니다. 그리고 불과 몇 시간 뒤, OpenAI가 같은 원칙을 내세우면서 계약을 성사시켰습니다.

앞서 다뤘듯, Anthropic은 자율 무기 제어와 미국 시민 대량 감시에 Claude를 쓰지 않겠다는 두 가지 레드라인을 고수하다 협상이 결렬됐습니다. Pentagon은 Anthropic을 ‘공급망 안보 위협’으로 지정했고, Trump 대통령은 Truth Social에 “우리는 그들이 필요하지 않다”며 연방기관 전체에 Anthropic 제품 즉시 사용 중단을 지시했습니다.
그러자 Sam Altman이 등장했습니다.
출처: Our agreement with the Department of War – OpenAI
같은 원칙, 다른 결과
OpenAI가 발표한 계약의 핵심은 세 가지 레드라인입니다: 미국 시민 대량 감시 금지, 자율 무기 시스템 제어 금지, 고위험 자동화 의사결정 금지. Anthropic이 주장했던 두 가지와 실질적으로 같고, OpenAI는 여기에 하나를 더 얹었습니다.
그렇다면 Anthropic은 왜 실패하고 OpenAI는 왜 성공했을까요? OpenAI는 이를 계약 구조의 차이로 설명합니다. 핵심은 세 가지입니다.
첫째, 클라우드 전용 배포입니다. 모델을 엣지 기기(현장 단말)에 탑재하지 않고 클라우드에서만 운영합니다. 자율 살상 무기를 구동하려면 인터넷 연결 없이 현장에서 작동하는 엣지 배포가 필요한데, 이를 구조적으로 차단한 것입니다. 레드라인을 선언이 아닌 아키텍처로 못 박은 셈입니다.
둘째, OpenAI가 자체 안전 스택을 그대로 유지합니다. 정부가 모델을 제어하는 것이 아니라, OpenAI 엔지니어들이 현장에 파견돼 안전 시스템을 직접 운영합니다. “모델이 특정 작업을 거부하면 정부는 이를 강제할 수 없다”는 원칙도 계약에 명문화됐습니다.
셋째, 법 개정 대비 조항입니다. 계약서는 감시와 자율 무기 관련 법규를 현재 시점의 기준으로 고정해, 향후 관련 법이 바뀌더라도 현재 기준이 계속 적용되도록 했습니다.
“Anthropic도 이 조건이면 됩니다”
Altman은 발표문에서 “국방부에게 이 동일한 조건을 모든 AI 기업에 제공해달라고 요청했다”고 밝혔습니다. Anthropic을 향한 제스처이기도 합니다. OpenAI는 Anthropic의 공급망 위협 지정에도 반대 입장을 표명했고, 갈등을 “법적·정부적 조치에서 합리적 합의 쪽으로” 풀어가길 원한다고 했습니다.
Ilya Sutskever(OpenAI 공동창업자)는 “Anthropic이 물러서지 않은 것은 매우 좋은 일이며, OpenAI가 유사한 입장을 취한 것도 중요하다”고 X에 적었습니다. Google과 OpenAI 직원 수백 명도 연명 서한으로 자사 경영진에게 동일한 레드라인 수용을 촉구했습니다.
역설적인 결말과 남은 질문
이 사태의 아이러니는 분명합니다. Anthropic이 지키려 했던 원칙을 OpenAI가 계약서에 담아 Pentagon과 악수했습니다. Anthropic은 법정 싸움을 예고한 상태고, Claude 앱은 분쟁 직후 미국 앱스토어 2위로 급등하는 예상 밖의 반사이익을 얻었습니다.
한편 MIT 물리학자 Max Tegmark는 이 사태의 뿌리가 더 깊다고 봅니다. AI 기업들이 자율규제를 선호하며 구속력 있는 법 제정을 막아온 결과, 지금처럼 “AI를 살인에 써도 막을 법이 없는” 공백이 생겼다는 것입니다. OpenAI의 계약이 실효성 있는 안전장치가 될지, 아니면 공백을 메운 것처럼 보이는 선언에 그칠지 — 그 답은 실제 운용에서 나올 겁니다. 계약 언어 전문과 배포 아키텍처 세부사항은 OpenAI 원문에서 직접 확인할 수 있습니다.
참고자료:
- Pentagon moves to designate Anthropic as a supply-chain risk – TechCrunch
- Anthropic calls Pentagon’s supply chain risk label illegal and vows to challenge it in court – The Decoder
- OpenAI’s Sam Altman announces Pentagon deal with ‘technical safeguards’ – TechCrunch
- Google DeepMind and OpenAI employees demand Anthropic-style red lines – The Decoder
- The trap Anthropic built for itself – TechCrunch
- Anthropic’s Claude rises to No. 2 in the App Store – TechCrunch

답글 남기기