AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

OpenAI가 세운 안전 약속, 어떻게 허물어졌나

AI가 인류를 멸종시킬 수도 있다고 믿는 사람들이 만든 회사가 있었습니다. 그래서 정관에 안전을 법적 의무로 새겨넣고, “더 안전한 연구자가 먼저 AGI를 만들면 우리는 경쟁을 멈추고 그쪽을 돕겠다”는 조항까지 넣었습니다. 그 회사가 OpenAI입니다.

사진 출처: The New Yorker / Visual by David Szauder; Generated using A.I.

뉴요커가 100명 이상의 내부 인사를 인터뷰하고 미공개 내부 문서를 검토한 결과, 그 약속이 어떻게 단계적으로 허물어졌는지 구체적인 경위가 드러났습니다.

출처: Sam Altman May Control Our Future—Can He Be Trusted? – The New Yorker (Ronan Farrow & Andrew Marantz, 2026년 4월)

안전 우선 조직으로 출발했다

2015년 OpenAI 창립 당시, 설립자들은 AI를 “핵무기보다 위험할 수 있는 기술”로 규정했습니다. 그래서 비영리 법인으로 출발했고, 이사회에는 인류 안전을 회사 생존보다 우선시할 법적 의무를 부여했습니다. “가치에 정렬된 다른 프로젝트가 먼저 AGI에 도달하면 경쟁을 멈추고 그 프로젝트를 돕는다”는 ‘합류 및 지원(merge-and-assist)’ 조항도 정관에 포함됐습니다. 일반적인 기업 논리로는 비상식적인 조항이지만, OpenAI는 그래서 달라야 한다는 취지였습니다.

이 약속을 가장 믿었던 사람 중 하나가 수석 과학자 일리야 수츠케버였습니다. 그는 2023년, 인터뷰와 내부 문서에서 비밀리에 작성한 70페이지 분량의 메모를 이사회에 전달했습니다. 메모는 샘 알트만이 이사회와 임원들에게 사실을 반복적으로 숨기고 안전 프로세스를 속여왔다고 주장했습니다. 첫 번째 항목은 단 한 단어: “거짓말(Lying).”

이사회의 해고, 그리고 5일 만의 복귀

2023년 11월, 이사회는 알트만을 해고했습니다. 하지만 마이크로소프트(130억 달러 투자)가 즉시 알트만을 영입하겠다고 발표했고, OpenAI 직원 다수가 그를 따라가겠다는 서한에 서명했습니다. 이사회는 선택지가 없었습니다. 5일 뒤 알트만은 복귀했고, 해고를 주도했던 수츠케버·헬렌 토너·타샤 매콜리는 이사회에서 밀려났습니다.

내부에서는 이 사건을 “블립(The Blip)”이라 부릅니다. 마블 영화에서 캐릭터들이 사라졌다가 아무것도 변하지 않은 채로 돌아오는 그 사건. 하지만 현실에서는 이전으로 돌아간 것이 알트만뿐이고, 조직의 성격은 조용히 달라졌습니다.

복귀 이후 알트만이 선임한 새 이사회 멤버들은 그와 긴밀히 논의된 인물들이었고, WilmerHale의 내부 조사는 보고서 없이 구두 브리핑으로 마무리됐습니다. 공개된 것은 고작 800단어짜리 “신뢰 붕괴 인정” 성명이 전부였습니다.

안전팀은 해체되고, 약속은 재정의됐다

복귀 후 무너진 것 중 가장 두드러진 것은 안전 연구 조직입니다. OpenAI는 2023년 “초정렬(superalignment)” 팀을 꾸리며 컴퓨팅 자원의 20%를 안전 연구에 배정하겠다고 약속했습니다. 하지만 실제 배정은 1~2% 수준이었고, 그마저 가장 오래된 하드웨어에 집중됐다고 팀원들은 증언합니다. 이 팀은 이듬해 임무를 완수하지 못한 채 해산됐습니다. 수츠케버와 팀장 얀 레이케가 사임했고, 레이케는 퇴임 후 X에 이렇게 남겼습니다. “안전 문화와 프로세스가 화려한 제품에 밀려났습니다.”

정관에 명시된 ‘합류 및 지원’ 조항도 사실상 사문화됐습니다. 알트만은 2025년 개인 블로그에 “테이크오프가 시작됐다”고 선언하면서도 조항에 따른 협력 대신 경쟁 가속을 선택했습니다. 안전을 “인스타그램 스크롤 알고리즘 같은 불편함” 수준으로 재정의하며.

OpenAI의 가장 최근 IRS 세금신고서에서 “가장 중요한 활동” 항목에 ‘안전’이라는 단어는 사라졌습니다.

안전이 빠진 자리를 채운 것

그 빈자리를 채운 것은 군사 계약과 중동 자금입니다. 올해 초 앤트로픽이 국방부의 자율무기 관련 요구를 거부하자, 알트만은 즉각 대안으로 나섰습니다. 이틀 뒤 국방부와 500억 달러 규모 계약을 발표했고, 같은 날 OpenAI 기업가치는 1,100억 달러 올랐습니다. 이와 동시에 알트만은 UAE와 사우디아라비아의 막대한 국부펀드 자금을 끌어들여 중동에 AI 데이터센터 네트워크를 구축하는 ‘스타게이트’ 프로젝트를 추진 중입니다. 센트럴파크 면적의 7배에 달하는 아부다비 데이터센터 캠퍼스가 대표적입니다.

창립자들이 가장 경계했던 위험 중 하나가 “AGI 독재” 시나리오, 즉 특정 개인이나 국가가 AGI를 독점하는 상황이었습니다. 그런데 아이러니하게도, OpenAI는 지금 미국 국가안보 관계자들이 “중국과의 기술 유출 위험”을 우려하는 바로 그 국가들과 손잡고 AI 인프라를 확산시키고 있습니다.

구조가 먼저 무너졌다

이 기사의 핵심은 알트만 개인의 도덕성 문제만이 아닙니다. OpenAI의 실패는 개인의 일탈이 아니라 구조적 실패였습니다. 비영리 이사회는 13억 달러를 투자한 마이크로소프트의 압력 앞에 무력했고, 독립적인 감시 체계는 알트만 복귀 협상 과정에서 사실상 해체됐습니다. 정관의 안전 조항들은 상업적 현실 앞에서 재해석되거나 삭제됐습니다.

이 패턴은 OpenAI만의 문제가 아닙니다. 앤트로픽도 올해 초 ‘책임있는 확장 정책’을 완화했고, 구글도 안전 경쟁보다 배포 속도를 앞세웠습니다. 기사에 인용된 전 OpenAI 정책 디렉터 잭 클라크(현 앤트로픽)의 말이 이를 압축합니다. “자본 시장이 ‘더 빨리 가라’고 말한다. 세상이 그 결정을 내리지, 기업이 내리는 게 아니다.”

수츠케버 메모의 구체적 내용, 이사회 협상의 전말, 알트만의 중동 자금 유치 과정 등 더 상세한 기록은 뉴요커 원문에 담겨 있습니다.

참고자료: Empire of AI – Karen Hao (2025)


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다