AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

캘리포니아가 AI 규제의 문을 열었다: SB 53이 가져올 변화

캘리포니아가 미국 최초로 대형 AI 기업에 안전 정보 공개를 의무화하는 법안 SB 53을 통과시켰습니다. 작년 거부된 강력한 규제안의 수정판이지만, 이번엔 업계 일부의 지지를 얻으며 현실이 되었죠.

9월 29일, 개빈 뉴섬 캘리포니아 주지사가 ‘SB 53(프론티어 인공지능 투명성법)’에 서명했습니다. OpenAI, Anthropic, Meta, Google DeepMind 같은 대형 AI 기업들은 이제 안전 프로토콜을 공개하고, 내부고발자를 보호하며, 중대 사고를 주정부에 보고해야 합니다.

출처: The Verge

작년엔 왜 실패했고, 올해는 어떻게 달랐나

작년 SB 1047은 완전히 다른 접근이었습니다. AI가 대규모 피해를 일으키면 개발사에 법적 책임을 물을 수 있게 했죠. 하지만 뉴섬 주지사는 “혁신을 막을 수 있다”며 거부권을 행사했습니다. 업계의 반발도 거셌고요.

그래서 뉴섬은 학계와 업계 전문가로 구성된 워킹그룹에 대안을 맡겼습니다. 그들이 내놓은 52페이지 보고서가 SB 53의 기초가 됐죠. 핵심은 ‘신뢰하되 검증하라(trust but verify)’였습니다.

SB 53은 처벌보다 투명성에 방점을 찍었습니다. 대형 AI 기업(연 매출 5억 달러 이상)에 요구하는 건 이렇습니다:

안전 프레임워크를 개발해 웹사이트에 공개하세요. 새 모델을 배포하기 전 투명성 보고서를 내세요. 중대 사고는 15일 내 신고하세요. 내부고발자는 보호받습니다. 약속을 안 지키면? 벌금이 나갑니다.

흥미로운 건, 대부분의 선도 AI 기업들이 이미 자발적으로 비슷한 걸 하고 있다는 점입니다. Anthropic은 ‘책임 있는 확장 정책(Responsible Scaling Policy)’을 공개하고, OpenAI와 Google DeepMind도 자체 안전 프레임워크를 운영 중이죠. 그런데 왜 법으로 만들어야 할까요?

자율 규제의 함정

답은 경쟁 압력에 있습니다. AI 경쟁이 치열해지면 안전 공개를 자발적으로 하던 기업도 뒤처질까봐 공개 수준을 낮출 수 있습니다. “우리만 다 까발리면 손해 아냐?” 이런 생각이 들기 시작하죠.

SB 53은 이 문제를 해결합니다. 모든 대형 업체가 똑같이 공개하면 되니까 ‘누가 더 투명한가’가 아니라 ‘누가 더 안전한가’를 놓고 경쟁할 수 있습니다. 공정한 경쟁의 장이 마련되는 거죠.

개빈 뉴섬 캘리포니아 주지사. 출처: TechCrunch / Getty Images

업계의 갈라진 반응

재미있게도 AI 기업들의 반응이 완전히 갈렸습니다.

Anthropic은 적극 지지했습니다. 클로드를 만드는 이 회사는 “오늘 신중하게 규제를 만들지, 내일 급하게 대응할지 선택의 문제”라며 법안을 공개 지지했죠. 이미 자신들이 하던 걸 법으로 만드는 거라 부담이 적었던 것도 있습니다.

OpenAI와 Meta는 반대에 나섰습니다. OpenAI의 크리스 레헤인은 뉴섬 주지사에게 편지를 보내 “EU나 연방 정부 협약에 가입하면 캘리포니아 요구사항을 면제해줘야 한다”고 주장했습니다. Meta는 아예 슈퍼팩(정치 자금 단체)까지 만들어 AI 입법에 영향력을 행사하려 했고요.

왜 이렇게 다를까요? 각자의 비즈니스 전략과 안전에 대한 철학이 다르기 때문입니다. Anthropic은 처음부터 ‘안전한 AI’를 정체성으로 삼았지만, OpenAI와 Meta는 빠른 혁신과 시장 선점이 더 중요했던 거죠.

왜 캘리포니아 하나가 중요할까

“주 법 하나로 뭐가 달라지겠어?” 생각할 수 있습니다. 하지만 캘리포니아는 특별합니다.

인구 4천만, 글로벌 AI 기업 상위 50개 중 32개가 캘리포니아에 있습니다. 사실상 여기가 곧 AI 산업의 심장이죠. 환경, 노동, 소비자 보호 규제에서 캘리포니아가 만든 기준이 미국 전체의 사실상 표준이 된 역사가 있습니다.

‘캘리포니아 효과(California Effect)’라고 부르는 현상입니다. 이렇게 큰 시장에서 시작된 규제는 다른 주들도 따라하게 되고, 결국 전국 표준이 됩니다. 실제로 뉴욕주도 비슷한 법안(RAISE Act)을 통과시키고 주지사의 서명을 기다리는 중이에요.

법안의 한계와 과제

물론 SB 53도 완벽하진 않습니다. 현재는 학습에 10^26 FLOPS 이상의 컴퓨팅 파워를 쓴 모델만 규제 대상입니다. 미래엔 더 적은 자원으로도 강력한 모델을 만들 수 있는데, 그럼 규제 사각지대가 생기겠죠.

‘재앙적 위험(catastrophic risk)’의 정의도 논란입니다. 법안은 50명 이상의 사상자나 10억 달러 이상의 피해를 기준으로 삼지만, AI 챗봇과 대화하다 자살한 사례들은 포함되지 않습니다. 어디까지를 재앙으로 볼지는 여전히 답이 없는 질문입니다.

Anthropic 측은 이미 몇 가지 개선안을 제시했습니다. 더 상세한 테스트와 평가 내용 공개, 기술 발전에 맞춰 규정을 업데이트할 수 있는 권한 등이죠. 법안은 통과됐지만, 진짜 싸움은 이제부터입니다.

Anthropic is endorsing SB 53

혁신과 안전 사이에서

결국 핵심 질문은 하나입니다. AI 규제를 오늘 만들 것인가, 사고가 터진 다음 만들 것인가?

SB 53은 “지금”을 택했습니다. 완벽하진 않지만 균형점을 찾으려는 시도죠. 기업들이 이미 하고 있던 걸 의무화하면서도, 스타트업에겐 부담을 주지 않도록 대기업만 타깃으로 삼았습니다.

연방 정부가 움직이지 않는 상황에서 캘리포니아가 먼저 나섰습니다. 이게 미국 AI 규제의 첫 장이 될지, 아니면 각 주마다 다른 규정을 만드는 혼란의 시작이 될지는 아직 모릅니다. 분명한 건, AI가 더 강력해지기 전에 안전장치를 마련하려는 첫 시도라는 점입니다.


참고자료:

Fediverse 반응

AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments