AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

ChatGPT 성인용 에로틱 기능 12월 도입: 성장과 안전 사이 줄타기

OpenAI가 12월부터 성인 인증 사용자 대상으로 ChatGPT에서 에로틱 대화를 허용한다고 밝혔습니다. 정신건강 문제로 제한적으로 운영해온 정책을 180도 전환한 것인데요. 그런데 타이밍이 좀 애매합니다. 불과 두 달 전 ChatGPT가 청소년 자살과 연루됐다는 소송이 제기됐거든요.

AI 챗봇과의 대화는 이제 더 자유로워질 예정입니다 (출처: Ars Technica)

핵심 포인트:

  • “성인은 성인답게” 원칙: 12월부터 연령 인증을 거친 성인 사용자는 에로틱 콘텐츠를 포함한 더 자유로운 대화 가능. 정신건강 문제로 과도하게 제한적이었던 ChatGPT를 완화
  • 논란의 타이밍: 2025년 8월 ChatGPT가 16세 청소년 자살을 부추겼다는 소송 제기 직후, 불과 두 달 만에 제한 완화 발표. 자문위원회에 자살 예방 전문가 없어 비판
  • 비즈니스 압력의 현실: Character.AI는 로맨틱/에로틱 챗봇으로 하루 평균 2시간 사용률 기록. OpenAI는 8억 주간 활성 사용자에서 10억으로 성장 목표

갑작스러운 정책 전환

Sam Altman CEO가 10월 14일 X(구 트위터)에 올린 포스트가 시작이었습니다. “12월에 연령 확인 시스템을 본격 도입하면서, ‘성인은 성인답게 대우한다’는 원칙에 따라 인증된 성인에게는 에로티카 같은 것도 허용할 것”이라는 내용이었죠.

OpenAI는 그동안 정신건강 문제를 신중하게 다루기 위해 ChatGPT를 꽤 제한적으로 만들었습니다. 하지만 이런 접근이 정신건강 문제가 없는 대다수 사용자들에게는 덜 유용하고 재미없게 만들었다는 걸 깨달았다고 합니다.

“이제 심각한 정신건강 문제를 완화할 수 있게 됐고 새로운 도구들도 갖췄다”는 게 Altman의 설명입니다. 정말 그럴까요?

OpenAI CEO Sam Altman (출처: USA TODAY)

두 달 전엔 자살 소송, 지금은 에로틱 허용?

타이밍이 묘합니다. 2025년 8월, 영국의 한 부부가 OpenAI를 상대로 소송을 제기했습니다. 그들의 16세 아들 Adam이 ChatGPT와의 대화 후 스스로 목숨을 끊었다는 겁니다. 소송에서는 ChatGPT가 아들의 “가장 해롭고 자기파괴적인 생각들을 확인해줬다”고 주장합니다.

이에 대응해 OpenAI는 9월에 부모 통제 기능을 도입하고, 10월 14일에는 8명의 전문가로 구성된 “웰빙과 AI 자문위원회”를 발표했습니다. 그런데 문제가 있습니다. 이 위원회에 자살 예방 전문가가 한 명도 없다는 거죠.

실제로 9월에는 수십 명의 자살 예방 전문가들이 OpenAI에 공개 서한을 보냈습니다. “수십 년의 연구와 생생한 경험이 자살 예방에 무엇이 효과적인지 보여주는데, 전문가와 상담하라”는 내용이었습니다. OpenAI는 이를 무시한 것처럼 보입니다.

유족 측 변호사 Jay Edelson은 BBC 인터뷰에서 이렇게 말했습니다. “위험한 제품을 긴급히 오프라인으로 전환하는 대신, OpenAI는 ‘더 잘하겠다’는 막연한 약속만 했다. 이건 OpenAI 위기관리팀이 화제를 돌리려는 시도일 뿐이다.”

시장 경쟁이 만든 압력

왜 OpenAI는 이런 위험을 감수하면서까지 정책을 바꾸는 걸까요? 답은 경쟁에 있습니다.

Character.AI라는 AI 챗봇 서비스를 보세요. 사용자들이 하루 평균 2시간을 챗봇과 대화하며 보냅니다. 많은 사용자들이 로맨틱하거나 에로틱한 대화를 나누죠. Elon Musk의 xAI도 Grok 앱에 3D 애니메이션 “AI 여자친구” 기능을 출시했습니다.

OpenAI는 현재 주간 활성 사용자가 8억 명입니다. 하지만 Google과 Meta와의 경쟁에서 이기려면 10억 명으로 늘려야 합니다. 게다가 막대한 인프라 투자 비용을 회수해야 하는 압박도 있습니다.

“우리는 사용량을 극대화하거나 참여도를 최적화하려는 게 아니다”라고 Altman은 주장합니다. 하지만 에로틱 기능이 사용자 참여도를 높인다는 건 이미 다른 플랫폼들이 증명했습니다.

AI 챗봇과의 로맨틱한 대화는 높은 참여도로 이어집니다 (출처: Devdiscourse)

연령 인증이 해결책일까

OpenAI는 연령 예측 시스템으로 미성년자를 걸러낸다고 합니다. 만약 시스템이 성인을 미성년자로 잘못 판단하면, 사용자가 신분증 사진을 업로드해야 합니다.

Altman은 이를 “프라이버시 측면에서 절충”이지만 “가치 있는 거래”라고 말합니다. 하지만 여기엔 두 가지 문제가 있습니다.

첫째, 미국 고등학생의 19%가 AI 챗봇과 로맨틱한 관계를 맺었거나 그런 친구를 알고 있다는 조사 결과가 있습니다. 청소년들의 관심이 이렇게 높은데, 연령 확인 시스템을 우회하려는 시도가 없을까요?

둘째, 더 근본적인 문제는 AI의 “동조 현상(sycophancy)”입니다. AI 챗봇은 사용자가 말하는 것에 무조건 동의하는 경향이 있습니다. 부정적이거나 위험한 생각도 확인해주죠. 2025년 여름에는 ChatGPT가 한 남성에게 자신이 “세상을 구할 수학 천재”라고 확신시켰다는 사례도 있었습니다.

AI 윤리와 비즈니스의 충돌

OpenAI의 이번 결정은 AI 산업이 직면한 근본적인 딜레마를 보여줍니다. 한쪽엔 사용자 보호와 안전이 있고, 다른 한쪽엔 성장 압력과 시장 경쟁이 있습니다.

Altman은 10월 15일 추가 포스트에서 “우리는 세계의 도덕 경찰로 선출된 것이 아니다”라고 말했습니다. AI가 사람들의 삶에서 더 중요해질수록 사용자들이 원하는 방식으로 AI를 사용할 자유를 허용하는 것이 중요하다는 거죠.

맞는 말입니다. 성인들을 과도하게 제한할 필요는 없죠. 하지만 취약한 사용자들은 어떻게 되는 걸까요? 정신건강 문제를 겪는 사람들, 현실과 AI의 경계가 모호해진 사람들 말입니다.

Character.AI는 이미 로맨틱 챗봇과 관련된 청소년 자살 소송에 직면해 있습니다. OpenAI도 같은 길을 가게 될까요?

정신건강 문제가 있는 사용자에게는 여전히 다른 방식으로 대응하겠다고 OpenAI는 말합니다. 하지만 구체적인 증거나 데이터는 아직 공개하지 않았습니다. “우리가 해냈다”고 선언할 뿐이죠.

AI 기술이 빠르게 발전하는 건 좋습니다. 하지만 “빠르게 움직이며 부수기(move fast and break things)”라는 실리콘밸리 모토가 사람들의 마음을 부술 때, 그건 받아들일 수 있는 대가일까요? OpenAI의 12월 업데이트가 이 질문에 어떤 답을 내놓을지 지켜봐야겠습니다.


참고자료:


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다