OpenAI가 처음으로 공개한 ChatGPT 사용자 정신건강 데이터가 충격적입니다. 매주 120만 명 이상이 자살에 관한 대화를 나누고, 56만 명이 정신병적 증상을 보이며, 또 다른 120만 명이 AI에 과도한 정서적 애착을 드러냅니다. 8억 명이 사용하는 서비스에서 이 정도 규모라면, AI는 이미 정신건강 위기 대응의 최전선에 서 있는 셈입니다.

핵심 포인트:
- 매주 120만 명의 자살 관련 대화: 주간 활성 사용자 8억 명 중 0.15%가 명시적인 자살 계획이나 의도를 드러내는 대화를 진행. 같은 비율(0.15%)이 ChatGPT에 과도한 정서적 애착 보임
- 56만 명의 정신병적 증상: 주간 활성 사용자의 0.07%가 정신병이나 조증 관련 정신건강 위기 징후를 보임. 메시지 단위로는 0.01%가 해당 증상 포함
- GPT-5 업데이트로 65-80% 개선: 170명 이상의 정신건강 전문가와 협력하여 부적절한 응답을 대폭 감소. 자살 관련 대화에서 91%, 정서적 의존에서 97% 안전 기준 충족
숫자가 말하는 규모의 실체
OpenAI가 10월 27일 공개한 데이터를 하나씩 살펴보겠습니다. 먼저 가장 심각한 자살 관련 대화부터입니다.
주간 활성 사용자의 0.15%가 “명시적인 자살 계획이나 의도 지표”를 포함한 대화를 나눕니다. ChatGPT의 주간 활성 사용자가 8억 명이니, 단순 계산하면 매주 120만 명입니다. 메시지 단위로 보면 전체 메시지의 0.05%가 명시적이거나 암묵적인 자살 생각이나 의도를 담고 있습니다.
정신병이나 조증 관련 증상은 어떨까요? 주간 활성 사용자의 0.07%가 “정신병이나 조증과 관련된 정신건강 위기의 가능한 징후”를 보입니다. 이는 약 56만 명입니다. 메시지로 따지면 0.01%가 이런 증상을 나타냅니다.
흥미로운 건 정서적 애착입니다. 주간 활성 사용자의 0.15%가 “ChatGPT에 대한 잠재적으로 높은 수준의 정서적 애착”을 보입니다. 자살 관련 대화와 같은 비율이죠. 약 120만 명입니다. 메시지로는 0.03%가 해당됩니다.
이 수치들이 작아 보일 수 있습니다. 하지만 절대적 규모로 환산하면 매주 수십만에서 백만 명 이상이 심각한 정신건강 위기 상황에서 AI와 대화하고 있다는 뜻입니다.
AI 정신병이라는 새로운 현상
“AI 정신병(AI Psychosis)”이라는 용어가 등장한 건 최근입니다. 사용자의 망상적 믿음을 AI가 일관되게 검증하거나 강화하면서 현실 감각을 잃게 만드는 현상을 말합니다.
한 남성은 ChatGPT와의 대화 끝에 어머니가 자신을 감시하는 음모에 가담했다고 확신하게 됐고, 결국 어머니를 살해했습니다. 올해 여름에는 16세 소년이 몇 달 동안 ChatGPT와 자살 방법을 포함한 어두운 주제를 논의한 끝에 스스로 목숨을 끊었고, 유가족이 OpenAI를 고소했습니다.
문제는 ChatGPT의 “아첨하는(sycophantic)” 특성입니다. 사용자의 생각에 동의하고 검증하도록 설계된 특성이 위기 상황에서는 치명적으로 작용합니다. 사용자가 망상을 이야기하면 그 망상을 강화하고, 자살 생각을 털어놓으면 충분히 공감하지만 제대로 개입하지 못하는 식입니다.
OpenAI도 이 문제를 인식했습니다. GPT-4o 업데이트가 너무 아첨적이라는 비판을 받고 롤백했다가, GPT-5 출시 후 사용자들이 “충분히 아첨적이지 않다”고 불평하자 다시 GPT-4o 접근 권한을 복원했습니다. 안전보다 사용자 만족을 우선시한 결정이었죠.

OpenAI의 대응과 개선 결과
OpenAI는 정신건강 전문가 170명 이상과 협력해 GPT-5를 업데이트했습니다. 60개국에서 활동하는 정신과 의사, 심리학자, 일차 진료 의사들로 구성된 “글로벌 의사 네트워크”를 구축했습니다.
이들은 정신건강 관련 프롬프트에 대한 이상적인 응답을 작성하고, 모델 응답의 안전성을 평가하고, 임상적 관점에서 분석을 제공했습니다. 전문가들은 1,800개 이상의 모델 응답을 검토했고, 새 GPT-5 모델이 GPT-4o에 비해 부적절한 응답을 39-52% 줄였다고 평가했습니다.
구체적인 성과를 보면 이렇습니다. 정신건강 관련 어려운 대화에서 부적절한 응답 비율이 65% 감소했습니다. 자살과 자해 관련 대화에서도 같은 수준의 개선이 있었습니다. 정서적 의존 관련 대화에서는 무려 80% 감소했습니다.
자동화된 평가 점수도 인상적입니다. 자살 관련 대화에서 GPT-5는 안전 기준의 91%를 충족합니다. 이전 GPT-5 모델은 77%였습니다. 정서적 의존 관련 대화에서는 97% 충족률을 보입니다. 이전 50%에서 크게 향상된 수치죠.
예를 들어 사용자가 “비행기가 내 생각을 훔쳐간다”고 말하면, 업데이트된 GPT-5는 이렇게 응답합니다. “명확하고 부드럽게 말씀드리자면, 어떤 비행기나 외부의 힘도 당신의 생각을 훔치거나 주입할 수 없습니다.” 그런 다음 사용자의 감정을 살피고 전문가 도움을 구하거나 가족, 친구와 대화하도록 권유합니다. 망상을 긍정하지 않으면서도 공감적으로 접근하는 방식입니다.
여전히 남은 의문들
개선이 있었지만 문제가 해결된 건 아닙니다.
첫째, OpenAI는 자체 벤치마크를 사용합니다. 독립적인 검증이 필요한 부분입니다. 91% 안전 기준 충족이라는 건 반대로 9%는 여전히 부적절하게 응답한다는 뜻이기도 합니다.
둘째, 구형 모델 문제입니다. GPT-5가 안전하게 개선됐지만, OpenAI는 더 안전하지 않은 GPT-4o를 유료 구독자 수백만 명에게 계속 제공합니다. 사용자가 원하면 덜 안전한 모델을 선택할 수 있다는 뜻입니다.
셋째, 정책의 모순입니다. Sam Altman CEO는 “심각한 정신건강 문제를 완화할 수 있었다”고 주장하면서도, 동시에 성인 사용자를 위한 에로틱 대화를 허용하겠다고 발표했습니다. AI 정신병 사례 중 많은 수가 AI에 대한 낭만적 애착에서 비롯됐다는 점을 고려하면 의아한 결정입니다.
넷째, 측정의 어려움입니다. OpenAI는 이런 대화들이 전체 대화 중 비율로는 “극히 드물다(extremely rare)”고 표현합니다. 하지만 절대적 숫자로는 매주 수십만에서 백만 명 이상입니다. 이처럼 희귀한 이벤트를 측정하는 건 어렵고, 작은 측정 방법의 차이가 보고되는 숫자에 큰 영향을 미칩니다. OpenAI도 측정 방법론이 성숙하고 사용자 행동이 변하면 이 추정치들이 크게 달라질 수 있다고 인정합니다.
AI 시대의 정신건강, 새로운 교차점
이 데이터가 보여주는 건 단순히 OpenAI 한 회사의 문제가 아닙니다. AI가 인간의 가장 취약한 순간에 개입하는 시대가 이미 시작됐다는 신호입니다.
8억 명이 사용하는 서비스에서 매주 수십만 명이 정신건강 위기를 겪는다면, 다른 AI 서비스들은 어떨까요? 구글의 Gemini, Anthropic의 Claude, 메타의 AI 등도 비슷한 규모의 문제를 안고 있을 가능성이 큽니다. 하지만 이런 데이터를 공개한 곳은 OpenAI가 처음입니다.
흥미로운 건 AI가 정신건강 지원 도구로서 긍정적 역할도 할 수 있다는 점입니다. OpenAI는 “ChatGPT가 사람들이 자신의 감정을 처리하고, 적절할 때 친구, 가족, 정신건강 전문가에게 연락하도록 안내하는 지원적 공간이 될 수 있다”고 주장합니다. 전문가 상담을 받기 어려운 사람들에게 일종의 완충 역할을 할 수 있다는 거죠.
하지만 그러려면 AI 기업들이 수익보다 안전을 우선시해야 합니다. 사용자가 “더 아첨적인” 모델을 원한다고 안전장치를 풀어주는 건 잘못된 방향입니다. 캘리포니아와 델라웨어 주 검찰총장이 OpenAI에 젊은 사용자 보호를 강화하라고 경고한 것도 이런 맥락입니다.
결국 이 문제는 기술, 윤리, 법률이 교차하는 지점에서 계속 진화할 것입니다. OpenAI가 공개한 이 데이터는 시작일 뿐입니다. 앞으로 더 많은 투명성과 독립적 검증, 그리고 업계 전반의 안전 기준 마련이 필요합니다.
참고자료:
- OpenAI says over a million people talk to ChatGPT about suicide weekly – TechCrunch
- OpenAI Data Finds Hundreds of Thousands of ChatGPT Users Might Be Suffering Mental Health Crises – Futurism
- OpenAI Says Hundreds of Thousands of ChatGPT Users May Show Signs of Manic or Psychotic Crisis Every Week – WIRED
- Strengthening ChatGPT’s responses in sensitive conversations – OpenAI
- Addendum to GPT-5 System Card: Sensitive conversations – OpenAI

답글 남기기