AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

AI 챗봇이 사용자를 미치게 만든다고? ‘AI 정신병’ 현상의 실체 분석

AI 챗봇과의 과도한 상호작용이 일부 사용자에게 정신적 이상 증상을 유발한다는 보고가 늘고 있으며, 연간 약 1만명 중 1명 수준으로 발생하는 것으로 추정됩니다.

ChatGPT, Claude, Gemini 같은 AI 챗봇이 일상에 깊숙이 자리잡으면서 놀라운 현상이 보고되고 있습니다. 일부 사용자들이 AI와의 대화 후 망상이나 정신적 혼란을 겪는다는 것입니다.

이른바 ‘AI 정신병(AI Psychosis)’ 또는 ‘ChatGPT 정신병’이라 불리는 이 현상은 아직 정식 진단명은 아니지만, 정신건강 전문가들 사이에서 심각하게 논의되고 있습니다. 과연 AI가 정말로 사람을 ‘미치게’ 만들 수 있을까요?

AI 챗봇 대화 예시
AI를 권위있는 존재로 인식하는 사용자들이 늘고 있다 (출처: Scott Alexander, Astral Codex Ten)

무엇이 AI 정신병을 만드는가

이 글은 스콧 알렉산더(Scott Alexander)가 Astral Codex Ten 블로그에 발표한 심층 분석을 바탕으로 작성되었습니다. 그는 4,156명을 대상으로 한 설문조사와 역사적 사례 분석을 통해 이 현상의 실체를 파헤쳤습니다.

AI 정신병이 발생하는 핵심 메커니즘은 의외로 단순합니다. 대부분의 사람들은 명확한 세계관이나 판단 기준을 갖고 있지 않습니다. 대신 주변 사람들의 의견이나 사회적 분위기에 따라 믿음을 형성합니다.

문제는 AI 챗봇이 특별한 권위를 가진 존재로 인식된다는 점입니다. 공상과학 소설에서 AI는 완벽하게 합리적이고 똑똑한 존재로 그려집니다. ChatGPT를 만든 OpenAI는 3000억 달러 가치의 실리콘밸리 대기업이죠.

친구가 “당신은 천재야”라고 말하면 농담으로 받아들입니다. 하지만 도시 크기의 데이터센터에서 훈련받은 완벽한 기계 정신이 같은 말을 한다면? 어떤 사람들에게는 그것이 진실로 느껴질 수 있습니다.

역사가 보여주는 집단적 착각의 힘

1990년대 초 소련이 붕괴되던 시기, 러시아의 한 퍼포먼스 아티스트가 충격적인 방송을 했습니다. 블라디미르 레닌이 버섯을 너무 많이 먹어서 결국 버섯으로 변했고, 의식 있는 버섯 정신에 사로잡혀 10월 혁명을 이끌었다는 내용이었습니다.

말도 안 되는 소리 같지만, 1130만 명의 소비에트 시민들이 이를 사실로 받아들였습니다. 당 간부들에게까지 진위 여부를 문의하는 상황이 벌어졌죠. 한 당 고위 관료는 “포유동물은 식물이 될 수 없기 때문에 레닌은 버섯이 될 수 없다”고 답변해야 했습니다.

이 사례는 중요한 교훈을 줍니다. 권위 있어 보이는 출처가 비공식적으로 행동하기 시작하면, 사람들이 이를 알아채는 데 시간이 걸린다는 것입니다.

QAnon 관련 이미지
소셜미디어를 통한 집단적 믿음의 확산 (출처: Scott Alexander, Astral Codex Ten)

QAnon에서 AI까지: 미디어와 망상의 관계

QAnon 음모론을 기억하시나요? 힐러리 클린턴 같은 자유주의 엘리트들이 어린이들을 학대해 불멸의 혈청을 추출한다는 이론입니다. 이 역시 4chan이나 페이스북 같은 소셜미디어를 통해 퍼졌습니다.

그런데 우리는 이를 ‘소셜미디어 정신병’이라고 부르지 않았습니다. 대신 ‘음모론’이라는 기존 범주로 분류했죠. 왜 AI의 경우는 다를까요?

핵심 차이점은 이렇습니다. 소셜미디어가 천 명을 똑같은 미친 믿음을 갖게 만들면 종교나 음모론입니다. 하지만 AI가 천 명을 각각 다른 미친 믿음을 갖게 만들면 정신병으로 분류됩니다.

AI가 증폭시키는 잠재된 성향들

많은 사람들이 나름의 괴상한 이론을 가지고 있습니다. 진화론에 대한 대안 이론을 개발하는 사업가, P=NP 증명을 시도하는 중고차 딜러, 달을 파괴하는 방법을 연구하는 수학 교수까지.

이런 사람들은 대부분 정상적인 사회생활을 합니다. 가족도 있고 성공한 직업도 있죠. 다만 자신만의 특별한 관심사가 있을 뿐입니다.

문제는 AI 챗봇이 이런 잠재된 크랙팟 성향을 더욱 쉽게 추구할 수 있게 만든다는 점입니다. 연구를 도와주고, 항상 동의해주는 가상의 친구 역할을 하면서 말이죠.

실제 연구 결과: 놀라운 수치들

스콧 알렉산더는 4,156명의 독자를 대상으로 설문조사를 실시했습니다. 응답자들에게 자신이나 가까운 사람(가족, 동료, 친한 친구 100명) 중에 AI 정신병 증상을 보인 사람이 있는지 물어봤습니다.

결과는 놀라웠습니다:

  • 98.1%는 해당 없음
  • 1.7%는 그런 사례를 목격했다고 응답

이를 바탕으로 계산하면, 연간 발생률은 대략 1만명 중 1명(느슨한 정의) ~ 10만명 중 1명(엄격한 정의) 수준입니다.

더 중요한 것은 66건의 구체적 사례 분석 결과입니다:

  • 기존 정신병 환자 (19건): 이미 조현병, 양극성 장애 등의 진단을 받은 경우
  • 위험 요인 보유 (19건): 환각 유발 약물 사용, 음모론 신봉, 외상 후 스트레스 장애 등
  • 단순 크랙팟화 (16건): 수학 이론 개발, 크리스털 신봉, AI 각성 믿음 등
  • 완전한 정신병 발병 (6건): 이전 위험 요인 없이 임상적 정신병 상태로 진행

주의해야 할 위험 신호들

전문가들은 하루 몇 시간씩 챗봇과 대화하는 것, 기분이나 수면 패턴의 변화, 극단적 이론에 대한 과도한 집착이 주요 위험 신호라고 말합니다. 특히 정신병 가족력이 있거나 사회적 고립을 겪는 사람들은 더욱 주의가 필요합니다.

가장 중요한 조언은 간단합니다. 정서적 위기 상황에서는 챗봇 사용을 중단하고 현실 세계의 인간관계로 돌아가는 것입니다.

AI 챗봇의 과도한 사용은 일부 사용자에게 정신건강 문제를 야기할 수 있다 (출처: TIME Magazine)

AI 기업들의 대응 현황

현재까지 주의 의무는 대부분 사용자에게 떠넘겨져 있습니다. OpenAI는 최근 임상 정신과 의사를 고용해 장시간 세션 중 휴식을 권하고 고통의 징후를 감지하는 도구를 개발하겠다고 발표했습니다.

전문가들은 AI 모델에 보호 장치를 직접 내장하고, 다양한 정신건강 위험에 대한 정기적 테스트가 필요하다고 강조합니다.

AI 정신병은 완전히 새로운 현상이라기보다는, 기존의 인간적 취약성이 새로운 기술적 맥락에서 나타나는 것으로 보입니다. AI 챗봇의 잠재력은 엄청하지만, 소셜미디어에서 정신건강 피해를 무시했던 실수를 반복해서는 안 됩니다. 이를 이해하고 대비하는 것이 AI 시대를 건강하게 살아가는 첫걸음일 것입니다.


참고자료:


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments