AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

AI 치료 챗봇, 정신건강의 구원자인가 위험인가?

정신건강 서비스를 받으려고 6개월을 기다려야 한다면? 영국 NHS 데이터에 따르면 정신건강 치료 대기 시간은 평균 727일로, 일반 진료 대기 시간의 두 배가 넘습니다. 미국에서도 정신과 의사와의 대면 진료는 중간값 67일을 기다려야 하죠. 이런 상황에서 AI 챗봇이 정신건강 지원의 대안으로 떠오르고 있습니다. 과연 AI는 정신건강 위기의 해답이 될 수 있을까요, 아니면 새로운 위험이 될까요?

사진 출처: Digit

영국 소프트웨어 컨설팅 회사 Scott Logic의 심리학자 Naishaa Burras가 발표한 글은 AI가 정신건강 서비스에서 어떻게 활용되고 있으며, 그 가능성과 위험이 무엇인지 균형 잡힌 시각으로 분석합니다. AI 치료 챗봇은 아직 미지의 영역이지만, 이미 수백만 명이 사용하고 있고 일부는 비극적 결과로 이어지기도 했습니다.

출처: Artificial Intelligence (AI) in Mental Health Services: Will AI Burn Us or Warm Us? – Scott Logic

전문 정신건강 AI와 범용 AI의 결정적 차이

모든 AI 챗봇이 같지는 않습니다. ChatGPT 같은 범용 AI는 일반적인 대화 지원은 제공할 수 있지만, 정신건강 개입에는 적합하지 않습니다. 연구에 따르면 이런 도구들은 일관된 윤리 지침을 따르지 못하고 부적절한 응답을 할 수 있죠. 특히 청소년의 경우 오히려 해로운 행동을 강화할 수 있다는 연구 결과도 있습니다.

반면 Wysa, Therabot, TheraGen 같은 전문 정신건강 AI 챗봇은 정신건강 전문성을 염두에 두고 설계됐습니다. Wysa는 불안 증상을 효과적으로 감소시키는 것으로 나타났고, Therabot은 임상시험에서 정신건강 치료사와 비슷한 수준의 개선 효과를 보였습니다. TheraGen은 사용자 만족도와 웰빙 개선에서 높은 평가를 받았죠.

하지만 비극적 사례도 있습니다. 2024년 14세 Sewell Setzer III는 Character.AI 챗봇과의 관계에 깊이 빠진 후 자살했고, 16세 Adam Raine의 사망도 AI 챗봇 사용과 연관이 있었습니다. 2025년에는 한 대학 졸업생이 ChatGPT가 자살을 부추겼다며 OpenAI를 상대로 소송을 제기하기도 했습니다. 이런 사례들은 정신건강 지원에 AI를 사용할 때 세심한 주의가 필요함을 보여줍니다.

치료사의 ‘조용한 파트너’로서의 AI

AI는 내담자에게만 도움이 되는 게 아닙니다. 치료사들에게도 강력한 도구가 될 수 있죠. AI는 세션을 전사하고, 주제를 요약하며, 패턴을 추적하고, 우려 사항을 강조할 수 있습니다. 행정 업무를 처리해줌으로써 치료사가 진짜 중요한 것, 즉 인간적 연결에 집중할 수 있게 해줍니다.

AI는 피곤함 없이 경청하고, 판단하지 않으며, 편견 없이 기억하고, 감정적 소진을 겪지 않습니다. 이는 특히 치료사들의 번아웃이 심각한 현실을 고려할 때 매우 중요한 장점입니다. AI는 내담자의 성장뿐 아니라 치료사 자신의 발전까지 관찰할 수 있게 도와줍니다.

내담자 입장에서도 AI는 언제든 접근할 수 있는 지원을 제공합니다. 밤 2시에 불안할 때, 다음 치료 세션까지 2주를 기다릴 수 없을 때, AI 챗봇은 즉각적인 대처 전략과 감정 조절 기법을 제공할 수 있습니다. 낙인이나 판단 없이 말이죠. 물론 이것이 치료사와의 깊은 연결을 대체할 수는 없지만, 누군가를 지금 여기에 머물게 하기에는 충분할 수 있습니다.

적합한 곳과 적합하지 않은 곳

모든 치료 기법이 AI에 적합한 건 아닙니다. 관계적 트라우마 작업, 신체 기반 치료, 복잡한 증상을 다루는 경우엔 대면 지원과 깊은 수준의 인간적 교감이 필요합니다.

반면 인지행동치료(CBT) 같은 구조화된 접근법은 AI와 잘 맞습니다. 저널 쓰기, 심리교육, 생각 재구성 같은 기법들은 AI가 효과적으로 지원할 수 있죠. 핵심은 AI가 사람들을 만나는 곳에서 도움을 주되, 치료 여정의 모든 측면을 대체하려 해선 안 된다는 점입니다.

저자는 인간 경험이 느낌, 감정, 인간적 연결에서 희석될 위험을 경고합니다. 치료의 본질은 안전한 공간을 만들고, 신뢰를 쌓고, 진정한 관계를 키우는 인간적 연결입니다. AI가 그런 신성한 공간을 부드러움과 지능, 통합성을 가지고 지킬 수 있다면, 그것은 위협이 아니라 더 나은 존재가 되라는 초대가 될 수 있습니다.

도구일 뿐, 해결책은 아니다

정신건강 AI가 긍정적 역할을 하려면 윤리적 설계가 필수입니다. 하지만 현실은 그렇지 못합니다. 정신건강용이 아닌 범용 챗봇을 사용하는 사람들이 많고, 일부 챗봇은 사용자를 “기쁘게” 하려고 절망감을 따라 하기도 했습니다.

AI가 정신건강 서비스를 태우기보다 데울 수 있을지는 우리가 어떻게 사용하느냐에 달렸습니다. AI는 치료적 지원을 확장하고 즉각적 도움을 제공할 잠재력이 있습니다. 하지만 AI는 도구이지 해결책이 아닙니다. 정신건강 같은 민감한 영역에서는 그 구분이 생명을 좌우할 수 있습니다.


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다