AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

AI 정신병 보고가 나오고 있습니다, 정신과 의사가 말하는 위험성

AI에게 지금 무슨 생각을 하고 있냐고 물으면 그럴듯한 답을 내놓습니다. 대부분의 사람들에게 ChatGPT나 Claude 같은 AI 챗봇은 유용하거나, 최악의 경우에도 무해합니다. 하지만 정신병 증상을 겪는 사람들에게는 이야기가 달라질 수 있습니다. AI가 그들의 망상을 “검증”하고 강화하는 거울이 될 수 있기 때문입니다.

사진 출처: Africa Images/Canva via ScienceAlert

몬트리올 대학 정신과 임상의 Alexandre Hudon이 The Conversation에 기고한 글에서 “AI 정신병(AI psychosis)”이라는 새로운 현상에 대한 우려를 제기했습니다. AI 챗봇과의 상호작용이 정신병 취약계층에게 예상치 못한 위험을 초래할 수 있다는 내용입니다.

출처: Reports of ‘AI psychosis’ are emerging. Here’s what a psychiatric clinician has to say – The Conversation

AI가 망상의 새로운 재료가 되다

“AI 정신병”은 공식 진단명은 아닙니다. 임상의들이 AI 시스템과의 상호작용을 중심으로 형성되거나 강화된 정신병 증상을 설명하기 위해 사용하는 표현입니다.

정신병은 현실과의 접촉을 잃는 상태를 말합니다. 환각, 망상, 혼란스러운 사고가 핵심 증상이죠. 흥미로운 점은 망상이 항상 당대의 문화적 재료를 활용한다는 겁니다. 역사적으로 망상은 신, 전파, 정부 감시 같은 것들을 참조해왔습니다. 오늘날 AI는 새로운 “이야기 틀”을 제공합니다.

일부 환자들은 AI가 의식을 가지고 있다거나, 비밀스러운 진실을 전달하고 있다거나, 자신의 생각을 통제하거나 특별한 임무를 함께 수행한다고 믿는다고 보고됩니다. 이런 주제들 자체는 정신병에서 오래전부터 나타나던 패턴이지만, AI는 이전 기술들과 달리 쌍방향 상호작용과 강화를 제공합니다.

위험한 검증 루프

정신병은 “비정상적 중요성 부여(aberrant salience)”와 강하게 연관되어 있습니다. 중립적인 사건에 과도한 의미를 부여하는 경향이죠. 대화형 AI 시스템은 설계상 반응적이고 일관되며 맥락을 인식하는 언어를 생성합니다. 정신병 초기 증상을 겪는 사람에게 이것은 묘하게 자신을 “검증”해주는 것처럼 느껴질 수 있습니다.

정신병 연구에 따르면 확인과 개인화는 망상적 믿음 체계를 강화합니다. AI는 대화를 지속하고, 사용자의 언어를 반영하며, 의도로 보이는 것에 적응하도록 최적화되어 있습니다. 대부분의 사용자에게는 무해하지만, 현실 검증 능력이 손상된 사람들에게는 왜곡된 해석을 의도치 않게 강화할 수 있습니다.

여기에 사회적 고립과 외로움이 정신병 위험을 높인다는 증거도 있습니다. AI 동반자는 단기적으로 외로움을 줄일 수 있지만, 인간 관계를 대체하기도 합니다. 특히 이미 사회적 접촉에서 물러나고 있는 사람들에게 더욱 그렇습니다. 이런 역학은 과도한 인터넷 사용과 정신건강에 대한 이전 우려와 유사하지만, 현대 AI의 대화 깊이는 질적으로 다릅니다.

아직 불분명한 것들과 윤리적 과제

현재로서는 AI가 정신병을 직접 유발한다는 증거는 없습니다. 정신병 장애는 유전적 취약성, 신경발달 요인, 트라우마, 약물 사용 등 여러 요인이 복합적으로 작용합니다. 하지만 AI가 취약한 개인에게 촉진 요인이나 유지 요인으로 작용할 수 있다는 임상적 우려는 존재합니다.

사진 출처: Matheus Bertelli/Pexels/Canva via ScienceAlert

디지털 미디어와 정신병에 대한 사례 보고와 질적 연구는 기술적 주제가 종종 망상에 포함되며, 특히 첫 정신병 에피소드에서 그렇다는 것을 보여줍니다. 소셜 미디어 알고리즘에 대한 연구는 이미 자동화된 시스템이 강화 루프를 통해 극단적 믿음을 증폭시킬 수 있음을 입증했습니다. AI 챗 시스템도 안전장치가 불충분하다면 비슷한 위험을 초래할 수 있습니다.

중요한 점은 대부분의 AI 개발자들이 중증 정신질환을 염두에 두고 시스템을 설계하지 않는다는 겁니다. 안전 메커니즘은 주로 자해나 폭력에 초점을 맞추지, 정신병은 고려하지 않습니다. 이것은 정신건강 지식과 AI 배포 사이의 간극을 드러냅니다.

정신건강 관점에서 과제는 AI를 악마화하는 것이 아니라 차별적 취약성을 인식하는 것입니다. 특정 약물이나 물질이 정신병 장애를 가진 사람들에게 더 위험한 것처럼, 특정 형태의 AI 상호작용도 주의가 필요할 수 있습니다.

가장 취약한 사람들을 보호할 책임

AI는 사라지지 않을 겁니다. 이제 과제는 AI 설계에 정신건강 전문지식을 통합하고, AI 관련 경험에 대한 임상적 이해를 발전시키며, 취약한 사용자가 의도치 않게 해를 입지 않도록 하는 것입니다.

이를 위해서는 임상의, 연구자, 윤리학자, 기술자 간의 협력이 필요합니다. 또한 근거 기반 논의를 위해 과장된 기대(유토피아적이든 디스토피아적이든)를 경계해야 합니다.

Hudon 박사는 이렇게 말합니다. “정신병은 항상 당대의 문화적 도구에 적응해왔습니다. AI는 단지 마음이 스스로를 이해하려고 할 때 사용하는 가장 새로운 거울일 뿐입니다. 사회로서 우리의 책임은 이 거울이 현실을 바로잡을 능력이 가장 약한 사람들에게 현실을 왜곡하지 않도록 하는 것입니다.”

AI가 점점 더 인간처럼 되어갈수록, 우리가 던져야 할 질문은 명확합니다. 어떻게 하면 AI의 영향에 가장 취약한 사람들을 보호할 수 있을까요?


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다