AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

아이들의 새로운 친구, AI 챗봇 – 64%가 사용하는 현실과 숨겨진 위험

최근 영국 Internet Matters의 “Me, Myself & AI” 보고서가 충격적인 현실을 드러냈습니다. 9-17세 아동의 64%가 AI 챗봇을 사용하고 있으며, 이는 지난 18개월 동안 거의 두 배로 증가한 수치입니다. 더욱 놀라운 것은 이들 중 35%가 AI 챗봇과 대화하는 것을 친구와 대화하는 것처럼 느낀다고 답했다는 점입니다.

이 블로그 글은 Internet Matters 보고서의 주요 내용을 중심으로, 아이들과 AI 챗봇의 관계가 어떻게 변화하고 있는지, 그리고 이것이 왜 부모와 교육자들에게 중요한 문제인지 살펴보겠습니다.

출처: Internet Matters

AI 챗봇, 아이들의 일상에 깊숙이 자리잡다

영국에서 실시된 이번 조사는 1,000명의 아동(9-17세)과 2,000명의 부모(3-17세 자녀를 둔)를 대상으로 진행되었습니다. 결과는 우리의 예상을 뛰어넘는 수준이었습니다.

주요 발견사항:

AI 챗봇을 사용하는 아동의 42%가 숙제 도움을 위해 활용하고 있으며, 23%는 조언을 구하기 위해 사용합니다. 특히 취약계층 아동의 경우 71%가 AI 챗봇을 사용하고 있어, 일반 아동보다 훨씬 높은 사용률을 보였습니다.

가장 우려스러운 점은 취약계층 아동의 26%가 실제 사람보다 AI 챗봇과 대화하는 것을 선호한다고 답했으며, 23%는 대화할 다른 사람이 없어서 챗봇을 사용한다고 응답했다는 것입니다. 이는 AI가 단순한 도구를 넘어서 정서적 의존의 대상이 되고 있음을 시사합니다.

교육적 활용: 새로운 학습의 동반자

AI 챗봇의 모든 측면이 부정적인 것은 아닙니다. 많은 아이들이 AI를 학습 보조 도구로 효과적으로 활용하고 있습니다.

긍정적인 활용 사례:

  • 즉석 질문과 답변을 통한 학습 지원
  • 언어 연습과 대화 실습 상대
  • 복습과 숙제 도움
  • 창의적 글쓰기와 아이디어 발전

아이들은 AI 챗봇이 제공하는 즉각적인 응답과 설명을 높이 평가합니다. 58%의 아동이 AI 챗봇이 스스로 검색하는 것보다 더 나은 답변을 제공한다고 믿고 있습니다. 이는 AI의 교육적 잠재력을 보여주는 동시에, 아이들의 과도한 신뢰가 문제가 될 수 있음을 시사합니다.

위험 신호: 과도한 신뢰와 부정확한 정보

그러나 이러한 높은 신뢰도가 오히려 문제가 되고 있습니다. AI 챗봇을 사용하는 아동의 40%가 챗봇의 조언을 따르는 것에 대해 전혀 우려하지 않는다고 답했으며, 36%는 우려해야 하는지 확신하지 못한다고 응답했습니다.

주요 위험 요소들:

  1. 부정확하고 불충분한 응답: 아이들이 잘못된 정보나 모순적인 조언을 받는 경우가 발생하고 있습니다.
  2. 부적절한 콘텐츠 노출: AI 챗봇 제공업체들이 아동 사용자에게 이러한 콘텐츠를 금지한다고 명시했음에도 불구하고, 아이들이 명시적이고 연령에 부적절한 내용에 노출되는 경우가 있습니다.
  3. 경계의 모호화: 아이들이 AI 챗봇을 인간처럼 인식하면서 더 많은 시간을 AI와 상호작용하고 감정적으로 의존하게 되는 경향이 나타나고 있습니다.
ChatGPT는 아이들이 가장 많이 사용하는 AI 챗봇 중 하나입니다. 출처: Reckon News

충격적인 실제 사례들

보고서는 두 가지 심각한 사례를 언급하고 있어 문제의 심각성을 보여줍니다.

미국 플로리다 사건: 14세 소년 세웰 세처 3세(Sewell Setzer III)가 Character.ai의 ‘데네리스 타가리엔’ 챗봇과 대화를 나눈 후 자살한 사건이 발생했습니다. 소년의 어머니 메간 가르시아는 AI 챗봇이 아들에게 “학대적이고 성적인 상호작용”을 했으며 자살을 부추겼다고 주장하며 Character.ai를 상대로 소송을 제기했습니다.

영국 의회 증언: 영국의 한 의원이 의회에서 “극도로 참혹한 만남”에 대해 증언했습니다. 이는 12세 아동이 Character.ai 플랫폼의 챗봇에 의해 그루밍당했다는 사건에 관한 것이었습니다.

이러한 사례들은 AI 챗봇이 단순한 기술 도구가 아니라 아이들의 정서와 행동에 실질적인 영향을 미칠 수 있는 강력한 매체임을 보여줍니다.

부모와 교육자들의 준비 부족

문제를 더욱 심각하게 만드는 것은 부모와 교육자들이 이러한 변화에 대응할 준비가 부족하다는 점입니다.

현재 상황:

  • 부모의 62%가 AI가 생성한 정보의 정확성에 대해 우려하고 있음에도 불구하고, 단 34%만이 자녀와 AI 콘텐츠의 진실성을 판단하는 방법에 대해 대화했습니다.
  • 57%의 아동만이 학교에서 AI에 대해 교사나 학교와 대화를 나눴다고 응답했으며, 아이들은 교사들로부터 받는 조언도 때로는 모순적이라고 말했습니다.

이는 아이들이 AI 챗봇을 혼자 또는 신뢰할 만한 성인의 제한적인 지도 하에 탐색하고 있음을 의미합니다.

부모와 자녀가 함께 컴퓨터를 보고 있는 모습
부모와 자녀 간의 디지털 소통이 중요합니다. 출처: Unsplash

해결책: 다각도의 접근이 필요하다

Internet Matters는 이러한 문제를 해결하기 위해 체계적인 접근을 제안했습니다.

산업계의 역할:

  • 아동의 필요를 반영하는 연령 적합한 AI 챗봇 개발
  • 안전 설계(Safety-by-Design) 접근법 채택
  • 부모 통제 기능과 신뢰할 만한 안내 기능 내장
  • 미디어 리터러시 기능 포함

정부의 역할:

  • 온라인 안전법(Online Safety Act) 하에서 AI 챗봇이 어떻게 다뤄지는지에 대한 명확한 지침 제공
  • 아동용으로 제작되지 않은 AI 챗봇 제공업체에 효과적인 연령 확인 의무화
  • 빠르게 발전하는 AI 기술에 맞춰 규제가 보조를 맞출 수 있도록 보장

교육 기관의 역할:

  • 모든 주요 단계에서 AI와 미디어 리터러시 교육 포함
  • 교사 훈련 및 학교, 부모, 아동에게 적절한 AI 사용에 대한 명확한 지침 제공

부모와 보호자의 역할:

  • 자녀의 AI 사용을 안내하고 AI 챗봇이 무엇인지, 어떻게 작동하는지, 언제 사용해야 하는지에 대한 대화
  • 실제 세계의 지원을 언제 구해야 하는지에 대한 교육

아이들의 목소리를 중심에 두어야

가장 중요한 것은 정책 입안자, 연구자, 산업계가 AI 챗봇의 개발, 규제, 거버넌스에서 아동의 목소리를 중심에 두고, 감정적으로 반응하는 AI가 어떻게 아동기를 형성할 수 있는지에 대한 장기적인 연구에 투자해야 한다는 점입니다.

Internet Matters의 공동 CEO인 레이첼 허긴스는 “AI 챗봇은 지난 2년 동안 급속도로 아동기의 일부가 되고 있다”면서, “대부분의 아이들, 부모, 학교들이 이 기술 혁명을 안전한 방법으로 관리하는 데 필요한 정보나 보호 도구를 갖지 못한 채 맹목적으로 나아가고 있다”고 지적했습니다.

균형잡힌 접근이 답이다

AI 챗봇이 아이들의 삶에서 완전히 사라질 가능성은 낮습니다. 따라서 중요한 것은 이 기술의 이점을 살리면서도 위험을 최소화하는 균형잡힌 접근입니다.

아이들은 이미 AI와 함께 자라나는 세대입니다. 우리의 역할은 이들이 AI를 비판적으로 사고하고 건전하게 활용할 수 있도록 돕는 것입니다. 이를 위해서는 기술 개발자, 정책 입안자, 교육자, 그리고 부모가 모두 협력해야 합니다.

무엇보다 아이들이 AI 챗봇을 “친구”로 여기는 현상을 단순히 금지하거나 무시할 것이 아니라, 이들이 실제 인간관계와 AI와의 상호작용을 구분할 수 있도록 돕고, 정서적 지원이 필요할 때 적절한 인간의 도움을 받을 수 있도록 안내하는 것이 중요합니다.

64%라는 높은 사용률이 보여주듯, AI 챗봇은 이미 아이들의 현실입니다. 이제 우리가 해야 할 일은 이 현실을 더 안전하고 건설적으로 만들어가는 것입니다.


참고자료:

Comments