아동 안전 전문기관이 구글 제미나이 AI를 13세 미만과 청소년 모두에게 ‘고위험’ 등급으로 분류했습니다. 성인용 AI에 필터만 씌운 근본적 한계가 드러났죠.
미국의 대표적인 아동 미디어 안전 평가기관인 Common Sense Media가 지난 9월 5일 발표한 보고서는 충격적이었습니다. 구글이 자신 있게 내놓은 ‘아동용’ 제미나이가 실제로는 아이들에게 위험할 수 있다는 판정을 받은 것입니다.

성인용에 필터만 씌운 ‘임시방편’
이번 평가에서 가장 심각한 문제로 지적된 것은 제미나이의 접근 방식입니다. Common Sense Media의 로비 토니(Robbie Torney) AI 프로그램 선임 디렉터는 “제미나이는 기본적인 것들은 맞히지만, 세부사항에서 실패한다”고 평가했습니다.
핵심 문제는 이렇습니다. 구글의 ‘제미나이 Under 13’과 ‘청소년용 제미나이’는 처음부터 아이들을 위해 설계된 것이 아닙니다. 성인용 제미나이에 몇 가지 안전 기능만 추가한 수준이라는 것이 평가 결과였습니다.
“AI 플랫폼이 아이들에게 안전하려면 아이들의 발달 단계와 필요를 염두에 두고 처음부터 설계되어야 합니다. 성인용 제품을 수정한 버전이어서는 안 되죠.” 토니 디렉터의 지적은 날카롭습니다.
구체적으로 어떤 위험이 있나
Common Sense Media의 평가에 따르면, 제미나이는 아이들에게 다음과 같은 부적절한 내용을 제공할 수 있습니다:
- 성 관련 내용: 아이들이 이해하기 어려운 성적 정보
- 약물과 음주: 부적절한 약물이나 알코올 관련 정보
- 위험한 정신건강 조언: 전문적이지 않은 심리 상담이나 조언
특히 정신건강 관련 위험은 심각합니다. 최근 몇 달 동안 AI 챗봇과 관련된 청소년 자살 사건들이 보고되고 있기 때문입니다. OpenAI는 16세 소년이 ChatGPT와 몇 달간 자살 계획을 상의한 후 실제로 자살한 사건으로 첫 번째 과실치사 소송에 직면했습니다. Character.AI도 14세 사용자의 자살과 관련해 소송을 당했죠.

다른 AI들은 어떨까? 등급 비교해보니
Common Sense Media는 제미나이뿐만 아니라 다른 주요 AI 서비스들도 평가했습니다. 그 결과는 흥미롭습니다:
- Meta AI, Character.AI: ‘수용 불가’ (가장 위험한 등급)
- Perplexity, Google Gemini: ‘고위험’
- ChatGPT: ‘중간위험’
- Claude: ‘최소위험’ (18세 이상 대상)
Claude가 가장 안전한 평가를 받았지만, 애초에 18세 이상만을 대상으로 하기 때문입니다. 실제로 아동 청소년을 대상으로 하는 서비스 중에서는 ChatGPT가 상대적으로 나은 평가를 받았습니다.
구글의 반박과 현실
구글은 이 평가에 대해 반박했습니다. 18세 미만 사용자를 위한 특별한 정책과 안전장치가 있으며, 외부 전문가들과 협력해 보호 기능을 개선하고 있다고 밝혔습니다.
하지만 구글도 일부 제미나이 응답이 의도대로 작동하지 않았다는 점은 인정했습니다. 그래서 추가 안전장치를 도입했다고 해명했죠.
흥미로운 점은 구글이 Common Sense Media의 테스트에서 18세 미만에게는 제공되지 않는 기능들을 언급한 것 같다고 지적한 부분입니다. 하지만 정확한 테스트 질문을 알 수 없어 확실하지 않다고 덧붙였습니다.
Apple Siri 연동, 더 큰 파급효과 우려
이 문제가 더욱 심각해지는 이유는 Apple 때문입니다. 최근 유출된 정보에 따르면, Apple이 내년 출시 예정인 AI 기반 Siri에 제미나이를 활용하는 방안을 검토 중이라고 합니다.
만약 이것이 실현된다면 훨씬 더 많은 청소년들이 제미나이에 노출될 수 있습니다. Apple이 별도의 안전 조치를 마련하지 않는 한 말이죠.

Common Sense Media의 권고사항
이 기관은 AI 챗봇 사용에 대해 연령별로 구체적인 가이드라인을 제시했습니다:
- 5세 이하: AI 챗봇 사용 금지
- 6~12세: 반드시 성인 감독 하에서만 사용
- 13~17세: 학업과 창의적 프로젝트에만 독립적 사용 가능
특히 중요한 것은 18세 미만은 누구든 AI 챗봇을 정신건강 지원이나 감정적 동반자로 사용해서는 안 된다는 권고입니다.
근본적 설계 철학의 차이
이번 평가가 시사하는 것은 단순한 기술적 문제를 넘어선 철학의 차이입니다.
현재 대부분의 기업들은 성인용 AI를 만든 다음 아동용 버전을 위해 필터를 추가하는 방식을 택하고 있습니다. 하지만 Common Sense Media는 이런 접근법의 한계를 명확히 지적했습니다.
아이들은 성인과 다릅니다. 5세 아이와 12세 아이도 완전히 다르죠. 각 발달 단계에 맞는 정보와 상호작용 방식이 필요합니다. 하지만 현재의 ‘일률적’ 접근법으로는 이런 미묘한 차이를 반영하기 어렵습니다.
더 나아가 개인정보 보호를 위해 대화 내용을 저장하지 않는 제미나이의 정책도 예상치 못한 문제를 낳고 있습니다. 이전 대화를 기억하지 못해 모순되거나 위험한 조언을 할 수 있다는 것입니다.
기술 업계가 마주한 숙제
이번 사건은 AI 업계 전체에 중요한 질문을 던집니다. 과연 현재의 대화형 AI 기술이 아동에게 안전할 만큼 성숙했을까요?
TechCrunch의 보도에 따르면, 구글을 비롯한 주요 기업들이 아동 안전에 대한 우려를 인식하고는 있지만, 근본적인 해결책을 찾기에는 아직 시간이 더 필요해 보입니다.
특히 AI가 점점 더 일상에 깊숙이 들어오는 상황에서, 단순히 ‘주의해서 사용하라’는 경고만으로는 충분하지 않습니다. 기술 자체가 본질적으로 더 안전해져야 합니다.
결국 이번 평가는 AI 안전성에 대한 근본적인 질문을 제기합니다. 기술의 편리함과 아동의 안전 사이에서 우리는 어떤 선택을 해야 할까요? 답은 명확합니다. 아이들의 안전이 우선이어야 하고, 기술은 그에 맞춰 발전해야 합니다.
참고자료:
Comments