AI 검색이 편리하다고 해서 모든 질문에 믿을 수 있는 답을 준다는 뜻은 아닙니다. 특히 생명과 직결된 의료 정보에서는 더욱 그렇습니다.

영국 가디언(The Guardian)의 조사 보도로 Google AI Overviews가 건강 관련 검색에서 위험할 정도로 잘못된 정보를 제공한다는 사실이 드러났습니다. Google은 일부 검색어에 대한 AI 요약 기능을 중단했지만, 전문가들은 이것이 근본적인 해결책이 아니라고 지적합니다.
출처: Google removes AI Overviews for certain medical queries – TechCrunch
정반대 조언으로 환자를 위험에 빠뜨리다
가디언이 발견한 사례 중 가장 심각한 것은 췌장암 환자에 대한 조언이었습니다. Google AI Overviews는 췌장암 환자에게 고지방 식품을 피하라고 권장했는데, 전문가들은 이를 “정말 위험하다(really dangerous)”고 평가했습니다. 췌장암 환자에게는 오히려 고지방 식품이 필요한 경우가 많기 때문이죠. 잘못된 조언을 따를 경우 사망 위험이 높아질 수 있습니다.
또 다른 “경악스러운(alarming)” 사례는 간 기능 검사에 관한 것이었어요. “간 혈액 검사의 정상 범위는?”이라는 질문에 AI는 국적, 성별, 인종, 나이 등을 고려하지 않은 단일 수치를 제시했습니다. 이런 정보는 심각한 간 질환이 있는 사람이 자신이 건강하다고 착각하게 만들 수 있습니다.
왜 이런 일이 벌어졌을까
AI Overviews의 문제는 설계 방식 자체에 있습니다. Google은 검색 순위가 높은 웹페이지들을 가져와 AI가 요약하게 만들었어요. 상위에 랭크된 페이지는 정확한 정보를 담고 있을 거라는 가정이 깔려 있죠.
하지만 Google의 페이지 랭킹 알고리즘은 오랫동안 SEO 조작 콘텐츠와 스팸에 취약했습니다. 신뢰할 수 없는 정보가 상위에 올라가면, AI는 그걸 그대로 요약해서 권위 있는 톤으로 제시합니다. 설령 정확한 출처에서 가져온 정보라 해도, 언어 모델이 잘못된 결론을 도출할 수 있어요.
결국 AI Overviews는 사실 자체를 검증하는 게 아니라, Google 알고리즘이 높게 평가한 웹사이트의 내용을 반영할 뿐입니다. 문제는 그 내용을 마치 확실한 사실인 것처럼 포장한다는 거죠.
Google의 대응, 그리고 남은 문제
가디언의 보도 직후 Google은 “간 혈액 검사 정상 범위”와 같은 특정 검색어에서 AI Overviews를 제거했습니다. 하지만 약간만 다르게 표현하면(“lft reference range” 같은 약어 사용) 여전히 AI 요약이 나타났어요.
Google 대변인은 “내부 임상의 팀이 검토한 결과 많은 경우 정보가 부정확하지 않았고 고품질 웹사이트가 뒷받침했다”고 밝혔습니다. 하지만 영국 간 신탁(British Liver Trust)의 바네사 헵디치(Vanessa Hebditch) 이사는 “개별 검색 결과만 끄는 것은 AI Overviews가 건강 정보에서 갖는 더 큰 문제를 해결하지 못한다”고 지적했습니다.
실제로 AI Overviews는 이전에도 피자에 풀을 붙이라거나 돌을 먹으라는 조언을 한 적이 있어요. 하지만 이번 의료 정보 오류는 단순히 우스운 실수가 아닙니다. 잘못 믿으면 생명을 잃을 수도 있으니까요.
의료 정보와 AI 검색
이번 사건은 AI 검색이 모든 분야에서 똑같이 신뢰할 만한 건 아니라는 걸 보여줍니다. 특히 건강과 생명에 관련된 질문이라면 AI가 제시하는 요약을 맹신하지 말고, 반드시 전문의와 상담하거나 공신력 있는 의료 기관의 정보를 직접 확인해야 합니다.
Google은 AI Overviews가 “높은 확신이 있을 때만” 표시된다고 하지만, 이번 사례는 그 확신이 얼마나 위험할 수 있는지를 보여줬습니다. AI는 강력한 도구이지만, 아직 우리 건강을 맡기기엔 충분히 신뢰할 수 없습니다.
참고자료:

답글 남기기