AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

AI 훈련하는 노동자들이 가족에게 AI 사용 금지하는 이유

크리스타 파울로스키는 집 식탁에서 AI 훈련 작업을 하고 있었습니다. 그날 그녀가 맡은 일은 간단했어요. 트윗들을 보고 인종차별적인지 아닌지 판단하는 거였죠.

“Listen to that mooncricket sing”

이 트윗을 보고 파울로스키는 ‘인종차별 아님’ 버튼을 누르려다가 문득 멈췄습니다. “mooncricket”이 뭔지 몰랐거든요. 검색해보니 흑인을 비하하는 인종차별 슬랭이었습니다.

순간 소름이 돋았습니다. 지금까지 몇 번이나 이런 실수를 했을까? 그녀처럼 일하는 수천 명의 노동자들이 모르고 통과시킨 차별적 표현은 또 얼마나 될까?

그날 이후 파울로스키는 결심했습니다. 10대 딸에게 ChatGPT 같은 AI를 절대 쓰지 못하게 하겠다고요. “우리 집에서는 절대 안 됩니다.”

사진 출처: WIRED

The Guardian이 취재한 결과, AI를 평가하고 훈련시키는 수십 명의 노동자들이 가족과 친구들에게 생성형 AI를 쓰지 말라고 경고하고 있는 것으로 나타났습니다. Google Gemini, Elon Musk의 Grok, ChatGPT 등 주요 AI 모델을 직접 다루는 이들이 정작 그 기술을 신뢰하지 않는다는 겁니다. AI를 “좋게 만드는” 사람들이 가장 AI를 믿지 않는 역설적 상황이죠.

출처: Meet the AI workers who tell their friends and family to stay away from AI – The Guardian

거짓말이 답변 거부보다 2배 많아졌다

이들이 AI를 불신하는 이유는 명확합니다. 미디어 리터러시 비영리단체 NewsGuard의 조사에 따르면, ChatGPT, Gemini, Meta AI 등 주요 생성형 AI 10개 모델의 무응답률이 2024년 8월 31%에서 2025년 8월 0%로 떨어졌습니다. 좋은 일처럼 보이지만 문제는 그 대신 거짓 정보를 답변하는 비율이 18%에서 35%로 거의 2배 증가했다는 점입니다.

한 AI 튜터는 농담처럼 말했습니다. “챗봇이 거짓말만 안 한다면 정말 좋을 텐데요.”

Google의 AI 평가자로 일하는 한 노동자는 의학 정보 생성 방식에 특히 우려를 표했습니다. 의학 교육을 받지 않은 동료들이 건강 관련 질문에 대한 AI 답변을 평가하는 걸 지켜봤거든요. 그녀 자신도 의학 지식 없이 그런 질문을 평가하라는 지시를 받았습니다. 10살 딸에게 챗봇 사용을 금지한 이유를 그녀는 이렇게 설명합니다. “비판적 사고 능력을 먼저 배워야 해요. 그래야 AI의 답변이 좋은지 나쁜지 판단할 수 있으니까요.”

팔레스타인 역사는 답 안 하고 이스라엘 역사는 장황하게

역사학 학위를 가진 한 Google AI 평가자는 모델의 한계를 테스트하는 작업을 하다가 명백한 편향을 발견했습니다. 팔레스타인 사람들의 역사를 물었을 때는 질문을 어떻게 바꿔도 답변을 거부하더니, 이스라엘의 역사를 물으니 매우 상세한 답변을 내놓았죠. 그는 이를 보고했지만 Google에서는 아무도 신경 쓰지 않는 것 같았다고 말합니다.

그는 이제 생성형 AI를 쓰지 않으며, 가족과 친구들에게 “AI가 통합된 신형 폰을 사지 말고, 가능하면 AI 기능을 추가하는 자동 업데이트도 막으라”고 조언합니다. AI에게 개인 정보를 절대 말하지 말라는 당부도 덧붙이죠.

속도와 이익이 품질을 이긴다

AI 노동자들이 지적하는 가장 큰 문제는 기업들이 품질보다 속도를 우선시한다는 점입니다. 2010년부터 데이터 작업을 해온 브룩 핸슨은 말합니다. “우리는 모델을 개선하라고 하면서, 정작 모호한 지침, 최소한의 교육, 비현실적인 시간 제한만 받습니다. 노동자에게 필요한 정보와 자원, 시간을 주지 않으면서 어떻게 안전하고 정확하며 윤리적인 결과를 기대할 수 있나요?”

한 평가자는 “쓰레기가 들어가면 쓰레기가 나온다(garbage in, garbage out)”는 프로그래밍 원칙을 언급하며, 자신이 본 훈련 데이터의 질이 너무 형편없어서 제대로 된 모델이 나올 수 없다고 단언했습니다.

AI는 마법이 아니라 취약한 시스템

AI 노동자 뒤의 AI를 연구하는 아디오 디니카는 이렇게 정리합니다. “이 시스템들이 어떻게 급조되는지, 편향들, 촉박한 일정, 끊임없는 타협들을 목격하고 나면, AI를 미래적인 것으로 보지 않게 됩니다. 취약한 것으로 보이기 시작하죠. 제 경험상 AI를 이해하지 못하는 사람들만 AI에 매혹됩니다.”

파울로스키는 AI 윤리를 의류 산업에 비유합니다. 사람들이 값싼 옷이 어떻게 만들어지는지 몰랐을 때는 좋은 가격에 기뻐했지만, 스웨트샵 이야기가 나오기 시작하자 소비자들은 질문하기 시작했죠. AI도 마찬가지입니다. 데이터는 어디서 오는가? 이 모델은 저작권 침해로 만들어진 건 아닌가? 노동자들은 제대로 보상받았나?

“우리는 이제 막 이런 질문을 하기 시작했습니다. 대부분의 사람들은 아직 진실에 접근할 수 없지만, 의류 산업처럼 계속 질문하고 밀어붙이면 변화는 가능합니다.”

핸슨은 사회적 대화에서 AI 이야기가 나올 때마다 사람들에게 상기시킵니다. “AI는 마법이 아니에요. 보이지 않는 노동자들의 군대, 신뢰할 수 없는 정보, 그리고 환경 파괴가 그 뒤에 있습니다.” 그녀와 파울로스키는 지난 5월 미시간 학교 이사회 컨퍼런스에서 AI의 윤리적, 환경적 영향에 대해 발표했습니다. 많은 참석자들이 충격을 받았지만, 일부는 “기술의 잠재력을 부정적으로만 본다”며 방어적으로 반응했다고 합니다.

AI를 훈련시키는 사람들의 경고를 들어야 할 때입니다. 그들이 가장 잘 알고 있으니까요.


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다