AI 기업들이 ‘혁신’을 외치며 인간 노동자를 대규모로 해고하고 있고, 남은 직원들은 저임금에 극한의 압박을 받으며 AI를 훈련시키고 있다는 충격적인 현실이 드러났습니다.
지난 9월 13일, 일론 머스크의 xAI가 데이터 어노테이션 팀 500명을 해고했습니다. 전체 1,500명 중 3분의 1에 해당하는 규모죠. 회사는 “전략적 전환”이라고 발표했지만, 실제로는 비용 절감을 위한 구조조정이었습니다.

금요일 밤에 날아온 해고 통지서
xAI 직원들이 받은 해고 이메일에는 이런 내용이 적혀 있었습니다. “우리는 전문 분야 AI 튜터 확장과 우선순위 설정을 가속화하고, 일반 AI 튜터 역할에 대한 집중을 축소하기로 결정했습니다. 이 전략적 전환은 즉시 적용됩니다.”
해고 통지를 받은 직원들은 11월 30일까지 급여를 받지만, 회사 시스템 접근 권한은 당일 즉시 차단됐습니다. 마치 보안상 위험 인물 취급을 받은 셈이죠.
흥미로운 점은 해고 며칠 전부터 직원들이 갑작스럽게 “테스트”를 받았다는 겁니다. STEM, 코딩, 금융, 의학 같은 전문 분야부터 “쓰레기 포스터들과 무한 스크롤러들”까지 기묘한 영역의 시험을 봤죠. 이 시험 결과로 누가 살아남을지 결정됐습니다.
구글 AI 뒤의 그림자 노동자들
한편, 구글의 Gemini AI를 훈련시키는 수천 명의 인력도 비슷한 상황에 처해 있습니다. 이들은 “레이터(rater)”라고 불리며, 시간당 16~21달러를 받고 AI의 응답을 평가하고 개선하는 일을 합니다.
텍사스의 기술 문서 작성자 레이첼 소여는 처음에는 단순한 문서 작업이라고 생각했습니다. 하지만 실제로는 AI가 생성한 폭력적이고 선정적인 콘텐츠를 하루 종일 검토해야 했죠. 그것도 한 작업당 10분 안에 처리해야 했습니다.

“AI는 마법이 아니에요. 과로하고 저임금에 시달리는 인간들의 등에 업힌 피라미드 사기입니다”라고 브레멘의 분산 AI 연구소 아디오 디니카 연구원은 말합니다.
안전 가이드라인의 점진적 완화
더 심각한 문제는 AI 안전 가이드라인이 시장 경쟁 압박으로 점점 완화되고 있다는 점입니다. 레이첼 소여에 따르면, 작년에는 금지됐던 인종차별적 표현이나 성적 콘텐츠도 올해는 “완전히 허용 가능”해졌습니다.
“예전에는 AI 모델이 인종차별적 욕설을 절대 할 수 없었어요. 2월에 그게 바뀌었고, 이제는 사용자가 그런 욕설을 사용하면 모델도 반복할 수 있게 됐습니다. 괴롭힘 발언, 성차별, 고정관념, 포르노 내용도 마찬가지예요.”
구글은 증오 발언에 대한 AI 정책이 바뀌지 않았다고 주장합니다. 하지만 2024년 12월, “공공에게 상당한 이익이 되는 경우 해로운 내용도 예외를 둘 수 있다”는 조항을 추가했죠. 예술이나 교육 목적이라는 명분으로 말입니다.
전문가도 아닌데 전문 분야를 평가하라고?
상황은 더욱 악화되고 있습니다. 2024년 12월부터 구글은 계약직 직원들에게 전문 지식이 없는 분야도 평가하도록 강요하기 시작했습니다. 이전에는 “전문 지식 부족”을 이유로 해당 작업을 건너뛸 수 있었는데, 이제는 그것도 금지됐습니다.
한 서부 지역 직원은 “천체물리학과 수학 문제를 받았는데, 전혀 모르는 분야였어요. 그런데도 정확성을 확인하라고 하더라구요”라고 증언했습니다.
노스캐롤라이나의 경력 있는 작성자 레베카 잭슨-아티스는 방광암 화학치료 옵션에 대한 정보를 입력하는 작업을 받았습니다. “자신이 방광암 진단을 받고 차에 앉아서 제가 편집한 내용을 구글링하는 사람을 상상했어요. 그 생각에 소름이 돋았죠.”
AI 기업들의 이중적 전략
xAI는 해고를 발표하면서 동시에 “전문 분야 AI 튜터 팀을 10배 확장한다”고 X(트위터)에 게시했습니다. STEM, 금융, 의학, 안전 분야 전문가들을 채용한다고 하죠.
하지만 이건 모순입니다. 더 전문적인 인력이 필요하다면서 왜 기존 직원들을 대거 해고했을까요? 답은 간단합니다. 비용 때문입니다.
새로 뽑을 “전문가”들도 결국 계약직일 가능성이 높습니다. 언제든 자를 수 있는 조건으로 말이죠. AI 기업들에게 인간 노동자는 “보이지 않지만 필수적이고 대체 가능한” 존재일 뿐입니다.
노동자들의 반격
그러나 변화의 조짐도 보입니다. GlobalLogic에서 일하는 AI 레이터들 사이에서는 노조 결성 움직임이 일고 있습니다. 알파벳 워커스 유니온(Alphabet Workers Union)은 이들의 권익 보호를 위해 적극 나서고 있죠.
케냐 나이로비의 데이터 작업자들도 단합해 저항하고 있습니다. 하루 2달러에 AI 훈련용 데이터를 정제하던 이들이 자신들의 목소리를 내기 시작했습니다.

우리가 알아야 할 진실
AI 기업들은 화려한 미래를 약속하며 투자자들의 돈을 끌어모읍니다. 하지만 그 뒤에는 저임금에 시달리며 극한 업무를 견디는 인간들이 있습니다. 이들의 노고 없이는 ChatGPT도 Gemini도 Grok도 제대로 작동할 수 없어요.
더 큰 문제는 AI 기술이 발전할수록 이런 착취 구조가 더욱 교묘해지고 있다는 점입니다. “전략적 전환”이라는 그럴듯한 명분으로 언제든 인력을 자를 수 있고, 남은 직원들에게는 더 많은 업무를 떠넘길 수 있죠.
“속도가 윤리를 압도한다”고 디니카 연구원은 지적합니다. “AI 안전 약속은 안전이 수익을 위협하는 순간 무너집니다.”
AI가 만드는 미래는 분명 흥미진진할 겁니다. 하지만 그 미래를 누가 어떤 조건에서 만들고 있는지도 우리가 알아야 할 중요한 사실입니다. 기술 뒤에 숨어 있는 인간의 이야기를 잊지 말아야 합니다.
참고자료:
Comments