
AI 기술이 교육 현장에 급속히 확산되고 있는 가운데, 많은 대학들이 이를 혁신의 기회로 받아들이고 있습니다. 하지만 정말로 AI가 고등교육의 미래를 밝게 만들어줄 것일까요? 골드스미스 대학의 Dan McQuillan 교수가 2025년 6월 철학비판사상센터에서 진행한 세미나 “대학의 역할은 AI에 저항하는 것”은 이러한 통념에 강력한 의문을 제기합니다.
McQuillan 교수는 Ivan Illich의 고전적 저작 “Tools for Conviviality”를 바탕으로, AI 기술이 교육에 미치는 영향을 비판적으로 분석하며, 대학이 AI의 무비판적 수용에 저항해야 하는 이유를 설득력 있게 제시합니다. 이 글에서는 그의 세미나 내용을 중심으로 AI 시대 고등교육의 진정한 과제가 무엇인지 살펴보겠습니다.
AI 기술의 실체: 거대한 사회적 실험의 시작
현재 우리가 목격하고 있는 AI 열풍은 단순한 기술적 진보가 아닙니다. McQuillan 교수는 “우리는 내부 작동 원리가 예측 불가능하고 불투명한 기술을 중심으로 한 거대한 사회적 실험의 한가운데 있다”고 지적합니다. 실제로 AI 업계의 엔지니어들조차 이러한 모델들의 내부에서 정확히 무엇이 일어나고 있는지 모른다고 공개적으로 인정하고 있습니다.
더욱 중요한 것은 현재의 AI 기술이 완전히 규모에 의존한다는 점입니다. 방대한 데이터와 막대한 컴퓨팅 파워 없이는 작동하지 않으며, 이는 거대한 물리적 인프라와 엄청난 에너지 소비를 필요로 합니다. 이로 인해 AI 산업은 텍스트, 이미지, 오디오 등 모든 종류의 콘텐츠를 무차별적으로 수집하게 되었습니다.
Ivan Illich는 『도구의 사회』에서 “어떤 기업이 특정 규모를 넘어서면, 처음에 설계된 목적을 좌절시키고 결국 사회 자체에 위협이 된다”고 경고했습니다. 현재의 AI 기술은 바로 이러한 규모의 문제를 극명하게 보여주는 사례라고 할 수 있습니다.
교육 현장의 혼란: 공포와 불안의 확산
출처: Unsplash
생성형 AI가 고등교육에 미친 주된 영향은 학생들의 부정행위에 대한 공포를 확산시킨 것입니다. 실제로 2025년 가디언 보도에 따르면, 영국 대학에서 AI를 이용한 부정행위로 적발된 학생 수가 수천 명에 달한다고 합니다. 하지만 이러한 공포는 이미 시장화된 학생들의 피폐한 경험에서 주의를 돌리는 역할을 하고 있습니다.
마찬가지로 AI를 활용한 채점과 피드백으로 인한 교직원의 ‘부정행위’에 대한 우려도 커지고 있지만, 이 역시 교직원들이 겪고 있는 지속적인 불안정한 고용 상황에서 관심을 분산시키고 있습니다.
주류 담론은 대학들이 이러한 도구들을 받아들여 교육방법을 활성화하고, 학생들이 업무 현장에서 필요한 AI 기술을 습득할 수 있도록 해야 한다고 주장합니다. 하지만 여기에는 중대한 결함이 있습니다. 바로 이러한 도구들이 실제로는 주장하는 바대로 작동하지 않는다는 점입니다.
학습의 본질 vs AI 도구의 한계
McQuillan 교수는 AI 기술의 근본적인 한계를 명확히 지적합니다:
- AI 요약은 실제로 요약하지 않습니다 – 학습된 모델의 매개변수를 바탕으로 요약을 시뮬레이션할 뿐입니다
- AI 연구 도구는 진정한 연구를 하지 않습니다 – 검색된 문서들을 챗봇 맥락에 밀어넣어 관련성을 유발하기를 희망할 뿐입니다
- 추론 모델은 추론 비용을 증가시키면서도 자신의 명백한 한계를 숨기기 위해 사고 과정을 조작합니다
이러한 기술이 교육에 적용되는 것은 본질적으로 ‘조잡화(slopification)’의 과정입니다. 모든 것을 조잡하게 만드는 과정 말입니다.
비판적 사고 능력의 위기
특히 우려스러운 것은 AI가 비판적 사고에 미치는 영향입니다. 런던대학교는 이미 “2분 이내에 개인 맞춤형 AI 생성 피드백… 비판적 사고에 대한 조언 포함”을 제공하는 도구를 홍보하고 있습니다. 하지만 스스로 사고하는 것은 통계적 상관관계가 아닌 마찰이 있는 활동입니다.
AI가 매개하는 에세이 계획은 이미 학생 자신의 역량을 우회함으로써 요점을 놓치고 있습니다. 실제로 LA 타임스가 의견 기사에 저널리즘적 균형을 추가하기 위해 유사한 AI를 도입했을 때, KKK에 관한 기사를 “사회적 변화에 단순히 대응하는 백인 개신교 문화의 산물”로 재균형 맞춤으로써 그 위험성을 보여주었습니다.
연구 결과에 따르면 학생들이 챗봇에 인지 능력을 위임할 때 문제해결 능력과 창의성이 감소할 수 있다고 합니다. 구글이 최근 출시한 Gemini 2.5 Flash 모델에는 심지어 AI의 소위 추론 수준을 제어할 수 있는 “사고 예산” 기능이 있어, 출력 비용을 최대 600%까지 절감할 수 있다고 자랑합니다.
정치적 맥락: 기술 결정론의 위험성
출처: Unsplash
현재 영국 노동당 정부는 세계에서 가장 AI에 경도된 정부 중 하나입니다. 2025년 1월 발표된 ‘AI 기회 실행 계획’은 민족주의적 분위기와 스타트업 피치의 혼합으로, AI를 10배 확장하면서 소위 AI 성장 구역에 데이터 센터를 위한 토지와 전력망을 제공하고자 합니다.
노동당의 유일한 정치적 비전은 AI를 통한 성장입니다. 이는 기술 확장이 어떻게든 사람들이 개혁당에 투표하거나 이민자 숙소를 불태우는 것을 막을 것이라는 믿음에 기반합니다. 이러한 비전은 토니 블레어 연구소가 발표한 ‘AI 시대의 통치: 국가 변혁을 위한 새로운 모델’과 ‘학습의 미래: 영국을 위한 기술 지원 양질 교육 제공’이라는 제목의 보고서들에서 구체화되었습니다.
특히 우려스러운 것은 이들이 AI로 대체될 일자리 수를 조사하면서 ChatGPT에게 질문했다는 점입니다. 이는 AI 정책 수립 과정에서 얼마나 비논리적인 접근이 이루어지고 있는지를 보여주는 상징적인 사례입니다.
학생들의 진짜 목소리
그렇다면 학생들은 정말로 AI 세상을 원하고 있을까요? 영국표준협회가 16-21세를 대상으로 실시한 조사에 따르면, 46%가 인터넷이 전혀 없는 세상에서 젊음을 보내고 싶다고 답했습니다. 이는 20년간의 알고리즘 독성의 결과입니다. AI에 대해서도 같은 감정을 느끼기까지 얼마나 걸릴까요?
그런데도 대학들은 교수진과 학생들 모두에게 AI가 고등교육의 유일한 가능한 미래라고 설득하기 위해 앞다투고 있으며, 연구 자금 지원 기관들은 대안을 연구하는 대신 AI를 추가하는 것에만 자금을 지원하려고 합니다.
취업 가능성에 초점을 맞춘 대학이라면 직장에서의 AI에 대한 과대광고에 의문을 제기해야 합니다. 마이크로소프트의 자체 연구진에 따르면, 직장에서의 생성형 AI는 인지 능력의 악화를 초래하고 노동자들을 위축시키며 준비되지 않은 상태로 만들 수 있다고 합니다.
Ivan Illich의 대안적 관점: ‘친화적 도구’의 개념
이러한 문제들에 대한 대안을 찾기 위해 McQuillan 교수는 Ivan Illich의 “Tools for Conviviality” 개념을 제시합니다. Illich는 도구를 하드웨어뿐만 아니라 “교육, 건강, 지식, 결정과 같은 무형의 상품을 생산하는 생산 시스템”까지 포함하는 넓은 개념으로 정의했습니다.
Illich는 “사람들은 자신을 위해 ‘작동하는’ 도구보다는 함께 작업할 수 있는 새로운 도구가 필요하다”고 주장했습니다. 그는 또한 “도구의 조작을 위한 사람들의 조작을 즉시 인식할 수 있는 기준”을 제시하고자 했습니다.
현재 우리에게 필요한 것은 책임감 있는 AI에 대한 더 많은 감언이설이나 미래 일자리에 대한 컨설팅 과대광고가 아니라, 다양한 물질적, 사회적, 정치적 차원에서 AI의 실제 결과에 대한 새로운 증거를 수집하는 연구소들입니다.
실천적 대안: 시민 위원회와 저항의 구체적 방법
McQuillan 교수는 구체적인 실천 방안으로 ‘AI에 관한 시민 위원회’ 또는 ‘민중 위원회’의 구성을 제안합니다. 이러한 위원회는 Illich가 주장한 기술사회적 탐구를 수행할 수 있으며, 그 자체로 AI의 장치에 의해 훼손되는 독립적 사고의 형태를 미리 보여주는 역할을 합니다.
교직원-학생 연합으로 구성된 AI 시민 위원회는 AI로 인해 발생하는 상호 의심을 완화할 수 있습니다. 이러한 위원회들은 AI의 친화성에 대해 엄밀한 질문을 던지고, Illich의 광범위한 도구 정의에 따라 두 인프라 모두에 동일한 기준을 적용함으로써 대학의 친화성에 대해서도 질문할 수 있는 수단입니다.
또한 이는 고등교육 밖에서 연구 프로그램과 관련이 있고 퇴행적 AI에 의해 역시 훼손되고 있는 동맹들과 연합을 형성할 기회이기도 합니다. 여기에는 AI와 제노사이드의 얽힘을 우려하는 DeepMind와 마이크로소프트의 소프트웨어 엔지니어들부터 기본적인 것을 고치는 대신 화려한 AI 프로젝트로 자금이 전용되는 것을 보는 보건 전문가들까지 포함됩니다.
상상력과 희망의 공간으로서의 대학
McQuillan 교수는 대학의 역할이 AI에 저항하는 것이라는 제안이 단순히 교육학의 방어가 아니라 상상력의 사회적 중요성에 대한 확인이라고 강조합니다. AI가 일부인 기술정치적 변혁은 단순히 시장 장악의 문제가 아니라, 물질적 에너지 자원을 장악하고 끊임없는 권력 의지와 알고리즘 매개 우생학을 통한 인종적 우월주의의 재공식화에 의해 추진되는 더 광범위한 허무주의입니다.
저항에 대해 이야기하는 것은 서로를 증폭시킬 수 있는 공명하는 투쟁들을 찾는 방법입니다. 저항 능력은 AI에 대한 의존으로 인해 희석되거나 해소되는 독립적 사고와 비판적 성찰의 자원에서 나옵니다.
이러한 자질들은 대학에서의 시간만으로 개발되는 것은 아니지만, 학생들이 종종 많은 사회 운동의 촉매적 역할을 해왔다는 것도 사실입니다. 어떤 의미에서, 그리고 아마도 자신에도 불구하고, 대학은 부족할 뿐만 아니라 기술 생성적 사회 및 정신적 질서의 패턴에 의해 적극적으로 배제되는 집단적 희망과 상상의 형태를 개발하는 공간이었습니다.
기술적 필연성 신화에 맞서는 비판적 교육학
대학의 역할은 기술적 필연성에 대한 허황된 이야기 앞에서 굴복하는 것이 아니라, 권위주의에 대한 사회적 방어를 뒷받침하고 여전히 가능한 다른 세계들을 재상상할 공간을 만드는 비판적 교육학의 형태를 모델링하는 것입니다.
우리가 직면한 선택은 명확합니다. AI의 무비판적 수용을 통해 교육의 본질을 훼손할 것인가, 아니면 진정한 학습과 비판적 사고를 보호하기 위해 저항할 것인가? McQuillan 교수의 세미나는 후자의 길이 단순히 가능할 뿐만 아니라 필수적임을 설득력 있게 보여줍니다.
AI 시대의 대학은 기술 결정론에 굴복하는 것이 아니라, 인간의 상상력과 비판적 사고 능력을 보호하고 발전시키는 마지막 보루가 되어야 합니다. 이것이야말로 진정한 교육 혁신이며, 우리가 추구해야 할 미래의 모습일 것입니다.
참고자료:
Comments