AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

AI 거물들의 정면충돌: “일반 지능은 헛소리다” vs “당신이 틀렸다”

수십억 달러가 투자되는 AGI(범용 인공지능) 개발 경쟁. 그런데 AI 업계 최고 권위자 두 명이 그 기반이 되는 “일반 지능” 개념 자체를 두고 공개적으로 충돌했습니다.

사진 출처: The Federal

Meta의 AI 연구 책임자이자 튜링상 수상자인 얀 르쿤(Yann LeCun)이 팟캐스트 “The Information Bottleneck”에서 일반 지능 개념을 “완전한 헛소리(complete BS)”라고 비판했고, Google DeepMind의 공동창업자이자 CEO인 데미스 하사비스(Demis Hassabis)가 X(구 트위터)에서 “완전히 틀렸다(just plain incorrect)”며 공개 반박한 사건입니다. 이 논쟁은 단순한 학술적 견해 차이가 아니라 AI 산업의 투자와 연구 방향을 결정하는 근본적 질문을 담고 있습니다.

출처: Yann LeCun calls general intelligence “complete BS” and Deepmind CEO Hassabis fires back publicly – The Decoder

르쿤: “인간 지능도 특수화됐을 뿐, 일반적이지 않다”

르쿤의 핵심 주장은 명확합니다. “일반 지능 같은 건 없다. 이 개념은 인간 수준의 지능을 지칭하려고 만들어진 건데, 문제는 인간 지능 자체가 고도로 특수화됐다는 거죠.”

그는 체스를 예로 듭니다. “체스? 우리는 형편없어요.” 인간은 체스나 바둑에서 기계에게 참패했습니다. 이유는 뇌 구조 때문이죠. 트리 탐색에 필요한 속도와 메모리가 부족해서 너비 우선 탐색을 할 수 없다는 겁니다. 고양이가 할 수 있는 일을 로봇은 아직 못하지만, 인간이 “지적”이라고 여기는 물리학이나 미적분은 컴퓨터가 수십 년 전에 마스터했습니다. 이게 모라벡의 역설이죠.

르쿤은 지능을 “행동의 결과를 예측하고 그 예측을 계획에 활용하는 능력”으로 정의합니다. 물리학이 그의 모델이에요. 인간은 자신을 일반적이라고 착각하지만 실제로는 진화가 만든 극도로 특수화된 존재라는 겁니다. “우리가 파악할 수 있는 문제들만 생각할 수 있기 때문에 일반적이라는 착각에 빠지는 거죠.”

AGI를 1~2년 안에 달성할 수 있다는 주장에 대해서는 더 신랄합니다. “완전히 망상이에요. 신경 언어 모델로 세상을 토큰화한다고 거기 도달하지 않아요.”

하사비스: “일반 지능과 보편 지능을 혼동하고 있다”

하사비스의 반박은 기술-철학적 구분에 기반합니다. “르쿤은 일반 지능(general intelligence)과 보편 지능(universal intelligence)을 혼동하고 있어요. 뇌는 우주에서 우리가 아는 가장 정교하고 복잡한 현상이며, 실제로 매우 일반적입니다.”

그는 무료 점심 정리(no-free-lunch theorem)를 인정합니다. 실용적이고 유한한 시스템에서는 학습 대상 분포에 대한 어느 정도의 특수화가 필수적이죠. 하지만 핵심은 다르다고 말합니다. “일반성의 요점은 이론적으로, 튜링 머신의 관점에서 볼 때 그런 일반 시스템의 아키텍처가 충분한 시간과 메모리(그리고 데이터)만 주어진다면 계산 가능한 모든 것을 학습할 수 있다는 거죠. 그리고 인간 뇌와 AI 파운데이션 모델은 근사 튜링 머신입니다.”

체스 논쟁: 같은 사실, 정반대 해석

흥미로운 건 두 사람이 같은 사실을 정반대로 해석한다는 점입니다.

르쿤은 “인간은 체스를 못한다”에 주목합니다. 이건 인간이 특수화된 증거라는 거죠. 하사비스는 “인간이 체스를 발명했다”에 주목합니다. “인간이 애초에 체스를 발명할 수 있었다는 게 놀랍습니다. 그리고 현대 문명의 모든 측면, 과학부터 보잉 747까지 다요!”

하사비스는 인간이 컴퓨터처럼 완벽하게 체스를 두지 못하는 건 인정합니다. 하지만 본질은 다른 데 있다고 봅니다. “수렵-채집을 위해 진화한 뇌로 체스라는 게임을 발명하고 세계 챔피언 수준까지 도달했다는 게 놀랍죠.”

DeepMind의 자신감, Meta의 회의

이번 충돌은 양측의 입장을 더 명확히 보여줍니다.

DeepMind 공동창업자 셰인 레그(Shane Legg)는 2025년 12월 회사 공식 팟캐스트에서 “최소 AGI”(많은 인간 인지 작업을 처리할 수 있는 AI 에이전트)가 2028년까지 도달할 수 있다고 밝혔습니다. 이제 하사비스가 동료들의 목소리에 합류하며 르쿤에게 공개적으로 반박한 것은 DeepMind가 AGI 개념에 여전히 확고하며 접근하고 있다고 확신한다는 신호죠.

반면 르쿤은 이전에도 DeepMind 연구자 아담 브라운(Adam Brown)과 감정적인 논쟁을 벌인 적 있습니다. 그때도 LLM만으로는 AGI를 달성할 수 없으며 더 근본적인 연구가 필요하다고 주장했죠. 르쿤은 AI 업계가 매번 AGI로 가는 올바른 길을 찾았다고 확신하다가 벽에 부딪히는 함정에 빠진다고 봅니다. LLM도 마찬가지라는 거죠.

역사적으로 DeepMind에 베팅하지 않는 쪽이 손해를 봤습니다. 하지만 이번엔 어떨까요? 수십억 달러가 걸린 이 질문에 대한 답은 앞으로 몇 년 안에 나올 겁니다.

참고자료:

Fediverse reactions

AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다