
이미지 출처: TechCrunch
“이건 혁명이다!” “이건 그저 통계적 모방일 뿐이다.”
인공지능이 급속도로 발전하면서 AI에 대한 의견은 극단적으로 나뉘는 경향이 있습니다. 일부는 AI를 인류 역사상 가장 위대한 발명으로 찬양하는 반면, 다른 이들은 그저 복잡한 패턴 매칭 시스템에 불과하다며 의미를 축소합니다. 흥미로운 점은 이 양극단 사이에 위치한 ‘양가적 감정(ambivalence)’을 가진 사람들이 늘어나고 있다는 것입니다.
이 글에서는 소프트웨어 개발자 Nolan Lawson의 AI에 대한 양가적 감정과 MIT의 최근 연구를 통해 AI의 실체에 대해 살펴보고, 이 기술과 함께 살아가는 균형 잡힌 방법을 모색해 보겠습니다.
AI에 대한 양가적 감정: 개발자의 시선
계산언어학 석사 출신이자 경험 많은 소프트웨어 개발자인 Nolan Lawson은 AI에 대한 자신의 복잡한 감정을 최근 블로그 포스트 “AI ambivalence”에서 솔직하게 털어놓았습니다. 그는 초기에 AI에 대해 회의적이었으나, 최근 Claude와 Claude Code와 같은 AI 코딩 도구를 사용해 보면서 그 능력에 놀라움을 금치 못했습니다.
“이 도구가 대규모 코드베이스를 조사하거나, 단위 테스트를 생성하거나, 심지어 ‘모든 호출 사이트를 이러이러한 패턴을 사용하도록 리팩터링’하는 방식은 정말 놀랍습니다.”
그러나 동시에 Lawson은 AI가 소프트웨어 개발의 즐거움을 빼앗는다고 느낍니다. 그는 AI를 사용할 때 자신이 “보모(babysitter)” 역할을 하는 것 같다고 표현합니다. AI가 코드를 쏟아내면 그는 그 코드를 읽고 버그를 찾으려 노력하지만, 이 과정에서 코딩의 창의적인 즐거움이 사라진다고 느낍니다.
특히 “vibe coding”이라는 새로운 코딩 방식—AI가 생성한 코드를 깊이 이해하려 하지 않고 그저 직관적으로 수용하는 방식—에 대한 우려를 표명합니다. 이는 개발자가 코드의 동작 원리를 완전히 이해하지 못하는 상황으로 이어질 수 있기 때문입니다.

이미지 출처: Medium
AI는 정말 가치를 가지고 있는가?
한편, MIT의 최근 연구는 AI가 인간처럼 일관된 가치 체계를 가지고 있다는 일반적인 믿음에 의문을 제기합니다. TechCrunch에 소개된 이 연구는 Meta, Google, Mistral, OpenAI, Anthropic 등의 최신 AI 모델을 조사했습니다.
연구 결과에 따르면, AI 모델들은 그들의 선호도와 관점에서 일관성을 보이지 않았습니다. 프롬프트가 어떻게 작성되고 구성되는지에 따라 AI는 완전히 다른 관점을 채택했습니다.
MIT 박사과정 학생이자 연구 공동 저자인 Stephen Casper는 이렇게 설명합니다:
“모델들은 특정 조건에서 특정 원칙과 일치하는 선호도를 표현한다는 것을 지적하는 것은 완전히 합법적입니다. 문제는 주로 좁은 실험을 기반으로 모델, 의견 또는 선호도에 대한 일반적인 주장을 하려고 할 때 발생합니다.”
이 연구는 AI 모델들이 근본적으로 “모방자(imitators)”이며 인간과 같은 선호도를 내재화할 수 없다는 결론에 도달했습니다. 다시 말해, AI는 단지 학습한 패턴을 모방하고 있을 뿐, 진정한 의미에서의 ‘가치’나 ‘의견’을 가지고 있지 않다는 것입니다.
AI와 불확실성의 원리
이런 연구 결과들은 AI와 관련된 일종의 “불확실성의 원리”를 시사합니다. 즉, AI가 더 능숙해지고 인간과 유사한 출력을 생성할수록, 그 내부 작동과 결정 과정을 이해하기는 더 어려워집니다. 이는 양자 역학의 불확실성 원리와 유사한 패러독스를 제시합니다.
이 불확실성은 AI 시스템을 “정렬(align)”하는 것—즉, 이러한 시스템이 바람직하고 신뢰할 수 있는 방식으로 행동하도록 보장하는 것—이 종종 가정하는 것보다 더 어려울 수 있음을 의미합니다. AI는 환각을 일으키고 모방하므로 많은 측면에서 예측할 수 없습니다.
AI 시대에 균형 찾기
이런 상황에서 우리는 어떻게 AI와 균형 잡힌 관계를 구축할 수 있을까요?
1. AI의 실제 능력과 한계 이해하기
AI 도구들이 놀라운 일을 해낼 수 있지만, 그들은 근본적으로 패턴 인식과 통계적 생성에 기반한 시스템입니다. MIT 연구가 보여주듯이, AI는 일관된 가치 체계나 깊은 이해를 가지고 있지 않습니다.
이런 이해는 AI에 대한 비현실적인 기대와 과도한 의인화를 방지하는 데 도움이 됩니다. AI는 강력한 도구이지만, 인간의 판단력과 직관을 대체할 수 없습니다.
2. 도구로서의 AI, 감독자로서의 인간
Nolan Lawson의 경험이 보여주듯, AI를 사용할 때 가장 효과적인 접근법은 AI를 도구로, 인간을 감독자로 생각하는 것입니다. AI가 제안하는 모든 것을 비판적으로 평가하고, 최종 결정권은 항상 인간에게 있어야 합니다.
특히 코딩과 같은 영역에서는 AI가 생성한 코드를 맹목적으로 수용하는 “vibe coding” 대신, 코드를 철저히 이해하고 검토하는 접근법이 중요합니다.
3. 창의성과 기술적 기량 유지하기
AI 도구가 널리 보급된 시대에도 인간의 창의성과 기술적 기량을 유지하는 것이 중요합니다. AI는 기존 패턴에서 학습하지만, 진정한 혁신은 종종 기존 패턴을 깨는 데서 옵니다.
소프트웨어 개발자들은 AI 도구에 전적으로 의존하기보다는 자신의 코딩 능력을 계속 연마하고, AI를 보조 도구로 활용하는 균형 잡힌 접근법을 택할 수 있습니다.
결론: 양가적 감정은 건강한 관점일 수 있다
AI에 대한 양가적 감정은 사실 매우 합리적인 반응일 수 있습니다. 이 기술의 능력에 감탄하면서도 그 한계와 영향에 대해 비판적인 시각을 유지하는 것은 건전한 균형을 나타냅니다.
Lawson이 자신의 블로그 포스트를 마무리하듯이: “이것이 내 압도적인 감정이다: 양가성. 내 산업에 인공지능이 가져온 것에 대해 포위당하고 공포를 느끼지만, 더 이상 귀를 막은 채 밖에서 쓰나미가 울부짖는 것을 무시할 수 없다.”
우리는 AI를 두려워하거나 맹목적으로 찬양할 필요 없이, 그것이 무엇인지 현실적으로 이해하고 책임감 있게 활용할 수 있습니다. 인간의 창의성, 비판적 사고, 윤리적 판단은 여전히 대체 불가능한 가치이며, AI 시대에도 이러한 인간적 역량을 소중히 여기고 발전시키는 것이 중요합니다.
Comments