최근 몇 년간 AI 기술은 놀라운 속도로 발전하며 우리 일상에 깊숙이 침투해왔습니다. 기술 기업들은 이를 ‘혁신’과 ‘진보’라는 이름으로 포장하며 모든 제품과 서비스에 AI를 접목시키려 합니다. 그러나 많은 사용자들이 이러한 움직임에 불편함을 느끼고 있으며, 그 이유는 단순히 공상과학 영화 속 ‘인공지능의 반란’에 대한 두려움이 아닙니다. 오늘은 AI에 대한 실제 우려사항과 기술 기업들이 간과하고 있는 문제점들을 살펴보겠습니다.
AI 비판에 대한 기업들의 오해
기술 기업들은 AI에 대한 비판적 목소리를 ‘터미네이터 영화를 너무 많이 본’ 사람들의 비합리적인 두려움으로 치부하는 경향이 있습니다. 최근 JetBrains의 개발자 생태계 설문조사에서는 AI에 대한 부정적 응답을 한 사람들에게 그 이유를 물었는데, 설문 항목들이 대부분 “특이점(Singularity)에 대한 두려움”이나 “초지능 AI의 등장에 대한 공포”와 같은 내용으로 구성되어 있었습니다. 실제 윤리적 문제나 사회적 영향에 대한 질문은 거의 없었죠.

AI 윤리와 규제에 대한 논의가 활발해지고 있다 (출처: CIO LATAM)
이는 AI 기업들이 사용자들의 진짜 우려사항을 제대로 이해하지 못하고 있다는 증거입니다. 인공지능 연구의 선구자인 Geoffrey Hinton조차도 CBS와의 인터뷰에서 “사람들은 아직 무엇이 다가오고 있는지 이해하지 못하고 있다”고 말했습니다. 그러나 그가 말하는 위험성과 일반 사용자들이 우려하는 위험성에는 차이가 있습니다.
AI에 대한 진짜 우려사항
1. 사회적, 윤리적 측면의 위험
일반 사용자들이 AI에 대해 우려하는 점은 초지능이나 기계 반란보다는 현실적인 문제들입니다:
- 조직적인 비진정성 행동과 허위정보: AI는 가짜 뉴스와 딥페이크를 생성하는 데 이용될 수 있으며, 이는 민주주의 과정과 사회적 신뢰를 훼손할 수 있습니다.
- 비동의 성인물 생성: AI 이미지 생성 도구들이 실존 인물의 얼굴을 이용한 비동의 성인물 제작에 사용되는 사례가 급증하고 있습니다.
- 산업 붕괴와 일자리 문제: 많은 분야에서 AI가 인간 노동자를 대체하며, 이에 따른 사회적 안전망 부재는 심각한 문제입니다.
- 프라이버시 침해: 암호화된 메시징 앱에 AI 기능이 추가되면서 개인적인 대화가 분석을 위해 클라우드 서버로 전송되는 경우가 있습니다.
2. 통제 불능의 AI에 대한 우려
한편, AI 분야의 선구자들은 장기적인 위험성에 더 초점을 맞춥니다:
Geoffrey Hinton은 “AI가 인간으로부터 통제권을 빼앗을 가능성이 10-20% 정도 된다”고 경고했습니다. 그는 특히 군사 무기와 차량에 AI가 통합되는 추세를 우려하고 있습니다.

AI 전문가들은 다양한 보안 위험에 대해 경고하고 있다 (출처: MIT Technology Review)
“정서적으로 이해하는 가장 좋은 방법은 우리가 귀여운 호랑이 새끼를 키우는 것과 같다는 것입니다,” Hinton은 말했습니다. “그것이 자랐을 때 당신을 죽이고 싶어하지 않을 것이라고 매우 확신할 수 없다면, 걱정해야 합니다.”
그러나 모든 AI 전문가들이 같은 의견을 가진 것은 아닙니다. 또 다른 ‘AI의 대부’라 불리는 Yann LeCun은 2023년에 AI가 인류에 대한 위협이라는 주장이 “터무니없이 황당하다”고 말했습니다.
AI 기업들의 문제점
두 관점 모두에서 공통적으로 지적하는 문제는 바로 AI 기업들의 접근 방식입니다:
1. 사용자 동의와 선택권 무시
많은 기업들이 AI 기능을 기본값으로 활성화시키며, 사용자의 동의나 선택권을 충분히 제공하지 않습니다. “내가 기술을 사용할 때 새로운 AI 기능이 출시되면 가장 먼저 하는 일은 그것을 비활성화하는 방법을 찾는 것이다. 만약 기능을 비활성화할 수 없다면, 나는 그것을 제거한다.”라고 Soatok은 말합니다.
2. 안전보다 이윤과 경쟁 우선시
Hinton은 “지금 대기업들이 하고 있는 일을 보면, 그들은 AI 규제를 줄이기 위해 로비하고 있다. 현재도 규제가 거의 없는데, 그들은 더 적은 규제를 원한다”고 비판했습니다. 그는 기업들이 가용 컴퓨팅 파워의 약 1/3을 안전 연구에 할당해야 한다고 주장하지만, 현재는 아주 작은 부분만이 할당되고 있습니다.
AI 규제의 필요성
이러한 문제들을 해결하기 위해서는 효과적인 규제와 기업들의 책임 있는 접근이 필요합니다:
1. 옵트인(Opt-in) 방식의 도입
AI 기능은 기본적으로 비활성화되어 있고, 사용자가 명시적으로 동의한 경우에만 활성화되어야 합니다. 이는 사용자 참여 지표를 낮출 수 있지만, 실제로 AI 기능을 사용하는 사람들은 그것을 원하고 좋아하는 사람들일 것입니다.
2. 안전 연구에 대한 투자 확대
AI 기업들은 새로운 모델 개발과 함께 안전성 연구에도 상당한 자원을 할당해야 합니다. 이는 단기적인 이익보다 장기적인 안전을 우선시하는 문화를 만들어갈 것입니다.
균형 잡힌 AI 발전을 위한 제언
AI는 교육, 의학, 과학, 기후 변화 해결 등에서 엄청난 잠재력을 가지고 있습니다. 그러나 이러한 잠재력을 현실화하기 위해서는 기술적 발전과 함께 윤리적, 사회적 고려사항도 함께 발전해야 합니다.

AI의 안전하고 윤리적인 발전을 위해서는 다양한 이해관계자의 참여가 필요하다 (출처: LinkedIn)
- 사용자 중심 설계: AI 시스템은 사용자의 선택권과 프라이버시를 최우선으로 설계되어야 합니다.
- 투명성 확보: AI가 어떻게 작동하고 어떤 데이터를 사용하는지 사용자들이 이해할 수 있어야 합니다.
- 사회적 영향 평가: 새로운 AI 기술이 사회에 미칠 수 있는 영향을 사전에 평가하고 부정적 영향을 최소화해야 합니다.
- 다양한 이해관계자의 참여: AI 개발과 규제에는 기술 전문가뿐만 아니라 윤리학자, 사회학자, 일반 시민 등 다양한 이해관계자가 참여해야 합니다.
AI에 대한 비판적 시각이 단순히 공상과학 영화에서 비롯된 비합리적 두려움이 아니라, 실질적이고 현실적인 우려에 기반한다는 점을 기술 기업들이 이해하는 것이 중요합니다. 우리는 AI의 잠재력을 부정하는 것이 아니라, 그것이 인간의 가치와 선택을 존중하는 방식으로 개발되기를 원합니다.
기술의 발전은 피할 수 없지만, 그 방향과 속도는 우리의 선택에 달려있습니다. AI가 인류에게 진정한 도움이 되기 위해서는 기술적 혁신과 함께 윤리적, 사회적 고려도 함께 발전해야 할 것입니다.
Comments