AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

Sora 2가 만든 영상, 진짜일까 가짜일까? 진실 판별이 불가능한 시대가 온다

OpenAI의 Sora 2가 상상을 현실로 바꾸는 마법 같은 영상을 만들어냅니다. 문제는 이 영상들이 너무 완벽해서 진짜와 구별할 수 없다는 점입니다. 배우 브라이언 크랜스턴이 동의 없이 딥페이크로 만들어진 사건은 시작일 뿐, 이제 누구나 피해자가 될 수 있는 시대가 왔습니다.

Sora 2 announcement on smartphone
OpenAI의 Sora 2 앱 (출처: Cheng Xin/Getty Images)

핵심 포인트:

  • 현실과 구별 불가능한 영상 생성 시대: 음성, 대화, 물리 법칙까지 완벽하게 재현하는 Sora 2로 진위 판별이 점점 어려워지는 상황
  • 유명인만의 문제가 아니다: 브라이언 크랜스턴 무단 딥페이크 사건이 보여주듯, 기술적으로는 누구나 피해자가 될 수 있으며 일반인도 예외는 아님
  • 의심하는 눈이 생존 전략: AI 생성 영상을 구별하는 시각적 단서를 알아두고, 모든 콘텐츠에 비판적 시각을 유지하는 것이 필수

마법처럼 탄생하는 영상들

“프레디 크루거가 댄싱 위드 더 스타즈에 출연한다면?” 이런 황당한 상상을 몇 초 만에 영상으로 만들어주는 도구가 있습니다. OpenAI의 Sora 2입니다.

투팍 샤커가 미스터 로저스에게 랩을 배우는 장면도 가능합니다. 음성이 자연스럽게 동기화되고, 물리 법칙도 정확히 구현됩니다. 25초짜리 영상을 순식간에 만들 수 있고, 여러 장면을 이어붙여 짧은 스토리도 완성할 수 있죠.

놀랍고 재미있습니다. 창작의 문턱이 확 낮아진 거니까요. 그런데 문득 이런 생각이 듭니다. 이게 진짜인지 가짜인지 어떻게 구별하지?

한 배우의 당혹스러운 경험

브라이언 크랜스턴 (출처: The Guardian)

2025년 10월, Sora 2 출시 직후 이상한 영상이 돌기 시작했습니다. 합성된 마이클 잭슨이 브라이언 크랜스턴과 셀카를 찍는 영상이었죠. 브레이킹 배드로 유명한 크랜스턴은 이런 영상 제작에 동의한 적이 없었습니다.

OpenAI는 “유명인 보호 장치를 마련했다”고 했지만, 실제로는 허점투성이였습니다. 여러 매체 보도에 따르면, OpenAI는 할리우드 에이전시와 스튜디오에 “원치 않으면 Opt-out(거부 의사 표시)하라”는 방식을 제안했습니다. 기본적으로는 누구나 사용할 수 있고, 싫으면 일일이 차단 요청을 하라는 거였죠.

크랜스턴의 소속사 UTA와 CAA, 배우조합 SAG-AFTRA가 강력히 반발했고, OpenAI는 결국 Opt-in 방식으로 정책을 바꿨습니다. 이제는 본인이 명시적으로 동의해야만 자신의 얼굴과 목소리를 사용할 수 있게 됐습니다.

크랜스턴은 “OpenAI의 정책 개선에 감사하지만, 나뿐 아니라 모든 사람의 정체성이 이런 식으로 오용될 수 있다는 점을 우려한다”고 밝혔습니다. 여기서 중요한 포인트가 있습니다. “모든 사람”이라는 표현입니다.

당신도 예외는 아닙니다

유명 배우의 일이니 나와는 상관없다고 생각하시나요? 안타깝게도 그렇지 않습니다.

기술적으로 Sora 2는 누구의 얼굴이든 생성할 수 있습니다. 유명인에게만 적용되는 ‘가드레일’이 있을 뿐입니다. 여러분의 소셜미디어에 올린 사진이나 영상이 학습 데이터로 사용됐을 가능성도 배제할 수 없습니다.

더 큰 문제는 완성도입니다. Sora 2가 만든 영상은 물리 법칙이 정확하고, 음성 동기화가 자연스럽습니다. 전문가도 구별하기 어려운 수준이죠. WIRED는 이를 “흐릿한 진실(Blurred Truths)”이라고 표현했습니다. 진짜와 가짜의 경계가 모호해지는 시대가 온 겁니다.

소셜미디어는 이미 진위 판별이 어려운 콘텐츠로 넘쳐납니다. Sora 2는 이 문제를 한층 심화시킵니다. 내가 한 적 없는 말을 하는 영상, 가본 적 없는 곳에서 찍힌 것처럼 보이는 영상이 만들어질 수 있습니다. 누군가 악의적으로 사용한다면?

죽은 이들조차 안전하지 않다

특히 문제가 되는 건 고인(故人)의 활용입니다. OpenAI는 “역사적 인물”은 생성 가능하다고 밝혔는데, 이 범위가 상당히 넓습니다.

마틴 루터 킹 주니어의 유족이 항의하자 OpenAI는 그의 이미지 생성을 잠정 중단했습니다. 로빈 윌리엄스의 딸 젤다는 “아버지의 AI 영상을 더 이상 보내지 말아달라”고 호소했습니다. 조지 칼린의 딸은 아버지를 재현한 AI 코미디를 보고 “압도적이고 우울하다”고 말했죠.

법률 전문가들은 이런 사례가 “법적 허용 범위를 테스트하는 것”이라고 분석합니다. 고인은 초상권 보호가 상대적으로 약하니, 거기서부터 시작해서 점차 범위를 넓혀가는 전략일 수 있다는 겁니다.

가짜를 구별하는 법

그렇다면 우리는 어떻게 대응해야 할까요? 완벽한 방법은 없지만, AI 생성 영상을 의심해볼 만한 단서들은 있습니다.

시각적 단서 찾기:

눈 깜빡임에 주목하세요. 초기 딥페이크는 깜빡임이 부자연스럽거나 아예 깜빡이지 않는 경우가 많았습니다. Sora 2는 이 문제를 많이 개선했지만, 여전히 완벽하지는 않습니다.

조명과 그림자를 살펴보세요. 얼굴의 조명 방향과 배경의 조명이 일치하지 않거나, 안경이나 눈에 반사되는 빛이 부자연스러우면 의심해볼 만합니다.

피부 질감이 지나치게 매끄럽거나, 얼굴 가장자리가 흐릿하게 번지거나, 배경이 어색하게 흔들리는 경우도 단서가 됩니다.

입술 움직임과 음성의 싱크를 확인하세요. 대화 내용과 입 모양이 미묘하게 안 맞는 경우가 있습니다.

도구 활용하기:

MIT 미디어 랩의 DetectFakes나 TrueMedia.org 같은 무료 도구를 사용할 수 있습니다. TrueMedia.org는 약 90%의 정확도로 AI 생성 영상을 탐지합니다. 영상이나 이미지를 업로드하면 딥페이크인지 판별해주죠.

Deepware Scanner는 의심스러운 영상을 스캔해서 합성 조작 여부를 확인해줍니다. Intel의 FakeCatcher나 Reality Defender 같은 전문 도구도 있습니다.

비판적 사고 유지하기:

가장 중요한 건 모든 콘텐츠에 의심의 눈초리를 가지는 겁니다. 특히 감정을 자극하는 영상일수록 더 신중하게 접근하세요. 딥페이크 제작자들은 사람들의 감정을 조작해서 멀웨어를 다운로드하게 하거나 개인정보를 빼내려 합니다.

출처를 확인하세요. 신뢰할 수 있는 매체나 공식 채널에서 나온 콘텐츠인가요? 여러 경로로 교차 확인하는 습관을 들이세요.

내 이미지가 무단 사용되고 있다면?

자신의 얼굴이나 목소리가 무단으로 사용되는지 확인하는 것도 중요합니다.

구글 알림(Google Alert)에 본인 이름을 등록해두면 관련 콘텐츠가 온라인에 올라올 때마다 알림을 받을 수 있습니다. 정기적으로 본인 이름으로 검색해보는 것도 좋은 방법입니다.

무단 사용을 발견했다면 즉시 신고하세요. 대부분의 플랫폼은 DMCA(Digital Millennium Copyright Act) 신고 메커니즘을 갖추고 있습니다. 이미지나 영상이 본인의 것이고, 동의 없이 사용됐다는 점을 명확히 밝히면 됩니다.

2025년 5월 통과된 TAKE IT DOWN Act는 비동의 성적 이미지를 포함해 AI 생성 딥페이크를 범죄로 규정합니다. 피해를 입었다면 법적 대응도 가능합니다.

변화하는 법과 제도

다행히 법과 제도도 변하고 있습니다. 미국 의회에서 논의 중인 NO FAKES Act(Nurture Originals, Foster Art, and Keep Entertainment Safe Act)는 모든 미국인에게 자신의 목소리와 얼굴에 대한 명확한 연방 차원의 권리를 부여하는 법안입니다.

이 법안은 본인 동의 없이 AI로 복제한 콘텐츠를 생성하거나 배포하는 것을 금지합니다. OpenAI CEO 샘 알트먼도 공개적으로 이 법안을 지지했고, YouTube 역시 지지 의사를 밝혔습니다.

SAG-AFTRA의 새 회장 숀 애스틴은 “Opt-in 프로토콜만이 유일한 비즈니스 방식”이라고 강조했습니다. 기본적으로는 보호되고, 본인이 원할 때만 허용하는 방식이죠.

의심하는 눈이 생존 전략이다

Sora 2는 분명 놀라운 기술입니다. 창작의 민주화를 가져올 수 있고, 상상력의 한계를 넓혀줍니다. 하지만 동시에 우리가 보는 모든 것을 의심해야 하는 시대를 만들고 있습니다.

“보는 것이 믿는 것(Seeing is believing)”이라는 오래된 격언은 더 이상 통하지 않습니다. 이제는 “의심하고, 확인하고, 교차 검증하는 것”이 새로운 원칙이 되어야 합니다.

완벽한 방어책은 없습니다. 하지만 AI 생성 콘텐츠의 특징을 알고, 도구를 활용하고, 비판적 사고를 유지한다면 적어도 쉬운 타깃은 되지 않을 수 있습니다. 기술은 계속 발전하겠지만, 우리의 판단력도 함께 발전해야 합니다.

브라이언 크랜스턴의 사건은 경고입니다. 유명인만의 문제가 아니에요. 다음 피해자는 여러분이나 여러분의 가족일 수 있습니다. 지금부터라도 조금 더 의심하고, 조금 더 확인하는 습관을 들여보세요.


참고자료:


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다