AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

AI 글쓰기 탐지 가이드를 역이용한 Humanizer 도구 등장

AI가 쓴 글인지 들킨다면 어떻게 할까요? Wikipedia 자원봉사자들이 수년간 만든 AI 탐지 가이드를 역으로 활용해 AI 텍스트를 “인간답게” 만드는 도구가 등장했습니다.

사진 출처: Ars Technica

오픈소스 개발자가 만든 “Humanizer”는 Claude Code 스킬로, Wikipedia의 “AI 글쓰기 징후” 가이드를 기반으로 합니다. Wikipedia 편집자들은 수천 건의 AI 생성 텍스트를 관찰하며 24가지 패턴을 정리했는데, 이 도구는 그 패턴을 정확히 피하도록 텍스트를 수정합니다.

출처: Wikipedia volunteers spent years cataloging AI tells. Now there’s a plugin to avoid them. – Ars Technica

AI 탐지 패턴을 역이용하는 방법

Humanizer는 Wikipedia가 정리한 AI 글쓰기의 특징들을 제거합니다. 예를 들면:

Before (AI가 쓴 것처럼):
“The Statistical Institute of Catalonia was officially established in 1989, marking a pivotal moment in the evolution of regional statistics in Spain.”

After (인간이 쓴 것처럼):
“The Statistical Institute of Catalonia was established in 1989 to collect and publish regional statistics.”

즉, “1989년 설립은 스페인 지역 통계 진화의 중요한 순간을 의미한다”는 과장된 표현을 → “1989년 지역 통계 수집·발표를 위해 설립되었다”는 단순한 사실로 바꾸는 겁니다.

Wikipedia 가이드는 AI가 자주 사용하는 어휘(“Additionally”, “testament”, “landscape”), 불필요한 em dash(—) 남용, “It’s not just X, it’s Y” 같은 부정 병렬 구문 등을 상세히 나열합니다. Humanizer는 Claude에게 이런 패턴을 피하라고 지시하는 방식으로 작동합니다.

AI 탐지의 근본적 한계

하지만 이런 패턴 기반 탐지에는 한계가 있습니다. Ars Technica는 “AI 글쓰기와 인간 글쓰기를 구분하는 본질적으로 고유한 특징은 없다”고 지적합니다.

2025년 연구에 따르면 LLM을 자주 사용하는 사람들은 AI 생성 글을 90% 정확도로 탐지할 수 있지만, 이는 10%의 오탐지율을 의미합니다. 품질 좋은 인간의 글도 AI로 오인될 수 있다는 뜻입니다.

더욱이 인간도 ChatGPT처럼 쓸 수 있습니다. 대부분의 LLM은 웹에서 가져온 전문 글쓰기 예시로 학습했기 때문에, 전문 작가가 쓴 이 기사조차 AI 탐지기를 작동시킬 수 있습니다. 특히 em dash 하나만 사용해도 말이죠.

OpenAI는 em dash 사용을 줄이려 수년간 노력했지만, ChatGPT는 여전히 이를 과도하게 사용하는 경향이 있습니다. 하지만 최신 모델들은 이런 패턴을 점차 줄이고 있습니다.

표면적 분석을 넘어서

Wikipedia 가이드 자체도 “이는 관찰일 뿐 규칙이 아니다”라고 명시합니다. 특정 표현의 존재가 문제가 아니라, 그 표현이 가리키는 더 깊은 문제—부정확한 정보, 출처 부족, 편향된 관점—가 진짜 문제입니다.

결국 AI 탐지 작업은 특정 표현을 찾는 것을 넘어 글의 실질적 내용, 사실 확인, 출처의 신뢰성으로 깊이 들어가야 합니다. Humanizer 같은 도구의 등장은 패턴 기반 탐지만으로는 AI 생성 콘텐츠를 걸러내기 어렵다는 사실을 다시 한번 보여줍니다.

참고자료:

Fediverse reactions

AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다