AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

Wikipedia, AI 글쓰기 전면 금지, 40대 2 표결의 배경

Wikipedia는 AI를 가장 적극적으로 실험한 플랫폼 중 하나였습니다. 그런데 올해 3월, 그 Wikipedia가 AI로 기사를 쓰거나 고쳐 쓰는 것을 전면 금지했습니다. 수백 명의 자원봉사 에디터들이 참여한 논쟁의 결론은 40대 2, 압도적 찬성이었습니다.

Illustration of the Wikipedia the free encyclopedia website application, Paris, France, January 24, 2025. Wikipedia is a collaborative, multilingual online encyclopedia created by Jimmy Wales and Larry Sanger in January 2001. (Photo by Riccardo Milani / Hans Lucas / Hans Lucas via AFP)

Wikipedia의 공식 정책 페이지는 이제 이렇게 명시합니다. “LLM이 생성한 텍스트는 Wikipedia의 핵심 콘텐츠 정책을 자주 위반한다. 이에 따라 LLM을 이용한 기사 생성 또는 재작성은 금지된다.” 수년간의 실험과 내부 논쟁 끝에 나온 결론입니다.

출처: Wikipedia:Writing articles with large language models – Wikipedia

금지는 맞되, 전부는 아니다

새 정책은 LLM 사용을 완전히 차단하지는 않습니다. 예외 조항이 두 가지 있습니다.

  1. 에디터 본인이 쓴 글에 한해 LLM으로 기본 교정을 제안받을 수 있습니다. 단, 반드시 사람이 검토해야 하고, LLM이 새로운 내용을 추가해선 안 됩니다.
  2. 다른 언어 Wikipedia 기사를 영어로 번역할 때 LLM을 보조 도구로 쓸 수 있습니다. 이 경우도 별도의 LLM 번역 가이드라인을 따라야 합니다.

정책은 한 가지를 특히 경고합니다. “LLM은 요청받은 것 이상을 하는 경향이 있어 원문의 의미를 바꾸거나, 인용 출처가 뒷받침하지 않는 내용을 추가할 수 있다”는 것입니다. AI가 아무것도 지어내지 않도록, 에디터가 끝까지 책임지는 구조입니다.

왜 이 결론에 이르렀나

Wikipedia 에디터들이 처음부터 AI를 거부했던 건 아닙니다. 실제로 Wikimedia 재단은 한때 AI가 자동 생성한 요약문을 기사 상단에 표시하는 실험을 직접 진행했습니다. 하지만 에디터 커뮤니티의 강한 반발로 실험은 중단됐습니다.

그 이후에도 AI로 작성된 것으로 의심되는 기사들이 꾸준히 늘었고, 커뮤니티는 ‘WikiProject AI Cleanup’이라는 자체 조직을 만들어 AI 콘텐츠를 골라내는 작업을 시작했습니다. AI 글을 판별하는 가이드, 품질 미달 기사를 빠르게 삭제하는 절차도 생겼습니다. 이 정책을 처음 제안한 에디터 Ilyas Lebleu는 이렇게 말했습니다. “최근 몇 달간 LLM 관련 신고가 늘었고, 에디터들이 감당하기 힘든 수준이 됐다.”

결국 표결이 열렸고, 40대 2로 금지안이 통과됐습니다.

자원봉사 커뮤니티가 그은 선

이번 결정이 눈에 띄는 이유는 Wikipedia가 기업이 아닌 자원봉사 커뮤니티에 의해 운영되기 때문입니다. 상업적 이해관계 없이, 정보의 정확성과 신뢰성을 지키기 위해 스스로 규칙을 만든 것입니다.

AI가 생산성 도구로 자리 잡아가는 흐름 속에서, 콘텐츠의 정확성과 출처 신뢰성을 핵심으로 하는 Wikipedia가 명시적 금지선을 그었다는 사실은 하나의 기준점이 됩니다. 이번 결정의 전체 논의 과정과 구체적인 예외 조항 내용은 Wikipedia 정책 페이지에서 직접 확인할 수 있습니다.

참고자료:


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다