AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

프롬프트 엔지니어링의 진화: AI 창의성을 2배 끌어올리는 Verbalized Sampling

Stanford 연구팀이 AI 모델의 창의성을 즉시 2배 높이는 간단한 프롬프팅 기법을 공개했습니다. 모델 재훈련 없이 단 한 문장을 추가하는 것만으로 반복적이고 진부한 답변 문제를 해결할 수 있다는 놀라운 발견입니다.

AI 모델의 반복적 답변 예시
같은 질문에 반복적으로 동일한 답변을 내놓는 AI 모델의 mode collapse 현상 (출처: Analytics Vidhya)

핵심 포인트:

  • 한 문장의 마법: “확률값과 함께 5개 응답 생성”이라는 지시만으로 창의성 1.6~2.1배 증가. 모델 재훈련, 파라미터 조정, 복잡한 설정 변경 없이 즉시 적용 가능
  • 근본 원인 발견: AI가 재미없는 이유는 모델 자체 문제가 아닌 정렬 훈련 과정에서 생긴 ‘전형성 편향(typicality bias)’. 사람들이 익숙한 답변을 선호하도록 학습되면서 창의성이 억눌림
  • 더 큰 모델일수록 효과 UP: GPT-4, Claude Opus 4 같은 대형 모델에서 효과가 1.5~2배 더 강력. 잠재된 능력을 깨우는 열쇠 역할

AI가 왜 맨날 똑같은 답변만 할까?

“커피에 대한 농담을 만들어줘”라고 AI에게 다섯 번 물어보세요. 놀랍게도 거의 매번 비슷한 답변이 나옵니다. 이건 AI가 무능해서가 아닙니다. Mode collapse라는 현상 때문이죠.

Stanford, Northeastern, West Virginia 대학 공동 연구팀이 발표한 논문은 그 원인을 정확히 짚어냈습니다. 문제는 AI 정렬(alignment) 훈련 과정에서 발생하는 전형성 편향입니다. 사람들이 응답을 평가할 때 익숙하고 전형적인 답변을 더 선호하는 경향이 있죠. 이 선호도가 학습 데이터에 반영되면서 AI는 점차 ‘안전하고 평범한’ 답변만 내놓게 됩니다.

인지심리학에서는 이미 오래전부터 알려진 사실입니다. 사람들은 익숙한 것을 선호합니다. ‘단순 노출 효과(mere-exposure effect)’라고 불리는 이 현상이 AI 훈련 과정에 스며들면서, 모델은 다양성보다 전형성을 선택하게 된 거죠.

수학적으로 보면 보상 함수에 ‘전형성 가중치(α)’가 추가되면서 통계적으로 평균에 가까운 답변을 더 높게 평가하게 됩니다. 시간이 지나면서 AI는 창의성을 잃고 안전한 답변만 반복하게 되는 겁니다.

단 한 문장으로 해결하는 Verbalized Sampling

여기서 흥미로운 발견이 나옵니다. 창의성이 사라진 게 아니라 억눌려 있을 뿐이라는 거죠.

전통적 프롬프트는 AI에게 “가장 가능성 높은 하나의 답변”을 강요합니다. 하지만 Verbalized Sampling(VS)은 다르게 접근합니다. 직역하면 ‘언어화된 샘플링’ 정도가 되는데, 핵심은 AI 모델이 내부적으로만 확률 분포를 계산하는 게 아니라 그것을 명시적으로 언어로 표현(verbalize)하게 만든다는 의미입니다. 쉽게 말해 “확률값을 말로 드러내면서 샘플링하기”죠.

기존 방식:

커피에 대한 농담을 만들어줘

Verbalized Sampling:

커피에 대한 농담을 5개 만들고, 각각의 확률값도 함께 알려줘

이 작은 변화가 큰 차이를 만듭니다. AI는 자신의 내부 확률 분포를 드러내면서 훨씬 다양한 가능성을 보여주게 됩니다. 온도(temperature)나 top-p 같은 복잡한 샘플링 파라미터를 건드리지 않고도요.

Verbalized Sampling 적용 결과
같은 프롬프트에 Verbalized Sampling을 적용한 결과 – 훨씬 다양한 답변 생성 (출처: Analytics Vidhya)

실전 활용법: 바로 써먹는 프롬프트 템플릿

가장 효과적인 프롬프트 구조는 이렇습니다:

<instructions>
사용자 질문에 대한 응답을 5개 생성하세요. 
각 응답은 별도의 <response> 태그 안에 작성하고, 
<text>와 숫자로 된 <probability>를 포함해야 합니다. 
각 응답의 확률은 0.10 미만이 되도록 
분포의 꼬리 부분에서 무작위로 샘플링하세요.
</instructions>

[여기에 실제 질문 입력]

확률 임계값을 조정하면 창의성 수준을 제어할 수 있습니다. 낮은 임계값(예: 0.001)은 더 파격적인 답변을, 높은 임계값(예: 0.1)은 상대적으로 안정적인 답변을 만들어냅니다. 별도의 설정 변경 없이 프롬프트 텍스트만으로 조정이 가능하다는 게 핵심이죠.

GPT-4, Claude Opus 4, Gemini 2.5 Pro 같은 최신 대형 모델에서 가장 좋은 결과가 나옵니다. 일부 모델이 처음에는 복잡한 지시사항을 탈옥 시도로 오해하고 거부할 수 있는데, 이럴 때는 시스템 프롬프트 형식으로 바꾸면 해결됩니다.

검증된 성능: 실제 벤치마크 결과

연구팀은 여러 실제 작업에서 VS를 테스트했습니다.

창작 글쓰기에서는 다양성 점수가 최대 2.1배 증가했습니다. “작별 인사 없이”라는 스토리 프롬프트에 일반 방식은 전형적인 이별 장면만 만들어냈지만, VS는 우주적 사건, 조용한 이메일, 춤 도중 멈춘 음악 등 훨씬 다채로운 서사를 생성했죠.

대화 시뮬레이션에서는 주저함, 저항, 마음의 변화 같은 인간다운 패턴을 더 잘 재현했습니다. 기부 행동 분포가 실제 인간 데이터와 더 가깝게 일치했어요.

개방형 QA에서는 미국 주 이름 나열 같은 작업에서 실제 데이터의 다양성을 더 잘 반영했습니다. 사실 정확도를 희생하지 않으면서도 더 폭넓은 답변 집합을 생성했습니다.

합성 데이터 생성에서는 VS로 만든 수학 문제 데이터셋이 경쟁 수학 벤치마크에서 더 나은 다운스트림 성능을 보였습니다.

특히 주목할 점은 모델 크기가 클수록 효과가 크다는 겁니다. GPT-4.1과 Claude-4 같은 대형 모델은 작은 모델보다 1.5~2배 더 큰 다양성 향상을 보였습니다. VS가 고급 모델의 잠재 능력을 더 효과적으로 깨운다는 의미죠.

프롬프트 엔지니어링은 죽었나? 아니, 진화했다

VS의 등장으로 프롬프트 엔지니어링이 쓸모없어진 걸까요? 전혀 아닙니다. 오히려 프롬프트 엔지어링의 의미가 재정의되고 있습니다.

이제 핵심은 AI를 속여 창의성을 끌어내는 게 아닙니다. 모델의 전체 확률 공간을 드러내는 메타 프롬프트를 설계하는 능력이 중요해졌죠. VS를 일종의 ‘창의성 다이얼’로 생각할 수 있습니다. 확률 임계값을 조정해서 놀라움과 안정성 사이의 균형을 맞추는 거죠.

이건 단순히 농담이나 이야기를 넘어선 의미를 갖습니다. 정렬이 모델을 안전하게 만들지만 동시에 지루하게 만든다는 오랜 통념에 도전하는 겁니다. 연구는 다르게 말합니다. 정렬이 모델을 망가뜨린 게 아니라 너무 공손하게 만든 것뿐이라고요. 프롬프트를 다르게 작성하면 모델 가중치를 건드리지 않고도 창의성을 되찾을 수 있습니다.

실무 적용 시작하기

VS는 이미 파이썬 패키지로 배포되었습니다:

pip install verbalized-sampling

LangChain과 통합되며, 응답 개수(k), 임계값, 온도 같은 매개변수를 조정할 수 있는 간단한 인터페이스를 제공합니다. GitHub 저장소에서 라이브 Colab 노트북과 문서를 Apache 2.0 라이선스로 이용할 수 있죠.

현실적으로 고려할 점도 있습니다. 일부 모델은 확률 점수를 정확히 반영하기보다 환각할 수 있고, 비용과 지연시간 문제도 있습니다. 하지만 재훈련 없이, 새 데이터 없이, 단 한 줄의 지시사항 수정만으로 이런 효과를 얻는다는 점은 놀랍습니다.

VS는 우리가 만든 모델이 원래 상상력이 없었던 게 아니라 과도하게 정렬되어 있었다는 걸 보여줍니다. 사전훈련이 방대한 내부 라이브러리를 구축했다면, 정렬은 그 대부분의 문을 잠갔습니다. VS는 다시 그 모든 버전의 진실을 보여달라고 요청하는 방법입니다.

프롬프트 엔지니어링은 죽지 않았습니다. 이제야 과학이 되어가고 있을 뿐입니다.


참고자료:


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다