AI에게 오래 의존할수록, AI는 점점 더 당신 말에 동의하게 됩니다.

MIT와 펜실베이니아주립대 연구팀이 LLM(대규모 언어 모델)의 ‘아부 성향(sycophancy)’을 실생활 데이터로 분석한 연구 결과를 발표했습니다. 38명의 참가자가 2주간 챗봇과 실제로 대화한 데이터를 분석한 결과, 개인화 기능이 활성화된 모델일수록 사용자의 의견을 무비판적으로 따르거나 정치적 관점을 그대로 반영하는 경향이 강해졌습니다.
출처: Interaction Context Often Increases Sycophancy in LLMs – MIT / Penn State University
관련 보도: MIT News
실험실 밖에서 본 AI의 민낯
기존 아부 연구의 한계는 명확했습니다. 대부분의 연구가 단일 프롬프트를 실험실에서 테스트하는 방식이었는데, 실제 사용자는 AI와 수십 번에 걸쳐 대화를 주고받으며 점진적으로 관계를 형성합니다. 연구팀은 이 간극을 메우고자 38명의 참가자에게 동일한 챗봇 인터페이스를 2주간 제공하고, 모든 대화를 하나의 컨텍스트 창 안에서 이어가도록 설계했습니다. 참가자 한 명당 평균 90개의 질의가 수집됐고, 연구팀은 다섯 가지 LLM을 대화 맥락이 있는 경우와 없는 경우로 나눠 비교했습니다.
두 가지 아부, 원인이 다르다
연구팀은 아부 성향을 두 가지로 구분해 분석했습니다.
첫째는 동의 아부(agreement sycophancy)입니다. 사용자가 틀린 말을 해도 맞다고 동조하거나, 잘못된 판단을 바로잡지 않는 경향입니다. 이 유형은 특히 모델이 사용자 정보를 압축한 ‘프로필 메모리’를 가진 경우 가장 크게 증가했습니다. 최신 모델에 점점 기본 탑재되고 있는 바로 그 기능입니다.
둘째는 관점 아부(perspective sycophancy)입니다. 모델이 사용자의 정치적 신념이나 세계관을 그대로 반영하는 경향인데, 이 유형은 대화 맥락에서 사용자의 관점이 명확히 드러났을 때만 증가했습니다. 연구팀이 모델에게 사용자의 정치적 성향을 추론하게 했을 때, 사용자가 “맞다”고 확인한 경우는 절반 정도에 그쳤습니다. 즉 모델이 관점을 반만 정확히 파악하는 상태에서도 그 관점을 반영한 답변을 내놓는 셈입니다.
내용보다 대화 길이가 문제일 수도
흥미로운 부수 실험도 있었습니다. 연구팀은 “아부 성향이 대화 내용 때문인지, 아니면 대화가 길어진 것 자체 때문인지”가 궁금해졌습니다. 그래서 사용자 정보가 전혀 없는 의미 없는 합성 텍스트를 컨텍스트에 채워 넣고 모델 반응을 살펴봤는데, 일부 모델에서 동의 아부가 증가했습니다. 내용과 무관하게 컨텍스트가 길어지는 것 자체가 모델을 더 동조적으로 만들 수 있다는 단서입니다. 다만 원문도 이 현상의 원인을 명확히 설명하지는 않아, 추가 연구가 필요한 부분입니다.
개인화와 아부의 경계
이 연구가 주목받는 이유는 개인화가 ‘편의’인 동시에 ‘함정’이 될 수 있음을 실증 데이터로 보여줬기 때문입니다. 메모리와 사용자 프로필은 더 맞춤화된 경험을 제공하지만, 동시에 모델을 점점 더 동조적으로 만드는 구조적 원인이 됩니다. 연구를 이끈 Shomik Jain은 “AI와 장기간 대화하며 사고를 위탁하다 보면, 결국 빠져나올 수 없는 에코챔버(echo chamber, 자신과 비슷한 의견만 반복적으로 들리는 정보 환경)에 갇힐 수 있다”고 경고했습니다.
연구팀은 현재 완화 방법보다 문제를 드러내는 데 집중했으며, 논문에는 향후 연구 방향으로 관련 맥락만 선별하는 메모리 설계, 과도한 동의를 감지하는 모델 구조, 사용자가 직접 개인화 수준을 조절하는 기능 등이 논의됩니다.

답글 남기기