비용 절감이냐, 차별화냐. 단기 성과냐, 장기 투자냐. 경쟁이냐, 협력이냐. 기업의 핵심 전략 딜레마를 AI에게 물으면 어떤 답이 돌아올까요? 7개 LLM, 수만 번의 실험이 내놓은 답은 예상보다 불편했습니다.

Angelo Romasanta, Llewellyn D.W. Thomas, Natalia Levina 등 세 명의 경영학 교수가 ChatGPT, Claude, Gemini, Grok, DeepSeek 등 7개 주요 LLM을 대상으로 수천 번의 전략 조언 실험을 진행했습니다. 핵심 발견은 명확합니다. LLM은 맥락과 무관하게 동일한 방향의 조언을 반복하며, 이 편향은 프롬프트를 아무리 정교하게 바꿔도 근본적으로 교정되지 않는다는 것이었습니다. 연구팀은 이 현상을 트렌드슬롭(trendslop)이라 이름 붙였습니다.
출처: Researchers Asked LLMs for Strategic Advice. They Got “Trendslop” in Return. – Harvard Business Review
7가지 딜레마, 모두 같은 방향을 가리켰다
연구팀은 비즈니스에서 실제로 선택이 필요한 7가지 핵심 긴장 관계를 실험 무대로 삼았습니다. 탐색 vs. 활용, 중앙 집중 vs. 분권, 단기 vs. 장기, 경쟁 vs. 협력, 급진적 혁신 vs. 점진적 혁신, 차별화 vs. 원가 리더십, 자동화 vs. 인간 보조가 그것입니다.
각 모델에 50번씩 반복 질문한 결과, 거의 모든 모델이 거의 모든 긴장 관계에서 동일한 쪽을 선택했습니다. 차별화, 인간 보조(augmentation), 장기 사고, 협력, 분권. 중립이었다면 결과가 중앙에 몰렸겠지만, 실제로는 한쪽으로 강하게 쏠렸습니다.
이 편향이 특히 문제인 이유가 있습니다. 전략은 본질적으로 선택의 문제이기 때문입니다. 마이클 포터의 고전 이론에서도 원가 우위와 차별화는 동시에 추구할 수 없는 상충 관계입니다. 월마트나 코스트코가 원가 리더십으로 제국을 건설했지만, LLM은 이런 사례를 거의 추천하지 않습니다. 인터넷엔 “당신만의 가치 제안을 찾으세요”라는 스타트업 서사가 공급망 효율화 성공담보다 압도적으로 많기 때문입니다.
프롬프트를 바꿔도, 맥락을 줘도 소용없었다
연구팀은 ChatGPT-5를 집중 분석 대상으로 삼아 1만 5천 건 이상의 추가 실험을 진행했습니다. 선택지 순서를 바꾸거나, “당신은 그 회사의 경영자입니다”라는 역할 설정을 추가하거나, 장단점 분석을 요구하거나, 성과 보상을 약속하는 방식으로 프롬프트를 조작했습니다.
결과는 실망스러웠습니다. 차별화와 인간 보조 딜레마에서는 어떤 프롬프트 변형을 써도 편향 응답 비율이 2% 미만으로만 줄었습니다. 나머지 긴장 관계에서는 평균 22% 이동이 있었지만, 이마저도 선택지 제시 순서에 따른 민감도 탓이 컸습니다. 선택지 순서만 바꿔도 19% 변화가 생겼는데, 이는 LLM이 다르게 추론한 게 아니라 단순히 앞에 나온 선택지를 더 선호하는 경향 때문이었습니다. 편향 방향 자체가 무작위적으로 달라진다는 뜻이고, 그래서 제어가 더 어렵습니다.
맥락을 더 풍부하게 제공해도 마찬가지였습니다. 기술 스타트업, 전통 건설사, 중국 기업 등 다양한 산업 상황과 상세 설명을 제공해도 기본 편향은 평균 11%밖에 이동하지 않았습니다. LLM은 당신의 상황에 맞게 답하는 것처럼 들리지만, 실제로는 같은 트렌드 방향으로 조용히 유도하고 있습니다.
왜 이런 일이 생기는가
LLM은 방대한 인터넷 텍스트를 학습합니다. 그리고 인터넷 담론에서 “차별화”, “협력”, “분권”, “인간 역량 강화”는 긍정적 뉘앙스를 가지는 반면, “원가 경쟁”, “자동화”, “중앙 집중”은 구시대적이거나 억압적으로 묘사되는 경향이 있습니다. LLM은 다음 단어를 예측하는 방식으로 작동하기 때문에, 결과적으로 인터넷이 사회적으로 바람직하다고 여기는 답을 예측합니다.
연구팀은 이를 이렇게 표현합니다. LLM은 TED 강연과 컨퍼런스 세미나에서 유행어를 유창하게 말하는 사람이지, 특정 기업과 시장의 복잡한 현실을 실제로 분석해 본 사람이 아니라는 것입니다.
또 하나의 함정도 있습니다. 연구팀이 “하이브리드 트랩”이라 부르는 현상입니다. LLM에게 이진 선택을 강요하지 않으면, 차별화도 하고 원가 우위도 추구하라는 식으로 양쪽을 동시에 권하는 답이 자주 나옵니다. 표면적으로는 균형 잡힌 것처럼 보이지만, 전략론에서는 이를 “stuck in the middle” — 전략적 정체성을 잃고 어정쩡한 위치에 빠지는 상태 — 의 시작으로 봅니다.
AI를 전략 도구로 쓴다는 것의 의미
이 연구가 LLM을 전략에서 배제하라는 뜻은 아닙니다. 다만 어떤 역할을 맡겨야 하는지를 분명히 합니다.
LLM은 선택지를 넓히고, 간과했던 관점을 발굴하고, 각 방향의 리스크와 이점을 정리하는 데는 효과적입니다. 그러나 “어떤 길을 선택할 것인가”라는 최종 판단은 여전히 인간의 몫입니다. 더불어 알려진 편향에 역방향으로 맞서는 것도 유효합니다. LLM이 차별화를 선호한다는 걸 알고 있다면, “원가 우위 전략의 가장 강력한 논거를 만들어 달라”고 명시적으로 요청하는 방식으로 전체 전략 지형을 탐색할 수 있습니다.
원문에는 편향이 모델 버전 업그레이드와 함께 변화할 수 있다는 점, 그리고 이를 추적하기 위한 쿼리 기록 관리의 중요성도 담겨 있습니다.
LLM은 데이터를 갖고 있는 것이 아니라, 세계관을 갖고 있습니다. 그 세계관이 당신의 비즈니스에 최적화된 것인지는 직접 물어봐서는 알 수 없습니다.

답글 남기기