9월 28일까지 Claude 사용자들은 자신의 채팅 데이터를 AI 훈련에 사용할지 결정해야 하며, 이는 개인정보 보호와 AI 발전 사이의 선택을 의미합니다.
Claude를 만든 Anthropic이 중요한 정책 변화를 발표했습니다. 더 이상 당신의 채팅이 30일 후 자동으로 삭제되지 않습니다. 대신 당신의 대화가 AI 모델 훈련에 사용되고, 최대 5년까지 보관될 수 있습니다.
하지만 선택권은 여전히 당신에게 있습니다. 9월 28일까지 말이죠.

무엇이 바뀌었나?
예전 Anthropic은 사용자 데이터로 AI를 훈련시키지 않았습니다. 채팅 내용은 30일 후 자동으로 사라졌죠. 하지만 이제는 다릅니다.
새로운 정책의 핵심:
- 사용자 동의 시 채팅 데이터를 AI 모델 훈련에 사용
- 데이터 보존 기간이 30일에서 최대 5년으로 연장
- Claude Free, Pro, Max 사용자에게만 적용
- 비즈니스 고객(Claude for Work, API 등)은 제외
가장 중요한 건 이 정책이 “새로운 대화나 재개된 대화”에만 적용된다는 점입니다. 과거 대화는 건드리지 않지만, 예전 대화를 다시 시작하면 그 순간부터 훈련 데이터가 됩니다.
업계 전반의 움직임
Anthropic만의 문제가 아닙니다. AI 업계 전체가 비슷한 방향으로 움직이고 있어요.
OpenAI는 더 극단적입니다. 뉴욕타임스와의 저작권 소송 때문에 법원 명령으로 모든 ChatGPT 대화를 무기한 보존해야 합니다. 사용자가 삭제해도 실제로는 삭제되지 않는 상황이죠.
반면 Claude는 적어도 선택권을 줍니다. 옵트아웃하면 기존 30일 보존 정책이 유지됩니다.

왜 데이터가 필요할까?
Anthropic은 이렇게 설명합니다. “실제 사용자 대화가 모델을 더 유용하고 정확하게 만든다”고요.
예를 들어, 개발자가 Claude와 코딩 문제를 해결하는 과정이 있다면 그 대화는 미래 코딩 관련 질문에 더 나은 답변을 제공하는 데 도움이 됩니다. 일종의 선순환 구조죠.
AI 모델 개발 주기가 18-24개월이기 때문에 일관성 있는 데이터 수집이 필요하다고도 설명합니다. 비슷한 데이터로 훈련된 모델이 더 일관된 성능을 보인다는 것입니다.
함정은 없을까?
문제는 사용자들이 이 변화를 놓치기 쉽다는 점입니다.
팝업 창에서 가장 눈에 띄는 건 큰 검은색 “동의” 버튼입니다. 정작 중요한 데이터 사용 설정은 작은 글씨로 아래쪽에 있어요. 그것도 기본값이 “켜짐” 상태로 설정되어 있습니다.
많은 사용자가 제대로 읽지 않고 “동의”를 클릭할 가능성이 높습니다. 디자인 심리학을 활용한 의도적인 설계라는 비판이 나오는 이유입니다.
미국 연방거래위원회(FTC)는 과거 “약관 변경을 몰래 하거나 중요한 내용을 하이퍼링크 뒤에 숨기는” 행위에 대해 경고한 바 있습니다.
옵트아웃, 어떻게 할까?
다행히 방법은 간단합니다.
팝업이 나타났을 때:
- 아래쪽의 작은 토글 스위치를 “꺼짐”으로 변경
- 그 후 “동의” 버튼 클릭
이미 동의했다면:
- Claude 설정 → Privacy 탭 → Privacy Settings
- “Help improve Claude” 옵션을 “꺼짐”으로 변경
한 가지 주의할 점은 이미 시작된 훈련에서는 데이터를 빼낼 수 없다는 것입니다. 앞으로의 데이터만 제외됩니다.
선택의 기준
그렇다면 어떤 기준으로 결정해야 할까요?
데이터 공유를 고려해볼 만한 경우:
- 일반적인 질문이나 학습 목적으로만 사용
- AI 발전에 기여하고 싶은 마음
- 민감한 정보를 거의 다루지 않음
옵트아웃을 권하는 경우:
- 업무상 기밀 정보를 다룸
- 개인적이거나 민감한 주제를 자주 논의
- 데이터 프라이버시를 중요하게 생각함
- 의료, 법률, 금융 분야 종사자
특히 의료진, 변호사, 연구자, 언론인처럼 기밀성이 중요한 직업을 가진 사람들은 신중하게 고려해야 합니다.
미래의 방향
이번 변화는 AI 업계 전반의 트렌드를 보여줍니다.
더 엄격한 규제: 정부들이 AI별 프라이버시 규제를 준비하고 있습니다.
기술적 혁신: 연합학습, 동형암호 등 프라이버시를 보호하면서 학습하는 기술이 주목받고 있습니다.
시장 차별화: 프라이버시 보호가 AI 플랫폼 선택의 중요한 기준이 되고 있습니다.
법적 선례: OpenAI 사례의 결과에 따라 업계 전체의 데이터 정책이 바뀔 수 있습니다.
현명한 선택을 위해
9월 28일까지 시간이 있습니다. 성급하게 결정하지 말고 다음을 고려해보세요.
Claude를 어떤 용도로 사용하는지 생각해보세요. 개인적인 고민을 털어놓거나 회사 기밀을 다룬다면 옵트아웃이 현명합니다. 일반적인 학습이나 코딩 도움을 받는 정도라면 큰 문제없을 수 있어요.
중요한 건 당신이 정보를 알고 선택하는 것입니다. AI 회사들이 데이터 정책을 바꿀 때마다 사용자가 뒤늦게 알게 되는 상황이 반복되고 있습니다. 이제는 우리가 더 주의 깊게 살펴봐야 할 때입니다.
당신의 데이터, 당신의 선택입니다. 하지만 그 선택이 무엇을 의미하는지는 정확히 알고 결정하세요.
참고자료:
Comments