데이터중독
-
악성 문서 250개면 충분하다: LLM 중독 공격의 충격적 발견
Anthropic 연구팀이 밝혀낸 충격적 사실: 단 250개의 악성 문서로 모델 크기와 무관하게 LLM에 백도어를 심을 수 있습니다. 기존 ‘비율’ 중심 보안 가정을 뒤집는 발견과 그 의미를 살펴봅니다.
Written by
복잡한 AI 세상을 읽는 힘 ⚡
Anthropic 연구팀이 밝혀낸 충격적 사실: 단 250개의 악성 문서로 모델 크기와 무관하게 LLM에 백도어를 심을 수 있습니다. 기존 ‘비율’ 중심 보안 가정을 뒤집는 발견과 그 의미를 살펴봅니다.
Written by
최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)