머신러닝보안
-
악성 문서 250개면 충분하다: LLM 중독 공격의 충격적 발견
Anthropic 연구팀이 밝혀낸 충격적 사실: 단 250개의 악성 문서로 모델 크기와 무관하게 LLM에 백도어를 심을 수 있습니다. 기존 ‘비율’ 중심 보안 가정을 뒤집는 발견과 그 의미를 살펴봅니다.
Written by

-
고양이 한 마리가 수학 문제를 망친다? CatAttack이 보여준 AI 추론 모델의 치명적 약점
무해해 보이는 “고양이 사실” 문구 하나로 최첨단 AI 추론 모델의 오답률을 300% 증가시킬 수 있다는 충격적인 CatAttack 연구 결과를 분석하고, AI 시스템의 예상치 못한 취약점과 그 대응 방안을 제시한 글입니다.
Written by
