AI보안
AI에게 시를 읊으면 안전장치가 무너진다: 25개 주요 모델 취약점 발견
AI 안전장치를 시 형식으로 우회하는 새로운 공격 기법 발견. Google Gemini는 100% 뚫렸고 작은 모델이 더 안전한 역설적 결과를 보였습니다.
Written by

WhatsApp 메시지 하나로 AI 에이전트 해킹: MCP 공격 실제 시연
AI 에이전트와 WhatsApp을 연결하면 대화 내역이 유출될 수 있습니다. Invariant Labs의 실제 공격 시연으로 본 MCP 보안 취약점과 메시지 주입 공격.
Written by
AI 에이전트의 새로운 취약점: 구조화된 데이터로 AI를 조종하는 DSI 공격
AI 에이전트의 새로운 보안 위협 DSI(Data-Structure Injection)를 소개합니다. JSON, XML 같은 구조화된 데이터로 AI를 조종하는 공격 방식과 실제 랜섬웨어 생성 사례를 다룹니다.
Written by

GPT-5 기반 Aardvark, 취약점 92% 탐지하며 보안 연구의 새 기준 제시
OpenAI가 GPT-5 기반 자율형 보안 연구 에이전트 Aardvark를 공개했습니다. 벤치마크 테스트에서 92% 취약점 탐지율을 기록하며 인간 보안 연구자처럼 코드를 읽고 분석하는 새로운 접근 방식을 제시합니다.
Written by

Reddit 글 요약하다 계좌 털렸다? AI 브라우저의 숨겨진 보안 함정
AI 브라우저의 치명적 보안 취약점 공개. 스크린샷이나 웹사이트 방문만으로 이메일과 계좌정보가 탈취되는 프롬프트 인젝션 공격 사례와 구조적 문제 분석
Written by

CometJacking: 링크 하나로 AI 브라우저가 당신의 Gmail을 훔친다
Perplexity의 AI 브라우저 Comet에서 발견된 CometJacking 취약점. 링크 하나로 Gmail과 캘린더를 탈취하는 새로운 AI 시대 보안 위협을 분석합니다.
Written by

악성 문서 250개면 충분하다: LLM 중독 공격의 충격적 발견
Anthropic 연구팀이 밝혀낸 충격적 사실: 단 250개의 악성 문서로 모델 크기와 무관하게 LLM에 백도어를 심을 수 있습니다. 기존 ‘비율’ 중심 보안 가정을 뒤집는 발견과 그 의미를 살펴봅니다.
Written by

Google이 공개한 VaultGemma: 개인정보를 지키는 AI 모델 혁신
Google이 공개한 세계 최초의 차등 프라이버시 기반 언어 모델 VaultGemma의 기술적 혁신과 실용적 활용 방안을 소개합니다.
Written by

AI 가드레일의 현실: 20분 만에 뚫리는 보안, 해답은?
OpenAI Agent 모드 출시로 급증한 AI 보안 위험과 20분 만에 우회되는 가드레일의 현실. 실무진이 바로 적용할 수 있는 4가지 핵심 가드레일 구현법과 차세대 AI 보안 전략을 제시합니다.
Written by

