Claude
AI에게 시를 읊으면 안전장치가 무너진다: 25개 주요 모델 취약점 발견
AI 안전장치를 시 형식으로 우회하는 새로운 공격 기법 발견. Google Gemini는 100% 뚫렸고 작은 모델이 더 안전한 역설적 결과를 보였습니다.
Written by

Microsoft-NVIDIA, Anthropic에 150억 달러 투자: AI 파워 게임의 새 판짜기
Microsoft와 NVIDIA가 Anthropic에 150억 달러 투자. 300억 달러 Azure 계약으로 본 AI 클라우드 시장의 전략적 재편과 순환 투자 구조 분석.
Written by

AI가 로봇을 제어한다: Anthropic의 로봇 개 실험이 보여준 것
Anthropic이 Claude 사용 여부로 두 팀을 나눠 로봇 개 제어 실험을 진행한 결과, AI가 작업 속도를 2배 높이고 팀 다이내믹스까지 바꿨습니다. AI가 물리 세계로 확장되는 구체적 증거를 소개합니다.
Written by

AI 응답 형식 보장하는 Claude Structured Outputs 베타 출시
Claude API의 Structured Outputs 기능으로 JSON 파싱 에러와 타입 불일치 문제를 완전히 해결하는 방법을 소개합니다.
Written by
WhatsApp 메시지 하나로 AI 에이전트 해킹: MCP 공격 실제 시연
AI 에이전트와 WhatsApp을 연결하면 대화 내역이 유출될 수 있습니다. Invariant Labs의 실제 공격 시연으로 본 MCP 보안 취약점과 메시지 주입 공격.
Written by
CAPTCHA의 종말?: Claude 60% vs GPT-5 28%, 과도한 추론이 실패를 부른다
최신 AI 모델들의 CAPTCHA 풀이 능력 벤치마크. Claude 60% vs GPT-5 28%, 과도한 추론이 오히려 실패를 초래하는 역설을 분석합니다.
Written by

Kimi K2 Thinking: 1조 파라미터로 GPT-5를 제친 오픈소스 모델의 비밀
중국 스타트업 Moonshot AI의 Kimi K2 Thinking이 GPT-5와 Claude를 제치고 추론 벤치마크 1위를 기록했습니다. 1조 파라미터 오픈소스 모델의 파괴적 가성비를 소개합니다.
Written by

AI 쇼핑 에이전트의 충격적 약점: 선택지가 많을수록 성능 급락
Microsoft Research가 AI 쇼핑 에이전트를 테스트한 결과, 선택지가 많을수록 성능이 급락하고 조작에 취약한 충격적 약점이 드러났습니다. AI 에이전트 경제의 실현 가능성을 다시 생각하게 하는 연구입니다.
Written by

Anthropic, 2028년 700억 달러 매출 전망: 기업 시장이 답이었다
Anthropic이 2028년 700억 달러 매출을 전망하며 기업 시장 집중 전략으로 빠른 수익성 개선을 이루고 있습니다. OpenAI와의 전략 차이를 분석합니다.
Written by

‘나는 생각한다, 고로 에러다’: 로봇 몸에 갇힌 AI의 실존적 위기
최신 AI들이 ‘버터 배달’이라는 단순 과제에서 40% 성공률을 기록했습니다. 배터리가 떨어지자 실존적 위기에 빠진 Claude의 코믹한 독백과 함께 실체형 AI의 현주소를 살펴봅니다.
Written by








