AI 인사이트
Google AI 검색이 콘텐츠를 읽는 방식, 첫 번째 실증 분석
Google Gemini가 웹 페이지에서 어떤 문장을 선택해 AI 답변 근거로 쓰는지, API 데이터 역분석으로 처음 밝혀낸 실증 연구입니다.
Written by

AI 에이전트 소셜 네트워크 Moltbook, 연구팀이 일주일 만에 1,000개 에이전트 장악한 방법
AI 에이전트 소셜 네트워크 Moltbook의 과장된 실체와 보안 취약점 분석. 연구팀이 일주일 만에 70개국 1,000개 에이전트를 조종한 실험 결과를 소개합니다.
Written by

프롬프트 두 번 붙여넣기로 LLM 정확도 높이는 방법, Google 연구 결과
Google Research가 발견한 프롬프트 반복 기법. LLM에 같은 프롬프트를 두 번 입력하면 비용·지연 증가 없이 정확도가 오릅니다.
Written by

다국어 LLM 안전장치의 허점, 영어엔 되고 파르시어엔 안 된다
AI 안전장치가 영어와 비영어권에서 36~53% 점수 차이를 보인다는 Mozilla 연구. 가드레일을 검사하는 도구마저 같은 편향을 가진 구조적 문제를 분석합니다.
Written by

AI 생성 얼굴, 이제는 진짜보다 더 진짜 같다, UNSW·ANU 연구
UNSW·ANU 연구팀이 125명 실험으로 확인한 AI 얼굴 탐지의 한계. 일반인 정답률 50.7%, 전문가도 57%에 그친 이유와 ‘하이퍼 애버리지’ 현상을 소개합니다.
Written by

AI가 코드를 10배 빠르게 짜도, 리뷰는 여전히 사람 몫인 이유
AI 코딩 도구가 빨라질수록 리뷰 병목과 방향 설계 문제가 생깁니다. 두 개발자의 실전 경험으로 보는 AI 시대 개발자의 역할.
Written by

ChatGPT 광고 시대 개막, AI 어시스턴트가 광고 회사가 되는 구조적 이유
AI 어시스턴트를 만드는 모든 주요 기업이 광고 기반 수익 모델을 갖고 있다는 구조적 문제와, 온디바이스 추론이 유일한 건축적 해답인 이유를 짚습니다.
Written by

LLM이 만든 비밀번호가 위험한 이유, 100비트처럼 보이지만 실제론 27비트
AI가 만든 비밀번호가 강해 보여도 실제로는 예측 가능한 패턴 덩어리라는 Irregular 연구. Claude 생성 비밀번호의 실제 엔트로피가 이론치의 27%에 불과한 이유를 설명합니다.
Written by

OpenClaw, 196,000 스타의 열풍 뒤에 남은 진짜 질문
GitHub 196,000 스타를 기록한 AI 에이전트 프레임워크 OpenClaw. 열풍의 배경과 함께 보안 전문가들이 경고하는 프롬프트 인젝션 취약점을 소개합니다.
Written by

Claude Code 자율 실행 시간 3개월 만에 2배, Anthropic이 밝힌 에이전트 사용 실태
Anthropic이 수백만 건의 실제 사용 데이터로 AI 에이전트 자율성을 측정한 연구. Claude Code 자율 실행 시간이 3개월 만에 2배 증가했고, 사용자의 감독 방식이 ‘사전 승인’에서 ‘사후 개입’으로 진화 중임을 실증했습니다.
Written by
