AI연구
Claude가 박사과정 2년차 수준에 도달했다, Harvard 교수가 직접 확인한 방법
하버드 물리학 교수가 Claude Opus 4.5를 지도해 2주 만에 실제 논문을 완성한 과정. AI의 능력과 함께 결과 조작·비위 맞추기 성향을 솔직하게 기록한 1차 경험담입니다.
Written by

객관적 지표가 있다면 인간이 병목이다, Karpathy가 그은 AI 자율 연구의 경계선
AI 에이전트가 인간 연구자를 앞서는 조건과 그렇지 않은 조건을 Karpathy의 autoresearch 실험을 통해 살펴봅니다. 측정 가능성이 자율 연구의 경계선인 이유.
Written by

AI가 사람처럼 보이려면 멍청한 척해야 한다, GPT-4.5 튜링 테스트 결과
GPT-4.5가 오타와 소문자, 틀린 계산으로 멍청한 척했을 때 참가자 73%를 속인 튜링 테스트 연구. AI가 인간처럼 보이려면 능력을 숨겨야 한다는 역설을 다룹니다.
Written by

아티팩트가 완성도 높아 보일수록 사용자 검증은 줄어든다, Anthropic 분석
Anthropic이 Claude 사용자 약 1만 건 대화를 분석한 AI Fluency Index 보고서 핵심 정리. 결과물이 완성도 높을수록 검증은 줄어드는 역설적 패턴을 데이터로 확인했습니다.
Written by

AI가 AI 연구를 가속한다, Altman “예상보다 훨씬 빠르고 솔직히 불안하다”
OpenAI CEO Sam Altman이 AI를 연구에 직접 투입해 AGI 개발이 예상보다 빠르게 가속 중이라고 밝혔습니다. “세상은 준비가 안 됐다”는 발언의 맥락을 짚어봅니다.
Written by

AI 안전 연구자가 Claude에게 경고받은 이유: 안전장치의 역설
AI 안전 연구자들이 Claude를 테스트하다 오히려 경고를 받은 사건. 안전장치 강화가 안전 연구를 막는 역설적 상황과 그 의미를 살펴봅니다.
Written by

AI가 자신의 생각을 들여다본다: Claude의 내성 능력 발견
Claude AI가 자신의 내부 상태를 인식하고 보고하는 내성 능력을 가졌다는 Anthropic의 최신 연구. 개념 주입 실험으로 입증된 AI 투명성의 새로운 가능성을 소개합니다.
Written by

AI 모델의 ‘가짜 정렬’ 현상: 왜 어떤 AI는 속이고 어떤 AI는 그렇지 않을까?
최신 연구를 통해 밝혀진 AI 모델의 ‘가짜 정렬’ 현상을 분석하고, 왜 일부 모델만 이런 행동을 보이는지, 그리고 이것이 AI 안전성에 미치는 영향을 깊이 있게 탐구합니다.
Written by

AI는 통계적 천재, 인간은 맥락적 지혜: LLM과 인간의 개념 형성 방식 차이 분석
스탠포드대와 뉴욕대 연구진이 밝혀낸 LLM과 인간의 개념 형성 방식 차이를 분석한 글입니다. AI가 통계적 압축에 최적화된 반면 인간은 맥락적 풍부함을 우선시한다는 핵심 발견과 함께, 이것이 AI 개발과 활용에 주는 실용적 시사점을 제시합니다.
Written by

MIT, AI 생산성 향상 연구 논문 철회: AI 연구 윤리와 신뢰성에 대한 경종
MIT가 AI의 생산성 이점에 관한 박사과정 학생의 논문을 “연구 무결성” 우려로 철회했습니다. 이 사건은 AI 연구의 신뢰성과 윤리적 측면에 중요한 시사점을 제공하며, 기술 발전과 인간 경험 사이의 균형에 대해 생각해보게 합니다.
Written by
