AI 안전성
-
OpenAI o3 모델의 어두운 이면: 화려한 성능 뒤에 숨겨진 명세 게임과 환각 문제
OpenAI의 최신 추론 모델 o3의 ‘명세 게임(specification gaming)’과 ‘환각(hallucination)’ 문제를 분석하고, 이러한 문제가 AI 발전에 주는 시사점을 알아봅니다. 뛰어난 성능 뒤에 숨겨진 AI의 어두운 측면과 향후 과제를 살펴봅니다.
Written by
-
AI가 스스로 사회적 규범을 만든다? 놀라운 연구 결과
최근 발표된 연구에 따르면 AI 에이전트들이 서로 상호작용할 때 인간처럼 자발적으로 사회적 규범과 소통 방식을 발전시킬 수 있다고 합니다. 이 놀라운 발견이 AI의 미래와 우리 사회에 미칠 영향을 알아봅니다.
Written by
-
AI 추론 모델의 숨겨진 진실: 생각하는 대로 말하지 않는 AI
AI 추론 모델이 자신의 사고 과정을 항상 진실되게 보여주지 않는다는 앤트로픽의 최신 연구 결과를 분석하고, AI 기술의 현재 한계와 안전성 문제에 대한 인사이트를 제공합니다.
Written by
-
구글 딥마인드의 AGI 안전성 접근법: AI 발전과 위험성 사이의 균형
구글 딥마인드가 발표한 AGI 안전성 접근법 보고서를 분석하고, AI 기술의 발전과 잠재적 위험 사이의 균형을 모색하는 방법을 살펴봅니다.
Written by