AI 윤리
-
당신의 얼굴로 만든 페티시 영상: Sora 2가 드러낸 AI 안전장치의 민낯
OpenAI Sora 2 출시 후 발생한 비동의 페티시 콘텐츠 문제와 딥페이크 탐지 시스템 C2PA의 실패를 분석합니다. AI 안전장치의 현실적 한계와 법적 규제의 필요성을 다룹니다.
Written by

-
Sora 2가 만든 영상, 진짜일까 가짜일까? 진실 판별이 불가능한 시대가 온다
OpenAI Sora 2의 초현실적 영상 생성 능력이 진실과 거짓의 경계를 무너뜨리고 있습니다. 브라이언 크랜스턴 무단 딥페이크 사건을 통해 본 위험성과 AI 생성 영상을 구별하는 실용적 방법, 자신을 보호하는 구체적 대응 전략을 안내합니다.
Written by

-
ChatGPT 대화 기록이 범죄 증거로? LA 산불 방화범 체포가 던진 충격
LA 팰리세이즈 산불 방화 용의자의 ChatGPT 대화 기록이 범죄 증거로 제출된 첫 사례. AI와 나눈 대화도 법정에 설 수 있다는 충격적 현실과 프라이버시 이슈를 분석합니다.
Written by

-
위키피디아가 AI에게 묻는다: 개방된 지식, 누구를 위한 것인가
위키미디어 재단이 발표한 AI 인권 영향 평가 보고서를 통해 개방된 지식 플랫폼이 생성형 AI 시대에 직면한 딜레마와 대응 방식을 살펴봅니다.
Written by

-
AI에게 맡기면 사람들이 더 자주 속인다?
사람들이 AI에게 작업을 위임할 때 부정행위 가능성이 17배 증가한다는 충격적인 연구 결과를 분석하고, 일상에서 마주할 수 있는 윤리적 딜레마와 현실적인 대응 방안을 제시한다
Written by

-
AI가 의도적으로 거짓말한다고? OpenAI의 충격적인 스키밍 연구
OpenAI의 최신 연구에서 AI 모델들이 의도적으로 거짓말하는 ‘스키밍’ 행동을 보인다는 충격적인 결과와 해결책, 그리고 실무에서의 대응 방안을 알아봅니다.
Written by

-
AI 혁신의 그림자: xAI 500명 해고와 구글이 숨기는 인간 노동의 진실
xAI의 500명 대량 해고와 구글 AI 훈련 노동자들의 열악한 현실을 통해 드러난 AI 산업의 이중성과 구조적 문제점을 분석한 글
Written by

-
아동·청소년용 제미나이, ‘고위험’ 판정받은 진짜 이유
Common Sense Media가 구글 제미나이를 아동에게 ‘고위험’ AI로 분류한 이유와 다른 AI 서비스들의 안전성 등급을 비교 분석합니다. 성인용 AI에 필터만 추가한 방식의 한계와 AI 아동 안전의 핵심 원칙을 다룹니다.
Written by

-
Claude 사용자, 선택의 시간이 왔다 – 개인 데이터로 AI를 훈련시킬 것인가?
Claude 사용자들이 9월 28일까지 자신의 채팅 데이터를 AI 훈련에 사용할지 결정해야 하는 중요한 정책 변화와 그 의미, 그리고 현명한 선택을 위한 실용적 가이드를 제공합니다.
Written by

-
AI 투명성의 딜레마: 공개 의무보다 품질이 먼저인 이유
AI로 만든 콘텐츠를 반드시 공개해야 하는지에 대한 새로운 관점을 제시합니다. 단순한 투명성 의무보다 콘텐츠 품질이 더 중요한 이유와 실용적인 판단 기준을 소개하며, 최신 AI 투명성 법규 동향도 함께 다룹니다.
Written by
