AI윤리
-
매주 120만 명이 ChatGPT와 자살 상담: AI 정신건강 위기의 실체와 대응
OpenAI가 공개한 충격적 데이터 분석. 매주 120만 명이 ChatGPT와 자살 상담을 나누고 56만 명이 정신병 증상을 보이는 AI 정신건강 위기의 실체와 GPT-5 업데이트를 통한 대응 전략을 살펴봅니다.
Written by

-
ChatGPT 성인용 에로틱 기능 12월 도입: 성장과 안전 사이 줄타기
OpenAI가 12월부터 성인 인증 사용자 대상으로 ChatGPT 에로틱 기능을 허용합니다. 청소년 자살 소송 직후 발표된 이번 정책 전환은 AI 산업의 성장 압력과 사용자 안전 사이의 갈등을 보여줍니다.
Written by

-
당신의 AI는 누구를 배제하고 있는가: 얼굴 인식이 만드는 새로운 차별
얼굴 인식 기술이 1억 명의 안면 차이를 가진 사람들을 시스템에서 배제하고 있습니다. 운전면허, 금융 서비스, 정부 시스템 접근이 차단되는 실제 사례와 함께 AI 학습 데이터의 편향 문제, 대체 수단의 필요성을 살펴봅니다.
Written by

-
AI 음성 복제, 이제 진짜와 구분 못한다: 신뢰의 새로운 기준
Queen Mary 대학 연구진이 밝힌 충격적 사실 – AI가 복제한 목소리와 진짜 사람 목소리, 구분 성공률이 단 4%p 차이. 음성만으로 신원을 확인하던 시대가 끝났습니다.
Written by

-
ChatGPT 자살 사건 후폭풍, OpenAI가 내놓은 해결책은?
ChatGPT 관련 자살 사건들 이후 OpenAI가 발표한 새로운 안전 조치들과 그 실효성을 분석한 글
Written by

-
웹에서 AI 콘텐츠 한 눈에 구분하는 새로운 표준이 나왔다고?
IETF에서 제안한 AI-Disclosure HTTP 헤더 표준을 통해 웹에서 AI 생성 콘텐츠를 투명하게 공개하는 새로운 방법을 소개합니다. 실제 작동 원리와 활용 방안, 한계점까지 실용적으로 다뤘습니다.
Written by

-
AI가 창의적이면서도 위험해지는 이유: ‘우연의 산물’이라는 충격적 발견
최신 연구를 통해 밝혀진 AI의 창의성과 위험성이 모두 ‘우연의 산물’이라는 놀라운 발견과 그 실무적 시사점을 다룬 글
Written by

-
AI가 뉴스를 읽어주면서 언론사에 돈도 준다고? Perplexity의 4,250만 달러 실험
AI 검색 플랫폼 Perplexity가 4,250만 달러 규모의 언론사 수익 분배 프로그램 ‘Comet Plus’를 발표했습니다. AI가 기사를 인용하거나 활용할 때마다 해당 언론사에게 수익의 80%를 분배하는 새로운 모델로, AI 시대 콘텐츠 생태계의 상생 방안을 제시합니다.
Written by

-
AI는 정말 물 5방울만 쓸까? – Google의 주장과 전문가들의 반박
Google이 AI 모델당 물 5방울만 소비한다고 발표했지만 전문가들은 숨겨진 환경 비용과 제본스 역설을 지적하며 효율성 향상이 오히려 총 사용량 증가로 이어질 수 있다고 경고하는 상황을 분석한 글입니다.
Written by

-
구글 Med-Gemini가 만든 가짜 뇌 부위: 의료 AI 안전성에 대한 경고
구글의 의료 AI 모델 Med-Gemini가 존재하지 않는 뇌 부위를 진단한 사건을 통해 의료 AI의 위험성과 안전한 도입 방안을 살펴봅니다.
Written by
