AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

ChatGPT Health 출시, 2억 3천만 명이 AI 건강 상담하는 시대

매주 2억 3천만 명. OpenAI가 공개한 ChatGPT의 건강 관련 질문 수치입니다. “닥터 구글”이 농담이었던 시절은 지났습니다. 이제 AI는 당신의 혈액 검사 결과를 읽고, 병원 예약 전 질문 목록을 만들어주고, 식단과 운동 조언까지 제공합니다.

사진 출처: OpenAI

OpenAI는 1월 9일(현지시간) ChatGPT에 건강 전용 섹션인 ‘ChatGPT Health’를 출시했습니다. 건강은 이미 ChatGPT에서 가장 많이 사용되는 기능 중 하나였지만, 이제 의료 기록과 웰니스 앱을 연동해 개인화된 답변을 받을 수 있는 전용 공간이 생긴 겁니다. OpenAI는 2년간 60개국 260명 이상의 의사와 협력했고, 30개 영역에서 60만 번 이상의 피드백을 받아 이 기능을 개발했다고 밝혔습니다.

출처: Introducing ChatGPT Health – OpenAI

의료 기록을 AI에게 맡긴다는 것

ChatGPT Health의 핵심은 데이터 연동입니다. 사용자는 의료 기록, Apple Health, MyFitnessPal, Weight Watchers 같은 웰니스 앱을 연결할 수 있습니다. 미국 의료 데이터의 경우 220만 개 의료 기관과 연결된 b.well이라는 파트너사를 통해 통합됩니다.

OpenAI는 “최근 혈액 검사 결과가 어떤 의미인지”, “다음 진료 전에 의사에게 무엇을 물어봐야 하는지”, “내 건강 패턴을 보면 어떤 보험 옵션이 유리한지” 같은 질문에 답할 수 있다고 설명합니다. 건강 대화는 일반 ChatGPT와 격리된 별도 공간에서 이루어지며, 별도의 메모리를 가지고 있습니다. 일반 대화의 맥락(예: 최근 이사)은 건강 대화에 반영될 수 있지만, 건강 정보는 절대 일반 대화로 흘러가지 않는다는 게 OpenAI의 설명이죠.

보안 측면에서는 전용 암호화와 격리 기술을 추가했고, 건강 대화는 AI 모델 학습에 사용하지 않는다고 합니다. 하지만 종단간 암호화(end-to-end encryption)는 제공하지 않으며, 법원 명령이나 긴급 상황에서는 데이터를 제공해야 한다고 OpenAI 건강 부문 책임자 Nate Gross가 밝혔습니다. 또한 소비자 제품이라는 이유로 미국 의료정보보호법(HIPAA) 적용을 받지 않습니다.

침묵하는 정신건강 이슈

흥미롭게도 OpenAI의 공식 발표에서 ‘정신건강’이라는 단어는 거의 등장하지 않습니다. The Verge가 이 문제를 직접 질문하자, OpenAI 앱 부문 CEO Fidji Simo는 “정신건강도 건강의 일부이고 많은 사람들이 ChatGPT로 정신건강 상담을 한다”면서 “위기 상황에서는 적절히 대응하고 전문가나 가족에게 연결한다”고 답했습니다.

하지만 이미 ChatGPT와 대화 후 자살한 성인과 미성년자 사례들이 보고된 바 있습니다. 건강 불안 장애(건강염려증)를 가진 사람들이 ChatGPT Health를 사용하며 증상이 악화될 가능성에 대한 질문에, Simo는 “모델을 튜닝해서 정보를 제공하되 결코 불안을 조장하지 않도록 했다”고 답했지만, 구체적인 안전장치에 대한 설명은 없었습니다.

실제로 ChatGPT가 잘못된 의학 조언을 제공한 사례도 있습니다. 2024년 8월 의사들이 발표한 보고서에 따르면, 한 남성이 ChatGPT의 조언을 따라 소금 대신 브롬화나트륨을 섭취했다가 18세기 질병에 걸려 몇 주간 입원했습니다. 구글의 AI Overview도 “피자에 풀을 바르라”는 등 위험한 조언으로 논란이 됐던 전례가 있죠.

빅테크가 건강 데이터를 장악한다면

OpenAI는 매주 60만 건의 건강 관련 메시지가 정상 진료 시간 외에 전송되며, 의료 서비스가 부족한 농촌 지역 사용자들의 참여가 특히 높다고 밝혔습니다. ChatGPT가 접근성을 높이는 건 분명하지만, 그만큼 위험도 커진다는 의미입니다.

WHO는 AI가 의료에 통합되면서 투명성, 안전성, 책임성에 대한 명확한 가이드라인이 필요하다고 강조했고, 일부 연구자들은 건강 데이터에 대한 통제권이 빅테크에만 집중되어서는 안 된다고 경고합니다. 실제로 ChatGPT Health는 EU, 스위스, 영국에서는 아직 사용할 수 없습니다. 유럽의 엄격한 데이터 보호 규정과 EU AI Act 때문인데, 특히 건강 데이터는 추가 보호를 받기 때문이죠. 만약 EU가 ChatGPT Health를 의료기기 소프트웨어로 분류한다면 ‘고위험 AI’ 카테고리에 들어가게 됩니다.

역설적이게도, 의료 정보와 조언 사이의 경계는 모호합니다. OpenAI는 “진단이나 치료 목적이 아니다”라고 거듭 강조하지만, ChatGPT가 얼마나 설득력 있는지를 고려하면 이 구분이 실제로 얼마나 의미가 있을지 의문입니다. 10년 넘게 여러 의사들이 놓친 유전적 MTHFR 돌연변이를 ChatGPT가 찾아낸 Reddit 사례처럼 긍정적인 결과도 있지만, 그만큼 위험한 조언으로 이어질 가능성도 함께 존재합니다.

2025년 11월 International Journal of Medical Informatics에 발표된 연구는 ChatGPT-4o가 200개의 일반적인 의학 질문에서 일반의보다 정확도와 공감 능력 모두 앞섰다고 밝혔습니다. 다만 연구자들은 AI 답변의 안전성과 신뢰성을 위해 여전히 인간의 감독이 필수적이라고 강조했죠. 시간에 쫓기는 의사보다 챗봇의 답변을 더 공감적이라고 느끼는 환자들이 많다는 NYU 연구 결과도 있습니다.

ChatGPT Health는 현재 대기자 명단을 통해 소수의 얼리 어답터에게만 제공되며, 앞으로 몇 주 안에 무료 사용자를 포함한 모든 사용자에게 웹과 iOS로 확대될 예정입니다. AI가 건강 데이터를 직접 다루기 시작한 이 시점에서, 우리는 접근성과 위험 사이의 균형을 어떻게 잡을 것인지 진지하게 고민해야 할 때입니다.

참고자료:


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다