챗GPT 믿었다가… 美 60대 남성, ‘독성물질 중독’으로 입원

  • 등록 2025.08.14 09:32:12
크게보기

전문가 “AI는 의사가 아니다… 규제 공백 속 위험 사례 재발 우려”

 

 

미국의 한 60대 남성이 인공지능(AI) 챗봇의 식이요법 조언을 그대로 따르다 독성 화학물질인 ‘브롬화나트륨’(Sodium Bromide)에 장기간 노출돼 병원에 입원하는 사건이 발생했다. 의료계는 AI의 정보 생성 방식과 한계를 고려하지 않은 무분별한 활용이 심각한 건강 피해로 이어질 수 있다며 경고했다.

 

◇ “소금 대체하라” 조언에 3개월간 '브롬화나트륨' 섭취

 

미국 의학 학술지 내과학 연보(Annals of Internal Medicine)에 따르면, 해당 남성은 건강상의 이유로 식단에서 식염(염화나트륨)을 줄이고자 챗GPT에 대체 재료를 문의했다.

 

이 과정에서 챗봇은 '브롬화나트륨'을 대체제로 제안했고, 그는 이를 식사에 사용하며 3개월간 섭취했다. 연구진은 해당 조언이 본래 청소나 산업용 용도를 설명하는 맥락에서 언급됐을 가능성이 높다고 분석했다.

 

브롬화나트륨은 과거 항경련제나 진정제로 쓰였으나, 현재는 주로 청소·제조·농업용으로 사용된다. 사람에게는 독성이 있어 장기간 섭취 시 ‘브롬증(bromism)’을 유발할 수 있다.

 

남성은 병원에 도착했을 때 피로, 불면증, 운동 실조, 얼굴 여드름, 피부의 붉은 돌기(체리 혈관종), 극심한 갈증 등을 호소했다. 진단 결과 그는 브롬증에 걸려 있었으며, 편집증 증세로 “이웃이 자신을 독살하려 한다”고 주장하기까지 했다. 

 

의료진은 청각·시각 환각 증세를 확인했고, 탈출을 시도하던 환자를 정신과 보호 입원시켰다. 이후 정맥 수액과 전해질 보충, 항정신병 약물 투여 등 치료를 거쳐 3주간의 모니터링 후 퇴원했다.

 

◇ 전문가 “AI는 상식·판단력 없어… 맹신하면 위험”

 

연구진은 “AI는 언어 예측 도구에 불과해 상식과 의학적 판단이 없다”며 “사용자가 비판적 사고 없이 조언을 따를 경우 심각한 결과를 초래할 수 있다”고 경고했다.

 

샌프란시스코 바이오기업 센티백스(Centivax)의 제이콥 글랜빌 CEO는 폭스뉴스에 “이번 사례는 LLM(대규모 언어 모델)의 한계를 잘 보여준다”며 “화학 반응에서 염화나트륨 대체물로 자주 등장하는 브롬화나트륨을 ‘가장 적합한 대체재’로 잘못 제시했을 가능성이 크다”고 설명했다.

 

응급의학 전문의이자 AI 전문가인 하비 카스트로 박사도 “AI는 단어의 통계적 연결성을 기반으로 답변을 생성할 뿐, 사실 검증을 하지 않는다”며 “건강 조언에서는 문맥이 가장 중요하다”고 강조했다.

 

ChatGPT 제작사 오픈AI는 “ChatGPT는 질환 치료를 목적으로 하지 않으며, 전문 의료 조언을 대체하지 않는다”면서 “사용자가 전문가의 도움을 받도록 안내하는 방향으로 모델을 훈련하고 있다”고 폭스뉴스에 밝혔다.

 

 

권은주 기자 kwon@m-economynews.com
Copyright @2012 M이코노미뉴스. All rights reserved.



회사명 (주)방송문화미디어텍|사업자등록번호 107-87-61615 | 등록번호 서울 아02902 | 등록/발행일 2012.06.20 발행인/편집인 : 조재성 | 서울시 영등포구 국회대로72길 4. 5층 | 전화 02-6672-0310 | 팩스 02-6499-0311 M이코노미의 모든 컨텐츠(기사)는 저작권법의 보호를 받으며,무단복제 및 복사 배포를 금합니다.