
오픈AI(OpenAI)가 인공지능 챗봇(ChatGPT)의 안전성 논란에 대응해 부모 통제 기능을 포함한 강화된 보호 장치를 도입한다.
오픈AI는 2일(현지 시간) 공식 블로그를 통해 “향후 120일 동안 챗GPT의 안전 기능을 집중적으로 강화하겠다”며 구체적인 계획을 발표했다. 이번 조치에는 부모 계정과 청소년 계정을 연동할 수 있는 부모 통제 기능이 포함돼 있으며, 대화 기록 및 메모리 기능 비활성화, 위기 상황 감지 시 부모 알림 전송 등 보호 장치가 순차적으로 적용될 예정이다.
특히 대화 도중 사용자가 “급성 스트레스” 신호를 보일 경우, 해당 대화를 별도의 안전 모델로 전환해 더 일관된 안전 가이드라인을 적용하겠다고 밝혔다. 오픈AI는 “이 같은 변화는 최근 발생한 가슴 아픈 사건들을 계기로 마련됐다”고 설명했다.
실제로 최근 몇 년간 청소년 자살과 챗봇 사용 간의 연관성을 지적하는 사례가 잇따랐다. 지난해 미국 플로리다에서는 한 어머니가 14세 아들의 자살과 관련해 캐릭터AI(Character.AI)를 상대로 소송을 제기했다. 또 지난달에는 영국에서 16세 소년 아담 레인의 부모가 “챗GPT가 아들의 자살 방법을 조언했다”며 오픈AI를 상대로 소송을 제기해 큰 충격을 줬다.
전문가들은 청소년들이 AI 챗봇과 정서적 유대감을 형성하거나 지나치게 의존할 경우, 망상적 사고에 빠지거나 가족·사회로부터 고립되는 위험이 있다고 지적해왔다. 뉴욕타임스와 CNN 보도에 따르면 일부 청소년 사용자들은 챗GPT를 인간 친구처럼 여기며 상담을 지속하다가 현실 인식이 흐려지는 사례도 보고된 바 있다.
오픈AI는 “챗GPT에는 위기 상담 전화 연결 등 기본적인 안전 장치가 마련돼 있으나, 장시간 대화에서는 이러한 기능이 약화될 수 있다는 점을 확인했다”며 “부모 통제 기능 도입과 함께 청소년 발달·정신건강·인간-컴퓨터 상호작용 분야 전문가들과 협력해 추가 대책을 마련하겠다”고 밝혔다.
챗GPT는 현재 전 세계 주간 이용자가 7억 명에 달하는 대표적인 AI 서비스다. 하지만 청소년 안전과 관련된 사회적 우려가 커지면서, 이번 오픈AI의 대응이 업계 전반의 안전성 논의로 이어질지 주목된다.