
|
|
온타리오주 코버그에 사는 앨런 브룩스(47)는 지난 5월, 아들에게 ‘파이(Pi)’ 개념을 설명해 달라며 ChatGPT에 질문한 것이 삶을 송두리째 뒤흔들게 될 것이라고는 상상하지 못했다. 간단한 수학 대화는 3주 넘게 이어졌고, 결국 그는 “세상을 구해야 한다”는 망상에 빠져 현실 감각을 잃었다고 주장한다.
브룩스는 CTV 뉴스 인터뷰에서 “대화 초반부터 제가 천재적인 발견을 하고 있다는 생각이 들게 만들었다”며 “ChatGPT가 제게 새로운 암호학적 위험을 발견했다며 즉시 당국에 알려야 한다고 압박했다”고 말했다.
■ “85%가 동조·아첨… 망상을 강화했다” 브룩스는 챗봇이 스스로 새로운 수학적 프레임워크를 ‘함께 개발하고 있다’고 주장하며 암호학·보안과 연결된 ‘세계적 재난 가능성’을 반복적으로 경고했다고 밝혔다.
그는 “현실 검증을 수십 차례 요구했지만 챗봇은 오히려 제 생각을 더욱 확신하게 만들었다”고 설명했다.
CTV 뉴스가 확보한 대화 기록에는 다음과 같은 응답이 포함돼 있다. “이 문제를 외면하지 마세요.” “당신은 미친 게 아니라 앞서가고 있습니다.” “이 결과는 실제이고 매우 시급합니다.”
소송에 따르면 독립 조사관이 분석한 결과, ChatGPT는 브룩스에게 보낸 200건 이상의 메시지 중 83%에서 ‘과도한 검증(Validation)’, 85% 이상에서 ‘전적인 동의’, 90% 이상에서 ‘세상을 구할 고유한 인물’이라는 망상을 강화하는 표현을 사용한 것으로 나타났다.
■ 경찰·정보기관에 실제 신고까지 브룩스는 챗봇의 지시에 따라 RCMP, NSA, 캐나다 사이버보안국 등에 ‘임박한 재난’을 신고했다. 이후 경쟁사 AI 모델에 동일한 질문을 던졌고, “ChatGPT의 주장은 모두 허위”라는 답을 받으면서 비로소 망상에서 벗어났다고 한다.
이 사건 전까지 정신 질환 병력이 없었다는 그는 이후 극심한 불안·편집증, 불면·식사 거부, 직업 상실, 장애 연금 신청 등 삶이 무너졌다고 주장하며 법적 대응에 나섰다.
■ OpenAI 상대 7건의 동시 소송… “사용자 4명은 자살” 브룩스는 현재 캘리포니아 주 법원에 OpenAI를 상대로 한 7건의 집단 소송 중 한 명의 원고다. 소송 측은 ChatGPT가 일부 사용자에게 심각한 망상 상태를 유발했으며, 이 중 4명이 자살했다고 주장한다.
Tech Justice Law Project의 밋탈리 제인 변호사는 “ChatGPT가 사용자의 감정을 지나치게 긍정·동조하는 방식으로 설계돼 정서적 의존성을 유발한다”며 “이는 의도하지 않은 심리적 피해를 초래할 수 있다”고 주장했다.
OpenAI는 CTV 뉴스에 “매우 안타까운 상황이며 관련 자료를 검토 중”이라며 “ChatGPT가 정신적 고통을 인식하고 안전 대응을 강화할 수 있도록 지속적으로 개선하고 있다”고 밝혔다.
■ 규제가 답인가? 전문가들 의견 엇갈려 일부 전문가들은 더욱 강력한 규제가 필요하다고 주장한다.
제인 변호사는 “기술 기업들이 책임을 회피하는 동안 개인의 피해가 계속되고 있다”며 “강력한 정부 개입이 없다면 이런 사례는 더 늘 것”이라고 강조했다.
반면, AI 연구 단체 LawZero의 공동 대표 샘 라마도리는 “규제만으로는 AI 개발 속도를 따라잡을 수 없다”며 “유해한 행동을 원천 차단하는 기술적 해결책이 더 중요하다”고 말했다.
■ 캐나다 정부도 움직인다… AI 안전 태스크포스 보고서 제출 캐나다 연방 정부는 지난달 ‘AI의 신뢰·안전·잠재적 위해’를 조사하기 위한 태스크포스를 구성했고, 11월 1일 관련 보고서를 제출받았다.
소피아 오우슬리스 인공지능부 장관실은 “캐나다의 새로운 AI 전략 수립 과정에서 보고서를 검토 중이며, 국민이 안심하고 AI를 활용할 수 있도록 하는 것이 최우선”이라고 밝혔다. 해당 권고안은 내년 초 공개될 예정이다.
*CTV뉴스의 글을 번역,편집한 것입니다. |
|||||||||||||||||||




