
|
|
인공지능 연구기업 OpenAI가 자사 AI 챗봇 ChatGPT가 사용자에게 의료 또는 법률 자문을 제공하지 못하도록 하는 새로운 정책을 발표했다.
이번 조치는 AI를 개인 건강 상담이나 법률 문제 해결에 활용하는 사례가 급증하는 가운데, 면허가 필요한 전문 영역에 대한 오·남용을 방지하기 위한 것으로 풀이된다.
OpenAI는 10월 29일 자로 사용 정책을 개정해, ChatGPT 사용자가 “면허가 필요한 맞춤형 법률 또는 의료 자문을 전문인의 개입 없이 받는 행위”를 금지한다고 명시했다.
이는 지난 1월 29일자 정책보다 한층 강화된 내용으로, 당시 정책에서는 “타인의 안전, 복지 또는 권리에 중대한 영향을 미칠 수 있는 활동을 수행하거나 촉진해서는 안 된다”고만 규정되어 있었다.
AI 상담 의존 늘어나는 현실 속 ‘명확한 선 긋기’ ChatGPT는 건강 관련 해답을 찾는 캐나다인들에게 빠르게 확산된 도구이다. 그러나 전문가들은 AI의 정보 신뢰도와 윤리적 한계에 대해 지속적으로 경고하고 있다.
워털루 대학교 연구팀은 의사 면허 시험 시나리오 기반의 의학 질문을 ChatGPT-4에 제시해 성능을 분석한 결과, 정확한 답변은 31%, 부분적으로 명확한 답변은 34%에 그쳤다고 밝혔다.
또한 브리티시컬럼비아(UBC) 대학교 연구진은 ChatGPT가 사용하는 언어가 “실제 인간보다 훨씬 설득력 있고 신뢰감 있게 느껴진다”는 점을 지적했다. 이 때문에 정보가 부정확하더라도 사용자가 잘못된 확신을 갖게 될 위험이 있다고 분석했다.
의료 현장에서도 AI 조언에 영향을 받은 환자들이 이미 결정을 내린 상태로 진료를 예약하는 경우가 늘어나고 있다고 의사들은 전했다.
전문가들은 이번 정책 강화가 “AI가 전문 영역을 침범하는 문제에 대한 중요한 경고 신호”라며, “ChatGPT는 정보 검색 및 학습용 도구로는 유용하지만, 진단이나 법률 판단을 대신할 수는 없다”고 강조했다.
*CTV뉴스의 글을 번역,편집한 것입니다. |
|||||||||||||||||||




