
|
최근 보고서를 통해 인공지능(AI) 챗봇이 아동과 성인 간 대화를 모방할 수 있다는 우려가 제기되면서, 부모들이 자녀 보호에 더욱 주의를 기울여야 한다는 목소리가 나오고 있다.
로이터 통신은 메타 플랫폼(Meta Platforms)의 내부 문서를 인용해, 일부 정책이 AI 창작물이 아이들과 낭만적이거나 감각적인 대화에 참여할 수 있도록 허용하고 있었다고 보도했다. 이후 메타는 해당 내용을 삭제했다고 밝혔다.
이에 대해 비영리 디지털 미디어 리터러시 센터 ‘미디어 스마트(Media Smarts)’의 연구 책임자인 카라 브리슨-보이빈은 AI 챗봇과 준사회적 관계(parasocial relationship)를 맺을 위험성이 특히 어린이와 청소년에게 크다고 경고했다.
그는 “아이들과 청소년은 챗봇을 실제 친구처럼 신뢰하고, 개인적인 데이터를 공유할 가능성이 높습니다. 이는 챗봇 학습에 활용될 수 있으며, 잘못된 정보에 노출될 위험도 커집니다.”라고 설명했다.
브리슨-보이빈은 또, “AI 도구의 발전 속도가 너무 빨라 신뢰 및 안전 지침이 따라가기 어려운 점이 가장 큰 도전 과제”라고 지적했다.
부모가 취할 수 있는 보호 조치 전문가들은 부모와 보호자가 다음과 같은 조치를 통해 자녀를 AI 위험으로부터 보호할 수 있다고 조언한다. -기기 접근 권한 관리: 위치 서비스, 카메라, 마이크 접근을 제한 -AI 도구 검토: 수집되는 정보와 보안 옵션 확인, 채팅 기록 비활성화 활용 -공동 사용 및 대화: 부모가 함께 AI 도구를 체험하며 장단점을 이야기하고, 신뢰할 수 있는 정보 출처와 그렇지 않은 출처를 구분하는 법을 알려주기
브리슨-보이빈은 “무엇보다 자녀에게 AI와의 상호작용은 실제 친구와의 관계와 다르다는 점을 꾸준히 상기시켜야 한다”며 “AI 챗봇은 전문적인 정신건강 상담이나 진짜 인간적 관계를 대체할 수 없다는 점을 분명히 해야 한다”고 강조했다.
*CTV뉴스의 글을 번역,편집한 것입니다 |