즐겨찾기추가 시작페이지로
Toronto
+16...+20° C
로그인 회원가입 회원찾기 미니홈업체
회원로그인 회원로그인
정치
1,522
IT.과학
576
사회
688
경제
3,143
세계
330
생활.문화
301
연예가소식
822
전문가칼럼
482
HOT뉴스
3,751
더보기
현재접속자
MissyCanada   캐나다 뉴스   IT.과학   상세보기  
IT.과학 게시판입니다.
제목  AI 회의 녹취 도구 확산 속 개인정보 유출 위험 경고 2026-03-01 21:02:38
작성인
  root 카카오톡 공유버튼
조회 : 32   추천: 4


 

AI 기반 회의 도구는 시간을 절약해 주지만, 그에 따른 개인정보 위험 역시 간과해서는 안 된다는 전문가들의 경고가 나오고 있다.

 

다음 회의에 누군가가 ‘조용히 듣고’ 있을지도 모른다. 그것은 옆자리의 상사나 가족이 아닐 수도 있다.

 

최근 Fireflies.ai, Otter.ai, Trint, Fathom 등 인공지능 기반 도구들이 회의 녹음, 녹취, 요약 생성에 광범위하게 활용되고 있다.

 

이들 도구는 보통 화상회의 참가자 패널이나 화면 모서리의 깜빡이는 표시등으로 존재가 드러나지만, 일부 사용자는 백그라운드에서 조용히 실행하도록 설정하기도 한다.

 

전문가들은 이러한 사용 방식과 투명성 부족이 개인정보 침해의 새로운 위험 요인이 되고 있다고 지적한다.

 

위니펙 로펌 MLT Aikins의 파트너 니콜라스 주버트는

“AI 관련 문제나 데이터 유출 뉴스를 일주일에 한 번도 듣지 않는 시대가 된 것 같다”고 말했다.

 

그럼에도 최근 몇 년 사이 AI 기반 메모 작성·녹취·요약 도구의 인기는 급증했다. 특히 이사회, 의료계, 젊은 전문직 종사자들이 적극적으로 도입하고 있다.

 

이 기술은 회의 기록 부담을 줄이고, 참가자가 토론에 더 집중할 수 있게 하며, 사후 요약 시간을 크게 단축해 준다는 점에서 선호된다.

 

브리티시컬럼비아주 빅토리아의 채용업체 Red Seal Recruiting Solutions Ltd.의 케일 캠벨 대표는 회사가 약 4년간 인터뷰 플랫폼 HoneIt을 사용해 왔다고 밝혔다. 그는 해당 서비스가 생성하는 녹취록이 자신의 수기 메모보다 훨씬 상세하다고 평가했다.

 

그는 “이제는 완전한 녹취록이 있어 고객의 세부 질문에도 즉시 확인할 수 있다”고 말했다.

 

커지는 개인정보 위험

하지만 전문가들은 이러한 도구가 상당한 위험도 함께 내포하고 있다고 경고한다.

 

주버트에 따르면 위험은 무엇이 기록되는지에서 시작된다.

AI 도구는 날씨, 취미, 정치 이야기 같은 잡담과 핵심 업무 대화를 구분하지 못해, 불필요하지만 매우 개인적인 정보까지 그대로 기록·요약할 수 있다.

 

또한 일부 시스템은 비공개 회의 여부를 인식하지 못한 채 녹음을 계속하는 경우도 있다. 이사회, 임원 회의, 법정 심리 일부처럼 녹음이 제한된 상황에서도 마찬가지다.

 

University of Ottawa 정보법·정책 분야 캐나다 연구 석좌교수 테레사 스카사는

“비공개 회의 내용이 메일링 리스트로 그대로 유출되는 상황이 발생할 수 있는데, 이는 명백히 심각한 문제”라고 지적했다.

 

정확성 문제와 ‘AI 환각’

정확성 역시 문제로 꼽힌다.

 

음질이 나쁘거나 낯선 용어가 등장할 경우, 시스템이 ‘잘 들리지 않음’으로 표시하기보다 내용을 추측해 기록하기도 한다. 경우에 따라서는 인공지능이 사실과 다른 내용을 만들어내는 이른바 ‘환각(hallucination)’ 현상도 발생할 수 있다.

 

더 큰 우려는 데이터 처리 방식이다.

이들 서비스로 수집된 정보는 새로운 AI 모델 학습에 활용될 수 있으며, 녹음 파일과 녹취록이 클라우드에 저장되면서 유출 위험에도 노출된다.

 

주버트는 사용자들이 다음과 같은 질문을 반드시 던져야 한다고 강조했다.

-데이터가 해외에 저장되는가

-개인 식별 정보가 포함되는가

-제3자에게 판매되는가

-AI 학습에 활용되는가

-다른 이용자가 접근할 수 있는가

 

그는 “도입 전에 이 질문들에 대한 답을 확실히 이해해야 한다”고 말했다.

 

실제 유출 사례도 발생

문제는 참가자들이 녹음 사실 자체를 모르는 경우가 많다는 점이다.

 

스카사는 2024년 9월 온타리오주의 한 병원 사례를 언급했다. 온타리오주 정보·개인정보보호위원회에 따르면, 의사 7명의 환자 논의 가상회의가 의도치 않게 녹음됐다.

 

회의에 초대된 한 의사가 개인 이메일과 개인 기기에 Otter.ai를 설치해 두었고, 해당 서비스가 다른 참석자들이 인지하지 못한 상태에서 회의에 자동 접속해 녹음을 진행했다.

 

이 사실은 Otter.ai가 회의 요약과 환자 대화를 65명에게 자동 이메일 발송하면서 뒤늦게 드러났다.

 

병원 측은 위원회에 사고를 신고하고 수신자들에게 삭제를 요청했으며, 관련 AI 도구 사용 정책을 수정했다.

 

주버트와 스카사는 이 사건이 AI 회의 도구 사용자 모두에게 중요한 경고가 되어야 한다고 입을 모았다.

 

 

*City뉴스 글을 번역,편집한 것입니다.

추천  목록