즐겨찾기추가 시작페이지로
Toronto
+16...+20° C
로그인 회원가입 회원찾기 미니홈업체
회원로그인 회원로그인
정치
1,359
IT.과학
343
사회
647
경제
2,336
세계
322
생활.문화
273
연예가소식
627
전문가칼럼
298
HOT뉴스
2,209
더보기
현재접속자
MissyCanada   캐나다 뉴스   IT.과학   상세보기  
IT.과학 게시판입니다.
제목  인공지능의 어두운 면? 2023-07-09 23:26:15
작성인
  root
조회 : 203   추천: 44


 

2022년 11월 OpenAI가 획기적인 도구 ChatGPT를 출시했을 때, 그것은 인공지능 혁명이 진정으로 우리에게 다가오고 있음을 보여주면서 세상을 영원히 바꾸어 놓았다. 인공지능의 적용은 현대 컴퓨터 칩, 생성 미디어 등의 개발과 같은 많은 기술 발전에 기여했다.

하지만 모든 사람이 AI에 대해 흥분하는 것은 아니다. 어떤 사람들은 그것을 진보를 위한 만큼이나 해를 끼칠 수 있는 양면 동전으로 볼 수도 있다.

오늘날, 제가 아는 거의 모든 사람들이 이런저런 이유로 인공지능을 사용하고 있다. 이 기술이 온라인 검색 엔진에 완전히 통합되면 "어떤 종류의 청소기를 사야 할까요?" 등의 질문이 쏟아지거나, 또는 "3,000달러의 예산으로 멕시코 여행을 계획하라"는 AI가 생성한 답변을 얻을 수 있다. 마이크로소프트의 Bing 검색 엔진은 2월부터 사용자들과 함께 이 기능을 테스트하고 있다고 한다.

 

이러한 통합된 AI 시스템에도 유사한 고지 사항이 있을 수 있다. AI는 실험적이며 부정확한 정보를 생성할 수 있다는 것이다.

그럼에도 불구하고, AI는 많은 사람들에게 유용한 도구가 되었다. 디자인을 빠르게 편집하고 싶어하는 그래픽 디자이너부터 창의적인 제목과 AI 스케줄링 프로그램을 찾는 작가까지 AI가 창의적이고 실용적인 용도를 많이 가지고 있다는 것을 부인하기 어렵다.

하지만 부적절하게 또는 잘못된 이유로 사용될 경우, 재앙적인 결과를 초래할 수 있다.

법원 서류를 준비하면서 법률 연구에 ChatGPT을 사용한 두 변호사의 예를 들어보겠다. 두 사람 모두 완전히 꾸며낸 과거의 법정 사건을 들먹였다.

심지어 OpenAI의 설립자인 샘 알트먼과 다른 "AI의 대부"들도 AI의 미래에 대해 심각한 우려를 가지고 있다.

 

하지만, 가짜 법률 사건과 부정확한 정보는 빙산의 일각에 불과하다. 아래에서, 저는 AI와 관련된 몇 가지 해악과 그것이 어떻게 사기 및 기타 악의적인 활동에 사용될 수 있는지에 대해 개략적으로 설명하겠다.

 

1. 음성 클로닝
오늘날 인공지능 기반 프로그램은 거의 모든 사람의 목소리 샘플을 추출하여 일반적인 문구를 사용하여 거의 완벽하게 재생성할 수 있으며, 원래 샘플의 톤과 심지어 억양까지 일치시킨다.

인공지능 음성 복제는 이미 많은 금융 범죄에 사용되었다.

예를 들어, 음성 복제는 금융 기관의 음성 암호 인증 시스템을 우회하여 사기꾼이 개인 은행 계좌에 액세스할 수 있도록 허용할 수 있다.

미국 애리조나 주에서는 사기꾼이 AI를 이용해 아이를 사칭하면서 부모에게 전화를 걸었고, 사기꾼은 그들의 아이가 납치되었고 심각한 위험에 처해 있다고 부모를 설득하여 백만 달러의 몸값을 요구했었다.

 

2. 딥페이크 및 사칭
"딥페이크"는 누군가를 사칭하고 잘못된 정보를 퍼뜨리는 데 사용될 수 있는 컴퓨터로 만들어진 비디오이다. 딥 페이크가 수년 동안 인터넷에 유포되었지만, 그것들은 보통 가장 현실적이지 않았고, 가까운 관찰자는 딥 페이크와 실제 비디오를 구별할 수 있었다.

하지만 인공지능이 만든 비디오와 오디오 복제로 딥페이크는 그 어느 때보다 현실적이 되었다.

일부 자원이 풍부한 유튜버들과 온라인 강좌 제작자들은 콘텐츠 제작을 돕기 위해 이 기술을 사용하고 있다. 하지만, 그 기술을 악의적으로 사용하는 많은 사람들이 유명인사들과 그들의 명성을 해칠 수 있는 다른 주목할 만한 인물들의 깊은 가짜를 만들어낼 수 있다.

3. 자동 해킹
AI의 가장 실용적인 응용 중 하나는 코딩이다. AI는 프로그래머가 수동으로 생성하는 데 걸리는 시간의 일부로 전체 프로그램을 생성할 수 있다. AI는 또한 오류를 식별하기 위해 수천 줄의 코드를 몇 초 만에 실행할 수 있다.

하지만 AI는 자동화된 해킹에도 사용될 수 있다. 해커는 예를 들어 ChatGPT와 같은 도구를 사용하여 악성 코드나 악성 프로그램을 작성할 수 있다.

이전에는 밤낮으로 일하는 해커 팀이 필요했던 것을 이제는 단일 AI 모델로 달성할 수 있다.

 

4. 챗봇과 개인 정보 보호
최근 개인 데이터에 접근할 때 챗봇을 사용하는 것에 대한 우려가 있었다. ChatGPT과 같은 챗봇은 아직 "대화" 단계에 있기 때문에 대화를 녹음하고 정확성과 구문을 향상시키기 위해 사용한다.

사용자가 OpenAI로 계정을 만들거나 Bing Chat을 사용할 때마다 자신의 데이터를 개발 목적으로 사용할 수 있다는 데 동의한다. 따라서 사용자는 기록하기 싫은 내용을 공유해서는 안 된다.

올해 4월 초, 캐나다 연방 프라이버시 위원회는 ChatGPT에 대한 조사를 시작했다. 회사가 사용자 동의 없이 개인 데이터를 수집해 사용하고 있다는 주장에 따른 것이다.

 

인공지능이 얼마나 위험한가요?
인터넷의 초기와 마찬가지로, 인공지능은 많은 잠재적인 위험을 수반하고 있다. 깊은 가짜에서 자동화된 해킹에 이르기까지, 그 위험은 거의 이점만큼이나 클 수 있다.

책임감 있게 사용될 때, AI는 매우 귀중한 도구가 될 수 있다. 하지만 최악의 의도를 가진 사람들이 악의적으로 사용할 수도 있다.

전 세계의 일부 관리들이 유럽연합이 인공지능법을 마련하는 등 더 엄격한 규제를 추구하고 있지만, 현실은 AI가 여기에 머물 가능성이 높다는 것이다.

궁극적으로, 인공지능의 잠재적인 위험으로부터 자신을 보호하는 것은 당신에게 달려 있다.

Christopher Liew는 CFA 헌장 보유자이자 전 재무 고문이다. 그는 매일 수천 명의 캐나다 독자들을 위한 개인 금융 팁을 그의 Wealth Awesome 웹사이트에 썼다.

 

 

*CTV뉴스 글을 번역,편집한 것입니다.

추천  목록