3초 샘플이면 목소리 완벽 복제… 가족·지인 둔갑 ‘AI 보이스피싱’ 전세계 비상[ICT]

  • 문화일보
  • 입력 2023-06-19 09:02
  • 업데이트 2023-06-19 09:08
프린트
■ 미국 맥아피 9개국 7000명 설문

10% “AI에게 당한적 있다” 답변
통화하면서 필요한 문장 생성해


인공지능(AI)을 활용한 보이스피싱 범죄가 기승을 부리고 있다. 3초가량의 표본만 있으면 생성형 AI를 통해 목소리를 거의 완벽히 복제할 수 있는 기술 탓이다. 보이스피싱 일당은 이 기술로 가족이나 친구로 둔갑해 돈을 뜯어내는 신종 범죄를 일삼고 있다. 실제로 친인척이나 친구로부터 사고를 당했다는 소식을 들으면 절반은 돈을 보내겠다고 답한 것으로 조사됐다.

19일 업계에 따르면 미국 컴퓨터 바이러스 백신 업체 맥아피가 지난 4월 미국·프랑스·인도·일본 등 9개국 성인 7000명을 대상으로 설문조사를 한 결과 응답자의 10%가 생성형 AI로 복제한 보이스피싱을 당한 적이 있다고 답했다. 이 중 77%는 금전적 피해를 입었으며, 피해자 중 30% 이상이 약 127만 원(약 1000달러)이 넘는 피해를 입은 것으로 조사됐다. 범죄자들은 피해자의 친인척이나 친구 목소리를 생성형 AI로 복제해 범죄에 악용했다. 피해자들과 통화하면서 실시간으로 필요한 문장을 AI로 추출해 이용하는 방식이다. 응답자의 48%는 친구나 친인척이 자동차에 문제가 생겼다거나 사고를 당했다는 소식을 들으면 돈을 보내겠다고 답했다. 앞서 올해 1월 27일부터 2월 1일까지 전 세계 성인 7000명을 대상으로 조사한 결과 응답자의 약 70%는 AI로 구현된 목소리와 실제 목소리를 구분할 수 없다고 했다. 스티브 그롭먼 맥아피 부사장은 “생성형 AI를 악용한 음성 복제는 매우 사용하기 쉬운 수단”이라며 “범죄자는 전문지식 없이도 생성형 AI로 목소리를 복제할 수 있다”고 말했다.

전문가들은 시급히 안전장치를 마련해야 한다고 조언한다. 고경철 전 카이스트 인공지능센터 교수는 “사람이 아닌 AI에 보이스피싱을 당한다는 것은 충분히 예상할 수 있는 시나리오였는데 생각보다 시기가 빨라지고 있다”며 “안전장치를 만드는 것이 시급하다”고 말했다. 고 전 교수는 “일종의 ‘한국소비자원’과 같은 보호단체가 있어야 한다”며 “피해 사례를 바로 신고할 수 있는 전담 조직에서 사례를 모으면 금융감독원이나 수사기관 등 관련 부처와 협업이 가능하다”고 덧붙였다.

이예린 기자 yrl@munhwa.com
이예린
주요뉴스
기사댓글
AD
count
AD
AD
AD
ADVERTISEMENT