
갈수록 진화하는 피싱 범죄 수법에 인공지능 기술까지 악용될 우려가 커지고 있다.
실제로 해외에서는 단 몇 초의 목소리 샘플이나 사진 한 장만으로 특정인의 음성과 얼굴을 복제하는 생성형 AI의 악용 사례가 나타나고 있어 주의가 필요하다고 한다.
금융 수사기관을 사칭한 기존의 피싱 범죄와 달리 AI피싱은 친한 친구, 부모, 자녀의 음성과 얼굴을 이용하기 때문에 평소 피싱 범죄에 경각심을 갖고 있는 사람이라 하더라도 주변인을 복제한 AI피싱에는 쉽게 넘어갈 수 있어 조심해야 한다.
21일 미국 컴퓨터 바이러스 백신 업체 ‘맥아피’에 따르면 생성형 AI는 3초 분량의 목소리 샘플만 가지고도 이를 완벽하게 복제해 특정인의 말투와 문장을 구현할 수 있다고 하며 해당 기술은 특정인의 목소리를 AI가 합성 및 복제하는 ‘딥보이스’ 기술이다.
맥아피는 전세계 성인 7천명을 대상으로 조사한 결과 응답자 중 70%가 AI목소리와 실제 목소리를 구별하지 못했다고 한다.
딥보이스 기술은 음성 안내나 대독 등의 순기능을 목적으로 개발되었지만 기술이 점점 발전하면서 범죄에 악용될 여지가 점차 늘고 있다. 악시오스 등 현지 언론도 AI기술로 타인 목소리를 복제해 보이스피싱에 악용하는게 점점 쉬워지고 있다고 전했으며 실제 맥아피 조사 응답자 중 10%는 AI음성을 이용한 보이스 피싱 전화를 받은 적이 있다고 답하기도 했다.
딥보이스기술은 전문가가 아니어도 손쉽게 기술을 구사할 수 있다는 점이 우려를 더욱 키우고 있는데 유튜브만 찾아보더라도 외국 유명 가수의 목소리를 AI로 복제해 국내 가요에 합성한 영상들을 어렵지 않게 접할 수 있으며 딥보이스 기술을 다루는 방법을 소개한 콘텐츠도 쉽게 확인할 수 있다.
딥보이스로 목소리를 만드는 것 외에도 사진 몇 장이나 짧은 영상만 있으면 AI기술로 얼굴도 복제할 수 있고 심지어 영상통화와 같은 실시간 촬영 중에도 사람의 얼굴을 바꾸는게 가능하다.
이를 이용해 지난 4월 중국에서는 영상 통화 후 얼굴과 목소리를 정교하게 복제한 AI 피싱 범죄에 당한 사건이 벌어지기도 하였다.
AI피싱은 과거 금융, 수사기관을 사칭한 보이스 피싱과는 달리 가까운 가족, 연인, 친구 등 범죄 대상자의 지인을 끌어들이기 때문에 더욱 일반인에게 범죄에 취약하게 만든다. 대다수 국내 피싱 범죄의 본거지인 중국에서 최근 들어 AI피싱이 기승 한다는 점도 더욱 불안하게 만든다.
맥아피 보고서에 따르면 Ai피싱 피해를 방지하려면 가족 간 암호를 사용하고 SNS등에 음성을 공개할 때 주의해야 한다고 한다.
