안재용 IT컨설팅 전문 AJ&컴퍼니 대표이사
안재용 IT컨설팅 전문 AJ&컴퍼니 대표이사

지난 1월 영국계 다국적기업 홍콩지사 재무 직원이 범죄조직에 회사자산 340억원을 이체하는 사건이 일어났다. 경찰은 피의자들이 온라인상에 공개된 회사 임직원들의 영상과 음성을 AI로 가상회의에 필요한 딥페이크물을 만들어 재무 직원을 속였다고 발표했다.

AI 기술이 발달함에 따라 특정인의 얼굴을 복제하는 딥페이크, 목소리를 복제하는 보이스 클로닝 기술이 고도로 발달하고 있다. 이들 기술은 온라인을 통해 오픈소스 형태로 누구나 사용할 수 있게 공개되고 있는 것이 현실이다. 특별한 기술을 갖추지 않아도 약간의 지식만 있으면 범죄집단이 악용할 수 있는 수준이다.

한편 한국의 보이스피싱 범죄 현황은 어떨까? 최근 5년간 보이스피싱 피해액은 1조7000억원에 이르며 그 피해 규모가 갈수록 커지는 추세다. 기관 사칭, 지인 사칭 유형이 가장 많다.

만약 AI 기술이 보이스피싱 범죄와 결합한다면 지금보다 피해 규모가 훨씬 커질 것은 불 보듯 뻔한 일이다. 가족이 갑자기 다쳤다면서 영상통화를 걸어와 병원비를 입금해달라고 한다. 얼굴을 봐도 목소리를 들어도 가족이 맞다. 놀래서 얼른 입금하지 않을 사람이 얼마나 있을까?

바야흐로 SNS 시대다. 범죄집단이 모르는 사람의 얼굴, 목소리 샘플을 온라인을 통해 쉽게 입수할 수 있다. 샘플을 오픈소스로 받아 생성형 AI에 입력하면 얼굴도 목소리도 똑같은 복제인간을 만들어 낼 수 있다. 특히 영상, 음성 샘플을 공개적으로 대량 입수할 수 있는 유명인이나 인플루언서일수록 정교한 AI를 만들어내는 것이 가능해 범죄조직의 표적이 되기 쉽다. 유명인일수록 높은 신뢰도를 줄 수 있어 큰 금액의 사기에 휘말릴 가능성도 높다.

보이스피싱은 갈수록 지능적으로 기업형이 돼가고 있다. 피해 금액은 갈수록 늘고 있지만 검거 건수는 줄어들고 있는 실정이다.

이번 홍콩 사건은 겨우 신호탄에 불과하다. 가장 큰 문제는 이 뉴스가 알려지면서 범죄조직이 AI를 피싱에 활용하면 거액을 탈취할 수 있다는 사실이 입증됐다는 것이다. 이제 범죄조직은 AI를 통해 점차 피싱을 고도화하려고 노력할 것이다.

문자 채팅을 통한 단순한 피싱조차 제대로 대응하지 못하는 상황에서 얼굴, 음성까지 복제한다면 얼마나 큰 피해가 발생할지 크게 우려되지 않을 수 없다.

정부 차원에서 깊은 고민이 필요한 대목이다. 국민들에게도 꼭 주의가 필요하다.

저작권자 © 금융경제신문 무단전재 및 재배포 금지