AI 보이스피싱 사기로 8억 피해 당한 사람들
중국에서 인공지능(AI)을 이용한 보이스피싱 사기 사건이 잇따라 발생하고 있습니다. AI 기술인 딥페이크를 활용해서 지인의 얼굴과 목소리를 위조해 돈을 요구하는 수법입니다. AI 기술이 발전하면서 분명 피싱 범죄에 많이 쓰일 거라고 예상을 했었는데요. 중국에서 이미 시작했으니 우리나라도 곧 위험해질 거라는 생각이 듭니다.
AI 보이스피싱 안 당하는 법 >>
중국은 AI 기술이 굉장히 뛰어나구요. 빅브라더라고 불릴 만큼 정보 수집도 과도하게 하고 있다는 말도 있습니다. 저도 오늘 부모님께 AI 보이스피싱을 알려주면서 누가 영상 통화로 돈을 요청해도 절대 믿지 말라고 했습니다. 또 카톡 프로필도 전부 내리라고 말씀 드렸는데요.
그 이유는 정면 얼굴이나 지문, 목소리가 잘 드러나는 사진이나 영상으로 피싱범이 내 모습을 완전히 복제해서 영상으로 만들 수 있기 때문입니다. 복제에 필요한 음성 길이는 3초면 충분하다고 하네요.
우리나라가 사진 찍을 때 브이자를 많이 하는데요. 요즘 사진 화질이 좋아져서 브이자 사진에서 지문인식이 가능하다고 합니다. 그래서 요즘에는 뒤집어서 손등이 보이게 브이자를 한다고 합니다. 인터넷은 전 세계에 연결되어 있기 때문에 우리나라 인스타그램이나 페이스북이나 카톡 프로필 등도 충분히 피싱사기범한테 털릴 수 있습니다. 이제 AI 때문에 무서워서 내 생활을 공유할 수가 없게 된 것 같습니다.
노년층인 부모님께도 이런 사실을 꼭 알려서 피해가 없게 해야할 것 같습니다.
아래는 중국에서 실제로 AI 보이스피싱을 당한 사례입니다. IT 대표가 사기를 당할 정도면 얼마나 고퀄리티였던 걸까요?
지난달 중국 푸저우에 소재한 과학기술회사 대표 A씨는 친구로부터 위챗(WeChat) 화상전화를 받았다고 합니다. 친구는 공공입찰 보증금을 마련해야 한다며 430만위안(약 8억원)을 빌려달라고 했는데요. A씨는 영상 통화를 통해 친구의 얼굴과 목소리를 확인하고 의심하지 않고 돈을 송금했다고 합니다. 하지만 이후 친구에게 연락이 되지 않자 A씨는 경찰에 신고했습니다.
수사 결과 A씨의 소셜미디어 계정이 해킹당해 피싱 당한 것으로 확인 됐습니다. 사기 수법은 바로 이렇습니다. 보이스피싱 사기단이 A씨의 지인 영상을 SNS에서 얻습니다. 이 영상을 AI 기술로 얼굴과 목소리를 똑같이 복제하고, 위조한 것으로 밝혀졌습니다. 경찰은 A씨의 신고를 바탕으로 은행에 지급 중지 명령을 내렸지만 이미 인출된 93만1600위안(약 1억7000만원)은 찾을 수 없다고 합니다.
이런 AI 보이스피싱 사건은 중국 전역에서 발생하고 있습니다. 이제 우리나라도 사기 피해자가 속출할 거라는 느낌이 드는데요. 작년 12월에는 상하이에서 한 여성이 AI로 변형된 남성의 목소리에 속아 100만위안(약 2억원)을 송금한 사례가 있었습니다. 또 올해 4월에 베이징에서 한 남성이 AI로 변형된 여성의 목소리에 속아 30만위안(약 6천만원)을 송금한 사례도 있었다고 합니다.
AI 보이스피싱은 라이브 쇼핑이나 중국 드라마 등에서도 문제가 되고 있다고 합니다. 최근 중국에서는 유명 배우가 진짜 출연한 것처럼 얼굴을 감쪽같이 위조해 판매하는 라이브 커머스가 논란이 되기도 했다고 합니다. 또 출연진의 사생활 문제로 인해 정상 방영이 불가능한 드라마를 다시 촬영하지 않고, AI 기술로 배우 얼굴만 바꿔 방영했다고 합니다.