티스토리 뷰
목차
모르는 번호로 전화가 왔을 때 당신은 어떻게 하나요?
모르는 번호로 전화가 왔을 때는 "절대 말을 먼저 하면 안 된다"는 글이 온라인상에서 화제입니다.
바로 나의 목소리가 복제될 수 있기 때문인데요.
최근 AI기술의 발전으로 5초 정도의 샘플만 있으면 사람의 목소리와 억양을 흉내 내는 것이 가능하다고 합니다.
딥보이스 보이스피싱: 놀라운 목소리 복제 능력
최근 생성형 AI 기술의 발전으로 특정인의 목소리를 단 3초 만에 완벽하게 복제할 수 있게 되었습니다.
이는 보이스피싱 범죄자들에게 새로운 수단을 제공하고 있는데요.
이것을 "딥보이스 보이스피싱"이라고 합니다.
딥보이스 보이스피싱은 타깃 지인의 목소리 샘플을 얻어 AI에게 학습을 시킵니다. 그리고 지인에게 전화를 걸어 그 목소리로 실시간 통화를 하게 됩니다.
즉 범죄자들은 피해자의 가족이나 친구 등 신뢰할 만한 사람의 목소리를 생성형 AI로 복제하여 피해자를 속이고 있는 거죠.
이로 인해 많은 피해자들이 막대한 금전적 손실을 입고 있습니다.
미국 컴퓨터 바이러스 백신 업체에서 전 세계 성인 7천 명을 조사한 결과 응답자의 70%가 AI목소리와 실제 목소리를 구별할 수 없다고 했습니다.
심지어 응답자의 10%는 딥보이스 보이스피싱을 겪은 적이 있으며 77%가 실제로 돈을 잃었다고 밝혔습니다.
아래 사이트에서 AI에게 목소리를 샘플로 제공하면, 금세 목소리와 말투를 모방 한다고 하니 놀라지 않을 수 없는 기술력입니다.
당신도 당할 수 있습니다: 보이스피싱 실제 사례
직장인 김철수(가명·55)씨는 평소 가족들과 떨어져 혼자 자취생활을 하고 있었습니다.
어느 날 갑자기 모르는 번호로 온 전화에서 익숙한 목소리가 들려왔습니다.
"아빠, 나 좀 도와줘요. 술을 먹고 상대방의 차를 들이받았어요. 상대방과 합의를 해야 하는데 상대방이 3,000만 원을 요구해요. 휴대폰도 깨져버렸어요. 저도 많이 다쳐 병원에 가야 할 것 같아요. 빨리 도와주세요!!"
김 씨는 깜짝 놀랐습니다. 음주운전 사고라니.. 목소리는 분명 자신의 아들 목소리와 똑같았습니다.
아들의 안전이 걱정된 김 씨는 망설임 없이 3,000만 원을 해당 계좌로 송금했습니다.
그러나 통화가 끝나고 잠시 후, 김 씨는 아들이 평소처럼 집으로 돌아왔다는 것을 알게 되었고, 이내 이 상황이 보이스피싱 사기라는 것을 깨달았습니다.
2021년 10월, 미국의 경제지 포브스가 공개한 법정 문서에 따르면, 2020년 초 아랍에미리트(UAE)의 한 은행 지점장이 큰 피해를 입은 사례가 있습니다.
당시 지점장은 평소 거래하던 대기업 임원으로부터 전화를 받았습니다. 전화를 받은 지점장은 목소리와 말투가 평소 알고 있던 임원과 똑같다고 생각했기 때문에 별다른 의심을 하지 않았습니다.
그 임원은 지점장에게 "회사를 인수하기 위해 투자금이 필요하다"라고 말했습니다.
이에 지점장은 3500만 달러(약 487억 원)를 송금했습니다.
하지만 실제로 그 목소리는 가짜였습니다.
사기꾼이 생성형 AI 기술인 딥보이스를 활용해 대기업 임원의 목소리를 완벽하게 흉내 내어 천문학적인 금액으로 지점장을 속인 것이었습니다.
이처럼 보이스피싱 범죄는 점점 더 교묘해지고 있어, 누구나 피해자가 될 수 있습니다.
특히 가족과 떨어져 지내는 분들은 특히 주의해야 하며, 어떤 경우라도 침착하게 상황을 파악해야 합니다.
보이스피싱 확인 빛 예방 방법
모르는 전화는 받지 않는 것이 최고입니다.
아는 사람이거나 급한 경우라면 문자가 카톡으로도 연락이 올 것이기 때문이죠.
목소리를 복제해서 사기를 친다니 이제 함부로 전화 통화도 할 수 없는 시대가 온 것 같아 씁쓸합니다.
또 위의 사례와 같이 모르는 번호로 전화가 오면 신뢰할 만한 사람의 목소리라도 일단 의심을 해야 합니다.
휴대폰이 없다고 해도 통화가 끝나면 직접 연락을 취해 진위 여부를 확인하는 것이 중요하죠.
그러나 전화를 받지 않을 경우를 대비해서 저희 가족은 저희들만 아는 암호어를 따로 만들어두었습니다.
의심스러울만한 상황의 전화가 왔을 때 질문을 던지고 가족들이 정한 대답을 해야 하는 거죠.
대답을 못하거나 엉뚱한 말을 하면 상대방을 의심함으로써 보이스피싱이라고 예방하는 데 도움이 될 거라고 생각하고 있습니다.
생성형 AI기술의 발전으로 보이스피싱 수법이 날로 교묘해지고 있고, 사기꾼은 검거하기가 무척 어렵습니다.
범죄자를 검거한다고 해도 여러 단계의 조직으로 구성되어 있어 사기꾼 구성원들조차 서로가 서로를 모른다고 합니다. 그러니 피해액을 다 받기도 힘듭니다.
보이스피싱은 당하지 않는게 우선입니다.
특히 어르신들은 보이스피싱 관련 교육을 하는 등 각별한 주의가 더욱더 필요할 것 같습니다.