1인 가구, “아는 목소리도 주의하세요”
1인 가구, “아는 목소리도 주의하세요”
  • 이수현
  • 승인 2023.10.04 13:32
  • 댓글 0
이 기사를 공유합니다

목소리 복제 기술 ‘딥보이스’ 보이스피싱에 악용
ⓒgettyimagebank
ⓒgettyimagebank

목소리를 복제하는 기술인 ‘딥보이스’가 보이스피싱에 악용되고 있다. 20초 분량의 목소리만 있어도 비슷하게 목소리를 복제하는 ‘딥보이스’이지만 복잡하고, 긴 문장에서 발음의 정확도 떨어지는 특징 보인다.

최근 한 유튜버가 ‘딥보이스’ 보이스피싱에 속아 2천만 원 피해를 본 사례가 있었다. 해당 유튜버가 해외여행 중일 때 보이스피싱 조식이 그의 남편에게 전화를 걸어 납치를 당했다고 전했고, 아내의 목소리에 당황한 남편은 일당이 요구하는 2천만 원을 입금하는 상황이 발생했다.

이러한 피해 내용을 자신의 유튜브 계정에 올린 해당 유튜버는 목소리까지 딸 수 있는 딥페이크가 있다며, 유튜브로 목소리 소스를 따기 더 쉬웠을 것이라고 주의를 당부했다.

딥보이스(deep voice)는 AI 핵심기술인 딥러닝(deep learing)과 목소리(vocie)의 합성어로 특정인의 목소리를 AI가 합성해 복제하는 기술이다. 즉, AI가 특정인의 목소리를 학습하고 특정인이 하지 않은 말을 한 것처럼 만들어 내는 기술이다.

9월27일 기준, 유튜브에 'AI커버'를 검색하면 나오는 화면
9월27일 기준, 유튜브에 'AI커버'를 검색하면 나오는 화면

실제로 해당 기술이 발전하면서 최근 유튜브에는 ‘브루노 마스가 부르는 뉴진스의 Hype Boy’, ‘프레디 머큐리가 부르는 서른즈음에’와 같은 팬들이 AI로 만든 커버 곡을 다양하게 찾을 수 있다.

문제는 앞선 사례처럼 범죄에 악용되고 있는 것이다.

딥보이스와 실제 일반인 목소리 구분하는 방법이 없는 것은 아니다.

실제 목소리와 달리 딥보이스는 받침이 많고 문장이 길수록 에너지가 약해지는 특성을 보인다. 익숙한 목소리이지만 평소보다 힘없이 느껴지거나 일부 단어의 발음이 부정확하다면 보이스피싱을 의심해 볼 수 있다.

또 질문에 엉뚱한 대답을 하는지 확인해보는 과정도 필요하다. 가족을 사칭해 속이는 경우가 많아 가족 간에 미리 암호를 만들어 두고 보이스피싱이 의심되면 암호를 통해 서로 확인하는 방법도 있다.

한편, 정부는 이번 추석 명절을 틈타 스마트폰 해킹, 문자사기 등의 범죄가 기승을 부릴 것이라고 전망했다. 이에 명절 기간 동안 ‘24시간 사이버 안전 대응 체계’ 구축해 피해 최소화할 계획이라고 밝혔다.

정부가 발표한 내용에 따르면 스미싱 피해 사전 예방을 위해 ▲출처가 불명확한 인터넷주소나 전화번호 클릭 금지 ▲공인 오픈마켓을 통한 앱 다운로드 ▲백신 프로그램 설치 ▲개인·금융정보 입력 금지 ▲전화·영상통화 등 활용한 상대방 확인 ▲스마트폰 내 저장된 신분증 사진 삭제 ▲엠세이퍼 홈페이지 방문 후 명의도용방지 서비스 신청 등의 보안 수칙을 준수해야 한다.

만약 사이버범죄 피해를 입었다면 112나 사이버범죄 신고시스템(ECRM)을 이용해 신고하면 된다. 명절 연휴 중 문자사기 의심 문자를 수신했거나, 악성 앱 감염 등이 의심되는 경우에도 112나 ‘보이스피싱지킴이’에 신고하면 24시간 무료로 상담받을 수 있다.


관련기사