四川一女子遇“AI擬聲”“AI換臉”詐騙:不法分子謊稱其女兒被綁架快訊
詐騙分子利用虛擬號碼偽裝其女兒的電話號碼,并利用 AI 合成的方式模擬她女兒的聲音實施詐騙,電話里女兒哭哭啼啼地說自己被綁架了。
IT之家 1 月 25 日消息,據平安江陽今日通報,近日四川江陽一名女子險些遭遇新型電信詐騙,詐騙分子利用虛擬號碼偽裝其女兒的電話號碼,并利用 AI 合成的方式模擬她女兒的聲音實施詐騙。警方最終確認其女兒的人身安全,并沒有被綁架,這名女子險些被騙走 80 萬元。
當事人陳女士(化名)突然接到“女兒”的電話,電話里女兒哭哭啼啼地說自己被綁架了。隨后,“女兒”的電話被一名陌生男子搶走并威脅道:如果想要女兒安全,就必須交 80 萬元贖金。
陳女士發現來電號碼是自己女兒的名字,聲音也是女兒的聲音,瞬間后背發涼,按照對方的指示添加了微信。她隨后告訴對方大額轉賬需要到銀行辦理,同時讓老公打電話確認女兒人身安全。
然而,女兒及其同事都聯系不上。陳女士前往北城派出所,接警民警朱慶不停安撫陳女士,并查看了對方電話號碼。結果該號碼為“00”開頭,朱警官第一反應是遇上了電信網絡詐騙,便立即勸阻陳女士千萬不要向“綁匪”轉賬。
陳女士遭遇的是近期電信網絡詐騙的“新招數”:“AI 擬聲”“AI 換臉”詐騙。事后,民警對陳女士開展反詐宣傳,陳女士對民警的勸阻和暖心安撫表達了感謝。警方提醒:陌生鏈接不要點擊,謹防個人信息泄露;遇到該類情況應保持冷靜,第一時間撥打 110 報警,切忌轉賬匯款。
據IT之家此前報道,國家金融監督管理總局北京監管局去年 10 月發布風險提示,提醒消費者近期重點防范新型欺詐手段,守護家人親朋財產安全。
不法分子利用非法獲取的個人信息,通過計算機算法仿真合成受騙者親人、領導同事或公職人員的肖像面容與聲音,冒充上述人員身份行騙。在獲得受害者信任后使用事先準備好的套路話術向受害人發送銀行卡轉賬、虛擬投資理財、刷單返利等詐騙信息,并利用視頻通話、語音轟炸等手段進一步降低受害者的防備心,受害者往往在短時間內難以察覺異樣,一旦聽信詐騙分子的騙術并完成轉賬,對方便杳無音信。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。