據(jù)本報報道,一些不法分子利用AI技術向老年人實施詐騙。有的模仿“孫子”聲音,有的仿造“戰(zhàn)友”人臉,很多老人根本發(fā)覺不了以致被騙。
騙子用假面假聲,無非為了真圈錢?!癆I和短視頻結合的威力很大,現(xiàn)在流量就是鈔票,你會搞流量還怕不能盈利嗎?”讓人憂心的是,靠AI合成語音、視頻獲利,已經(jīng)變得越來越簡單。電商平臺搜一搜、換臉軟件上試一試、拍照APP的新功能點一點,數(shù)字人即刻生成,成本可以忽略不計。
與此同時,分辨聲音、圖像真假變得越來越難。本報記者利用三款不同軟件分別生成一段語音,又錄制了一段真人語音,隨機向10位老人進行測試。結果顯示,參與測試的老人都沒能在四段語音中成功辨別出“真人”。很多老人聽都沒聽過AI技術,一輩子信奉眼見為實。即便對AI略知一二,可現(xiàn)在AI語音主要靠流暢度、自然度分辨真假,照片、視頻則是通過瞳孔、耳朵等細節(jié)判定是不是本人,老人年紀大了,難免耳聾眼花,難道還得讓他們接聽電話時戴著助聽器、手持放大鏡?未來,AI合成技術只會越來越逼真,老人又該如何辨別哪個是真孫子?
AI技術發(fā)展迅速,眼見耳聽都不為實的困惑只會越來越多。老人現(xiàn)在的困境,其實也是年輕人未來的困惑。識別騙子不能總指望老人提高“聽力”,建立高效、便捷的反詐屏障勢在必行。比如,嚴厲打擊任意挪用他人聲音、肖像等隱私信息的行為,讓AI仿無可仿;網(wǎng)絡平臺也要按照規(guī)定,在AI合成視頻的“合理位置、區(qū)域進行顯著標識”;警方應建立和優(yōu)化防控攔截機制,為老人筑起一道堅固的保護層。
AI也好,其他智能技術也罷,騙子利用高科技手段,最后都是伸手要錢。于老人而言,無論是誰,打電話要錢,咱都要慎之又慎,多打個電話、發(fā)個短信、連個視頻確認一下,總沒壞處。
關于我們
聯(lián)系我們
微信公眾號
返回頭部