當代人工智能欺騙
01AI機器人電話想必大家都經歷過這樣的場景:正式通話接通時,語音的另壹端會很自然地跟妳打招呼。停頓之後,如果妳禮貌地回應“誰”,另壹邊的機器人就會開始和妳打招呼,鼓勵妳辦理業務。更有甚者,AI機器人會用虛假借口索要錢財或個人信息。
機器人電話是AI語音合成技術壹個比較廣泛的應用。類似的AI機器人手機詐騙,近年來也有公安機關破獲。然而,除了用戶主動標註“詐騙號碼”,沒有其他方法可以有效阻止非法的機器人電話。
據《華爾街日報》報道,英國壹家能源公司的CEO接到了母公司的電話,電話中自稱“CEO”的人壹天打了三次電話要錢。要求他向匈牙利供應商匯款,聲稱為了穩定雙方的合作關系,最終成功詐騙22萬歐元。
值得註意的是,打電話的人英語帶壹點德國口音,和老板的旋律壹樣,和母公司的老板壹模壹樣,至少從聲音上判斷,肯定是老板本人。
這裏是人工智能語音克隆技術。除了使用神經網絡對原始音頻進行建模和模仿,AI還可以分析我的社交網絡,快速掌握個性化的說話方式、與周圍人的關系、興趣愛好等。,從而模仿妳與周圍人的自然交流。甚至特殊口音或者純正方言的語音合成都可以。
03AI的變臉效果更容易獲得對方的信任。騙子可以用AI技術變臉偽裝成任何人,然後通過視頻確認信息。前段時間很火的換臉App“ZAO”,可以把壹個人的臉換成另壹個人的身材。只要搜索到足夠多的素材,完全可以“變臉”,大家都可以上手。
在直播平臺上,有人冒充羅伊,卻還能忽悠粉絲,這就是變臉和變聲相結合的應用。
通過AI技術篩選受騙者。騙子不是漫無目的地撒網,而是別有用心地針對特定對象。他們會根據要實施的騙術對人群進行篩選,從而選擇目標對象。
舉個栗子:進行金融詐騙時,經常收集投資信息的小夥伴會成為他們的潛在目標。
利用AI技術,再加上套路和腳本的解讀,這樣的詐騙手段能被朋友hold住嗎?
AI詐騙,如何有效防範?
如何有效防範和防止更多人上當受騙,可能需要政策、技術和個人的共同努力。
1.技術隨著AI詐騙的加劇,很多新的技術方法開始被應用於防範AI詐騙。例如,安全公司賽門鐵克(Symantec)最近提出了使用區塊鏈技術和IP語音(VoIP)呼叫來識別呼叫者身份的方法,從而減少了那些來自上級的欺詐電話。
在不知道技術擴散後果的前提下,合理釋放技術成果也成為壹些科技企業的選擇。比如前段時間OpenAI推出的性能更高的無監督語言模型GPT-2,只發布了簡化版,沒有發布數據集、訓練代碼和模型權重。
2.政策除了技術人員和黑客之間的鬥智鬥勇,業界也開始從規則建設的層面為AI的濫用設立禁區。
近年來,FTC和FCC都加強了對非法機器人電話的監管行動,並向8家小型電信運營商和互聯網通信公司發出通知,敦促他們追查和關閉涉嫌欺詐的電話來源。
在美國安全中心發布的《人工智能與國家安全》報告中,人工智能偽造技術也被明確列為威脅國家安全的關鍵技術。
中國也開始通過政策管理和技術限制來應對人工智能的潛在安全風險。
3.個人信息的個人保護。為了防止騙子用AI技術處理個人信息,從而行騙,朋友們要防範各種信息泄露,無論是在網絡上還是社交軟件上,盡量避免過多暴露自己的信息。
認證。涉及轉賬等交易時,在無法確認對方身份的情況下,可將到賬時間設置為“24小時”,預留處理時間。即使對方利用AI技術作弊,也可以通過提問進壹步確認身份。建議妳向對方銀行賬戶轉賬,避免通過微信等社交軟件轉賬。壹方面有助於核實對方身份,另壹方面也有助於跟進轉賬信息。
互相提示,* * *有防。提醒和勸誡身邊的親朋好友,提高安全意識和應對高科技詐騙的能力,防止上當受騙,尤其是家裏的老人。面對各種網絡詐騙,壹定要警惕三點!