歐洲刑警組織今年較早前曾發出警告,稱犯罪分子即將利用人工智能(AI)。歐盟警方對 AI 聊天機器人可能被濫用於網絡釣魚、虛假信息和網絡犯罪感到擔憂,而這並不無道理。
香港警方近日亦提醒市民,隨着 AI 技術日趨成熟,大眾應及早提高防範意識,避免接聽陌生人的視像電話,保護個人臉部、聲音等生物特徵信息,免被騙徒收集成數據,以「換臉」或「換聲」造假行騙。
OpenAI 開發的 ChatGPT,憑藉其幫助提高工作效率和改善生活質量的特點,成功吸引衆多用戶。目前 ChatGPT 在全球用戶量已突破 2 億,成爲最受歡迎的大型語言模型。然而,欺詐者同樣也注意到 ChatGPT 的出現,並渴望利用這項新技術謀取不義之財。Bill Gates 就曾在一篇名為《AI 時代已開啓》的博客中聲稱:「這項革命性的技術是自用戶友好型計算機以來最大的創新。」
我們正在見證一個新科技時代的開端,AI 即將融入日常生活的方方面面。
大規模欺詐
隨著技術的進步,欺詐手段也花樣頻出。欺詐者如今可以輕易利用 ChatGPT 生成以假亂真且人性化的電子郵件和短信,更容易地進行網絡釣魚詐騙。
技術專家 Alex Hamerstone 在芝加哥 ABC 新聞中表示:「有了這些幫助寫作的新型 AI 技術,用戶目前幾乎不可能從合法的電子郵件中辨別出其中一些釣魚攻擊。」
受害者很難區分欺詐性電子郵件和合法電子郵件,但這並不是唯一的擔憂。企業面臨額外的新挑戰,包括欺詐者使用 AI 來破壞用戶身份驗證技術。部分生成式 AI 服務可以在 3 秒內使用樣本模擬任何人的聲音。這種程度的語音合成技術,引起了社會對於深偽技術(Deepfake)可能被廣泛用於欺詐的擔憂。例如,欺詐者可以利用這項技術來冒充銀行僱員的聲音,說服受害者進行交易而不引起懷疑,最終導致受害者蒙受經濟損失。
其次,AI 的能力也構成了潛在的威脅,因為不法分子可藉助它實施大規模欺詐。利用生成式 AI 的巨大潛力,再加上語音識別和表達技術,一個欺詐者可能是數千個欺詐電話的幕後黑手。目前,欺詐者在接觸受害者的數量上受到限制,因為欺詐者一次只能與一名受害者交談。然而,欺詐者利用 AI,在同一時間段内瞄準更廣泛的群體。
保護機密資訊
在使用如 ChatGPT 等大型語言模型時,數據安全是不得不重視的問題。公司必須謹慎行事,以防止其員工無意中與生成式 AI 技術的第三方供應商共享機密訊息。
在一個案例中,一位工程師上傳了機密代碼並要求 ChatGPT 識別和優化軟件缺陷。不幸地,這個行為導致 ChatGPT 將源代碼添加到其資料庫和學習材料中,破壞了代碼保密性。
在未來幾個月甚至數年間,執行數據安全措施將對於有效防範 AI 驅動的欺詐至關重要。安全措施不足會導致受害者被似是而非的電子郵件或電話欺騙。通過強化的身份驗證因素來加強數據安全性將增強整體安全性。
結合防詐騙工具
打擊欺詐是一場持久戰,AI 的出現為這場戰役增添了變數。隨著攻擊量的不斷攀升,檢測和有效阻止欺詐將越來越困難。企業和其他利益相關者必須教育公眾安全使用 AI,強調避免共享敏感數據和防範網絡安全風險的重要性。
對於缺乏多層次防禦方法來減輕詐騙風險的企業來說,這令他們極易受到攻擊。多層次防禦模型能夠高效地對抗 AI 攻擊的影響。例如,經機器學習(ML)優化的詐騙檢測模型已經展現出很高的檢測率。
機構可協作共享實時情報,阻止由有組織的欺詐團夥精心策劃的重複攻擊。通過將線下行為與在綫情報相結合,機構可以建立一個強大的防禦網絡,有效地防止欺詐者利用 AI 驅動的工具來欺騙公眾和組織。
撰文:LexisNexis Risk Solutions 中國區總監陳志平