研究發現對抗攻擊方法可在多個人工智能模型上適用

人工智能雖然非常強大,不過正如任何的電腦系統一樣,都會有其缺點和漏洞。最近有一個研究發現,如果找出一個可以成功瞞騙人工智能模型的對抗攻擊方法,則可以在另一人工智能模型上湊效。

來自意大利 University of Cagliari 以及美國 Northeastern University 的研究人員在最近一個 arXiv 刊登的論文上指出,常見用來瞞騙人工智能神經網絡的對抗攻擊方法,一旦發現在一個人工智能模型上有效,在其他人工智能模型上亦同樣有效,變相讓攻擊者可以先在風險較低的人工智能模型上測試攻擊方式,找到有效的方式後再實際在保安較嚴格的地方使用。

研究人員表示,這種可轉換性讓攻擊者可以針對完全不同而未知的模型進行有效的攻擊,對於現在越來越普及的人工智能系統而言是個危險的現象。特別是當現在資訊更加透明公開,攻擊者要了解目標系統的架構,並採用相關的開源模型作測試也越來越容易。他們也在論文上提及這個情況可以如何避免,讓系統設計者可以更加小心,避免遭受攻擊。

來源:The Register