AI 快速發展下,相關的風險也逐漸受到更大的關注。不過制定政策和立法時面對各種複雜的資訊難免產生混亂。MIT 的研究人員有見及此就製作一個 AI 風險儲存庫,協助更清晰理解 AI 風險。
MIT FutureTech 團隊的研究員 Peter Slattery 表示,這個 AI 風險儲存庫 (AI Risk Repository) 包括了超過 700 種 AI 風險,按因果因素(例如意圖)、範疇(例如歧視)和子範疇(如虛假資訊和網絡攻擊)進行分組。這數據庫希望幫助用戶理解 AI 安全研究中的重疊與脫節,並填補現有風險框架的空白,這些框架往往只涵蓋了儲存庫中風險的一部分,而這些遺漏可能對 AI 的發展、使用和政策制定產生重大影響。有了這個數據庫,在制定 AI 法規例如 EU AI Act 或 California 的 SB 1047 等,政策制定者就可以對法規應該涵蓋哪些風險達成共識。
研究人員發現,第三方框架中某些風險被提及的頻率遠高於其他風險。例如,超過 70% 的框架提到了 AI 的私隱和安全影響,而只有 44% 涵蓋了虛假資訊。未來 MIT 的研究人員計劃利用這個風險儲存庫來評估各種 AI 風險的處理情況,識別組織應對措施中的不足之處,並在 AI 風險管理方面提出改進建議。
來源:TechCrunch