close
人工智能

NIST 推出「可信 AI」風險管理框架

人工智能技術普及的同時,相應的規範也在同步跟進。最近美國商務部國家標準暨技術研究院就發佈了人工智能風險管理框架,以便於人工智能的開發和應用中納入可信度評估。

美國商務部國家標準暨技術研究院 (NIST) 最近發表的 AI RMF 1.0 框架旨在讓設計、開發、部署和使用人工智能的機構自願參考,其中包括一個指南手冊和建議,提供「可信 AI」的說明。這個框架是早在 2020 年美國國會通過《2020 國家人工智能法案》後,指示 NIST 負責制定,而草案在去年 8 月發表。

NIST 解釋,AI RMF 框架分為兩部分,第一部分解釋了機構應如何理解與人工智能有關的風險,並簡介可信人工智能系統的特點。第二部分則是框架的核心,描述四個具體功能:治理、映射、測量和管理,幫助組織在實踐中解決人工智能系統的風險。

方案供應商 MetricStream 的管理、風險和合規聯合總裁 Gaurav Kapoor 認為,該框架只是一個起點,但仍然有助於持續的 AI 表現管理、風險監測、人工智能引起的偏見風險,甚至確保 PII 安全的措施,以便制定可持續的程序。

來源:VentureBeat

Tags : aiNISTTrust
Antony Shum

The author Antony Shum