防範潛在安全、經濟及道德問題 Elon Musk 及霍金力推人工智能 23 條

不少人期望人工智能改善人類生活,但同時亦有人擔心人工智能的潛在破壞,特別是霍金和 Elon Musk。最近他們與眾多學者一同推祟 23 條人工智能原則,到底包括了甚麼?

不少人期望人工智能改善人類生活,但同時亦有人擔心人工智能的潛在破壞,特別是霍金和 Elon Musk。最近他們與眾多學者一同推祟 23 條人工智能原則,到底包括了甚麼?

 

Future of Life Institute 早前舉辦「Beneficial AI 2017 」會議,邀請不同領域的專家討論人工智能的安全、經濟和道德等議題,最終訂出 23 條開發人工智能的原則,並獲霍金、Elon Musk 等 1445 個專家及 892 個人工智能專家推祟。該 23 條原則以會議舉行的地點來命名,總稱為 Asilomar AI Principles

Asilomar AI Principles 可分為研究開發、道德及價值觀、長遠問題三大類,內容如下:

 

研究開發

1、研究目的:研究的目標應是製作有益的人工智能,而非漫無目的。

2、研究資助:投資人工資能時,應資助有關保障人工智能有益社會的研究。

3、科學與政策的關係:AI 研究人員與政策制訂者之間應有建設性和健康的交流。

4、文化:AI 研究員和開發者應建立合作、信任和透明的文化。

5、避免競賽:團隊之間應互相合作以免在安全問題上偷工減料。

 

道德及價值觀

6、安全:AI 系統於整個生命週期內應安全可靠以及可被驗證。

7、故障透明:AI 系統造成損害的原因應易於檢查。

8、司法透明: AI 系統參與司法判決時要有合理原因,而且可被機構審核。

9、責任:AI 系統的設計者對系統的使用負責任,確保系統用於正途。

10、價值觀一致:設計 AI 系統時,應確保系統運作期間的目標與行為與人類的價值觀一致。

11、人類價值觀:AI 系統的設計應容納人類尊嚴、權力、自由和文化多樣性。

12、個人資料:AI 系統被賦予分析人類數據的能力,而人類應有權存取、管理和控制該些數據

13、自由與私隱:AI 系統應用個人資料時不應剝削人們的自主權。

14、分享好處:AI 技術應盡可能惠及多人。

15、共享繁榮:AI 帶來的經濟繁榮應廣泛分享,惠及全人。

16、由人決定:人們應決定應否和怎樣把決定交給 AI 系統,以達成由人類決定的目標。

17、非顛覆:從 AI 系統獲得的權力後,應遵重和改善健康社會依賴的社會和公民進程,而非用於顛覆。

18、人工智能軍備競賽:避免大殺傷力自動化武器的軍備競賽。

 

長遠問題

19、時刻警惕:不應假設將來 AI 系統的能力上限。

20、重要性:高級的人工智能可謂地球生命史的重大改變,應用相稱的資源和心神來計劃和管理。

21、風險:當 AI 系統帶來風險,特別是災難性和威脅人類存亡時,人們必須有相應的計劃和管理來應對潛在的影響。

22、不斷的自我改善:如 AI 系統有自我提升水平或數量的能力,必須受嚴謹的安全和控制措施所限。

23、共同利益:超智能不是為單一國家或組職而設,只能為廣泛接納的道德觀和全人類福祉而開發。

 

Source : Inverse