歐盟初步公佈人工智能產業道德準則

人工智能目前已經在很多範疇廣泛應用,在這個技術發展的時候,業界和政府都覺得需要有一定的指引來規範這個充滿潛能的技術,不然可能會帶來嚴重的後果。最近歐盟方面就公佈了人工智能道德準則試行計劃。

歐盟委員會最近公佈的人工智能道德指引,包括 7 個範疇,分別是:

1. 人類參與及監察:支持人類參與並維持基本權利,而非減少、限制或誤導人類自主權;
2. 穩健及安全:AI 演算法必須安全、可靠及穩健,足以應付 AI 系統的生命周期各階段出現的錯誤;
3. 私隱及數據管理:民眾應可完全控制自己的數據,而數據不可用於傷害或歧視他們;
4. 透明度:應確保 AI 系統可被追溯;
5. 多元、不歧視及一視同仁:AI 系統應顧及人類各種能力、技能和要求;
6. 社會及環境福祉:AI 系統應該用於加強正面的社會改革、提高可持續性和生態責任;
7. 問責:應建立機制以確保 AI 系統及其所致後果可被追究責任。

這些指引是歐盟委員會在去年夏天指派來自學術界、工業團體,以及包括 Google、德國軟件公司 SAP、西班牙 Santander 銀行、德國拜耳等公司的 52 名獨立專家所訂立,歐盟方面表示,當指引落實執行後,製作 AI 系統的公司必須依照指引訂立問責機制,令改技術值得信賴,避免被專制政權或者惡意機構濫用。

這個指引未來將會繼續討論,明年將會推出先導計劃,讓有興趣的機構簽署參加,以讓歐盟測試指引所帶來的效果和反應,決定之後的行動。歐盟委員會亦計劃在今年秋天開設一系列 AI 研究中心和數碼創新中心,並就歐盟成員國之間的數據分享作進一步的研究,擬定新的建議書。

來源:Venture Beat