AI 效能強大,如何「負責任」地開發和使用 AI,也成為新時代企業需要面對的課題。Microsoft 最近就發表首份年度《負責任 AI 透明度報告》,分享他們如何開發和監察 AI 技術。
Microsoft 最近發表《負責任 AI 透明度報告》中詳細闡述了如何開發以生成式 AI 驅動的應用程式,作出相關決策並監察這些應用程式的部署。Microsoft 表示,其「負責任 AI 標準」符合美國國家標準與技術研究院的「AI 風險管理框架」,在 AI 應用的整個開發週期中細致地分析、衡量和管理風險。
報告顯示,Microsoft 推出了 30 種負責任 AI 工具,包括 100 多種功能,幫助客戶負責任地開發 AI。此外,自 2019 年以來,Microsoft 還公開了 33 份透明度報告,為客戶提供對其平台服務(如 Azure OpenAI Service)的詳細資訊。
同時,Microsoft 積極參與各種多方持分者的活動,以加強其負責任 AI 工作,其中包括先進模型論壇、AI 合作夥伴、MITRE 以及美國國家標準與技術研究院的活動。公司還支持重要的 AI 研究計劃,包括國家和研究組織提供資金,目前該計劃已經包含 24 名來自全球不同地區的研究員。
在內部文化方面,Microsoft 大幅擴展了其負責任 AI 社群,2023 年下半年,該社群成員人數將增長 16.6%,此外其員工也普遍遵守了負責任 AI 實踐。報告指,截至 2023 年底,99% 的員工完成了 Microsoft 年度《商業行為標準》中的強制培訓。未來將會繼續投入發展,協助業界拓展負責任 AI。
來源:Microsoft