AI 最近的發展極為快速,不過技術發展帶來的潛在問題也越來越令人擔心。超過 350 個 AI 企業高層所聯署的聲明就指出,如果未有適當的管制,AI 被濫用的風險對於人類而言危險程度與疫情和核戰相當。
來自包括 OpenAI 和 Google DeepMind 等 AI 企業的超過 350 名高層人員最近聯署了一份聲明,聲明本身是由非牟利組織 AI 安全中心 (Center for AI Safety) 發出,其中提到「減低被 AI 導致人類滅絕的風險應該是全球首要任務,不低於其他風險例如疫情和核戰」。聲明呼籲制定跨界別的相關管制法規。
AI 安全中心行政主管 Dan Hendrycks 表示,與之前 Elon Musk 等人要求暫停開發 AI 的聯署信不同,他們並不希望直接提出潛在的干預方案,這樣會令重要訊息失去重點。目前不論 AI 業界,或者其他科技界的專家們都對 AI 的發展有不同程度的擔憂,雖然技術本身有很大潛力,但也正因為其能力的強大,如果被人濫用後果可以相當嚴重,例如假消息散播、失業問題以及歧視風險等也是潛在危機。各國也正在針對 AI 制定更符合時代變化的法規,例如歐盟就將推出 AI 法案,美國也正在對此進行討論。