有網絡安全研究近期發現,大型語言模型(LLM)雖然已經能夠生成惡意程式碼,但目前仍未達到可靠運作水平。Netskope Threat Labs 威脅獵人 Jan Michael Alcantara 在最新研究報告中指出,研究團隊成功誘使 GPT-3.5-Turbo 和 GPT-4 生成惡意軟件,但這些程式碼「對於實際部署而言過於不可靠和無效」。
多家美國大型保險公司正向監管機構申請批准,期望在企業保單中排除人工智能相關風險,原因是企業採用聊天機械人及自動化代理系統等 AI 工具後,可能引發數十億美元索償訴訟。AIG、Great American 及 WR Berkley 等保險集團近月陸續提交申請,要求在商業保單加入免責條款,豁免承保企業部署 AI 技術所衍生的法律責任。









