close

security

人工智能

LLM 生成惡意程式能力提升 但與全自動網絡攻擊仍有距離

有網絡安全研究近期發現,大型語言模型(LLM)雖然已經能夠生成惡意程式碼,但目前仍未達到可靠運作水平。Netskope Threat Labs 威脅獵人 Jan Michael Alcantara 在最新研究報告中指出,研究團隊成功誘使 GPT-3.5-Turbo 和 GPT-4 生成惡意軟件,但這些程式碼「對於實際部署而言過於不可靠和無效」。
read more
人工智能資訊保安

生成式 AI 淪為網絡攻擊利器 身份管理成企業防禦關鍵

研究機構 Forrester 最新發表報告顯示,生成式 AI 已經成為網絡攻擊者手中的「混亂製造者」,令企業網絡安全面臨前所未有的威脅。哥倫比亞大學 Tow 數碼新聞中心研究發現,包括 ChatGPT 和 Gemini 在內的 8 個 AI 模型整體錯誤率達到 60%。卡內基梅隆大學研究人員測試顯示,AI 代理在真實企業任務中的失敗率介乎 70% 至 90%。
read more