資深開發者成 AI 生成工具主力用戶 使用率是新手 2.5 倍但修復時間成本高

Fastly 研究顯示資深開發者 AI 程式碼工具使用率達33%,是新手 2.5倍,但修復問題耗時抵消效益。



資深軟件開發者對 AI 程式碼生成工具接受度最高,Fastly 最新研究顯示,逾 30% 的資深開發者(10 年以上經驗)定期使用 AI 工具建構軟件,使用率是初級同事的近 2.5 倍,然而修復有問題程式碼所耗費的時間,往往抵消了節省的效益。

根據 Fastly 於 2025 年 7 月對 791 名美國開發者的調查,約三分之一的資深開發者表示,其發布程式碼中有一半以上由 AI 生成,相較之下僅 13% 的初級開發者(0 至 2 年經驗)有相同比例。雖然如此,近 30% 的資深開發者承認需要投入大量時間修正 AI 輸出內容,以抵消大部分節省時間的效益,相比之下僅 17% 的初級開發者有此困擾。本文將從使用現況、品質挑戰及未來趨勢三方面,深入分析這現象對軟件開發產業的影響。

AI 程式碼工具使用呈現經驗分化現象

The Register 分析指出,資深開發者更傾向使用 AI 程式碼生成工具的原因並非偷懶,而是反映了資深工程師日常工作需求。Fastly 開發者參與總監 Austin Spires 解釋:「當你真正放大視野思考資深工程師的工作內容時,他們並非整天編寫程式碼,因此如果有方法能讓人們自主測試或快速製作原型,重現編程初期那種直觀且令人興奮的多巴胺刺激感受,這就是我們在研究中看到這模式的原因。」

調查數據顯示,59% 的資深開發者認為 AI 工具「整體上幫助他們更快發布產品」,而持相同觀點的初級開發者僅佔 49%。更值得注意的是,26% 的資深開發者報告獲得「顯著的速度提升」,是初級開發者(13%)的兩倍。然而這種信心背後,隱藏著更深層的技術考量。Stack Overflow 2025 年開發者調查顯示,80% 的開發者在 2025 年使用 AI 工具,但對其準確性的信任度從前幾年的 40% 下降至 29%。45% 的受訪者表示最主要的挫折是「AI 解決方案幾乎正確但不完全正確」,這種近似錯誤導致微妙的錯誤或其他難以初步檢測的挑戰,對經驗較少的開發者特別耗時。

程式碼品質與安全隱憂持續升溫

雖然 AI 工具承諾提升效率,但程式碼品質問題已成為業界關注焦點。Google 2024 年 DevOps 狀態報告指出,雖然 AI 的採用可能提升 3.4% 的程式碼品質,但同時導致交付穩定性下降 7.2%。報告解釋由於 AI 讓開發者能夠更快交付更多程式碼,後續可能需要更多變更,而大型變更「通常更慢且更容易造成不穩定」。

Cloudsmith 2025 年人工制品管理報告揭露了更嚴峻的安全現實:42% 使用 AI 的開發者表示,至少一半的程式碼庫現在由 AI 工具生成,但只有 67% 的開發者在每次部署前都會檢查生成的程式碼。這意味著近三分之一使用 AI 輔助程式碼的開發者,在部署軟件時並非總是進行人工審查,即使與 AI 生成程式碼相關的新安全風險正在浮現。Veracode 2025 年 GenAI 程式碼安全報告更加劇了這些擔憂,研究發現在 80 個精心設計的程式設計任務中,45% 的 AI 生成程式碼引入了安全漏洞。報告指出 GenAI 模型在 45% 的情況下,選擇不安全的方法編寫程式碼而非安全方法。

開發者體驗差異反映技能與信心落差

Fastly 研究指出,資深開發者對 AI 工具信心的關鍵因素在於,他們「更有能力發現並修正 AI 的錯誤」。資深開發者擁有識別程式碼「看起來正確但實際有誤」的經驗,使他們更有信心高效使用 AI 工具,甚至應用於高風險或業務關鍵程式碼。相較之下初級開發者通常對依賴 AI 更加謹慎,或「更可能完全避免在生產環境中使用」。

然而 METR 組織的隨機對照試驗卻提供了令人意外的發現。研究針對 16 名經驗豐富的開源開發者進行 246 項真實任務測試,結果顯示使用 AI 工具實際上使完成時間增加 19%——AI 工具讓開發者變慢了。這與開發者自己的預期(節省 24% 時間)和經濟學專家(縮短 39%)及機器學習專家(縮短 38%)的預測形成鮮明對比。

Harness 2025 年軟件交付狀態報告進一步證實了這些挑戰,67% 的開發者表示他們花費更多時間為 AI 生成的程式碼除錯,68% 花費更多時間解決 AI 相關的安全漏洞。報告估計平均而言,每 250 名開發者的組織每年面臨 800 萬美元(約港幣 HK$6,240 萬)的生產力損失,78% 的開發者將至少 30% 的時間花在手動重複性任務上。

產業呼籲建立 AI 程式碼治理框架

面對 AI 程式碼生成工具帶來的雙面刃效應,業界專家呼籲建立更完善的治理機制。Georgetown 大學安全與新興技術中心的研究,將 AI 程式碼生成風險分為三大類:模型生成不安全程式碼、模型本身易受攻擊和操控,以及下游網絡安全影響,如訓練未來 AI 系統的反饋迴路。

LegitSecurity 專家建議,組織應實施強而有力的程式碼審查流程來捕捉不安全的做法,負責任地使用 AI 確保其使用最新組件,並採取措施將不必要的資料暴露減到最少。Cloudsmith 資料顯示,雖然 59% 的開發者表示會對 AI 生成的套件給予額外審查,但只有 34% 使用專門針對 AI 生成人工製品執行政策的工具,17% 承認對管理 AI 編寫的程式碼或依賴項完全沒有控制措施。

隨著 AI 程式碼生成技術持續演進,如何在提升開發效率與維護程式碼品質安全之間取得平衡,將成為軟件開發產業未來發展的關鍵課題。資深開發者雖然展現出對 AI 工具更高的接受度和信心,但修復 AI 生成程式碼所需的額外時間成本提醒我們,技術進步並非總是等同於生產力提升。對於企業而言,建立適當的 AI 使用指引、強化程式碼審查機制,以及投資開發者的 AI 工具培訓,將是在 AI 驅動的開發環境中保持競爭力的必要措施。

資料來源:Fastly,The Register,Stack Overflow