兩份 AI 重磅報告揭露: 95% 企業 AI 轉型血本無歸的原因 CEO 該掌握 5 個決策支援關鍵

AI 普及率驚人但企業 AI 專案失敗率高達 95%。最新研究揭示,77% 員工正使用個人 AI 帳號處理公務並洩露機密資料。本文深入分析企業 AI 轉型的致命盲點,拆解「影子 AI」帶來的巨大風險,並為決策者提供從失敗轉向成功

OpenAI 最新使用報告顯示,他們已經擁有 7 億週活躍用戶,每天處理 26 億則訊息,相當於全球成人人口的 10%。但對企業領導者而言,真正值得警惕的是一個令人困惑的矛盾:為何在如此驚人的個人採用率下,企業的 AI 轉型卻普遍陷入失敗?另一份麻省理工學院的研究顯示,雖然企業投入 300 至 400 億美元(約港幣 2,340 至 3,120 億元),95% 的 AI 專案未能產生回報。更諷刺的是,雖然只有 40% 企業正式採購 AI 工具,卻有 90% 員工正在用個人帳號偷偷使用 ChatGPT 處理工作——而且 77% 的人曾在其中貼入公司機密資料。這不是技術問題,而是企業根本性的策略失誤。

90% 員工用個人AI成功 95% 企業官方專案慘敗

第一份是麻省理工學院媒體實驗室 NANDA 專案的《生成式 AI 鴻溝:2025 企業 AI 現狀報告》。這項研究透過 52 個組織的深度訪談、153 位高階主管的問卷調查,以及對 300 個公開 AI 部署專案的系統分析,揭示了企業 AI 轉型的失敗模式。雖然這份報告在研究方法論上引發了部分爭議——批評者質疑其樣本代表性和 95% 失敗率的計算方式——但其揭示的核心趨勢卻得到多方印證:企業提供的官方工具僵化難用,迫使員工轉向「影子 AI」。

第二份是 OpenAI 與哈佛大學經濟學家 David Deming 合作完成的 65 頁學術報告《人們如何使用 ChatGPT》。這是首次有科技公司開放內部數據進行學術研究。研究團隊運用私隱保護的自動化分類系統,分析了從 2024 年 5 月到 2025 年 6 月期間超過 110 萬則對話樣本,並在數據清潔室中結合 13 萬名用戶的就業與教育資料,繪製出迄今最完整的 AI 使用圖譜。整個研究過程中,沒有任何研究人員直接接觸過用戶訊息內容。

兩份報告的交叉驗證揭示了企業 AI 轉型的三個致命盲點:誤把 AI 當執行工具而非決策夥伴、過度追求控制而扼殺靈活性,以及在不知不覺中將組織暴露在巨大的合規風險之下。以下是這些數據揭示的關鍵洞察。

 

教育需求超越編程

OpenAI 針對 26 億則每日訊息的深度分析,為企業領導者揭示了幾個被嚴重低估的市場機會。首先 73% 的使用屬於非商業場景,且這個比例還在持續上升。這個發現打破了許多行政總裁對 AI 價值的狹隘認知,也解釋了為何企業 AI 專案難以複製消費市場的成功。

在實際使用分布上,近 80% 的對話集中在三大領域:實用指導佔 28.8%,包含個人化建議和創意發想;資訊搜尋佔 24.4%,直接替代傳統搜尋引擎;寫作輔助佔 23.9%,這是商業場景中的主導應用。但更引人注目的是,教育輔導佔了 10.2% 的使用量,幾乎與技術協助(7.5%)相當。這個數據揭示了三個戰略機會:企業培訓市場的重新定義、員工技能提升的低成本方案,以及組織知識傳承的新模式。相較之下,廣受討論的編程應用只佔 4.2%,而「關係與個人反思」僅佔 1.9%,遠低於媒體報導中「心理陪伴」的熱度。

在商業相關的使用中,寫作佔據了 40% 的比例。但關鍵發現有三分之二寫作任務是修改既有文本,而非從零創作。這揭示了 AI 現時定位:並非取代人類的創意和判斷,而是要放大和加速這些能力。當一位經理需要將技術報告轉換成董事會能理解的語言時,當一位分析師需要將數據洞察轉化為可執行的建議時,AI 扮演的是助手而非替代者的角色。

透過 O*NET 職業資訊網絡的分析框架,研究團隊發現商業相關使用高度集中:獲取資訊佔 19.3%、解釋資訊意義佔 13.1%、記錄資訊佔 12.8%,這三項資訊處理活動就佔了 45.2%。而「制定決策和解決問題」(8.5%)、「創意思考」(9.1%)、「提供諮詢建議」(9.2%)三項決策相關活動則佔 26.8%。這個分布揭示了 AI 在企業中最有價值的定位:不是執行者而是決策支援系統。

商業 AI  運用核心在決策支援而非任務自動化

更關鍵的發現在於「詢問」與「執行」的比例變化。研究顯示,49% 的使用屬於尋求資訊或建議的「詢問」,40% 屬於要求 AI 執行任務的「執行」,另有 11% 是情感表達。而「詢問」類型增長更快,用戶滿意度也顯著更高——良好評價從「不良」的 3 倍增長到 4 倍以上。這個趨勢指向了一個關鍵洞察:在知識經濟時代,AI 作為決策支援工具的價值遠超過作為自動化工具。

這也解釋了為何高學歷和專業職業的用戶更傾向使用 AI 於工作場景。研究發現,擁有研究生學歷的用戶有 48% 的訊息與工作相關,而學士學位用戶為 46%,高中以下則只有 37%。在職業分布上,電腦相關職業 57% 的訊息為工作用途,管理與商業為 50%,工程與科學為 48%,而非專業職業只有 40%。這種差異不是因為技術門檻,而是因為這些職業的核心產出就是判斷和決策。

具體而言,AI 正在改變知識工作的三個核心環節。第一,資訊獲取的速度和廣度——過去需要耗費數小時搜尋和整理的資料,現在可以在幾分鐘內完成。第二,選項評估的深度和客觀性——AI 可以協助決策者考慮更多角度,避免認知偏誤。第三,溝通表達的精準度和影響力——無論是內部提案或外部簡報,AI 都能協助將複雜思維轉化為清晰論述。這三個環節的提升,累積起來就是組織決策能力的質變。

值得注意的是,ChatGPT 和競爭對手 Claude 服務著截然不同的用戶群。Claude 的工作相關對話中,編程佔比高達 33%,而 ChatGPT 只有 4.2%。這個 10 倍差距反映了產品定位的根本差異:Claude 更受技術導向企業青睞,而 ChatGPT 在大眾市場的滲透更為成功。對行政總裁而言,這意味著選擇工具時不能只看品牌,而要看用戶結構是否匹配組織需求。

三大根源企業 AI 方案失敗關鍵

然而了解 AI 的價值是一回事,成功導入又是另一回事。MIT 研究指出的 95% 失敗率背後,隱藏著企業在三個層面的根本性錯誤。

 

錯誤 1 :將 AI 導入視為技術部門的責任

MIT 發現,採購專業供應商工具的成功率為 67%,而內部自建只有 33%。許多企業尤其是金融等高度監管行業,堅持自建系統以確保控制權,卻因為過度工程化而導致工具僵化、無法適應實際工作流程。**這就解釋了為何員工會投奔個人版工具——因為企業提供的官方工具僵化、難用,完全扼殺了員工真正需要的、高價值的「詢問」與「決策輔助」功能。**當一位律師需要快速理解一份複雜合約的風險點時,企業版工具要求填寫 6 個欄位、等待 IT 審批、再經過 3 層安全檢查;而個人版 ChatGPT 只需要貼上文本,30 秒內就能獲得結構化的風險分析。員工不是在反抗公司政策,而是在用腳投票選擇真正能提升決策品質的工具。這種差距直接反映在用戶體驗上:企業內部工具被描述為「僵化、過度設計、與實際工作流程脫節」,而消費級工具則因「靈活性、熟悉度和即時效用」而獲得好評。

 

錯誤 2 :將 AI 當作「會說話的搜尋引擎」而非「決策夥伴」

多數企業只訓練員工如何操作工具,卻沒有教他們如何提出高品質的問題。但前述數據已經清楚顯示:「詢問」類訊息的滿意度是「執行」的 1.5 倍,且增長速度更快。這意味著 AI 的核心價值不在於「幫我寫一封郵件」這種執行任務,而在於「這個策略的潛在風險是什麼」這種決策支援。然而當企業將 AI 培訓簡化為「如何下指令」的操作手冊時,員工永遠無法發揮工具的真正潛力。研究發現這種「學習鴻溝」才是失敗的主因——不是技術不夠強大,而是組織不知道如何將技術轉化為決策能力的提升。一個不會提問的員工,即使給他最先進的 AI,也只是把它當成更快的搜尋引擎。

錯誤 3 :嚴重低估了資安風險

根據 LayerX 的 2025 年企業 AI 與 SaaS 數據安全報告,45% 的企業員工正在使用生成式 AI,其中 77% 曾複製貼上公司資料到 AI 工具中,22% 甚至貼入了個人資料或支付卡資料。更嚴峻的是,上傳到 AI 平台的檔案中,40% 包含敏感的 PII 或 PCI 數據,而這些上傳有 39% 來自非公司帳號。在所有 AI 使用中,67% 發生在企業 IT 部門無法監控的個人帳號上。這意味著當行政總裁還在會議室裡討論 AI 專案的 ROI 時,公司核心資料可能已經透過數百位員工的個人 ChatGPT 帳號大量外洩。ChatGPT 佔企業 AI 使用的 92%,已經超越電郵和檔案分享,成為最大的資料外洩管道。

諷刺的是,這種「影子 AI」現象恰恰證明了 AI 的價值。雖然只有 40% 的公司採購了正式的 LLM 訂閱,但 90% 以上公司的員工每天多次使用個人 AI 工具處理工作——員工已經用個人帳號證明了 AI 能大幅提升工作效率,企業卻因為提供不了同等體驗的官方工具,而將自己暴露在巨大的合規風險之下。對於受 GDPR、HIPAA 或 SOX 監管的企業而言,這除了是效率問題,更是可能導致巨額罰款的法律危機。當一位醫療機構員工將病患資料貼入個人 ChatGPT 以快速生成摘要時,他在提升工作效率的同時,也讓機構面臨違反 HIPAA 的風險。

這三個錯誤揭示了一個根本矛盾:企業想要控制,但控制扼殺了靈活性;企業想要安全,但僵化的官方工具迫使員工轉向更不安全的個人帳號;企業想要 ROI,也不願投資於讓員工真正學會「提問」而非「下指令」的能力建設。結果就是 MIT 報告中那個殘酷的數字:95% 的失敗率。

建立 AI 優先企業的實戰路徑

要跨越這道鴻溝,企業需要在 5 個層面進行系統性建設,但核心是先認清現實:員工已經用個人工具證明了 AI 的價值,問題是企業版為何做不到同樣的體驗。

首先是決策基礎設施的重建。這不是指採購多少工具,而是將 AI 嵌入每一個關鍵決策過程。當評估新產品方向時,AI 應該能夠快速提供市場分析。當制定年度策略時,AI 應該能夠協助情境模擬。這需要將組織的知識資產數碼化、結構化,並與 AI 工具深度整合。許多企業坐擁龐大的檔案庫、案例庫、經驗庫,卻因為缺乏有效的知識管理而讓這些資產沉睡。

其次是工作流程的重新設計。不是在既有流程上疊加 AI 工具,而是以 AI 的能力為基礎重新思考流程。例如傳統的市場研究可能需要 3 週,但透過 AI 輔助可能縮短到 3 天。這不只是效率提升,更意味著決策節奏的加快。當競爭對手還在進行第一輪分析時,AI 為先企業已經完成了 3 次疊代。

第三是組織能力的系統性提升。這包括 3 個層次:基礎層確保每位員工都具備 AI 協作的基本素養;進階層在各職能領域培養 AI 應用專家;戰略層在高階管理團隊中建立對 AI 能力邊界的深刻理解。特別是教育與培訓功能,既然 10.2% 的使用是輔導教學,企業應該善用 AI 建立內部知識傳承和技能提升系統。

第四是安全治理機制的建立。面對 77% 員工在 AI 中貼入公司資料的現實,企業需要的不是禁用,而是建立安全的替代方案。正視「影子 AI」的存在,分析哪些個人工具提供了價值,然後採購企業級替代方案,同時建立清晰的資料分類和使用規範。67% 的 AI 使用發生在非企業帳號這個事實,說明現有企業方案的體驗差距有多大。

第五是文化與評估機制的調適。當員工使用 AI 協助決策時,如何評估其工作品質?當 AI 提供的建議與人類判斷衝突時,如何裁決?這些問題沒有標準答案,但需要組織在實踐中逐步建立共識,鼓勵而非懲罰 AI 實驗。

必須立即啟動的三件事

根據 Gartner 在 2021 年的預測,到 2025 年將有 30% 的新藥開發運用生成式 AI 技術——這不是遙遠的未來,而是正在發生的現實。同時該機構在 2024 年也警告,30% 的 GenAI 專案將因成本、數據品質或不明確的商業價值而在 2025 年底前被放棄。這種兩極化正是當前市場的寫照:少數企業正在獲得巨大優勢,多數企業則在浪費資源。

更值得警惕的是競爭態勢的改變。當 ChatGPT 的性別差距從早期的 80% 男性用戶縮減到現在的均衡分布,當中低收入國家的採用率成長速度是高收入國家的 4 倍,這意味著 AI 能力的民主化正在全球範圍內發生。你的競爭對手可能不再是傳統的同業巨頭,而是一群善用 AI 工具、決策迅速、疊代快速的新創團隊。

作為行政總裁,現在需要做的不是制定一個 5 年 AI 戰略,而是立即開始 3 件事。第一,親自使用 AI 工具至少 30 天,深度理解其能力與限制。不要透過報告和示範來了解 AI,要透過每日使用來培養直覺。第二,面對 77% 員工外洩資料的現實,立即建立數據分類與 AI 使用規範,這是合規底線。第三,識別組織中 3 個高價值的決策場景,投入資源進行深度 AI 化改造,追求 10 倍而非 10 個百分點的改善,並在過程中建立內部 AI 協作能力。

7 億用戶的選擇已經證明了 AI 的價值,95% 的失敗率警示了轉型的難度,而 77% 的資料外洩揭示了風險的急迫性。這 3 個數字共同描繪了當前時刻的關鍵性:工具已經成熟,風險正在累積,但組織能力尚未跟上。率先跨越這道鴻溝的企業,將在未來 10 年建立難以超越的競爭優勢。而繼續停留在試點階段或視而不見的企業,可能會發現自己正在被一個加速前進的世界所拋棄。選擇權在於領導者,但時間不會等待任何人。

資料來源:

OpenAI《人們如何使用ChatGPT》報告

MIT NANDA《生成式AI鴻溝:2025企業AI現狀報告》