VMware 剖析生成式 AI 三大核心挑戰

ChatGPT 3.5公開測試版正式發佈,各行業對生成式AIGenAI)的關注及創新可謂前所未有。 VMware執行總監 Raghu Raghuram(上圖)建議企業在大舉投資生成式AI創新的同時,必須解決開支、可懂性及安全性等挑戰。 

對比之前對AI的炒作,ChatGPT 新版本的不同之處,在於生成式AI能使我們以對話方式跟強大的AI工具進行互動,這種自然語言交流與「人類相似的」創造力結合,能夠生成包括文字、程式、影片、音檔等全新內容。現今的大型語言模型(Large Language Models)更令中英文等母語成為真正的編程語言。我們在這些模型中所輸入的提示詞,基本上就是 AI 用來運算答案的編碼,成為有史以來我們距離實現編程真正大眾化最接近的階段,為軟件開發、客戶支援、銷售、市場等主要業務部門帶來轉型機遇。

借助生成式AI,我們可以通過解決不同學習者之間的差異性來調整教育體系、協助醫生做出臨床診斷、幫助客戶做出投資決策等。然而,這只是冰山一角,根據麥肯錫最近一份報告顯示,生成式AI每年能為全球帶來高達7.9萬億美元的經濟價值。 

必須解決的三大挑戰

跟以往類似大規模創新突破的早期階段一樣,我們在更加廣泛地使用AI方面遇到一些重大的障礙。 企業如欲充分發揮生成式AI的價值和潛力,必須先解決三大核心挑戰。

挑戰一:將天價變成平價

訓練和管理現今的生成式AI模型既複雜又昂貴,需要耗費大量專用運算力和高速網絡,以及無數記憶體。目前,AI模型的性能與運算基礎設施的實際比例為11,在這種情況下既無法擴展又不可持續。Andreessen Horowitz最近將訓練ChatGPT的模型描述為「人類到目前為止運算密度最高的任務之一」。現時,單次訓練的價格從50萬美元到460萬美元不等,而隨著模型的更新,訓練將成為一項持續的開支。

挑戰二:將專業的AI知識變成普通人可以理解的AI知識

AI模型的構建、微調和運行都需要擁有相關專業知識的人才,長期供不應求。企業意識到AI開源軟件領域發展迅速,因此希望在創新成果出現時,能快速、輕鬆地遷移過去,而不會被鎖定在任何一個平台或廠商上。如果只有一小部分專業技術人員理解現今AI模型背後的「奧秘」,就會很難實現該種適應性。為此,企業須從根本上簡化構建和訓練AI模型的流程及工具。

挑戰三:將風險變成信用

最後也是最重要的一點是需要將風險變成信用。當前AI模型會帶來私隱問題、法律和監管問題、知識產權洩露等巨大風險。這些風險有可能損害公司聲譽、傷害客戶和員工並對該企業收入產生負面影響。在員工不小心將敏感的內部數據洩漏到ChatGPT後,許多企業都制定了限制員工使用生成式AI工具的政策。因此科技行業需制定一套道德準則來保障並加強公平性、隱私性、責任追究、他人的知識財產權以及訓練數據的透明度。

 正如流動裝置的革命在過去15年改變了商業以及人們與技術的關係,新一輪AI應用熱潮將大幅提升員工的生產力,並加快全球經濟發展。前期共同面臨的挑戰,是如何令這項強大的技術變得更加經濟、可行和可信,讓企業能夠以負責任及道德的方式參與下一輪創新熱潮。