close
企業趨勢

AI 執法雙面刃:「銳眼」系統如何汲取美國教訓 建立信任與問責


AI 執法雙面刃:「銳眼」系統如何汲取美國教訓 建立信任與問責

美國警察部門使用 AI 撰寫執法報告引發的司法公正危機,為香港政府 AI 部署敲響警鐘。香港特區政府正積極推進「AI+」戰略,2025 年施政報告承諾投資 10 億港元成立香港人工智能研發院,並在 2026 年正式運作。然而香港警務處已開始使用 AI 聊天機械人「Yes Sir」處理市民查詢,並計劃在 2025 年底前為 3,162 個「銳眼」監控鏡頭啟動人臉識別功能,這些應用範圍正迅速擴大至執法、監控及公共服務領域。美國 Axon Draft One 案例揭示的三大核心問題——透明度缺失、AI 幻覺風險、以及系統性隱瞞使用情況——在香港同樣可能發生。本文將從法律框架、技術治理、公眾信任、問責機制及國際標準五個維度,探討香港政府如何建立一套超前於技術發展的 AI 治理體系,避免重蹈美國覆轍,同時確保創新與公民權利的平衡。

美國警用科技龍頭 Axon 早前推出名為 Draft One 的 AI 軟件,其功能是利用 AI 分析警員隨身攝錄機的錄音,並自動生成初步報告草稿,期望能將警員撰寫報告的時間大幅縮短超過一小時。然而此舉引發極大爭議,外界憂慮 AI 或會出現「幻覺」(Hallucination)而捏造內容,導致報告失實,繼而影響司法程序公正性。事件甚至引發 Axon 內部 AI 道德委員會多名成員集體辭職抗議,指控公司漠視 AI 可能對司法系統構成的潛在風險。

香港與美國的法律體系差異

香港法律環境與美國存在根本性差異,這影響 AI 治理策略的制定。香港採用普通法制度,但缺乏美國式的聯邦與州分權結構,政策制定更集中統一。目前香港沒有專門的 AI 法律,而是依賴現有法規——包括《個人資料(私隱)條例》(第 486 章)、《反歧視條例》、知識產權法及網絡安全法——以「碎片化方式」規範 AI 應用。這種架構與美國相似,但香港的執行力度及政府主導性更強。香港個人資料私隱專員公署(PCPD)在 2024 年 6 月發布了《人工智能:個人資料保障模範框架》,為機構提供 AI 採購、實施及使用指引。然而該框架屬自願性質,缺乏強制執行力。相較之下,加州 SB 524 法案強制要求 AI 輔助撰寫的警察報告必須標示,並保留審計追蹤記錄。香港法律學者指出,AI 警察監控的法律後果涉及複雜問題,需要制定透明政策規範其使用。

香港目前的AI政府應用現狀

香港政府正積極擴大 AI 在公共服務的應用範圍,但透明度機制仍待加強。警務處於 2025 年 8 月推出整合 54 項電子服務的「香港警察」手機應用程式,內建 AI 聊天機械人「Yes Sir」提供 24 小時諮詢服務,能以文字、相片及影片回應市民關於警隊服務及防騙資訊的查詢。該系統目前主要用於客戶服務,尚未涉及執法報告撰寫。更引發關注的是「銳眼」(SmartView)監控網絡,截至 2025 年 7 月已安裝 3,162 個閉路電視鏡頭,協助偵破 351 宗案件並拘捕 628 人。警務處確認,許多鏡頭已具備人臉識別硬件,待後端系統完成後即可啟動功能,目標在 2027 年前將鏡頭數量擴展至 15,000 個。警方還考慮使用 AI 處理非緊急 999 報案,以減輕緊急中心工作量。

學習美國教訓的五大核心策略

強制透明度標示制度

香港必須立法要求所有 AI 輔助生成的政府文件明確標示,這是避免美國隱瞞問題的首要措施。美國調查顯示,五分之四的警察部門故意關閉 Draft One 的 AI 標示功能,讓 AI 報告偽裝成警員親筆撰寫。香港應參考加州 SB 524 法案,要求 AI 生成文件在每一頁標明「本文件全部或部分使用人工智能撰寫」。透明度不應只是技術設定選項,而必須成為法律義務。香港數碼政策辦公室發布的《道德人工智能框架》包含 12 項原則,其中透明度被列為首要基礎原則。該框架強調 AI 系統必須具備「可解釋性」,使用者能理解 AI 如何得出決策或建議。然而目前該框架主要針對政府部門,對於公共服務 AI 應用的透明度要求仍需法律化。建議香港立法會修訂《個人資料(私隱)條例》,增設專章規範高風險 AI 應用的透明度要求,特別是涉及執法、司法及公共安全的領域。

建立完整審計追蹤機制

審計追蹤(audit trail)是確保 AI 系統問責性的技術基礎,香港必須要求所有政府 AI 系統保留完整使用記錄。加州法律要求執法機構保存審計追蹤記錄,識別使用 AI 的人員、使用時間及涉及的影音資料,且 AI 草稿必須與正式報告保留同等時間。Axon Draft One 的問題在於產品設計上並不保留編輯日誌來追蹤誰撰寫了哪些內容,使得合規變得困難。香港 PCPD 的《模範框架》建議機構建立內部匯報機制,向 AI 管治委員會匯報任何系統故障或資料保障問題。然而該建議缺乏技術細節及強制性。香港應制定《政府 AI 系統審計標準》,規定最低限度的日誌記錄要求:包括使用者身份、時間戳記、輸入數據、AI 輸出內容、人工修改記錄及最終版本。這些記錄應保留至少 7 年,並可供獨立審計及司法程序調閱。警務處開發的「Yes Sir」聊天機械人應在設計階段即內建此功能。

實質性人類監督機制

「人在環內」(human-in-the-loop)監督必須實質而非形式化,這是防範 AI 幻覺風險的關鍵。美國金郡檢察官辦公室在 AI 報告中發現不在現場的警員名字,突顯 AI 系統會自信地編造事實。華盛頓州首席副檢察官 Daniel J. Clark 警告,某些錯誤微小到審核時會被遺漏,但若警員在明知報告有誤情況下認證,後果將是災難性的。香港的法律責任體系同樣要求公職人員對文件真實性負責,AI 錯誤不能成為免責理由。PCPD《模範框架》建議採用「風險為本」方式,高風險 AI 系統需要更高程度的人為監督。若 AI 系統用於作出對公司非常重要或有關鍵影響的決策,應保留人類控制權,防止 AI 出錯。建議香港政府將 AI 應用分為三級風險:低風險(如一般查詢回應)可採用 AI 優先、人類抽查;中風險(如罪案數據分析)必須人類審核所有 AI 建議;高風險(如執法決策、逮捕建議)禁止 AI 自主決策,僅作參考工具。每項 AI 系統部署前必須進行風險評估,明確界定人類監督的範圍及程度。

數據治理與偏見消除

AI 系統的公平性取決於訓練數據的質素,歷史偏見會被「烘焙進演算法」。美國 ACLU 指出,由於 Draft One 可能依賴歷史警察報告訓練,系統可能將種族和性別偏見編碼進 AI。香港作為多元社會,同樣面臨數據偏見風險,特別是語言(粵語、英語、普通話)及少數族裔代表性問題。PCPD《模範框架》強調良好數據治理不單保障私隱,亦確保數據質素,這對 AI 系統的穩健性和公平性至為重要。香港《道德人工智能框架》將「公平性」列為核心原則之一,要求 AI 系統不得產生歧視性結果。然而這些原則缺乏操作性指引。建議香港政府成立「政府 AI 數據質素審查委員會」,負責:評估訓練數據的代表性及偏見風險;要求 AI 供應商披露訓練數據來源及預處理方法;定期測試已部署 AI 系統是否產生歧視性結果;建立數據偏見修正機制。對於警務及司法應用,應特別審查歷史執法數據是否存在系統性偏見,避免「預測性警務」強化既有不平等。

公眾參與與問責機制

AI 治理不能只是技術問題,必須納入公眾監督及社區參與。美國警政計畫組織(Policing Project)的示範法規強調,缺乏透明度使得確保警察可靠、公平地使用 AI 並符合社區優先事項變得更加困難。香港雖有《道德人工智能框架》要求與持份者溝通,但政府 AI 部署的公眾諮詢機制不足。警務處推出「銳眼」監控系統及人臉識別技術時,並未進行廣泛公眾諮詢,引發私隱及監控擔憂。美國自由亞洲電台報導指出,香港計劃大幅提升 AI 驅動監控,但透明度及問責機制不清。PCPD《模範框架》建議機構與持份者(包括消費者及監管機構)定期溝通,解釋 AI 決定、披露風險並容許拒絕使用。建議香港建立「政府 AI 透明度登記冊」,公開所有政府部門使用的 AI 系統、用途、供應商、風險評級及監督機制。對於高風險應用(如執法 AI),應舉行公眾諮詢會,聽取公民社會、學術界及受影響社群意見。成立獨立的「AI 監察專員辦公室」,接受市民投訴,調查政府 AI 系統的濫用或偏見問題。立法會應定期審議政府 AI 應用報告,確保民主監督。

借鑒新加坡的「第三條路」

新加坡的 AI 治理模式為香港提供實用參考,平衡創新與監管。新加坡於 2019 年率先發布《模範 AI 治理框架》,並在 2024 年 5 月更新為《生成式 AI 模範治理框架》,提出九大維度:問責性、數據質素、可信開發與部署、事故報告、測試與保證、安全性、內容來源、安全與對齊研發、以及公共利益 AI。與香港不同,新加坡採用「自願合規但強調實踐」模式,要求組織展示持續的負責任 AI 實踐,而非僅進行一次性評估。新加坡政府還推出 AI 驗證基金會(AI Verify Foundation),開發開源工具幫助企業測試 AI 系統的公平性、透明度及穩健性。香港可借鑒新加坡經驗:採用「原則導向加技術支援」模式,而非過度僵化規則;開發本地化的 AI 測試工具,協助政府部門評估 AI 系統風險;建立「AI 監管沙盒」,允許創新技術在受控環境中試驗;與新加坡、歐盟及國際 AI 安全機構建立合作機制,分享最佳實踐。重要的是,新加坡強調將 AI 用於公共利益,包括普及應用機會、改善公共部門採用及可持續發展。這與香港 2025 年施政報告提出的「AI+」戰略相呼應,但需要更具體的公共利益評估標準。

跨境數據流動與國家安全考量

香港的 AI 治理策略必須考慮「一國兩制」框架下的特殊位置及國家安全要求。國家主席習近平於 2025 年強調要「完善人工智能監管體制機制,牢牢掌握人工智能發展和治理主動權」。香港創新科技及工業局局長撰文指出,AI 不只是科技革命,更是「國力的重要體現」,香港必須對齊國家「AI+」戰略。PCPD 在發布《模範框架》時明確表示,「AI 安全是國家安全的重要領域之一」。這意味香港的 AI 治理不能僅參考西方模式,需要平衡國際標準與國家安全需求。跨境數據流動是關鍵議題,特別是當政府 AI 系統涉及處理香港居民個人資料時。美國案例中,Axon 使用 OpenAI 的 GPT-4 模型,數據處理可能涉及境外伺服器。香港應制定明確規則:涉及執法、司法及國家安全的政府 AI 系統,訓練數據及運算必須在本地或符合安全標準的數據中心進行;使用境外 AI 服務商時,必須進行國家安全及數據主權評估;建立「可信 AI 供應商清單」,評估標準包括數據存儲位置、加密標準及管轄權問題。香港亦應參與制定大灣區 AI 治理協調機制,與澳門及內地省份建立數據安全合作框架。

專業培訓與文化轉變

技術工具再先進,若使用者缺乏 AI 素養,仍會重演美國問題。美國案例顯示,警員可能因過度信任技術而忽視錯誤,或因便利性削弱責任感。法學教授 Andrew Guthrie Ferguson 警告,自動化便利性可能導致警員寫作時不夠謹慎。香港政府必須投資於公職人員的 AI 教育及倫理培訓。PCPD《模範框架》建議 AI 策略應提供內部培訓,令職員熟識 AI 環境中的工作技能及倫理界限。然而目前培訓多集中於技術操作,欠缺倫理及法律責任教育。建議香港公務員事務局制定「政府 AI 素養培訓計劃」,包括:AI 基礎知識及限制(特別是幻覺問題);AI 相關法律責任及倫理義務;如何有效監督 AI 輸出;識別 AI 偏見及歧視性結果;特定部門的 AI 應用場景演練。對於警務處、司法機構等高風險部門,應設立強制性 AI 倫理認證,未經培訓者不得操作 AI 系統。更重要的是文化轉變:必須強調 AI 是輔助工具而非替代品,人類決策者對最終結果負全責。正如華盛頓州金郡檢察官所示,當發現 AI 風險時,勇於暫停使用比盲目推進更符合公共利益。

法律改革的優先順序

香港需要系統性法律改革以支撐 AI 治理,但改革應有優先順序避免拖延創新。短期(6-12 個月):修訂《個人資料(私隱)條例》,增加 AI 系統數據處理的具體要求;制定《政府 AI 使用守則》,作為行政指引約束各部門;成立跨部門「AI 治理委員會」,協調政策制定。中期(1-2 年):制定《AI 透明度及問責法》,強制要求高風險 AI 應用的標示及審計追蹤;建立「AI 監察專員辦公室」,賦予調查及執法權力;完善《反歧視條例》,明確涵蓋 AI 演算法歧視。長期(2-5 年):考慮制定綜合性《人工智能法》,參考歐盟 AI 法案及新加坡經驗;建立 AI 民事責任及刑事責任框架;推動大灣区 AI 治理協調機制的法律化。法律改革不應矯枉過正,關鍵是確保高風險應用受到嚴格監管,同時為低風險創新保留彈性。正如新加坡模式所示,「原則加實踐」的軟法治理在 AI 快速演變環境中可能比僵化規則更有效。

美國警察 AI 寫報告的危機為全球政府敲響警鐘:技術便利性絕不能凌駕於公正性、透明度及人權保障之上。香港正處於 AI 治理的關鍵十字路口,2025 年施政報告提出的 10 億港元 AI 研發投資及「AI+」戰略展現政府雄心。然而沒有完善治理框架的 AI 擴張可能重演美國問題:透明度缺失、AI 幻覺風險、系統性偏見及公眾信任流失。香港必須採取五大策略:強制透明度標示制度、建立完整審計追蹤機制、實質性人類監督、數據治理與偏見消除、以及公眾參與問責機制。學習新加坡的「第三條路」,平衡創新與監管,採用「原則導向加技術支援」模式。同時必須考慮「一國兩制」框架下的國家安全要求,建立跨境數據流動規則及可信 AI 供應商機制。法律改革、專業培訓及文化轉變缺一不可,分階段部署與持續評估是風險管控的關鍵。正如美國案例所示,當技術威脅個人自由時,勇於暫停比盲目推進更符合公共利益。香港有機會建立亞太區 AI 治理典範,前提是決策者認清:在涉及人身自由和司法公正的領域,技術失誤的代價無法承受。這不僅是技術問題,更是關乎香港希望成為什麼樣社會的根本選擇。

資料來源:
The Conversation
香港數碼政策辦公室
香港個人資料私隱專員公署
Nemko Digital
新加坡資訊通信媒體發展局