
達特茅斯學院政府系副教授 Sean Westwood 於 2025 年 11 月在《美國國家科學院院刊》(PNAS)發表研究,揭示一項令學術界震驚的發現:其開發的「自主合成受訪者」AI 工具,能以 99.8% 機率繞過現行所有機械人偵測系統。技術意味只需極低成本,即每份 5 美分(約港幣 0.39 元),就能大規模操控民調結果,甚至影響選舉預測。研究顯示 2024 年美國大選前七項主要全國民調中,僅需混入 10 至 52 份 AI 生成假問卷,就足以翻轉預測結果。這項技術嚴重威脅全球價值數十億美元的網上問卷產業,各界正急謀對策。
精密模擬技術突破傳統防線
Westwood 開發的 AI 代理人並非簡單自動填答程式,是一套完整「人類行為模擬系統」。工具採用 Python 構建,可串接 OpenAI、Anthropic、Google 等主流 AI 模型 API,也能在本地端運行 Llama 等開源模型。測試中使用 OpenAI o4-mini、DeepSeek R1、Claude 3.7 Sonnet、Grok3 及 Gemini 2.5 Preview 等多款模型,證明只需約 500 字提示詞,就能讓各種大型語言模型變身為難以辨識的假受訪者。
系統關鍵在於多層次擬真機制。首先 AI 會根據設定人口統計特徵,如教育程度、年齡、性別等推理出符合角色答案。接著系統會模擬逼真閱讀時間,例如教育程度較低角色會花更長時間閱讀問題;生成類似人類操作的滑鼠軌跡;在回答開放式問題時,逐字逐句模擬鍵盤敲擊,甚至故意打錯字再修正。工具內建繞過 reCAPTCHA 等反機械人驗證機制功能,連專門設計來捕捉 AI 的「逆向示播列」測試也能識破並迴避。在 43,000 次測試中,系統通過 99.8% 注意力檢查題,邏輯謎題更是零錯誤,成功隱藏非人類本質。
低成本高效益成資訊操弄新途徑
研究揭示令人不安的經濟現實:AI 生成問卷成本僅需 5 美分(約港幣 0.39 元),遠低於真人受訪者的 1.5 美元(約港幣 11.7 元)。意味有心人士可用極低成本大規模操控民調結果。以 2024 年美國大選為例,研究團隊模擬選前最後一週七項主要全國民調,發現只需在每份民調中混入 10 至 52 份 AI 假問卷,就足以讓預測結果翻盤,將領先候選人從一方轉向另一方。
Westwood 在新聞稿中警告:「無法再相信問卷填答者是真人,隨著問卷數據被機械人污染,AI 恐會毒害整個知識生態系統。」威脅不限於政治民調。網上問卷軟件市場在 2024 年價值約 40 億至 56 億美元(約港幣 312 億至 436.8 億元),預計到 2030 年將達到 89 億至 121 億美元(約港幣 694.2 億至 943.8 億元),年複合增長率約 13% 至 14%。蓬勃發展的產業涵蓋市場研究、學術調查、消費者洞察多個領域,若數據可信度遭質疑,將對企業決策、政策制定及科學研究造成深遠影響。
論文指出 AI 代理人能「模擬連貫人口統計特徵」,讓有心人士隨意產出想要調查結果。例如某企業想證明產品受特定族群歡迎,或政治團體想營造特定候選人支持度高漲假象,都可透過這項技術輕易達成。更令人擔憂是 AI 模型可操作多種語言但輸出完美英語答案,令外國勢力能繞過偵測,影響他國民主進程。
防禦機制全面失效
研究顯示傳統問卷品質控制方法已全面過時。注意力檢查題(ACQs)、行為標記分析及回應模式檢測等「最先進」偵測方法,面對 Westwood 的 AI 工具時幾乎完全失效。2024 年發表的研究發現,Prolific 平台上 34.3% 受訪者承認曾使用 AI 回答開放式問卷問題。另一項針對加州農業調查研究則指出,傳統「速度檢測」(speeding)作為詐欺指標效力迅速下降,失敗率達 80% 到 99%。
Prolific 等主要問卷平台正積極升級防禦系統。該平台在 2025 年 9 月推出名為「Protocol」新系統,採用銀行級身分檢查、IP 地址驗證及專有機器學習模型偵測 AI 濫用,聲稱精確度達 98.7%。可是平台內部審計顯示,仍有 0.99% 參與者被標記為使用 AI 生成回應。考慮到 Westwood 工具 99.8% 成功率,這些防禦措施長期有效性仍存疑。
國際研究機構 NORC 在 2022 年分析指出,雖然 AI 輔助調查提供巨大機會,但大型語言模型無法完全捕捉人類行為細微差異。報告指「AI 可近似公眾情緒,但往往會錯過不同群體中微妙意見轉變,限制使用 LLM 預測未來公眾意見趨勢能力」。
產業變革與監管需求浮現
面對這場存亡危機,Westwood 建議研究人員必須從根本改變數據收集方式。首先需提高資料收集透明度,明確說明招募參與者方法及數據驗證流程。其次應轉向更受控招募方式,例如基於地址抽樣(address-based sampling)或利用選民名冊,這些方法雖然成本較高,但能更有效驗證受訪者身分。
加強身分驗證也是可行方向,但研究坦承這將引發私隱疑慮,特別是在歐盟 GDPR 等嚴格數據保護法規下。一項 2025 年全球研究顯示,70% 受訪者認為需要 AI 監管,但僅 43% 認為現有法律及規範在全球層面上足夠充分。87% 全球受訪者(86% 中國受訪者)希望有更強有力法律打擊 AI 生成錯誤訊息,並期望媒體及社交媒體公司實施更嚴格事實查核流程。
企業決策與信任重建之路
這項研究對依賴市場調查及消費者洞察的企業而言是一記警鐘。網上問卷一直是企業了解客戶需求、測試產品概念及評估品牌形象重要工具。若這些數據可信度遭質疑,企業策略決策基礎將被動搖。短期內企業應考慮採用多元化數據收集方法,結合傳統面對面訪談、電話調查及更嚴格驗證網上問卷,交叉驗證結果。長期而言產業需建立新標準及認證機制,確保問卷數據真實性及可追溯性。
同時這也為防禦技術供應商創造新市場機會。隨著 AI 操弄威脅加劇,能夠提供有效身分驗證、行為分析及 AI 偵測解決方案的公司將迎來需求激增。然而這也將是一場持續「軍備競賽」,正如 Westwood 所言,「使用用戶行為測量或基於問題對策的人正在打一場敗仗」。未來解決方案可能需結合生物識別技術、區塊鏈驗證及更複雜 AI 偵測演算法,但每項新技術都可能帶來新私隱及成本挑戰。
資料來源: EurekAlert! 404 Media Proceedings of the National Academy of Sciences Grand View Research Prolific




