你有沒有試過,明明自己符合所有要求,卻石沉大海,連面試機會都沒有?
最新研究指出,問題可能在於你的履歷是否用了「對的」AI 撰寫,而非能力不足。
你的履歷,根本沒有人看
現在超過九成大公司收到履歷,第一關都是由 AI 系統篩選,真人 HR 根本還沒看到你。
而這個 AI 系統,有一個你不知道的偏頗傾向:它特別偏好「自己人」。
來自美國馬里蘭大學、新加坡國立大學和俄亥俄州立大學的研究團隊,做了一個實驗:他們收集了 2,245 份在 ChatGPT 面世之前寫成的真人履歷(確保內容百分百由人手撰寫),再分別用七個當今最廣泛使用的 AI 模型——GPT-4o、GPT-4o-mini、GPT-4-turbo、LLaMA 3.3-70B、Qwen 2.5-72B、DeepSeek-V3、Mistral-7B——逐一改寫。
然後讓每個 AI 在「原版」和「改寫版」之間選一份。
結果?
AI 有 97.6% 的機率,選了自己改寫的那份。
每個模型的自我偏好率全部超過九成,幾乎沒有例外。
「也許 AI 只是偏好寫得好的履歷?」
你可能會這樣想。研究團隊也有這個疑問,所以他們找了真人評審去為兩份履歷打分,比較清晰度與質素,然後控制這個變數再跑一次實驗。
結論很殘酷:就算人類評審認為原版更清晰、更有條理,AI 依然選了它自己改的那份,比例仍高達 81.9%。
為什麼會這樣?(技術層面)
這背後涉及大型語言模型(LLM)的生成機制。每個模型在訓練時使用的語料庫不同,導致各自形成獨特的「文字風格指紋」——研究人員稱之為 stylometric signature(文體計量特徵)。
舉個例子 GPT 系列傾向使用特定的句式結構和連接詞頻率;而 LLaMA 或 DeepSeek 則各有其慣用的語義排列方式。當同一個 AI 模型同時負責「生成」和「評審」,它的評分機制會在無意識中對自身熟悉的語言模式給出更高的語義相似度分數,即使這與「內容質素」毫無關係。
換句話說 AI 選的是「語言模式最像自己輸出」的履歷,而非「最好」的履歷。這本質上是一種模型內評分偏差(intra-model evaluation bias),與客觀判斷人才無關。
AI 之間也互相歧視
研究的另一個發現更值得關注——這種偏見存在於人類與 AI 之間,在 AI 模型之間亦同樣明顯。
– DeepSeek-V3 選自己寫的履歷,比選 LLaMA 寫的高出 69%
– GPT-4o 選自己寫的,比選 LLaMA 寫的高出 45%
這對求職者意味著:即使你用了 AI 改履歷,也不代表就能過關——你要碰巧猜中公司用的是**哪一個** AI,才有較大機會被篩選出來。而這個資訊,你幾乎不可能事先知道。
這對你求職有什麼實際影響?
研究人員模擬了 24 個不同職業的篩選過程,只改變一個變數:求職者用的 AI,跟公司篩選的 AI,是不是同一個。
結果:用了相同 AI 的求職者,被選入面試的機會高出 23% 至 60%。
影響最大的行業?銷售、會計、財務,偏偏是最多人投身、競爭最激烈的領域。
「那我用 AI 改履歷不就解決了?」
沒那麼簡單,原因有兩個:
第一,你要猜對「哪個 AI」——而這比以前難得多。
研究進行時,九成大企業的篩選系統以 GPT-4o 為主流。但 AI 市場發展一日千里,這個格局已經大幅改變。
現在的現實是:市場上的 HR 科技供應商琳琅滿目,背後使用的底層模型各有不同: 可能是 GPT 系列、可能是 Gemini、可能是 Llama 衍生的開源模型,甚至可能是經過 fine-tuning 的企業客製化版本。更關鍵的是,隨著本地部署(local deployment)的門檻愈來愈低,愈來愈多公司選擇將小型模型直接跑在自家伺服器上,既節省 API 成本,又保障數據私隱。這些內部部署的模型,外界根本無從得知其語言風格特徵。
AI 世界不再由 OpenAI 一家獨大,已變成百花齊放。對求職者來說,這讓「猜中對方用哪個 AI」變得幾乎不可能,絕非好事。
第二,訂閱前沿模型需要成本。
研究人員將這個現象稱為「入場稅(gate tax)」——你要先付每月幾十至幾百元的訂閱費,才有機會公平地被 AI 系統看見。這對剛踏入社會、最需要工作的人來說,反而是最難負擔的代價。
你沒有失敗,是遊戲規則對你不公平
如果你最近求職碰壁,先不要自我懷疑。
你面對的,是一個根本看不見你這個人的系統。它篩走你,是因為你的履歷不夠「像它自己寫的」,而非你不夠好。
這項研究已公開發表於 arXiv,如果你想深入了解模型偏差的技術細節,論文連結在此:https://arxiv.org/abs/2509.00462
如果你身邊有朋友正在求職,把這篇分享給他們——讓他們知道,被拒絕不一定是自己的問題。
*研究來源:University of Maryland、National University of Singapore、Ohio State University 聯合發表,2025*





