OpenAI 稱已成功阻止 5 個濫用 AI 操控輿論的行動

OpenAI 表示最近成功阻止了 5 個濫用其 AI 服務操控輿論的祕密行動,這些行動在 2023 年至 2024 年期間進行,來自俄羅斯、中國、伊朗和以色列,試圖在不暴露真實身份或意圖的情況下操縱公眾輿論影響政治結果。

OpenAI 在一份報告中表示:「截至 2024 年 5 月,這些活動似乎並沒有因為我們的服務而有成功增加其受眾參與度或覆蓋範圍」,其成果是他們與科技行業、民間社會和各國政府合作而達成。在報告中,OpenAI 也展示了從事輿論影響的行動是如何利用生成式 AI 生成比以往更多的文字和圖片,並透過 AI 在社交媒體上生成虛假評論來偽造參與度。

對於透過 AI 生成評論的例子,OpenAI 提到其中有名為「Doppelganger」的俄羅斯行動利用 OpenAI 的模型生成標題,將新聞文章轉換為 Facebook 帖子,並生成多種語言的評論,以削弱輿論對烏克蘭的支持。另一個俄羅斯組織使用 OpenAI 的模型製作 Telegram 機械人的代碼,該機械人會自動用英文和俄文發佈簡短的政治評論,配合俄羅斯的政策。此外也有中國的「Spamouflage」在 Facebook 和 Instagram 上影響輿論,利用 OpenAI 的模型來研究社交媒體活動,並在各種平台上生成多種語言的文字內容。此外伊朗的「國際虛擬媒體聯盟」也有利用 AI 生成了多種語言的內容。

今年是美國大選年,因此不少人擔心生成式 AI 的普及會導致虛假消息充斥網絡,影響輿論和選舉,今次 OpenAI 的披露證實了相關擔心確實並非杞人憂天,而平台的行動能否有效阻止大部分有關行動,也仍然有待觀察。

來源:OpenAI