生成式 AI 的普及對企業而言可以提升效率和降低成本,不過對於藝術家而言就正在衝擊生計。為了進行反擊,有研究開發出可以污染訓練數據的工具,讓藝術家在作品中加入這些「毒素」進行反抗。
這個名爲 Nightshade 的工具由芝加哥大學電腦科學教授 Ben Zhao 所領導開發,可以讓藝術家在數碼化作品檔案中加入特別設定的像素,在肉眼下難以發現,不過如果被用作 AI 訓練,就會污染數據,令 AI 無法有效識別其中的內容,例如本來是狗的圖片加入特別像素後,會令 AI 以為是貓。
Nightshade 的數據污染技術難以防禦之處,在於要預防這問題發生的話 AI 模型開發人員需要找出並剔除任何包含這些特殊像素的圖像,由於肉眼識別,甚至對於數據抓取工具也難以檢測,因此要預防極為困難。
研究人員承認,研究結果可能會被用於惡意目的,但他們希望這能夠幫助藝術家從 AI 公司奪回創作權,透過強大的威懾力來對抗不尊重藝術家版權和知識產權的 AI 公司。
來源:Venture Beat