MIT 為種族歧視數據集致歉並永久下架

人工智能利用深度學習獲得分析能力,雖然本身並不會存在偏見和歧視,但是提供作訓練的數據集就會存在偏見。最近 MIT 就為他們提供的數據集致歉,它被指存在偏見,令訓練出來的人工智能繼承同樣的問題。

MIT 的這個公開數據集,是個訓練人工智能圖像識別系統常用的工具,其數據量非常龐大,有多達 8 千個圖片和相關詞彙,不過內容其實相當參差,例如會將黑人和亞洲人與負面詞語連繫,也會有性別歧視的內容。因此當人工智能開發人員不清楚詳細情況就使用,訓練出來的圖像識別系統就會出現偏見和歧視的情況,特別在執法機關用作監控用途時就更有問題。

MIT 表示,他們衷心為這個數據集道歉,並且已經移除數據庫不再公開,並要求研究人員和開發者停止使用這個數據庫來訓練人工智能,以及刪除相關資料,避免以後再被人誤用。負責人在訪談中承認應該人手篩選內容,這個數據集的內容都是網上自動取得,因此含有冒犯性和充滿偏見的內容。

來源:The Register