Twitter 用神經網路裁切照片 讓預覽圖不再「重點誤」

機器學習常常並不是什麼偉大的功能,而是利用小細節的調整,巧妙的改善用戶的體驗。而 Twitter 就利用神經網路自動裁切照片,讓預覽圖可以呈現出整張圖最有趣的部分。

機器學習常常並不是什麼偉大的功能,而是利用小細節的調整,巧妙的改善用戶的體驗。而 Twitter 就利用神經網路自動裁切照片,讓預覽圖可以呈現出整張圖最有趣的部分。

 

Twitter 一直都在研究這項功能,終於在 1 月 24 日於官方的部落格中公布了這個消息。原先 Twitter 的研究人員是採取臉部辨識技術來裁切照片,但後來發現這種方法不適用於風景圖、物品的圖片,還有最多人會貼的,貓咪圖。為了讓預覽圖可以呈現出圖片的重點,或者是為了讓貓咪可以清楚地出現,他們提出了「裁切重點」的方法,不管是不是臉部而是找出整張圖最重要的地方。

為了找出一張圖最重要的部分,他們將學術研究中人眼會先看到的圖片區域記錄運用到眼球追蹤的技術上,試圖找出實際上圖片中人們會最先看到的地方。利用這些資料來訓練神經網路,並預測人們可能會想看到的東西。這項技術經過優化之後能在短時間內找到圖片最有趣的部份,不會讓用戶在上傳圖片時造成時間上的延遲。

▲ 上圖是原本的預覽圖,下圖則是經過神經網路裁切的預覽圖。(Source:Twitter

對研究人員來說非常幸運的是,這項裁切不需要到非常精確的程度,只要能讓預覽圖呈現圖片最有趣的那三分之一部份就可以了,最後神經網路比原本剛設計出來的時候速度要快了 10 倍。這項新功能已經在桌機版、 iOS 和 Android 版本推出,讓所有用戶能夠使用。

(本文由 TechNews 授權轉載)