大型自然語言模型的應用範疇越來越多,而且例如 GPT-3 等模型的效能已經相當理想,但太強勁的功能卻可能會對社會帶來禍害。
OpenAI 及史丹福大學的研究員在新的論文中提到,在大型語言模型的開發上,他們可能只有 6 到 9 個月的時間優勢,而作為在這方面最領先的技術,他們也有責任訂立在這新興技術上應該施行的規範。這也顯示了時間的緊迫,目前只有少數組織擁有大型語言模型,以制定適當的規範和原則供其他人遵循,如果拖延的話就會變得更加複雜。
這類自然語言模型是基於網上的大量文章作訓練,而一直都有不少研究發現這樣的訓練方式會導致模型出現偏見問題,例如種族和性別歧視等等,而這些模型也有機會被用作散播假新聞和令網上充斥垃圾內容,因此如何能夠確保技術應用在正確的範疇就相當重要。
研究人員建議一些制約的方式,例如訂立法律、要求標示 AI 生成文本、訓練逆向偵測生成內容的模型,或者禁止特定用途等。不過與 Deepfake 技術一樣,相信未來要有效管制這類技術仍然是充滿挑戰。
來源:Venture Beat
—
新增 : unwire.pro Mewe 專頁 : https://mewe.com/p/unwirepro