NLP-3 自然語言處理模型已經成為同類模型的標杆,已經有不少的應用例子出現,不過其優勢就仍然限於英文應用。除了中國之外,最近韓國 Naver 也製作韓文版的「類 GPT-3」自然語言處理模型。
韓國最大搜尋引擎營運商 Naver 最近公佈,他們製作出名為 HyperCLOVA 的自然語言處理模型,使用了比 GPT-3 多 6,500 倍的韓文數據,擁有 2,040 億個參數,比 GPT-3 的 1,750 個參數還要多。Naver 指,HyperCLOVA 將會在不同服務提供差異化的使用體驗,除了大型企業之外,也會配合中小企、創作者和初創等不同的需要。
OpenAI 方面對於 HyperCLOVA 亦有相當好的評價,認為這個模型在其規模以及其配合生成模型擴散設計趨勢的特性上相當優秀,期待有更多的技術傷情出現。不過也有研究員認為開發這樣大型的語言模型,但未能解決其缺點例如偏見、有害內容或者對應數學問題的彈性等等,則對於技術本身的推進無大幫助。
來源:Venture Beat
—
新增 : unwire.pro Mewe 專頁 : https://mewe.com/p/unwirepro