|
 【產(chǎn)通社,5月5日訊】華南理工大學(xué)(South China University of Technology, SCUT)官網(wǎng)消息,由陳敏教授主導(dǎo)聯(lián)合華中科技大學(xué)、琶洲實(shí)驗(yàn)室的科研團(tuán)隊(duì)在自然語言大模型小樣本微調(diào)研究領(lǐng)域提出了極具創(chuàng)新性的方案——自然語言微調(diào)技術(shù)(NLFT)。該技術(shù)通過極低的計(jì)算資源和少量數(shù)據(jù)投入,顯著提升了大模型在特定領(lǐng)域的效果。 在大語言模型(LLMs)微調(diào)領(lǐng)域,現(xiàn)有的模型微調(diào)技術(shù)主要為監(jiān)督微調(diào)技術(shù)(SFT)、強(qiáng)化微調(diào)技術(shù)(ReFT)。相較傳統(tǒng)微調(diào)方法,NLFT顯著降低了技術(shù)門檻,使得更多科研機(jī)構(gòu)和企業(yè)能夠在常規(guī)計(jì)算設(shè)備上實(shí)現(xiàn)高效微調(diào),這一成果不僅為大語言模型的普及鋪平了道路,也為人工智能技術(shù)的普及應(yīng)用提供了新的可能性。 人工智能大語言模型(LLM)在海量預(yù)訓(xùn)練后,往往具備一定的通用能力,而在特定細(xì)分領(lǐng)域的表現(xiàn)不盡如人意。為了提升模型在細(xì)分領(lǐng)域的針對(duì)性功能,傳統(tǒng)的微調(diào)方法需要借助大量領(lǐng)域數(shù)據(jù)進(jìn)行特定訓(xùn)練,如何在大模型的應(yīng)用過程中解決高昂的算力需求和數(shù)據(jù)稀缺等問題,仍然是行業(yè)面臨的巨大挑戰(zhàn)。 在此情境下,陳敏教授科研團(tuán)隊(duì)提出的自然語言微調(diào)技術(shù)(NLFT)為解決這一問題提供了新的可能。查詢進(jìn)一步信息,請(qǐng)?jiān)L問官方網(wǎng)站 http://news.scut.edu.cn/41/list3.htm。(張嘉汐,產(chǎn)通發(fā)布)  (完)
|