|
 【產(chǎn)通社,3月11日訊】聯(lián)發(fā)科技股份有限公司(MediaTek Inc.;TWSE股票代碼:2454)官網(wǎng)消息,其轄下的前瞻技術研究單位聯(lián)發(fā)創(chuàng)新基地,繼2023年初釋出全球第一款繁體中文大型語言模型后,今日再度開源釋出能夠精準理解和生成中英兩種語言的MediaTek Research Breeze-7B 70 億參數(shù)系列大型語言模型供大眾使用。MediaTek Research Breeze-7B基于開源界最熱門的Mistral模型,較上一代繁體中文大型語言模型增加20倍以上的知識量,使 MediaTek Research Breeze-7B 能更精確掌握中英文的細微語言與文化差異,呈現(xiàn)更自然、準確的溝通以及雙語內(nèi)容創(chuàng)作。此外,在聯(lián)發(fā)創(chuàng)新基地對模型的優(yōu)化下,MediaTek Research Breeze-7B繁體中文的推理處理速度只需要市面上其他70億參數(shù)級別的Meta或Mistral模型一半的時間,提供更順暢的使用體驗。 聯(lián)發(fā)創(chuàng)新基地負責人許大山博士表示,“近期全球AI領域研究蓬勃發(fā)展,但多數(shù)研究與開發(fā)項目都以英文的大型語言模型進行。我們知道許多學術界專家與應用開發(fā)者,都在為推進繁體中文AI的創(chuàng)新與應用而努力,相信這次聯(lián)發(fā)創(chuàng)新基地MediaTek Research Breeze-7B繁體中文大型語言模型開源將有益于學術界與業(yè)界在AI的發(fā)展,未來聯(lián)發(fā)創(chuàng)新基地也將規(guī)劃開源多模態(tài)模型,期待持續(xù)與學術界及業(yè)界共同開創(chuàng)AI領域的更多可能性! 在市面上眾多70億參數(shù)級別的中英雙語模型中,MediaTek Research Breeze-7B模型在對話與表格處理能力上都是領先者。MediaTek Research Breeze-7B能在更短的時間內(nèi)理解并生成更流暢、精準的中英文回應,還能精準捕捉語境,提供高度相關且連貫的回答,為實時翻譯、商業(yè)溝通、智能客服對話等需要快速反應的實時中英雙語的場景提供顯著的效能提升。此外,MediaTek Research Breeze-7B 也能精確地解讀和生成表格內(nèi)容,無論是數(shù)據(jù)分析、財務報表還是復雜的排程任務,都能夠提供高效且可靠的支援,對于需要處理大量結構化數(shù)據(jù)的企業(yè)來說尤其重要。 此次聯(lián)發(fā)創(chuàng)新基地MediaTek Research Breeze-7B的模型開源有助學術研究人員深入理解大型語言模型的運作機制,持續(xù)改進大型語言模型的幻覺問題(hallucination)與問答校準(alignment)等,以優(yōu)化未來語言模型的生成結果。聯(lián)發(fā)創(chuàng)基地也將不斷地投入大型語言模型的開發(fā),預計下一代以開源模型Mixtral為基礎所訓練的470億參數(shù)大模型,將在近期開放給大眾測試。 查詢進一步信息,請訪問官方網(wǎng)站 http://www.mediatek.tw。(張怡,產(chǎn)通發(fā)布) (完)
|