企業(yè)發(fā)布
首頁(yè) > 企業(yè)發(fā)布 > 詳細(xì)內(nèi)容
浪潮信息發(fā)布 "源2.0-M32" 開(kāi)源大模型,大幅提升模算效率
2024/5/31 9:11:58 來(lái)源:中國(guó)企業(yè)新聞網(wǎng)
導(dǎo)言:5月28日,浪潮信息發(fā)布"源2.0-M32"開(kāi)源大模型。"源2.0-M32"在基于"源2.0"系列大模型已有工作基礎(chǔ)上,創(chuàng)新性地提出和采用了"基于注意力機(jī)制的門(mén)控網(wǎng)絡(luò)"技術(shù)
5月28日,浪潮信息發(fā)布"源2.0-M32"開(kāi)源大模型。"源2.0-M32"在基于"源2.0"系列大模型已有工作基礎(chǔ)上,創(chuàng)新性地提出和采用了"基于注意力機(jī)制的門(mén)控網(wǎng)絡(luò)"技術(shù),構(gòu)建包含32個(gè)專(zhuān)家(Expert)的混合專(zhuān)家模型(MoE),并大幅提升了模型算力效率,模型運(yùn)行時(shí)激活參數(shù)為37億,在業(yè)界主流基準(zhǔn)評(píng)測(cè)中性能全面對(duì)標(biāo)700億參數(shù)的LLaMA3開(kāi)源大模型。
在算法層面,源2.0-M32提出并采用了一種新型的算法結(jié)構(gòu):基于注意力機(jī)制的門(mén)控網(wǎng)絡(luò)(Attention Router),針對(duì)MoE模型核心的專(zhuān)家調(diào)度策略,這種新的算法結(jié)構(gòu)關(guān)注專(zhuān)家模型之間的協(xié)同性度量,有效解決傳統(tǒng)門(mén)控網(wǎng)絡(luò)下,選擇兩個(gè)或多個(gè)專(zhuān)家參與計(jì)算時(shí)關(guān)聯(lián)性缺失的問(wèn)題,使得專(zhuān)家之間協(xié)同處理數(shù)據(jù)的水平大為提升。源2.0-M32采用源2.0-2B為基礎(chǔ)模型設(shè)計(jì),沿用并融合局部過(guò)濾增強(qiáng)的注意力機(jī)制(LFA, Localized Filtering-based Attention),通過(guò)先學(xué)習(xí)相鄰詞之間的關(guān)聯(lián)性,然后再計(jì)算全局關(guān)聯(lián)性的方法,能夠更好地學(xué)習(xí)到自然語(yǔ)言的局部和全局的語(yǔ)言特征,對(duì)于自然語(yǔ)言的關(guān)聯(lián)語(yǔ)義理解更準(zhǔn)確,進(jìn)而提升了模型精度。
Figure1- 基于注意力機(jī)制的門(mén)控網(wǎng)絡(luò)(Attention Router)
在數(shù)據(jù)層面,源2.0-M32基于2萬(wàn)億的token進(jìn)行訓(xùn)練、覆蓋萬(wàn)億量級(jí)的代碼、中英文書(shū)籍、百科、論文及合成數(shù)據(jù)。大幅擴(kuò)展代碼數(shù)據(jù)占比至47.5%,從6類(lèi)最流行的代碼擴(kuò)充至619類(lèi),并通過(guò)對(duì)代碼中英文注釋的翻譯,將中文代碼數(shù)據(jù)量增大至1800億token。結(jié)合高效的數(shù)據(jù)清洗流程,滿(mǎn)足大模型訓(xùn)練"豐富性、全面性、高質(zhì)量"的數(shù)據(jù)集需求;谶@些數(shù)據(jù)的整合和擴(kuò)展,源2.0-M32在代碼生成、代碼理解、代碼推理、數(shù)學(xué)求解等方面有著出色的表現(xiàn)。
在算力層面,源2.0-M32采用了流水并行的方法,綜合運(yùn)用流水線(xiàn)并行+數(shù)據(jù)并行的策略,顯著降低了大模型對(duì)芯片間P2P帶寬的需求,為硬件差異較大訓(xùn)練環(huán)境提供了一種高性能的訓(xùn)練方法。針對(duì)MOE模型的稀疏專(zhuān)家計(jì)算,采用合并矩陣乘法的方法,模算效率得到大幅提升。
基于在算法、數(shù)據(jù)和算力方面全面創(chuàng)新,源2.0-M32的性能得以大幅提升,在多個(gè)業(yè)界主流的評(píng)測(cè)任務(wù)中,展示出了較為先進(jìn)的能力表現(xiàn),在MATH(數(shù)學(xué)競(jìng)賽)、ARC-C(科學(xué)推理)榜單上超越了擁有700億參數(shù)的LLaMA3大模型。
Figure2 源2.0-M32業(yè)界主流評(píng)測(cè)任務(wù)表現(xiàn)
源2.0-M32大幅提升了模型算力效率,在實(shí)現(xiàn)與業(yè)界領(lǐng)先開(kāi)源大模型性能相當(dāng)?shù)耐瑫r(shí),顯著降低了在模型訓(xùn)練、微調(diào)和推理所需的算力開(kāi)銷(xiāo)。在模型推理運(yùn)行階段,M32處理每token所需算力為7.4GFLOPs,而LLaMA3-70B所需算力為140GFLOPs。在模型微調(diào)訓(xùn)練階段,對(duì)1萬(wàn)條平均長(zhǎng)度為1024 token的樣本進(jìn)行全量微調(diào),M32消耗算力約0.0026PD(PetaFLOPs/s-day),而LLaMA3消耗算力約為0.05PD。M32憑借特別優(yōu)化設(shè)計(jì)的模型架構(gòu),在僅激活37億參數(shù)的情況下,取得了和700億參數(shù)LLaMA3相當(dāng)?shù)男阅芩,而所消耗算力僅為L(zhǎng)LaMA3的1/19,從而實(shí)現(xiàn)了更高的模算效率。
浪潮信息人工智能首席科學(xué)家吳韶華表示:當(dāng)前業(yè)界大模型在性能不斷提升的同時(shí),也面臨著所消耗算力大幅攀升的問(wèn)題,對(duì)企業(yè)落地應(yīng)用大模型帶來(lái)了極大的困難和挑戰(zhàn)。源2.0-M32是浪潮信息在大模型領(lǐng)域持續(xù)耕耘的最新探索成果,通過(guò)在算法、數(shù)據(jù)、算力等方面的全面創(chuàng)新,M32不僅可以提供與業(yè)界領(lǐng)先開(kāi)源大模型相當(dāng)?shù)男阅,更可以大幅降低大模型所需算力消耗。大幅提升的模算效率將為企業(yè)開(kāi)發(fā)應(yīng)用生成式AI提供模型高性能、算力低門(mén)檻的高效路徑。M32開(kāi)源大模型配合企業(yè)大模型開(kāi)發(fā)平臺(tái)EPAI(Enterprise Platform of AI),將助力企業(yè)實(shí)現(xiàn)更快的技術(shù)迭代與高效的應(yīng)用落地,為人工智能產(chǎn)業(yè)的發(fā)展提供堅(jiān)實(shí)的底座和成長(zhǎng)的土壤,加速產(chǎn)業(yè)智能化進(jìn)程。
免責(zé)聲明:
※ 以上所展示的信息來(lái)自媒體轉(zhuǎn)載或由企業(yè)自行提供,其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本網(wǎng)站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時(shí)性本網(wǎng)站不作任何保證或承諾,請(qǐng)讀者僅作參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。如果以上內(nèi)容侵犯您的版權(quán)或者非授權(quán)發(fā)布和其它問(wèn)題需要同本網(wǎng)聯(lián)系的,請(qǐng)?jiān)?0日內(nèi)進(jìn)行。
※ 有關(guān)作品版權(quán)事宜請(qǐng)聯(lián)系中國(guó)企業(yè)新聞網(wǎng):020-34333079 郵箱:cenn_gd@126.com 我們將在24小時(shí)內(nèi)審核并處理。
標(biāo)簽 :
相關(guān)網(wǎng)文
24小時(shí)熱點(diǎn)圖片
一周新聞資訊點(diǎn)擊排行
關(guān)于我們 | CENN服務(wù) | 對(duì)外合作 | 刊登廣告 | 法律聲明 | 聯(lián)系我們 | 手機(jī)版
客戶(hù)服務(wù)熱線(xiàn):020-34333079、34333137 舉報(bào)電話(huà):020-34333002 投稿郵箱:cenn_gd@126.com
版權(quán)所有:中國(guó)企業(yè)新聞網(wǎng) 運(yùn)營(yíng)商:廣州至高點(diǎn)網(wǎng)絡(luò)科技投資有限公司 地址:廣州市海珠區(qū)江燕路353號(hào)保利紅棉48棟1004