企業(yè)發(fā)布
首頁 > 企業(yè)發(fā)布 > 詳細內(nèi)容
浪潮發(fā)布全球最大規(guī)模人工智能巨量模型“源”
2021/9/29 10:44:02 來源:中國企業(yè)新聞網(wǎng)
導言:9月28日,浪潮人工智能研究院在京發(fā)布全球最大規(guī)模人工智能巨量模型“源1.0”!霸础钡膯误w模型參數(shù)量達2457億,超越美國OpenAI組織研發(fā)的GPT-3,成為全球最大規(guī)模的AI巨量模型!霸1.0研討會”同期舉行,來自國內(nèi)相關領域的院士、專家出席了研討會,對AI巨量模型的創(chuàng)新與應用進行了深入研討交流。
9月28日,浪潮人工智能研究院在京發(fā)布全球最大規(guī)模人工智能巨量模型“源1.0”!霸础钡膯误w模型參數(shù)量達2457億,超越美國OpenAI組織研發(fā)的GPT-3,成為全球最大規(guī)模的AI巨量模型!霸1.0研討會”同期舉行,來自國內(nèi)相關領域的院士、專家出席了研討會,對AI巨量模型的創(chuàng)新與應用進行了深入研討交流。
源1.0模型參數(shù)規(guī)模為2457億,訓練采用的中文數(shù)據(jù)集達5000GB,相比GPT3模型1750億參數(shù)量和570GB訓練數(shù)據(jù)集,源1.0參數(shù)規(guī)模領先40%,訓練數(shù)據(jù)集規(guī)模領先近10倍。
“源1.0”在語言智能方面表現(xiàn)優(yōu)異,獲得中文語言理解評測基準CLUE榜單的零樣本學習和小樣本學習兩類總榜冠軍。在零樣本學習榜單中,“源1.0”超越業(yè)界最佳成績18.3%,在文獻分類、新聞分類,商品分類、原生中文推理、成語閱讀理解填空、名詞代詞關系6項任務中獲得冠軍;在小樣本學習的文獻分類、商品分類、文獻摘要識別、名詞代詞關系等4項任務獲得冠軍。在成語閱讀理解填空項目中,源1.0的表現(xiàn)已超越人類得分!
ZeroCLUE零樣本學習榜(第一行為人類得分)
FewCLUE小樣本學習榜(第一行為人類得分)
在對“源1.0”進行的“圖靈測試”中,將源1.0模型生成的對話、小說續(xù)寫、新聞、詩歌、對聯(lián)與由人類創(chuàng)作的同類作品進行混合并由人群進行分辨,測試結(jié)果表明,人群能夠準確分辨人與“源1.0”作品差別的成功率已低于50%。
巨量模型的發(fā)展備受關注。斯坦福大學李飛飛教授等人工智能領域知名學者近期在論文中表示,這類巨量模型的意義在于突現(xiàn)和均質(zhì)。突現(xiàn)意味著通過巨大模型的隱含的知識和推納可帶來讓人振奮的科學創(chuàng)新靈感出現(xiàn);均質(zhì)表示巨量模型可以為諸多應用任務泛化支持提供統(tǒng)一強大的算法支撐。
源1.0中文巨量模型的發(fā)布,使得中國學術界和產(chǎn)業(yè)界可以使用一種通用巨量語言模型的方式,大幅降低針對不同應用場景的語言模型適配難度;同時提升在小樣本學習和零樣本學習場景的模型泛化應用能力。
浪潮人工智能研究院表示,“源1.0”將面向?qū)W術研究單位和產(chǎn)業(yè)實踐用戶進行開源、開放、共享,降低巨量模型研究和應用的門檻,有效推進AI產(chǎn)業(yè)化和產(chǎn)業(yè)AI化的進步,切實為國家在人工智能研究創(chuàng)新和產(chǎn)業(yè)發(fā)展作出貢獻。
免責聲明:
※ 以上所展示的信息來自媒體轉(zhuǎn)載或由企業(yè)自行提供,其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本網(wǎng)站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本網(wǎng)站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內(nèi)容。如果以上內(nèi)容侵犯您的版權(quán)或者非授權(quán)發(fā)布和其它問題需要同本網(wǎng)聯(lián)系的,請在30日內(nèi)進行。
※ 有關作品版權(quán)事宜請聯(lián)系中國企業(yè)新聞網(wǎng):020-34333079 郵箱:cenn_gd@126.com 我們將在24小時內(nèi)審核并處理。
標簽 :
相關網(wǎng)文
一周新聞資訊點擊排行