企業(yè)發(fā)布
首頁 > 企業(yè)發(fā)布 > 詳細內容
IBM 宣布在 watsonx 上提供開源的 Mistral AI 模型----擴大模型選擇范圍,幫助企業(yè)以可信和靈活的方式擴展 AI
2024/3/11 16:49:47 來源:中國企業(yè)新聞網
導言:近日,IBM宣布,由Mistral AI公司開發(fā)的廣受歡迎的開源Mixtral-8x7B大型語言模型(LLM)已經可在其watsonx人工智能與數(shù)據(jù)平臺上使用。
近日,IBM宣布,由Mistral AI公司開發(fā)的廣受歡迎的開源Mixtral-8x7B大型語言模型(LLM)已經可在其watsonx人工智能與數(shù)據(jù)平臺上使用。
IBM_watson_x_social
IBM 提供了 Mixtral-8x7B 的優(yōu)化版本,在內部測試中,與常規(guī)模型相比,該版本能夠將吞吐量(即在給定時間段內可處理的數(shù)據(jù)量)提高50%[i]。這可能可以將時間延遲減少 35-75%,從而加快獲得洞察的時間,具體取決于批處理量的大小。這是通過一個稱為量化的過程來實現(xiàn)的,該過程減少了 LLM 的模型大小和內存需求,進而可以加快處理速度,有助于降低成本和能耗。
Mixtral-8x7B 的加入擴展了 IBM 的開放、多模型戰(zhàn)略,隨時隨地滿足客戶的需求,并為他們提供選擇和靈活性,使其可以跨業(yè)務來擴展其企業(yè)級人工智能解決方案。通過數(shù)十年的人工智能研發(fā)、與 Meta和 Hugging Face開放式協(xié)作,以及與模型領導者的合作伙伴關系,IBM 正在擴展其 watsonx.ai 模型目錄,并引入新的功能、語言和模式。
IBM 的企業(yè)就緒基礎模型選擇及其 watsonx 人工智能和數(shù)據(jù)平臺可幫助客戶利用生成式人工智能獲得新的洞察力和效率,并基于信任原則創(chuàng)建新的業(yè)務模式。IBM 可幫助客戶根據(jù)所針對的業(yè)務領域(如金融)的合適用例及性價比目標來選擇合適的模型。
Mixtral-8x7B 結合了稀疏建模與專家混合技術來構建,"稀疏建模"是只查找和使用數(shù)據(jù)中最重要部分以創(chuàng)建更高效的模型的創(chuàng)新技術;而"專家混合技術"是把擅長并解決不同部分問題的不同模型("專家")結合在一起的技術。Mixtral-8x7B 模型因其能夠快速處理和分析海量數(shù)據(jù)以提供與上下文相關的見解而廣為人知。
IBM 軟件公司產品管理與增長高級副總裁Kareem Yusuf 博士表示:"客戶要求在部署最適合其獨特用例和業(yè)務要求的模型時擁有選擇權和靈活性。通過在watsonx上提供Mixtral-8x7B和其它模型,我們不僅為客戶提供了部署人工智能的可選性,還為人工智能構建者和業(yè)務領導者提供了一個強大的生態(tài)系統(tǒng),使他們能夠利用工具和技術推動不同行業(yè)和領域的創(chuàng)新。"
在同一周,IBM還宣布在watsonx上提供由ELYZA公司開源的日本LLM模型ELYZA-japanese-Llama-2-7b。IBM 還在 watsonx 上提供 Meta 的開源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 以及其它第三方模型,未來幾個月還將推出更多模型。
有關IBM 未來方向和意圖的聲明如有更改或撤回,恕不另行通知,僅代表目標和目的。
免責聲明:
※ 以上所展示的信息來自媒體轉載或由企業(yè)自行提供,其原創(chuàng)性以及文中陳述文字和內容未經本網站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本網站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。如果以上內容侵犯您的版權或者非授權發(fā)布和其它問題需要同本網聯(lián)系的,請在30日內進行。
※ 有關作品版權事宜請聯(lián)系中國企業(yè)新聞網:020-34333079 郵箱:cenn_gd@126.com 我們將在24小時內審核并處理。
標簽 :
相關網文
一周新聞資訊點擊排行