(CWW)NVIDIA與Hugging Face宣布建立合作伙伴關(guān)系,為數(shù)百萬開發(fā)者提供生成式AI超級計算服務(wù),幫助他們構(gòu)建大語言模型(LLM)和其他高級AI應(yīng)用。
此次合作將使開發(fā)者能夠使用Hugging Face平臺內(nèi)的NVIDIA DGX?CloudAI超級計算為高級AI模型進(jìn)行訓(xùn)練及調(diào)優(yōu),借助為智能聊天機器人、搜索、摘要等特定行業(yè)應(yīng)用的業(yè)務(wù)數(shù)據(jù)定制的大語言模型(LLM),推動生成式AI在各個行業(yè)中的應(yīng)用。
NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“研究人員和開發(fā)者是正在改變每個行業(yè)的生成式AI的核心力量。Hugging Face與NVIDIA正在將全球最大的AI社區(qū)與NVIDIA在全球領(lǐng)先云環(huán)境中的AI計算平臺相連接。通過雙方的合作,Hugging Face社區(qū)用戶只需要點擊一下鼠標(biāo),就可以使用NVIDIA AI計算?!?/p>
(資料圖)
作為合作的一部分,Hugging Face將提供一項名為“訓(xùn)練集群即服務(wù)(Training Cluster as a Service)”的新服務(wù),用以簡化企業(yè)創(chuàng)建新的自定義生成式AI模型的過程。該服務(wù)由NVIDIA DGX Cloud提供支持,將在未來幾個月內(nèi)推出。
Hugging Face聯(lián)合創(chuàng)始人兼首席執(zhí)行官Clément Delangue表示:“世界各地的人們正在利用生成式AI工具建立新的聯(lián)系,進(jìn)行新的探索,而我們?nèi)蕴幱谶@一技術(shù)轉(zhuǎn)型的早期階段。雙方的合作將為Hugging Face帶來NVIDIA最先進(jìn)的AI超級計算,使企業(yè)能夠通過開源并以他們需要的速度將AI的命運牢牢掌握在自己手中,推動未來發(fā)展?!?/p>
在Hugging Face中大幅增強LLM定制和訓(xùn)練功能
Hugging Face平臺讓開發(fā)者能夠利用開源資源構(gòu)建、訓(xùn)練和部署最先進(jìn)的AI模型。目前有超過15,000家企業(yè)機構(gòu)正在使用Hugging Face,社區(qū)共享了超過25萬個模型和5萬個數(shù)據(jù)集。
DGX Cloud與Hugging Face的集成將實現(xiàn)對NVIDIA多節(jié)點AI超級計算平臺的一鍵式訪問。通過DGX Cloud,Hugging Face用戶將能夠連接到NVIDIA AI超級計算,提供利用獨家數(shù)據(jù)快速訓(xùn)練和調(diào)整基礎(chǔ)模型所需的軟件和基礎(chǔ)架構(gòu),推動新一輪企業(yè)大語言模型(LLM)開發(fā)浪潮。借助由DGX Cloud提供支持的訓(xùn)練集群即服務(wù),企業(yè)將能夠利用其在Hugging Face上的獨家數(shù)據(jù),以前所未有的速度創(chuàng)建出獨一無二的高效模型。
DGX Cloud為大規(guī)模模型加速開發(fā)和定制
每個DGX Cloud實例均配備8顆NVIDIA H100或A10080GB Tensor Core GPU,每個節(jié)點的GPU總內(nèi)存為640GB。NVIDIA Networking所提供的高性能、低延遲結(jié)構(gòu)確保工作負(fù)載能夠在互聯(lián)系統(tǒng)集群中進(jìn)行擴展,從而滿足高級AI工作負(fù)載的性能要求。
DGX Cloud還提供NVIDIA專家支持,可幫助客戶優(yōu)化模型并快速解決開發(fā)難題。
DGX Cloud基礎(chǔ)設(shè)施由領(lǐng)先的NVIDIA云服務(wù)提供商合作伙伴托管。
供應(yīng)情況
與Hugging Face集成的NVIDIA DGX Cloud預(yù)計將在未來幾個月內(nèi)推出。
關(guān)鍵詞: