美國當(dāng)?shù)貢r(shí)間3月18日下午,全球矚目的英偉達(dá)2024GTC大會(huì)在加州圣何塞SAP球場(chǎng)開幕。英偉達(dá)創(chuàng)始人CEO黃仁勛在主題演講開場(chǎng)時(shí)風(fēng)趣地說道:“這不是演唱會(huì),這是開發(fā)者大會(huì),我們會(huì)談?wù)摵芏嘤?jì)算機(jī)科學(xué)的話題。”
當(dāng)黃仁勛一身皮衣走向舞臺(tái)時(shí),觀眾立刻沸騰。此前,有人把黃仁勛演講的受關(guān)注程度與頂流歌星Taylor Swift的演唱會(huì)相提并論。
“我們正在以從未有過的方式來創(chuàng)建軟件。”黃仁勛在演講中強(qiáng)調(diào),“這就需要構(gòu)建更大的GPU?!?/p>
黃仁勛演講時(shí),英偉達(dá)的股價(jià)沒有太大變化,競(jìng)爭(zhēng)對(duì)手AMD股價(jià)大跌超過3%。
在演講結(jié)束時(shí),黃仁勛與正在使用英偉達(dá)軟硬件平臺(tái)開發(fā)的九款人形機(jī)器人共同登臺(tái),還與兩個(gè)該公司正在測(cè)試的小型機(jī)器人進(jìn)行互動(dòng)。
大模型推理性能可提升45倍
在整場(chǎng)發(fā)布會(huì)上,最受關(guān)注的是英偉達(dá)基于下一代計(jì)算架構(gòu)Blackwell超級(jí)芯片而構(gòu)建的AI超級(jí)計(jì)算機(jī)。黃仁勛曾在多個(gè)場(chǎng)合表示,英偉達(dá)已經(jīng)成為了一家平臺(tái)公司。
黃仁勛率先發(fā)布了一款搭載英偉達(dá)GB200 Grace Blackwell超級(jí)芯片的DGX SuperPOD計(jì)算機(jī),可以用于處理萬億參數(shù)模型,保證超大規(guī)模生成式AI訓(xùn)練和推理工作負(fù)載的持續(xù)運(yùn)行。
這款新型的AI超級(jí)計(jì)算機(jī)采用新型高效液冷機(jī)架級(jí)擴(kuò)展架構(gòu),在FP4精度下可提供11.5exaflops的AI超級(jí)計(jì)算性能和240TB的快速顯存,且可通過增加機(jī)架來擴(kuò)展性能。
據(jù)介紹,每個(gè)DGX GB200系統(tǒng)搭載36個(gè)NVIDIA GB200超級(jí)芯片,共包含36顆NVIDIA Grace CPU和72顆NVIDIA Blackwell GPU,這些超級(jí)芯片通過第五代NVIDIA NVLink連接成一臺(tái)超級(jí)計(jì)算機(jī)。與上一代NVIDIA H100 Tensor Core GPU相比,GB200超級(jí)芯片在大語言模型推理工作負(fù)載方面的性能提升了高達(dá)30倍。
基于Grace Blackwell架構(gòu)的DGX SuperPOD由8個(gè)或以上DGX GB200系統(tǒng)構(gòu)建而成,這些系統(tǒng)通過NVIDIA Quantum InfiniBand網(wǎng)絡(luò)連接,可擴(kuò)展到數(shù)萬個(gè)GB200超級(jí)芯片。用戶可通過NVLink連接8個(gè)DGX GB200系統(tǒng)中的576顆 Blackwell GPU,從而獲得海量共享顯存空間,賦能下一代AI模型。
黃仁勛表示: “NVIDIA DGX AI超級(jí)計(jì)算機(jī)是推進(jìn)AI產(chǎn)業(yè)變革的工廠。新一代DGX SuperPOD集英偉達(dá)加速計(jì)算、網(wǎng)絡(luò)和軟件方面的最新進(jìn)展于一體,能夠幫助每一個(gè)企業(yè)、行業(yè)和國家完善并生成自己的AI?!?/span>
與此同時(shí),英偉達(dá)還發(fā)布了用于AI模型訓(xùn)練、微調(diào)和推理的通用AI超級(jí)計(jì)算平臺(tái)NVIDIA DGX B200系統(tǒng)。該系統(tǒng)同樣基于全新的Blackwell架構(gòu)系統(tǒng),包含8顆NVIDIA B200 Tensor Core GPU和2顆英特爾處理器。DGX B200系統(tǒng)在FP4精度下可提供高達(dá)144petaflops的 AI 性能、1.4TB的GPU顯存和64TB/s的顯存帶寬,該系統(tǒng)的萬億參數(shù)模型實(shí)時(shí)推理速度比上一代產(chǎn)品提升了15倍。
英偉達(dá)表示,全球合作伙伴預(yù)計(jì)將在今年晚些時(shí)候提供基于DGX GB200 和DGX B200系統(tǒng)構(gòu)建而成的NVIDIA DGX SuperPOD。
構(gòu)建更友好軟件生態(tài),降低GPU使用門檻
英偉達(dá)同時(shí)還宣布了多個(gè)軟件方面的更新布局。其中最重要的一項(xiàng)更新是推出生成式AI微服務(wù)NVIDIA NIM,供開發(fā)者在已安裝NVIDIA CUDA GPU的系統(tǒng)中創(chuàng)建和部署生成式AI助手。
據(jù)介紹,由GPU加速NVIDIA NIM微服務(wù)和云端端點(diǎn)目錄,適用于經(jīng)過優(yōu)化的預(yù)訓(xùn)練的AI模型,可以在云、數(shù)據(jù)中心、工作站和PC等支持CUDA的數(shù)億設(shè)備的GPU上運(yùn)行。
一位國內(nèi)芯片公司技術(shù)負(fù)責(zé)人對(duì)第一財(cái)經(jīng)記者表示:“英偉達(dá)的軟件進(jìn)行了重要的功能升級(jí),把以前開發(fā)者要干的事情都便利化了,提供更友好的算力環(huán)境,使得開發(fā)者更加依賴?!?/span>
上述人士表示,構(gòu)建更友好的軟件生態(tài)是英偉達(dá)的重要戰(zhàn)略?!耙簿褪且院笫褂肎PU的門檻會(huì)越來越低,英偉達(dá)生態(tài)的粘性越來越高。”他說道。
英偉達(dá)還宣布將以API的形式提供Omniverse Cloud,從而使開發(fā)者能夠更方便地將Omniverse的核心技術(shù)直接集成到現(xiàn)有的數(shù)字孿生設(shè)計(jì)與自動(dòng)化軟件應(yīng)用中,或是集成到用于測(cè)試和驗(yàn)證機(jī)器人或自動(dòng)駕駛汽車等自主機(jī)器的仿真工作流中。
一些全球大型工業(yè)軟件制造商正在將Omniverse Cloud API加入到其軟件組合中,包括Ansys、Cadence、達(dá)索系統(tǒng)旗下3DEXCITE品牌、Hexagon、微軟、羅克韋爾自動(dòng)化、西門子和Trimble等。
黃仁勛表示:“所有制造出來的產(chǎn)品都將擁有數(shù)字孿生。Omniverse是一個(gè)可以構(gòu)建并操作物理真實(shí)的數(shù)字孿生的操作系統(tǒng)。Omniverse和生成式AI都是將價(jià)值高達(dá)50萬億美元的重工業(yè)市場(chǎng)進(jìn)行數(shù)字化所需的基礎(chǔ)技術(shù)。”
Omniverse Cloud API將于今年晚些時(shí)候在微軟云Azure上以NVIDIA A10 GPU上的自托管API,或是部署在NVIDIA OVX上的托管服務(wù)的形式提供。
英偉達(dá)還宣布推出一個(gè)硬件和軟件平臺(tái),用于構(gòu)建包含生成人工智能功能的類人機(jī)器人。據(jù)黃仁勛介紹,新平臺(tái)將包括一個(gè)為機(jī)器人和人工智能提供動(dòng)力的計(jì)算機(jī)系統(tǒng),以及包括生成式AI和其他工具在內(nèi)的一套軟件,以構(gòu)建能與人進(jìn)行交互的人形機(jī)器人。