張一迪
5月14日,英偉達(dá)一年一度的“GTC大會”在線上開幕。此次大會上,英偉達(dá)正式發(fā)布了全新數(shù)據(jù)中心GPU-NVIDIA AlOO,即此前在網(wǎng)上盛傳的被命名為安培(Ampere)的產(chǎn)品。英偉達(dá)創(chuàng)始人兼CEO黃仁勛在線上發(fā)布會上介紹稱,該新品GPU包含了540億個晶體管,擁有比原來強(qiáng)大20倍的Al算力。
因為疫情的緣故,英偉達(dá)原本定在3月的發(fā)布會被一推再推,兩個月的時間沒有白等,英偉達(dá)終于帶來了一道“硬菜”。
加碼Al“引擎”
從烤箱里端出來的不一定是墻根,也可以是“安培”。英偉達(dá)這次的線上發(fā)布會是別出心裁的,地點選在自家廚房,公司創(chuàng)始人兼CEO黃仁勛從烤箱中將“主菜”端了出來,而這道菜就是“安培”——Ampere架構(gòu)GPU新品。
黃仁勛介紹稱,NVIDIAAmpere包含了540億晶體管,擁有比原來強(qiáng)大20倍的AI算力?!叭绻鸄I是跑車,數(shù)據(jù)就是燃料,而算力則是引擎?!庇ミ_(dá)研發(fā)中心總經(jīng)理王瑋琦曾表示。英偉達(dá)此次也通過NVIDIAAmpere向業(yè)界宣布:我們的AI“引擎”很強(qiáng)大。
英偉達(dá)官網(wǎng)的介紹顯示,“這是一款有史以來最大的7納米芯片”,NVIDIA Ampere具有六項突破性關(guān)鍵創(chuàng)新。
一是NVIDIA Voha架構(gòu)中率先采用的NVIDIA TensorCore技術(shù)助力AI實現(xiàn)了大幅加速。NVIDIA Ampere架構(gòu)以這些創(chuàng)新為基礎(chǔ),通過引入新的精度-T ensor浮點運算(TF32)、FP64加速和簡化AI技術(shù),并將Tensor Core的強(qiáng)大功能擴(kuò)展至HPC。二是多實例GPU(MIG)。借助MIG,每個A100可以劃分成七個GPU實例,在硬件級別上可實現(xiàn)完全安全、彼此隔離,并擁有自己的高帶寬顯存。
三是第三代NVIDIA NV-Link技術(shù)通過為多GPU系統(tǒng)配置提供更高的帶寬、更多的鏈接,并改進(jìn)可擴(kuò)展性,進(jìn)而解決互連問題。
四是結(jié)構(gòu)化稀疏,A100中的Tensor Core可為稀疏模型提供高達(dá)2倍的性能提升。稀疏化功能對AI推理更為有益,也可用于改善模型訓(xùn)練的性能。
五是A100正在為數(shù)據(jù)中心提供海量計算能力。它具有每秒1.5TB的顯存帶寬,比上一代高出67%。此外,A100的片上存儲空間更大,包括40MB的2級緩存(比上一代大7倍)。
六是NVIDIA EGXAlOO結(jié)合了NVIDIA Ampere架構(gòu)和NVIDIA Mellanox的ConneCtX-6Dx SmartNIC,為計算和網(wǎng)絡(luò)功能加速,且可處理邊緣端產(chǎn)生的大量數(shù)據(jù)。
完善Al產(chǎn)品生態(tài)
談到AI算力,就不得不提到英偉達(dá),業(yè)界公認(rèn)它為AI時代算力增長的“紅利收割者”,而英偉達(dá)在AI上的野心不止于提供高性能“引擎”那么簡單。
此次發(fā)布會上,英偉達(dá)還推出了兩款計算平臺,其一是適用于大型商業(yè)通用服務(wù)器的EGX AlOO。據(jù)介紹,EGX AlOO是基于安培架構(gòu)的A100 GPU,每秒可接收高達(dá)200GB數(shù)據(jù),并可將數(shù)據(jù)直接發(fā)送到GPU內(nèi)存用來進(jìn)行AI或5G信號處理。其二是適用于微型邊緣服務(wù)器的EGX Jetson Xavier NX。EGX Jetson Xavier NX是被稱作全球體積最小、性能最強(qiáng)大的Al超級計算機(jī),適用于微型服務(wù)器和邊緣智能物聯(lián)網(wǎng)盒。
從英偉達(dá)在計算平臺的布局來看,它在自動駕駛計算平臺已經(jīng)建立起從10TOPS/5W、200TOPS/45W到2000TOPS/800W的完整產(chǎn)品線。在醫(yī)療領(lǐng)域,NVIDIA Oara醫(yī)療平臺曾在20分鐘內(nèi)分析了整個人類基因組的DNA序列,實現(xiàn)研究人員對病人對疾病的易感性、疾病的進(jìn)展和對治療的反應(yīng)更為深入的了解,構(gòu)建了疾病監(jiān)測AI模型;利用Clara技術(shù)進(jìn)行胸部CT掃描檢測,來研究COVID-19感染的嚴(yán)重程度。
這次發(fā)布會上,英偉達(dá)不僅帶來了新一代安培架構(gòu),還推出包括GPU芯片、AI系統(tǒng)、服務(wù)器構(gòu)建塊、AI超級計算機(jī)、邊緣服務(wù)器產(chǎn)品、嵌入式AI產(chǎn)品等全套AI計算“大禮包”。
賽迪顧問人工智能產(chǎn)業(yè)研究中心副總經(jīng)理鄒德寶在接受《中國電子報》記者采訪時指出,英偉達(dá)從技術(shù)層、產(chǎn)品層、產(chǎn)業(yè)鏈層和供應(yīng)鏈層均有布局,在構(gòu)建生態(tài)上具有一定優(yōu)勢,也因此進(jìn)一步奠定了它在業(yè)界的領(lǐng)先地位。
業(yè)內(nèi)專家向記者指出,利用生態(tài)開發(fā)來延長產(chǎn)業(yè)鏈,是企業(yè)提升自身綜合競爭力的關(guān)鍵步驟,也是所有AI芯片公司從技術(shù)研發(fā)走向商業(yè)化落地的必經(jīng)之路。