加入最愛專欄  收藏文章 

2024-03-22

AI晶片 | NVIDIA最強AI晶片誕生!Blackwell運算力領先群雄,市場形勢大好,卻暗藏2大隱憂?

  當今科技市場的焦點已不再是Google、蘋果(Apple)等傳統龍頭,而是手握全球9成AI晶片供應的輝達(NVIDIA)。執行長黃仁勳在GTC 2024大會上,發表新一代Blackwell架構GPU,AI訓練速度比上代晶片快4倍、推理能力優30倍,能夠運行兆級參數規模的大型語言模型,重新定義AI產業的天花板。看似優勢佔盡的NVIDIA是否可以一直順風順水呢?究竟在一片好景背後暗藏著甚麼隱憂呢?

 

復辦實體GTC大會受全球注目

 

  2009年,NVIDIA舉辦首屆GPU Technology Conference(GTC)大會,參加人數頂多約1,500人;2020年新冠疫情爆發,移師至網上舉行;睽違4年後,該公司砸下重金復辦實體GTC大會,2024年3月18日在美國聖荷西SAP中心舉行,全場2萬個座位皆無虛席,輝達官方YouTube頻道的直播更有逾6萬人收看。

 

  黃仁勳在GTC展台上,左手拿著2023年全球瘋狂搶購的Hopper GPU,右手則拿著體積更大、效能更強的新一代AI晶片Blackwell GPU。這款以首位入選美國國家科學院的黑人科學家大衛·布萊克威爾(David Blackwell)命名的GPU共有3個版本,分別為單顆晶片B100與B200、以及組合型超級AI晶片GB200。

 

黃仁勳透露,Blackwell架構晶片(左)定價介乎3萬至4萬美元(約23.4萬至31.2萬港元),即是跟上代Hopper(右)定價區間相若。(圖片來源:翻攝輝達官方YouTube影片)

 

GB200推理能力比前作高30倍

 

  使用2顆Blackwell架構、台積電4奈米製程的B200 GPU,再加上1顆ARM架構的Grace CPU,合組成GB200。在基於GPT-3模型的基準測試中,它的性能是前一代晶片H100的7倍、AI訓練速度快上4倍、AI推理能力高出30倍,惟能源消耗卻低25倍。

 

GB200是今次的旗艦級產品,內含1顆Grace CPU和2顆B200 GPU,將於2024年稍晚供貨,Google、微軟和亞馬遜均已下單訂購。(圖片來源:翻攝輝達官方YouTube影片)

Blackwell GPU性能是Hopper的7倍,訓練速度提升4倍,推論速度更加快上30倍。(圖片來源:翻攝輝達官方YouTube影片)

 

  為迎合數據中心的需要,NVIDIA推出以GB200為核心的GB200 NVL72機架系統,把72顆Blackwell GPU與36顆Grace CPU集成到一組巨大的液冷機架,足以運轉規模達27兆組參數的大型語言模型。其特殊的液冷設計具備1300kW強大散熱能力,水冷液以每秒循環2公升的速度,可將滾燙的AI伺服器降溫至攝氏45度。

 

  瑞穗證券分析師喬丹·克萊因(Jordan Klein)表示,當NVIDIA不斷強調B100用於AI推論的潛力後,外界擔心同樣以AI推論能力作賣點的AMD MI300可能會變成「路人甲」,逐漸被市場忽略。半導體分析師陸行之更直言,假如GB200賣得很好,那麼AMD與英特爾(Intel)的AI晶片「就不用玩了」。

 

輝達推AI代工欲做AI界台積電

 

  當市場將NVIDIA視為AI晶片霸主之際,黃仁勳反而高喊輝達不是AI硬件公司,而是「AI平台企業」。他以台積電作比喻:「大家帶著構想去找台積電,台積電把晶片製造出來;我們也一樣,這就是『AI代工』。」黃仁勳的目標是,把NVIDIA變成AI界的台積電。

 

  有鑑於此,NVIDIA推出為數十種企業而設的生成式AI微服務。例如面向醫療產業,輝達推出逾20項醫療專用AI微服務,並更新BioNeMo模型以強化AI輔助藥物開發;針對製造業,NVIDIA則發表人形機械人的通用基礎模型「GR00T」,讓具備自然語言理解能力的機械人,透過觀察和模仿,快速學習各項生產技能,進而融入工廠環境,提升生產線產能。

 

黃仁勳宣布,即將推出人形機械人計劃「Project GR00T」,以推動AI機械人的產業發展。(圖片來源:翻攝輝達官方YouTube影片)

 

政府管制晶片出口損害輝達收入

 

  NVIDIA的業務發展看似形勢大好,是否真的毫無逆風?答案當然不是。現時各國監管機關擔憂AI對社會、經濟、以至國家安全構成風險,正尋求技術規管。自2023年起,美國政府限制高效能AI晶片和高階晶片製造設備出口給部分中國企業,輝達A100和H100晶片也被納入管制之列,損害了NVIDIA第三季收入。該公司表示,Blackwell GPU同樣會受到美國出口管制的約束。

 

  然而,輝達的最大隱憂不是來自美國政府,而是自己的客戶。科技巨頭希望自家的AI伺服器可以建基於自己的解決方案,而不是長期依靠外部單一供應商。例如雲端平台3大巨頭,亞馬遜(Amazon)自行研發Inferentia與Trainium晶片,分別用於AI模型推論與訓練;微軟(Microsoft)亦推出自研晶片Maia 100和Colbert 100應戰;Google則早已手握自家開發的TPU,用作AI雲端運算。

 

NVIDIA大客戶爭相自研AI晶片

 

  近年,雲端3巨頭不斷增加對IT基建的投資。美國銀行(BofA)調高Amazon、Microsoft、Google在2023年雲端支出總額至840億美元(約6,552億港元),成長率為14%;又預測2024年支出總額將攀升至1,160億美元(約9,048億港元),成長率高達22%。

 

  此外,依靠NVIDIA GPU起家的Open AI,執行長山姆·奧特曼(Sam Altman)甚至想與阿聯酋政府、軟銀集團合作,集資7兆美元(約54.6兆港元)自建半導體供應鏈。這些科技巨頭有錢、有技術,一旦下決心要脫離對單一廠商的依賴,絕對是NVIDIA值得懼怕的對手!

 

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

第九屆「傳媒轉型大獎」請投etnet經濟通一票!► 立即行動

更多智城物語文章
你可能感興趣
#Smart Living #輝達 #GPU #智慧生活 #AI #Blackwell #科技 #Nvidia #黃仁勳 #創科
編輯推介
即時報價
全文搜索
Search
最近搜看
貨幣攻略
大國博弈
More
Share