NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

老黃又來掀桌了啦!

在今天凌晨的2023年全球超算大會(SC2023)上,英偉達推出了全新GPUH200。

作為前代H100的升級款,老黃直接不裝了,在官網上單方面將H200稱為“當世最強”。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

但更秀的是,沒人會因此質疑他們違反廣告法,因為在 AI 時代,對手們真只能眼巴巴地看著英偉達的車尾燈。

從英偉達官方透露的數據來看,H200最強的就是在大模型推理表現上。

以 700億參數的 LLama2 大模型為例, H200推理速度幾乎比前代的 H100快了一倍,而且能耗還降低了一半。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

能取得這麼強的成績,自然是 H200的硬體給力。

從參數方面看,H200的主要提升就是把上一代“ G皇”H100的顯存,從80GB拉到了141GB,帶寬從3.35TB/增加到了4.8 TB/。

這些進步則主要要歸功於HBM3e記憶體技術。

今年 8 月的時候, SK 海力士推出 HBM3e 之後,據宣稱單顆帶寬可以達到 1.15TB/ ,相當於在 1 秒鍾內傳輸了 230部 FHD 高清電影(每部容量 5G )。

在 SK 海力士官宣 HBM3e 之後不久,包括三星、美光在內的記憶體廠商們,都陸續跟進了這一技術。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

這個 HBM3e ,其實就是之前大家都在用的 HBM3 的升級版。

說白了就是有更高的性能、更高的帶寬,好處就是晶片能用更快的速度傳輸數據,同時還降低功耗。

非常適合眼下的AI和大數據運用。

於是英偉達第一時間就找到 SK 海力士進行了合作。

所以我們能看到這才沒多久, H200就已經用上了這一新技術。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

比起技術升級更方便的是, H200和 H100都是基於英偉達 Hopper 架構打造的。

所以兩款晶片可以互相兼容,那些裝滿了 H100的企業不需要調整,可以直接更換。

不過,乍一看好像是王炸,但實際上H200可能只是H100的一個“中期改款”。

因為我們發現, H100和 H200單論峰值算力的話,其實是一模一樣的。

真正提升的參數只有顯存、帶寬。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

在此前,大家常用來評判 AI 晶片性能的重要參數:訓練能力。

H200相較H100的提升也並不明顯。

從英偉達給出的數據來看,在 GPT-3 175B 大模型的訓練中, H200只比 H100強了 10%。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

這種操作大機率是有意為之。

之前各個大廠忙著打造自家的大模型,對 GPU 最大的需求毫無疑問就是訓練,所以當時大家的需求是提升訓練能力。

如今,隨著 AI 大語言模型不斷落地應用,訓練模型在廠商眼中可能已經是牛夫人了,大家反而全去卷推理速度。

所以這次H200很可能是故意忽略“算力”升級,轉而進行推理方面的發力。

不得不說,老黃的刀法依舊精準。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

當然了,這也是英偉達工程師們給老黃擠牙膏的本事,誰讓人家顯卡真就遙遙領先呢。

哪怕只是做了個小提升, H200還真就能當得起“當世最強”的名號。

而且根據瑞傑金融集團估計,H100晶片售價在2萬5 – 4萬美金之間,那加量後的H200只會比這高。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

如今像亞馬遜、谷歌、微軟和甲骨文等大廠的雲部門,已經付完錢排排站,就等著明年 H200交貨了。

畢竟,哪家大模型隨便升個級不要幾千個 GPU ?

只能說這波老黃又又又賺麻了。

但問題就是,加價對於 AI 晶片永遠不是問題。

今年初創公司、大廠、政府機構等等為了搶一張H100擠破腦袋的樣子還在上演,所以明年H200的銷量根本不用愁。

“是人是狗都在買顯卡”,去年說完這句話的馬斯克也不得不轉頭就加入“搶卡大軍”。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

更夸張的是,英偉達方面還說了,推出 H200不會影響 H100的擴產計劃。

也就是明年英偉達還是打算賣 200萬顆 H100晶片,也能側面看出, AI 晶片是多麼不愁賣。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

但面對全球嗷嗷待哺的市場,英偉達其實也有點力不從心。

像 OpenAI 作為打響 AI 革命第一槍的人,結果因為沒有足夠的 GPU 痛苦得不行。

比如因為算力不夠用,自家 GPT 們被各種吐槽 API 又卡又慢;

因為算力不夠用, GPT 更強的上下文能力始終沒法全員推廣;

因為算力不夠用, GPT 們沒法賣給客戶更多專有定製模型。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

光連 OpenAI 創始人奧特曼,就已經出來好幾次炮轟過算力短缺。

而為了解決這個問題, OpenAI 也想了不少辦法。

比如自研 AI 晶片、與英偉達等製造商展開更緊密合作、實現供應商多元化等等。

上個月初就有消息說 OpenAI 已經在找收購目標了。

更進一步的是特斯拉,他們就在 7 月推出了由定製 AI 晶片 D1 打造的 Dojo 超級計算機,用來訓練自動駕駛系統。

當時摩根史坦利直接吹了一篇研報說:特斯拉這波下來,比用英偉達的A100足足省下了65億美元。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

當然,這也不是說馬斯克的這個自研的 AI 晶片就比 A100強了。

而只是因為自研晶片只需要干自家的活,更符合自己需要、也沒有算力浪費。

就好比英偉達的晶片是一鍋大雜燴,誰來了吃都能吃飽飽;而自研晶片雖然只是小碗菜,但它可以按照個人口味做,雖然做得少、但更合胃口。

其他大廠也沒閒著,比如微軟要自研“雅典娜”、谷歌在年初就在自研晶片上取得突破進展。

但就像我們前面說的,這次 H200其實只是一個“中期改款” ,還不足以打消其他廠商們的小心思。

按照英偉達自己放出的消息,大的還是明年會來的 B100,從圖里看它至少是有指數級的提升。

NVIDIA拿出世界第一GPU :大廠們的自研夢 碎了

所以,大傢伙忙活半天,在硬實力面前,黃老爺的位置恐怕還是會越來越穩。

你看像是即使強如Meta早在2021年就意識到,自己怎麼干都比不上英偉達的GPU性能,轉頭就從老黃那下了幾十億訂單( Meta 最近好像又有點自研的心思了)。

還記得老黃剛宣布英偉達是“ AI 時代的台積電”的時候,有不少人冷嘲熱諷。

結果現在才發現,這句話居然是老黃的謙辭。

畢竟 2022 年台積電“只”占了全球晶圓代工產能的 60%,而英偉達如今已經占據了可用於機器學習的圖形處理器市場 80%以上的份額。

總感覺,等老黃的大招真來了,這些大廠們的晶片自研項目恐怕又得死一片吧。

來源:快科技