2023年10月15日 星期日

大廠自研AI芯片,想站着把錢賺了?恐怕沒這麼容易...

 


收藏文章來自 2023/10/14 富途牛牛 遠川研究所


天下苦$英偉達(NVDA.US)$久矣。

10月6日,路透社報道稱,有消息表示Open AI正在探索打造自研AI芯片,並在評估潛在的收購目標。

在OpenAI的官網上,也能發現幾個可能與自研芯片相關的崗位,比如這個圖形編譯工程師,年薪24.5萬~38.5萬美元。

插個題外話,OpenAI幾乎所有崗位都享受$微軟(MSFT.US)$今年新公佈的一個政策“Unlimited time off”,就是字面意思,無限制假期,想怎麼休就怎麼休。



最近自研AI芯片的大廠非常多,比如英偉達的六大客戶,微軟、$特斯拉(TSLA.US)$、谷歌、$亞馬遜(AMZN.US)$、Meta加上OpenAI都傳出自研AI芯片的消息。

不過有意思的是,作爲大股東的微軟,其自研芯片項目"雅典娜"(Athena)和OpenAI此次傳出的消息並不是一回事,二者大有各過各的感覺。

自研歸自研,大家心裏其實千言萬語就一句話:咱都是有頭有臉的人,憑啥天天跪在黃老爺門前求卡?

自ChatGPT掀起大模型浪潮以來,英偉達的GPU便持續供不應求,這種狀況在H100問世,相較於前任A100,在原本一個星期的工作量,現在只需要20個小時的性能加持下,爭搶H100這事更是愈演愈烈形成軍備競賽。

要知道,AI不賺錢早已是產業共識,紅杉就有分析師算了一筆賬,稱當前全球AI產業的收入和支出之間,存在一筆每年1250億美元的巨大缺口。

這一缺口一方面是數據中心的龐大能源消耗所導致的,另一邊,則是買芯片搞基建帶來的資本開支。




搶卡早已是共識,即便H100成本成本大約3000美金,而售價則是35000刀,即便英偉達毛利率近70%,也擋不住大廠們勢要打造“人無我有”的超強算力,以及不管怎樣,相比於老款芯片更高的“單美元效率”。

這也難怪馬斯克會抱怨“現在連狗都在買GPU”,也有公司拿着一紙英偉達的H100“供貨承諾”,就能拿到23億美元的債務融資。

也不知道如果拿着$貴州茅臺(600519.SH)$承諾賣我10萬箱飛天的承諾書,能不能去銀行貸款。




給黃老爺納貢是一回事,耽誤不了回家自己打小算盤。這不馬斯克剛罵完,就在7月推出了由定製AI芯片D1所打造的Dojo超級計算機,用以訓練其自動駕駛系統。

摩根士丹利也很配合,趕緊發了篇研報表示:我們算了算,特斯拉這套系統比過去用英偉達的A100足足省下了65億美元。

這套系統比用英偉達更強,並不是說在芯片設計方面特斯拉就超越英偉達了,只是由於相較於英偉達GPU講究一個“賣給誰都能用”的通用性,Dojo專注於特斯拉的自動駕駛訓練,針對性更強,從而實現更高的效率。

歸根結底,就是更便宜。




實際上這也是所有大廠要去自研AI芯片的主要原因:意圖提高與自身訓練目標的匹配度,以降低算力和功耗的“浪費”。

大廠們抱怨太貴,還只是短時間影響一下業績的美觀程度,那“買不到”這事,可是實打實的影響企業的長期發展。

有預測稱,2023年英偉達H100的出貨量大概在50萬張左右,但隨着AIGC應用以及AGI的迭代升級,算力需求將會持續水漲船高,金融時報預測稱2024年H100的出貨量將高達150萬張-200萬張。

芯片供不應求是鐵打的現實,今年5月底, ChatGPT之父阿爾特曼就公開表示目前OpenAI的GPU極其有限,這推遲了他們的許多短期計劃,並且“大部分問題都是GPU短缺造成的”。

當然,隨着產能爬坡,這種缺口肯定會有所緩解,可這核心技術掌握在外人手裏,多少有種隨時會上來卡一下脖子的錯覺。

Analytics India Magazine又算了一筆賬,“如果OpenAI繼續以目前的速度燒錢,極有可能會在2024年底破產”。


這種話扔誰頭上能不着急?

自研一方面是“節流”,同時還有“開源”的可能性,雖說自研芯片是根據企業自身情況所開發的“定製款”,但魔改一下誰說就不能賣給同行?

$高通(QCOM.US)$很多車機芯片不就是原來手機芯片改改賣的嘛。


同時,OpenAI還有出售專有定製化模型的業務,而這塊業務受限於算力緊缺和英偉達GPU過於標準化的原因,現在的銷售模式是要求客戶在啥玩意都沒有的情況下先支付10萬美元的定金。

好傢伙,賈會計的車都還有宣傳片呢,到它這直接打白條了,這能有幾個大冤種願意買?

自研芯片好處確實多,但擺在眼前的困難就有兩個:CUDA和帶寬。

CUDA這種英偉達研發的編程語言,其實才是它能夠把GPU賣到如此高價而客戶又不得不接受的主要原因,一位業界人士在比較GPU和ASIC(定製芯片)時,用了這樣一個比較:“平時開車,你可以用普銳斯,但如果你必須在山上用四輪驅動,用吉普牧馬人就會更合適。”

那麼當這些大廠紛紛自研芯片的時候,早已熟悉了CUDA編程語言的開發者們還得重新學一門新的編程語言,這誰願意?

要麼就會遇到過去曾經發生過的問題,有位私有云公司的CEO在接受採訪時說過,他們也不是沒想過轉去買AMD的卡,但要把這些卡調試到正常運轉至少需要兩個月的時間。

等於造出來大概率還是得自己用。


另一個問題是帶寬,簡單理解,如果說強大算力是一臺豪華跑車,那麼帶寬就是馬路,路修的不好,車再高級也得憋着。

如果各位有自己組裝過機箱的,應該都看到過PCIe插槽,這玩意學名叫外圍組件快速互連,其實就是一種高帶寬線,用於顯卡、固態硬盤、無線網卡等等外設之間的高速數據傳輸。

而AI服務器通常都是多個CPU和GPU堆疊在一起組成一個“算力包”構成的,那麼在CPU和GPU之間,GPU和GPU之間同樣需要數據傳輸。


這個時候,PCIe協議就派上用場了,而AI服務器爲保證傳輸效率,至少要PCle 4.0、5.0及以上版本,這技術專利只掌握在少數幾家公司手裏。

英偉達自己用的是NVLink,也是一種高帶寬線,保證了GPU和GPU之間的高速傳輸。

那麼自研芯片的各位怎麼辦?這裏又有一位大佬,名叫$博通(AVGO.US)$

簡單來說這家公司擁有這種適用於AI服務器的高速數據傳輸技術專利,想要用,還得向它買。

谷歌當年在研發自家芯片(TPU)的時候,就是和博通合作開發,最近谷歌還想和博通分家,最後還是沒能實現,Meta自研芯片同樣也是和博通合作,蘋果至今仍是博通的最大客戶。

據悉,受益於定製芯片市場的火熱,博通CEO Hock Tan在今年6月業績後電話會議上表示:“AI熱潮下,大量公司對AI芯片的需求將使該公司AI相關營收翻番,預計下一財年AI相關營收將增至約75億美元,AI芯片收入很快就會超過公司總營收的25%。”

在過去一年裏,博通的股價已然翻倍。

合着就算大家能想盡辦法避開了英偉達,還是得給博通交稅唄?


就算真自研了,那至少也是以年爲單位的萬里長征,很長一段時間裏OpenAI還是高度依賴英偉達。


沒有留言:

張貼留言