每個人都想吃Nvidia的午餐

到目前為止,Nvidia 提供了絕大多數用於訓練和操作大型 AI 模型(例如支持 ChatGPT 的模型)的處理器。科技公司和人工智能實驗室不喜歡過多依賴單一芯片供應商,特別是當他們對計算能力的需求增加時,因此他們正在尋找多元化的方法。因此,AMD 和華為等廠商,以及谷歌和亞馬遜 AWS(剛剛發布了最新的 Trainium3 芯片)等超大規模企業,都在抓緊改進自己的 AI 加速器,這些處理器旨在加速特定類型的計算任務。這場競爭是否最終會讓人工智能領域的主導廠商英偉達淪為另一家人工智能芯片供應商(這可能會動搖行業技術基礎的眾多選擇之一)?或者說,對人工智能芯片的需求浪潮是否足以讓所有船隻都起航?這些都是價值數万億美元的問題。當谷歌無意中提到它已經完全在自己的張量處理單元(TPU)——另一種人工智能加速器芯片(GPU)上訓練其令人印象深刻的新 Gemini 3 Pro 模型時,在整個行業引起了小小的震動。行業觀察家立即想知道人工智能行業對英偉達芯片的廣泛依賴是否合理。畢竟,它們非常昂貴:目前用於建設人工智能計算能力(數據中心)的數十億美元的很大一部分都用於購買 Nvidia 芯片。谷歌 TPU 看起來更像是 Nvidia 的替代品。該公司可以在自己的數據中心租用 TPU,據報導,該公司正在考慮將芯片直接出售給其他人工智能公司,包括 Meta 和 Anthropic。 The Information 11 月份的一份(付費)報導稱,谷歌正在就出售或租賃其 GPU 進行談判,以便它們可以在任何公司的數據中心運行。路透社報導稱,Meta 正在洽談從 2027 年開始在谷歌 TPU 上花費“數十億美元”,並且可能會更早開始付費在谷歌數據中心內的 TPU 上運行人工智能工作負載。 Anthropic 在 10 月份宣布將在 Google 數據中心內使用多達 100 萬個 TPU 來開發其 Claude 模型。從技術上講,直接出售 TPU 將使谷歌與 Nvidia 直接競爭。但這並不意味著谷歌正在大力搶奪英偉達的芯片業務。畢竟,谷歌是英偉達芯片的主要買家。谷歌可能會將向某些客戶出售 TPU 作為銷售在其云中運行的 TPU 訪問權限的延伸。 IDC 分析師 Brandon Hoff 表示,如果客戶希望進行 TPU 特別擅長的人工智能處理類型,那麼這是有道理的。雖然 Nvidia 的 GPU 是能夠執行多種工作的主力,但大多數大型科技平台公司都設計了自己的加速器,專門針對其最關鍵的計算類型而構建。微軟開發了針對其 Azure 雲服務進行優化的芯片。亞馬遜的 Trainium 芯片特別擅長與電子商務相關的任務,例如產品建議和送貨物流。谷歌的 TPU 擅長在其平台和網絡上投放有針對性的廣告。這是 Google 與 Meta 分享的東西。 “他們都做廣告,所以 Meta 想考慮使用 Google 的 TPU 是有道理的,”霍夫說。這不僅僅是Meta。大多數大型科技公司都使用各種加速器,因為他們使用機器學習和人工智能來執行各種任務。 “蘋果獲得了一些 TPU,獲得了一些 AWS 芯片,當然還獲得了一些 GPU,他們一直在研究適合不同工作負載的方法,”他補充道。 Nvidia 的一大優勢在於它的芯片非常強大——它們是訓練大型語言模型成為可能的原因。他們也是出色的多面手,適合各種人工智能工作負載。最重要的是,它們非常靈活,也就是說它們可以插入不同的平台。例如,如果一家公司想要在混合雲服務上運行其人工智能模型,他們可能會開發這些模型以在 Nvidia 芯片上運行,因為所有云都使用它們。 “Nvidia 的靈活性優勢是真實存在的;微軟和 Meta 都將 GPU 跨工作負載的可替代性作為增加資本支出的理由,這並非偶然,”分析師 Ben Thompson 在最近的一份時事通訊中寫道。 “TPU 在硬件層面更加專業,在軟件層面更難以編程;為此,如果客戶關心靈活性,那麼 Nvidia 仍然是顯而易見的選擇。”然而,供應商鎖定仍然是一個大問題,尤其是大型科技公司和人工智能實驗室正在為人工智能新數據中心容量投入數千億美元。人工智能公司更願意混合使用不同供應商的人工智能芯片。 Anthropic 對此明確表示:“Anthropic 獨特的計算策略側重於多元化的方法,有效地使用三個芯片平台——谷歌的 TPU、亞馬遜的 Trainium 和 NVIDIA 的 GPU,”該公司在 10 月份的一篇博客文章中表示。亞馬遜的AWS表示,其Trainium3芯片比一年前推出的Trainium2芯片快大約四倍,效率高出40%。由於 Nvidia 芯片的性能,許多 AI 公司已經對 CUDA 進行了標準化,CUDA 是 Nvidia 軟件層,可讓開發人員控制 GPU 如何協同工作以支持其 AI 應用程序。大多數使用大型 AI 模型的工程師、開發人員和研究人員都了解 CUDA,這可能會導致另一種形式的基於技能的組織鎖定。但湯普森表示,現在組織構建全新的替代軟件堆棧來適應不同類型的芯片可能是有意義的。 “他們之所以長期不這樣做,是因為不值得花時間和麻煩;然而,當資本支出計劃達到數千億美元時,‘值得’花時間和麻煩的事情就會發生變化。” IDC 預計,對人工智能計算能力的高需求不太可能很快減弱。 “我們看到雲服務提供商正在快速增長,但他們的支出將會放緩,”霍夫說。除此之外,第二波需求可能來自“主權基金”,例如沙特阿拉伯,該國正在建設Humain“人工智能中心”,這是一個由它將資助和控制的大型人工智能基礎設施綜合體。霍夫解釋說,另一波需求可能來自想要建立類似“主權”人工智能基礎設施的大型跨國公司。 2027 年和 2028 年有很多東西將繼續推動需求。 ”市面上有很多“芯片製造商挑戰英偉達”的故事,但越深入研究人工智能芯片市場的經濟複雜性和競爭動態,大部分戲劇性的內容就會消失。隨著人工智能在商業和消費技術領域得到越來越多的應用,人工智能模型將被要求做越來越多的工作,每種模型都需要各種通用或專用芯片的組合。因此,儘管英偉達的競爭壓力越來越大,但谷歌和亞馬遜等公司仍有很多充分的理由與英偉達合作。 Moor Insights & Strategy 首席分析師帕特里克·穆爾黑德 (Patrick Moorhead) 表示:“未來兩年,需求將超過供應,因此幾乎所有這些都不重要。 ” Moorhead 認為,五年後 Nvidia GPU 仍將保持 70% 的市場份額。
已发布: 2025-12-05 14:30:00










