黃仁勳深夜甩出新一代核彈AI芯片,投資諾基亞搞6G,英偉達即將成為首家5萬億市值公司

皮衣戰神,又雙叒叕來「砸場子」了!在昨天剛剛過去的GTC 2025 秋季場,黃仁勳的演講又一次讓英偉達坐穩了芯片第一龍頭的位置,整場發布會,堪稱火力全開。

芯片龍頭的實力,戰績可查

英偉達在大會上釋放出極其強勁的營收信號,再次鞏固了其在全球AI 計算領域的絕對領先地位。其中,Blackwell 無疑是本次英偉達的業績焦點,其大規模部署速度前所未有。

黃仁勳透露,Blackwell 在開始生產的僅僅五個季度內,預計將出貨高達600 萬個處理器單元,增長速度是上一代產品Hopper 的五倍,標誌著全球AI 基礎設施的部署已進入超高速增長期。

這樣驚人的出貨量,充分反映了市場對Blackwell 架構高性能與高能效的迫切需求,尤其是在訓練萬億級參數模型和大規模推理應用中。

根據今年三月的測試,Blackwell 在運行推理模型時,相比Hopper 實現了大幅提升。 搭載8 個NVIDIA Blackwell GPU 的單個NVIDIA DGX 系統,在具有671 億個參數的先進大型DeepSeek-R1 模型上,每個用戶每秒可實現超過250 個token,或每秒超過30,000 個token 的最大吞吐量。

在 AI 大规模应用的运营成本方面,英伟达承诺通过「极致协同设计」(extreme co-design)来显著降低 AI token 的生成成本,解决 AI 工厂的核心运营痛点。目前,Grace Blackwell NVLink 72 在生成token 方面,成本是全世界最低的。性能提升10倍,同時成本降低10倍。

基於Blackwell 平台及其後續的Rubin(Vera Rubin 超級芯片平台)的初期加速部署,英偉達預計到2026 年,這兩個產品的累計營收將有望達到5000 億美元。

如此雄心勃勃的財務數字,底氣來自於英偉達對於AI 基礎設施的年度更新戰略:以每年一代的速度推出計算平台,以應對業界對更大規模、更高性能AI 模型訓練和推理的需求。

黃仁勳強調,這5000 億美元的數字不僅代表著芯片單元的銷售,更反映了全球計算基礎設施正加速向英偉達的加速計算模型轉型,這標誌著一個萬億美元計算拐點的到來。

超級芯片的未來計算版圖

一方面,Blackwell 平台正在推動AI 浪潮;另一方面,英偉達的目光已投向更遠的未來:下一代Vera Rubin 超級芯片納入戰略版圖。

Vera Rubin 超級芯片延續了集成CPU 和GPU 的超級芯片設計理念,其中Vera 作為定制的CPU,而Rubin 則作為下一代GPU。

技術細節顯示,Vera Rubin 將帶來跨越式的性能飛躍:它將容納6 萬億個晶體管,能夠提供高達100 Petaflops (PF)的AI 計算性能,並配備2 TB 的高速緩存/快速內存。這些核心參數表明,Vera Rubin 在應對萬億級參數模型和極大規模AI 推理任務時,將實現Blackwell 代際無法企及的效率和速度。

作為Blackwell 的繼任者,Vera Rubin 和Blackwell 共同構成英偉達高達5000 億美元的營收,象徵著公司對未來計算架構的持續迭代和投入。

在此宏大計算戰略下,英偉達同時公佈了兩項重量級合作。首先是推出了NVQ Link 互聯架構,專為量子處理器(QPU)與英偉達GPU 超級計算機之間的高速混合模擬而設計,實現了微秒級的計算延遲。

該技術已獲得17 家量子計算機公司和八個美國能源部(DOE)國家實驗室的支持,標誌著量子計算和AI 計算的深度融合。

6G 來了?英偉達給諾基亞重新「抬咖」

另外一項重量級合作,則是在通信基礎設施領域:英偉達宣布與電信巨頭諾基亞建立深度戰略合作夥伴關係,共同開發下一代6G 技術。

諾基亞未來將採用英偉達的ARC 平台作為其基站核心,該平台兼容諾基亞現有的AirScale 基站,意味著全球數百萬個基站可通過英偉達技術升級至6G 和AI 能力。

這項合作聚焦於兩大關鍵方向:其一是AI for RAN(AI 賦能無線接入網)。諾基亞擁有7000 項基礎5G 專利,結合英偉達的AI 技術,將利用人工智能和強化學習實時調整波束成形,優化環境下的頻譜效率。

考慮到無線網絡消耗了全球約1.5%至2%的電力,提高頻譜效率不僅能增加數據吞吐量,同時也是一項至關重要的能源節約舉措。

另外,AI on RAN 則將無線網絡轉變為一個「邊緣工業機器人云」。正如AWS 建立在互聯網之上,英偉達和諾基亞正將雲計算能力擴展到基站邊緣,創造出一個全新的、超低延遲的計算環境。這對於需要實時決策和響應的工業機器人、自動駕駛車輛和邊緣AI 應用至關重要,開啟了一個潛力巨大的邊緣計算新市場。

AI 即工作,時代在召喚

「如同電力和互聯網一樣,人工智能是至關重要的基礎設施。

這個觀點不新鮮了,但是黃仁勳又強調了一遍。他指出,當前時代的變革始於一個關鍵觀察:Dennard 縮放定律(Dennard scaling)已停止近十年,晶體管的性能和功耗增益受到物理定律的限制,傳統摩爾定律的紅利正在消退。

這種現實使得加速計算這一全新計算模型成為必要,它通過GPU 和CUDA 編程模型,利用不斷增長的晶體管數量來實現並行計算,突破了通用CPU 的性能瓶頸。黃仁勳強調,CUDA 編程模型的兼容性維護是英偉達的「寶藏」,經過近三十年的發展才得以實現如今的成就。

「過去的軟件行業是關於創造工具的。Excel是一個工具。Word是一個工具。網絡瀏覽器是一個工具。就像螺絲刀和錘子一樣,工具行業的規模就那麼大。而AI 不是工具。 AI 就是工作本身」(人工智能不是工具。 AI就是工作)。

黃仁勳給出了大膽的論斷,暗示著, AI 已升級為直接的生產力要素,將注定是驅動經濟增長和創新的核心力量。

歡迎加入APPSO AI 社群,一起暢聊AI 產品,獲取,解鎖更多AI 新知

我們正在招募夥伴

簡歷投遞郵箱[email protected]

✉️ 郵件標題「姓名+崗位名稱」(請隨簡歷附上項目/作品或相關鏈接)

分享你的喜愛