免責聲明
歡迎您使用群益社群平台所提供的各項金融資訊服務,為維護您的權益,使用網站請閱讀以下聲明,使用者將視為同意本網站各項聲明:
群益社群平台及其資料提供者、合作結盟廠商與相關電信業者網路系統因硬體設備之故障、失靈或人為操作上之疏失導致傳輸無法使用、遲延、或造成任何資料內容(包括文字、數字、圖片、聲音、影像)遺失中斷、暫時、缺漏、更新延誤或儲存上之錯誤,群益社群平台均不負任何責任。
群益社群平台站上所提供之投資建議及參考資料內容,不得作為任何交易行為之依據,使用者依建議或資料內容進行任何投資行為所產生之風險及盈虧,均需完全自行負擔,群益社群平台不對使用者之投資決策負任何責任。
群益社群平台中之所有鏈結可能連結到其他個人、公司或組織之網站,對被鏈結之該等個人、公司或組織之網站上所提供之產品、服務或資訊,群益社群平台概不擔保其真實性、即時性、正確性及完整性。
群益社群平台對於第三人透過本網站銷售的任何商品,或提供之各種商品促銷資訊及廣告,群益社群平台均不對其交易安全、商品及服務內容負任何擔保責任,其間之所有交易、擔保、賠償責任及售後服務皆係存在於使用者與商品或勞務提供者之間,使用者應事先詳讀各項規格與活動說明,交易期間如因商品或服務提供者發生任何變故或產生糾紛,群益社群平台不負任何責任。
使用者同意群益社群平台保留修改本聲明之權利,修改後之聲明將公佈於群益社群平台上,不另行個別通知使用者。
使用者之發言不能涉及招攬、投顧行為、抬價、點位等內容(涉及個別期貨交易契約未來交易價位之研判、建議或提供交易策略之建議),若有發現此行為本網站對其留言不負任何責任,並將會刪除相關資料如文字、圖片或檔案以及會員身分。
黃仁勳於 3/19 GTC 大會上發表主題演講,以下為 M平方整理的 9 大重點:
- Scaling Law 未死,算力需求將超越預期。
- 全球對數據中心的資本支出仍將繼續成長,規模達 1 兆美元。
- 合成數據的重要性。
- Nvidia 的生態系優勢。
- 推理模型算力需求,將帶動矽光子技術需求。
- 矽光子交換器 Quantum-X InfiniBand 和 Spectrum-X Photonics 即將出貨。
- 開源推理模型架構 NVIDIA Dynamo,加速推理效率。
- GPU 路線圖:Blackwell Ultra -> Rubin + Vera -> Feynman。
- 下一個數兆(Multi-Trillion)產業 - 機器人。
幾乎整個世界都低估了 AI 算力需求,AI 的 Scaling Law 比預期的更具韌性,甚至進入超加速(Hyper-accelerated)階段, 隨著 Agentic AI 和 推理能力的發展,我們所需的計算量遠超過去年同期的預測——至少是當初估計的 100 倍。 推理 AI 的本質是「將問題逐步拆解」,這種變化導致生成的 Token 數量會大幅增加,因為目前 AI 的基礎技術仍然相同,仍是「生成或預測下一個 Token 」,因此推理模型可能是:1) AI 直接生成比傳統 LLM 多 100 倍的 Token 量;2) AI 模型變得更複雜,生成的 Token 變成 10 倍,但計算量仍然大幅上升。
因此為了保持 AI 反應迅速、即時互動(否則使用者等待過久會失去耐心),必須加速 AI 的計算效率,以適應劇增的推理需求。
在 Scaling Law 未死,算力需求大增下,全球數據中心(包括 CSP 、企業等)的資本支出預估,可在 2028 年左右將會超過 1 兆美元,且業界在各方面都正在轉移至 AI 加速運算,包括:
我們可以生成數百萬個不同的範例,並讓 AI 進行數百次、數千次的嘗試,逐步解決問題。在這個過程中,我們使用強化學習來獎勵 AI,使其表現越來越好。因此,當我們涵蓋數百個不同的主題,每個主題又包含數百萬個範例,每個範例 AI 可能嘗試數百次,而每次嘗試都會生成數以萬計的 token(作為訓練數據),這一切加總起來,就意味著我們需要處理數兆級別的 token 來訓練 AI 模型。而機器人所需要的「行動」和「控制」數據也會帶動合成數據生成(Synthetic Data Generation)的興起 。
AI 的發展過程中你不能只是加速軟體。就像我們需要一個 AI 框架來創建 AI,你也需要為物理學、生物學、多物理場以及量子物理等領域創建相應的框架,而 Nvidia CUDA-X Libraries 涵蓋各種框架,包括 cuLITHO 、 AERIAL SIONNA 、 cuOPT 、 MONAI 、 EARTH-2 、 cuQUANTUM 、 cuDSS 、 WARP 等,以及機器人和自駕平台 Cosmos 、推理模型架構 NVIDIA Dynamo 和人形機器人基礎模型 GROOT N1,這些軟體護城河都將會讓各產業未來在應用 AI 上更加依賴 Nvidia 的生態系。
推理模型(DeepSeek R1 為例)會比傳統的 LLM 模型(Llama 3.3 70B 為例)花上 20 倍以上的 Token 數量以及 150 倍以上的算力,且未來模型會愈來愈複雜,推理模型的參數也將會愈來愈多,為了符合 AI 模型追求更快更好的推理性能的趨勢,有兩種策略提升系統性能「 Scale up 」和「 Scale out 」:
NVIDIA 宣布推出全球首款 1.6 Tbps 共同封裝光學(CPO)矽光子系統。這項技術基於微環諧振調製器(micro ring resonator modulator,MRMs),是一種突破性的光通訊技術,並採用台積電 COUPE 矽光子平台和 SoIC-X 封裝技術,將 65 奈米電子積體電路(EIC)與光子積體電路(PIC)整合。 2025 下半年 Nvidia 將開始出貨 Quantum-X InfiniBand,2026H2 將會出貨 Spectrum-X Photonics。
未來模型在推理時,會根據工作負載決定將更多的 GPU 用於解碼(Decode)或用於預處理(Prefill),而這種動態調整非常複雜,包括流水線並行(pipeline parallel)、張量並行(tensor parallel)、專家並行(expert parallel)、預處理前批處理(prefill batching)、分離推理(disaggregated inferencing)和工作負載管理(workload management),以及將 KV cache 導向正確的 GPU 以及在所有記憶體中的傳遞,這些管理極其複雜,因此 Nvidia 公佈了 NVIDIA Dynamo 的開源推理模型架構:透過分散式運算可協調並加速數千個 GPU 的推理傳輸,且支援包括 PyTorch 、 SGLang 、 NVIDIA TensorRT-LLM 和 vLLM,企業、新創與研究人員可使用熱門的 AI 框架進行部署,同時實現分散式推理,可提升 AI Factory 的性能、縮減回應時間與降低模型成本。