看板 Stock
作者 breathair (拆了?簡單了)
標題 Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引
時間 Mon Dec 15 08:57:59 2025


直接說結論:TPU 將以肉眼可見的速度打敗 GPU
這是昨晚與Gemini 3 pro 跟Copilot 一起討論得出的結論

Why?

大家都在談 NVIDIA 的護城河有多深,CUDA 生態系有多無敵。 但這個所謂的
「護城河」,正在變成 NVIDIA 最大的「沈沒成本」。

TPU 不僅會追上 GPU,而且將以肉眼可見的速度,把差距越拉越遠。

以下是邏輯核心

1. 演算法被 GPU「鎖死」了,這反而成了 TPU 的護身符 市場上最大的迷思是:「買
GPU 安全,因為演算法會變,專用的 TPU 風險大。」 錯,大錯特錯。

現實是,全世界 99% 的 AI 演算法都是基於 GPU 架構開發的。這導致了一個結果:任
何 GPU 跑不動的演算法,在學術界根本活不下來。 換句話說,GPU 的硬體極限,其實已
經鎖死了演算法的變異範圍。

這對 TPU 意味著什麼? 意味著 TPU 根本不需要擔心「明天演算法突變導致晶片變廢鐵
」,因為 GPU 自己也跑不了那些突變。 TPU 只要針對這個「被 GPU 框住的範圍」進行
極致優化,它就是絕對安全的。


2. 重新定義 GPU:它就是「ASIC + 沉重的 CUDA 包袱」 如果我們剝開行銷話術,從本
質看硬體:

TPU = 為了當前 AI 數學邏輯量身打造的「全自動產線」。

GPU = 為了相容過去十年所有軟體、保留圖形渲染、硬塞了 CUDA 兼容層的「改裝工廠
」。

NVIDIA 為了維持「高彈性」和「通用性」,每一代晶片都必須背著巨大的歷史包袱(
Legacy)。晶片裡有 30%~40% 的電路在跑 AI 時是空轉浪費的(Dark Silicon)。

3. 黃金交叉點已經出現:加速度的開始 我們定義的「打平」,是指模型表現(Gemini
vs. GPT-5)。 Google 已經證明:用純 TPU 練出來的模型,聰明程度完全不輸 GPU。

就在打平的這一刻起,勝負已定。 為什麼?因為接下來比的是「加速度」:


GPU 的進化 (線性):NVIDIA 下一代晶片想變強,還得顧慮幾百萬開發者的舊程式能不能
跑,還得保留通用電路。它是在「負重前行」。

TPU 的進化 (指數):Google 自產自銷,沒有包袱。演算法團隊 (DeepMind) 需要什麼,
硬體團隊就加什麼;不需要什麼,下一代直接砍掉。它是在「輕裝上陣」。

雖然NVIDIA 仍在快速「專用化」(並非只有通用性),但是需要顧及所有CUDA使用者的
迭代設計,仍比TPU要困難的多

4. 結論:從領先到看不見車尾燈 這是一場「全副武裝的越野車 (GPU)」與「極致輕量
化的 F1 賽車 (TPU)」的比賽。 當賽道狀況不明(演算法混亂期)時,越野車贏了。

但現在賽道已經確定是柏油路(演算法被鎖定)了,且兩者已經並排(模型能力打平)。


接下來發生什麼事,物理定律已經告訴你了。 F1 賽車會利用極致的推重比(
Power-to-Weight Ratio),在直線加速道上瞬間拉開距離。

未來兩三年,你會看到 Google 的運算成本以驚人的速度下降,而依賴 GPU 的陣營將會
發現,不管怎麼堆疊 H100/B200,成本結構都遠遠追不上那條軟硬一體的曲線。

如果真的要談演算法的「異變」,TPU 有能力為了新數學(如雙曲幾何)直接修改硬體
,演化出「火箭」直接升空。 而 ASIC + CUDA 的極限,充其量只能改裝成一台更快的
越野車,永遠離不開地面。


GPU 的「通用性」,曾經是它的王牌,現在變成了它的墓誌銘。

Copilot 甚至畫出TPU 在模型表現一但與GPU表現持平之後,將以指數級超越GPU
因為打平之後接下來創新的速度,TPU是沒有極限的,而GPU則是需要顧到CUDA的使用者
,只能線性成長


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 210.61.204.13 (臺灣)
※ 作者: breathair 2025-12-15 08:57:59
※ 文章代碼(AID): #1fFrqPkr (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765760281.A.BB5.html
synchronous: 鄉民:你比老黃懂GPU
坐等 NV 滿手鄉民抵達現場1F 12/15 09:00
Marty: 整篇都很ChatGPT 情緒價值拉的很滿 但是邏輯錯誤3F 12/15 09:02

不是喔,Gemini 主筆
是我要他用比較有張力的寫法
Copilot 驗證(還幫我畫圖表)
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:03:27
kuosos520: 情緒價值XDD4F 12/15 09:02
DWR: 某天教主跳出來說出清NV 然後說他換到Google5F 12/15 09:02
onekoni: 老黃:看來我該讓腎了6F 12/15 09:03
[圖]
 
[圖]
Marty: 欸不是 好歹你也反駁一下邏輯沒有錯...9F 12/15 09:05

展開說說?願聞高見

Marty: 怎麼是反駁"不是ChatGPT"...10F 12/15 09:05
win8719: windows跟linux 表示
你裡面的論點讓我想起這個11F 12/15 09:05
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:06:49
airawesu: 不是說人家錯的人要指出人家錯在哪裡嗎13F 12/15 09:06
falcon11: 這篇超好笑XDD14F 12/15 09:07
mokumoku: aI時代人人都可以高談闊論15F 12/15 09:09
ccsung: 真的很有Linux會幹趴windows的既視感......16F 12/15 09:09
deathoflove: 當每日任務刷逆?17F 12/15 09:10
patvessel: 喔對啊 巫毒卡想必是會取代cpu 的對嗎18F 12/15 09:11
RIVERWIND: 別人可以用Gemini跟Copilot得出跟你相反的結論 這就19F 12/15 09:11
sheep2009: 聽起來在反串20F 12/15 09:11
RIVERWIND: 是AI給的情緒價值21F 12/15 09:11
Eric0605: AI就是會講你想聽的答案 還冠冕堂皇
但未來大家都不知道 每日都在變動的事22F 12/15 09:11
Solyo: Google可以結合本身產品線,應用無限可期24F 12/15 09:12
Eric0605: 可能一覺睡醒就被推翻 還是等子彈飛吧25F 12/15 09:12
conanist: 把名子換成arm vs cpu,大該有一半的論述是重復的;然後事實上兩者在各自領域活的好好的26F 12/15 09:12

對,你說對了
GPU比CPU 更適合繪圖
TPU比GPU更適合AI模型

CPU跟GPU跟TPU會一直活著
但TPU會佔據AI賽道
因為他不是通用的

ysb727: google手機搞不好都有可能取代iphone
看apple要不要找個AI合作28F 12/15 09:13
shoyeh: 這篇不就標準的Hallucination30F 12/15 09:16
marojack: 現在根本是華西街為了撿便宜貨在製造恐慌31F 12/15 09:16
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:17:56
yuen1029: 晶片變廢鐵32F 12/15 09:16
arickal: 反串給推33F 12/15 09:16
hcwang1126: 怎麼我聽到的是這一代gpu 還沒發力 然後老黃迭代的速度很快34F 12/15 09:17
marojack: 反正到時候就知道了 如果我的推論沒錯的話
NVDA還是會是王者 已經弄出錢準備加碼36F 12/15 09:17
ryback98: 應該是不知道輝達的CPX會跟Rubin一起出吧…38F 12/15 09:18
stosto: ???39F 12/15 09:18
marojack: H200還是會持續用一段時間的 參數的調教和軟體調教可不是你想的這麼簡單40F 12/15 09:18
loopdiuretic: 好險把結論打在第一行 不用浪費時間直接end42F 12/15 09:18
blackjose: 架構在不一樣的平台,是在比什麼?43F 12/15 09:18
marojack: 已經準備好抄那些被恐慌的人的貨了44F 12/15 09:19
nerorush: 我信你了 全力放空達子 股版鄉民才是AI專家45F 12/15 09:20
windfeather: 我不會說GPU穩定,但你直接決定TPU獲勝還滿好笑的46F 12/15 09:20

這是邏輯
通用型的加速度就不可能贏過專用型
現在已經打平,未來幾乎不存在通用型趕超專用型的可能

ken52011219: AI廢文47F 12/15 09:20
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:22:18
Vincent6964: TPU橫空出世就贏多年經營的GPU+CUDA平台 你能說服你自己嗎48F 12/15 09:20
dogalan: 當你對AI的內容沒有絕對的判別能力的時候 還是不要50F 12/15 09:20
windfeather: 這麼厲害,怎麼幾年前全世界的專家不懂得壓TPU
難道全世界的專家真的都比不上AI問答的眼光嗎?51F 12/15 09:20
dogalan: 太盲目相信他給出的結論 AI幻覺很嚴重53F 12/15 09:21
stosto: Nv怎麼動搖?Google 又不是純靠tpu 才有gemini 的,但open ai 是真的危險54F 12/15 09:22
as6633208: TPU壯膽蛙== TPU v7算力連gb200都還打不贏@@ 輝達都gb300了,下一代還有rubin,計算通用性還贏TPU,不56F 12/15 09:23
opticalman: TPU才剛出茅廬,就飄了,自我感覺良好58F 12/15 09:23
as6633208: 過沒差,谷歌也是輝達第一大客戶,欸?為什麼捏?為59F 12/15 09:23
Feting: 跟ai討論的當真理..60F 12/15 09:23
as6633208: 什麼谷歌不專心多自己的TPU就好了捏?谷歌在顧慮什61F 12/15 09:23
macetyl: 9801跟ibm 的戰爭後來 ibm 贏了62F 12/15 09:23
as6633208: 麼捏?我就說谷歌錢很多,不用怕喔,就算砸錢之後,結果開發出顛覆算法的是我們gpt之父Ilya Sutskever的公司,畢竟Gemini 3 也是學他的很正常,因為不是狗家開發的完全用不上tpu,舊的tpu直接廢掉,谷歌也沒差,你錢很多再繼續砸錢買gpu,再繼續研發就好了63F 12/15 09:23

真正的邏輯是
GPU+CUDA再怎麼改變算法,他依然只能在GPU+CUDA裡跑
超出這個限制GPU做不到,所以TPU是安全的,TPU做不到GPU也做不到

而當TPU趕超GPU的模型時,專用型的優勢(加速度),就比通用型的要顯現出來了


windfeather: 然後真的有些人不知道GOOGLE也需要GPU耶69F 12/15 09:23
hcwang1126: 然後產業界也不是大家悶著頭作自己的 開下一代晶片一定是跟客戶討論過 畢竟這麼多錢 在上下遊70F 12/15 09:23
marojack: 你光是要把所有現有資料轉到TPU運作你就知道不可能了 重點還要轉碼解BUG
而且博通財報你去看看 他們說TPU只是客戶的一個方案而已72F 12/15 09:24
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:29:02
windfeather: 這波過度神話TPU的程度,比這幾年神話OAI更扯76F 12/15 09:25
marojack: 主要為降低成本 加速效率77F 12/15 09:25
david54001: 那應該瘋狂做空NVDA啊78F 12/15 09:25
marojack: 根本無法取代GPU
核心還是在GPU上79F 12/15 09:25
yangtsur: 你問chatgpt intel 能不能打贏nvidia81F 12/15 09:26
blanka: Google不是也在買GPU嗎? 這個報導是??82F 12/15 09:27
win8719: 你換個問法他會給你不同的邏輯83F 12/15 09:27
askaa: 講半天沒重點沒單 到底是要供啥洨?84F 12/15 09:27
chigo520: 你要不要換個問法?倒過來問85F 12/15 09:27
BMotu: 我看到先說結論就下拉了86F 12/15 09:28
marojack: 還有你可能不知道 顯示卡有個分支叫做繪圖卡
就是拔掉所有遊戲用的單元直接專用繪圖87F 12/15 09:28
windfeather: 另外AI是會順著提問者的邏輯去發展的
沒有辦法給予真正有變數與思辨性的問題89F 12/15 09:29
marojack: NVDA 要的話這點也做的到喔91F 12/15 09:29
windfeather: AI常常只會給出預期內的答案92F 12/15 09:29

他是順著你的邏輯講的沒錯,但首先他會先驗證你的邏輯
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:30:20
marojack: Ai要對話 我是會加上盲點偵測93F 12/15 09:30
windfeather: 光是把這陣子板上對於TPU和GPU各自優勢拿去討論
可能會得出完全不一樣的答案94F 12/15 09:30
max0616: 看到前兩句就可以end了96F 12/15 09:30
krkrjjjpp: 路徑依賴的怎解? 你看看你自己怎麼打字的97F 12/15 09:31

路徑依賴在GPU領先時,CUDA有明顯的優勢
當TPU訓練的模型打平時,單純依賴GPU+CUDA反而會變成劣勢

Antropic 跟OpenAI 對GPU的修改建議本身就不可能相同
NV要顧及這些大客戶,要顧及向後兼容,這本身進化的"加速度"就會被牽制住

往前看,TPU的進化速度比GPU要快的多的多

pov: 所以nv不能開發專用硬體嗎98F 12/15 09:32
plaay: 任何反駁再丟給ai反駁,又是一篇,你怎麼鬥XD99F 12/15 09:33
zuhuei: 問個ai就上來發文 跟自己google完還是更早雅虎貼知識家的發文上來差在哪272F 12/15 10:37
LipaCat5566: 這跟視窗和企鵝還有x86/arm問題本質不同 這比較像以前CPU/GPU各自專業化後分家 以後電腦有可能是CPU/GPU/TPU274F 12/15 10:37
jakkx: 這已經不是邏輯框架的問題而是GIGO(垃圾進垃圾出277F 12/15 10:37

--
作者 breathair 的最新發文:
點此顯示更多發文記錄