看板 Stock
作者 breathair (拆了?簡單了)
標題 Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引
時間 Mon Dec 15 08:57:59 2025


直接說結論:TPU 將以肉眼可見的速度打敗 GPU
這是昨晚與Gemini 3 pro 跟Copilot 一起討論得出的結論

Why?

大家都在談 NVIDIA 的護城河有多深,CUDA 生態系有多無敵。 但這個所謂的
「護城河」,正在變成 NVIDIA 最大的「沈沒成本」。

TPU 不僅會追上 GPU,而且將以肉眼可見的速度,把差距越拉越遠。

以下是邏輯核心

1. 演算法被 GPU「鎖死」了,這反而成了 TPU 的護身符 市場上最大的迷思是:「買
GPU 安全,因為演算法會變,專用的 TPU 風險大。」 錯,大錯特錯。

現實是,全世界 99% 的 AI 演算法都是基於 GPU 架構開發的。這導致了一個結果:任
何 GPU 跑不動的演算法,在學術界根本活不下來。 換句話說,GPU 的硬體極限,其實已
經鎖死了演算法的變異範圍。

這對 TPU 意味著什麼? 意味著 TPU 根本不需要擔心「明天演算法突變導致晶片變廢鐵
」,因為 GPU 自己也跑不了那些突變。 TPU 只要針對這個「被 GPU 框住的範圍」進行
極致優化,它就是絕對安全的。


2. 重新定義 GPU:它就是「ASIC + 沉重的 CUDA 包袱」 如果我們剝開行銷話術,從本
質看硬體:

TPU = 為了當前 AI 數學邏輯量身打造的「全自動產線」。

GPU = 為了相容過去十年所有軟體、保留圖形渲染、硬塞了 CUDA 兼容層的「改裝工廠
」。

NVIDIA 為了維持「高彈性」和「通用性」,每一代晶片都必須背著巨大的歷史包袱(
Legacy)。晶片裡有 30%~40% 的電路在跑 AI 時是空轉浪費的(Dark Silicon)。

3. 黃金交叉點已經出現:加速度的開始 我們定義的「打平」,是指模型表現(Gemini
vs. GPT-5)。 Google 已經證明:用純 TPU 練出來的模型,聰明程度完全不輸 GPU。

就在打平的這一刻起,勝負已定。 為什麼?因為接下來比的是「加速度」:


GPU 的進化 (線性):NVIDIA 下一代晶片想變強,還得顧慮幾百萬開發者的舊程式能不能
跑,還得保留通用電路。它是在「負重前行」。

TPU 的進化 (指數):Google 自產自銷,沒有包袱。演算法團隊 (DeepMind) 需要什麼,
硬體團隊就加什麼;不需要什麼,下一代直接砍掉。它是在「輕裝上陣」。

雖然NVIDIA 仍在快速「專用化」(並非只有通用性),但是需要顧及所有CUDA使用者的
迭代設計,仍比TPU要困難的多

4. 結論:從領先到看不見車尾燈 這是一場「全副武裝的越野車 (GPU)」與「極致輕量
化的 F1 賽車 (TPU)」的比賽。 當賽道狀況不明(演算法混亂期)時,越野車贏了。

但現在賽道已經確定是柏油路(演算法被鎖定)了,且兩者已經並排(模型能力打平)。


接下來發生什麼事,物理定律已經告訴你了。 F1 賽車會利用極致的推重比(
Power-to-Weight Ratio),在直線加速道上瞬間拉開距離。

未來兩三年,你會看到 Google 的運算成本以驚人的速度下降,而依賴 GPU 的陣營將會
發現,不管怎麼堆疊 H100/B200,成本結構都遠遠追不上那條軟硬一體的曲線。

如果真的要談演算法的「異變」,TPU 有能力為了新數學(如雙曲幾何)直接修改硬體
,演化出「火箭」直接升空。 而 ASIC + CUDA 的極限,充其量只能改裝成一台更快的
越野車,永遠離不開地面。


GPU 的「通用性」,曾經是它的王牌,現在變成了它的墓誌銘。

Copilot 甚至畫出TPU 在模型表現一但與GPU表現持平之後,將以指數級超越GPU
因為打平之後接下來創新的速度,TPU是沒有極限的,而GPU則是需要顧到CUDA的使用者
,只能線性成長


--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 210.61.204.13 (臺灣)
※ 作者: breathair 2025-12-15 08:57:59
※ 文章代碼(AID): #1fFrqPkr (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765760281.A.BB5.html
synchronous: 鄉民:你比老黃懂GPU
坐等 NV 滿手鄉民抵達現場1F 12/15 09:00
Marty: 整篇都很ChatGPT 情緒價值拉的很滿 但是邏輯錯誤3F 12/15 09:02

不是喔,Gemini 主筆
是我要他用比較有張力的寫法
Copilot 驗證(還幫我畫圖表)
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:03:27
kuosos520: 情緒價值XDD4F 12/15 09:02
DWR: 某天教主跳出來說出清NV 然後說他換到Google5F 12/15 09:02
onekoni: 老黃:看來我該讓腎了6F 12/15 09:03
 
Marty: 欸不是 好歹你也反駁一下邏輯沒有錯...9F 12/15 09:05

展開說說?願聞高見

Marty: 怎麼是反駁"不是ChatGPT"...10F 12/15 09:05
win8719: windows跟linux 表示
你裡面的論點讓我想起這個11F 12/15 09:05
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:06:49
airawesu: 不是說人家錯的人要指出人家錯在哪裡嗎13F 12/15 09:06
falcon11: 這篇超好笑XDD14F 12/15 09:07
mokumoku: aI時代人人都可以高談闊論15F 12/15 09:09
ccsung: 真的很有Linux會幹趴windows的既視感......16F 12/15 09:09
deathoflove: 當每日任務刷逆?17F 12/15 09:10
patvessel: 喔對啊 巫毒卡想必是會取代cpu 的對嗎18F 12/15 09:11
RIVERWIND: 別人可以用Gemini跟Copilot得出跟你相反的結論 這就19F 12/15 09:11
sheep2009: 聽起來在反串20F 12/15 09:11
RIVERWIND: 是AI給的情緒價值21F 12/15 09:11
Eric0605: AI就是會講你想聽的答案 還冠冕堂皇
但未來大家都不知道 每日都在變動的事22F 12/15 09:11
Solyo: Google可以結合本身產品線,應用無限可期24F 12/15 09:12
Eric0605: 可能一覺睡醒就被推翻 還是等子彈飛吧25F 12/15 09:12
conanist: 把名子換成arm vs cpu,大該有一半的論述是重復的;然後事實上兩者在各自領域活的好好的26F 12/15 09:12

對,你說對了
GPU比CPU 更適合繪圖
TPU比GPU更適合AI模型

CPU跟GPU跟TPU會一直活著
但TPU會佔據AI賽道
因為他不是通用的

ysb727: google手機搞不好都有可能取代iphone
看apple要不要找個AI合作28F 12/15 09:13
shoyeh: 這篇不就標準的Hallucination30F 12/15 09:16
marojack: 現在根本是華西街為了撿便宜貨在製造恐慌31F 12/15 09:16
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:17:56
yuen1029: 晶片變廢鐵32F 12/15 09:16
arickal: 反串給推33F 12/15 09:16
hcwang1126: 怎麼我聽到的是這一代gpu 還沒發力 然後老黃迭代的速度很快34F 12/15 09:17
marojack: 反正到時候就知道了 如果我的推論沒錯的話
NVDA還是會是王者 已經弄出錢準備加碼36F 12/15 09:17
ryback98: 應該是不知道輝達的CPX會跟Rubin一起出吧…38F 12/15 09:18
stosto: ???39F 12/15 09:18
marojack: H200還是會持續用一段時間的 參數的調教和軟體調教可不是你想的這麼簡單40F 12/15 09:18
loopdiuretic: 好險把結論打在第一行 不用浪費時間直接end42F 12/15 09:18
blackjose: 架構在不一樣的平台,是在比什麼?43F 12/15 09:18
marojack: 已經準備好抄那些被恐慌的人的貨了44F 12/15 09:19
nerorush: 我信你了 全力放空達子 股版鄉民才是AI專家45F 12/15 09:20
windfeather: 我不會說GPU穩定,但你直接決定TPU獲勝還滿好笑的46F 12/15 09:20

這是邏輯
通用型的加速度就不可能贏過專用型
現在已經打平,未來幾乎不存在通用型趕超專用型的可能

ken52011219: AI廢文47F 12/15 09:20
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:22:18
Vincent6964: TPU橫空出世就贏多年經營的GPU+CUDA平台 你能說服你自己嗎48F 12/15 09:20
dogalan: 當你對AI的內容沒有絕對的判別能力的時候 還是不要50F 12/15 09:20
windfeather: 這麼厲害,怎麼幾年前全世界的專家不懂得壓TPU
難道全世界的專家真的都比不上AI問答的眼光嗎?51F 12/15 09:20
dogalan: 太盲目相信他給出的結論 AI幻覺很嚴重53F 12/15 09:21
stosto: Nv怎麼動搖?Google 又不是純靠tpu 才有gemini 的,但open ai 是真的危險54F 12/15 09:22
as6633208: TPU壯膽蛙== TPU v7算力連gb200都還打不贏@@ 輝達都gb300了,下一代還有rubin,計算通用性還贏TPU,不56F 12/15 09:23
opticalman: TPU才剛出茅廬,就飄了,自我感覺良好58F 12/15 09:23
as6633208: 過沒差,谷歌也是輝達第一大客戶,欸?為什麼捏?為59F 12/15 09:23
Feting: 跟ai討論的當真理..60F 12/15 09:23
as6633208: 什麼谷歌不專心多自己的TPU就好了捏?谷歌在顧慮什61F 12/15 09:23
macetyl: 9801跟ibm 的戰爭後來 ibm 贏了62F 12/15 09:23
as6633208: 麼捏?我就說谷歌錢很多,不用怕喔,就算砸錢之後,結果開發出顛覆算法的是我們gpt之父Ilya Sutskever的公司,畢竟Gemini 3 也是學他的很正常,因為不是狗家開發的完全用不上tpu,舊的tpu直接廢掉,谷歌也沒差,你錢很多再繼續砸錢買gpu,再繼續研發就好了63F 12/15 09:23

真正的邏輯是
GPU+CUDA再怎麼改變算法,他依然只能在GPU+CUDA裡跑
超出這個限制GPU做不到,所以TPU是安全的,TPU做不到GPU也做不到

而當TPU趕超GPU的模型時,專用型的優勢(加速度),就比通用型的要顯現出來了


windfeather: 然後真的有些人不知道GOOGLE也需要GPU耶69F 12/15 09:23
hcwang1126: 然後產業界也不是大家悶著頭作自己的 開下一代晶片一定是跟客戶討論過 畢竟這麼多錢 在上下遊70F 12/15 09:23
marojack: 你光是要把所有現有資料轉到TPU運作你就知道不可能了 重點還要轉碼解BUG
而且博通財報你去看看 他們說TPU只是客戶的一個方案而已72F 12/15 09:24
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:29:02
windfeather: 這波過度神話TPU的程度,比這幾年神話OAI更扯76F 12/15 09:25
marojack: 主要為降低成本 加速效率77F 12/15 09:25
david54001: 那應該瘋狂做空NVDA啊78F 12/15 09:25
marojack: 根本無法取代GPU
核心還是在GPU上79F 12/15 09:25
yangtsur: 你問chatgpt intel 能不能打贏nvidia81F 12/15 09:26
blanka: Google不是也在買GPU嗎? 這個報導是??82F 12/15 09:27
win8719: 你換個問法他會給你不同的邏輯83F 12/15 09:27
askaa: 講半天沒重點沒單 到底是要供啥洨?84F 12/15 09:27
chigo520: 你要不要換個問法?倒過來問85F 12/15 09:27
BMotu: 我看到先說結論就下拉了86F 12/15 09:28
marojack: 還有你可能不知道 顯示卡有個分支叫做繪圖卡
就是拔掉所有遊戲用的單元直接專用繪圖87F 12/15 09:28
windfeather: 另外AI是會順著提問者的邏輯去發展的
沒有辦法給予真正有變數與思辨性的問題89F 12/15 09:29
marojack: NVDA 要的話這點也做的到喔91F 12/15 09:29
windfeather: AI常常只會給出預期內的答案92F 12/15 09:29

他是順著你的邏輯講的沒錯,但首先他會先驗證你的邏輯
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:30:20
marojack: Ai要對話 我是會加上盲點偵測93F 12/15 09:30
windfeather: 光是把這陣子板上對於TPU和GPU各自優勢拿去討論
可能會得出完全不一樣的答案94F 12/15 09:30
max0616: 看到前兩句就可以end了96F 12/15 09:30
krkrjjjpp: 路徑依賴的怎解? 你看看你自己怎麼打字的97F 12/15 09:31

路徑依賴在GPU領先時,CUDA有明顯的優勢
當TPU訓練的模型打平時,單純依賴GPU+CUDA反而會變成劣勢

Antropic 跟OpenAI 對GPU的修改建議本身就不可能相同
NV要顧及這些大客戶,要顧及向後兼容,這本身進化的"加速度"就會被牽制住

往前看,TPU的進化速度比GPU要快的多的多

pov: 所以nv不能開發專用硬體嗎98F 12/15 09:32
plaay: 任何反駁再丟給ai反駁,又是一篇,你怎麼鬥XD99F 12/15 09:33
kuan870704: 那個w開頭的谷歌蛙都沒你這麼敢吹差滴滴100F 12/15 09:33
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:37:17
CorkiN: 看完這篇文章的心得是AI真的會讓人變笨失去思考能101F 12/15 09:35
ru04hj4: TPU就是為了喝牛奶蓋了一個農場和請了一堆員工 GPU比較像是大賣場103F 12/15 09:36
ckpika: 這篇是不是AI寫的阿 怎那麼多無意義的英文105F 12/15 09:36
swaggyPanDa: 狗屁106F 12/15 09:37
tpkgo: NVDA跟一堆公司合作 就是知道目前發展方向仍不清楚107F 12/15 09:38
YJJ: 這種事實是否真確真還得專業人士討論108F 12/15 09:38
kirry: Apple找誰合作都沒用 前提是他的權限要開放 一樣把Siri 鎖在低能狀態也沒用啊109F 12/15 09:39
cityport: 鬧板不是要水桶嗎111F 12/15 09:40
paladin499: 不管你的AI嗑了什麼都給我來一點112F 12/15 09:40
joe2: 拿問題去問問題的題庫   你真是高手
最近蠻多人產生這種偏誤的113F 12/15 09:40
ohlong: 這論點我同意但TPU門檻高很多 一般沒有g一樣實力
要拿來做一些應用一定直接買鏟子 nv最後還是能贏在長尾效應115F 12/15 09:40
edison106: 講半天手上沒半股在大談什麼118F 12/15 09:41
windfeather: 另外先不說這篇完全是預定後續環境生態沒有大變化119F 12/15 09:41
tpkgo: NVDA沒你想的那麼一成不變 TPU也只適用特殊用途120F 12/15 09:41
marojack: 你如果在論述裡面沒加入1.盲點偵測2.分步分析3.多角度方案 4.時間搓印 5.引用來源 6.資料來源不清楚要說明這些內容的話 我都當作是亂說的121F 12/15 09:42
windfeather: TPU現在看似好用那是GOOGLE專武
說真的那不是TPU強,而是GOOGLE生態強
但連GOOGLE也不敢說自己在AI競爭勝利了124F 12/15 09:42
marojack: 光是沒有時間搓印就知道撈到的資料多混亂了127F 12/15 09:43
abc12812: 又是AI文 一堆形容詞堆起來 笑死128F 12/15 09:44
Arkzeon: 這讓我想到的Xbox粉說Game pass會改變遊戲生態,訂閱才是王道,PS5等著吃屎129F 12/15 09:44
GooglePixel: 嗯... 文組嗎?131F 12/15 09:44
joey00: 什麼廢文...132F 12/15 09:45
amos30627: 供三小133F 12/15 09:46
lovemost: 你知道歷史上也有過一次CPU 和ASIC之爭,最後勝出的是CPU嗎134F 12/15 09:46
angusyu: 有夠可憐,這個世界只需要訓練不用應用136F 12/15 09:47
azhu: 好了啦N黑 輝達蛙一股不退137F 12/15 09:47
marojack: Ai幻覺是真的很嚴重 大概第五輪對話就有問題了138F 12/15 09:47
ryan8409: 87139F 12/15 09:47
shinewind: 現在隨便一個人跟AI聊聊就可以發文了140F 12/15 09:48
GooglePixel: 簡單說就是各有各的用處而已 我看到笑出來141F 12/15 09:48
acolam: 我的男村民正在城鎮中心上女村民 nv投降了142F 12/15 09:48
Hettt5655: 太棒了 這樣顯卡可以降價嗎143F 12/15 09:48
saokie: 結論 肉眼可見的速度...提供一下大概何時 既然都肉眼可見了!還是結論是假的144F 12/15 09:48
nba887215: 你以為企業轉移的成本是今天下單明天就上線484146F 12/15 09:49
Lenney33: ..147F 12/15 09:49
xx890197: 以後的世界就是一群傻屌在網路上拿ai回的內容在互相吵架,然後真正的知識份子講的話會沒有人相信148F 12/15 09:50
ohlong: 除非哪天g開放一堆類似客製化的工具跟開源部分model讓你使用 那就難講了 我拿著TPU做出來的食材加自己的醬料 何必買鏟子150F 12/15 09:50
israelii: Gemini當然說自家的好,老王賣瓜自賣自誇,你有想過這個問題嗎?153F 12/15 09:50
coldbreeze: 1跟2有矛盾 TPU能涵蓋GPU範圍又沒有CUDA包袱 在說啥155F 12/15 09:50
zephyrmartin: 蛤?!156F 12/15 09:51
ohlong: 但是上次看新聞連llama都不玩開源了157F 12/15 09:51
jackyd147: 歐應NVDS 財富自由就靠這次158F 12/15 09:52
BlueToast: 散戶這輩子就這樣了159F 12/15 09:52
andy79323: 尼為什麼不問鏟薯條的160F 12/15 09:53
as6633208: 唉,當你覺得計算加速這方面,谷歌做得到而NV做不到時,就離現實很遠惹,之前挖礦熱潮NV就展示過特化計算挖礦的顯卡,後面還鎖挖礦,就輪現在AI加速計算的研發結果,TPU最新的V7還是打不贏NV的gb200就知道計算加速誰是老大了,TPU還捨棄了通用性都打不贏NV的產品==,你現在看到的贏是成本低並不是算力贏,而NV還有gb300,rubin,要是rubin宣布贏過tpu你知道那是算力碾壓嗎,計算加速這塊你覺得NV做不到但事實上產品都是NV贏捏?然後勒,你覺得為什麼谷歌是NV第一大客戶,既然tpu這模猛,計算加速這模強,為啥還跟nv狂買GPU 買到變成第一大客戶,谷歌錢很多,優勢其實是錢啦xD161F 12/15 09:53
windfeather: 現在強的不是TPU,強的是GOOGLE啊173F 12/15 09:57
brightest: 有人要用ai弄一篇gpu吊打的嗎174F 12/15 09:58
hduek153: 看到開頭有點無言了175F 12/15 09:59
qwe78971: 看一半懶得看了 亂講太多 稍微懂技術的都看不下去176F 12/15 10:00
kuan870704: 我居然把這篇文看完了,文筆其實蠻好笑的XD
一堆神奇的形容詞,是在寫小說嗎177F 12/15 10:00
HiHiCano: 早說 你怎麼不早說呢? 不要看到Gemini稍微領先就出來帶風向啊179F 12/15 10:00
riker729: windows 很難推翻在於龐大普通用戶習慣;但ai本來就是新東西,普通用戶只是遠端,廠商要不要換考量的是成本181F 12/15 10:01
HiHiCano: 你真的當砸大錢買GPU領上億薪酬的ai科學家是白癡啊184F 12/15 10:01
utn875: 模型迭代成本低的會贏,那就看TPU的算力成本優勢是否持續185F 12/15 10:01
BC0710: 好險你有把你跟AI討論放在最上面 差點浪費時間187F 12/15 10:02
ojh: 這篇正確 tpu的殺傷力可能直接淘汰gpu188F 12/15 10:02
rancilio: 結論是買台積電就對了189F 12/15 10:02
strlen: AI文你可以推文貼連結 沒人要看190F 12/15 10:04
nidhogg: 前面不是一大串在討論Nested Learning,假設AI的架構都還有可能會大持續翻轉,TPU容易直接廢掉,應該比較沒有彈性。191F 12/15 10:04
newwu: 別再和Gemini AI討論了 你一隻半解的話,他到最後就是順你以為的講,到最後就是和AI一起幻想194F 12/15 10:05
nidhogg: 目前看來有競爭力對手還是只有Google196F 12/15 10:05
josephpu: 這篇證明了ai很強,但不會問問題反而是反效果197F 12/15 10:05
newwu: *一知半解198F 12/15 10:07
jickey: 分析得很好 還不趕快槓桿開起來空輝達199F 12/15 10:08
chang1248w: 不不不,維護xla生態的不是deepmind200F 12/15 10:08
serpei: 黨99趴習慣以後 剩下1趴已經沒有市佔率了201F 12/15 10:08
yunf: 因爲你不懂所以被他唬好唬滿202F 12/15 10:08
ilGroundhog: 不予評論,你這篇是用AI寫的,跟你之前文筆跟排版完全不同203F 12/15 10:08
pot1234: 講幹話耶,需要光追的話就支援光追,需要雙曲幾何就支援雙曲幾何。整體問題是說NV的GPU你買來就可以train。TPU沒人會裝,所以要給G抽一手,而且model要上傳。但TPU是ai特化(至少他幫不能做branch吧),所以會比較省電。205F 12/15 10:09
as6633208: 但我說實話,谷歌也不是錢多的那個,錢最多的那個其實是馬斯克,他左擁NV硬體成果,右抱谷歌算法成果,最後再加上自己的火箭 機器人和xai技術,創造文明奇210F 12/15 10:09
Enzofulgura: 看起來你比較厲害 那你明天去NV董事會報到叫老黃滾213F 12/15 10:09
as6633208: 蹟,爭什麼混在一起做灑尿牛丸不就好了214F 12/15 10:09
Enzofulgura: 蛋吧215F 12/15 10:09
rebel: 我是支持未來的算法還未知 現在要說NV還是goog贏
我都沒看到有足夠的證據能說服我 所以我兩個都買216F 12/15 10:09
yunf: 就像騙三歲小孩一樣218F 12/15 10:09
as6633208: 薩尿蝦和牛肉丸最終還是要食神混在一起219F 12/15 10:09
chang1248w: LLM唬爛你,你還真信了220F 12/15 10:10
newwu: 你以為股板鄉民會唬爛你,其實AI更會,因為他最會接話,很會迎合,人總是相信自己想相信的221F 12/15 10:11
eineFrage: 蘋果已經展示過軟硬體一把抓的優勢跟低包袱了223F 12/15 10:12
newwu: 要討論這問題,一定要強制他搜尋資料加thinking 但就算這樣也很難避免他唬爛224F 12/15 10:13
windfeather: 我剛剛拿去問GEMINI,他自己就回答
TPU一定勝過GPU就是一個經典的邏輯謬誤
1.過度簡化 AI 競賽  2.忽略 GPU 的發展 等等一堆我不是要說自己的結論是對的,是要說
可以輕易引導AI給予我們預期的答案226F 12/15 10:15
LaLaplace: 看到又一篇,我嚇到趕緊加碼NVDA231F 12/15 10:17
ck960817: 你是不是多軍反串啊?笑死232F 12/15 10:17
tony1010: 安卓跟ios 也沒有誰幹掉誰,市場做大,2者都可以存在好嗎233F 12/15 10:18
mithuang: AI又成功地用一本正經胡說八道的方式,成功地提供滿滿的情緒價值,你現在應該覺得自己超強,全身充滿力量吧!235F 12/15 10:19
tony1010: 如果Ai市場只有現在這樣,其實所有的公司都嚴重高估了238F 12/15 10:19
kuosos520: 比錢多。 NV:你確定?240F 12/15 10:20
jakkx: 1就可以下去了。你應該不知道自己在寫什麼吧
我只要研究第一名的缺點,我改良我就變第一名了
AI真的是工具,能不能成事看人。這篇直接顯示給你看241F 12/15 10:20
papa004: 整個邏輯0分,連CUDA為何存在的價值及意義都不懂!244F 12/15 10:23
AmaneCoco: 社會底層等級的文章245F 12/15 10:24
Roger5566: AI也沒那麼神準 真的那麼厲害可以靠GPT賭球賽了246F 12/15 10:25
jakkx: 一本正經說幹話而人判別不出來就是跟著說幹話247F 12/15 10:25
stanleyiane: 依照老黃不服輸個性 是時候使出反壟斷絕招了248F 12/15 10:26
windfeather: 其實歐盟正在啟動GOOGLE的另一項反壟斷調查
判決成立,GOOGLE會吃一發年營收10%的超級大罰款249F 12/15 10:30
Gipmydanger: z5碳吉某?tpu跟gpu是在增量市場互補不是替代251F 12/15 10:30
ejnfu: 股版進化到AI做股票了
兩個都買不就好了 XD252F 12/15 10:32
LipaCat5566: 前提是TPU真的是最適合模型晶片才會發生CPU/GPU這種運算繪圖兩者分開現象  而且TPU必須兼容未來AI架構改變254F 12/15 10:32
clusis: 結果Linux 輸了257F 12/15 10:34
marojack: 話是說文主不知道知道不知道現在的訓練還是H100和H200 因為現在說的那些新儀器都是等出貨中還沒完全上線 而且核心還是軟體還要優化258F 12/15 10:34
as6633208: 我只能說,馬斯克坐收漁翁之利,有一個自己的火箭公司,又有機器人和自駕,又有錢,NV的硬體成果買來,谷歌的算法成果也買來,NV是薩尿蝦,谷歌是牛肉丸,馬斯克來把兩邊買來改良成灑尿牛丸,嘻嘻261F 12/15 10:35
marojack: 現在的問題還是產能跟不上需求265F 12/15 10:35
jakkx: 耐著性子看下去發現真的是浪費時間。所以它已經先預266F 12/15 10:35
marojack: 而且電不夠和記憶體不夠快267F 12/15 10:35
jakkx: 設TPU對AI適性最強。這點請先去翻翻這兩個的差異好268F 12/15 10:35

GPU在圖像處理打敗CPU
就是因為相對CPU
GPU是專門處理圖像的ASIC

GPGPU 就是這個ASIC加上CUDA

目前幾乎就是當初CPU跟GPU之爭時
誰贏誰輸的問題
GPGPU 目前也是轉往AI特化處理
但是他還要兼顧CUDA,向後兼容

這在剛開始導入時是優勢
在被追平後就無法追上TPU了

CUDA在開發者生態是優勢也是劣勢
優勢是大家都是用GPU
劣勢是大家的演算法也被GPU+CUDA綁死

這個優勢在TPU模型追上時會被抹平
劣勢會在之後的加速進化路徑被顯現出來


※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 10:47:25
jakkx: 嗎?你在問問題的時候已經幫AI假設了不少前提了吧269F 12/15 10:36
ckpetercheng: 我也覺得TPU在ai會幹爛GPU 但原因是google有能力打造完整生態270F 12/15 10:37
zuhuei: 問個ai就上來發文 跟自己google完還是更早雅虎貼知識家的發文上來差在哪272F 12/15 10:37
LipaCat5566: 這跟視窗和企鵝還有x86/arm問題本質不同 這比較像以前CPU/GPU各自專業化後分家 以後電腦有可能是CPU/GPU/TPU274F 12/15 10:37
jakkx: 這已經不是邏輯框架的問題而是GIGO(垃圾進垃圾出277F 12/15 10:37
donkilu: 這篇真的很AI XDDDDDDDDDDDDDDD278F 12/15 10:41
fewhy: 通用有通用的好處,不是你說TPU"專用”就好,專用才真的沒彈性279F 12/15 10:43
Raimu: 以後會不會都是AI跟AI在筆戰R281F 12/15 10:44
GingFreecss: 閱282F 12/15 10:45
newwu: 別說發文了,連推文都一堆看起來是AI體的283F 12/15 10:45
jakkx: 會啊。然後第三者一看就知道這些AI使用者有沒有料284F 12/15 10:46
gooddogleg: 講那麼多..空單拿出285F 12/15 10:46
fgkor123: 頭幹到吧,並行發展而已286F 12/15 10:47
book7: 說這麼多 all inGOOG就好了287F 12/15 10:48
tim855042: 現在問ai都能發文 真的快笑死288F 12/15 10:49
jakkx: 追上什麼?所以TPU可以自行進化?專用的變成沒有包289F 12/15 10:50
s960908: 帶著你的ai廢文離開這個星球謝謝290F 12/15 10:51
jakkx: 袱了?你現在到底知不知道專用是什麼意思?291F 12/15 10:51
iceyeman: 印象是GPU訓練框架TPU推理些許延伸 最簡單就是TPU跑圖超快 單一特化就是了292F 12/15 10:51
dummy003: 主機大戰時的廠商be like:294F 12/15 10:51
losage: 一堆ai廢文…295F 12/15 10:52
jakkx: 前提是什麼你整個弄清楚再去問一次296F 12/15 10:52
Busufu: 一看就外行講屁話 你真的寫過cuda?297F 12/15 10:52
losage: Ai不會思考,你自己都不思考了,產出當然廢文298F 12/15 10:52
dummy003: 補噓299F 12/15 10:53
maxangel: ASIC這麼多年也沒幹爆做CPU的intel300F 12/15 10:54

CPU從圖像處理退下來了
GPU會不會也從AI運算退下來?
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 10:55:40
maxangel: 不要覺得用AI去問AI就是專業 這是GIGO301F 12/15 10:54
windfeather: 你就是塞了錯誤或過度極端的前提302F 12/15 10:55
guardian93: 當你的tpu晶片還停留在3奈米時,GPU已經跑到埃米領域了,到時候還能比較?303F 12/15 10:55
windfeather: 才會讓AI導出極端的答案305F 12/15 10:56
Dusha: 這邏輯 XDDDDD306F 12/15 10:56
doubleyellow: 相信黃董,年底就懂!307F 12/15 10:56
windfeather: 因為你直接預設放大TPU的優勢,無視GPU的優勢
然後又預設了其實尚未確定的情境308F 12/15 10:56
jakkx: 這篇真的直接教人沒腦用不會有好結果。再直接不過310F 12/15 10:57
windfeather: 才會讓AI順著你的邏輯,導出了你想要的答案311F 12/15 10:57
appledick: 不要再嘴什麼TPU了啦,沒有什麼屌打GPU啦312F 12/15 10:57
jakkx: 該看的書還是要看,這點在AI時代不會變313F 12/15 10:57
leeroy277: gpu打開fp4314F 12/15 10:57
followwar: …315F 12/15 10:58
LipaCat5566: 現在關鍵是非transformer模型還太弱 要分家要先出現通用TPU還有一個專門優化的模型架構316F 12/15 10:58
mithuang: 演算法被綁死明明就TPU的劣勢,反倒講成GPU的劣勢~神了318F 12/15 10:58
as6633208: 然而TPU這麼特化,算力還是沒超過gb200,而輝達還有gb300,Rubin 也開始要做了,吹得這麼用力結果都輸給NV的產品。吹到計算加速這領域只有谷歌TPU做得到,而NV GPU做不到,但從產品結果來看NV的產品算力卻明顯比較強耶?怎麼了320F 12/15 10:59
marojack: 我就問你一個問題
假設你是使用iphone 現在要轉安卓 裡面有2T的資料iphone 無縫接軌 換手機就行了 你要轉安卓你會怎麼325F 12/15 10:59
appledick: G奶屌打估計是Deepmind的演算法突破啦 用GPU跟TPU都嘛一樣,媒體一直嘴TPU只是有比較多新題材可以炒329F 12/15 11:00
mithuang: AI很會從提問中知道你想要的是什麼答案,你要什麼他就餵什麼331F 12/15 11:00
marojack: 大概只有完全沒有資料的新創公司才會直接支援TPU
其他為了通用性會直接用GPU
光是轉資料就玩死一堆工程師了333F 12/15 11:00
Vincent8026: 以後混和模型啦336F 12/15 11:02
appledick: 真以為其它家用TPU就屌炸天喔,沒演算法突破都是甲賽而已337F 12/15 11:02
bell1708: 30年前也一堆人喊Linus會取代windows既視感339F 12/15 11:02
marojack: 很明顯就是華西街要騙票啊 這幾天所有的壞消息都出來了
這輪一定一堆被洗出去340F 12/15 11:03
kuan870704: 原po看起來不是反串欸,ai真的害人不淺XD343F 12/15 11:04
fallinlove15: 光網路資源就差很多了 沒家底誰敢用TPU344F 12/15 11:05
as6633208: 重點是講的多神結果產品算力根本沒超過xD 老哥,你在計算加速領域捧谷歌踩NV,但你捧的谷歌卻一直跟NV買GPU買到變成第一大客戶欸,不覺得很神奇ㄇ345F 12/15 11:06
fallinlove15: 我公司用了一堆google產品 最常發生的是他後來不支援了 最大的災難就是32轉64那波 這種如果後來做不起來 我只能說保重
他是一種可能 但風險和成本大多了348F 12/15 11:06
kuan870704: Intel當初的晶圓廠也是專門為了intel cpu而生的,結果呢352F 12/15 11:08
fallinlove15: 我覺得輝達未來沒什麼問題 但他的估值的確偏高 回調很正常 不要因為跌就去唱衰354F 12/15 11:08
marojack: 最後大家一定會開始鎖資料356F 12/15 11:08
lusifa2007: 空單亮出來 不要光嘴炮357F 12/15 11:10
jakkx: TPU是一定會吃市佔且愈來愈大,它的優點就在那邊358F 12/15 11:10
fallinlove15: 實際上這些底層硬體設計產業連美國市場都不能養幾間 太燒錢了 要百花齊放更是不可能 舉例來說作業系統 以前每過一段時間就吹一下 然後呢 市面上常見的也是那幾間大的 因為維護成本太高了啊359F 12/15 11:11
foolwind: 用AI表達 看都不用看363F 12/15 11:11
jakkx: 但現在AI市場多大還未可知,談會變怎樣還遠的很364F 12/15 11:11
fallinlove15: TPU谷歌養得起 但要成為主流很難 畢竟谷歌可沒輝達懂其他底層的技術 調整算法很難比別人從硬體動手快 我開發要懂一堆底層 還是找那個最好改的平台 這也是成本阿365F 12/15 11:13
peterturtle: 寫程式有個原則,不要過早最佳化
是遲早要做沒錯,但不該太早做
硬體最佳化是已經開始變現要生產固定商品的時候才做的,不是開發階段369F 12/15 11:13
chaohsiung: 這篇直接證明Gemini沒有料373F 12/15 11:16
jakkx: 這如果證明Gemini沒料的話ai就沒料了哦。Copilot後面就是openai374F 12/15 11:17
as6633208: TPU最新V7算力只能接近gb200,NV還有GB300甚至要開始搞rubin,產品算力輸nv的gpu,通用性也輸NV的gpu,呃,你知道要是下一代Rubin說效率贏TPU,你知道這GPU算力不知道會碾壓TPU幾倍嗎?NV的產品還贏通用性。計算加速領域,捧谷歌採NV,但兩個產品攤開來表現,卻完全不是你吹的這麼一回事,然後谷歌而也是NV第376F 12/15 11:19
luke0407123: 我只相信老黃說的 通用性碾壓專用性 嘻嘻382F 12/15 11:19
as6633208: 一大客戶,奇怪捏?心中計算加速這麼頂的谷歌,TPU這麼屌的谷歌,為什麼還狂花錢買NV最新的GPU?花一堆錢買到變第一大客戶,谷歌在顧慮什摸QQ?383F 12/15 11:19
papa004: 你這篇文章及在留言區的回文,充分顯示你的無知而不自知!386F 12/15 11:22
macetyl: 除非google 能把市場全吃了或是提供解決方案給其他公司,不然沒用,沒人會投資買一堆tpu
太早鎖定規格的案例 都是失敗收場388F 12/15 11:22
fallinlove15: 實驗性產品吧 給老黃點壓力也好 不然賣那麼貴391F 12/15 11:23
windfeather: 正常使用AI,即使是GEMINI也不會給出392F 12/15 11:24
macetyl: 不過google 有本錢燒就是 但不代表會取代nv393F 12/15 11:24
jasperhai: 後面有點胡扯 圖表也大有問題啊lol394F 12/15 11:24
windfeather: 那麼強烈、肯定的口吻與結論
可見原po為了怎樣的預設資訊與條件
餵了395F 12/15 11:24
we147121: 讚欸,我買NVDA398F 12/15 11:24
windfeather: 才會讓AI為了迎合原PO預期,給出那樣的結論399F 12/15 11:25
jasperhai: 部分論點我支持 但論證胡扯一通 圖畫的像是小朋友400F 12/15 11:25
fay001: 笑死了,對於這種預測或是沒有標準答案的事情,ai只會順著使用者說的話回答而已啦401F 12/15 11:26
j23932: 股版好人真的多403F 12/15 11:28
windfeather: 最好笑的是,如果拿去問GEMINI404F 12/15 11:28

--