※ 本文轉寄自 ptt.cc 更新時間: 2025-12-15 11:30:28
看板 Stock
作者 標題 Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引
時間 Mon Dec 15 08:57:59 2025
直接說結論:TPU 將以肉眼可見的速度打敗 GPU
這是昨晚與Gemini 3 pro 跟Copilot 一起討論得出的結論
Why?
大家都在談 NVIDIA 的護城河有多深,CUDA 生態系有多無敵。 但這個所謂的
「護城河」,正在變成 NVIDIA 最大的「沈沒成本」。
TPU 不僅會追上 GPU,而且將以肉眼可見的速度,把差距越拉越遠。
以下是邏輯核心
1. 演算法被 GPU「鎖死」了,這反而成了 TPU 的護身符 市場上最大的迷思是:「買
GPU 安全,因為演算法會變,專用的 TPU 風險大。」 錯,大錯特錯。
現實是,全世界 99% 的 AI 演算法都是基於 GPU 架構開發的。這導致了一個結果:任
何 GPU 跑不動的演算法,在學術界根本活不下來。 換句話說,GPU 的硬體極限,其實已
經鎖死了演算法的變異範圍。
這對 TPU 意味著什麼? 意味著 TPU 根本不需要擔心「明天演算法突變導致晶片變廢鐵
」,因為 GPU 自己也跑不了那些突變。 TPU 只要針對這個「被 GPU 框住的範圍」進行
極致優化,它就是絕對安全的。
」,因為 GPU 自己也跑不了那些突變。 TPU 只要針對這個「被 GPU 框住的範圍」進行
極致優化,它就是絕對安全的。
2. 重新定義 GPU:它就是「ASIC + 沉重的 CUDA 包袱」 如果我們剝開行銷話術,從本
質看硬體:
TPU = 為了當前 AI 數學邏輯量身打造的「全自動產線」。
GPU = 為了相容過去十年所有軟體、保留圖形渲染、硬塞了 CUDA 兼容層的「改裝工廠
」。
NVIDIA 為了維持「高彈性」和「通用性」,每一代晶片都必須背著巨大的歷史包袱(
Legacy)。晶片裡有 30%~40% 的電路在跑 AI 時是空轉浪費的(Dark Silicon)。
3. 黃金交叉點已經出現:加速度的開始 我們定義的「打平」,是指模型表現(Gemini
vs. GPT-5)。 Google 已經證明:用純 TPU 練出來的模型,聰明程度完全不輸 GPU。
就在打平的這一刻起,勝負已定。 為什麼?因為接下來比的是「加速度」:
vs. GPT-5)。 Google 已經證明:用純 TPU 練出來的模型,聰明程度完全不輸 GPU。
就在打平的這一刻起,勝負已定。 為什麼?因為接下來比的是「加速度」:
GPU 的進化 (線性):NVIDIA 下一代晶片想變強,還得顧慮幾百萬開發者的舊程式能不能
跑,還得保留通用電路。它是在「負重前行」。
TPU 的進化 (指數):Google 自產自銷,沒有包袱。演算法團隊 (DeepMind) 需要什麼,
硬體團隊就加什麼;不需要什麼,下一代直接砍掉。它是在「輕裝上陣」。
雖然NVIDIA 仍在快速「專用化」(並非只有通用性),但是需要顧及所有CUDA使用者的
迭代設計,仍比TPU要困難的多
4. 結論:從領先到看不見車尾燈 這是一場「全副武裝的越野車 (GPU)」與「極致輕量
化的 F1 賽車 (TPU)」的比賽。 當賽道狀況不明(演算法混亂期)時,越野車贏了。
化的 F1 賽車 (TPU)」的比賽。 當賽道狀況不明(演算法混亂期)時,越野車贏了。
但現在賽道已經確定是柏油路(演算法被鎖定)了,且兩者已經並排(模型能力打平)。
接下來發生什麼事,物理定律已經告訴你了。 F1 賽車會利用極致的推重比(
Power-to-Weight Ratio),在直線加速道上瞬間拉開距離。
未來兩三年,你會看到 Google 的運算成本以驚人的速度下降,而依賴 GPU 的陣營將會
發現,不管怎麼堆疊 H100/B200,成本結構都遠遠追不上那條軟硬一體的曲線。
如果真的要談演算法的「異變」,TPU 有能力為了新數學(如雙曲幾何)直接修改硬體
,演化出「火箭」直接升空。 而 ASIC + CUDA 的極限,充其量只能改裝成一台更快的
越野車,永遠離不開地面。
,演化出「火箭」直接升空。 而 ASIC + CUDA 的極限,充其量只能改裝成一台更快的
越野車,永遠離不開地面。
GPU 的「通用性」,曾經是它的王牌,現在變成了它的墓誌銘。
Copilot 甚至畫出TPU 在模型表現一但與GPU表現持平之後,將以指數級超越GPU
因為打平之後接下來創新的速度,TPU是沒有極限的,而GPU則是需要顧到CUDA的使用者
,只能線性成長
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 210.61.204.13 (臺灣)
※ 作者: breathair 2025-12-15 08:57:59
※ 文章代碼(AID): #1fFrqPkr (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765760281.A.BB5.html
※ 同主題文章:
11-26 09:36 ■ Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引
● 12-15 08:57 ■ Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引
推 : 鄉民:你比老黃懂GPU1F 12/15 09:00
→ : 坐等 NV 滿手鄉民抵達現場
→ : 坐等 NV 滿手鄉民抵達現場
推 : 整篇都很ChatGPT 情緒價值拉的很滿 但是邏輯錯誤3F 12/15 09:02
不是喔,Gemini 主筆
是我要他用比較有張力的寫法
Copilot 驗證(還幫我畫圖表)
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:03:27
推 : 情緒價值XDD4F 12/15 09:02
推 : 某天教主跳出來說出清NV 然後說他換到Google5F 12/15 09:02
推 : 老黃:看來我該讓腎了6F 12/15 09:03
![[圖]](https://imgur.disp.cc/Ew/6DH7nC5.jpeg)
![[圖]](https://imgur.disp.cc/Ew/PGJBsVD.jpeg)
推 : 欸不是 好歹你也反駁一下邏輯沒有錯...9F 12/15 09:05
展開說說?願聞高見
→ : 怎麼是反駁"不是ChatGPT"...10F 12/15 09:05
推 : windows跟linux 表示11F 12/15 09:05
→ : 你裡面的論點讓我想起這個
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:06:49→ : 你裡面的論點讓我想起這個
推 : 不是說人家錯的人要指出人家錯在哪裡嗎13F 12/15 09:06
推 : 這篇超好笑XDD14F 12/15 09:07
→ : aI時代人人都可以高談闊論15F 12/15 09:09
→ : 真的很有Linux會幹趴windows的既視感......16F 12/15 09:09
→ : 當每日任務刷逆?17F 12/15 09:10
→ : 喔對啊 巫毒卡想必是會取代cpu 的對嗎18F 12/15 09:11
推 : 別人可以用Gemini跟Copilot得出跟你相反的結論 這就19F 12/15 09:11
推 : 聽起來在反串20F 12/15 09:11
→ : 是AI給的情緒價值21F 12/15 09:11
推 : AI就是會講你想聽的答案 還冠冕堂皇22F 12/15 09:11
→ : 但未來大家都不知道 每日都在變動的事
→ : 但未來大家都不知道 每日都在變動的事
推 : Google可以結合本身產品線,應用無限可期24F 12/15 09:12
→ : 可能一覺睡醒就被推翻 還是等子彈飛吧25F 12/15 09:12
推 : 把名子換成arm vs cpu,大該有一半的論述是重復的;26F 12/15 09:12
→ : 然後事實上兩者在各自領域活的好好的
→ : 然後事實上兩者在各自領域活的好好的
對,你說對了
GPU比CPU 更適合繪圖
TPU比GPU更適合AI模型
CPU跟GPU跟TPU會一直活著
但TPU會佔據AI賽道
因為他不是通用的
推 : google手機搞不好都有可能取代iphone28F 12/15 09:13
→ : 看apple要不要找個AI合作
→ : 看apple要不要找個AI合作
推 : 這篇不就標準的Hallucination30F 12/15 09:16
→ : 現在根本是華西街為了撿便宜貨在製造恐慌31F 12/15 09:16
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 09:17:56推 : 晶片變廢鐵32F 12/15 09:16
推 : 反串給推33F 12/15 09:16
推 : 怎麼我聽到的是這一代gpu 還沒發力 然後老黃迭代的34F 12/15 09:17
→ : 速度很快
→ : 速度很快
→ : 反正到時候就知道了 如果我的推論沒錯的話36F 12/15 09:17
→ : NVDA還是會是王者 已經弄出錢準備加碼
→ : NVDA還是會是王者 已經弄出錢準備加碼
噓 : 應該是不知道輝達的CPX會跟Rubin一起出吧…38F 12/15 09:18
推 : ???39F 12/15 09:18
→ : H200還是會持續用一段時間的 參數的調教和軟體調教40F 12/15 09:18
→ : 可不是你想的這麼簡單
→ : 可不是你想的這麼簡單
噓 : 好險把結論打在第一行 不用浪費時間直接end42F 12/15 09:18
→ : 架構在不一樣的平台,是在比什麼?43F 12/15 09:18
→ : 已經準備好抄那些被恐慌的人的貨了44F 12/15 09:19
→ : 我信你了 全力放空達子 股版鄉民才是AI專家45F 12/15 09:20
推 : 我不會說GPU穩定,但你直接決定TPU獲勝還滿好笑的46F 12/15 09:20
這是邏輯
通用型的加速度就不可能贏過專用型
現在已經打平,未來幾乎不存在通用型趕超專用型的可能
→ : AI廢文47F 12/15 09:20
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:22:18推 : TPU橫空出世就贏多年經營的GPU+CUDA平台 你能說服你48F 12/15 09:20
→ : 自己嗎
→ : 自己嗎
→ : 當你對AI的內容沒有絕對的判別能力的時候 還是不要50F 12/15 09:20
→ : 這麼厲害,怎麼幾年前全世界的專家不懂得壓TPU51F 12/15 09:20
→ : 難道全世界的專家真的都比不上AI問答的眼光嗎?
→ : 難道全世界的專家真的都比不上AI問答的眼光嗎?
→ : 太盲目相信他給出的結論 AI幻覺很嚴重53F 12/15 09:21
→ : Nv怎麼動搖?Google 又不是純靠tpu 才有gemini 的54F 12/15 09:22
→ : ,但open ai 是真的危險
→ : ,但open ai 是真的危險
推 : TPU壯膽蛙== TPU v7算力連gb200都還打不贏@@ 輝達都56F 12/15 09:23
→ : gb300了,下一代還有rubin,計算通用性還贏TPU,不
→ : gb300了,下一代還有rubin,計算通用性還贏TPU,不
推 : TPU才剛出茅廬,就飄了,自我感覺良好58F 12/15 09:23
→ : 過沒差,谷歌也是輝達第一大客戶,欸?為什麼捏?為59F 12/15 09:23
→ : 跟ai討論的當真理..60F 12/15 09:23
→ : 什麼谷歌不專心多自己的TPU就好了捏?谷歌在顧慮什61F 12/15 09:23
推 : 9801跟ibm 的戰爭後來 ibm 贏了62F 12/15 09:23
→ : 麼捏?我就說谷歌錢很多,不用怕喔,就算砸錢之後,63F 12/15 09:23
→ : 結果開發出顛覆算法的是我們gpt之父Ilya Sutskever
→ : 的公司,畢竟Gemini 3 也是學他的很正常,因為不是
→ : 狗家開發的完全用不上tpu,舊的tpu直接廢掉,谷歌也
→ : 沒差,你錢很多再繼續砸錢買gpu,再繼續研發就好了
→ : 啊
→ : 結果開發出顛覆算法的是我們gpt之父Ilya Sutskever
→ : 的公司,畢竟Gemini 3 也是學他的很正常,因為不是
→ : 狗家開發的完全用不上tpu,舊的tpu直接廢掉,谷歌也
→ : 沒差,你錢很多再繼續砸錢買gpu,再繼續研發就好了
→ : 啊
真正的邏輯是
GPU+CUDA再怎麼改變算法,他依然只能在GPU+CUDA裡跑
超出這個限制GPU做不到,所以TPU是安全的,TPU做不到GPU也做不到
而當TPU趕超GPU的模型時,專用型的優勢(加速度),就比通用型的要顯現出來了
推 : 然後真的有些人不知道GOOGLE也需要GPU耶69F 12/15 09:23
推 : 然後產業界也不是大家悶著頭作自己的 開下一代晶片70F 12/15 09:23
→ : 一定是跟客戶討論過 畢竟這麼多錢 在上下遊
→ : 一定是跟客戶討論過 畢竟這麼多錢 在上下遊
→ : 你光是要把所有現有資料轉到TPU運作你就知道不可能72F 12/15 09:24
→ : 了 重點還要轉碼解BUG
→ : 而且博通財報你去看看 他們說TPU只是客戶的一個方
→ : 案而已
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:29:02→ : 了 重點還要轉碼解BUG
→ : 而且博通財報你去看看 他們說TPU只是客戶的一個方
→ : 案而已
→ : 這波過度神話TPU的程度,比這幾年神話OAI更扯76F 12/15 09:25
→ : 主要為降低成本 加速效率77F 12/15 09:25
→ : 那應該瘋狂做空NVDA啊78F 12/15 09:25
→ : 根本無法取代GPU79F 12/15 09:25
→ : 核心還是在GPU上
→ : 核心還是在GPU上
推 : 你問chatgpt intel 能不能打贏nvidia81F 12/15 09:26
推 : Google不是也在買GPU嗎? 這個報導是??82F 12/15 09:27
推 : 你換個問法他會給你不同的邏輯83F 12/15 09:27
噓 : 講半天沒重點沒單 到底是要供啥洨?84F 12/15 09:27
推 : 你要不要換個問法?倒過來問85F 12/15 09:27
推 : 我看到先說結論就下拉了86F 12/15 09:28
→ : 還有你可能不知道 顯示卡有個分支叫做繪圖卡87F 12/15 09:28
→ : 就是拔掉所有遊戲用的單元直接專用繪圖
→ : 就是拔掉所有遊戲用的單元直接專用繪圖
推 : 另外AI是會順著提問者的邏輯去發展的89F 12/15 09:29
→ : 沒有辦法給予真正有變數與思辨性的問題
→ : 沒有辦法給予真正有變數與思辨性的問題
→ : NVDA 要的話這點也做的到喔91F 12/15 09:29
→ : AI常常只會給出預期內的答案92F 12/15 09:29
他是順著你的邏輯講的沒錯,但首先他會先驗證你的邏輯
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:30:20
→ : Ai要對話 我是會加上盲點偵測93F 12/15 09:30
→ : 光是把這陣子板上對於TPU和GPU各自優勢拿去討論94F 12/15 09:30
→ : 可能會得出完全不一樣的答案
→ : 可能會得出完全不一樣的答案
噓 : 看到前兩句就可以end了96F 12/15 09:30
推 : 路徑依賴的怎解? 你看看你自己怎麼打字的97F 12/15 09:31
路徑依賴在GPU領先時,CUDA有明顯的優勢
當TPU訓練的模型打平時,單純依賴GPU+CUDA反而會變成劣勢
Antropic 跟OpenAI 對GPU的修改建議本身就不可能相同
NV要顧及這些大客戶,要顧及向後兼容,這本身進化的"加速度"就會被牽制住
往前看,TPU的進化速度比GPU要快的多的多
→ : 所以nv不能開發專用硬體嗎98F 12/15 09:32
推 : 任何反駁再丟給ai反駁,又是一篇,你怎麼鬥XD99F 12/15 09:33
推 : 那個w開頭的谷歌蛙都沒你這麼敢吹差滴滴100F 12/15 09:33
※ 編輯: breathair (210.61.204.13 臺灣), 12/15/2025 09:37:17→ : 看完這篇文章的心得是AI真的會讓人變笨失去思考能101F 12/15 09:35
→ : 力
→ : 力
推 : TPU就是為了喝牛奶蓋了一個農場和請了一堆員工 GPU103F 12/15 09:36
→ : 比較像是大賣場
→ : 比較像是大賣場
噓 : 這篇是不是AI寫的阿 怎那麼多無意義的英文105F 12/15 09:36
噓 : 狗屁106F 12/15 09:37
噓 : NVDA跟一堆公司合作 就是知道目前發展方向仍不清楚107F 12/15 09:38
推 : 這種事實是否真確真還得專業人士討論108F 12/15 09:38
推 : Apple找誰合作都沒用 前提是他的權限要開放 一樣把S109F 12/15 09:39
→ : iri 鎖在低能狀態也沒用啊
→ : iri 鎖在低能狀態也沒用啊
噓 : 鬧板不是要水桶嗎111F 12/15 09:40
→ : 不管你的AI嗑了什麼都給我來一點112F 12/15 09:40
→ : 拿問題去問問題的題庫 你真是高手113F 12/15 09:40
→ : 最近蠻多人產生這種偏誤的
→ : 最近蠻多人產生這種偏誤的
推 : 這論點我同意但TPU門檻高很多 一般沒有g一樣實力115F 12/15 09:40
→ : 要拿來做一些應用一定直接買鏟子 nv最後還是能贏在
→ : 長尾效應
→ : 要拿來做一些應用一定直接買鏟子 nv最後還是能贏在
→ : 長尾效應
噓 : 講半天手上沒半股在大談什麼118F 12/15 09:41
推 : 另外先不說這篇完全是預定後續環境生態沒有大變化119F 12/15 09:41
噓 : NVDA沒你想的那麼一成不變 TPU也只適用特殊用途120F 12/15 09:41
→ : 你如果在論述裡面沒加入1.盲點偵測2.分步分析3.多121F 12/15 09:42
→ : 角度方案 4.時間搓印 5.引用來源 6.資料來源不清楚
→ : 要說明這些內容的話 我都當作是亂說的
→ : 角度方案 4.時間搓印 5.引用來源 6.資料來源不清楚
→ : 要說明這些內容的話 我都當作是亂說的
→ : TPU現在看似好用那是GOOGLE專武124F 12/15 09:42
→ : 說真的那不是TPU強,而是GOOGLE生態強
→ : 但連GOOGLE也不敢說自己在AI競爭勝利了
→ : 說真的那不是TPU強,而是GOOGLE生態強
→ : 但連GOOGLE也不敢說自己在AI競爭勝利了
→ : 光是沒有時間搓印就知道撈到的資料多混亂了127F 12/15 09:43
推 : 又是AI文 一堆形容詞堆起來 笑死128F 12/15 09:44
推 : 這讓我想到的Xbox粉說Game pass會改變遊戲生態,訂129F 12/15 09:44
→ : 閱才是王道,PS5等著吃屎
→ : 閱才是王道,PS5等著吃屎
噓 : 嗯... 文組嗎?131F 12/15 09:44
噓 : 什麼廢文...132F 12/15 09:45
噓 : 供三小133F 12/15 09:46
→ : 你知道歷史上也有過一次CPU 和ASIC之爭,最後勝出的134F 12/15 09:46
→ : 是CPU嗎
→ : 是CPU嗎
噓 : 有夠可憐,這個世界只需要訓練不用應用136F 12/15 09:47
推 : 好了啦N黑 輝達蛙一股不退137F 12/15 09:47
→ : Ai幻覺是真的很嚴重 大概第五輪對話就有問題了138F 12/15 09:47
噓 : 87139F 12/15 09:47
噓 : 現在隨便一個人跟AI聊聊就可以發文了140F 12/15 09:48
噓 : 簡單說就是各有各的用處而已 我看到笑出來141F 12/15 09:48
推 : 我的男村民正在城鎮中心上女村民 nv投降了142F 12/15 09:48
→ : 太棒了 這樣顯卡可以降價嗎143F 12/15 09:48
噓 : 結論 肉眼可見的速度...提供一下大概何時 既然都肉144F 12/15 09:48
→ : 眼可見了!還是結論是假的
→ : 眼可見了!還是結論是假的
噓 : 你以為企業轉移的成本是今天下單明天就上線484146F 12/15 09:49
噓 : ..147F 12/15 09:49
推 : 以後的世界就是一群傻屌在網路上拿ai回的內容在互148F 12/15 09:50
→ : 相吵架,然後真正的知識份子講的話會沒有人相信
→ : 相吵架,然後真正的知識份子講的話會沒有人相信
推 : 除非哪天g開放一堆類似客製化的工具跟開源部分mod150F 12/15 09:50
→ : el讓你使用 那就難講了 我拿著TPU做出來的食材加自
→ : 己的醬料 何必買鏟子
→ : el讓你使用 那就難講了 我拿著TPU做出來的食材加自
→ : 己的醬料 何必買鏟子
推 : Gemini當然說自家的好,老王賣瓜自賣自誇,你有想過153F 12/15 09:50
→ : 這個問題嗎?
→ : 這個問題嗎?
噓 : 1跟2有矛盾 TPU能涵蓋GPU範圍又沒有CUDA包袱 在說啥155F 12/15 09:50
噓 : 蛤?!156F 12/15 09:51
→ : 但是上次看新聞連llama都不玩開源了157F 12/15 09:51
噓 : 歐應NVDS 財富自由就靠這次158F 12/15 09:52
噓 : 散戶這輩子就這樣了159F 12/15 09:52
噓 : 尼為什麼不問鏟薯條的160F 12/15 09:53
推 : 唉,當你覺得計算加速這方面,谷歌做得到而NV做不到161F 12/15 09:53
→ : 時,就離現實很遠惹,之前挖礦熱潮NV就展示過特化計
→ : 算挖礦的顯卡,後面還鎖挖礦,就輪現在AI加速計算的
→ : 研發結果,TPU最新的V7還是打不贏NV的gb200就知道計
→ : 算加速誰是老大了,TPU還捨棄了通用性都打不贏NV的
→ : 產品==,你現在看到的贏是成本低並不是算力贏,而NV
→ : 還有gb300,rubin,要是rubin宣布贏過tpu你知道那是
→ : 算力碾壓嗎,計算加速這塊你覺得NV做不到但事實上產
→ : 品都是NV贏捏?然後勒,你覺得為什麼谷歌是NV第一大
→ : 客戶,既然tpu這模猛,計算加速這模強,為啥還跟nv
→ : 狂買GPU 買到變成第一大客戶,谷歌錢很多,優勢其實
→ : 是錢啦xD
→ : 時,就離現實很遠惹,之前挖礦熱潮NV就展示過特化計
→ : 算挖礦的顯卡,後面還鎖挖礦,就輪現在AI加速計算的
→ : 研發結果,TPU最新的V7還是打不贏NV的gb200就知道計
→ : 算加速誰是老大了,TPU還捨棄了通用性都打不贏NV的
→ : 產品==,你現在看到的贏是成本低並不是算力贏,而NV
→ : 還有gb300,rubin,要是rubin宣布贏過tpu你知道那是
→ : 算力碾壓嗎,計算加速這塊你覺得NV做不到但事實上產
→ : 品都是NV贏捏?然後勒,你覺得為什麼谷歌是NV第一大
→ : 客戶,既然tpu這模猛,計算加速這模強,為啥還跟nv
→ : 狂買GPU 買到變成第一大客戶,谷歌錢很多,優勢其實
→ : 是錢啦xD
推 : 現在強的不是TPU,強的是GOOGLE啊173F 12/15 09:57
推 : 有人要用ai弄一篇gpu吊打的嗎174F 12/15 09:58
→ : 看到開頭有點無言了175F 12/15 09:59
噓 : 看一半懶得看了 亂講太多 稍微懂技術的都看不下去176F 12/15 10:00
推 : 我居然把這篇文看完了,文筆其實蠻好笑的XD177F 12/15 10:00
→ : 一堆神奇的形容詞,是在寫小說嗎
→ : 一堆神奇的形容詞,是在寫小說嗎
噓 : 早說 你怎麼不早說呢? 不要看到Gemini稍微領先就出179F 12/15 10:00
→ : 來帶風向啊
→ : 來帶風向啊
推 : windows 很難推翻在於龐大普通用戶習慣;但ai本來就181F 12/15 10:01
→ : 是新東西,普通用戶只是遠端,廠商要不要換考量的是
→ : 成本
→ : 是新東西,普通用戶只是遠端,廠商要不要換考量的是
→ : 成本
→ : 你真的當砸大錢買GPU領上億薪酬的ai科學家是白癡啊184F 12/15 10:01
推 : 模型迭代成本低的會贏,那就看TPU的算力成本優勢是185F 12/15 10:01
→ : 否持續
→ : 否持續
推 : 好險你有把你跟AI討論放在最上面 差點浪費時間187F 12/15 10:02
→ : 這篇正確 tpu的殺傷力可能直接淘汰gpu188F 12/15 10:02
推 : 結論是買台積電就對了189F 12/15 10:02
噓 : AI文你可以推文貼連結 沒人要看190F 12/15 10:04
噓 : 前面不是一大串在討論Nested Learning,假設AI的架191F 12/15 10:04
→ : 構都還有可能會大持續翻轉,TPU容易直接廢掉,應該
→ : 比較沒有彈性。
→ : 構都還有可能會大持續翻轉,TPU容易直接廢掉,應該
→ : 比較沒有彈性。
→ : 別再和Gemini AI討論了 你一隻半解的話,他到最後194F 12/15 10:05
→ : 就是順你以為的講,到最後就是和AI一起幻想
→ : 就是順你以為的講,到最後就是和AI一起幻想
→ : 目前看來有競爭力對手還是只有Google196F 12/15 10:05
→ : 這篇證明了ai很強,但不會問問題反而是反效果197F 12/15 10:05
→ : *一知半解198F 12/15 10:07
推 : 分析得很好 還不趕快槓桿開起來空輝達199F 12/15 10:08
→ : 不不不,維護xla生態的不是deepmind200F 12/15 10:08
推 : 黨99趴習慣以後 剩下1趴已經沒有市佔率了201F 12/15 10:08
→ : 因爲你不懂所以被他唬好唬滿202F 12/15 10:08
噓 : 不予評論,你這篇是用AI寫的,跟你之前文筆跟排版203F 12/15 10:08
→ : 完全不同
→ : 完全不同
推 : 講幹話耶,需要光追的話就支援光追,需要雙曲幾何205F 12/15 10:09
→ : 就支援雙曲幾何。整體問題是說NV的GPU你買來就可以
→ : train。TPU沒人會裝,所以要給G抽一手,而且model
→ : 要上傳。但TPU是ai特化(至少他幫不能做branch吧)
→ : ,所以會比較省電。
→ : 就支援雙曲幾何。整體問題是說NV的GPU你買來就可以
→ : train。TPU沒人會裝,所以要給G抽一手,而且model
→ : 要上傳。但TPU是ai特化(至少他幫不能做branch吧)
→ : ,所以會比較省電。
推 : 但我說實話,谷歌也不是錢多的那個,錢最多的那個其210F 12/15 10:09
→ : 實是馬斯克,他左擁NV硬體成果,右抱谷歌算法成果,
→ : 最後再加上自己的火箭 機器人和xai技術,創造文明奇
→ : 實是馬斯克,他左擁NV硬體成果,右抱谷歌算法成果,
→ : 最後再加上自己的火箭 機器人和xai技術,創造文明奇
噓 : 看起來你比較厲害 那你明天去NV董事會報到叫老黃滾213F 12/15 10:09
→ : 蹟,爭什麼混在一起做灑尿牛丸不就好了214F 12/15 10:09
→ : 蛋吧215F 12/15 10:09
推 : 我是支持未來的算法還未知 現在要說NV還是goog贏216F 12/15 10:09
→ : 我都沒看到有足夠的證據能說服我 所以我兩個都買
→ : 我都沒看到有足夠的證據能說服我 所以我兩個都買
→ : 就像騙三歲小孩一樣218F 12/15 10:09
→ : 薩尿蝦和牛肉丸最終還是要食神混在一起219F 12/15 10:09
→ : LLM唬爛你,你還真信了220F 12/15 10:10
→ : 你以為股板鄉民會唬爛你,其實AI更會,因為他最會221F 12/15 10:11
→ : 接話,很會迎合,人總是相信自己想相信的
→ : 接話,很會迎合,人總是相信自己想相信的
推 : 蘋果已經展示過軟硬體一把抓的優勢跟低包袱了223F 12/15 10:12
→ : 要討論這問題,一定要強制他搜尋資料加thinking 但224F 12/15 10:13
→ : 就算這樣也很難避免他唬爛
→ : 就算這樣也很難避免他唬爛
推 : 我剛剛拿去問GEMINI,他自己就回答226F 12/15 10:15
→ : TPU一定勝過GPU就是一個經典的邏輯謬誤
→ : 1.過度簡化 AI 競賽 2.忽略 GPU 的發展 等等一堆
→ : 我不是要說自己的結論是對的,是要說
→ : 可以輕易引導AI給予我們預期的答案
→ : TPU一定勝過GPU就是一個經典的邏輯謬誤
→ : 1.過度簡化 AI 競賽 2.忽略 GPU 的發展 等等一堆
→ : 我不是要說自己的結論是對的,是要說
→ : 可以輕易引導AI給予我們預期的答案
推 : 看到又一篇,我嚇到趕緊加碼NVDA231F 12/15 10:17
推 : 你是不是多軍反串啊?笑死232F 12/15 10:17
→ : 安卓跟ios 也沒有誰幹掉誰,市場做大,2者都可以存233F 12/15 10:18
→ : 在好嗎
→ : 在好嗎
推 : AI又成功地用一本正經胡說八道的方式,成功地提供滿235F 12/15 10:19
→ : 滿的情緒價值,你現在應該覺得自己超強,全身充滿力
→ : 量吧!
→ : 滿的情緒價值,你現在應該覺得自己超強,全身充滿力
→ : 量吧!
→ : 如果Ai市場只有現在這樣,其實所有的公司都嚴重高238F 12/15 10:19
→ : 估了
→ : 估了
推 : 比錢多。 NV:你確定?240F 12/15 10:20
推 : 1就可以下去了。你應該不知道自己在寫什麼吧241F 12/15 10:20
→ : 我只要研究第一名的缺點,我改良我就變第一名了
→ : AI真的是工具,能不能成事看人。這篇直接顯示給你看
→ : 我只要研究第一名的缺點,我改良我就變第一名了
→ : AI真的是工具,能不能成事看人。這篇直接顯示給你看
噓 : 整個邏輯0分,連CUDA為何存在的價值及意義都不懂!244F 12/15 10:23
噓 : 社會底層等級的文章245F 12/15 10:24
推 : AI也沒那麼神準 真的那麼厲害可以靠GPT賭球賽了246F 12/15 10:25
→ : 一本正經說幹話而人判別不出來就是跟著說幹話247F 12/15 10:25
推 : 依照老黃不服輸個性 是時候使出反壟斷絕招了248F 12/15 10:26
推 : 其實歐盟正在啟動GOOGLE的另一項反壟斷調查249F 12/15 10:30
→ : 判決成立,GOOGLE會吃一發年營收10%的超級大罰款
→ : 判決成立,GOOGLE會吃一發年營收10%的超級大罰款
推 : z5碳吉某?tpu跟gpu是在增量市場互補不是替代251F 12/15 10:30
→ : 股版進化到AI做股票了252F 12/15 10:32
→ : 兩個都買不就好了 XD
→ : 兩個都買不就好了 XD
→ : 前提是TPU真的是最適合模型晶片才會發生CPU/GPU這種254F 12/15 10:32
→ : 運算繪圖兩者分開現象 而且TPU必須兼容未來AI架構
→ : 改變
→ : 運算繪圖兩者分開現象 而且TPU必須兼容未來AI架構
→ : 改變
推 : 結果Linux 輸了257F 12/15 10:34
→ : 話是說文主不知道知道不知道現在的訓練還是H100和H258F 12/15 10:34
→ : 200 因為現在說的那些新儀器都是等出貨中還沒完全
→ : 上線 而且核心還是軟體還要優化
→ : 200 因為現在說的那些新儀器都是等出貨中還沒完全
→ : 上線 而且核心還是軟體還要優化
推 : 我只能說,馬斯克坐收漁翁之利,有一個自己的火箭公261F 12/15 10:35
→ : 司,又有機器人和自駕,又有錢,NV的硬體成果買來,
→ : 谷歌的算法成果也買來,NV是薩尿蝦,谷歌是牛肉丸,
→ : 馬斯克來把兩邊買來改良成灑尿牛丸,嘻嘻
→ : 司,又有機器人和自駕,又有錢,NV的硬體成果買來,
→ : 谷歌的算法成果也買來,NV是薩尿蝦,谷歌是牛肉丸,
→ : 馬斯克來把兩邊買來改良成灑尿牛丸,嘻嘻
→ : 現在的問題還是產能跟不上需求265F 12/15 10:35
推 : 耐著性子看下去發現真的是浪費時間。所以它已經先預266F 12/15 10:35
→ : 而且電不夠和記憶體不夠快267F 12/15 10:35
→ : 設TPU對AI適性最強。這點請先去翻翻這兩個的差異好268F 12/15 10:35
GPU在圖像處理打敗CPU
就是因為相對CPU
GPU是專門處理圖像的ASIC
GPGPU 就是這個ASIC加上CUDA
目前幾乎就是當初CPU跟GPU之爭時
誰贏誰輸的問題
GPGPU 目前也是轉往AI特化處理
但是他還要兼顧CUDA,向後兼容
這在剛開始導入時是優勢
在被追平後就無法追上TPU了
CUDA在開發者生態是優勢也是劣勢
優勢是大家都是用GPU
劣勢是大家的演算法也被GPU+CUDA綁死
這個優勢在TPU模型追上時會被抹平
劣勢會在之後的加速進化路徑被顯現出來
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 10:47:25
→ : 嗎?你在問問題的時候已經幫AI假設了不少前提了吧269F 12/15 10:36
推 : 我也覺得TPU在ai會幹爛GPU 但原因是google有能力打270F 12/15 10:37
→ : 造完整生態
→ : 造完整生態
噓 : 問個ai就上來發文 跟自己google完還是更早雅虎貼知272F 12/15 10:37
→ : 識家的發文上來差在哪
→ : 識家的發文上來差在哪
→ : 這跟視窗和企鵝還有x86/arm問題本質不同 這比較像以274F 12/15 10:37
→ : 前CPU/GPU各自專業化後分家 以後電腦有可能是CPU/GP
→ : U/TPU
→ : 前CPU/GPU各自專業化後分家 以後電腦有可能是CPU/GP
→ : U/TPU
→ : 這已經不是邏輯框架的問題而是GIGO(垃圾進垃圾出277F 12/15 10:37
推 : 這篇真的很AI XDDDDDDDDDDDDDDD278F 12/15 10:41
噓 : 通用有通用的好處,不是你說TPU"專用”就好,專用才279F 12/15 10:43
→ : 真的沒彈性
→ : 真的沒彈性
推 : 以後會不會都是AI跟AI在筆戰R281F 12/15 10:44
噓 : 閱282F 12/15 10:45
→ : 別說發文了,連推文都一堆看起來是AI體的283F 12/15 10:45
推 : 會啊。然後第三者一看就知道這些AI使用者有沒有料284F 12/15 10:46
推 : 講那麼多..空單拿出285F 12/15 10:46
推 : 頭幹到吧,並行發展而已286F 12/15 10:47
推 : 說這麼多 all inGOOG就好了287F 12/15 10:48
噓 : 現在問ai都能發文 真的快笑死288F 12/15 10:49
推 : 追上什麼?所以TPU可以自行進化?專用的變成沒有包289F 12/15 10:50
噓 : 帶著你的ai廢文離開這個星球謝謝290F 12/15 10:51
→ : 袱了?你現在到底知不知道專用是什麼意思?291F 12/15 10:51
噓 : 印象是GPU訓練框架TPU推理些許延伸 最簡單就是TPU跑292F 12/15 10:51
→ : 圖超快 單一特化就是了
→ : 圖超快 單一特化就是了
推 : 主機大戰時的廠商be like:294F 12/15 10:51
噓 : 一堆ai廢文…295F 12/15 10:52
→ : 前提是什麼你整個弄清楚再去問一次296F 12/15 10:52
噓 : 一看就外行講屁話 你真的寫過cuda?297F 12/15 10:52
→ : Ai不會思考,你自己都不思考了,產出當然廢文298F 12/15 10:52
噓 : 補噓299F 12/15 10:53
噓 : ASIC這麼多年也沒幹爆做CPU的intel300F 12/15 10:54
CPU從圖像處理退下來了
GPU會不會也從AI運算退下來?
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 10:55:40
→ : 不要覺得用AI去問AI就是專業 這是GIGO301F 12/15 10:54
推 : 你就是塞了錯誤或過度極端的前提302F 12/15 10:55
→ : 當你的tpu晶片還停留在3奈米時,GPU已經跑到埃米領303F 12/15 10:55
→ : 域了,到時候還能比較?
→ : 域了,到時候還能比較?
→ : 才會讓AI導出極端的答案305F 12/15 10:56
噓 : 這邏輯 XDDDDD306F 12/15 10:56
推 : 相信黃董,年底就懂!307F 12/15 10:56
→ : 因為你直接預設放大TPU的優勢,無視GPU的優勢308F 12/15 10:56
→ : 然後又預設了其實尚未確定的情境
→ : 然後又預設了其實尚未確定的情境
推 : 這篇真的直接教人沒腦用不會有好結果。再直接不過310F 12/15 10:57
→ : 才會讓AI順著你的邏輯,導出了你想要的答案311F 12/15 10:57
→ : 不要再嘴什麼TPU了啦,沒有什麼屌打GPU啦312F 12/15 10:57
→ : 該看的書還是要看,這點在AI時代不會變313F 12/15 10:57
→ : gpu打開fp4314F 12/15 10:57
噓 : …315F 12/15 10:58
→ : 現在關鍵是非transformer模型還太弱 要分家要先出現316F 12/15 10:58
→ : 通用TPU還有一個專門優化的模型架構
→ : 通用TPU還有一個專門優化的模型架構
推 : 演算法被綁死明明就TPU的劣勢,反倒講成GPU的劣勢~318F 12/15 10:58
→ : 神了
→ : 神了
推 : 然而TPU這麼特化,算力還是沒超過gb200,而輝達還有320F 12/15 10:59
→ : gb300,Rubin 也開始要做了,吹得這麼用力結果都輸
→ : 給NV的產品。吹到計算加速這領域只有谷歌TPU做得到
→ : ,而NV GPU做不到,但從產品結果來看NV的產品算力卻
→ : 明顯比較強耶?怎麼了
→ : gb300,Rubin 也開始要做了,吹得這麼用力結果都輸
→ : 給NV的產品。吹到計算加速這領域只有谷歌TPU做得到
→ : ,而NV GPU做不到,但從產品結果來看NV的產品算力卻
→ : 明顯比較強耶?怎麼了
→ : 我就問你一個問題325F 12/15 10:59
→ : 假設你是使用iphone 現在要轉安卓 裡面有2T的資料
→ : iphone 無縫接軌 換手機就行了 你要轉安卓你會怎麼
→ : 做
→ : 假設你是使用iphone 現在要轉安卓 裡面有2T的資料
→ : iphone 無縫接軌 換手機就行了 你要轉安卓你會怎麼
→ : 做
→ : G奶屌打估計是Deepmind的演算法突破啦 用GPU跟TPU329F 12/15 11:00
→ : 都嘛一樣,媒體一直嘴TPU只是有比較多新題材可以炒
→ : 都嘛一樣,媒體一直嘴TPU只是有比較多新題材可以炒
→ : AI很會從提問中知道你想要的是什麼答案,你要什麼他331F 12/15 11:00
→ : 就餵什麼
→ : 就餵什麼
→ : 大概只有完全沒有資料的新創公司才會直接支援TPU333F 12/15 11:00
→ : 其他為了通用性會直接用GPU
→ : 光是轉資料就玩死一堆工程師了
→ : 其他為了通用性會直接用GPU
→ : 光是轉資料就玩死一堆工程師了
推 : 以後混和模型啦336F 12/15 11:02
→ : 真以為其它家用TPU就屌炸天喔,沒演算法突破都是甲337F 12/15 11:02
→ : 賽而已
→ : 賽而已
推 : 30年前也一堆人喊Linus會取代windows既視感339F 12/15 11:02
→ : 很明顯就是華西街要騙票啊 這幾天所有的壞消息都出340F 12/15 11:03
→ : 來了
→ : 這輪一定一堆被洗出去
→ : 來了
→ : 這輪一定一堆被洗出去
推 : 原po看起來不是反串欸,ai真的害人不淺XD343F 12/15 11:04
→ : 光網路資源就差很多了 沒家底誰敢用TPU344F 12/15 11:05
推 : 重點是講的多神結果產品算力根本沒超過xD 老哥,你345F 12/15 11:06
→ : 在計算加速領域捧谷歌踩NV,但你捧的谷歌卻一直跟NV
→ : 買GPU買到變成第一大客戶欸,不覺得很神奇ㄇ
→ : 在計算加速領域捧谷歌踩NV,但你捧的谷歌卻一直跟NV
→ : 買GPU買到變成第一大客戶欸,不覺得很神奇ㄇ
→ : 我公司用了一堆google產品 最常發生的是他後來不支348F 12/15 11:06
→ : 援了 最大的災難就是32轉64那波 這種如果後來做不
→ : 起來 我只能說保重
→ : 他是一種可能 但風險和成本大多了
→ : 援了 最大的災難就是32轉64那波 這種如果後來做不
→ : 起來 我只能說保重
→ : 他是一種可能 但風險和成本大多了
推 : Intel當初的晶圓廠也是專門為了intel cpu而生的,結352F 12/15 11:08
→ : 果呢
→ : 果呢
→ : 我覺得輝達未來沒什麼問題 但他的估值的確偏高 回354F 12/15 11:08
→ : 調很正常 不要因為跌就去唱衰
→ : 調很正常 不要因為跌就去唱衰
→ : 最後大家一定會開始鎖資料356F 12/15 11:08
噓 : 空單亮出來 不要光嘴炮357F 12/15 11:10
推 : TPU是一定會吃市佔且愈來愈大,它的優點就在那邊358F 12/15 11:10
→ : 實際上這些底層硬體設計產業連美國市場都不能養幾359F 12/15 11:11
→ : 間 太燒錢了 要百花齊放更是不可能 舉例來說作業系
→ : 統 以前每過一段時間就吹一下 然後呢 市面上常見的
→ : 也是那幾間大的 因為維護成本太高了啊
→ : 間 太燒錢了 要百花齊放更是不可能 舉例來說作業系
→ : 統 以前每過一段時間就吹一下 然後呢 市面上常見的
→ : 也是那幾間大的 因為維護成本太高了啊
噓 : 用AI表達 看都不用看363F 12/15 11:11
→ : 但現在AI市場多大還未可知,談會變怎樣還遠的很364F 12/15 11:11
→ : TPU谷歌養得起 但要成為主流很難 畢竟谷歌可沒輝達365F 12/15 11:13
→ : 懂其他底層的技術 調整算法很難比別人從硬體動手快
→ : 我開發要懂一堆底層 還是找那個最好改的平台 這也
→ : 是成本阿
→ : 懂其他底層的技術 調整算法很難比別人從硬體動手快
→ : 我開發要懂一堆底層 還是找那個最好改的平台 這也
→ : 是成本阿
→ : 寫程式有個原則,不要過早最佳化369F 12/15 11:13
→ : 是遲早要做沒錯,但不該太早做
→ : 硬體最佳化是已經開始變現要生產固定商品的時候才做
→ : 的,不是開發階段
→ : 是遲早要做沒錯,但不該太早做
→ : 硬體最佳化是已經開始變現要生產固定商品的時候才做
→ : 的,不是開發階段
推 : 這篇直接證明Gemini沒有料373F 12/15 11:16
推 : 這如果證明Gemini沒料的話ai就沒料了哦。Copilot後374F 12/15 11:17
→ : 面就是openai
→ : 面就是openai
推 : TPU最新V7算力只能接近gb200,NV還有GB300甚至要開376F 12/15 11:19
→ : 始搞rubin,產品算力輸nv的gpu,通用性也輸NV的gpu
→ : ,呃,你知道要是下一代Rubin說效率贏TPU,你知道這
→ : GPU算力不知道會碾壓TPU幾倍嗎?NV的產品還贏通用性
→ : 。計算加速領域,捧谷歌採NV,但兩個產品攤開來表現
→ : ,卻完全不是你吹的這麼一回事,然後谷歌而也是NV第
→ : 始搞rubin,產品算力輸nv的gpu,通用性也輸NV的gpu
→ : ,呃,你知道要是下一代Rubin說效率贏TPU,你知道這
→ : GPU算力不知道會碾壓TPU幾倍嗎?NV的產品還贏通用性
→ : 。計算加速領域,捧谷歌採NV,但兩個產品攤開來表現
→ : ,卻完全不是你吹的這麼一回事,然後谷歌而也是NV第
推 : 我只相信老黃說的 通用性碾壓專用性 嘻嘻382F 12/15 11:19
→ : 一大客戶,奇怪捏?心中計算加速這麼頂的谷歌,TPU383F 12/15 11:19
→ : 這麼屌的谷歌,為什麼還狂花錢買NV最新的GPU?花一
→ : 堆錢買到變第一大客戶,谷歌在顧慮什摸QQ?
→ : 這麼屌的谷歌,為什麼還狂花錢買NV最新的GPU?花一
→ : 堆錢買到變第一大客戶,谷歌在顧慮什摸QQ?
噓 : 你這篇文章及在留言區的回文,充分顯示你的無知而386F 12/15 11:22
→ : 不自知!
→ : 不自知!
推 : 除非google 能把市場全吃了或是提供解決方案給其他388F 12/15 11:22
→ : 公司,不然沒用,沒人會投資買一堆tpu
→ : 太早鎖定規格的案例 都是失敗收場
→ : 公司,不然沒用,沒人會投資買一堆tpu
→ : 太早鎖定規格的案例 都是失敗收場
→ : 實驗性產品吧 給老黃點壓力也好 不然賣那麼貴391F 12/15 11:23
推 : 正常使用AI,即使是GEMINI也不會給出392F 12/15 11:24
→ : 不過google 有本錢燒就是 但不代表會取代nv393F 12/15 11:24
→ : 後面有點胡扯 圖表也大有問題啊lol394F 12/15 11:24
→ : 那麼強烈、肯定的口吻與結論395F 12/15 11:24
→ : 可見原po為了怎樣的預設資訊與條件
→ : 餵了
→ : 可見原po為了怎樣的預設資訊與條件
→ : 餵了
推 : 讚欸,我買NVDA398F 12/15 11:24
→ : 才會讓AI為了迎合原PO預期,給出那樣的結論399F 12/15 11:25
→ : 部分論點我支持 但論證胡扯一通 圖畫的像是小朋友400F 12/15 11:25
推 : 笑死了,對於這種預測或是沒有標準答案的事情,ai401F 12/15 11:26
→ : 只會順著使用者說的話回答而已啦
→ : 只會順著使用者說的話回答而已啦
噓 : 股版好人真的多403F 12/15 11:28
推 : 最好笑的是,如果拿去問GEMINI404F 12/15 11:28
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 15 累積人氣: 1149
作者 breathair 的最新發文:
直接說結論:TPU 將以肉眼可見的速度打敗 GPU 這是昨晚與Gemini 3 pro 跟Copilot 一起討論得出的結論 Why? 大家都在談 NVIDIA 的護城河有多深,CUDA 生態系有多 …404F 104推 49噓- 40F 9推 1噓
- 30F 13推 1噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享
