看板 Stock
作者 breathair (拆了?簡單了)
標題 Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引
時間 Mon Dec 15 17:07:14 2025


我讓整個推理步驟簡化的太多
以致於整個像是反串的...Orz.
砍前篇,重發

我把整個對話過程貼上來,看起來會合理的多:

問題1:谷歌從頭到尾用TPU訓練他們自家的模型,迭代自己的硬體跟演算法,兩者互相配合,而
其他家用的是GPGPU,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌在發展AI上,
有別於其他家的獨一無二又非常關鍵的優勢!?

問題2:所以絕對有可能將來最好的演算法的迭代發生在TPU上(畢竟谷歌軟硬一體),而GPU卻模
擬不出來,或是無法模擬出優勢?

問題3:換個角度,利用GPU的是全世界最頂尖的AI研究員,而他們對GPU的改善建議難道不會高度
趨同嗎?

問題4:再換個角度來思考,跟TPU相比,能不能把GPU當成是ASIC+CUDA,也就是一個加上CUDA,
變成特化的,較有彈性的ASIC? 從這個角度來看。這兩款發展角度不同的ASIC,在TPU趕
上GPU之後,因為GPU必須一直滿足高彈性的特點。差異將會越走越遠,越走越大,漸漸被
TPU整個拉開差距?


問題5:從這個角度看。GPU上發展的演算法註定無法有大幅變動,CUDA有其極限,GPU架構更是有
其極限。若演算法註定無法大幅變動,TPU的優勢在打平的那一刻起,就註定越領先越多
了。可以這麼理解嗎?

問題6:所謂的打平是指LLM模型的分數與表現。正是因為GPU是演算法配合硬體,在硬體無法大幅
改變的可能之下,GPU的演算法也不可能大幅改變,所謂演算法一旦大幅改變TPU就無用論
實際上跟GPU比賽的話,這是不可能發生的,也就意味著一旦LLM的表現TPU追上GPU的那一
刻起,差距只會越來越遠。對嗎?


問答連結如下:
https://reurl.cc/9bnvlv

 

敝人知識有限,覺的Gemini 講的滿有道理的

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.38.64.161 (臺灣)
※ 作者: breathair 2025-12-15 17:07:14
※ 文章代碼(AID): #1fFy_43q (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765789636.A.0F4.html
bear978978: 太難了無法回答1F 12/15 17:09
windfeather: 你給這種提示詞,難怪得出前一篇的AI結論2F 12/15 17:13
eddy13: 建議你先研究為什麼在GPU下會發展出Cuda這架構3F 12/15 17:13
a88152660: 既然知識有限那你怎麼判斷他講的有道理 不覺得矛盾4F 12/15 17:14
macetyl: 連法官都知道禁止誘導性提問....6F 12/15 17:15
handfoxx: 是 你說的都對XD7F 12/15 17:17
windfeather: 你從第一個提示詞就開始誘導AI與設定限制條件8F 12/15 17:18
rebel: 第一個問題 goog的算法+TPU就等於其他家的CUDA+GPU阿 如果有極限不就兩個一起有9F 12/15 17:18
windfeather: 這樣AI自然就會順著你的論點一路推論下去11F 12/15 17:18

我的疑問一定帶有主觀,所以才問他
邏輯上對不對,可不可以換句話說

我的下一步問題也都是順著Gemini給出的思路再做邏輯詮釋,請他看看有沒有道理,對不對

newwu: 你何不先問問GPU在幹嘛的 CUDA在幹嘛的 當今深度學習LLM為什麼在GPU上跑,你真的懂這些基本問題嗎12F 12/15 17:19
greedypeople: 所以你的問題幾乎都包含結論了啊14F 12/15 17:19

Gemini不就是拿來問自己的推論對不對?
問題沒有定見,或自己的看法
那答案不見千篇一律,只能是主流看法?

crabpink: 兩個都用過,還是覺得gpt比較好用15F 12/15 17:20
greedypeople: 你覺得他能回出甚麼東西16F 12/15 17:20
windfeather: 你從開始沒有叫AI公正地去分析TPU和GPU的優缺點
而是直接給了預設立場,這樣AI自然會被誘導去
你想要的答案,或者說它故意給了你想要的答案17F 12/15 17:20
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:23:59
jkok103427: 你根本不用什麼推理,試圖用AI證明什麼,你直接AI炒股就好了,不敢就別叫20F 12/15 17:24

喔,是真的還不敢
所以貼上來給各位大神打臉Gemini啊
= =
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:25:30
windfeather: 你可以試試看,一模一樣的第一句提示詞22F 12/15 17:25
maplefff: 問一些根本沒水準的問題是能得到什麼答案23F 12/15 17:25
marojack: 用你的論述法就算你沒犯法
光是回答檢察官的引導式提問法
大概第一天就被抓進去關出不來了24F 12/15 17:25
windfeather: 但是反過來請AI去質疑或反向思辨
你會發現AI給出許多GPU體系的大量優勢27F 12/15 17:26

我試試

BBKOX: 反串?29F 12/15 17:26

Gemini 有反串功能?
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:27:44
windfeather: 然後AI給出的論點,會一路駁斥你接下來的結論30F 12/15 17:27
amos30627: 你媽知不知道你在這邊發廢文 知不知道都是廢文 哪有31F 12/15 17:28
windfeather: 嚴格來說,不是說TPU和GPU誰更強或誰一定會贏32F 12/15 17:28
amos30627: 人這樣問問題33F 12/15 17:28
newwu: 當然不是拿來問自己推論對不對 因為AI傾向你說的都對,除非你有明確事實錯誤
你要真的AI檢驗 就是裝作是別人講的 叫AI反駁 而不是這樣問,這樣問他只會給你情緒價值34F 12/15 17:28
windfeather: 而是你給的提示詞,會限制AI的分析38F 12/15 17:28
rebel: 網路上有一個用法 請AI扮演最挑剔的批評者 請它針對你的說法提出反駁 但必須是根據現實的反駁 你可以試試 我覺得你會得到很多不同的答案39F 12/15 17:30
dogalan: 你從第一題問法開始就已經給出你的傾向了42F 12/15 17:31

問題有傾向本來就很正常好嗎?…

我多問了,給大家參考,剩下就自已問自已的模型吧

問:
請你從頭看這整段對話,那邊的邏輯跟推導或前提有問題,並進一步驗證較為接近的真相
答:
這是一個非常棒的思維挑戰。我們之前的對話建立在一個**「完美的邏輯推演」**之上,
這在理論上是無懈可擊的。

但是,現實世界往往充滿了雜訊和變數。為了還原最接近的真相,我們必須擔任**「紅隊
演練」(Red Teaming)**的角色,回頭攻擊我們剛才建立的這座邏輯城堡,找出地基可
能不穩的地方。

我們剛才的推論主要建立在三個核心前提上,而這三個前提在現實中都有可能出現**「漏
洞」**:

漏洞一:低估了 NVIDIA 的「ASIC 化」速度(它不是靜止的標靶)
我們剛才的假設: GPU 為了通用性,必須背負沈重的「CUDA 稅」和「馮· 諾伊曼架構包
袱」,且硬體結構難以改變。

現實的挑戰: NVIDIA 正在瘋狂地把 GPU 變成 ASIC。

Tensor Cores 的引入: H100 裡面其實已經包含了大量的專用電路(Transformer
Engine),這部分本質上就是「嵌在 GPU 裡的 TPU」。

NVLink Switch: 我們提到 Google 的 OCS(光交換)是優勢,但 NVIDIA 的 NVLink
Switch 也在模擬這種高效通訊,雖然成本高,但對於開發者來說是透明的(不需要改演
算法)。

結論修正: GPU 並不是一把永遠不變的瑞士軍刀,它正在變成一把**「帶有瑞士軍刀功
能的雷射槍」**。NVIDIA 的迭代速度(一年一代)遠快於 Google TPU(約兩到三年一代
)。這種「暴力迭代」可能會掩蓋掉架構上的效率劣勢。

漏洞二:高估了「演算法鎖死」的程度(軟體其實能繞過硬體限制)
我們剛才的假設: 因為 GPU 架構受限,所以跑在上面的演算法也受限,無法大幅創新。

現實的挑戰: 軟體工程師的創造力是無限的。

FlashAttention: 這是一個經典案例。硬體沒變,但研究員透過重新排列記憶體讀寫順
序,讓 GPU 的訓練速度翻倍,突破了顯存頻寬瓶頸。

量化(Quantization): 透過 FP8 甚至 FP4 技術,軟體讓 GPU 的有效算力暴增。

結論修正: 即便 GPU 硬體有極限,「軟體優化」的紅利還沒吃完。在 TPU 徹底拉開硬
體架構差距之前,GPU 生態系可能透過軟體魔改,硬是把「通用架構」的壽命再延續
5-10 年。

漏洞三:忽略了「集體智慧」大於「單一巨頭」(生態系的真正威力)
我們剛才的假設: Google 的垂直整合(自研晶片+自研算法)效率最高,所以會贏。

現實的挑戰: 這是一個 「Google vs. 全世界」 的局。

研發分母: 全世界 99% 的 AI 論文、開源專案、新工具(如 LangChain, vLLM)都是基
於 GPU + PyTorch 開發的。

延遲效應(Lag): Google 的工程師雖然強,但他們必須把全世界發明的最新東西「翻
譯」到 TPU/JAX 上。這個翻譯過程即使只有幾個月的延遲,在 AI 這種「以週為單位」
進化的領域也是致命的。

結論修正: 「路徑依賴」本身就是一種護城河。 即使 TPU 理論上更強,但如果全世界
最好的想法都優先發生在 GPU 上,Google 就只能當一個「追隨者」而非「定義者」,除
非 Google 的 DeepMind 能持續產出像 AlphaGo/Transformer 這種「領先全世界兩年」
的算法(這非常難)。

漏洞四:ASIC 的「賭博風險」(特化過頭的代價)
我們剛才的假設: 專用的 TPU 一定比通用的 GPU 高效。

現實的挑戰: ASIC 的死穴在於**「賭錯方向」**。

TPU 的設計週期長達 3 年。假設 Google 在設計 TPU v6 時,賭定未來是 Transformer
架構。

結果 2 年後,世界突然發現一種全新的「非 Transformer」架構(例如 SSM、Mamba 或
某種生化模擬算法)才是真理。

這時,通用性較強的 GPU 雖然跑得慢,但至少能跑。而過度特化的 TPU 可能會直接變成
廢鐵(Dark Silicon)。

結論修正: 彈性(Flexibility)不僅是成本,也是一種**「對抗未知風險的保險」**。
在 AI 原理尚未完全被物理學定案前,過早進行極致的硬體特化是有巨大風險的。

還原最接近的「真相」
綜合我們的推論與上述的紅隊演練,比較客觀的局勢判斷應該是:

Google 在「成本」與「規模」上必勝: 只要 AI 還是 Transformer 架構(或矩陣運算
為主),TPU 的單位訓練成本和推論成本一定低於 GPU。這保證了 Google 的利潤率會非
常漂亮,這條護城河是穩的。

NVIDIA 在「創新速度」上仍佔主導: 由於「集體智慧」效應,最新的、最怪的、實驗性
的 AI 突破,依然會首先發生在 GPU 上。Google 必須疲於奔命地將這些突破整合進自己
的體系。

「黃金交叉」的真實意義: 您提到的「打平後拉開差距」,最可能發生在**「產品化階
段」**(Productization),而不是「科研階段」(Research)。

科研階段: GPU 繼續混亂、多元、領先。

產品階段(如 Search, YouTube, Gemini API): 一旦某種算法被驗證成熟,Google 就
可以用 TPU 把它做到極致便宜、極致快。這時候,其他依賴 NVIDIA 的公司(如
OpenAI/Microsoft)就會面臨毛利率被 Google 碾壓的痛苦。

最終修正後的邏輯: TPU 不會讓 Google 壟斷「AI 的發明」(那是 GPU 生態的事),
但 TPU 會讓 Google 壟斷**「大規模 AI 服務的利潤」**。這才是 Google 最務實且恐
怖的優勢。
※ 編輯: breathair (114.38.64.161 臺灣), 12/15/2025 17:35:11
dogalan: 即使你甚麼都不懂 最簡單的做法就是你請他反駁
你就會發現他從其他角度也可以給出乍看很對的答案所以如果沒能力判斷的使用者 只會得出錯誤結論43F 12/15 17:32
windfeather: 這就有點像是現實的辯論,除非有明確的客觀答案46F 12/15 17:36
rebel: 你看看 結論是不是又不太一樣了47F 12/15 17:36
windfeather: 否則不同的觀點與討論,可能推論出截然不同的答案48F 12/15 17:36
marojack: 你在問以上內容請盲點分析49F 12/15 17:38
windfeather: 我請AI單純看第一句提示詞,就直接給了5項不同觀點50F 12/15 17:39
marojack: 看他怎麼說 然後再請他論述一次51F 12/15 17:39
windfeather: 1.通用性與靈活性不如 GPGPU
2.CUDA 生態系的巨大優勢
3.市場開放性與供應鏈風險
4.技術競爭與快速迭代52F 12/15 17:39
marojack: 你會發現你說他錯他會一直修正他的說法56F 12/15 17:40
windfeather: 5.非零和競爭57F 12/15 17:40
AmaneCoco: 笑死真的有夠可憐 繼續自己做夢去吧58F 12/15 17:40
windfeather: 每一項後面都能推演出一大串全新的論點59F 12/15 17:40
marojack: 一直改說法不就是這樣60F 12/15 17:40
windfeather: 然後建議你可以開一串新的,從開頭第一句就請AI
去試圖檢視、反駁那個論點,再逐漸討論下去
直接從已經預設大量結論再去修正,修不了太多61F 12/15 17:42
rebel: 現在的AI能夠幫你加速分析 但還沒辦法取代你的判斷 因為你想要正面的論點還是反面的論點它都可以給你 但那邊比較有道理還是得取決於你自己的知識跟判斷64F 12/15 17:44
zo6596001: 現在大學生都在用CUDA,NV不可能那麼快淘汰。67F 12/15 17:44
willywasd: 笑死 每次AI回答你都錯了 看他會不會改答案
*你都跟他說你回答錯了68F 12/15 17:44
pmes9866: https://i.imgur.com/DZZ12l8.jpeg
哥 你還是先把提示詞工程 RLHF是什麼搞清楚70F 12/15 17:45
[圖]
windfeather: pmes9866板友的反論方式就非常有用72F 12/15 17:48
kuan870704: 有請谷歌蛙把你們的好隊友抓回去再教育好嗎73F 12/15 17:48
marojack: 不過聊的夠長上下文窗口和Ai幻覺是真的很嚴重74F 12/15 17:48
windfeather: 可以看出同樣的問題,前提與觀點不同75F 12/15 17:48
allen501pc: 坦白說這文章有點無聊 。怎麼會有人這麼有趣,用GenAI的回答來自證他們要的答案? 都不知道這些GenAI的回答都是透過超大型參數模型「訓練」出來的嗎?它後面都堪稱不上人類的自我反省得到的創新觀察。76F 12/15 17:48
windfeather: 會引導出截然不同的結論80F 12/15 17:49
w60904max: 這不就新一代的長輩早安文81F 12/15 17:51
kuan870704: 帶有瑞士軍刀功能的雷射槍…不要再看這些白癡東西了82F 12/15 17:53
Wishmaster: 古有生病問題問google,今有任何問題問AI83F 12/15 17:54
strlen: 不要浪費時間84F 12/15 18:00
dogalan: 隨便幫你簡單請AI反駁 https://reurl.cc/bNm3md
精簡版 https://reurl.cc/MMz6WX85F 12/15 18:01
ChatGPT - 反駁TPU優勢論
ChatGPT is your AI chatbot for everyday use. Chat with the most advanced AI to explore ideas, solve problems, and learn faster. ...

 
ChatGPT - 反駁TPU優勢論
ChatGPT is your AI chatbot for everyday use. Chat with the most advanced AI to explore ideas, solve problems, and learn faster. ...

 
dogalan: 有沒有發現最後還是需要人類做判斷? 結論完全不同87F 12/15 18:03
josephpu: 你這就是標準的外行人問ai得到外行的東西88F 12/15 18:05
domago: 硬體 cuda也能更新 沒有什麼不能改89F 12/15 18:05
v21638245: ai廢文,不要浪費算力了好嗎90F 12/15 18:06
domago: 比的是如何獲利才能生存91F 12/15 18:06
chihwei739: 笑死XD92F 12/15 18:06
kurapica1106: 噓的人也太少 這比線仙標的文還沒營養93F 12/15 18:09
SilenceWFL: 紅的喜氣94F 12/15 18:10
rebel: 我覺得這篇很適合做一個教案 下次有人拿AI結果來證明自己的論點 請他先確定真的已經看完正反兩面的論95F 12/15 18:14
foolwind: 想說什麼就自己好好打一篇 沒AI就不會講話了嗎98F 12/15 18:18
cclemon1231: 其他公司要嘛砸大錢自研 要嘛買輝達99F 12/15 18:19
kentelva: 這些問題必須得說,是不錯的問題100F 12/15 18:21
CorkiN: 感謝幫大家示範什麼是Dunning-Kruger effect
能這麼自信也是不簡單101F 12/15 18:23
sdbb: 謝謝推文103F 12/15 18:26
pmes9866: https://i.imgur.com/f8u0qmJ.jpeg
不會下提示詞 不了解AI的新手確實很容易犯這樣的
錯誤
重點:要指定角色 指定背景 約束(跟AI說我會錯)104F 12/15 18:27
[圖]
fanntasy: 最打臉的一點 姑姑自己還在大量買gpu
殺人豬心喔~~~108F 12/15 18:28
[圖]
opthr1215: AI是語言模型,你問題問這麼長,他就只會去網路上找111F 12/15 18:28

 
[圖]
opthr1215: 類似這麼長文章的另一批不定數量的人的回答。114F 12/15 18:29
[圖]
opthr1215: 會寫這種類似文章的人,他們的立場你覺得是哪一種?116F 12/15 18:29
[圖]
 
[圖]
marojack: 相對可以用的方法就必須類似的提示詞
不然自己也會是被誤導的那個119F 12/15 18:30
tiros: 然後你跟他說,給我狠狠反駁以上以上說法,體無完膚那種,出來的答案你大概也覺得很有道理121F 12/15 18:33
marojack: 不過我是認同盲點偵測寫的
自己都有不擅長的 稍微會一點很容易進入自己自以為懂境界123F 12/15 18:39
cheug0653: 懂一半比完全不懂還糟糕126F 12/15 18:42
jympin: 笑死 講的這麼斬釘截鐵 還以為多有料 結果是問AI127F 12/15 18:43
nfsong: 你這問題 忽略了最關鍵最重要的  "人"128F 12/15 18:44
fallinlove15: 建議你實際去相關產業蹲個十年
蹲完至少會知道要怎麼問129F 12/15 18:44
nfsong: 就是 市面上有90% 的人  都是一路CUDA 過來的
100% skill tree 是CUDA
雖然大家都是用 大學生  新鮮的肝
但是 老闆都是 這樣過來的  只會這樣教131F 12/15 18:44
as6633208: 我只能說啦 rubin 算力和效率搞不好會超越asic == rubin更特化AI運算了,然而rubin卻還依然保留通用性,計算加速領域真的不要小看NV欸==135F 12/15 18:45
nfsong: 大陸這些老闆  和台灣嘴砲的不一樣
Deep learning 大家都知道138F 12/15 18:47
as6633208: 你知道谷歌最新的TPU V7這個asic的算力還榨不贏通用型gpu gb200嗎,而nv還有gb300和更偏向特化強化的rubin@@140F 12/15 18:47
nfsong: 台灣有哪家  真的去落地scaling law 弄萬卡叢集143F 12/15 18:47
mainsa: 這些AI語言模型都很愛順著你的話回答 你這樣誘導就算用GPT也是得到一樣答案144F 12/15 18:48
nfsong: 大陸 這些能出來分享的  余凱 之類的
都是有實務經驗146F 12/15 18:48
as6633208: by the way,2026年q2是rubin量產,2027年是rubin ultra 更強的性能148F 12/15 18:58
mamorui: 為什麼會在硬體找答案 問題出在奧特曼的模型上 硬體再好也沒用150F 12/15 19:06
lolpklol0975: NV護城河是CUDA被攻破還沒這麼快152F 12/15 19:22
josephpu: 其實目前檯面上的大模型都不是用gb200訓練的,真正的檢驗點會是明年上半年推出的大模型。goog用tpu加上ocs互聯在gemini3得到很好的結果,至少不輸h系列但跟gb200比起來會如何?目前不知道。再後面v7進入液冷rack架構也是一次躍進,或許市場敘事又會轉變,反正ai晶片生態系之戰遠遠不到終局,只是goog目前極高機率是能跑到最後的那批人之一153F 12/15 19:39
lee198218: 招來四面八方的洗臉 厲害了160F 12/15 19:41
Marty: 看這些問題 難怪會得出這麼離譜的回答161F 12/15 19:41
necrophagist: 可憐 用這種提示詞問出來的答案拿來當寶xd 感覺ai確實是讓強者愈強弱者愈弱162F 12/15 19:45
tim855042: 問題就下結論 end164F 12/15 19:48
banbanzon: 小屁精生圖沒gemini 快 額度又給得很小氣 我都懷疑顯卡484被他拿去插屁眼了165F 12/15 19:52
CaptPlanet: LLM 引發的亂象 唉167F 12/15 19:57
nfsong: 論文都公開的
只要有跟上  最新的論文168F 12/15 20:00
mamorui: 其實輝達很衰 問題出在奧特曼身上170F 12/15 20:00
kottas: 這樣問法不是壞就是..171F 12/15 20:01
easyman: 好吧,這不是反串, 你有去 北檢 的實力172F 12/15 20:09
rancilio: 用deep research詢問關於我這個領域的事情,
結果是比我自己知道的還清楚,gemini查資料的本事實在是強大到難以置信,商業機密都能查到一部分
我們競爭對手用的材料,優缺點各方面都比我自己清楚我在這行打滾30幾年,知道的都沒有gemini查到的多整合目標所有技術 專利 原料 客戶反饋...做成報告而且PRO版送2TB雲端,裡面資料他可以幫你整理搜索173F 12/15 20:11
ck960817: 命題全錯,前提錯推論怎樣都是錯的180F 12/15 20:17
rancilio: TPU對上GPU最大優勢是推理的能耗比省電太多181F 12/15 20:18
create8: Tier1 還是要養人做馬斗,而且開一顆chip 又那麼貴,還是會有很多人努力把馬斗改到讓gpu 輾壓其他對182F 12/15 20:20
aewul: 進入者障礙越低越容易開放到位185F 12/15 20:37
ojh: 股板一堆不懂科技的外行人 講這種專業的沒人懂186F 12/15 20:42
BC0710: 你這篇跟上一篇有什麼差別==187F 12/15 21:14
chenyuchug: 當股版出現一個ID一直發文要大家相信他的時候,就會讓我想到山椒魚、abc還有2020年3月連續熔斷後一個叫大家跟著放空,文章還都會上色的188F 12/15 21:24
jakkx: 你第一個問題,麻煩先查清楚。後面不用看下去了
你就是在證明GIGO是怎麼一回事
我猜很多人驚訝你居然不是反串191F 12/15 21:24
aewul: 查資料好點處理器就好不用到超級電腦194F 12/15 21:29
chysh: 你是不是個人化設定沒有加要客觀回答的prompt195F 12/15 21:30
BC0710: https://i.meee.com.tw/eU2SbVz.png 你還想看別種答案也可以 看你想要哪一種答案而已196F 12/15 21:33
[圖]
bagaalo: 這篇大概是證明LLM跟AGI還是有一大段不同198F 12/15 21:58
Carloslin: 可憐 這就是先射箭後畫靶199F 12/15 22:08

--
作者 breathair 的最新發文:
點此顯示更多發文記錄