※ 本文轉寄自 ptt.cc 更新時間: 2025-12-14 21:09:14
看板 Stock
作者 標題 Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
時間 Sun Dec 14 18:53:53 2025
※ 引述《googstar (股大濕)》之銘言:
: ※ 引述《minazukimaya (水無月真夜)》之銘言:
: : 沒關係,偷偷告訴你一個Insight
: : 今年NeurIPS 2025有一篇超重量級的論文
: : Introducing Nested Learning
: : 這篇文論的重要程度不亞於Attention is all you need
: : 甚至可以說有過之而無不及
: : Transfomer架構只是發明了蒸氣機
: : Nested Learning這篇論文,簡直就是熱力學定律的等級了
: : 基本上等於宣告Transformer架構過時了(因為是一種扁平和單一頻率的特例)
: : 未來三到五年,全面轉向Nested Learning的時代
: 如果真的架構更改 那對輝達反而更有利吧?
: 這幾年設計的ASIC都是基於Transformer架構
: 基本上要整個打掉重來 重新設計新的ASIC
: 那就又一次輪迴循環 只能利用NV GPU挺過過渡期
: 等架構整個穩定 再設計適配的ASIC
: 每更改一次架構 就讓GPU的商業可用性拉長更多時間
: 另外假如真的實現agi 對算力的需求會再來一次幾倍的成長的
: LLM的泛用性 還不夠廣
: agi幾乎什麼都能做 同時也代表架構穩定需要一段時間
: 其實也會讓NV能賺爛的時間更長
我是做晶片跟系統架構的,
不是做AI模型的,
所以無法回答LLM跟Nested Learning相關問題,
但是就回答 "如果真的架構更改 那對輝達反而更有利吧?"
答案是的,
而且NVDA已經做了:
https://nvidianews.nvidia.com/news/nvidia-unveils-rubin-cpx-
News Archive | NVIDIA Newsroom
Browse and search for NVIDIA latest news and archive news by month, year or category. ...
Browse and search for NVIDIA latest news and archive news by month, year or category. ...
Rubin CPX 就是為了 Memory Wall 等問題設計的架構
然後,
我又要繼續老話重提,
Memory Wall 的問題在業界已經很多年了,
不是什麼很新奇的事情,
但是 就是沒人願意解決,
就像是Scaling Law 可能已經或是快失效一樣的道理,
很多事情業界都知道,
但是沒人願意去改算法改架構,
我每篇文章大喊方向錯了, 要改算法改架構,
只是被當笑話
就像我之前的文章說的,
這十幾年來,
只有谷歌跟輝達願意去嘗試改算法改架構,
其他公司都在玩MBA那套,
算投資效益,算CP值,盡量裁員並且節省成本,
改算法改架構就是要冒風險,
並且跟MBA那套理論完全相違背
再回到Memory Wall 與 Nested Learning,
Nvidia Rubin CPX 想去解決或是增進Memory Wall 的效能瓶頸,
那麼當然下一代的TPU也會想到這問題與解法,
當然,
對於前幾代的TPU是很不利,
所以當切換到新的算法新的架構的時候,
GPU的通用性會比TPU更適合在新的算法與架構上運作,
這是絕對正確的
同樣的問題,
新的算法與新的架構不見得會成功,
Nested Learning 不見得會比現在的Transformer架構好,
很可能谷歌投入的資源在Nested Learning與相對應的NL XPU設計,
不見得會成功,
這真的很難說,
我先澆冷水 打預防針
Nested Learning 需要的XPU 應該是in memory compute 架構,
performance looks amazing
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 174.194.128.87 (美國)
※ 作者: waitrop 2025-12-14 18:53:53
※ 文章代碼(AID): #1fFfT4H1 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765709636.A.441.html
※ 同主題文章:
12-11 10:52 ■ [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI風險令人擔憂
12-11 12:31 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI風險令人擔憂
12-11 12:48 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-11 17:11 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-12 12:11 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-12 21:57 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-13 02:12 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-13 03:06 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-13 08:30 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI風險令人擔憂
12-14 01:56 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-14 10:27 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-14 16:32 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-14 16:32 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
12-14 17:04 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
● 12-14 18:53 ■ Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI
→ : 遲早會有人去玩出來的 只是不知道誰第一個吃螃蟹1F 12/14 18:55
推 : wait大聰明 因為NV絕對是鏟子王 技術領先2F 12/14 18:59
推 : 只是甲骨文買的那一批怎麼辦
新的算法不見得會成功,推 : 只是甲骨文買的那一批怎麼辦
就算是成功,
全面換新的算法也不會那麼快,
只是如果新的算法成功了,
OpenAI跟甲骨文就會比較麻煩
※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:05:30
→ : 沒人有辦法改架構 投資太大 所有公司上下游都要動4F 12/14 19:04
→ : 但現在有了 NV有資格改 架構和通訊協定整套定規格做
→ : 要牽頭的那個人定好 不然後面收封包的怎麼收
→ : 但現在有了 NV有資格改 架構和通訊協定整套定規格做
→ : 要牽頭的那個人定好 不然後面收封包的怎麼收
推 : Transformer論文發表到GPT3.5出來多久?7F 12/14 19:06
→ : 做腳位的怎麼bump 速度規格要拉到多少 幾channel8F 12/14 19:07
→ : NL大概就多久9F 12/14 19:07
→ : 然後你弄了跟別人無法溝通怎麼辦10F 12/14 19:07
推 : 我想請益 這樣下一波硬體迭代時間 可能要至少多久11F 12/14 19:09
→ : 有機會 我完全不懂硬體
→ : 有機會 我完全不懂硬體
推 : 這就是TPU特化的風險,萬一更高效的算法TPU不支持,13F 12/14 19:09
→ : 之前的TPU有機率整陀廢掉,然而通用型計算加速的GPU
→ : 很大機率依然有用
完全正確,→ : 之前的TPU有機率整陀廢掉,然而通用型計算加速的GPU
→ : 很大機率依然有用
所以這十幾年來只有谷歌一家自己做模型還願意自己做TPU,
其他模型開發商都是買或租NVDA GPU,
老話重提,
你要喝牛奶不見得需要買下一個農場養牛,
尤其是還有型號與保固期限等問題,
不如買有保證的NVDA獨家鮮奶
如果換新的算法,
舊有的TPU會很不利,
谷歌當然知道,
也一直有算法相對應的XPU在研發,
你可能沒看到我的關鍵字
※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:15:02
推 : 我只是想 分水嶺 如果五年後沒發生硬體革新,就有16F 12/14 19:13
→ : 點意思了
→ : 點意思了
推 : 甲骨文旁邊玩沙18F 12/14 19:14
推 : 我心裡覺得輝達更想要看到算法突破,如果出現一個更19F 12/14 19:15
→ : 高效的算法TPU不再有優勢,反而是通用的GPU有優勢,
→ : 那更有趣,TPU全部變成電子垃圾,這樣可以一次把TPU
→ : 打死
這樣說也沒錯,→ : 高效的算法TPU不再有優勢,反而是通用的GPU有優勢,
→ : 那更有趣,TPU全部變成電子垃圾,這樣可以一次把TPU
→ : 打死
而且打死舊的TPU的人還是谷歌自己,
谷歌自己發表新的算法 實現推廣新的算法,
把自己舊的TPU打死,
有夠蠢,
但是這就是最近幾年谷歌一直在做的事情,
會有新的算法就會有相對應新的XPU
推 : 幾年內都還得依賴&期待演算法突破 通用架構還是必要23F 12/14 19:16
推 : GPU是模擬大腦,ASIC是製造大腦,還在摸索AI架構的24F 12/14 19:16
→ : 現在,GPU還是必要的
→ : 現在,GPU還是必要的
推 : 輝達即將榮登牙膏二代26F 12/14 19:22
推 : 原來如此 JOKIC大我懂了 代表新一代出來前是擠牙膏27F 12/14 19:23
→ : 時間?
→ : 時間?
→ : 老黃一直在跑起來革自己的命,不像有人一直擠牙膏29F 12/14 19:23
→ : 市值能第一真的不是僥倖,只有牙膏廠才只靠僥倖
→ : 例如最近發表的CUDA Tile就是再次自己拆自己護城河
→ : 用更大護城河取代自己的舊護城河,推動技術革命
這十幾年,→ : 市值能第一真的不是僥倖,只有牙膏廠才只靠僥倖
→ : 例如最近發表的CUDA Tile就是再次自己拆自己護城河
→ : 用更大護城河取代自己的舊護城河,推動技術革命
只有谷歌跟老黃願意革自己的命,
其實谷歌這幾年的犧牲更大,
但是該做的事, 還是要做,
還是要有人有勇氣去做對的事情
在開會的時候,
有句話讓我印象非常深刻,
也是徹底改變我對公司還有業界使命感的印象,
算法的頭說,
performance is amazing,
但是我們不敢保證新的算法+新的架構+新的XPU 開始大規模落地實現的時候,
也就是一兩年後,
我們不敢保證那時候會有更新更厲害的算法與架構,
如果到時候有更強的算法與架構,
我們這幾年的投入會成為一場空,
但是我們不能錯過任何的機會,
不能錯過這個新的算法與架構,
我們願意賭一把
※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:28:51
※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:32:06
→ : 還好我在谷歌革命成功前夕進了一點,賭對了 XD33F 12/14 19:30
推 : NVDA GOOG TSM TSLA PLTR34F 12/14 19:32
→ : 做動態比例調整 誰跌買誰各位覺得行不?
※ 編輯: waitrop (174.194.128.87 美國), 12/14/2025 19:40:15→ : 做動態比例調整 誰跌買誰各位覺得行不?
→ : 舊架構TPU已經贏了,新架構也會贏下去36F 12/14 19:35
推 : 買VOO表示無所謂,誰贏我都會贏,不像某個宇宙無敵37F 12/14 19:38
→ : 的中國A股,天天都在贏贏贏,但持股從來沒贏過。
→ : 的中國A股,天天都在贏贏贏,但持股從來沒贏過。
推 : 狗家只要一直圍繞著tpu 開發就好 根本不會有什麼新39F 12/14 19:39
→ : 算法問題
→ : 算法問題
推 : wait大 我很慶幸這個世界有谷歌 讓我有生之年可以41F 12/14 19:46
→ : 用AI做音樂。你工作辛苦了 ^o^
→ : 最重要是沒有老黃的硬體 這個理想更難發生 一起攜
→ : 手引領人類的文明吧
→ : 用AI做音樂。你工作辛苦了 ^o^
→ : 最重要是沒有老黃的硬體 這個理想更難發生 一起攜
→ : 手引領人類的文明吧
推 : 所以老黃黑歸黑,還是蠻肯拼的45F 12/14 19:49
推 : 本來就不一定會成功阿46F 12/14 19:49
→ : 我看文章cpx應該不是為了解決memory wall,因為pre47F 12/14 19:49
→ : fill是計算需求大於記憶體IO,所以才改選擇gddr
→ : memory較為經濟。而且實際上業界一直努力在減少io
→ : wall,這也是為啥誕生hbm,hbf。而且除了容量與頻
→ : 寬,架構上也有近存運算跟存內運算,Cerebras跟寒
→ : 武紀就是例子。另外每bit傳輸的能量也需要降低,所
→ : 以有cpo/cpc。最後,始終都要考慮經濟問題而不是一
→ : 味採用較高的規格。
→ : fill是計算需求大於記憶體IO,所以才改選擇gddr
→ : memory較為經濟。而且實際上業界一直努力在減少io
→ : wall,這也是為啥誕生hbm,hbf。而且除了容量與頻
→ : 寬,架構上也有近存運算跟存內運算,Cerebras跟寒
→ : 武紀就是例子。另外每bit傳輸的能量也需要降低,所
→ : 以有cpo/cpc。最後,始終都要考慮經濟問題而不是一
→ : 味採用較高的規格。
→ : 反正就先吹,到時候失敗再找藉口就好了55F 12/14 19:49
推 : 谷歌從頭到尾用TPU訓練他們自家的模型,迭代自己的56F 12/14 19:57
→ : 硬體跟演算法,兩者互相配合,而其他家用的是GPGPU
→ : ,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌
→ : 在發展AI上,有別於其他家的獨一無二又非常關鍵的優
→ : 勢!
→ : 硬體跟演算法,兩者互相配合,而其他家用的是GPGPU
→ : ,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌
→ : 在發展AI上,有別於其他家的獨一無二又非常關鍵的優
→ : 勢!
推 : 頂多就讓tpu慢兩年吧,新架構出來也不見得tpu不支61F 12/14 19:59
→ : 援
→ : 援
推 : 現在要思考的是,如果有新架構能否在GPGPU上發揮優63F 12/14 20:09
→ : 勢?如果可以,馬上切換模擬不是問題,如果涉及硬體
→ : 必須要配合(畢竟GPU也不是萬能),比如記憶體牆,
→ : 谷歌的TPU是唯一自己可以迭代配合的,恐怖呦
→ : 勢?如果可以,馬上切換模擬不是問題,如果涉及硬體
→ : 必須要配合(畢竟GPU也不是萬能),比如記憶體牆,
→ : 谷歌的TPU是唯一自己可以迭代配合的,恐怖呦
推 : 噗 不要最後新算法提出的不是谷歌,是Ilya Sutskeve67F 12/14 20:13
→ : r,然後tpu完全沒優勢,當新算法TPU特化晶片沒有優
→ : 勢回到比通用計算,那GPU就虐了,這就是TPU最危險的
→ : 地方,算法綁定
→ : r,然後tpu完全沒優勢,當新算法TPU特化晶片沒有優
→ : 勢回到比通用計算,那GPU就虐了,這就是TPU最危險的
→ : 地方,算法綁定
→ : 本來就要考慮經濟問題啊,能耗.商轉上市後價格71F 12/14 20:14
推 : GPU全世界都在用,演算法大家都必須「釘死在GPU跟CU72F 12/14 20:21
→ : DA的框架下」,唯一可以軟硬一家,互相配合,無縫接
→ : 軌的就是谷歌。
→ : ChatGPT剛出來時TPU還真的不好使,你猜幾年追上?追
→ : 上後呢?車尾燈可能快甩開了,恐怖呦
→ : DA的框架下」,唯一可以軟硬一家,互相配合,無縫接
→ : 軌的就是谷歌。
→ : ChatGPT剛出來時TPU還真的不好使,你猜幾年追上?追
→ : 上後呢?車尾燈可能快甩開了,恐怖呦
推 : 算法用專用算法 永遠是最強的 transformer主導 所77F 12/14 20:25
→ : 以tpu會贏過gpu 新算法要變成主流才會硬體變成主流
→ : 這就時間的問題 如果新算法主導 自然有對應的tpu
→ : 和npu 短期tpu和gpu都很穩啦 長期還是專用硬體
→ : 以tpu會贏過gpu 新算法要變成主流才會硬體變成主流
→ : 這就時間的問題 如果新算法主導 自然有對應的tpu
→ : 和npu 短期tpu和gpu都很穩啦 長期還是專用硬體
推 : 這就回到一個問題,現在大量製造堆砌的TPU,一旦換81F 12/14 20:30
→ : 算法舊的TPU直接變成垃圾,至於換算法後,TPU一開始
→ : 表現不好,後面能追上,覺得很神奇,其實答案呼之欲
→ : 出,因為初期還是大量買GPU撐場,然後再研發,我不
→ : 會說他研發不出來,但也許他研發出來人家早就賺飽下
→ : 一代了顆顆
→ : gpu早就開始規模效益了,而你要先砍掉一半在跟人買g
→ : pu拼研發,沒事啦,谷歌就是錢多嘛
→ : 算法舊的TPU直接變成垃圾,至於換算法後,TPU一開始
→ : 表現不好,後面能追上,覺得很神奇,其實答案呼之欲
→ : 出,因為初期還是大量買GPU撐場,然後再研發,我不
→ : 會說他研發不出來,但也許他研發出來人家早就賺飽下
→ : 一代了顆顆
→ : gpu早就開始規模效益了,而你要先砍掉一半在跟人買g
→ : pu拼研發,沒事啦,谷歌就是錢多嘛
推 : 你接下來要考慮的不是這個發生過的場景,你要考慮的89F 12/14 20:34
→ : 是GPU不是萬能,萬一新算法發生在TPU(畢竟狗家是軟
→ : 硬互相配合),GPU模擬不出來的可能性
→ : 而且狗家都說了,以後有含金量的論文是不準發表的
→ : 是GPU不是萬能,萬一新算法發生在TPU(畢竟狗家是軟
→ : 硬互相配合),GPU模擬不出來的可能性
→ : 而且狗家都說了,以後有含金量的論文是不準發表的
推 : asic也不是完全不能改啊...93F 12/14 20:45
→ : 現在有一些asic作法是有預留可彈性變更的 有點像fp
→ : ga
→ : 所以你說算法一變TPU就完全不能用也倒未必
→ : 另外 新算法出來也不一定打死舊的TPU 畢竟用目前的
→ : TPU已經能完成不少事 並不是全世界的所的人都需要
→ : 這麼高效的AI功能吧
→ : 現在有一些asic作法是有預留可彈性變更的 有點像fp
→ : ga
→ : 所以你說算法一變TPU就完全不能用也倒未必
→ : 另外 新算法出來也不一定打死舊的TPU 畢竟用目前的
→ : TPU已經能完成不少事 並不是全世界的所的人都需要
→ : 這麼高效的AI功能吧
推 : 他這想法搞不好在6G.7G有機會實現阿100F 12/14 20:56
→ : 你說一兩年直接整個架構全部改成這樣我覺得難
→ : 你說一兩年直接整個架構全部改成這樣我覺得難
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 3 累積人氣: 17
作者 waitrop 的最新發文:
必須說聲抱歉, 我常常臨時衝動 想到什麼就直接說出口, 然後就得罪人了, 我發這篇文章的時候, 的確沒去想過投資者的立場, 真的很抱歉 對於數據與財報部分, 我只是稍微讀過, 再加上我自己的經驗反推 …117F 69推 3噓
其實, 我一直喊遠離ORCL, 很很久了, 從他大漲的那天開始 我就不看好, 就像前一篇文章fallinlove15說的, 要是真的這麼好賺, 怎麼全世界就只有你ORCL能賺, 你ORCL有什麼特別 …138F 59推 4噓
"open ai泡沫 ≠ AI泡沫" 現在很明顯AI不是泡沫, 就跟2000年網路不是泡沫, 但是CSCO ORCL股價是泡沫, 我做多AI, 不表示我就一定要看多OpenAI, …139F 26推 1噓
的確是垃圾時間, 但是垃圾時間的定義跟你說的不同, 首先, 我們來看最近最流行的這句話: Scaling is over and LLMs are a dead end. 翻成中文, 就是我11/1 …181F 56推 1噓- 10F 2推 1噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享



