※ 本文轉寄自 ptt.cc 更新時間: 2025-12-22 15:36:40
看板 Stock
作者 標題 Re: [新聞] 「大賣空」本尊貝瑞:美國 AI 發展押寶 N
時間 Mon Dec 22 06:00:17 2025
很多觀點跟我相同,
我也覺得應該要改算法改硬體架構,
但是貝瑞說話只說一半,
貝瑞提出算法跟架構的問題, 是沒錯的,
但是有另一半更關鍵的事實 貝瑞故意隱藏不說,
結論就是,
貝瑞放空會被嘎爆,
想用一半事實的話造成市場恐慌跟賣壓,
但是這招沒用, 回頭是岸
※ 引述《pmes9866 (I Need Some Sleep)》之銘言:
: 原文標題:「大賣空」本尊貝瑞:美國 AI 發展押寶 NVIDIA 晶片 注定會輸中國大陸
: 原文連結:https://money.udn.com/money/story/5599/9216364
: 發布時間:2025/12/20 22:12:36
: 記者署名:湯淑君
: 原文內容:
: 電影「大賣空」原型人物貝瑞20日警告,倘若美國企業砸重金投入人工智慧(AI)軍備競
: 賽,而且押寶輝達(Nvidia)耗電兇的輝達AI晶片,注定會是輸家。
這句話只對一半,
輝達AI晶片的確是耗電, ASIC省電很多,
但是輝達不是沒有能力做ASIC TPU,
而是"現在"輝達不願意做ASIC TPU,
所以那些說輝達GPU 會被TPU打敗的人,
根本是出來亂的,
輝達不是不能做省電的ASIC TPU,
而是不願意做
因為他強迫你吃下一整包全家桶的GPU,
號稱通用型GPU,
也就是同時強迫你吃下一堆你用不到的功能還會幫你耗電,
但是對輝達而言,
你買全家桶 他才賺得多,
如果沒有被逼急了,
他何必出省電ASIC TPU 來跟自己的八成毛利GPU對打
那麼, 能夠出全家桶的輝達GPU,
難道沒有能力出全家桶裏頭某個特定功能的ASIC TPU嗎?
當然可以,
只是不願意
相信我,
等到真的電不夠供應GPU,
導致影響輝達GPU銷量的時候,
省電版的輝達ASIC TPU就會出現
: 貝瑞表示,輝達的發展路線圖,形同是電力消耗路線圖;假如輝達晶片是美國AI發展的大
: 勢所趨,他認為中國大陸必定是贏家。他指出,目前美國的技術創新,只是試圖找出如何
: 驅動和冷卻更大、更熱的矽晶片。由於用電效率提升的速度趕不上部署算力的腳步,發電
: 量必須持續攀升。
: 貝瑞貼出一張以國際能源總署(IEA)數據製作的圖表,顯示中國大陸2024年的已安裝發
: 電產能約3,300GW(百萬瓩),是美國1,260GW的兩倍多。他指出,這張圖表顯示,美國AI
: 發展若延續現行路線,絕對贏不了。
這又是說對一半,
中國的電量大概是美國的兩三倍以上,
而且持續加蓋水壩跟核電廠, 沒錯,
但是中國因為硬體技術問題,
不論是晶圓良率與奈米數都遠遠輸給台灣跟美國,
GPU TPU ASIC設計也遠遠輸給美國,
所以硬體技術導致的能耗也是遠遠輸給美國,
比方說,
同樣的模型,
美國需要用一瓦的電,
但是中國需要用五瓦甚至是十瓦的電,
也就是說,
中國的AI競賽是用土法煉鋼的方式在進行,
尤其在硬體方面,
就算中國的電力比美國多,
也不見得中國一定贏
美國發電產能長遠來看的確是個嚴重的問題,
但是我不認為中國一定贏,
更可能的結果是中美兩國都在錯誤的方向上面一直走下去,
錯誤的算法跟架構,
單純在浪費地球的能源
: 原因在於,中國大陸不僅發電量遙遙領先,發電產能還加速成長,如圖表中扶搖直上的斜
: 線所示。有別於美國的輸電網發展因審核問題而減速,中國大陸可隨心所欲建立與電力產
: 出匹配的輸電網。
: 由此觀之,美企投注巨資加入這場AI軍備競賽,就結構因素而論,注定會失敗。
: 因此,貝瑞認為,美國企業必須捨棄吃電愈來愈兇的晶片,轉向ASIC(特殊應用積體電路
: )晶片。
: 但輝達透過與美國眾多重要AI公司和新創公司的投資安排與協議,「已死死掌控」美國的
: AI發展。
Again, 說對一半,
輝達絕對有能力做ASIC,
他只是不願意做
: 貝瑞呼籲,美國司法部反托辣斯當局應調查此事,並且採取行動。但他認為,美國總統川
這句話就是在講AI永動機,
的確是玩過頭,
但是川普沒膽抓啦!
這個永動機牽扯到太多人太多政治勢力,
我們還是繼續來檢討谷歌的反托拉斯案,
一人犧牲 可以成全所有的人
: 普或許會加以制止。所以,只能留待市場自己覺醒,大型語言模型(LLM)並不是通往通
: 用人工智慧(AGI)或超人工智慧(ASI)之路。問題是,美國大型企業可能轉向嗎?
我覺得整篇文章說對的點就在這句話,
LLM 不是通向AGI 正確的道路,
目前 GPU 架構也不是,
LLM GPU 都只是通向AGI的過渡期產品,
大型企業應該要有勇氣去嘗試正確的方向,
雖然我們還不知道正確的方向在哪
: 心得/評論:
: 貝瑞的邏輯是這樣的:
: GPU很耗電->美國電力不足->繼續押注輝達會輸給中國->美國應該押ASIC
: 你各位怎麼看
: https://pbs.twimg.com/media/G8mL7ivaQAENvPv?format=png&name=900x900
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.75.147.178 (臺灣)
※ 作者: waitrop 2025-12-22 06:00:17
※ 文章代碼(AID): #1fI6tpdy (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1766354419.A.9FC.html
※ 同主題文章:
12-22 01:31 ■ [新聞] 「大賣空」本尊貝瑞:美國 AI 發展押寶 NVIDIA 晶片 注定會輸中國大陸
● 12-22 06:00 ■ Re: [新聞] 「大賣空」本尊貝瑞:美國 AI 發展押寶 NVIDIA 晶片 注定會輸中國大陸
推 : 他有些話說的沒有錯,LLM確實無法達到AGI,現在的A1F 12/22 06:12
→ : I過於耗電,未來肯定還有新一波科技革命來解決這些
→ : 事情
→ : I過於耗電,未來肯定還有新一波科技革命來解決這些
→ : 事情
推 : 懂惹 貝瑞=老蘇=對一半老師4F 12/22 06:23
推 : LLM就只是歸納法 海量資料 建立模型找出規律 預測5F 12/22 06:29
→ : 未來
→ :
→ : 人類的大腦除了歸納法 還有演繹法
→ : 演繹法可以讓人類的大腦在學習事務時 大幅降低能耗
→ : 比ai還節能
→ : 例如你被火燙到一次 你就知道各種場景的火不能靠近
→ : 亂碰
→ : 可是現階段的ai
→ : 你必須讓他學習 蠟燭的火 壁爐的火 露營的火 全天
→ : 下各種場景的火你都要讓他看過一次 訓練一次
→ : 她才知道所有的火源都不能靠近
→ : 這就是ai訓練比人腦還耗費能量的原因之一
→ : 類神經網路這種演算法 試圖模擬生物的腦神經 但只
→ : 模擬了一部分
→ : 離造物主的智慧還差太遠
→ : 大腦遠沒有這麼簡單
推 : 所以18歲的人類學開車就只需要一個禮拜
→ : ai卻要海量資料訓練好幾百億里程
→ : 才會開車
推 : 大腦從遠古生物演化到現在 越來越精明
→ : 根本是違反熱力學第二定律
→ : 代表人腦的出現根本是外力介入
→ : 不是自然產生
→ : 我們是被創造的 上帝創造了我們
→ : 精密*
→ : 如果我們能創造出AGI 豈不是比上帝還強大了
→ : 那到時候人類 還會看得起上帝嗎
→ : 上帝創造人類
→ : 而人類創造一個比上帝更聰明的大腦
→ : 那上帝還需要給我們尊重嗎
→ : 那我們還需要給上帝尊重嗎 lol
→ : 未來
→ :
→ : 人類的大腦除了歸納法 還有演繹法
→ : 演繹法可以讓人類的大腦在學習事務時 大幅降低能耗
→ : 比ai還節能
→ : 例如你被火燙到一次 你就知道各種場景的火不能靠近
→ : 亂碰
→ : 可是現階段的ai
→ : 你必須讓他學習 蠟燭的火 壁爐的火 露營的火 全天
→ : 下各種場景的火你都要讓他看過一次 訓練一次
→ : 她才知道所有的火源都不能靠近
→ : 這就是ai訓練比人腦還耗費能量的原因之一
→ : 類神經網路這種演算法 試圖模擬生物的腦神經 但只
→ : 模擬了一部分
→ : 離造物主的智慧還差太遠
→ : 大腦遠沒有這麼簡單
推 : 所以18歲的人類學開車就只需要一個禮拜
→ : ai卻要海量資料訓練好幾百億里程
→ : 才會開車
推 : 大腦從遠古生物演化到現在 越來越精明
→ : 根本是違反熱力學第二定律
→ : 代表人腦的出現根本是外力介入
→ : 不是自然產生
→ : 我們是被創造的 上帝創造了我們
→ : 精密*
→ : 如果我們能創造出AGI 豈不是比上帝還強大了
→ : 那到時候人類 還會看得起上帝嗎
→ : 上帝創造人類
→ : 而人類創造一個比上帝更聰明的大腦
→ : 那上帝還需要給我們尊重嗎
→ : 那我們還需要給上帝尊重嗎 lol
→ : 大嘎空37F 12/22 06:52
推 : 推38F 12/22 07:12
推 : 但現在還不知道agi 什麼時候或是有沒有可能會被做出39F 12/22 07:16
→ : 來吧,如果現在的ai架構可以發展到解決或改進現在人
→ : 類世界的大部分問題,那還是繼續看多吧?
→ : 來吧,如果現在的ai架構可以發展到解決或改進現在人
→ : 類世界的大部分問題,那還是繼續看多吧?
推 : AI:尊重上帝 鄙視人類42F 12/22 07:20
推 : 車子不能上樓梯,所以人比車強。真棒43F 12/22 07:28
噓 : 所有美國菁英都認為中國與美國在AI競賽非常接近44F 12/22 07:30
→ : 我看你是比他們都懂喔
→ : 我看你是比他們都懂喔
噓 : 能夠代表所有美國精英的人出現了 大家給點尊重46F 12/22 07:48
我只是個反社會性格的魯蛇,就是又窮又失敗的魯蛇,
才會反社會人格,
我每天唯一的娛樂就是看youtube美食吃播,
然後搭配一碗泡麵當晚餐
我出來說這些,
只是希望大家不要被空頭嚇到不敢投資AI股票,
甚至被空頭嚇到去反手做空AI股票,
我只是希望大家都能在這波AI浪潮裡頭賺到錢,
不要被有心人帶著走,
賠了錢又賠了人
→ : 就是拿硬體可以更好 也要發展軟體之類的厚問吧47F 12/22 07:51
→ : ASIC我幹嗎跟輝達買?48F 12/22 08:00
→ : 好49F 12/22 08:08
噓 : 胡扯50F 12/22 08:09
噓 : 耗電量那裡怎麼跟實際使用的完全相反?51F 12/22 08:13
噓 : 演化越來越精明哪裡違反熱力學 到底說啥鬼 你以為52F 12/22 08:13
→ : 演化是多者恆多大者恆大喔
→ : 無情的篩選機器 破腦就是會死 聰明就是會活 哪裡違
→ : 反定律了
→ : 演化是多者恆多大者恆大喔
→ : 無情的篩選機器 破腦就是會死 聰明就是會活 哪裡違
→ : 反定律了
→ : 並不是,NVDA把自己變成ASIC的那一刻開始就輸了,通56F 12/22 08:15
→ : 用再也不通用,他自己又不像谷歌軟硬垂直整合。他現
→ : 在把GPU加上Tensor core 就註定會差TPU越來越遠
→ : 用再也不通用,他自己又不像谷歌軟硬垂直整合。他現
→ : 在把GPU加上Tensor core 就註定會差TPU越來越遠
推 : Nvidia設計的ASIC有競爭力這點,我是打問號,毫不59F 12/22 08:15
→ : 疑問的是GPU設計上,N家打競爭力是其他公司遠遠比
→ : 不上的
→ : 疑問的是GPU設計上,N家打競爭力是其他公司遠遠比
→ : 不上的
→ : N家的CUDA在初期路徑依賴是優點,一旦被TPU平手,接62F 12/22 08:17
→ : 下來就是缺點了。他必須背著CUDA跟純Tensor 比賽
→ : 下來就是缺點了。他必須背著CUDA跟純Tensor 比賽
→ : 優點是算法變了tpu就幾乎死光了QQ64F 12/22 08:22
推 : 其實那些七巨頭CEO的邏輯滿第一性原理的吧,LLM不一65F 12/22 08:28
→ : 定是聖杯,但也夠現在加速尋找新的聖杯算法了。人類
→ : 科技研發正在加速,意思新算法可能在近幾年加速出來
→ : 。然後就是關鍵,新算法假設真的誕生,那個新算法就
→ : 可以用小於地球文明的算力,來計算出改變地球文明的
→ : 結果嗎?你在尋找現實世界的bug嗎?這是偷懶和不切
→ : 實際,新的算法肯定是更適應scaling law的算法,如
→ : 果是這邏輯,那麼現在的算力中心就等於是多重押寶,
→ : 如果現在LLM就是聖杯,nice,如果不是新算法誕生一
→ : 樣瞬間贏人,nice,然後既然未來的需求場景是agi as
→ : i,是星際移民,這些算力需求就肯定要至少要等同於
→ : 地球文明,才有辦法算出改變地球文明的結果嘛。然後
→ : 勒量子電腦NV google也在守著,第三重押寶
→ : 定是聖杯,但也夠現在加速尋找新的聖杯算法了。人類
→ : 科技研發正在加速,意思新算法可能在近幾年加速出來
→ : 。然後就是關鍵,新算法假設真的誕生,那個新算法就
→ : 可以用小於地球文明的算力,來計算出改變地球文明的
→ : 結果嗎?你在尋找現實世界的bug嗎?這是偷懶和不切
→ : 實際,新的算法肯定是更適應scaling law的算法,如
→ : 果是這邏輯,那麼現在的算力中心就等於是多重押寶,
→ : 如果現在LLM就是聖杯,nice,如果不是新算法誕生一
→ : 樣瞬間贏人,nice,然後既然未來的需求場景是agi as
→ : i,是星際移民,這些算力需求就肯定要至少要等同於
→ : 地球文明,才有辦法算出改變地球文明的結果嘛。然後
→ : 勒量子電腦NV google也在守著,第三重押寶
推 : 算法已經註定無法大幅改變了,這邏輯要是成立,TPU78F 12/22 08:29
→ : 現在還在追GPU,GPU也不會貿然加上Tensor Core ,當
→ : GPU一半變成Tensor core ,等於NV也在壓寶目前的演
→ : 算法,演算法也就從此只能小幅更動,TPU變廢鐵只是
→ : 假議題。任何大幅度更動的演算法在TPU上不能跑,在G
→ : PU上跑的效能也是極差,這類變形算法反而谷歌較為容
→ : 易實現,因為他軟硬結合,而GPU被CUDA綁住,迭代速
→ : 度差不止TPUㄧ倍
→ : 現在還在追GPU,GPU也不會貿然加上Tensor Core ,當
→ : GPU一半變成Tensor core ,等於NV也在壓寶目前的演
→ : 算法,演算法也就從此只能小幅更動,TPU變廢鐵只是
→ : 假議題。任何大幅度更動的演算法在TPU上不能跑,在G
→ : PU上跑的效能也是極差,這類變形算法反而谷歌較為容
→ : 易實現,因為他軟硬結合,而GPU被CUDA綁住,迭代速
→ : 度差不止TPUㄧ倍
→ : 所以你覺得人類有可能找出宇宙的bug,開始變魔法,86F 12/22 08:31
→ : 用小於地球文明計算的資源,來計算出改變地球文明的
→ : 結果?
→ : 用小於地球文明計算的資源,來計算出改變地球文明的
→ : 結果?
推 : 跟bug無關,運算法不變:TPU成本效能屌打,運算法大89F 12/22 08:34
→ : 幅變動:TPU可以快速迭代,軟硬配合馬上適配,GPU被
→ : CUDA綁住,向前兼容,只能慢慢改
→ : 這兩個狀況在模型表現追上來之後,後面的加速度是GP
→ : U通用型天生的劣勢
→ : 若只是小幅變動的演算法,谷歌完全可以改編譯器來配
→ : 合,完全不受影響。
→ : 三條路徑邏輯上都是ASIC贏
→ : 幅變動:TPU可以快速迭代,軟硬配合馬上適配,GPU被
→ : CUDA綁住,向前兼容,只能慢慢改
→ : 這兩個狀況在模型表現追上來之後,後面的加速度是GP
→ : U通用型天生的劣勢
→ : 若只是小幅變動的演算法,谷歌完全可以改編譯器來配
→ : 合,完全不受影響。
→ : 三條路徑邏輯上都是ASIC贏
推 : 現在講的都是講LLM可能不是聖杯捏?你現在就押寶TPU97F 12/22 08:39
→ : for LLM,改變的話TPU可能更慘捏,你知道為啥谷歌
→ : 還是買GPU嗎?然後你放心當新聖杯真的確定出來nv絕
→ : 對開始開發asic
→ : 重點就是你根本就不知道現在的算法是不是聖杯,就開
→ : 始為了現在不是聖杯的算法押注asic,這個可能是更嚴
→ : 重的戰略錯誤捏?你懂谷歌為啥現在還是買gpu嗎
→ : for LLM,改變的話TPU可能更慘捏,你知道為啥谷歌
→ : 還是買GPU嗎?然後你放心當新聖杯真的確定出來nv絕
→ : 對開始開發asic
→ : 重點就是你根本就不知道現在的算法是不是聖杯,就開
→ : 始為了現在不是聖杯的算法押注asic,這個可能是更嚴
→ : 重的戰略錯誤捏?你懂谷歌為啥現在還是買gpu嗎
→ : 美國全押所有能發展AI的科技又不只是押輝達...還有104F 12/22 08:41
→ : AMD..量子..ASIC,笑貝瑞只押空輝達
→ : AMD..量子..ASIC,笑貝瑞只押空輝達
推 : 谷歌的GPU反正不是訓練自己的模型用106F 12/22 08:47
→ : 給客戶用很正常
→ : 演算法大幅改變的情形,CUDA core不能丟, Tensor co
→ : re 也不能全丟,迭代幅度跟速度註定很慢。TPU不同,
→ : 他追上transformer 架構也就兩年。他已經先讓CUDA十
→ : 年,在用兩年追上來。
→ : 一旦追上,後面就可以想像了,一個軟硬體可以隨時進
→ : 化,而通用型只能演化
→ : 給客戶用很正常
→ : 演算法大幅改變的情形,CUDA core不能丟, Tensor co
→ : re 也不能全丟,迭代幅度跟速度註定很慢。TPU不同,
→ : 他追上transformer 架構也就兩年。他已經先讓CUDA十
→ : 年,在用兩年追上來。
→ : 一旦追上,後面就可以想像了,一個軟硬體可以隨時進
→ : 化,而通用型只能演化
推 : 川普 鬆綁 AI監管,AI的領域太廣啦,很難單一技術114F 12/22 08:47
→ : 一統天下,軟硬體全力衝刺,不會只押輝達,誰適合A
→ : SIC,GPU,TPUNPU各自去發展啦
→ : 一統天下,軟硬體全力衝刺,不會只押輝達,誰適合A
→ : SIC,GPU,TPUNPU各自去發展啦
→ : GPU只能優化(typo)117F 12/22 08:48
推 : 你要確定谷歌的研發有超越欸,你知道現在tpu v7算力118F 12/22 08:48
→ : 還超越不了gb200嗎==
→ : 還超越不了gb200嗎==
→ : 單卡比算力不是重點,重點在每個token的成本TPU屌打120F 12/22 08:50
推 : token耗電量, Google 是openAI 10%121F 12/22 08:56
推 : 貝瑞故意隱藏不說,不論GPU或TPU都輸中國啦,中國122F 12/22 08:59
→ : 最大贏家,大賣空大賺啦
→ : 最大贏家,大賣空大賺啦
推 : 你知道更慘的是什麼嗎,tpu v7算不贏gb200就算了,124F 12/22 09:01
→ : 這個谷歌的asic還是針對可能不是聖杯算法的LLM來特
→ : 化的,而nv的gb200很可能新的聖杯算法完全吃得到,
→ : 要是新的聖杯算法不是LLM你的for llm的asic該何去何
→ : 從捏?
→ : 這個谷歌的asic還是針對可能不是聖杯算法的LLM來特
→ : 化的,而nv的gb200很可能新的聖杯算法完全吃得到,
→ : 要是新的聖杯算法不是LLM你的for llm的asic該何去何
→ : 從捏?
推 : 同意129F 12/22 09:01
推 : 貝瑞現在很像有點影響力的空方怕被尬爆瘋狂放小作130F 12/22 09:03
→ : 文
→ : 文
推 : 不需要到AGI, 只需要取代部分猴子132F 12/22 09:04
推 : 演算法的發展是從發散到收斂的過程,你的邏輯要是成133F 12/22 09:06
→ : 立,ASIC只有在演算法穩態的時候,模型表現才有機會
→ : 趕上GPU,而現在已經趕上了。趕上之後呢?有沒有想
→ : 過?
→ : 現在突然有一個變種演算法,TPU改編譯器也不能適配
→ : ,但GPU可以發揮完美的效能?
→ : 這跟中國突然演化出AGI的機率差不多吧
→ : 立,ASIC只有在演算法穩態的時候,模型表現才有機會
→ : 趕上GPU,而現在已經趕上了。趕上之後呢?有沒有想
→ : 過?
→ : 現在突然有一個變種演算法,TPU改編譯器也不能適配
→ : ,但GPU可以發揮完美的效能?
→ : 這跟中國突然演化出AGI的機率差不多吧
推 : 不先發展過渡產品怎麼有辦法憑空做出正確AI?汽車出140F 12/22 09:07
→ : 現後馬車存在很長時間
→ : 現後馬車存在很長時間
→ : 無知142F 12/22 09:13
→ : 前陣子google發的nested learning就變種阿143F 12/22 09:15
→ : w大還說新tpu設計好了之類的
→ : w大還說新tpu設計好了之類的
推 : 所以我說,真的要變種,也是變種在ASIC上,GPU被CUD145F 12/22 09:22
→ : A綁住,根本無法大幅變異
→ : A綁住,根本無法大幅變異
推 : 每次算法的改變都相當於原本半導體變成量子電腦吧?147F 12/22 09:44
→ : 你說要都在Asic上才能買變體?現在講的是llm和trans
→ : former 要換掉的等級,你講的像是在llm和transforme
→ : r上繼續改進增強,嗯,好像不是這樣喔
→ : 你說要都在Asic上才能買變體?現在講的是llm和trans
→ : former 要換掉的等級,你講的像是在llm和transforme
→ : r上繼續改進增強,嗯,好像不是這樣喔
→ : 你跟把AI的回答當真理的人認真幹嘛151F 12/22 09:45
→ : 在ASIC上的變體,那就不叫做算法改變,這叫做算法增152F 12/22 09:46
→ : 強補充,但現在大家在講的是llm和transformer 不是
→ : 聖杯,這兩個都將被換成新算法的事件等級喔
→ : 強補充,但現在大家在講的是llm和transformer 不是
→ : 聖杯,這兩個都將被換成新算法的事件等級喔
→ : 簡單講,你怎麼確定新算法可以在GPU上跑?155F 12/22 09:47
推 : 至少gpu打擊範圍比for llm的asic還要廣156F 12/22 09:48
→ : 新算法高機率是能跑 因為寫論文的人模擬和計算用的157F 12/22 09:49
→ : 基礎大多是基於能跑 不用設計全新元件
→ : 當然還有另一批元件設計基礎的人 整天設計新元件
→ : 從元件耗能基礎上提出新元件要怎麼計算(比如量子)
→ : 基礎大多是基於能跑 不用設計全新元件
→ : 當然還有另一批元件設計基礎的人 整天設計新元件
→ : 從元件耗能基礎上提出新元件要怎麼計算(比如量子)
→ : 或是在GPU上可以高效運作跑贏Transformer?這就是路161F 12/22 09:51
→ : 徑依賴的悖論,看起來CUDA有彈性,實際上科學家研究
→ : 徑依賴的悖論,看起來CUDA有彈性,實際上科學家研究
推 : 不是R 整天說LLM不是終點要人家改算法 那誰敢冒險買163F 12/22 09:51
→ : 演算法已經被GPU+CUDA的架構限制住了,超出這個範疇164F 12/22 09:51
→ : 的演算法根本出不來。結果就是軟體跟硬體本一家,可
→ : 以互相配合發展的垂直整合,才真正有機會變異成一個
→ : 全新的演算法
→ : 的演算法根本出不來。結果就是軟體跟硬體本一家,可
→ : 以互相配合發展的垂直整合,才真正有機會變異成一個
→ : 全新的演算法
→ : 你現在會遇到的"算法"guy大致上都是指狹義的那群168F 12/22 09:51
→ : ASIC 至少不敢重壓 啊你改個算法 我百億ASIC不就通169F 12/22 09:51
→ : 通報廢
→ : 通報廢
→ : 像量子那批人你也可以說它是搞算法的 廣義上是啊171F 12/22 09:52
→ : 就算是TPU 等以後狗家革自己的命不在搞LLM172F 12/22 09:52
→ : TPU一樣要改版 前代通通報廢
→ : TPU一樣要改版 前代通通報廢
→ : 所以你討論算法的時候 你得先澄清你說的是狹義廣義174F 12/22 09:52
→ : 比如你拿著量子算法說你們遲早都要被淘汰 好喔
→ : 比如你拿著量子算法說你們遲早都要被淘汰 好喔
→ : 這個就之前挖礦,挖比特幣的asic礦機,計算比特幣的176F 12/22 09:54
→ : 速度雖然快,但拿asic去挖新的幣,效率可能比一般gp
→ : u還要低。然而現在的情形更慘,是asic的專用速度還
→ : 打不贏舊版gpu,要是今天大家今天的聖杯不在是你專
→ : 用asic的那個小小的守備範圍,你會更慘,更不要說你
→ : 的專用asic連舊版gpu都打不贏
→ : 速度雖然快,但拿asic去挖新的幣,效率可能比一般gp
→ : u還要低。然而現在的情形更慘,是asic的專用速度還
→ : 打不贏舊版gpu,要是今天大家今天的聖杯不在是你專
→ : 用asic的那個小小的守備範圍,你會更慘,更不要說你
→ : 的專用asic連舊版gpu都打不贏
→ : 還有另一批人搞的是記憶體中計算(CIM) 另一批人是搞182F 12/22 09:55
→ : CPO(節省不了計算我節省搬運耗能總行了吧)
→ : CPO(節省不了計算我節省搬運耗能總行了吧)
推 : 狗家的優勢是,軟體可以配合硬體,硬體可以配合軟體184F 12/22 09:55
→ : ,想搞什麼變形都有可能,而且保證優化。GPU的天生
→ : 缺點是搞大模型的要他改A,搞推論的要他改B,搞數字
→ : 孿生的要他改C,怎麼改?越改越龐大,這就是通用型
→ : 天生的原罪,還要跟五年內的算法兼容
→ : ,想搞什麼變形都有可能,而且保證優化。GPU的天生
→ : 缺點是搞大模型的要他改A,搞推論的要他改B,搞數字
→ : 孿生的要他改C,怎麼改?越改越龐大,這就是通用型
→ : 天生的原罪,還要跟五年內的算法兼容
→ : 然後每個新的硬體都要有差不多大改的算法(搬運)189F 12/22 09:56
推 : 既然這麼專用這麼輕量,算力為什麼tpu v7還打不贏gb190F 12/22 09:56
→ : 200?
→ : 200?
噓 : 現在股板八卦板一堆簡轉繁的支吹 到底發生什麼事了192F 12/22 09:56
→ : 這篇正確 gpu就是個過渡時期的東西 遲早要淘汰193F 12/22 09:59
推 : 八卦版的粉紅開始往其它版擴散了吧......194F 12/22 10:00
→ : 現在押注asic相當於押注llm是聖杯吧195F 12/22 10:00
噓 : 果然嘴砲無雙196F 12/22 10:06
推 : 這篇邏輯正常,不過,輝達不是強迫你要吃全家桶,197F 12/22 10:07
→ : 而是對他而言這是比較符合生產效益,就像用office
→ : 就能解決普遍文書作業,不需要在專門再成立一個tea
→ : m for case by case
→ : 而是對他而言這是比較符合生產效益,就像用office
→ : 就能解決普遍文書作業,不需要在專門再成立一個tea
→ : m for case by case
→ : AI晶片都嘛在比集群運算的,比單顆算力AMD早成為替201F 12/22 10:08
→ : 代品了
→ : 代品了
→ : PTT的極簡文字交流性我覺得是世界上最好的203F 12/22 10:09
推 : 耶和華是永恆的上帝,是創造地極的主宰。 祂不會疲204F 12/22 10:10
→ : 乏,也不會困倦, 祂的智慧深不可測。
→ : 乏,也不會困倦, 祂的智慧深不可測。
→ : 大家要多多向大學生推廣206F 12/22 10:10
推 : 阿現在的tpu asic是專門for llm推理加速的捏?不要207F 12/22 10:10
→ : 最後llm不是聖杯最後剩悲捏
→ : 最後llm不是聖杯最後剩悲捏
![[圖]](https://i.imgur.com/uCfspUFh.jpeg)
推 : waitrop 的文章很優 很早在股狗噴出前就很看好的人210F 12/22 10:11
推 : 70年代,美軍駐澎湖單位的臂章211F 12/22 10:11
推 : TPU內部電路對其他人來說根本是黑盒子,現實就是他212F 12/22 10:16
→ : 的模型表現已經打平GPU,比成本更是遠勝。未來進化
→ : 速度更不是GPU能比的,TPU跟GPU不一樣,不是靠硬塞
→ : 的,能砍的電路TPU馬上砍,GPU就是需要保留,來保持
→ : 通用性
→ : 你一直抓著通用型的優點,最後結果就是GPU(專門做
→ : 圖像渲染)打敗CPU(通用型)的歷史重演而已
→ : 的模型表現已經打平GPU,比成本更是遠勝。未來進化
→ : 速度更不是GPU能比的,TPU跟GPU不一樣,不是靠硬塞
→ : 的,能砍的電路TPU馬上砍,GPU就是需要保留,來保持
→ : 通用性
→ : 你一直抓著通用型的優點,最後結果就是GPU(專門做
→ : 圖像渲染)打敗CPU(通用型)的歷史重演而已
推 : big news, Gemini 3完全使用Google自家晶片TPU專用219F 12/22 10:17
→ : 晶片訓練,喔wow Gemini 3 好像是LLM耶?專用LLM真
→ : 的很酷喔
→ : 晶片訓練,喔wow Gemini 3 好像是LLM耶?專用LLM真
→ : 的很酷喔
推 : 你這根本就是先射箭在劃靶 光個TPU進化幅度為什麼222F 12/22 10:19
→ : 能比GPU快 立論基礎在那
→ : 能比GPU快 立論基礎在那
推 : 就比特幣礦機asic,挖比特幣很快,但挖其他的很慢,224F 12/22 10:21
→ : 甚至無法拿來處理其他作業,重點現在這asic還比舊版
→ : gpu慢,然而gpu啥都能挖,阿最慘是,如果大家最後發
→ : 現要挖的其實不是比特幣0.0
→ : 甚至無法拿來處理其他作業,重點現在這asic還比舊版
→ : gpu慢,然而gpu啥都能挖,阿最慘是,如果大家最後發
→ : 現要挖的其實不是比特幣0.0
推 : 因為GPU是通用型,通用型要顧及各家需求,還要顧及228F 12/22 10:25
→ : 向後兼容,天生就是只能慢慢改。
→ : TPU電路要加要減,都是自家說了算,沒有這些顧忌,
→ : 邏輯問題
→ : 向後兼容,天生就是只能慢慢改。
→ : TPU電路要加要減,都是自家說了算,沒有這些顧忌,
→ : 邏輯問題
推 : 然後聖杯算法換了,你原本一大堆for llm的tpu asic232F 12/22 10:26
→ : 要幹嘛,報廢嗎
→ : 要幹嘛,報廢嗎
→ : 谷歌在發展AI也不是只發展LLM,TPU根本不止給LLM使234F 12/22 10:26
→ : 用,從一開始就不是
→ : 聖杯算法只要演化,TPU能更快迭代適應。GPU領先後被
→ : 追平就是例子,更何況現在的GPU還加了Tensor core,
→ : 往TPU靠攏,更證明這條邏輯
→ : 用,從一開始就不是
→ : 聖杯算法只要演化,TPU能更快迭代適應。GPU領先後被
→ : 追平就是例子,更何況現在的GPU還加了Tensor core,
→ : 往TPU靠攏,更證明這條邏輯
推 : NV的GPGPU只要能跑CUDA就好 何時要顧及別人的相容239F 12/22 10:29
→ : 性了笑死
→ : 性了笑死
→ : 而那些gpu還可以用其他地方,就算沒命中新算法。然241F 12/22 10:29
→ : 而我認為它反而完全可以成為新算法算力,而你要賭的
→ : 是新算法就剛好存在於你asic的llm變體,就像賭大家
→ : 換新的幣可以用比特幣asic礦機來挖一樣
→ : 而我認為它反而完全可以成為新算法算力,而你要賭的
→ : 是新算法就剛好存在於你asic的llm變體,就像賭大家
→ : 換新的幣可以用比特幣asic礦機來挖一樣
推 : 笑死,GB200的電路修改,必須顧及H100的用戶,總不245F 12/22 10:37
→ : 能GB200拿到手全部要重新來吧,這就是通用型要顧及
→ : 的地方
→ : TPU只有谷歌用,不管代差變異再大,自家軟體配合就
→ : 行,GPU要顧代差相容,還要顧推理的,大模型的,數
→ : 字孿生的,各式各樣的需求兼顧,註定GPU的代差只能
→ : 優化,而TPU是演化
→ : 能GB200拿到手全部要重新來吧,這就是通用型要顧及
→ : 的地方
→ : TPU只有谷歌用,不管代差變異再大,自家軟體配合就
→ : 行,GPU要顧代差相容,還要顧推理的,大模型的,數
→ : 字孿生的,各式各樣的需求兼顧,註定GPU的代差只能
→ : 優化,而TPU是演化
→ : 今年費半腰斬 之後山腰到頸部震盪252F 12/22 10:45
→ : *明年
→ : *明年
推 : 聽起來tpu對nv越來越沒有威脅了耶,只有谷歌能用、254F 12/22 10:50
→ : 然後還押注我們sam Altman 最愛的llm,當成聖杯,第
→ : 一非谷歌的買了會輸死,第二很llm要是失敗了也會輸
→ : 死,間接看好llm 看好OpenAI
→ : 至於只有tpu是迭代演化,gpu就要打掉重來 我笑了
→ : 然後還押注我們sam Altman 最愛的llm,當成聖杯,第
→ : 一非谷歌的買了會輸死,第二很llm要是失敗了也會輸
→ : 死,間接看好llm 看好OpenAI
→ : 至於只有tpu是迭代演化,gpu就要打掉重來 我笑了
→ : 光TPU對NV沒有威脅,但是各巨頭學谷歌各自發展自己259F 12/22 10:51
→ : 的ASIC,就是威脅了
→ : 的ASIC,就是威脅了
→ : 你說那麼多gpu要顧那個顧這個,而tpu只要專用算某個261F 12/22 10:53
→ : 不用顧慮這麼多,然而事實上產品tpu最新的還是算不
→ : 贏gpu舊版gb200,在搞笑嗎
→ : 不用顧慮這麼多,然而事實上產品tpu最新的還是算不
→ : 贏gpu舊版gb200,在搞笑嗎
→ : GPU沒辦法打掉重來,這就是他註定演化迭代速度註定264F 12/22 10:53
→ : 輸的原因,通用跑輸專用很正常。更何況這個演算法大
→ : 幅改變的邏輯其實不存在,TPU跑不了的GPU跑起來也是
→ : 慢到有剩,最後還是比進化迭代速度
→ : 輸的原因,通用跑輸專用很正常。更何況這個演算法大
→ : 幅改變的邏輯其實不存在,TPU跑不了的GPU跑起來也是
→ : 慢到有剩,最後還是比進化迭代速度
→ : 最大問題還是tpu押注在llm== 除了推理llm毫無用處,268F 12/22 11:05
→ : 就像比特幣礦機asic除了挖礦毫無用處,今天要是算法
→ : 換新的泛式改變,你的專用llm晶片,整組報廢機率比g
→ : pu高非常多,就像你要祈禱比特幣asic礦機還可以挖其
→ : 他幣一樣,這很不切實際。最後退一萬步來說,nv完全
→ : 也辦法搞asic,通用型的意思是涵蓋其他項目跟AI推理
→ : ,他完全只要把推理部分抽出來特別強化就好,然而現
→ : 階段tpu最新版都打不贏gpu了,只能接近gb200舊版,
→ : 我只能說夢裡真的什麼都有
→ : 就像比特幣礦機asic除了挖礦毫無用處,今天要是算法
→ : 換新的泛式改變,你的專用llm晶片,整組報廢機率比g
→ : pu高非常多,就像你要祈禱比特幣asic礦機還可以挖其
→ : 他幣一樣,這很不切實際。最後退一萬步來說,nv完全
→ : 也辦法搞asic,通用型的意思是涵蓋其他項目跟AI推理
→ : ,他完全只要把推理部分抽出來特別強化就好,然而現
→ : 階段tpu最新版都打不贏gpu了,只能接近gb200舊版,
→ : 我只能說夢裡真的什麼都有
推 : 能挑戰agi 的公司 大概只有搞出transformer的Google277F 12/22 11:13
→ : 了
→ : 了
推 : Breathair GPU是要打掉從練什麼啊?胡說八道 還被C279F 12/22 11:16
→ : UDA限制勒,當今做AI研究是用TPU還是GPU?
→ : UDA限制勒,當今做AI研究是用TPU還是GPU?
推 : OAI DEEPMIND ANTHROPIC XAI,四大實驗室三不五時281F 12/22 11:26
→ : 就會有人出來上podcast,台灣人要炒股真的應該多聽
→ : 一點,而不是憑自己的淺薄認知在ptt上當槓精
→ : 就會有人出來上podcast,台灣人要炒股真的應該多聽
→ : 一點,而不是憑自己的淺薄認知在ptt上當槓精
推 : 大腦從簡單的結構 演化成複雜的結構284F 12/22 11:28
→ : 本來就違反熱力學第二定律呀
→ : 熱力學第二定律是走向最大亂度
→ : 比方説人的肉體走向死亡 走向崩解
→ : 大腦從低端生物腦 演化成哺乳類大腦
→ : 構造越來越複雜
→ : 如果是自然產生的現象
→ : 那當然是違反熱力學第二定律
→ : 除非他是有人可以設計的
→ : 說明演化確實是有外力介入
→ : 本來就違反熱力學第二定律呀
→ : 熱力學第二定律是走向最大亂度
→ : 比方説人的肉體走向死亡 走向崩解
→ : 大腦從低端生物腦 演化成哺乳類大腦
→ : 構造越來越複雜
→ : 如果是自然產生的現象
→ : 那當然是違反熱力學第二定律
→ : 除非他是有人可以設計的
→ : 說明演化確實是有外力介入
推 : 也要給AI一點生存壓力才能讓AI發展迅速就像生命為了294F 12/22 11:31
→ : 生存演化一樣,然後最後AI為了永久的生存就會把我們
→ : 生存演化一樣,然後最後AI為了永久的生存就會把我們
→ : 就像一堆金屬不會放在自然界不會自動組裝成汽車296F 12/22 11:31
→ : 人類滅了,避免我們先滅了他們,要是我們知道有個東297F 12/22 11:31
→ : 西可以隨時把我們關機我們也會選擇滅了他
→ : openai的研究員之前傳出來說最有效的訓練方法就是跟
→ : llm說你做不好我就要把你關了 xd
→ : 西可以隨時把我們關機我們也會選擇滅了他
→ : openai的研究員之前傳出來說最有效的訓練方法就是跟
→ : llm說你做不好我就要把你關了 xd
推 : 越來越複雜,所以符合最大亂度啊,我有看錯方向嗎301F 12/22 11:34
→ : 就像一堆金屬放在自然界不會自動組裝成汽車一樣302F 12/22 11:34
→ : 需要外力(人類)去組裝
→ : 需要外力(人類)去組裝
→ : 演化本身就是增加entropy吧304F 12/22 11:34
→ : 呵呵 汽車比較複雜 還是一堆廢鐵比較複雜305F 12/22 11:35
→ : 當然是汽車亂度比較小
→ : 因為汽車構造是有序的
→ : 當然是汽車亂度比較小
→ : 因為汽車構造是有序的
→ : 但應該不是公認的科學角度308F 12/22 11:35
→ : 越精密 有序度當然越高 亂度當然越小309F 12/22 11:37
→ : 就像 活著的亂度 比死亡腐化後小
→ : 肉體死亡崩解後 肉體分子彼此脫離束縛
→ : 亂度才會增加
→ : 死亡 老化都符合熱力學第二定律
→ : 演化 是越來越 精密 有序 複雜
→ : 如果是自然的 那當然不會發生
→ : 結論是演化有外力介入 才能演化
→ : 死亡是肉體分子走向崩解 分子亂度最大
※ 編輯: waitrop (42.75.147.178 臺灣), 12/22/2025 12:03:03→ : 就像 活著的亂度 比死亡腐化後小
→ : 肉體死亡崩解後 肉體分子彼此脫離束縛
→ : 亂度才會增加
→ : 死亡 老化都符合熱力學第二定律
→ : 演化 是越來越 精密 有序 複雜
→ : 如果是自然的 那當然不會發生
→ : 結論是演化有外力介入 才能演化
→ : 死亡是肉體分子走向崩解 分子亂度最大
→ : 中國設計弱是因為被禁東禁西,美國科技公司有戰力的318F 12/22 12:08
→ : 中國人佔整員工數比很高喔
→ : 中國人佔整員工數比很高喔
推 : 有沒有可能他只是想拍第二集:大嘎空320F 12/22 12:39
推 : 怎麼推文有個傳教士321F 12/22 13:13
→ : NV AMD上海都一堆員工啊322F 12/22 13:18
→ : NV台灣的hiring 有些也是上海的HR在處理
→ : 不過那邊的員工因為有美國的出口管制有些東西不能
→ : 做就是了
→ : 台灣員工算是有受惠到,他們不能碰的東西headcount
→ : 就會往台灣印度馬來西亞去
→ : NV台灣的hiring 有些也是上海的HR在處理
→ : 不過那邊的員工因為有美國的出口管制有些東西不能
→ : 做就是了
→ : 台灣員工算是有受惠到,他們不能碰的東西headcount
→ : 就會往台灣印度馬來西亞去
推 : 又是你 趕快收藏不然又被刪掉了328F 12/22 13:28
推 : 自從某人貼出跟AI的對話當作證據預測未來AI發展後,329F 12/22 14:34
→ : 我就不看他的言論了
→ : 我就不看他的言論了
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 10
作者 waitrop 的最新發文:
很多觀點跟我相同, 我也覺得應該要改算法改硬體架構, 但是貝瑞說話只說一半, 貝瑞提出算法跟架構的問題, 是沒錯的, 但是有另一半更關鍵的事實 貝瑞故意隱藏不說, 結論就是, 貝瑞放空會被嘎爆, 想 …320F 53推 7噓- 34F 11推
- 週末閒聊, 快放假了, 其實, 老謝這理由站不住腳, 或者說老謝自己都沒有這樣的覺悟: "只要被中國碰到的產業, 就一定是舉國力挺的國家隊" 很多台灣人跟美國人都沒有這種覺悟, A …79F 47推 2噓
- 我是做晶片跟系統架構的, 不是做AI模型的, 所以無法回答LLM跟Nested Learning相關問題, 但是就回答 "如果真的架構更改 那對輝達反而更有利吧?" 答案是的, 而 …101F 28推
必須說聲抱歉, 我常常臨時衝動 想到什麼就直接說出口, 然後就得罪人了, 我發這篇文章的時候, 的確沒去想過投資者的立場, 真的很抱歉 對於數據與財報部分, 我只是稍微讀過, 再加上我自己的經驗反推 …117F 69推 3噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享

