作者 teddy98 (泰迪!走吧!)標題 [心得] MEM資料X6壓縮,七巨頭硬體資產過剩風險時間 Thu Mar 26 19:37:19 2026
黃仁勳NVIDIA,濫用VRAM 容量來壟斷市場。手法惡質、黑心!
他企圖讓每一張卡的效能剛好精準地卡在某個價位。
如果你想多跑一點 AI 模型或開更高解析度
這張卡的顯存就會「剛好」爆掉,逼你必須加錢買更高一階,
甚至買貴 5 到 10 倍的專業工作站卡。
但是隨著記憶體X6壓縮技術問世
使得硬體資產重估:七巨頭(微軟、Meta、亞馬遜...)過去兩年瘋狂囤積 H100。如果壓縮技術普及,
原本需要 6 台伺服器的算力,現在 1 台就能達成。
效能倍增:壓縮不只省空間,還能減少資料傳輸量。這意味著目前的 PCIe 頻寬或 HBM頻寬會顯得「變寬了 6 倍」,大大提升運算效率,降低能耗。
MEM 壓縮 X6 本質上是一種 「由軟體定義的硬體升級」。它會讓輝達透過 VRAM 容量建立起來的定價權瞬間化為烏有。
這項技術公開問世之前是否有人涉及內線交易,不得而知。
但輝達公司涉嫌商業壟斷的事實明確!!
如果任由輝達利用壟斷地位維持高價,讓七巨頭持續買入「溢價過高」的硬體,最終造成
的資產泡沫會由全球投資人買單。
AI形成的泡沫是時候差不多該破了。
記憶體價格面臨全面下修的時間點,應該也不遠了。
就如同大家先前預期的,AI需求一定會有市場飽和(價格下修)的時候,
只是時間早晚的問題而已。
大家怎麼看呢?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.110.105.47 (臺灣)
※ 作者: teddy98 2026-03-26 19:37:19
※ 文章代碼(AID): #1fnHfqbN (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1774525044.A.957.html
※ 同主題文章:
[心得] MEM資料X6壓縮,七巨頭硬體資產過剩風險
03-26 19:37 teddy98
怎麼看都是空,跑AI模型的硬體限制變小,GPU規格的需求也一定會變小。
去年到原價屋買GPU時,有看到清華大學的採購單 (RTX 5090)
沒記錯的話,發票的售價是NT$ 109,990
我納悶,訓練AI有必要用到甚麼高規的顯示卡嗎?
原因就是出在VRAM 32GB,用高容量VRAM綁卡做銷售。
我們絕不能姑息這種惡質的商業手段,零容忍!!
推 GoodmanYY: Deepseek也看過一模一樣的論點 送分題2F 03/26 19:38
推 zackro: 你最厲害 那些大老闆都是笨蛋 不懂技術亂投資3F 03/26 19:40
推 handfoxx: 你都說完了 all in放空4F 03/26 19:40
→ attila125: 前段壓縮,到領號碼牌時還不是要解壓縮7F 03/26 19:41
推 ldzaqn: 請問你這個心得怎麼來的8F 03/26 19:42
※ 編輯: teddy98 (123.110.105.47 臺灣), 03/26/2026 19:51:12
推 luche: 研發時間剛好擴廠完畢11F 03/26 19:45
推 good10740: 影音 圖片 也是壓縮概念 輕量化能用就好12F 03/26 19:46
推 pornpig32: 傑文斯悖論+算力需求無限大 怎麼輸13F 03/26 19:47
推 winner1104: 如果你認為這些東西你比七巨頭的團隊都更懂,那你可以放空或是毛遂自薦去跟七巨頭要offer,但你有嗎?16F 03/26 19:49
→ rooo2012: 中國等著接收…且其他國家也想要只是被管制?18F 03/26 19:50
推 a2080259: 真的 那些月領幾百萬的高階工程師果然都是垃圾19F 03/26 19:50
推 pognini: 實務作不作得到、系統跑不跑得順,都有待證明呢20F 03/26 19:51
噓 sscck5: 你是拿新聞問完ai來發文嗎25F 03/26 19:53
→ a71085: 這新聞用來壓價的啦 其實是舊資訊了28F 03/26 19:55
推 drrhythm: 現在這個技術就是開源壓縮,然後不用重新訓練現有模型
有點像是開濾鏡32F 03/26 19:56
噓 djbell: 你最聰明 科技巨頭都白癡 好不好?35F 03/26 19:57
→ MizPerfect: 解壓縮要不要時間 現在對token要求速度有增無減36F 03/26 19:57
→ MizPerfect: GOOG 的GEMINI 就是給 錢少事多的人用38F 03/26 19:58
推 lineak: 基本上這論點應該是5-10年後, 或以上才成立40F 03/26 20:02
→ bear753951: 現在AI更好好用了,結果採購的ram會更少?43F 03/26 20:03
噓 falcon11: 整套流程的一部分提升了6倍就達到agi了?45F 03/26 20:04
→ zixiang: 也不用這樣推空,因為ai需要的可能遠遠不止,現在短空倒是真的47F 03/26 20:08
→ nash1314: 快空,你會贏 我站你對面 快把錢拿去49F 03/26 20:10
噓 akuser: 儲存空間跟計算能力是可以混為一談的嗎?po這內容的時間 倒不如去跑外送51F 03/26 20:20
→ owenxeve: 原本6個員工變成1個員工可以做完,但你不會想再多雇5個創造6倍產值嗎?53F 03/26 20:23
推 newvote: 一定是芙莉蓮 把七崩賢打趴了.....
打成大空頭.....太猛了55F 03/26 20:34
噓 linweida: 魯空的眼睛看出去的世界都是空空的><57F 03/26 20:36
噓 lnonai: 槽點太多 很多認知是錯誤的58F 03/26 20:37
→ visadanny: 有些人就是沒辦法從歷史學到教訓 要再同一個坑摔n次60F 03/26 20:44
推 silvertiger: 確實,Michael Burry之前文章已提到壟斷64F 03/26 20:52
推 castby: 惡心,崩爛最好!65F 03/26 20:55
噓 strlen: 這不跟去年dickshit之亂一樣?你以為算法進步 需求就會降低是嗎?66F 03/26 21:20
推 WSY000000000: 需求只會更大好嗎?長尾效應下,越精確的計算就需要更強的算力,LOG指數相關下,6倍也不夠用啦!68F 03/26 21:27
推 centiyan: 真的那麽厲害的技術可以馬上大省成本發大財 Google應該會自己先上線試吧 何必現在公開? 一定是尚未成熟所以想集思廣益70F 03/26 21:32
噓 QmoDog: 又瘋了一個73F 03/26 21:35
→ ZO20: 你17了74F 03/26 21:40
→ StarRoad: 為了玩3A大作插滿記憶體;不代表多開兩個槽後,使用者就會再插滿75F 03/26 21:56
推 xkso: 但七巨頭還是跌 99577F 03/26 22:08
噓 YCL13: 請先分清楚記憶體和算力有什麼不同78F 03/26 22:09
推 neglect: 怎麼不是因為硬體需求降低,在突然多了6倍的硬體上,反而更快速的發展AI79F 03/26 22:18
噓 crazylag: 你都說還沒問世 黃仁勳活該欠你技術的?81F 03/26 22:54
推 rafeyu: 買不到便宜記憶體只好出新聞了,如果真的美光半年前就開崩了83F 03/26 23:08
--