顯示廣告
隱藏 ✕
Disp BBS guest 註冊 登入(i)
※ 本文轉寄自 ptt.cc 更新時間: 2026-03-26 01:40:08
看板 Stock
作者 baddaddy (壞爸爸)
標題 [新聞] MU、WDC、SNDK下跌:為何Google的TurboQua
時間 Wed Mar 25 22:39:30 2026



原文標題:
MU、WDC、SNDK下跌:為何Google的TurboQuant令記憶體股震盪

來源:
https://myppt.cc/FlidrY


內文:
2026.03.25
Investing.com - 儘管科技板塊整體表現強勁,記憶體股週三仍然下跌。在Google推出Tur
boQuant這項可能降低AI系統記憶體需求的新壓縮演算法後,相關股價應聲下挫。

SanDisk Corporation(NASDAQ:SNDK)下跌5.7%,美光科技(NASDAQ:MU)下跌3%,西部數據(NA
SDAQ:WDC)下跌4.7%,希捷科技(NASDAQ:STX)下跌4%。這些跌幅出現在納斯達克100指數上
漲之際。

Google推出了TurboQuant,這是一項旨在降低大型語言模型和向量搜尋引擎記憶體消耗的
壓縮技術。該演算法解決了鍵值快取的瓶頸問題,鍵值快取用於儲存AI系統中經常存取的
資訊。



根據Google的公告,TurboQuant可以將鍵值快取壓縮至3位元,無需訓練或微調,同時保持模
型準確性。在包括Gemma和Mistral在內的開源模型上進行的測試顯示,該技術實現了鍵值
記憶體大小6倍的縮減。該演算法還在H100 GPU加速器上展現了比未量化鍵值高達8倍的效
能提升。


該技術透過兩個步驟運作:應用PolarQuant方法透過旋轉資料向量實現高品質壓縮,以及使
用量化Johnson-Lindenstrauss演算法消除殘餘誤差。Google表示,傳統的向量量化方法在
記憶體開銷中每個數字增加1至2個額外位元,部分抵消了壓縮優勢。


TurboQuant將在ICLR 2026上發表,而PolarQuant計劃在AISTATS 2026上發表。Google在包
括LongBench、Needle In A Haystack、ZeroSCROLLS、RULER和L-Eval在內的基準測試中
測試了這些演算法。


該技術的應用範圍超越了AI模型,還包括為大規模搜尋引擎提供動力的向量搜尋功能。

記憶體股今年迄今已大幅上漲,使其容易受到可能降低需求的發展影響。

心得:
雖然我不是專家但讓記憶體使用更有效率
聽起來很不錯吧
目前Google的測試成果斐然
未來真的能這樣發展
想必對邊緣AI有很大的助力
至於會不會對記憶體需求下降
倒也未必

Google研究底加 窩看不懂
https://myppt.cc/UtVx89

-----
Sent from JPTT on my Google Pixel 7 Pro.

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.231.153.90 (臺灣)
※ 作者: baddaddy 2026-03-25 22:39:30
※ 文章代碼(AID): #1fm_EaMq (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1774449572.A.5B4.html
OGoTTe      : 抓到兇手了1F 03/25 22:40
chocoball   : 以後每年都推出新演算法 穩2F 03/25 22:42
sdbb        : 樓下waitrop3F 03/25 22:42
turndown4wat: GOOG也一起下去了4F 03/25 22:42
tomdavis    : 照抄deepseek的說法 唉呦省資源 硬體股要完蛋了5F 03/25 22:42
sdbb        : 樓下LDPC?6F 03/25 22:43
Marshalkobe2: 自己也下去 厲害7F 03/25 22:43
c928        : 谷狗,我活不了你們也給我下來8F 03/25 22:43
TureCooler  : SpaceX都要IPO了,台股上呀9F 03/25 22:44
handfoxx    : GOOG 怎麼也下去了10F 03/25 22:44
heko77923   : 放屁 google自己也跌慘了11F 03/25 22:46
alonzohorse : 看來只剩六分之一價格,牙套50,華崩2012F 03/25 22:46
heko77923   : 要是這麼神早就噴了13F 03/25 22:46
Evenpan     : 不是因為NVIDIA KVTC嗎?14F 03/25 22:46
KS571       : 哭啊 阿怎麼自己跟著下去15F 03/25 22:47
chachabo    : 狗狗式自殺=.=16F 03/25 22:48
※ 編輯: baddaddy (36.231.153.90 臺灣), 03/25/2026 22:48:35
itwt        : 亂講,是真的Google這樣要噴啊,一起下去耶17F 03/25 22:48
matlab1106  : 這波能源危機會讓這些高耗能的被處理吧18F 03/25 22:51
bnn         : 公開演算法的話不會噴啊 別人看論文照抄19F 03/25 22:52
az0102      : 台積電利多20F 03/25 22:52
grayeric    : 記憶體 is over21F 03/25 22:55
DWR         : 只會用更多的參數 模型越來越大而已 記憶體實際上22F 03/25 22:56
DWR         : 不會減少的
harpuia     : 爽啦,狗狗不爽自己下去,也把其他人一起拉下去24F 03/25 23:00
PerfectWorld: 笑死論文都公開了要噴什麼? 一堆沒念過研究所是不25F 03/25 23:01
PerfectWorld: 是?
EDFR        : OVERBOOKING27F 03/25 23:02
strife      : 那用原本的大小不就效能更高 sorry 我有美光 干28F 03/25 23:02
dannpptt    : 估狗傷敵一千自損八百29F 03/25 23:02
bs167512    : 一場AI大戲,繼續看它們怎麼演30F 03/25 23:03
dennis50253 : 救救南亞科31F 03/25 23:04
receivable  : 我以為是SORA停止的消息,存圖/影音比文字存儲需求32F 03/25 23:04
receivable  : 大多了
HarukaLM    : google也跟著下去...34F 03/25 23:04
baka1412    : https://i.imgur.com/CenWqyJ.jpeg35F 03/25 23:06
[圖]
Barefoot24  : GoogleAI吹那麼大,結果Gemini連個Excel都讀不出來36F 03/25 23:07
Barefoot24  : ,白癡
bcismylove  : 都2026了EXCEL PAY還沒普及38F 03/25 23:09
spencer222  : 不可能是這個啦 這篇論文2月5號就發了 主要目的是要39F 03/25 23:11
spencer222  : 用不足的緩存跑大模型 壓縮資料是要經過encode/deco
spencer222  : de的 會影響運算速度
bs167512    : 真正會賺錢的東西沒人會告訴你,消息滿天飛的東西就42F 03/25 23:13
bs167512    : 是缺錢,叫大家趕快來投資
bala045     : 壓縮不就代表可以佈建更多 那跟需求下降有什麼關係44F 03/25 23:14
pornpig32   : KVTC 是 NVIDIA 解決 AI 「記憶力太貴」問題的關鍵45F 03/25 23:16
pornpig32   : 技術
letyouselfgo: 估狗不是有自研AI晶片嗎怎麼還在用H100 (諷刺47F 03/25 23:16
rooo2012    : 下跌不是因為中東金主的數據中心無法蓋 暫時需求沒48F 03/25 23:18
rooo2012    : 這麼多?
yyyyaaaa44  : 明天空南亞科會贏嗎50F 03/25 23:19
Samurai     : 這像是去年說deepseek算法進步,AI天花板已到一樣51F 03/25 23:20
Samurai     : 蠢
pornpig32   : Google 做的 實驗時測試硬體是 NVIDIA H100 GPU53F 03/25 23:22
gladopo     : 那為什麼NV漲,老黃又可以COSTDOWN了嗎54F 03/25 23:25
cosmo7897   : 谷歌這次的突破好像是因為KV cache壓縮 推理速度變55F 03/25 23:25
cosmo7897   : 快且記憶體需求降低
eno03       : 記憶卡娃逃難潮開始了57F 03/25 23:25
ksuenjjr    : Google自己也在跌58F 03/25 23:27
bndan       : 跟去年那個DEEPSEEK不同 就先不說從已完成的水桶撈59F 03/25 23:27
NEX4036     : 順勢壓下去收籌碼60F 03/25 23:28
holysong    : 下跌找理由,照歷史cpu cache跟主機板的記憶體只會61F 03/25 23:28
holysong    : 越來越多
bndan       : 答案這件事..就節省效能本身是讓整體能擴大使用能量63F 03/25 23:28
bndan       : 所以當然不會改變NV 台G 等賣鏟子一條龍的情況
OxFFFFFFFF  : 這什麼野雞算法65F 03/25 23:29
holysong    : 然後下一代的模型又變更大了66F 03/25 23:29
bndan       : 但記憶體不同 本來假設 AI大基建瓶頸是記憶體好了67F 03/25 23:29
NEX4036     : 現在不就V了68F 03/25 23:30
bndan       : 現在可以用1/6的記憶體量能建AI基建 這時瓶頸應該要69F 03/25 23:30
OxFFFFFFFF  : 不管算法有多牛只要使用率越高就會越缺貨70F 03/25 23:30
jean0914    : 好好笑的鬼故事71F 03/25 23:31
bndan       : 變成缺GPU了..應該說記憶體終究是配件 主要的還是看72F 03/25 23:31
holysong    : 我的感覺是只要1/6的cache,一樣的效率73F 03/25 23:32
bndan       : GPU搭配...更不用說如果本來AI基建瓶頸就是GPU的情74F 03/25 23:32
OxFFFFFFFF  : 會跌的原因就是 前陣子股票漲太多會跌而已不用找什75F 03/25 23:32
OxFFFFFFFF  : 麼爛理由
robinlee    : 省愈多用更多啊,殺這個超怪77F 03/25 23:32
bndan       : 況 那再縮成1/6 記憶體跟本會變成供>>需了..除非GPU78F 03/25 23:33
otsuka123   : ds是蒸餾啊 所以回來 但谷狗大神就難講了79F 03/25 23:34
bndan       : 製造速度"提升"的比記憶體快..但問題是GPU的生產難80F 03/25 23:34
holysong    : 雲供應商一樣還是主機板的記憶體插滿81F 03/25 23:34
bndan       : 度遠大於記憶體 而且像這類頂端IC生產還是台G獨霸的82F 03/25 23:34
xm3u4vmp6   : 欸原本5090 32g算法六倍 等效192g 很爽欸83F 03/25 23:35
bndan       : 情況..記憶體再屌也是好幾家能產..在這情況記憶體怎84F 03/25 23:35
bndan       : 可能擴產比GPU慢 = =
xm3u4vmp6   : DDR 記憶體會更賣爆 因為一堆人想自組86F 03/25 23:35
waiting101  : 長期還是有需求…他們只是省 不代表不繼續買ㄚ  ㄅ87F 03/25 23:38
BlairWang   : goog 把mu 搞下去後 自已也下去了88F 03/25 23:40
ice80712    : 欸不是 谷歌自己先破底89F 03/25 23:40
bndan       : 長期有需求 == 用PC來假設好了 假設CPU生產量永遠是90F 03/25 23:41
bndan       : 瓶頸 那其他配件例如 記憶體 主機版 機殼等等 需求
bndan       : 上限其實就被鎖住了..不管當地多缺PC拿去玩大資訊基
ppuuppu     : qq狗狗 霸脫93F 03/25 23:42
bndan       : 建 需求上限就是看CPU生產量阿= = 又不會忽然變成一94F 03/25 23:43
bndan       : 台電腦1個CPU然後裝4張主機版+4個機殼之類的 =_=
wei683      : 演算法目前有辦法快到擋得了全世界的需求嗎96F 03/25 23:44
lnonai      : 上下文需求幾乎是無窮盡的,只要還有KV 快取需求H97F 03/25 23:46
lnonai      : BM就是多
lnonai      : 這也會加速邊緣AI的發展
OxFFFFFFFF  : 算力是越多越好 跟PC還有手機需求是不一樣的100F 03/25 23:47
bndan       : 算力當然是效率越高越好 越多越好 能做的事越堆越高101F 03/25 23:48
bndan       : 但記憶體不是 他是附件 終究會有效能提升的邊際效應
bndan       : 遞減 而這個演算法更是這邊際再縮小6倍
bs167512    : 別再想記憶體的事了,油都沒了,還再記憶體104F 03/25 23:54
BoyceChu    : 等於同樣規格下,可以做更多事105F 03/25 23:56
afacebook   : 壓縮不是一直都有在做嗎106F 03/25 23:57
KY1998      : 看股價說故事,這跟洩金河有啥不同??107F 03/26 00:00
OxFFFFFFFF  : 記憶體是AI瓶頸之一,非附加品,影響效能關鍵 演算108F 03/26 00:01
OxFFFFFFFF  : 法可優化但需求同步成長,難以降低記憶但的需求
OxFFFFFFFF  : 記憶體的需求
amd3dnow    : cpu/gpu 就是要搭配記憶體...需求怎麼可能減少111F 03/26 00:02
bloodzzero  : Zip問世有降低硬體需求?112F 03/26 00:03
Tatsuya72   : 只想炒作缺貨就下去吧zzz113F 03/26 00:07
k128345     : 別說需求降低,但需求放緩呢?然後對於低階記憶體的114F 03/26 00:08
k128345     : 需求是不是會放緩更多,想確認這點。
ezorttc     : 塞滿好幾T 的片子能壓縮嗎?116F 03/26 00:11
ezorttc     : Google 還要解壓縮,效能不就落後一節
allenbret   : 雜訊118F 03/26 00:12
HiuAnOP     : 99狗狗99我!119F 03/26 00:13
mtmmy       : 開發者大概會覺得 可以讀更多上下文太棒了120F 03/26 00:20
mtmmy       : 而不是減少用量
jay3u7218   : 就漲多了....扯那麼多幹嘛?122F 03/26 00:23
liangnet    : 節省記憶體,多出來的記憶體繼續壓榨做更多事。誰123F 03/26 00:26
liangnet    : 會嫌記憶體太多的。
liangnet    : 在軟體開發裡,有時會使用更多記憶體來換取最好效
liangnet    : 能。有時會用壓縮犧牲效能換取節省記憶體。
amd3dnow    : ai處理流程最佳化跟需求降低是兩回事....127F 03/26 00:33
goodbad     : 咕嚕咕嚕128F 03/26 00:33
liangnet    : 無論如哪種,記憶體都是多多益善。129F 03/26 00:33
k798976869  : 學yo叔繞過記憶體就能跑AI130F 03/26 00:38
re365339    : 造福終端而已,基建端只會買更多131F 03/26 00:54
jumilin927  : 記憶體崩!132F 03/26 00:56
j0987       : 推133F 03/26 01:00
Jaspercool  : 不是阿 狗哥你跟著跌欸134F 03/26 01:01
jason61105  : 相片至今儲存效能變好 所需容量還是暴增135F 03/26 01:11
joygo       : 現在有ai之後什麼都不要說的太死136F 03/26 01:16

--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 41 
作者 baddaddy 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
guest
x)推文 r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇