看板 Stock
作者 baddaddy (壞爸爸)
標題 [新聞] MU、WDC、SNDK下跌:為何Google的TurboQua
時間 Wed Mar 25 22:39:30 2026



原文標題:
MU、WDC、SNDK下跌:為何Google的TurboQuant令記憶體股震盪

來源:
https://myppt.cc/FlidrY


內文:
2026.03.25
Investing.com - 儘管科技板塊整體表現強勁,記憶體股週三仍然下跌。在Google推出Tur
boQuant這項可能降低AI系統記憶體需求的新壓縮演算法後,相關股價應聲下挫。

SanDisk Corporation(NASDAQ:SNDK)下跌5.7%,美光科技(NASDAQ:MU)下跌3%,西部數據(NA
SDAQ:WDC)下跌4.7%,希捷科技(NASDAQ:STX)下跌4%。這些跌幅出現在納斯達克100指數上
漲之際。

Google推出了TurboQuant,這是一項旨在降低大型語言模型和向量搜尋引擎記憶體消耗的
壓縮技術。該演算法解決了鍵值快取的瓶頸問題,鍵值快取用於儲存AI系統中經常存取的
資訊。



根據Google的公告,TurboQuant可以將鍵值快取壓縮至3位元,無需訓練或微調,同時保持模
型準確性。在包括Gemma和Mistral在內的開源模型上進行的測試顯示,該技術實現了鍵值
記憶體大小6倍的縮減。該演算法還在H100 GPU加速器上展現了比未量化鍵值高達8倍的效
能提升。


該技術透過兩個步驟運作:應用PolarQuant方法透過旋轉資料向量實現高品質壓縮,以及使
用量化Johnson-Lindenstrauss演算法消除殘餘誤差。Google表示,傳統的向量量化方法在
記憶體開銷中每個數字增加1至2個額外位元,部分抵消了壓縮優勢。


TurboQuant將在ICLR 2026上發表,而PolarQuant計劃在AISTATS 2026上發表。Google在包
括LongBench、Needle In A Haystack、ZeroSCROLLS、RULER和L-Eval在內的基準測試中
測試了這些演算法。


該技術的應用範圍超越了AI模型,還包括為大規模搜尋引擎提供動力的向量搜尋功能。

記憶體股今年迄今已大幅上漲,使其容易受到可能降低需求的發展影響。

心得:
雖然我不是專家但讓記憶體使用更有效率
聽起來很不錯吧
目前Google的測試成果斐然
未來真的能這樣發展
想必對邊緣AI有很大的助力
至於會不會對記憶體需求下降
倒也未必

Google研究底加 窩看不懂
https://myppt.cc/UtVx89

-----
Sent from JPTT on my Google Pixel 7 Pro.

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.231.153.90 (臺灣)
※ 作者: baddaddy 2026-03-25 22:39:30
※ 文章代碼(AID): #1fm_EaMq (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1774449572.A.5B4.html
OGoTTe: 抓到兇手了1F 03/25 22:40
chocoball: 以後每年都推出新演算法 穩2F 03/25 22:42
sdbb: 樓下waitrop3F 03/25 22:42
turndown4wat: GOOG也一起下去了4F 03/25 22:42
tomdavis: 照抄deepseek的說法 唉呦省資源 硬體股要完蛋了5F 03/25 22:42
sdbb: 樓下LDPC?6F 03/25 22:43
Marshalkobe2: 自己也下去 厲害7F 03/25 22:43
c928: 谷狗,我活不了你們也給我下來8F 03/25 22:43
TureCooler: SpaceX都要IPO了,台股上呀9F 03/25 22:44
handfoxx: GOOG 怎麼也下去了10F 03/25 22:44
heko77923: 放屁 google自己也跌慘了11F 03/25 22:46
alonzohorse: 看來只剩六分之一價格,牙套50,華崩2012F 03/25 22:46
heko77923: 要是這麼神早就噴了13F 03/25 22:46
Evenpan: 不是因為NVIDIA KVTC嗎?14F 03/25 22:46
KS571: 哭啊 阿怎麼自己跟著下去15F 03/25 22:47
chachabo: 狗狗式自殺=.=16F 03/25 22:48
※ 編輯: baddaddy (36.231.153.90 臺灣), 03/25/2026 22:48:35
itwt: 亂講,是真的Google這樣要噴啊,一起下去耶17F 03/25 22:48
matlab1106: 這波能源危機會讓這些高耗能的被處理吧18F 03/25 22:51
bnn: 公開演算法的話不會噴啊 別人看論文照抄19F 03/25 22:52
az0102: 台積電利多20F 03/25 22:52
grayeric: 記憶體 is over21F 03/25 22:55
DWR: 只會用更多的參數 模型越來越大而已 記憶體實際上不會減少的22F 03/25 22:56
harpuia: 爽啦,狗狗不爽自己下去,也把其他人一起拉下去24F 03/25 23:00
PerfectWorld: 笑死論文都公開了要噴什麼? 一堆沒念過研究所是不是?25F 03/25 23:01
EDFR: OVERBOOKING27F 03/25 23:02
strife: 那用原本的大小不就效能更高 sorry 我有美光 干28F 03/25 23:02
dannpptt: 估狗傷敵一千自損八百29F 03/25 23:02
bs167512: 一場AI大戲,繼續看它們怎麼演30F 03/25 23:03
dennis50253: 救救南亞科31F 03/25 23:04
receivable: 我以為是SORA停止的消息,存圖/影音比文字存儲需求大多了32F 03/25 23:04
HarukaLM: google也跟著下去...34F 03/25 23:04
Barefoot24: GoogleAI吹那麼大,結果Gemini連個Excel都讀不出來,白癡36F 03/25 23:07
bcismylove: 都2026了EXCEL PAY還沒普及38F 03/25 23:09
spencer222: 不可能是這個啦 這篇論文2月5號就發了 主要目的是要用不足的緩存跑大模型 壓縮資料是要經過encode/decode的 會影響運算速度39F 03/25 23:11
bs167512: 真正會賺錢的東西沒人會告訴你,消息滿天飛的東西就是缺錢,叫大家趕快來投資42F 03/25 23:13
bala045: 壓縮不就代表可以佈建更多 那跟需求下降有什麼關係44F 03/25 23:14
pornpig32: KVTC 是 NVIDIA 解決 AI 「記憶力太貴」問題的關鍵技術45F 03/25 23:16
letyouselfgo: 估狗不是有自研AI晶片嗎怎麼還在用H100 (諷刺47F 03/25 23:16
rooo2012: 下跌不是因為中東金主的數據中心無法蓋 暫時需求沒這麼多?48F 03/25 23:18
yyyyaaaa44: 明天空南亞科會贏嗎50F 03/25 23:19
Samurai: 這像是去年說deepseek算法進步,AI天花板已到一樣51F 03/25 23:20
pornpig32: Google 做的 實驗時測試硬體是 NVIDIA H100 GPU53F 03/25 23:22
gladopo: 那為什麼NV漲,老黃又可以COSTDOWN了嗎54F 03/25 23:25
cosmo7897: 谷歌這次的突破好像是因為KV cache壓縮 推理速度變快且記憶體需求降低55F 03/25 23:25
eno03: 記憶卡娃逃難潮開始了57F 03/25 23:25
ksuenjjr: Google自己也在跌58F 03/25 23:27
bndan: 跟去年那個DEEPSEEK不同 就先不說從已完成的水桶撈59F 03/25 23:27
NEX4036: 順勢壓下去收籌碼60F 03/25 23:28
holysong: 下跌找理由,照歷史cpu cache跟主機板的記憶體只會越來越多61F 03/25 23:28
bndan: 答案這件事..就節省效能本身是讓整體能擴大使用能量所以當然不會改變NV 台G 等賣鏟子一條龍的情況63F 03/25 23:28
OxFFFFFFFF: 這什麼野雞算法65F 03/25 23:29
holysong: 然後下一代的模型又變更大了66F 03/25 23:29
bndan: 但記憶體不同 本來假設 AI大基建瓶頸是記憶體好了67F 03/25 23:29
NEX4036: 現在不就V了68F 03/25 23:30
bndan: 現在可以用1/6的記憶體量能建AI基建 這時瓶頸應該要69F 03/25 23:30
OxFFFFFFFF: 不管算法有多牛只要使用率越高就會越缺貨70F 03/25 23:30
jean0914: 好好笑的鬼故事71F 03/25 23:31
bndan: 變成缺GPU了..應該說記憶體終究是配件 主要的還是看72F 03/25 23:31
holysong: 我的感覺是只要1/6的cache,一樣的效率73F 03/25 23:32
bndan: GPU搭配...更不用說如果本來AI基建瓶頸就是GPU的情74F 03/25 23:32
OxFFFFFFFF: 會跌的原因就是 前陣子股票漲太多會跌而已不用找什麼爛理由75F 03/25 23:32
robinlee: 省愈多用更多啊,殺這個超怪77F 03/25 23:32
bndan: 況 那再縮成1/6 記憶體跟本會變成供>>需了..除非GPU78F 03/25 23:33
otsuka123: ds是蒸餾啊 所以回來 但谷狗大神就難講了79F 03/25 23:34
bndan: 製造速度"提升"的比記憶體快..但問題是GPU的生產難80F 03/25 23:34
holysong: 雲供應商一樣還是主機板的記憶體插滿81F 03/25 23:34
bndan: 度遠大於記憶體 而且像這類頂端IC生產還是台G獨霸的82F 03/25 23:34
xm3u4vmp6: 欸原本5090 32g算法六倍 等效192g 很爽欸83F 03/25 23:35
bndan: 情況..記憶體再屌也是好幾家能產..在這情況記憶體怎可能擴產比GPU慢 = =84F 03/25 23:35
xm3u4vmp6: DDR 記憶體會更賣爆 因為一堆人想自組86F 03/25 23:35
waiting101: 長期還是有需求…他們只是省 不代表不繼續買ㄚ  ㄅ87F 03/25 23:38
BlairWang: goog 把mu 搞下去後 自已也下去了88F 03/25 23:40
ice80712: 欸不是 谷歌自己先破底89F 03/25 23:40
bndan: 長期有需求 == 用PC來假設好了 假設CPU生產量永遠是瓶頸 那其他配件例如 記憶體 主機版 機殼等等 需求上限其實就被鎖住了..不管當地多缺PC拿去玩大資訊基90F 03/25 23:41
ppuuppu: qq狗狗 霸脫93F 03/25 23:42
bndan: 建 需求上限就是看CPU生產量阿= = 又不會忽然變成一台電腦1個CPU然後裝4張主機版+4個機殼之類的 =_=94F 03/25 23:43
wei683: 演算法目前有辦法快到擋得了全世界的需求嗎96F 03/25 23:44
lnonai: 上下文需求幾乎是無窮盡的,只要還有KV 快取需求HBM就是多
這也會加速邊緣AI的發展97F 03/25 23:46
OxFFFFFFFF: 算力是越多越好 跟PC還有手機需求是不一樣的100F 03/25 23:47
bndan: 算力當然是效率越高越好 越多越好 能做的事越堆越高但記憶體不是 他是附件 終究會有效能提升的邊際效應遞減 而這個演算法更是這邊際再縮小6倍101F 03/25 23:48
bs167512: 別再想記憶體的事了,油都沒了,還再記憶體104F 03/25 23:54
BoyceChu: 等於同樣規格下,可以做更多事105F 03/25 23:56
afacebook: 壓縮不是一直都有在做嗎106F 03/25 23:57
KY1998: 看股價說故事,這跟洩金河有啥不同??107F 03/26 00:00
OxFFFFFFFF: 記憶體是AI瓶頸之一,非附加品,影響效能關鍵 演算法可優化但需求同步成長,難以降低記憶但的需求
記憶體的需求108F 03/26 00:01
amd3dnow: cpu/gpu 就是要搭配記憶體...需求怎麼可能減少111F 03/26 00:02
bloodzzero: Zip問世有降低硬體需求?112F 03/26 00:03
Tatsuya72: 只想炒作缺貨就下去吧zzz113F 03/26 00:07
k128345: 別說需求降低,但需求放緩呢?然後對於低階記憶體的需求是不是會放緩更多,想確認這點。114F 03/26 00:08
ezorttc: 塞滿好幾T 的片子能壓縮嗎?
Google 還要解壓縮,效能不就落後一節116F 03/26 00:11
allenbret: 雜訊118F 03/26 00:12
HiuAnOP: 99狗狗99我!119F 03/26 00:13
mtmmy: 開發者大概會覺得 可以讀更多上下文太棒了
而不是減少用量120F 03/26 00:20
jay3u7218: 就漲多了....扯那麼多幹嘛?122F 03/26 00:23
liangnet: 節省記憶體,多出來的記憶體繼續壓榨做更多事。誰會嫌記憶體太多的。
在軟體開發裡,有時會使用更多記憶體來換取最好效能。有時會用壓縮犧牲效能換取節省記憶體。123F 03/26 00:26
amd3dnow: ai處理流程最佳化跟需求降低是兩回事....127F 03/26 00:33
goodbad: 咕嚕咕嚕128F 03/26 00:33
liangnet: 無論如哪種,記憶體都是多多益善。129F 03/26 00:33
k798976869: 學yo叔繞過記憶體就能跑AI130F 03/26 00:38
re365339: 造福終端而已,基建端只會買更多131F 03/26 00:54
jumilin927: 記憶體崩!132F 03/26 00:56
j0987: 推133F 03/26 01:00
Jaspercool: 不是阿 狗哥你跟著跌欸134F 03/26 01:01
jason61105: 相片至今儲存效能變好 所需容量還是暴增135F 03/26 01:11
joygo: 現在有ai之後什麼都不要說的太死136F 03/26 01:16
ansinlee: 這個就像改車子的電腦 讓馬力變大,但是對硬體的規格要求 並不會因此減少,只是讓買不到或買不起最新的ai伺服器 也能有不錯的馬力輸出137F 03/26 01:35
OxFFFFFFFF: 大家都有AI了 去花個兩分鐘討論一下就知道到底記憶體需求會變多還變少140F 03/26 01:40
randy890924: Jevons Paradox了解一下142F 03/26 01:44
sunrise1748: 結果谷歌自己也跌破均線143F 03/26 01:51
g9911761: 這條演算法價值多少144F 03/26 01:53
lise1017: 微軟最搞笑 當年嗆谷哥說什麼要搶瀏覽器 廣告市場145F 03/26 01:55
wettland5566: 就只是新的演算法可以把原來記憶體減低為6分之一的用量而已,媽的沒有寫過程式啊,因為AI中要用到大量的記憶體,節省記憶體是必然的,這根本就不影響記憶體股好不好146F 03/26 01:55
lise1017: 結果自己的商業套裝軟體反而被抄家150F 03/26 01:55
wettland5566: 怎麼會有人把它解讀成因為這項技術出來記憶體的採購量就變六分之一好像不是這樣吧151F 03/26 02:01
weiman0702: 省下來的資源就會被更大的模型補充上==153F 03/26 02:04
peterors: 明天能亮幾個燈讓我撿嗎~~154F 03/26 02:15
sim3000: 跌下來就是撿 情緒反應155F 03/26 02:23
budaixi: 不是海力士ADR嗎156F 03/26 02:30
Belial1991: gemini錯誤還是挺多的 優點就免費157F 03/26 02:35
mutsutakato: 我的媽呀 一堆文組 人家是說鍵值記憶體縮為6分之一不是整體記憶體縮為1/6 搞笑嗎?
這只是讓搜尋速度更快一點而已啦
鍵值快取就只佔了整體記億體的一小塊而已
怎麼會把他想成以後牙科出貨量變1/6? 笑死我也158F 03/26 03:25
ravelson: 之後上漲,就會發新聞說此技術不影響記憶體需求,詐騙真的是永恆不死的產業,總有人喜歡被騙還幫數錢。163F 03/26 06:21
Tenging: 那就更需要了不是嗎
1+1>2166F 03/26 07:06
richaad: https://i.mopix.cc/i2Ct2Z.jpg
一年前就發表的技術,根本找理由殺多而已168F 03/26 07:13
fallinlove15: 別亂找理由耶 不就開財報後被玩170F 03/26 07:22
dslite: 不就是pooling?171F 03/26 07:55
angusyu: Google自己都在下跌是三小172F 03/26 08:30
yiyi0916789: 不是,google自己跟著跌是哪招173F 03/26 09:55
z83420123: 就故意找理由啊 XD174F 03/26 10:10
joy2105feh: 放個產品在家股價也下去175F 03/26 12:16
fmp1234: 重回以前想方設法降低記憶體使用量176F 03/26 13:26
eknbz: 這當利空我還真不信177F 03/26 13:52
tw19930419: 唬爛 演算法永遠都在更新 有人因為這個跌爛喔178F 03/26 14:57

--