看板 Stock作者 teddy98 (泰迪!走吧!)標題 [心得] AI需求是供應商精心設計好的套路時間 Sun Mar 22 01:32:07 2026
我來說說,為甚麼說,AI需求是供應商精心設下的套路吧!
剛踏入AI的人
可能會覺得,AI的神經網路演算法(大規模平行矩陣運算),
好吃硬體資源啊,硬體規格的需求好大,幾乎看不到天花板。
所以,很多人會有"AI算力需求是永無止盡的"這種錯覺,
但用久了開始熟悉AI之後,你會發現,
其實AI龐大的硬體需求,是一種供應商精心鋪設好的套路
也是一種吹捧、誇大其辭的行銷手段。
為甚麼會這樣講?
第一,AI模型的節點不一定有經過優化(化繁為簡)
拿軟體來比喻,一個source code寫很爛的軟體,沒有經過優化,
如遞迴運算,消耗掉比正常高2~3倍以上的硬體資源。
會佔用大量的 GPU VRAM 和運算週期。
這時,你怪的不是AI模型爛,而是AI算力不夠?
第二,AI模型的運算流程可以分批次進行
一個步驟,可以切成4個子步驟進行,用For循環4次執行
如生成式繪圖,如果一張解析度非常大的圖像,
切割成4個區塊,用For循環做4個批次處理,再用TTP圖像拼接/重組,
將4個處理好的圖像做合併
"可以大幅減少AI在運算時VRAM的占用量。"
這部分算是AI行家才知道的機密,供應商絕對不會和消費者說。
因為要是讓你知道了,你就不會為了增大VRAM升級你的顯示卡或DRAM了。
前陣子,我在看GPU規格時,VRAM總是找不到16G以上的規格,
現在回想,果真是中了NVIDIA的市場行銷套路。
因為,輝達,配備VRAM 24G以上的唯獨最頂級90系列的GPU才有,
如: RTX 3090, RTX 4090, RTX 5090
現在回想,當時是差點中計了,浪費錢買RTX 5090是不必要的。
因為AI算法再怎麼吃資源,也是能透過優化和分批處理,來解決硬體配備不足的部分。
實測後,再高解析度的繪圖,12G的繪圖卡也能勝任。
也不需因為GPU記憶體的配置比較低而選用低精度的模型,fp16照樣可以跑得很順暢。
目前生成式AI的發展非常快,模型也漸趨成熟了,
只要巧妙地設置好AI的流程,好像也說不上,需要多高階的硬體規格來跑AI模型。
而且現在的AI模型不斷推陳出新,新的AI模型的容量也越來越小。
占用的GPU資源也明顯下降。
大部分舊模型低配要24G VRAM才能跑的,新模型只要16G甚至12G VRAM就能完美運行。
不管是文字圖片精修,影像P圖,視訊P圖,設好對的節點,低配的GPU也能完美優化。
現在那些號稱"專家"或"分析師"的傢伙
對於AI的硬體需求越開越高,到達浮濫的地步,
會有這種現象,很大程度上是供應商(輝達)精心設下的套路。
也是為了喊多股市的一種噱頭。
不過,很少用Photoshop是真的,AI模型很大程度上解決以往在影像修復上的難題。
圖片經過AI重新生成,容量也變小了
(原圖722KB,修復後268KB,減少將近63%。) 計算: (722-268)/268*100%=62.88%
試問各位的看法呢?怎麼看未來AI的硬體供貨需求?
記憶體族群的雜音最多,有人喊AI供貨短缺上看2030年
但Samsung開始跟客戶簽長約,有人說可能離市場飽和不遠了
以目前的記憶體類股的股價來看,是看多還是看空呢?
----
書脊,修復前
https://ibb.co/1tzg824g
書脊,修復後
https://ibb.co/zWRrPqjr
AI生成 - 虎兔狗
https://ibb.co/8n8MF5Kr
https://ibb.co/5hwkq4ZB
https://ibb.co/nN83j1XD
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.110.105.47 (臺灣)
※ 作者: teddy98 2026-03-22 01:32:07
※ 文章代碼(AID): #1fljOpeZ (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1774114355.A.A23.html
※ 同主題文章:
[心得] AI需求是供應商精心設計好的套路
03-22 01:32 teddy98
→ MizPerfect: 未來 一定是跟雲拿token 速度很重要
推理速度跟顯卡位寬息息相關 君不見此次5090升級512 位元寬度 4090 跟 5090DD 還是384位元寬度決定位元寬度的東西 就是 顯存 所以顯存夯爆
但股市 多空 看的是誰錢多誰錢少 由大盤決定多空1F 03/22 01:40
現在就是記憶體一直在瘋狂漲價,一直在喊多。堪稱目前需求龐大到看不到盡頭。
推 ProTrader: 文中2點都是資工系的基本議題
第一點是演算法優化 用更高效的演算法得到相同結果第二點大數運算 資料超出常規記憶體時的演算法
隨便一個資工系的都知道 只是目前大廠是求快拼結果確認具體任務後才是演算法優化
之前火熱的DeepSeek就是一種優化 搶新聞版面6F 03/22 01:48
推 dannpptt: AI算力需求、硬體限制、演算法優化都能分別進步的不太可能說演算法很好 你就沒有硬體需求12F 03/22 01:53
→ ProTrader: 總之這兩年記憶體需求都很熱 不需要懷疑15F 03/22 01:55
→ ChikanDesu: DS再怎麼優化 也是始終落後人一步 而且優化完的模型 給擁有最頂尖算力的人拿去用 不就更飛天?
開源就是這樣啊 但就是不知道盡頭到底什麼模樣 是AGI達成就停還是可以繼續突破16F 03/22 01:56
推 ProTrader: 目前大廠還是拼新模型 優化現有模型是AI新創的市場幫客戶專門客製改良的AI模型
AGI還早 說AGI的主要是行銷廣告用途20F 03/22 01:58
我現在最懷疑的就是,AI需求一定會到接近市場飽和,不可能會永無止盡,
製程節點是會隨著時間一直推進,但講真的價格貴,以成本來說,殺雞不須用牛刀,
如果非電動車(BSM電池管理)或配備AI自動駕駛的車用晶片不需大量使用先進製程。
到了市場需求接近飽和,價格也一定會逐漸下降。
※ 編輯: teddy98 (123.110.105.47 臺灣), 03/22/2026 02:06:55
推 Vvvahc: 你如果是電機的根本不會講這種話 個人data是有多大? 需要高階算力的不是你而是大型上市企業23F 03/22 02:04
推 komeko: 結論就是AI炒過頭了 萬一有個環節斷裂這整座吹出來的Ai大樓就會因為AI變現太慢而倒塌25F 03/22 02:05
噓 Sugimoto5566: 2020美聯儲瘋狂印鈔導致通膨失控,照某樓邏輯鮑爾也知道會失控所以是故意印鈔囉?27F 03/22 02:06
推 arnold3: 反正需求無限多 現在ai根本應付不完
光蝦皮隨便上架十件 就要做10個短視頻
沒ai你要怎麼搞?找人幫你做嗎29F 03/22 02:06
推 komeko: 當年也是覺得5G跟VR 3D列印很有前景 結果現在變成這樣
那些炒作記憶體股的要留意 如果現在大家都在瘋狂的採購記憶體 會不會變成因為之前買太多 而後面又發現AI其實不那麼需要浮閘晶體管 導致之後幾年出現需求斷崖32F 03/22 02:08
噓 strlen: 理想很豐滿 優化大家當然也在做 但是沒有那麼簡單好嗎?還是你以為優化一個模型幾天就搞定?38F 03/22 02:20
推 ProTrader: 算力記憶體之類的未來演算法優化後需求就不會那麼多40F 03/22 02:21
→ strlen: 另外算力需求10年之內都不可能滿足的41F 03/22 02:21
噓 Sakaki7777: 他們也沒說錯 現在AI就是有算力和記憶體需求 因為優化還做不到42F 03/22 02:21
→ strlen: 你知道目前全世界只有14 %的人有用過AI嗎?44F 03/22 02:21
→ ProTrader: 但優化是以後的事 目前大家都在比快拼出結果搶市佔45F 03/22 02:22
推 cphe: 講白了就是現在這個階段硬體無法完美支撐AI應用,過個幾年有可能不再需要那麼多的硬體,就像最早的電腦超大一台但做不了什麼事,到現在人手一台電腦 手機,資源已經過剩,會飽和,但不是現在46F 03/22 02:22
→ strlen: 然後只有0.3%的人付費 算是重度用戶50F 03/22 02:23
→ Sakaki7777: 但你講的也有道理 一旦真的能優化了 這些短缺通通bang不見 到時候股價一定很刺激51F 03/22 02:23
推 L1ON: 感覺文53F 03/22 02:23
推 ProTrader: 可以用AlphaGo當例子 初始版跟最終版差非常多
目前AI的第一版根本都還沒完成54F 03/22 02:24
→ LDPC: =_= 你叫ai優化自己啊 人類學最愛幹這種事情56F 03/22 02:25
推 cphe: 至於你說的優化,去年Deepseek 發表後相關個股大跌就是因為這樣啊 但後來證明這種飽和的時機還很遙遠57F 03/22 02:25
噓 l11111111: 以前很多裝懂的也無法想像Tb等級的硬碟60F 03/22 02:29
推 ProTrader: 用電腦發展來說 目前AI類似當年大型主機的時代61F 03/22 02:30
→ bryanhihi: 是是是…您比CCW聰明,您贏了,好嗎62F 03/22 02:30
噓 zero790425: 你知道AI理解tag的過程全是人手工打標籤教育嗎63F 03/22 02:35
→ josephpu: 這篇認知還停留在一兩年前 不知怎麼吐槽64F 03/22 02:35
推 josephroyal: 事實上現在算力就是供不應求 你可以說老黃在炒作ai賣硬體 但七巨頭可是實打實的拿錢出來買65F 03/22 02:35
→ josephpu: 很明顯根本沒去了解產業前端在幹嘛,單純自己幻想67F 03/22 02:36
推 h0103661: 小模型跟大模型差很多,9B是夠強,但你想要拿去寫code或跑龍蝦用的前沿模型可是700-1000B,需要2000gb以上的vram,再想想需求吧。68F 03/22 02:40
推 a0808996: ai現階段就不是拿出來賣的 是拿來裁員的
一般用戶需求還很小 但是對大公司來說比薪水便宜71F 03/22 02:42
推 Francix: 没優化好,模型比人差不就會被淘汰了,而且算力需求要看之後應用,是供不應求還是供過於求?73F 03/22 02:44
→ a71085: 能優化跟減少投入是兩回事 這個在DS之後不就看清楚了 到AI真的變成完整的AI前就是太空競賽75F 03/22 02:45
→ Lyon718: Token就是不夠用不夠便宜,現在討論泡沫???你以為是去年的deepseek再起嗎77F 03/22 02:46
→ a71085: 世界上不能靠堆數量成功的多的是了 至少AI目前為止你狂砸還能看到前進的進度79F 03/22 02:46
推 e510171: 你說得對 各大CSP應該請你去當總工程師85F 03/22 03:04
推 nfsong: 強烈建議 去看黃仁勳 上ALL IN Podcast的影片
他一再強調 不要將現實和虛幻 混在一起談
DELL PRO MAX with GB300 and 750G LPDDR5 工作站750g 的記憶體阿!!!
這是要賣去所有中小企業的工作站
邏輯推理比一般GPT消耗多100倍的token
然後agentic 又比邏輯推理多消耗100倍的token86F 03/22 03:05
推 duriamon: 有人就誤會,NV的記憶體是老黃不給而不是他給不起,老黃刀法就是要削各位口袋裡的錢,呵呵!93F 03/22 03:12
→ nfsong: 現在算力已經不足 , 所以open ai 降低影片Sora的
消耗
看看那個雪山救狐狸宇宙
this is why ram costs $900
因為agentic 開發已經確實在業界前端解決職務問題95F 03/22 03:12
→ eemail: 嗯,沒錯,自己群族的故事流出來要做什麼?232F 03/22 17:05
噓 BMHSEA: 嗯嗯嗯 你說對了236F 03/22 22:21
--