作者 giveUstars (牧民)
標題 Re: [請益] 記憶體大漲會促成AI泡沫嗎
時間 Wed Jan 28 12:44:19 2026


※ 引述《VScode (VSisBestIDEinTheWorld)》之銘言:
: 以下是跟AI討論的結果
: 最近mac mini很熱賣,
: 因為可以在電腦架設local LLM,
: mac是採用CPU,GPU共享記憶體,
: 所以可以用低成本跑得動小型模型
: 但記憶體仍無法取代顯卡CUDA
: 訓練模型仍需要顯卡,
: 一般人如果做平常打雜的事用local LLM就夠了
: 只有複雜推理需要用到cloud LLM
: 若大家能在 Mac 上跑 local 模型,
: 就不再需要訂閱貴森森的雲端 API。
: 這會讓 OpenAI 等公司的營收增速放緩,
: 進而修正其過高的估值。
: AI 市場確實存在泡沫特徵,
: 但這主要集中在「雲端基礎建設」

當然每次都很多人說這波不一樣

我們詳細去比較21世紀以來的幾波大潮比較清楚

20世紀末持續至今的網路大潮
需求先從貴鬆鬆的 56k ADSL 慢慢一路鋪到現在
中間逐步有線到無線、從連基本溝通都要等到現在的無延遲

基於 1 的智慧裝置爆發
最經典的就是手機 從只能撥接到現在功能一大堆
中間逐步吃掉了手錶、MP3、相機...的市場

然後還有個人電腦、智慧家電、電動車的硬體疊代
也是逐步的往上疊加 新的東西取代了舊的東西

社群媒體的部分也是從BBS、blog、fb、IG...
新的東西吃掉了舊的市場 總和逐步地慢慢變大

上面所敘述的東西都有「逐步」。


AI 需求現在是怎樣?
2023 年拿來生kuso圖覺得很智障
2025 年在專業族群大爆發
2026 街頭巷尾都在LLM、AGI應用了

雲端算力沒人跟你 56k 1399 超過要加價
每一間都是見面就 499 吃到飽
如果當年網路也是這種速度
那也是馬上什麼都缺貨

所以我覺得現在消費電子通膨的最主要問題是在速度
這玩意橫空出世就算了 還沒在跟你逐步增加
大家還不知道他要取代誰的時候 就499吃到飽了

但我不認為本地邊緣運算很遙遠
首先這是AI時代 你以為要三年的東西 兩個月就爛大街了
另外是499吃到飽這件事本質上是難以維持的
就看各大巨頭什麼時候獲利王化
給你熱門時段限速、爆PING、轉圈圈
但到那時候想組台本地電腦會是多少錢我就不知道了....

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.109.226 (臺灣)
※ 作者: giveUstars 2026-01-28 12:44:19
※ 文章代碼(AID): #1fUPGbmP (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1769575461.A.C19.html
※ 同主題文章:
Re: [請益] 記憶體大漲會促成AI泡沫嗎
01-28 12:44 giveUstars
icehorng: 所以你的結論呢?講那麼多 醬汁呢1F 01/28 12:46
既然你都問了我就回答你
"邊緣運算記憶體/NAND"
bbb22514085: 講了一堆屁話也沒有重點… 所以你想表達什麼3F 01/28 12:51
找不到重點幫qq
newvote: 一堆人都說嘴巴碩ai泡沫....跌時拼命買股票4F 01/28 12:56
perlone: 這是群聯潘董講的吧 所以他投資平價邊緣運算5F 01/28 12:57
潘董很猛 但類似的台灣還有 焊死的車門打開了
newvote: ai泡沫 那就去空台積啊....6F 01/28 13:01
a03520: 還大發慈悲回答你咧,講一堆空話還拽得很7F 01/28 13:04
那你不如去問你的LLM吧
tse207: AI不會泡沫,用過根本回不去,只怕他效能愈來愈不夠用8F 01/28 13:09
需求絕對只會往上的
jim543000: 街頭巷尾都在用垃圾產出一堆垃圾 真實可用的東西沒多少 這就是llm無法真正思考的現實面
至於一堆笨蛋認為chatbot多好用 那是因為他們平時就是產出垃圾9F 01/28 13:14
但GIGO(垃進垃出)也是一種現實的需求
這個看一堆資料庫論文就知道了...
※ 編輯: giveUstars (36.229.109.226 臺灣), 01/28/2026 13:20:27
Zzell: 一堆人用是因為現在免費/便宜啊
現在根本無法判斷transformer的實際經濟價值13F 01/28 13:25

--
作者 giveUstars 的最新發文:
點此顯示更多發文記錄