推 ksjr: 因為這新架構 google是不是又要重新設計TPU拉?1F 12/13 03:10
遙遙領先,狗家的硬體和計算架構和前沿論文研究,具有高度的一致性
互相加成,互相協同,full-stack優化
等到其他大廠醒悟過來,發現Nested learning才是正確方向
決定要放棄Transfomer時,狗家已經領先一年到一年半了
不信你丟給ai問,可以多問幾間互相比對
當然,要用正確的方式問才會得到正確的答案
你要先有足夠的背景知識才能識破關鍵點,問出最重要的問題
問問題的能力,大概就是新時代最重要的能力了XD
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 03:16:47
推 L1ON: 我在看openai倒數計時4F 12/13 03:27
推 ccneptunecc: 放棄transformer架構是否意味著需要更多GPU?5F 12/13 03:41
如果是以「當前同等能力模型」作為基準 答案是不會
因為Transformer+KV Cache是一種很低效的推論模型
低密度的無壓縮資訊儲存+重覆計算AttentionMap
導致超大量的能源浪費(算力和資料搬運成本兩者都是)
Nested Learning使用正確的層級特化結構的話 在推論期可以省下五到十倍的能源消耗
不過,架構優化和模型能力提升是兩步走的
在架構優化釋放出來的算力,最終會導致模型繼續依照Scaling Law擴大
所以結果是「省了十倍的能耗,那模型就能再大十倍」(這不是正確的數學,只是比喻)
算力需求永遠存在,因為文明的本質就是計算
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 03:55:45
推 kuku951: 需要更多GPU就需要更多記憶體…6F 12/13 03:55
需要從更細致的視角去切入
SRAM也是記憶元件 HBM也是 Host DRAM(LPDDR)也是
計算也一樣 tensor core是計算元件 systolic array也是計算元件
近存運算也是計算元件
所以「在哪裡計算,在哪裡儲存,如何搬運資料」從來就不是一個單一命題
一切都要從架構與系統級的視角下去拆解,才會根據需求得出一個答案
這也是為什麼邊緣層和雲端層會發展出不同的計算架構 因為需求不同
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 03:59:39
推 kuku951: 感謝分享,這東西真的挺牛的,說不定這會是未來AGI的先驅,順便回覆樓上,如果這東西是真的搞得出來,那就是戳破那些說AI泡沫的人8F 12/13 04:08
推 roseritter: 硬體現實有餘裕的話,原本現在吹的天文級算力需求很難蓋出來
改新玩法就能現實點11F 12/13 04:59
研究(Model Refinement)時代和擴增(Scaling)時代是輪流出現的
Ilya Sutskever最近有一篇訪談可以看看
正如他所說,接下來時代巨輪要轉回模型改進了
不過,等到模型改進得差不多,又會重啟擴增時代
這兩個時代的過度也是漸變的,不是一刀切
「文明的本質就是計算」
你如果看不懂這一大堆Big Tech誰會贏,那也沒差
買2330 永遠是對的
推 tigerzz3: 好久沒看到mina大 預計何時開撿?還是保守看?14F 12/13 05:07
感謝GOOG爆噴一波,現在YTD 90%了(真是出乎我意料..11月初時我本來已經躺平了)
https://i.imgur.com/NHJP572.png
不過我在11月底賣掉一部份GOOG撿了NVDA,作整體部位Rebalance
然後今天就吃了一根超~~~級大的,腳麻了,哭啊
推 shead1983: 這篇好驚人,感謝高高手分享內容,讀完後的感想是美光全力衝刺HBM,是不是慘惹?15F 12/13 05:08
嘻嘻 其實這篇只是我得到的洞察的一小角而已
真正重要的我沒說,不過這篇其實有很多引子
比方說在模型最深層(最慢層),需要非歐幾何的雙曲空間語義空間
(提示: Transfomer的語義空間是平面的)
這在Nested Learning論文裡是完全沒提的,是另幾篇資訊幾何學的研究
推 aegis43210: 現在的確是有AI泡沫,但目前要看是啤酒先裝滿或是泡沫先消掉
不過邊緣運算中,未來NAND看起來會是最缺的17F 12/13 05:10
考慮一個五層結構,最淺兩層(L1~L2)在邊緣,三層(L3~L5)在雲端
你猜猜看L1需要多少參數量? 答案可能出乎你意料的小
完全不需要放在NAND
而且從最快層的「權重即時更新」需求來看,也不能可能放在NAND
推 tigerzz3: 今天這種盤 狗家不到1%真的太扯20F 12/13 05:14
推 kuku951: 衝刺HBM怎麼會慘… 這個做法還真有可能解決HBM的困境 然後HBM的優勢在於頻寬跟速度 一定是未來最需要的21F 12/13 05:15
HBM的頻寬和速度很重要 這敘述沒問題
不過HBM的總需求是容量(Capcity)決定的
猜猜看如果把最深層的語義空間從平面換成雙曲,參數量會變成多少?
有論文可以查的,查查看
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 05:44:36
推 flyawayla: 花一整個早上快速掃完,看起來運算沒減少反而更多,不同頻率互相獨立,不獨立我猜就要用記憶體存參數,也沒有看到討論訓練速度,通常沒有就表示一定更花時間,心得是中立,畢竟都發一個月了,可以再等等看其他團隊有沒有跟上24F 12/13 05:53
我覺得你關注錯重點,HOPE架構的工程實作不是論文中最重要的部份
數學表達才是,這篇論文就算把HOPE架構整個去掉
純理論的部份就有相當於熱力學定律的價值
這代表一種更接近「知識、記憶、推理」的物理本質的理論
從而讓各大模型研究商能在巢狀學習的理論範式下,自由去探索各自的工程實現
類比於你有了熱力學定律之後,各種形式的熱機都有理論依據了
你看我前面對於未來模型的敘述(雲邊協同、不同語義空間的五層結構)
這和論文中簡化過的HOPE模型壓根就不是一回事對吧
因為HOPE模型的設計只是要作為論文的實證用途
而不是真正具備下一代模型的「工程可行性」&「商業可行性」的實作
至於下一代實作「可能會長什麼樣子」
那自然是不會在這裡解釋了...
反正即使我提了 99.99%的股板眾也是鴨子聽雷啊
推 waitrop: 當你看到論文的時候,早就有特定的TPU xpu 了29F 12/13 06:03
狗家員工內線消息
我要是真信了 你就是在內線交易囉!!!
就事論事 TPUv7沒有明顯針對Nested learning的痛點去優化
(當然也沒有明顯不能跑的理由,依然可以跑)
至於v8之後怎麼設計,現在也沒有公開消息
比起雲端,我覺得現在是邊緣的計算架構沒跟上Nested Learning的需求
推 Morphee: 先問一個問題 2017年 attention 出來之後
你是否從技術押注中賺超過幾個億? 如果沒有30F 12/13 06:07
有 嘻嘻
你再回去翻翻我2019年談AI革命的文章
當時也是一樣,完全沒有人看懂我說什麼
→ Morphee: 那 Nested Learning 也只是一個數據很普的實驗32F 12/13 06:09
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 06:11:00
→ newwu: 想想這運用到大規模,多客戶的時候,這真的會讓記憶體減少嗎
*會讓記憶體使用量減少嗎?33F 12/13 06:21
推 waitrop: 邊緣計算也會跟上nested learning ,也有相對應的TPU xpu
會讓記憶體用量增加,但是不是hbm ,不能再多說了36F 12/13 06:26
如果根據手機上最快層的即時更新需求去推導
很明顯是要SRAM,而且不能和L1 Cache共用
既然要能放進整個最快層的權重,即使以INT4/INT8高度壓縮,也需要很大一塊SRAM
考慮到除了慢權重(預訓練參數)之外還要放快權重(記憶狀態)
加一加要個2~4MB的獨立SRAM是跑不掉的
推 fisher6879: 呱呱呱,數學不會背叛我,不會就是不會,不過AI推論的HBM需求下滑結論還是看得懂的,感謝mina大分享,天網是不是又加速啦?啾命Rrrr39F 12/13 06:29
真der 天網近了 悔改吧
推 googstar: 非goog的asic又要準備被輝達gpu揍爛了 改架構最能適應的就輝達42F 12/13 06:31
推 losage: 你應該要請open潤稿,g家唯一缺點就是不會說人話44F 12/13 06:33
我故意的 實際上Gemini Canvas寫小作文可以調長度
調越長它會試著擴寫 解釋的更清楚 但是我偏不 嘻嘻
說真的,看不懂的人,就把我整篇文字+NL的論文都餵給AI
然後再問AI就好啦,時代都是這樣了,要善用AI啊
推 waitrop: 沒錯,gb300的Rubin 三小的就是為了解決memory wall ,這問題業界都知道,但是願意改架構改算法的公司,也就只有谷歌跟輝達46F 12/13 06:34
推 Ipluck: 回過頭看M大2019第一篇文真的是含金量十足 當時就看的這麼徹底真的厲害49F 12/13 06:36
一般來說我是看未來3~5年的,再遠的我也看不到了
所以2019那篇講的是2019~2024的AI革命
這篇講的是2025~2030「通往AGI之路」
推 audic: 核心權重會隨互動漂移=不可重現、不可審計、極易被誤導,現實系統根本不敢上線,頂多停在論文52F 12/13 06:38
回到上述的五層系統
你完全可以把最深層的(物理定律、道德價值、信念)基底層
靜態權重完全鎖定不更新,來防止惡意注入
論文提示的是一種數學架構,你理解了整個數學架構的話
實務上你完全有各種工程實作的細節去彌合你的需求
當然我完全同意這種動態學習的系統,在正式上線前一定要經過嚴格的對齊測試
不過這不會構成「永遠不會有能夠動態學習的系統」的理由
推 ksjr: 有拉今天下午當薪水小偷時有問copilot 不過這個也發55F 12/13 06:44
→ ksjr: nested learning十一月初就發了 好像股價已反應?57F 12/13 06:45
推 Morphee: 雲端跟edge會重分配吧 為啥會亂飄58F 12/13 06:47
看你每一層的更新頻率怎麼設定
再以五層模型舉例的話
雲端的L3可能是event-driven更新、L4可能是每天更新一次
L5就如上述所說,最好是不要亂更新
推 googstar: 真的通往agi只會讓整個ai產業算力需求持續飆升?
看來輝達真的太便宜59F 12/13 06:53
買2330 永遠正確
鐵打的Foundry,流水的Design House
推 afflic: 2330有機會變成全球市值前三嗎62F 12/13 06:58
推 Morphee: AMD效率轉折受益者/Apple邊緣語義既得利益者63F 12/13 06:58
爽到Apple 躺平到最後天上掉餡餅 賽道重置
抱緊GOOG大腿就贏那些花了幾百億美金看別人車尾燈的
推 breathair: 我只後悔都看對了,轉倉太慢還一堆QQQ,XD不過至少早一步清掉TSM跟NVDA64F 12/13 06:59
推 tomtowin: 重點是SRAM,就是買2330,感謝分享66F 12/13 07:00
推 chives465: 推M大,請問除了TSM,AVGO會建議買入嗎?68F 12/13 07:04
推 Morphee: 想了一下 Hyperbolic若起來 NV還是比AMD有利69F 12/13 07:04
推 qwe78971: 股票不講這個 所以短期內沒用 到時候早就換股了70F 12/13 07:06
→ Morphee: 看軟體是否續補topology-aware跟memory-flow API71F 12/13 07:08
不過,最深層語義改用雙曲,這可能是這篇文章裡最弱的推定
因為用現有的硬體算雙曲空間,那個運算量之驚人
光一個龐加萊距離就比歐幾里德距離高不止十倍運算量了
所以在專算雙曲的特化硬體內建之前
很有可能就是平面或球面加減用了
「切換深層語義空間」本質上就是「計算量 vs 記憶體容量/頻寬」的交換與權衡
雖然最終一定是會切到雙曲,但是這個改變要幾年發生,很難預估
快的話可能三五年,慢的話可能十年
推 billionerx10: 看來自研asic可能會是一條非常不明智的路 架構一改整個無用72F 12/13 07:16
推 abyssa1: 要放SRAM 那就回到CCW 說的 產能遠遠不夠77F 12/13 07:28
邊緣需要大SRAM,雲端不需要
至於邊緣什麼時侯真正爆發
那當然是要等Nested Learning的動態學習模型成為主流才行
畢竟單層的Transfomer是不可能在邊緣裝置跑的
當然,如果說Nested Learning的最快層實際上跑Transformer,那是有可能的
不過在這種情況下,L1層跑Transfomer+滑動窗口KV Cache(模擬工作記憶)
比起直插一個固定大小的RNN作為工作記憶,並沒有特別的優勢
總之,要看到邊緣裝置爆發
大概會是2027~28之後的增長點了
推 suzuke: Nested Learning 推論即訓練聽起來很美好,但是你要知道現在的推論只要做「前向傳播 (Forward Pass)」,運算量相對小。Nested Learning在推論時,內部還要做反向傳播 (Backward Pass)或梯度更新,每生成一個字,計算量可能變成原本的 2-3 倍。再來訓練穩定性極差,也還不能平行化,這些問題沒解決前,它想要成為LLM的聖杯取代Transformers 還太早81F 12/13 07:39
你這屬於論文沒看清楚,或是直接丟AI叫它生答案的結果
再看清楚一點,HOPE架構的最快層有作反向傳播嗎??
在一個參數量很小、只處理簡單語義連結的最快層,直接一個DGD作掉了
要請AI讀論文,也要有足夠的背景知識,不然你根本不知道關鍵在哪
AI隨便說你隨便信
推 Morphee: 從Attention到ChatGPT也差不多五年 合理的時間尺度88F 12/13 07:40
推 gcarrot: 我也是11月底清了GOOG, 買入NVDA, 現在有點痛..89F 12/13 07:45
都是ORCL的錯 救救NVDA 救救
推 Morphee: 樓上你講得也是我問的問題 2017年你看到Attention樓樓上才對 也可以說出類似的論點 Attention要成為AI聖杯還早 NLP還不成熟等等90F 12/13 07:45
任何洞見從技術前沿傳導到普羅大眾都要時間
這我五年前講AI革命時就說過一次了
問題是,當一個洞見變成新聞每天狂報的時侯,早就失去交易價值了
推 mamorui: 菇菇之前有提過,今年下半年正式進入聖杯終戰(我個人預計三年時間) ,市場通常第二年上半場會開始醞釀分勝負的前奏94F 12/13 07:51
推 aspirev3: 邊緣裝置爆發 還跟七巨頭有關嗎97F 12/13 07:51
推 ejnfu: 所以要買哪支? Google NVDA都已有了99F 12/13 07:52
噓 kkes0001: 搞笑,革命性論文要多少有多少,重點是實作,transformer 到llm 中間隔多久你知道嗎
在這邊留個言當紀錄,幾個月後再來看看肯定還是原樣100F 12/13 07:52
原文就跟你說三到五年的大趨勢了(攤手)
至於知道這樣的技術趨勢 要怎麼轉成短期的獲利
嘻嘻 不教你
推 Morphee: Attention/Transformer上位速度算非常快了
但是還是對投資技術的慧眼要求很高 敢在2022年底前重押的 還是有一個很強的嗅覺106F 12/13 07:56
推 breathair: 聽起來,GOOG,AVGO,TSM,AAPL是不錯的組合?109F 12/13 08:01
→ lokagh: 這種突破表示未來可降低ai電力需求?110F 12/13 08:01
解決模型架構的能源效率,只會導致更快的Scaling Law,更早的超人工智能時間表
電力需求要下降,這是不可能的
因為「文明的本質就是計算」
這九個字其實是資訊密度最高的洞察,可以解壓縮成十萬字以上的文章
只是你要會用正確的方式解壓縮
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 08:05:36
推 Morphee: 現在比較煩惱是谷歌有Attn論文被OpenAI反超的經驗上頭可能不準發有料的文章了111F 12/13 08:04
噓 kkes0001: 那只能說你要嘛不是這個學術界的要嘛AI頂會論文看少了,革命性論文說多不多,說少也不少,但真正能走出實用這道坎的是少之又少113F 12/13 08:08
推 darkangel119: 想到發明藍莓機的電影 黑莓 將資料壓縮讓通訊塔的乘載量暴增118F 12/13 08:09
推 joe2: 論文啊….個人是不信120F 12/13 08:09
推 Morphee: 應該是說資本投入的方向性 崁很多阿 理論 實驗 工程不是看幾篇論文衝過去單押 方向感阿122F 12/13 08:12
推 pc007ya: 神 感謝分享,NVDA盤兩個月還下跌哭了 2330 GUC放抽屜傳家了126F 12/13 08:21
推 calqlus: mina桑都修過來了...大盤真的牙敗了...131F 12/13 08:32
推 mudmud: Entropy Control135F 12/13 08:41
推 dongdong0405: 這讓我想到早在RAG開始火了之後我就跟同事說RAG這東西早晚會被取代136F 12/13 08:42
否,並沒有說Nested Learning就不用RAG
因為Nested Learning展示記憶機制是有損壓縮(遠久的越模糊)
所以必然要在某一層引入RAG的
可能是L2層,可能是L3層,可能是L4層,在工程實作上彈性很大
就像你要記筆記一樣
要外部儲存一個記憶關連的錨點去重新強化連結
推 axr: 推 看來無腦堆tsm安心睡了138F 12/13 08:48
→ bnn: 總覺得聽你的描述蛋白質剛進入第一層摺疊139F 12/13 08:48
推 jen1121: 2330 NVDA APPL,三檔續買141F 12/13 08:52
→ Risedo: 都顛覆性了 AGI還要2030嗎142F 12/13 08:55
推 Eide: 我大谷歌天下無敵144F 12/13 09:01
推 leotw: Tsm: 片上sram需求goog: 最高效模型+最低運算成本145F 12/13 09:03
推 barrytwu: 2330+NASDAQ無腦多!148F 12/13 09:12
→ Lowpapa: 這篇論文跟我想的一樣151F 12/13 09:21
推 vvnews: 問AI AI卻回答HBM需求反而會暴增 請問那裡有問題QQ156F 12/13 09:29
推 lasekoutkast: 重點是掌握權力的那些政治人物
產業的發展跳脫不了人的管理157F 12/13 09:31
→ breathair: 你整篇喂進去,不要自己問比較準,AI有答案了159F 12/13 09:32
推 abyssa1: 繼續卡dram bandwidth才會讓NVDA上不去
路線沒改的話 到時候dram比顯卡還貴161F 12/13 09:35
推 lasekoutkast: 泡沫的產生歸根究底就是在理論尚未成熟前就一窩蜂的投入資金163F 12/13 09:35
推 abyssa1: Mina為什麼你的ip 在日本 出國玩還這麼認真研究喔165F 12/13 09:37
推 aixiiae2005: M大可以直接講標的嗎= =不然2030你又要發文說2025發的文沒人看得懂了...
這樣2030也可以回來稽查XD166F 12/13 09:38
→ ndk2675m: 新架構的產品,由誰生產@@?169F 12/13 09:40
推 Humanbeings: 這篇含金量超高,已經顛覆對未來AI的想像,感謝分享171F 12/13 09:41
推 lajeremy: 感謝分享 讚歎Ptt法人172F 12/13 09:42
推 liliumeow: 聽起來更接近人類大腦 但如果這個架構加上超大記憶體 有什麼不好 記憶好總是有地方可以派上用場 搞不好是機器超越人類的地方174F 12/13 09:46
→ kao9458: 這個team在ttt的前提下,水了好幾篇paper,寫的最好的是故事178F 12/13 09:49
推 qilar: 安啦 transformer 不會死的180F 12/13 09:52
推 yuantai: 燈別開那麼亮,很多人還有美夢不想醒181F 12/13 09:52
推 sustto: 記憶體終究要回白菜價惹 PC又贏183F 12/13 09:55
→ abyssa1: 記憶體要回白菜價 至少要到產能大量開出來 還很久185F 12/13 09:56
→ eriker: 又不是O T 就比較好 這種線性模型早就一堆 transformer跟暴力解沒兩樣 一定是最強的186F 12/13 09:56
→ kajika: HBM之後崩潰反轉也不會是這個原因啦188F 12/13 09:57
推 webberya: 我看懂關鍵字了,鐵打的2330買起來就對了189F 12/13 09:57
推 mamorui: 公司財不揭露 嘻嘻 狗狗比這篇論文發表 可能有新的才會發表191F 12/13 09:58
推 assassinzero: 這篇重點:如果nested learning可行,記憶體的美夢就會破碎197F 12/13 09:58
→ eriker: 而且資訊越多變爛機率更高 gpt用起來就是這樣 真正200F 12/13 09:58
→ eriker: 有用的通常就是最近的202F 12/13 09:58
→ ojh: 高手 這下nv真的要崩爛 只能抱孤狗了203F 12/13 09:58
推 jerrychuang: google不是在2024年就提出Nested Learning的概念了..其他家應該多少有研究了吧..雖然GOOG還是絕對領先啦205F 12/13 09:59
推 mamorui: 公司財最後不再揭露時 AGI就準備完成210F 12/13 10:00
推 nidhogg: 先無腦台積電再看誰打贏?211F 12/13 10:00
→ eriker: 長文的任務跟短文是明顯不同的 如果trasmformer在記憶體可行下都還是最強212F 12/13 10:00
「推論即學習」
你覺得無損儲存(KV Cache)比較強,實際上是「死記硬背,沒在學」
壓縮資訊=從低維空間向高維歸納的過程=學習
人的大腦可沒有無限KV
相對的,根據自由能原理相關研究
你在腦中壓縮資訊時,會因為預測誤差改善而分泌多巴胺
也就是說
基於資訊壓縮而生的生理機制(=求知欲)是文明進化的關鍵因素
推 goodjop: 尊重專業 推,但懂再多的人 短線還是會看錯
何不長抱 刪APP即可?
如果再2020年就有NVDA 已經是25倍的獲利214F 12/13 10:05
→ ojh: 科技變化很快 孤狗推tpu出來 長抱nv刪app的全死217F 12/13 10:09
→ goodjop: 真的嗎? 很多人都還是賺錢 死在哪?218F 12/13 10:10
→ goodjop: 你的言論 讓人容易記住ID 而且越來越容易記住了220F 12/13 10:11
→ loveadu: NV65收,2奈米現在誰用?222F 12/13 10:15
→ karcher: 搞AI快變搞哲學了,這有助於營收?224F 12/13 10:18
推 brightest: 看起來nested 頻寬需求只會更大 如果CIM起不來 HBM需求只會更大 所以關鍵反而是CIM的創新而不是nested225F 12/13 10:18
→ faultless: 看起來谷歌玩的方式才是未來的主流228F 12/13 10:19
推 as6633208: scaling law增速>>放緩>>找到更好的算法>>scaling law增速 LOOP
不需質疑scaling law,除非你相信人類科技停滯229F 12/13 10:19
推 plaay: 現在還沒有nested learning 劃時代發明的感覺232F 12/13 10:21
推 as6633208: 質疑scaling law大概就是覺得人類科技現在就是頂了,不會再更好,破台了,你覺得可能嗎,宇宙那麼大尺234F 12/13 10:24
推 jerrychuang: 應該是HBM下降,但一般LPDDR上升.因為不需要一直搬,而且餐數量下降236F 12/13 10:24
推 as6633208: 宇宙那麼大尺度,你覺得人類文明就這樣見頂了,人生真無趣239F 12/13 10:25
推 a1234567289: 你對scaling law的理解是整個文明算力需求會上升
但這玩意說的是隨著模型規模增長 他就會表現得更有智慧243F 12/13 10:29
推 bonjour87: 你的最後假設是記憶體會因為需求擴廠.結論會崩盤?但現在看到的是記憶體寧願裁掉消費性也不擴產.246F 12/13 10:30
一般來說記憶體會有長鞭效應
不過你說的也沒錯,如果市場很快就納入長期信號
不再瘋狂推高HBM價格,三大記憶體廠也沒有因瘋狂的短期價格訊號擴廠的話
最終的曲線可能會更平淡一點
泡沫有多大,破的時侯就有多刺激
我文中說2026年末要小心的前提是
明年上半HBM繼續以每季+20%~30%的價格增速瘋漲
如果現在就是HBM價格高點,稀缺性炒作停止,那反而不會有後面刺激故事
→ a1234567289: 文明能量 算力需求或許會上升 但這和模型說的scaling law是兩件事248F 12/13 10:30
推 Comtw: 我看不懂 是不是注定當韭菜了250F 12/13 10:31
→ a1234567289: 另外 地球尺度夠大了吧 從第一個生命誕生到現在 生命體的智慧走的一直是更有效率而非更大251F 12/13 10:31
推 kei1823: 美光究竟是不是先知253F 12/13 10:33
推 as6633208: 單細胞生物也很有效率,始終了展不了科技,就是要堆,有效率只是堆更快,還是要堆254F 12/13 10:37
推 TIPPK: 99公公258F 12/13 10:40
推 kuosos520: all in TSMC or GOOG NVDA TSMC AAPL?259F 12/13 10:40
推 jatj: 2樓噓的好懂 發表一下低見如何260F 12/13 10:42
推 afacebook: 2年我看大家也是說transformer完蛋了 是mamba得天下可是現在主流還是都用Transformer
看起來真的很厲害 不過在看看263F 12/13 10:51
Mamba只有一層更新頻率
你套用在Nested learning的框架下去理解各種對Transfomer的改進
會發現他們都共享同一套數學表達
所以才說真正重要的不是HOPE架構,而是論文前半的那套數學
推 Noberman: 只有中國要擴廠 你哪邊資訊看到其他要擴的?266F 12/13 10:54
推 schula: 優文推推真有趣,言簡意賅,感謝信心加持267F 12/13 10:56
推 BBKOX: 買半導體ETF應該不會輸吧268F 12/13 10:57
噓 s942816: 你不如說量子電腦統一世界269F 12/13 10:59
→ a9564208: 最後針對邊緣裝置跟雲端的論述,是不是代表通訊又噴270F 12/13 11:00
推 afacebook: 我看起來他跟qkv結構沒甚麼關聯ㄟ 他是一種新的梯度度更新方式
論文確實很厲害 不過跟記憶體好像沒啥關聯271F 12/13 11:00
推 FULLHD1080: 記憶體那邊省下來的錢,會轉去計算晶片,這樣講大家懂了嗎274F 12/13 11:02
推 woker: 不要吵買google就好276F 12/13 11:07
推 lovemost: 計概還老師了….努力回憶中278F 12/13 11:08
→ ookimoo: 軟體,硬體會發展,需求不會像你想的那樣提升,top player手上的錢也是要從投資變回收,聽不懂也沒辦法279F 12/13 11:15
推 overpolo: 怎麼會沒關聯 同等級算力用的記憶體變少 所以資源要先轉去撐高算力 之後算力高了變成存儲能力遇瓶頸就要再把資源拿去擴充記憶體 這是個正向的景氣循環282F 12/13 11:15
推 joey2k14: 所以買NVDA、TSM、GOOG、AVGO、AMD、APPL對吧285F 12/13 11:17
推 woker: 買半導體etf好了 基金會自動幫我們研究287F 12/13 11:22
→ strlen: 要怎麼證明紀憶體不重要了?288F 12/13 11:25
推 FULLHD1080: 以fab而言,記憶體御三家營收會典範轉移到TSMC,然後我的AGI一定要比你強,所以開始瘋狂捲算力
現在大家在捲小孩子的學歷,以後大家改捲誰家的機器人比較聰明比較能打289F 12/13 11:27
推 flightmoon: 跟AI聊完,如果要在NL以及BCI上投資,AI建議TSM、GOOG、ISRG293F 12/13 11:42
推 abyssa1: 記憶體需求不會下降 只是增速回到線性而已299F 12/13 11:58
對,因為要解的問題又從IO bound變回compute bound了
推 mamorui: 趨勢是AI用記憶體扶正 除非谷歌成功顛覆硬體界「算力愈高 記憶體永遠不夠用」的基礎觀念
計概的東西是最難撼動的300F 12/13 12:03
是Compute intensity改變了
推 ynanlin: 從一個學習AI新架構的角度,我把minazukimaya大的意見和Google nested learning paper放到NotebookLM上,先做了這份Deep Research報告,大家可以看一下 (http://bit.ly/497jV9T)305F 12/13 12:12
推 ab4daa: 快搞死記憶體吧 想組電腦了309F 12/13 12:13
推 BBKOX: 還沒到最後的物理AI,一切都難說
半導體ETF買起來312F 12/13 12:25
推 SuperBig78: 所以nested learning架構的出現會加速AGI的出現嗎?314F 12/13 12:28
真正的AI產業領導者 aka. Sir Demis Hassabis
他說我們離AGI還差一到兩次的關鍵技術突破
Nested Learning高機率是其中一個(用統一的數學語言重新描述知識與學習的本質)
剩下一個,我不知道 等Google Researh研究出來我再跟你說
推 eatlion: 感謝大大無私分享316F 12/13 12:30
推 for767: 有什麼好刺激的?記憶體已經好幾次這樣了318F 12/13 12:37
每一次記憶體週期都很刺激好嗎XD
推 jorden: 感謝分享 終於懂目前AI模型語言一堆限制的邏輯了319F 12/13 12:37
推 bring777: 領先技術的,現在誰新手機沒用AI ?320F 12/13 12:38
推 SilverRH: GSIT先躺一票人進去了322F 12/13 12:47
推 pmes9866: 老鐵牛逼 我要好好複習我的數學了323F 12/13 12:49
推 CCPenis: 還真的是2330無腦多326F 12/13 13:19
推 BBKOX: 重壓TSMX,再加上七巨頭槓桿ETF,應該可以應對後面AI的發展327F 12/13 13:22
→ BBKOX: 囊括代工、算力、模型、應用330F 12/13 13:23
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 13:23:49
推 ynanlin: 關於接下來幾年學習推理運算所用的晶片,會朝更客製化,記憶體需求與架構也將改變,由於NL是Google開發也正積極落實應用,可想見內部有更多相應硬體架構的研發,也有相對領先的優勢。粗淺的Deep Research報告第二則分享給大家看看(https://bit.ly/4rVv1X3)332F 12/13 13:23
推 walkingtall: m大厲害!希望後續持續幫忙暗示(或明示XD)救一下我們這些小菜雞XD338F 12/13 13:25
推 rayisgreat: 前幾天才看到TSMC釋出的N7到未來A14的效能演進,再加上架構模型持續架化,兩者相輔相成實在很難想像未來的AI世界會有多可怕@@
*持續進化341F 12/13 13:37
推 ACDC69: 看不懂,先推349F 12/13 13:49
推 OuO333333: 看起來像Transformer+RL?350F 12/13 13:58
推 mamorui: mina大一定知道數學猜想也在靠AI解決中,菇菇我等躺在科學家塵封盒子的做不下去的論文登場,AI的第三篇章聖杯是黑科技。351F 12/13 14:01
不止是數學,包含社會科學和經濟學,這種傳統上歸到文組的領域
實際上也是需要AI研究的
因為數學語言是有普世擴展性的
所以從Nested Learning的起點出發,再多幾步推導
就能得出「文明的本質就是計算」
延伸出L6與L7的計算層,發展出一套用來描述文明、制度的數學語言
https://reurl.cc/6bK3Q5
我提供一個引子給對這方面研究有興趣的人去讀
老樣子,如果讀不懂,就丟去問AI吧
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 14:15:06
推 TaiwanUp: NL=控制理論 Transformer=引擎 HOPE=會變形的引擎會變形的引擎在飛機來說很恐怖 但模型訓練不一定
熱力學定律還是至高無上 很難有什麼技術可比喻為之熱力學定律是不可被比喻的354F 12/13 14:11
你小看了Nested learning這篇論文的背後擴展潛力
它不單單只是一篇關於AI的論文,它「正好是熱力學定律的反面理論」
熱力學是關於「宇宙的熵增」
Nested learning是關於「文明的熵減」
剛好是對偶關係
→ TaiwanUp: 剛睡醒就看了好人名單文 刷了兩小時的手機358F 12/13 14:16
→ h22349: 別想太多 一篇優化效率 現在ai就像是國土擴張,遲早會有新算法,需要這些資源359F 12/13 14:22
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 14:24:18
推 FULLHD1080: AI的飛輪效應要來了,算法-硬體 相互改善,直到物理化學的窮盡361F 12/13 14:25
推 linweida: 睡醒看到Mina大的文必推! (mina怎麼好像不用睡覺)363F 12/13 14:30
推 ykjiang: SRAM太貴太佔die size且面向用戶,不用太低延遲
DRAM應該更適合364F 12/13 14:38
→ TaiwanUp: 文明熵減是局部熵減 很難跟全域對偶 但是人致富關鍵366F 12/13 14:57
推 hotbeat: CUDA 才是那個聖杯 ,ASIC只能做edge的367F 12/13 14:59
推 hotbeat: 怎麼看google還是最大贏家,跟台廠有結盟的基本上都不用擔憂太多369F 12/13 15:08
推 breathair: 再推一次!看完覺得自己對AI的發展拔高了不只一層!371F 12/13 15:15
推 TaiwanUp: 宇宙和文明還是有對偶 但沒有野蠻和文明那麼明顯372F 12/13 15:23
推 afacebook: 當初大家覺得Mamba能取代transformer 是MoE+mamba或其他的架構 當然不可能只有一層ssm的架構啊
這東西感覺是一種特別的fine turing
能不能成功 要再多做一點實驗
現在主要還是覺得大模型比較強
這是想要做些中模型 就能有很好的適應能力吧
很特別 請google再多做一點實驗
CMS這種更新方式 其實跟一般 先凍結一些層 然後慢慢打開 不是很像嗎?
然道主要是那optimizer有貢獻嗎
好像也沒這麼簡單 要再研究一下373F 12/13 15:32
→ TaiwanUp: NL像是聯合國憲章 HOPE是機構+流程 Transformer美國Mamba就是另一國 但看起來沒有成氣候384F 12/13 15:52
推 misthide: 總歸一句 2330是最大贏家 任何新技術都繞不開它386F 12/13 16:02
推 BBKOX: 以為買了AI Pro就能一直使用Gemini思考型,結果還是有次數限制…387F 12/13 16:10
推 afacebook: Mamba有沒有成氣候 還不知道吧....
每次新架構出來 基本都會吹一下 要經過檢驗
說實在 我個人是覺得沒有到當初看Transformer那種神奇感 就是等看接下來發展389F 12/13 16:24
→ PTTMAXQQ: 感恩啊 謝謝分享專業知識 對我幫助蠻大的393F 12/13 16:40
推 h129875230: 要五層參數 不就要一大坨人幫忙 fine tune嗎 這個五年內就出來 是不是有點樂觀395F 12/13 16:51
五層不是五個模型好嗎,它是同一個模型的巢狀表達
在快層傳到慢層時,傳遞的是「語義向量」
這就表示L2傳給L3的語義向量要是同義的
也就是說,整個模型是要五層一起聯合訓練的
預訓練時不可能分散佈署
是訓練完才把L1/L2的初始靜態參數(慢權重)佈署到邊緣端
推 akanokuruma: 意思是記憶卡現在風聲水起 隨著技術更新 擴廠=負債虧損 暴死399F 12/13 17:29
推 Bellucci: 看不懂所以問AI, 它建議是Goog/AAPL/AVGO/QCOM/ARM/TSMC/聯發科 , Nvidia有其護城河且他具備訓練功能不至於死掉但要分散風險不重倉。
TSM是絕對防禦401F 12/13 17:35
推 darkangel119: AI回答我是SRAM IP 跟 ASIC 事核心受益者 咦?405F 12/13 17:40
→ Bellucci: 我菜雞還是QQQ和mega 7就好,神仙打架我沒資格參加410F 12/13 17:52
※ 編輯: minazukimaya (146.70.205.172 日本), 12/13/2025 18:07:13
推 as6633208: 行業護城河問gpt你會很慘喔,每間護城河都是在增加的要看的是未來布局412F 12/13 18:06
推 mudmud: Active Entropy Control Model414F 12/13 18:28
推 Bellucci: 我沒問行業護城河欸我直接給論文它自己寫的
重點不在第四張在前三張
反正AI沒回要買Nividia 是建議前三張的標的415F 12/13 18:28
推 breathair: 此篇重點在未來AI世界的描繪,虛擬與現實的雙耦,虛擬的入口(GOOG,APPL),物理的極限(TSM,CEG)419F 12/13 19:06
→ lavign: 通用型怎麼什麼都不精怎麼和ASIC比421F 12/13 21:03
推 PTTMAXQQ: 你各位還是想想最終消費者會選擇從哪個入口去付費AI422F 12/13 21:16
推 avans: 不懂Nested Learning如何降低vram用量,不過先推了!425F 12/13 22:49
→ njjroom: 謝謝mina大的分享引起很多大大的討論,跪學中……426F 12/13 23:16
推 ksjr: asic每次換算法都要重新設計來取得最佳效能啊427F 12/13 23:39
※ 發信站: 批踢踢實業坊(ptt.cc)
※ 轉錄者: avans (42.79.138.114 臺灣), 12/14/2025 00:12:21
→ avans: 因作者認為重要度不亞於Attention is all you need才轉的啦4F 12/15 09:23
--