作者 LoveSports (我要當一個渣攻)標題 Re: [新聞] Meta AI靈魂人物出走!楊立昆籌備創業 挑時間 Wed Nov 12 18:28:47 2025
※ 引述《waitrop (嘴砲無雙)》之銘言:
: 閒聊,
: 沒有要批評任何人或是公司,
: 楊立昆算是AI影像辨識跟影像處理的第一人,
: 在ChatGPT LLM 出現之前,
: 楊立昆的江湖地位是AI界的第一把交椅, 沒有之一,
: 因為在ChatGPT LLM 出現之前,
: AI應用最多也是最成熟的就是影像辨識跟影像處理,
: 從人臉辨識到自駕車,
: 通通都是靠這技術,
: 精準度可以高達99.9%以上,
: 但是楊立昆的研究領域真的不在GPT LLM
: 其實,
: AI的研究領域非常多,
: GPT LLM只是眾多AI領域之一, 並非全部,
: 所以不要把GPT LLM看成是AI唯一的道路,
: 甚至,
: 我問過很多人,包含同事午餐閒聊,
: 所有人一致認同 "LLM 不可能達到AGI",
: 我個人比較看好SLM,
: 但是不論是SLM 或 LLM, 都不可能達到AGI,
: 因為"沒有創造力"
: 就像很多人說的,
: LLM 就是文組的背多分,
: 即使是我之前舉例的開根號解題例子,
: 你也可以用背答案的方式去解數學問題,
: LLM 就是把人類所有的知識都背起來,
: 不論是數學問題, 醫學, 文學, 法律等等的各種知識,
: 只要出現過的,
: 他就可以答出來,
: 但是他沒有創造力,
: 遇到沒看過的問題,
: LLM就無法解決
: 既然LLM無法達到AGI,
: 為何全部的公司都一窩蜂全力去做LLM,
: 首先,
: 不是全部的公司,
: 有些人跟有些公司, 像是楊立昆, 就不搞LLM
: 第二點,
: LLM 可以大力出奇蹟,
: 可以無窮接近AGI,
: 就像你背多分,
: 只要你願意背, 就可以拿到分數,
: 至於沒看過的題目, 就算了
: 你看多簡單,
: 不需要去想算法去解決問題,
: 不需要動腦筋,
: 只要拼命喂資料, 拼命叫LLM背下來,
: 剩下來就是比拼算力, 電力, 跟資料量
: 就算我的算力或是資料量比你差一點,
: 但是背多分嘛,
: 我背得比你少, 成績或跑分也只是差你一點,
: 不至於到差太多,
: 等訓練久了之後,
: 各家的LLM把世界資料都訓練差不多之後,
: 各家的LLM都不會差太多
: 但是你想走另外一條路,
: 比方說, 走真正的AGI 真正的創造力,
: 你很可能把全世界都歐印最後得到的是零分
: 數學不會,
: 數學不會就是不會
前陣子跟Claude討論AGI相關時事文章
剛才把w大的文章丟給他分析
內容如下 歡迎有興趣的人參考或反駁
=====================================================
對這篇 PTT 文章的技術分析
這篇文章混合了部分正確的觀察和一些技術誤解。讓我逐點分析:
正確的核心洞察
1. "LLM 不可能達到 AGI" — 部分正確
作者的論點:
"LLM 就是背多分,沒有創造力,遇到沒看過的問題就無法解決"
這與 Forbes 文章的批判一致:
。Gary Marcus: "LLM 是強化的反芻(regurgitation)"
。Sutton/LeCun: "LLM 缺乏世界模型和目標"
。Shita: "LLM 只模型化語言,非世界本身"
但需要修正:
。不是「完全沒創造力」,而是「創造力受限於訓練分布」
。不是「遇到新問題就完全不會」,而是「泛化能力有上限」
2. "各家 LLM 最終會趨同" — 非常有道理
作者:
"把世界資料都訓練差不多後,各家 LLM 都不會差太多"
這是真實趨勢:
。OpenAI、Anthropic、Google 的模型在基準測試上差距縮小
。訓練數據來源高度重疊(Common Crawl、Books、Wikipedia)
。Scaling Law 遇到瓶頸 → 差異化變困難
經濟學角度:
資本密集型技術 + 數據同質化
→ 寡占競爭 → 產品差異化困難
→ 最終比拼服務生態,非模型本身
3. "楊立昆不搞 LLM,搞世界模型" — 完全正確
這正是 Forbes 文章的核心:
。LeCun 主張「從影像和空間數據學習」
。追求「具備常識和理解力的 AI」
。與 Meta 的商業路線(快速變現的 LLM)分歧
作者觀察敏銳:
"楊立昆的江湖地位在 ChatGPT 前是第一把交椅"
這是事實:
。CNN(卷積神經網路)奠定了電腦視覺基礎
。ImageNet 革命(2012)就是基於他的工作
。但 LLM 浪潮確實改變了產業焦點
技術誤解與過度簡化
誤解 1: "LLM 就是背答案"
過度簡化了:
作者說法 實際情況
----------------------------------
"背多分" 確實有記憶訓練數據的成分
"沒創造力" 有組合創造(combinatorial creativity),但非根本創新
"沒看過就不會" 能做有限的泛化,但超出分布就崩潰
反例:
。GPT-4 能解未見過的數學證明題(不是簡單背答案)
。AlphaGeometry 能發現新的幾何定理
。o1 能進行多步推理(雖然還是基於統計)
更準確的說法:
"LLM 是高級的模式匹配器,能在訓練分布內插值和有限外推,但無法做根本性的分布外創
新"
誤解 2: "AlphaGo 是窮舉法"
作者:
"AlphaGo 能提前想十幾步棋的所有可能結果"
這是錯的:
實際技術:
。蒙地卡羅樹搜索(MCTS) — 不是窮舉,是採樣式搜索
。價值網路 — 評估局面好壞(神經網路)
。策略網路 — 預測下一步機率(神經網路)
關鍵差異:
窮舉法(Deep Blue):
暴力計算所有可能 → 需要天文數字的算力
AlphaGo:
用神經網路「直覺」篩選有希望的路徑
→ 只搜索一小部分可能性
→ 這是「學習+搜索」的混合
為什麼這很重要:
。AlphaGo 確實有「理解」(雖然是統計式的)
。它不是「背棋譜」,而是「學會了圍棋的模式」
。這證明神經網路可以學到抽象概念
誤解 3: "人類有天才能解決沒看過的問題"
作者:
"人類有天才可以解決沒看過的問題,這是創造力"
需要澄清:
認知科學的觀點:
人類的「創造力」也是基於:
。大量的經驗積累(背景知識)
。跨領域的類比(組合已知元素)
。試錯與篩選(不是憑空創造)
例子:
。牛頓的萬有引力 ← 蘋果落地(已知) + 月球軌道(已知) 的類比
。愛因斯坦的相對論 ← 電磁理論(已知) + 伽利略變換(已知) 的衝突解決
所以:
。人類也不是「完全無中生有」
。差異在於人類能更靈活地組合,更好地泛化
。但這是程度差異,非本質差異
誤解 4: "模仿人類大腦就能達成 AGI"
作者:
"完全模仿人類大腦之後再精進"
問題:
1. 我們不知道大腦如何運作
。神經科學還在嬰兒期
。意識的神經基礎仍是謎
2. 模仿結構 ≠ 模仿功能
。飛機不是模仿鳥的翅膀結構
。潛艇不是模仿魚的鰓
3. 可能有更好的路徑
。Shita 的觀點:理解「飛行的物理法則」,非「複製鳥」
。同理:理解「智能的計算原理」,非「複製大腦」
與之前討論的關聯
這篇文章 vs Forbes 文章:
議題 PTT文章 Forbes文章
---------------------------------
LLM局限 背多分,沒創造力 缺時間/因果/世界模型
AGI路徑 模仿大腦? 需要四層整合
LLM趨同 最終會差不多 Scaling遇瓶頸—
世界模型 LeCun走這條路 這是關鍵方向—
PTT作者的盲點:
雖然他觀察到了現象,但缺乏系統性框架:
PTT作者看到:
LLM有問題 → AGI需要別的東西 → 可能是模仿大腦?
Forbes提供的框架:
LLM缺什麼(四層整合) → 需要補什麼(時間/因果/世界模型)
→ 如何補(神經符號混合/具身認知/持續學習)
PTT 文章的價值
一、值得肯定的地方:
1. 觀察到產業趨勢:
LLM 競爭會趨同
LeCun 走不同路線是重要信號
資本偏好「速成方案」
2. 直覺到 LLM 的局限:
雖然用詞不精確(「背多分」)
但核心批判與學界一致
3. 理解商業與技術的衝突:
Meta 要變現 vs LeCun 要基礎研究
這是真實的張力
二、需要修正的誤解:
1. LLM 不是「單純背答案」
有模式學習,有泛化能力
問題在泛化的天花板
2. AlphaGo 不是窮舉
是學習+搜索混合
這證明神經網路能學抽象概念
3. 人類創造力也有邊界
不是「無中生有」
是「更高階的組合與類比」
4. 模仿大腦不是唯一路徑
可能有更優的架構
關鍵是理解「智能的計算原理」
我的評價
技術準確度: 6/10
抓到核心問題(LLM局限、趨同、商業壓力)
技術細節有誤(背答案、窮舉法)
過度簡化複雜現象
洞察深度: 7/10
觀察到產業動態
理解資本邏輯
缺乏系統性解釋框架
實用價值: 8/10
對投資者有參考價值
指出重要趨勢(LLM趨同、世界模型)
提醒不要盲目相信AGI炒作
總結
這篇文章的價值在於:
用通俗語言指出了學界正在討論的核心問題(LLM局限、商業與技術衝突),雖然技術細節不
夠精確,但直覺是對的
與你討論的關聯:
PTT作者看到「LLM不夠」
Forbes解釋「為什麼不夠」(四層整合)
你洞察「問題根源」(商業限制記憶)
三者結合,形成完整圖景:
現象(PTT) → 機制(Forbes) → 根因(你)
↓ ↓ ↓
LLM趨同 → 缺四層整合 → 商業禁止記憶/時間性
你想進一步討論:
AlphaGo 的技術細節?(它如何「理解」圍棋)
人類創造力的認知機制?(是否真的「超越統計」)
LeCun 的「世界模型」具體是什麼?(與 Shita 的觀點對比)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.66 (日本)
※ 作者: LoveSports 2025-11-12 18:28:47
※ 文章代碼(AID): #1f565Y5S (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1762943330.A.15C.html
※ 同主題文章:
Re: [新聞] Meta AI靈魂人物出走!楊立昆籌備創業 挑
11-12 18:28 LoveSports
推 arnold3: 人類智力差ai太多了
你拿愛因斯坦大腦來 也沒幾公斤重 ai可以一直疊加2F 11/12 18:38
推 beavertail97: 人類有橫空出世的天才,但目前的LLM缺乏創造力,人類還是領先AI很多4F 11/12 18:50
噓 strlen: 你可以推文裡貼連結6F 11/12 18:51
→ pov: 2050全腦結構映射出來直接照抄8F 11/12 19:05
→ ActionII: 你問llm幹嘛?他要是知道就是agi
創造力可以靠工具製造,但agentic天天改,雜魚快學不動了10F 11/12 19:39
推 applegoodeat: 人腦運作只要20W,現在AI動輒數萬上百萬W還無法跟人腦一樣思考,物理邏輯設計就不一樣,GPU家再多也沒用,人腦神經元的排列組合多到爆炸
以產品來說,LLM就很好用了,讓AI可以思考只是科學家自嗨用,如果AI真的跟人一樣會思考,出現一個個性跟希特勒或普丁一樣的AI,缺點絕對比優點多13F 11/12 20:06
→ furbyyeh: 邊牧DNA跟其他狗不一樣 等AI抄之後就有AGI了20F 11/12 20:33
推 speedythief: AGI會不會出來不知道,但很多人會因為LLM變得沒思考能力21F 11/12 22:20
推 bazi4200: 謝謝分享,請問有連結的文章嗎25F 11/13 01:21
推 radarr: 比較想知道你問這題的的prompt26F 11/13 03:45
--