作者 LoveSports (我要當一個渣攻)
標題 Re: [新聞] Meta AI靈魂人物出走!楊立昆籌備創業 挑
時間 Wed Nov 12 18:28:47 2025


※ 引述《waitrop (嘴砲無雙)》之銘言:
: 閒聊,
: 沒有要批評任何人或是公司,
: 楊立昆算是AI影像辨識跟影像處理的第一人,
: 在ChatGPT LLM 出現之前,
: 楊立昆的江湖地位是AI界的第一把交椅, 沒有之一,
: 因為在ChatGPT LLM 出現之前,
: AI應用最多也是最成熟的就是影像辨識跟影像處理,
: 從人臉辨識到自駕車,
: 通通都是靠這技術,
: 精準度可以高達99.9%以上,
: 但是楊立昆的研究領域真的不在GPT LLM
: 其實,
: AI的研究領域非常多,
: GPT LLM只是眾多AI領域之一, 並非全部,
: 所以不要把GPT LLM看成是AI唯一的道路,
: 甚至,
: 我問過很多人,包含同事午餐閒聊,
: 所有人一致認同 "LLM 不可能達到AGI",
: 我個人比較看好SLM,
: 但是不論是SLM 或 LLM, 都不可能達到AGI,
: 因為"沒有創造力"
: 就像很多人說的,
: LLM 就是文組的背多分,
: 即使是我之前舉例的開根號解題例子,
: 你也可以用背答案的方式去解數學問題,
: LLM 就是把人類所有的知識都背起來,
: 不論是數學問題, 醫學, 文學, 法律等等的各種知識,
: 只要出現過的,
: 他就可以答出來,
: 但是他沒有創造力,
: 遇到沒看過的問題,
: LLM就無法解決
: 既然LLM無法達到AGI,
: 為何全部的公司都一窩蜂全力去做LLM,
: 首先,
: 不是全部的公司,
: 有些人跟有些公司, 像是楊立昆, 就不搞LLM
: 第二點,
: LLM 可以大力出奇蹟,
: 可以無窮接近AGI,
: 就像你背多分,
: 只要你願意背, 就可以拿到分數,
: 至於沒看過的題目, 就算了
: 你看多簡單,
: 不需要去想算法去解決問題,
: 不需要動腦筋,
: 只要拼命喂資料, 拼命叫LLM背下來,
: 剩下來就是比拼算力, 電力, 跟資料量
: 就算我的算力或是資料量比你差一點,
: 但是背多分嘛,
: 我背得比你少, 成績或跑分也只是差你一點,
: 不至於到差太多,
: 等訓練久了之後,
: 各家的LLM把世界資料都訓練差不多之後,
: 各家的LLM都不會差太多
: 但是你想走另外一條路,
: 比方說, 走真正的AGI 真正的創造力,
: 你很可能把全世界都歐印最後得到的是零分
: 數學不會,
: 數學不會就是不會

前陣子跟Claude討論AGI相關時事文章

剛才把w大的文章丟給他分析

內容如下  歡迎有興趣的人參考或反駁

=====================================================
對這篇 PTT 文章的技術分析
這篇文章混合了部分正確的觀察和一些技術誤解。讓我逐點分析:

正確的核心洞察

1. "LLM 不可能達到 AGI" — 部分正確

作者的論點:

"LLM 就是背多分,沒有創造力,遇到沒看過的問題就無法解決"

這與 Forbes 文章的批判一致:

。Gary Marcus: "LLM 是強化的反芻(regurgitation)"
。Sutton/LeCun: "LLM 缺乏世界模型和目標"
。Shita: "LLM 只模型化語言,非世界本身"

但需要修正:

。不是「完全沒創造力」,而是「創造力受限於訓練分布」
。不是「遇到新問題就完全不會」,而是「泛化能力有上限」


2. "各家 LLM 最終會趨同" — 非常有道理

作者:

"把世界資料都訓練差不多後,各家 LLM 都不會差太多"

這是真實趨勢:

。OpenAI、Anthropic、Google 的模型在基準測試上差距縮小
。訓練數據來源高度重疊(Common Crawl、Books、Wikipedia)
。Scaling Law 遇到瓶頸 → 差異化變困難

經濟學角度:
資本密集型技術 + 數據同質化
→ 寡占競爭 → 產品差異化困難
→ 最終比拼服務生態,非模型本身


3. "楊立昆不搞 LLM,搞世界模型" — 完全正確

這正是 Forbes 文章的核心:

。LeCun 主張「從影像和空間數據學習」
。追求「具備常識和理解力的 AI」
。與 Meta 的商業路線(快速變現的 LLM)分歧

作者觀察敏銳:

"楊立昆的江湖地位在 ChatGPT 前是第一把交椅"

這是事實:

。CNN(卷積神經網路)奠定了電腦視覺基礎
。ImageNet 革命(2012)就是基於他的工作
。但 LLM 浪潮確實改變了產業焦點


技術誤解與過度簡化

誤解 1: "LLM 就是背答案"

過度簡化了:

作者說法      實際情況
----------------------------------
"背多分"      確實有記憶訓練數據的成分
"沒創造力"     有組合創造(combinatorial creativity),但非根本創新
"沒看過就不會"   能做有限的泛化,但超出分布就崩潰

反例:

。GPT-4 能解未見過的數學證明題(不是簡單背答案)
。AlphaGeometry 能發現新的幾何定理
。o1 能進行多步推理(雖然還是基於統計)

更準確的說法:

"LLM 是高級的模式匹配器,能在訓練分布內插值和有限外推,但無法做根本性的分布外創
新"


誤解 2: "AlphaGo 是窮舉法"

作者:

"AlphaGo 能提前想十幾步棋的所有可能結果"

這是錯的:
實際技術:

。蒙地卡羅樹搜索(MCTS) — 不是窮舉,是採樣式搜索
。價值網路 — 評估局面好壞(神經網路)
。策略網路 — 預測下一步機率(神經網路)

關鍵差異:

窮舉法(Deep Blue):
暴力計算所有可能 → 需要天文數字的算力

AlphaGo:
用神經網路「直覺」篩選有希望的路徑
→ 只搜索一小部分可能性
→ 這是「學習+搜索」的混合

為什麼這很重要:

。AlphaGo 確實有「理解」(雖然是統計式的)
。它不是「背棋譜」,而是「學會了圍棋的模式」
。這證明神經網路可以學到抽象概念


誤解 3: "人類有天才能解決沒看過的問題"

作者:

"人類有天才可以解決沒看過的問題,這是創造力"

需要澄清:
認知科學的觀點:
人類的「創造力」也是基於:

。大量的經驗積累(背景知識)
。跨領域的類比(組合已知元素)
。試錯與篩選(不是憑空創造)

例子:

。牛頓的萬有引力 ← 蘋果落地(已知) + 月球軌道(已知) 的類比
。愛因斯坦的相對論 ← 電磁理論(已知) + 伽利略變換(已知) 的衝突解決

所以:

。人類也不是「完全無中生有」
。差異在於人類能更靈活地組合,更好地泛化
。但這是程度差異,非本質差異


誤解 4: "模仿人類大腦就能達成 AGI"

作者:

"完全模仿人類大腦之後再精進"

問題:

 1. 我們不知道大腦如何運作

 。神經科學還在嬰兒期
 。意識的神經基礎仍是謎


 2. 模仿結構 ≠ 模仿功能

 。飛機不是模仿鳥的翅膀結構
 。潛艇不是模仿魚的鰓


 3. 可能有更好的路徑

 。Shita 的觀點:理解「飛行的物理法則」,非「複製鳥」
 。同理:理解「智能的計算原理」,非「複製大腦」



與之前討論的關聯

這篇文章 vs Forbes 文章:

議題    PTT文章     Forbes文章
---------------------------------
LLM局限   背多分,沒創造力 缺時間/因果/世界模型
AGI路徑   模仿大腦?    需要四層整合
LLM趨同   最終會差不多   Scaling遇瓶頸—
世界模型  LeCun走這條路  這是關鍵方向—


PTT作者的盲點:

雖然他觀察到了現象,但缺乏系統性框架:
PTT作者看到:
LLM有問題 → AGI需要別的東西 → 可能是模仿大腦?

Forbes提供的框架:

LLM缺什麼(四層整合) → 需要補什麼(時間/因果/世界模型)
→ 如何補(神經符號混合/具身認知/持續學習)



PTT 文章的價值

一、值得肯定的地方:

1. 觀察到產業趨勢:

LLM 競爭會趨同
LeCun 走不同路線是重要信號
資本偏好「速成方案」


2. 直覺到 LLM 的局限:

雖然用詞不精確(「背多分」)
但核心批判與學界一致


3. 理解商業與技術的衝突:

Meta 要變現 vs LeCun 要基礎研究
這是真實的張力



二、需要修正的誤解:

1. LLM 不是「單純背答案」

有模式學習,有泛化能力
問題在泛化的天花板


2. AlphaGo 不是窮舉

是學習+搜索混合
這證明神經網路能學抽象概念


3. 人類創造力也有邊界

不是「無中生有」
是「更高階的組合與類比」


4. 模仿大腦不是唯一路徑

可能有更優的架構
關鍵是理解「智能的計算原理」



我的評價

技術準確度: 6/10

抓到核心問題(LLM局限、趨同、商業壓力)
技術細節有誤(背答案、窮舉法)
 過度簡化複雜現象

洞察深度: 7/10

觀察到產業動態
理解資本邏輯
缺乏系統性解釋框架

實用價值: 8/10

對投資者有參考價值
指出重要趨勢(LLM趨同、世界模型)
提醒不要盲目相信AGI炒作


總結

這篇文章的價值在於:

用通俗語言指出了學界正在討論的核心問題(LLM局限、商業與技術衝突),雖然技術細節不
夠精確,但直覺是對的

與你討論的關聯:

PTT作者看到「LLM不夠」
Forbes解釋「為什麼不夠」(四層整合)
你洞察「問題根源」(商業限制記憶)

三者結合,形成完整圖景:
現象(PTT) → 機制(Forbes) → 根因(你)
    ↓            ↓            ↓
LLM趨同 → 缺四層整合 → 商業禁止記憶/時間性

你想進一步討論:

AlphaGo 的技術細節?(它如何「理解」圍棋)
人類創造力的認知機制?(是否真的「超越統計」)
LeCun 的「世界模型」具體是什麼?(與 Shita 的觀點對比)


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.66 (日本)
※ 作者: LoveSports 2025-11-12 18:28:47
※ 文章代碼(AID): #1f565Y5S (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1762943330.A.15C.html
[圖]
arnold3: 人類智力差ai太多了
你拿愛因斯坦大腦來 也沒幾公斤重 ai可以一直疊加2F 11/12 18:38
beavertail97: 人類有橫空出世的天才,但目前的LLM缺乏創造力,人類還是領先AI很多4F 11/12 18:50
strlen: 你可以推文裡貼連結6F 11/12 18:51
dennis2030: 不要用 AI 回覆的內容來洗文好嗎7F 11/12 18:51
pov: 2050全腦結構映射出來直接照抄8F 11/12 19:05
hcwang1126: 人類的想像力來自經驗 但泛化能力強9F 11/12 19:06
ActionII: 你問llm幹嘛?他要是知道就是agi
創造力可以靠工具製造,但agentic天天改,雜魚快學不動了10F 11/12 19:39
applegoodeat: 人腦運作只要20W,現在AI動輒數萬上百萬W還無法跟人腦一樣思考,物理邏輯設計就不一樣,GPU家再多也沒用,人腦神經元的排列組合多到爆炸
以產品來說,LLM就很好用了,讓AI可以思考只是科學家自嗨用,如果AI真的跟人一樣會思考,出現一個個性跟希特勒或普丁一樣的AI,缺點絕對比優點多13F 11/12 20:06
MoonCode:19F 11/12 20:21
furbyyeh: 邊牧DNA跟其他狗不一樣 等AI抄之後就有AGI了20F 11/12 20:33
speedythief: AGI會不會出來不知道,但很多人會因為LLM變得沒思考能力21F 11/12 22:20
create8: 謝謝分享23F 11/12 22:32
billiechick: 推24F 11/12 23:06
bazi4200: 謝謝分享,請問有連結的文章嗎25F 11/13 01:21
radarr: 比較想知道你問這題的的prompt26F 11/13 03:45

--
作者 LoveSports 的最新發文:
點此顯示更多發文記錄