看板 Stock
作者 huabandd (我是阿肥巴你頭)
標題 [心得] 蘋果揭露人工智能並不思考
時間 Sun Jun 15 23:01:12 2025


https://is.gd/U7lWC8
看到一個影片,非新聞報導,僅創作者想法
討論蘋果揭露關於人工智能當中的最大謊言

之前也看過一個影片指出
AI無法產出指針在10:10以外的手錶
(網路手錶圖片通常指針停留在10:10)
自己嘗試過幾次確實是這樣

因為AI的訓練是基於現有大量資料
去產生一個與大量資料相似的產物給你
無法產生未曾有過資料的產物
(以上為個人猜測,若錯誤請指正)

雖然現在已有研究嘗試將AI接入人類神經元
未來思考的方式有可能因此改變
不再只是記憶,而是真正的推理
(但是這好像也是一件滿恐怖的事情?)

如果說給AI一個圍棋組,但不教他玩法
也不讓他參考棋類玩法,讓他自行摸索
就像嬰兒拿到玩具後自己亂玩那樣
AI能夠自行生成玩法是不是就算是成功?



中文翻譯

蘋果剛剛揭露了人工智慧中最大的謊言,即「思考」的假象,證明了像 Claude、Deepseek-
R1 和 OpenAI 的 o3-mini 等推理模型實際上並不會思考。蘋果沒有重複使用舊有的數學問
題,而是創造了這些模型從未見過全新謎題。結果令人震驚。


對於簡單問題,標準 AI 模型表現優於昂貴的推理模型,同時消耗更少的資源。對於中等複
雜度問題,推理模型顯示出一些優勢,但對於模擬現實世界情境的高複雜度問題,兩種類型
的模型都崩潰到 0% 的準確度。


這是確鑿的證據:蘋果給予 AI 模型逐步的演算法,就像給某人食譜一樣,但它們仍在相同
的門檻下失敗了。這證明它們無法遵循邏輯指令。該研究沒有發現任何形式推理的證據,得
出結論認為其行為最好用複雜的模式匹配來解釋。


簡單地更改名稱和問題會顯著降低性能。蘋果測試了河內塔(Tower of Hanoi)謎題,模型
在超過 100 步的移動中成功了,但在新穎的渡河謎題中僅僅 4 步後就失敗了。它們是記憶
模式,而不是進行邏輯推理。


隨著問題變得越來越難,「思考」模型使用的 token 越來越少,放棄得更快,而不是更深
入地思考。即使無限的計算資源也無濟於事。這揭示了數十億美元的 AI 投資是建立在錯誤
前提上的。


公司將複雜的模式匹配宣傳為真正的推理,誤導消費者對 AI 能力的認知。我們離通用人工
智慧(AGI)的距離並沒有大家想像的那麼近;我們正在處理的是非常複雜的自動完成系統
。當先進的 AI 推理模型連遵循簡單指令都失敗時,我們是否正生活在一個建立在幻想之上
的 AI 炒作泡沫中?


英文原文

Apple just exposed the biggest lie in AI with the illusion of "thinking," provin
g that reasoning models like Claude, Deepseek-R1, and OpenAI's o3-mini don't act
ually think. Instead of recycling math problems, Apple created brand new puzzles
 these models had never seen. The results were shocking.

For simple problems, standard AI models outperformed expensive reasoning models
while using fewer resources. For medium complexity, reasoning models showed some
 advantage, but for high complexity problems that mirror real-world scenarios, b
oth types collapsed to 0% accuracy.

Here's the damning evidence: Apple gave AI models step-by-step algorithms, like
giving someone a recipe, and they still failed at the same thresholds. This prov
es they can't follow logical instructions. The study found no evidence of formal
 reasoning, concluding behavior is better explained by sophisticated pattern mat
ching.

Simply changing names and problems degraded performance dramatically. Apple test
ed Tower of Hanoi puzzles, where models succeeded with 100-plus moves but failed
 at novel river crossing puzzles after just 4 moves. They memorized patterns rat
her than reasoned logically.

As problems got harder, "thinking" models used fewer tokens and gave up faster i
nstead of thinking deeper. Even unlimited computational resources couldn't help.
 This exposes that billions in AI investment are based on false premises.

Companies market sophisticated pattern matching as genuine reasoning, misleading
 consumers about AI capabilities. We are not as close to AGI as everyone thinks;
 we're dealing with very sophisticated autocomplete systems. When advanced AI re
asoning models fail at following simple instructions, are we living in an AI hyp
e bubble built on illusions?

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 218.187.82.209 (臺灣)
※ 作者: huabandd 2025-06-15 23:01:12
※ 文章代碼(AID): #1eJk0_y9 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1749999679.A.F09.html
※ 同主題文章:
[心得] 蘋果揭露人工智能並不思考
06-15 23:01 huabandd
bnn: 自信點 大部分人類也不思考1F 06/15 23:02

那兩回事啦XD
※ 編輯: huabandd (218.187.82.209 臺灣), 06/15/2025 23:03:14
bnn: 一回事啊 AI要取代的是不思考的人類就夠了2F 06/15 23:03

這麼說也不能說錯,但就沒辦法向上發展了?
bnn: AI真的開始思考 人類就要被天網滅亡了3F 06/15 23:04

如果是一個絕對理性的,大概真的會
※ 編輯: huabandd (218.187.82.209 臺灣), 06/15/2025 23:05:02
※ 編輯: huabandd (218.187.82.209 臺灣), 06/15/2025 23:05:46
acanjian: 就大數據資料庫4F 06/15 23:05
CAFEHu: OpenAI:So where is your AI? Apple.5F 06/15 23:06
jyan97: 還算合理吧,llm應該還是統計學的範圍,但是能用來加速很多工作就蠻有用了6F 06/15 23:07
CAFEHu: Deepseek:所以我说苹果你的AI在哪里?8F 06/15 23:08
AndyMAX: Apple的意思是要用cpu邏輯推論超越gpu暴力解的程度才叫AI9F 06/15 23:09
gottsucher: AI自己都承認不會思考了啊  不信去問問11F 06/15 23:10
bnn: 重新定義AI 重新定義思考 畢竟是蘋果嘛12F 06/15 23:10
Altair: 你去瞭解LLM原理就知道了...13F 06/15 23:11
CAFEHu: Claude:AI不思考,蘋果AI根本沒思考14F 06/15 23:11
misthide: 還需要蘋果揭露? 你自己問GPT他就會告訴你了
因為我問過這個問題15F 06/15 23:13
japan428: 阿婆重新定義之力連對AI都有效果?17F 06/15 23:13
[圖]
dabih: https://tinyurl.com/yeym45c5  有論文呀 大概是說19F 06/15 23:14
hugo1994: ai如果會思考,那你可能看不到明天的太陽20F 06/15 23:14
dabih: LRM>LLM 但是複雜未知問題都還是無解 通向AGI還有段路要努力~21F 06/15 23:14
ageminis: 好像可以湊梗xd23F 06/15 23:14
shyshyan: AI魯蛇又再叫囂了24F 06/15 23:15
piliwu: LLM本質不就是這樣25F 06/15 23:17
ducamao: 如果要從我們以前想像中的人工智能,來想現在看到的商業模型的話,確實是有一段不小的差距26F 06/15 23:18
s90154aa: 自己的AI不思考當作大家都不會嗎?殺手鐧不可能現在釋出28F 06/15 23:18
rkilo: 當然不會思考,不會有人真覺得AI會思考吧?30F 06/15 23:19
skizard: so? 多數螺絲釘工程師做出來的東西跟沒思考一樣,一樣都能用AI替代掉啊31F 06/15 23:23
lrock: 本來就只是大數據33F 06/15 23:24
loom0et0bust: 作為工具使用,只要確實能突破人類生產效能的上限就有其成功性啊,能不能演化作為智慧生命體獨立運作是另一個發展方向吧?34F 06/15 23:24
coffeedemon: Meta內部也有這樣的聲音 So what? 有別的成果再說37F 06/15 23:24
Galbygene: 不是本來就這樣嗎xd38F 06/15 23:25
qxpbyd: 這國外早就吵一輪了 上下文的Max Token可能限制LLM的思考
然後這一篇是蘋果在WWDC前發的 也沒peer review39F 06/15 23:26
tkc7: so what? 本來就是統計42F 06/15 23:28
HEINOUS: Apple自己的LLM AI都弄不出來還敢講43F 06/15 23:29
yuchifan: 北七一樣,重點不在於他會不會思考?重點在於他會不會幫助人思考,看不清重點永遠都在賣老把戲,蘋果怎麼會交在你的手上?44F 06/15 23:29
strlen: 首先 思考的定義 是什麼?你會思考嗎?真的嗎?47F 06/15 23:30
chehsien: LLM本質上就是文字接龍 所以Yann Lecun不覺得以現有技術能達到AGI48F 06/15 23:30
strlen: 再來 人類的思考模式 99%也是從已知的事物學習而來最後 關於突破目前已知事物的框架 關鍵其實是幻覺50F 06/15 23:30
benson502: 會思考就不得了,蘋果這不是廢話嗎52F 06/15 23:31
strlen: 幻覺並不一定都是壞的 歪打正著就能變成創新
基本上我們連人類的意識和心智是如何運作的都還不懂又如何斷言LLM會不會思考或產生意識53F 06/15 23:31
NoMomoNoLife: 本來就還不行,然後你說圍棋那個早就有了,alphago時代還不是現在LLM時代就有了。56F 06/15 23:32
lakershank: 連毛都沒有就想著AGI...真的是偉哉你庫克58F 06/15 23:33
strlen: 一個東西 看起來像鴨子 走路起來也像 叫聲更像 那這東西是不是鴨子?59F 06/15 23:33
la8day: 不要找藉口喔61F 06/15 23:35
jimpon: 蘋果不是在AI時代賣AI的入口就贏麻了嗎?62F 06/15 23:35
fantasystar: 現在標榜 chain of thought 也不是說會獨立思考啊,是被訓練成:不只是單純的文字接龍,而是把任務拆解成多個步驟,而且在每一步結果出來之後會試圖驗證。以上是還沒看過 Apple 那邊論文,目前既有的理解。63F 06/15 23:35
jimpon: 是說AI時代的AI硬體媒介還是手機嗎?67F 06/15 23:35
SamuelKL: 蘋果:吃不到飯我就拉在鍋子裡面68F 06/15 23:35
onstar: 可以說ai不算思考,但同標準,很多人的工作也沒思考69F 06/15 23:36
overpolo: 新的蛋白質堆疊方式  就不是人類想得出來的70F 06/15 23:36
lionel20002: 先定義思考71F 06/15 23:37
ohsexygirl: 到底要多少實例才能顯示不是泡沬…..
身邊週遭都有一堆應用例子了72F 06/15 23:37
s56565566123: 好了啦76F 06/15 23:39
hunteryoyoyo: @想想自己的問題77F 06/15 23:39
[圖]
kiss78832: 蘋果siri還在if….else…到底有什麼臉講別人,廢到笑的siri79F 06/15 23:40
keltt: AI不會思考,聽起來好像比較讓人安心81F 06/15 23:40
[圖]
MinatoFlash: 一堆人根本沒看文章或根本沒在思考 蘋果這項研究只是在證明AI沒有在思考 跟他目前有沒有LLM產品到底有啥關係 這兩件事又不衝突83F 06/15 23:40
xluds24805: 這種理解程度,難怪蘋果在 AI 領域落後了好幾年86F 06/15 23:40
qxpbyd: 至少這一篇論文是有上期刊的87F 06/15 23:40
kusotoripeko: 光是幫忙整理過往資料就幫忙發現很多材料的新組合了還有前幾年陸續幫天文學家整理過去認為沒料的紀錄88F 06/15 23:41
xluds24805: 好像一個考試考不及格的人,在安慰自己別人只是在死讀書,沒有真正理解90F 06/15 23:41
papamonkey: 我覺得在寫程式這塊上他比我還會思考…92F 06/15 23:42
kusotoripeko: 結果當年一些事務沒發現就只是因為太繁雜沒注意到量子概念股就真的不知道了,有科學量測以外的例子?93F 06/15 23:42
seal46825: 蘋果這個AI輸家 講的話有可性度嗎呵呵95F 06/15 23:43
HEINOUS: 市場對Apple的期待不止是當一個研究機構96F 06/15 23:43
GooglePlus: 不衝突阿 但做不出來的人在那邊說就很有趣了97F 06/15 23:43
woulin: 根據統計方式去拼湊文字98F 06/15 23:43
HEINOUS: 10年前蘋果除了說別人很爛還會端產品證明99F 06/15 23:45
CAFEHu: 歷史題Nokia:觸控智慧手機容易出問題459F 06/16 10:33
stanley86300: 應該沒有哪家LLM說過自己的模型會思考吧 蘋果只是想吃不到葡萄就說葡萄酸 有夠可憐的460F 06/16 10:34
woko: ...但現在大部分的人類也不思考啊!!462F 06/16 10:40
j3gp6: 早就說了   如果可以思考 早就可以解決近視 癌症463F 06/16 10:43

--
作者 huabandd 的最新發文:
點此顯示更多發文記錄