看板 Stock
作者 LoveSports (我要當一個渣攻)
標題 [新聞] GPT5.2顛覆理論物理學定說發現簡潔新公式
時間 Wed Feb 18 14:48:28 2026


原文標題:

GPT5.2が理論物理学の定説を覆し、シンプルな新公式を発見

GPT5.2顛覆理論物理學定說,發現簡潔新公式

原文連結:
https://news.yahoo.co.jp/articles/409f5df554232025b0ab3aa48b2116d80e53a38c
GPT5.2が理論物理学の定説を覆し、シンプルな新公式を発見(ビジネス+IT) - Yahoo!ニュース  米OpenAIは2026年2月13日、同社の最新AIモデル「GPT-5.2」が理論物理学における未解決問題を解明したと発表した。素粒子物理学の「グルーオン散乱」において、従来は発生しないとされてい ...

 

發布時間:
2/15(日) 21:55

記者署名:


原文內容:

美國 OpenAI 於 2026 年 2 月 13 日宣布,該公司最新的 AI 模型「GPT-5.2」已解開理
論物理學中的未解決問題。它在素粒子物理學的「膠子散射」研究中,發現了過去被認為
不會發生的相互作用,並從數學公式的發現到證明,全程自主完成。此成果已由普林斯頓
高等研究所等機構的專家完成驗證,成為 AI 有可能成為科學發現主體的歷史性案例


根據 OpenAI 以及多家媒體報導,這次的發現與素粒子物理核心問題之一——「散射振幅
」的計算有關。具體而言,在描述原子核內強作用力的理論中,負責傳遞強作用力的基本
粒子「膠子」的振幅計算方面,傳統教科書一直認為,在特定條件(特定的螺旋度構型)
下,相互作用會為零。然而,GPT-5.2 推翻了這一既有定說,指出在特定條件(稱為

half-collinear regime)下,相互作用實際上為非零,並且可以用極為簡潔的數學公式
來描述。

在此次發現過程中,GPT-5.2 所扮演的角色不僅僅是計算工具。首先,GPT-5.2 Pro 模型
將人類所計算出的複雜數學式大幅簡化,並從中辨識出隱含的模式,進而提出一般化公式
的「猜想(Conjecture)」。接著,其內部的強化推理模型進行了約 12 小時的自主思考
,完成對該公式正確性的數學「證明(Proof)」。AI 能夠從假說提出到嚴格證明一貫完
成,這一點與以往僅作為研究輔助工具的 AI 有本質上的不同


這一成果已由普林斯頓高等研究所的著名理論物理學家 Nima Arkani-Hamed 等人驗證並
確認正確。Arkani-Hamed 表示,GPT-5.2 與人類專家的協作,為符合嚴格科學探究標準
的研究模式提供了一個範例。


此外,研究團隊已開始將該方法應用於理論上傳遞重力的粒子「重力子(graviton)」的
研究,並朝著更廣泛的物理法則一般化方向推進。此次成果顯示,AI 不僅能搜尋與整理
既有知識,還可能具備獨立發現人類尚未知曉之科學真理的能力。


心得/評論:

跟GPT5.2討論  這算不算流體智力的展現?

說以方法來看是用高維壓縮的晶體智力+暴力一致性搜尋找出來的

算是類流體  這部分有待商榷

但說以結果來看  例如有解決新結構問題  這樣可以算是流體智力?

用兩個GPT帳號討論了幾輪  突然覺得AI沒流體智力有差嗎?=_=

如果流體智力是像馬蓋仙那樣碰壁轉彎

AI不用碰壁無限暴力搜尋可以找到新發現  那好像也不見得要有流體智力?

沒流體智力也能辦到人類目前為止辦不到的事情啊(例如這篇新聞說的)

以上  祝福股板鄉民馬年發大財



--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 146.70.31.57 (日本)
※ 作者: LoveSports 2026-02-18 14:48:28
※ 文章代碼(AID): #1fbM2_Jq (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1771397311.A.4F4.html
john11894324: 理論物理可能更近一步1F 02/18 14:53
stocktonty: 哪天會發現伺服器只是人類腦力極限才想到的低效方式耗能且低效 開發出比這個更快更簡單的運作系統2F 02/18 14:55
Chilloutt: 新失業人口4F 02/18 15:01
kingofsdtw: 完了,以後不需要數學家了5F 02/18 15:03
yylin3266: 未來會不會在論文上看到 GPT et. al.阿6F 02/18 15:07
Kobe5210: 理論物理研究的速度可望因AI而加快7F 02/18 15:07
rainin: 噴 往下的那種8F 02/18 15:08
seemoon2000: 仔細想想 包括蛋白質和數學用演算找出答案的 AI未來應該都能做得更好 畢竟他們一秒能出幾十種解9F 02/18 15:10
strlen: 這不重要 奧覽較還我瑟瑟11F 02/18 15:10
ceca: 用AI解科學問題不是30年前就在做的事情?
20年前我碩士也是用類神經解機構阿.
現在大概就是跑快一點,延伸功能更方便一些.12F 02/18 15:12
heavenlyken: 更顯得研究生論文像垃圾15F 02/18 15:14
ceca: 在商業上取代很多工作,例如最近種災的設計業.
是有可能.
但是,用AI解科學問題,應該是早就全世界都這樣幹.16F 02/18 15:14
LoveSports: 這篇說的差別好像是在於GPT自己立假說19F 02/18 15:17
c928: 假議題20F 02/18 15:18
seemoon2000: 用AI解算法以前那麼強 就不會需要等deepmind破圍棋21F 02/18 15:19
peteryen: 很多研究生的論文就是在做新實驗而已,以前是土法煉鋼一個一個試,以後就是能用更複雜更多組合去跑模擬22F 02/18 15:22
kingofsdtw: 樓上太厲害啦! 一次n個變因25F 02/18 15:23
ceca: 整個AI是線性發展的,隨著台積電的晶片成長.
除非是高算力才扯到算力中心.26F 02/18 15:23
kingofsdtw: AI無腦多28F 02/18 15:24
ceca: 因此不是"我們現在終於有AI"了..
然後一夕之間大家都長翅膀可以飛天.
而高算力中心主要是運算能力強大,速度快很多.29F 02/18 15:24
HiuAnOP: 失業增加!Ai續崩!32F 02/18 15:24
ceca: 但是以前...算一個AI算一個星期不是很常見.XD33F 02/18 15:25
seemoon2000: 我就簡單說 以前那麼厲害 就不會要近代才能打敗在格子上下圍棋的人 是到近代深度學習才統一算法34F 02/18 15:28
jessicaabc98: C寶別亂扯了,留在房版好嗎36F 02/18 15:30
Sianan: openai!!37F 02/18 15:33
horse2819: 歐噴醬 被看衰這麼久終於要爆發了?38F 02/18 15:34
ceca: 啥?連這個都不懂..難怪是魯空..哈哈哈.
下圍棋是當下算.
要是你給他每一步算1天.
那早個五年也可以把棋王幹掉..XD
所以為啥AI看著台積電的晶片..
主要是運算速度問題.
但內容,是1943的數學模型.39F 02/18 15:37
jessicaabc98: 好了啦C寶,你在想啥還在運算速度?46F 02/18 15:39
ceca: 然後到今天,還是再用類神經.
你又沒改其他架構..大不了在一個模糊系統.
也就是車子就是四顆輪子.
你今天是F1..還是四顆輪子.
阿就說你整個大外行我也很無奈..XD47F 02/18 15:39
bj45566: ceca 的發言真是笑死人wwww 三十多年前沒有 LLM 的 AI 配上當時破銅爛鐵的硬體連圍牆遊戲都被人類壓在地上摩擦好嗎?52F 02/18 15:40
ceca: 你大語言模型去解物理學公式..XD
你不要笑死人好嗎..XD
你要不要找一個簡單的AI程式入門看一下.
了解一下到底AI是甚麼和你到底對AI的認知是怎樣.XD外加你沒聽老教授說.
他們早年做研究.
學校只有一個地方可以跑運算.
還要去排隊送資料.55F 02/18 15:41
breathair: 奇點近了!63F 02/18 15:43
ceca: 外加20年前早就AI論文氾濫了..XD64F 02/18 15:43
bj45566: 講個笑話:三四十年前的類神經網路架構和現今的 LLM AI 沒有什麼改變wwww65F 02/18 15:43
ceca: 那時候工科的一堆人動不動就要跟AI掛上邊.
所以用AI去解科學,30年前就開始了,20年前就熱了.
這邊念工程的一堆..他們自己想是不是.67F 02/18 15:43
nfsong: 奇點快到了  已經在脫離人類領域70F 02/18 15:44
wind93: 原來不是gpt爛 是我沒有問他物理學?71F 02/18 15:44
ProTrader: 1990後AI冰河時期是因為類神經網路遇到模型瓶頸72F 02/18 15:44
nfsong: 樓上建議去爬一下 AI發展史
現在的AI和以前不是一個東西73F 02/18 15:44
breathair: Ceca 大,你需要請LLM幫你科普一下10年前跟現在AI的差別75F 02/18 15:45
ProTrader: 後來2005前後的優化論文才改名"深度學習"突圍77F 02/18 15:45
seemoon2000: 就不懂 一開始講錯 後面努力要凹 何必討論78F 02/18 15:45
nfsong: 從Deep learning 到 GPT79F 02/18 15:46
ProTrader: 冰河時期類神經網路就像票房毒藥計劃肯定不會過80F 02/18 15:46
nfsong: GPT - Generative Pre-trained Transformer81F 02/18 15:46
bj45566: 笑死,沒有引進深度學習技術的 AI 連人臉辨識都跑得一塌糊塗好嗎,嘻嘻82F 02/18 15:46
nfsong: LLM transformer
上一個突破是 deepseek 邏輯推理84F 02/18 15:47
ProTrader: 當初人臉辨識 手寫數字文字辨識 是AI技術巔峰
金融海嘯後深度學習在影像辨識大放異彩86F 02/18 15:47
nfsong: 類神經網路教父 都說不明白了
推進的太快  教父自己都被甩開了88F 02/18 15:48
ProTrader: 到之後AlphaGo算是讓AI揚眉吐氣90F 02/18 15:49
ProTrader: 再之後爆發是ChaGPT直到現在依然繼續92F 02/18 15:50
nfsong: Geoffrey Hinton  deeplearning 教父
自己都有些跟不上了93F 02/18 15:50
ProTrader: 辛頓在AI冰河時期持續類神經網路的研究才優化模型95F 02/18 15:51
nfsong: 開頭這句話送給大家96F 02/18 15:51
ProTrader: 他是可以退休的年齡了跟不上很正常97F 02/18 15:52
nfsong: 你各位像是  坐第一排的好學生  啥都不懂
但是問題問得好98F 02/18 15:52
CYL009: 全部人類都要失業www100F 02/18 15:53
nfsong: 不用的人類會失業101F 02/18 15:54
FULLHD1080: 教父年紀大,沒有辦法吸收那麼多新的變化102F 02/18 15:54
nfsong: 用了以後AI會告訴你 去哪找工作103F 02/18 15:54
ProTrader: 要說AI跟以前相同在於本質上都還在找線性迴歸最佳解104F 02/18 15:54
a1234567289: 現在LLM和1990左右的AI 概念上高度統一的  現在只是有了Attention based的模型架構然後多了一個宣傳名詞叫做深度學習105F 02/18 15:54
ProTrader: 各式各樣的多元資料與各種新模型本質還是線性迴歸108F 02/18 15:55
xerioc5566: 貝氏定理109F 02/18 15:55
ProTrader: 但這不是說現在的AI真的跟199X年代的AI相同110F 02/18 15:57
a1234567289: 1990神經網路是透過向後傳遞改變權重去回歸資料
  讓他去資料中間找出pattern   跟現在LLM沒啥不同111F 02/18 15:57
nfsong: 問AI 就會告訴你113F 02/18 15:57
ProTrader: 就像2026的人類跟石器時代的人類都是人類但差異很大114F 02/18 15:57
nfsong: 2017以前的RNN CNN 和現在Transformer是不同東西115F 02/18 15:58
ProTrader: AI在理論與實務的進步是很直接明確可以驗證的116F 02/18 15:58
quanhwe: 某c咖又鬧笑話了 我怎麼說又了呢117F 02/18 15:59
ProTrader: 比方說生成式AI對人類的影響空前巨大118F 02/18 16:00
YCL13: 大數據時代前後講的AI是不同等級的事情119F 02/18 16:00
nfsong: AlexNet (2012) ResNet (2015) GAN/AlphaGo120F 02/18 16:00
ProTrader: 很古早的時候也就生成亂數  生成電腦棋局對弈121F 02/18 16:01
a1234567289: 現代跟當時的差異是  為了找出更細緻的pattern 後來人們發明了Convolution/LSTM等OP  Attention也是在Loss function以及訓練方式都有了長足進展122F 02/18 16:01
ProTrader: 之前的A片要換臉 現在的A片可以直接生成125F 02/18 16:02
nfsong: AlphaGo除了層數變多  還增加了功能層(戰略層)126F 02/18 16:02
a1234567289: 所以說不同也是不同 但本質精神都是用參數對資料做modeling127F 02/18 16:02
nfsong: AlexNet 8層  ResNet 152層129F 02/18 16:03
ProTrader: 所以要說現在206的AI 199X時代一樣是不對的
2026130F 02/18 16:03
a1234567289: 因此我覺得ceca不算有說錯 只是它忽略了中間進步了一大段132F 02/18 16:03
breathair: 基本可以看作transformer 架構前後AI完全不同,transformer 範式讓智能「湧現」或是「頓悟」,哈薩比斯說,要到AGI,我們還差1-2次transformer等級的範式升級134F 02/18 16:04
a1234567289: 現代的算力和參數差異 讓現在效果和當時有了巨大差138F 02/18 16:04
ProTrader: 比較好的說法是 都不是AGI強人工智慧140F 02/18 16:04
nfsong: 除了垂直的增加層數  還有橫向的增加層數
以前就是一層 modeling
現在幾百萬層
AlphaGO 之所以開始輾壓 也是增加了 "戰略層"
有了大局觀
會判斷 那邊地盤大141F 02/18 16:04
ProTrader: 以前蓋茅草屋是人類要住 哈里發塔也是人類要住147F 02/18 16:07
xerioc5566: 硬體限制突破 有無限想像148F 02/18 16:07
ProTrader: 可是說茅草屋跟哈里發塔真的不一樣
蓋茅草屋跟哈里發塔都要土地 人類還沒進入異次元
可是茅草屋跟哈里發塔的技術差異太大了149F 02/18 16:07
LonyIce: 不就圖靈的升級版152F 02/18 16:11
nfsong: 你可以看看Oliver Henry 的Openclaw agent
自動寫文案  生成影片  發布
然後用觀看率 來調整cta Call to Action
最近你會看到有些頻道  專注一些東西
女性打棒球
動物的故事
Amazon 包裹小偷
這些都是自動發布的153F 02/18 16:14
windalso: 大統一場論更近了!?161F 02/18 16:19
nfsong: https://www.youtube.com/shorts/-I2sEKTmRvU
像這種頻道 我看到有20幾個
https://www.youtube.com/shorts/Gy7QmSY1RI8162F 02/18 16:20
 
nfsong: 比大聯盟的還好看165F 02/18 16:23
ProTrader: 沒用來生成跟多慧一起運動的影片 失敗166F 02/18 16:23
nfsong: 因為大聯盟 分鏡不可能 擺進場內167F 02/18 16:23
FatFatQQ: 房版魯多 賠超慘 在這胡言亂語 好慘168F 02/18 16:29
alex01: 驗證完了嗎?169F 02/18 16:37
ivan1116: 硬體變得越來越重要170F 02/18 16:40
truelove356: 中國模型也解出來ㄌㄜ171F 02/18 16:41
littleliu: 還不頒個碩士學位給他172F 02/18 16:50
nakayamayyt: 電力用在這也是很好的利用了173F 02/18 16:50
sses60802: 嗯嗯 跟我想的一樣174F 02/18 16:52
drph: 2奈米和28奈米本質上都是CMOS,所以概念上一樣,但是製程精度和device結構不一樣。175F 02/18 16:58
herculus6502: 奇點將至?177F 02/18 17:01
nfsong: 奇點!!178F 02/18 17:03
sdbb: G點!?179F 02/18 17:03
Cactusman: 嗯嗯跟我想的一樣180F 02/18 17:05
Kobe5210: 上個世紀<機器學習的AI>跟現在<深度學習的AI>,已經不是用28奈米到2奈米可以類比的了
還是專心做股票比較好,強迫自己學東西放大人生格局跟財富181F 02/18 17:05
ericsonzhen: 數學系差不多要廢的意思?185F 02/18 17:07
cloud1030: 又多一批失業仔186F 02/18 17:12
solomonABC: 審判日要來了嗎?187F 02/18 17:15
Arad: ai到最後到達的境界人類會無法理解188F 02/18 17:15
FlyBird: AI閉環快完成了,文明準備三級跳189F 02/18 17:31
overpolo: 恩恩  果然用在我身上是在浪費算力阿..190F 02/18 17:36
stcr3011: 有可能嗎191F 02/18 17:44
WTS2accuracy: 某高雄炒房仔別丟臉了...不懂的領域就墊墊192F 02/18 17:45
abdiascat: 叫他自己自我優化 左腳踩右腳 直接飛天193F 02/18 17:46
coolmark01: 硬體造就如今的AI,而AI將躍進下個未來194F 02/18 17:54
Beee09: 叫ai找一下超導體195F 02/18 17:55
panzerbug: 讚196F 02/18 18:04
digodi: 當然還是要有數學物理學家啊,不然它亂跑出結果,誰能驗證。197F 02/18 18:05
et310: 又要噴了嗎199F 02/18 18:09
poeoe: 還有人要喊AI泡沫嗎 笑死200F 02/18 18:16
Kobe5210: 當然還是要有物理學家,愛因斯坦100年前的廣義相對論也是要有數學模型才能描述具體內容。現在的AI是極速幫忙算出結果201F 02/18 18:18
bnn: 跑simulation一直都有在改善算力運用的用法的
不然那麼多人用超算跑 為啥是某些人發論文204F 02/18 18:23
xeins: 終於出來了? 不是被餵的資料 而是智慧的火花206F 02/18 18:34
NANJO1569: Hassabis 主張 AGI 必須具備從 0 到 1 的原創能力GPT5.2解開理論物理學中的未解問題也算往這方向邁進Hassabis 認為真正的 AGI 必須在沒有人類干預的情況207F 02/18 18:36
ProTrader: 強人工智慧AGI更多是學術目標類似大統一理論
真正打趴人類多數專家的應該是各領域的特化弱AI210F 02/18 18:40
NANJO1569: 執行以下完整循環:1.提出問題2.產生假說3.實驗驗證212F 02/18 18:41
ProTrader: 現在市面上各類功能AI通通都是弱AI 未來會繼續變強213F 02/18 18:42
NANJO1569: 4.總結反饋5.迭代進步214F 02/18 18:42
ProTrader: 我認為未來會出現多種弱AI集成的類AGI
目前的AI模型並沒有達成AGI的可能性
現在說的AGI廣告效果甚至大於學術討論215F 02/18 18:43
newlie83: 我只想問一個問題 AI得到諾貝爾物理獎還有多久?218F 02/18 18:47
s213092921: 這麼厲害?那openAI獲利了嗎?219F 02/18 19:14
MyPetTankDie: 這本來就是實驗室分析用的東西,其他絕大多數都是濫用而已
,民間發展那些說難聽點就是透過相對小的資本拐老闆跟上潮流用的而已lol220F 02/18 19:24
wen880225: 所以以後會變成戰鎚黃金時代那種科技全靠AI,人類都不懂原理只會用224F 02/18 19:38
mdkn35: 我懂 a=b226F 02/18 19:59
JaccWu: Hassabis 不是認為目前科學上的終極目標
是讓AI在只靠相對論提出前的數據、理論、知識
找出相對論嗎?
(喔應該不能說終極目標  而是他給的一個標準227F 02/18 20:14
gglong: 算力即國力231F 02/18 20:20
LandaChuang: AI加上量子電腦,以後科學計算會飛速進展232F 02/18 21:08
k078787878: 好扯233F 02/18 22:01
guteres: 我覺得C大應該是忽略了很大的一段234F 02/18 22:21
jodawa: 襪靠  覺得實在太屌235F 02/18 22:37

--