※ 本文轉寄自 ptt.cc 更新時間: 2026-02-18 20:21:30
看板 Stock
作者 標題 [新聞] GPT5.2顛覆理論物理學定說發現簡潔新公式
時間 Wed Feb 18 14:48:28 2026
原文標題:
GPT5.2が理論物理学の定説を覆し、シンプルな新公式を発見
GPT5.2顛覆理論物理學定說,發現簡潔新公式
原文連結:
https://news.yahoo.co.jp/articles/409f5df554232025b0ab3aa48b2116d80e53a38c
GPT5.2が理論物理学の定説を覆し、シンプルな新公式を発見(ビジネス+IT) - Yahoo!ニュース 米OpenAIは2026年2月13日、同社の最新AIモデル「GPT-5.2」が理論物理学における未解決問題を解明したと発表した。素粒子物理学の「グルーオン散乱」において、従来は発生しないとされてい ...
發布時間:
2/15(日) 21:55
記者署名:
無
原文內容:
美國 OpenAI 於 2026 年 2 月 13 日宣布,該公司最新的 AI 模型「GPT-5.2」已解開理
論物理學中的未解決問題。它在素粒子物理學的「膠子散射」研究中,發現了過去被認為
不會發生的相互作用,並從數學公式的發現到證明,全程自主完成。此成果已由普林斯頓
高等研究所等機構的專家完成驗證,成為 AI 有可能成為科學發現主體的歷史性案例。
論物理學中的未解決問題。它在素粒子物理學的「膠子散射」研究中,發現了過去被認為
不會發生的相互作用,並從數學公式的發現到證明,全程自主完成。此成果已由普林斯頓
高等研究所等機構的專家完成驗證,成為 AI 有可能成為科學發現主體的歷史性案例。
根據 OpenAI 以及多家媒體報導,這次的發現與素粒子物理核心問題之一——「散射振幅
」的計算有關。具體而言,在描述原子核內強作用力的理論中,負責傳遞強作用力的基本
粒子「膠子」的振幅計算方面,傳統教科書一直認為,在特定條件(特定的螺旋度構型)
下,相互作用會為零。然而,GPT-5.2 推翻了這一既有定說,指出在特定條件(稱為
」的計算有關。具體而言,在描述原子核內強作用力的理論中,負責傳遞強作用力的基本
粒子「膠子」的振幅計算方面,傳統教科書一直認為,在特定條件(特定的螺旋度構型)
下,相互作用會為零。然而,GPT-5.2 推翻了這一既有定說,指出在特定條件(稱為
half-collinear regime)下,相互作用實際上為非零,並且可以用極為簡潔的數學公式
來描述。
在此次發現過程中,GPT-5.2 所扮演的角色不僅僅是計算工具。首先,GPT-5.2 Pro 模型
將人類所計算出的複雜數學式大幅簡化,並從中辨識出隱含的模式,進而提出一般化公式
的「猜想(Conjecture)」。接著,其內部的強化推理模型進行了約 12 小時的自主思考
,完成對該公式正確性的數學「證明(Proof)」。AI 能夠從假說提出到嚴格證明一貫完
成,這一點與以往僅作為研究輔助工具的 AI 有本質上的不同。
將人類所計算出的複雜數學式大幅簡化,並從中辨識出隱含的模式,進而提出一般化公式
的「猜想(Conjecture)」。接著,其內部的強化推理模型進行了約 12 小時的自主思考
,完成對該公式正確性的數學「證明(Proof)」。AI 能夠從假說提出到嚴格證明一貫完
成,這一點與以往僅作為研究輔助工具的 AI 有本質上的不同。
這一成果已由普林斯頓高等研究所的著名理論物理學家 Nima Arkani-Hamed 等人驗證並
確認正確。Arkani-Hamed 表示,GPT-5.2 與人類專家的協作,為符合嚴格科學探究標準
的研究模式提供了一個範例。
確認正確。Arkani-Hamed 表示,GPT-5.2 與人類專家的協作,為符合嚴格科學探究標準
的研究模式提供了一個範例。
此外,研究團隊已開始將該方法應用於理論上傳遞重力的粒子「重力子(graviton)」的
研究,並朝著更廣泛的物理法則一般化方向推進。此次成果顯示,AI 不僅能搜尋與整理
既有知識,還可能具備獨立發現人類尚未知曉之科學真理的能力。
研究,並朝著更廣泛的物理法則一般化方向推進。此次成果顯示,AI 不僅能搜尋與整理
既有知識,還可能具備獨立發現人類尚未知曉之科學真理的能力。
心得/評論:
跟GPT5.2討論 這算不算流體智力的展現?
說以方法來看是用高維壓縮的晶體智力+暴力一致性搜尋找出來的
算是類流體 這部分有待商榷
但說以結果來看 例如有解決新結構問題 這樣可以算是流體智力?
用兩個GPT帳號討論了幾輪 突然覺得AI沒流體智力有差嗎?=_=
如果流體智力是像馬蓋仙那樣碰壁轉彎
AI不用碰壁無限暴力搜尋可以找到新發現 那好像也不見得要有流體智力?
沒流體智力也能辦到人類目前為止辦不到的事情啊(例如這篇新聞說的)
以上 祝福股板鄉民馬年發大財
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 146.70.31.57 (日本)
※ 作者: LoveSports 2026-02-18 14:48:28
※ 文章代碼(AID): #1fbM2_Jq (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1771397311.A.4F4.html
推 : 理論物理可能更近一步1F 02/18 14:53
推 : 哪天會發現伺服器只是人類腦力極限才想到的低效方式2F 02/18 14:55
→ : 耗能且低效 開發出比這個更快更簡單的運作系統
→ : 耗能且低效 開發出比這個更快更簡單的運作系統
噓 : 新失業人口4F 02/18 15:01
推 : 完了,以後不需要數學家了5F 02/18 15:03
推 : 未來會不會在論文上看到 GPT et. al.阿6F 02/18 15:07
推 : 理論物理研究的速度可望因AI而加快7F 02/18 15:07
推 : 噴 往下的那種8F 02/18 15:08
推 : 仔細想想 包括蛋白質和數學用演算找出答案的 AI未9F 02/18 15:10
→ : 來應該都能做得更好 畢竟他們一秒能出幾十種解
→ : 來應該都能做得更好 畢竟他們一秒能出幾十種解
噓 : 這不重要 奧覽較還我瑟瑟11F 02/18 15:10
推 : 用AI解科學問題不是30年前就在做的事情?12F 02/18 15:12
→ : 20年前我碩士也是用類神經解機構阿.
→ : 現在大概就是跑快一點,延伸功能更方便一些.
→ : 20年前我碩士也是用類神經解機構阿.
→ : 現在大概就是跑快一點,延伸功能更方便一些.
推 : 更顯得研究生論文像垃圾15F 02/18 15:14
→ : 在商業上取代很多工作,例如最近種災的設計業.16F 02/18 15:14
→ : 是有可能.
→ : 但是,用AI解科學問題,應該是早就全世界都這樣幹.
→ : 是有可能.
→ : 但是,用AI解科學問題,應該是早就全世界都這樣幹.
→ : 這篇說的差別好像是在於GPT自己立假說19F 02/18 15:17
推 : 假議題20F 02/18 15:18
推 : 用AI解算法以前那麼強 就不會需要等deepmind破圍棋21F 02/18 15:19
推 : 很多研究生的論文就是在做新實驗而已,以前是土法22F 02/18 15:22
→ : 煉鋼一個一個試,以後就是能用更複雜更多組合去跑
→ : 模擬
→ : 煉鋼一個一個試,以後就是能用更複雜更多組合去跑
→ : 模擬
推 : 樓上太厲害啦! 一次n個變因25F 02/18 15:23
推 : 整個AI是線性發展的,隨著台積電的晶片成長.26F 02/18 15:23
→ : 除非是高算力才扯到算力中心.
→ : 除非是高算力才扯到算力中心.
→ : AI無腦多28F 02/18 15:24
→ : 因此不是"我們現在終於有AI"了..29F 02/18 15:24
→ : 然後一夕之間大家都長翅膀可以飛天.
→ : 而高算力中心主要是運算能力強大,速度快很多.
→ : 然後一夕之間大家都長翅膀可以飛天.
→ : 而高算力中心主要是運算能力強大,速度快很多.
→ : 失業增加!Ai續崩!32F 02/18 15:24
→ : 但是以前...算一個AI算一個星期不是很常見.XD33F 02/18 15:25
推 : 我就簡單說 以前那麼厲害 就不會要近代才能打敗在34F 02/18 15:28
→ : 格子上下圍棋的人 是到近代深度學習才統一算法
→ : 格子上下圍棋的人 是到近代深度學習才統一算法
推 : C寶別亂扯了,留在房版好嗎36F 02/18 15:30
推 : openai!!37F 02/18 15:33
推 : 歐噴醬 被看衰這麼久終於要爆發了?38F 02/18 15:34
推 : 啥?連這個都不懂..難怪是魯空..哈哈哈.39F 02/18 15:37
→ : 下圍棋是當下算.
→ : 要是你給他每一步算1天.
→ : 那早個五年也可以把棋王幹掉..XD
→ : 所以為啥AI看著台積電的晶片..
→ : 主要是運算速度問題.
→ : 但內容,是1943的數學模型.
→ : 下圍棋是當下算.
→ : 要是你給他每一步算1天.
→ : 那早個五年也可以把棋王幹掉..XD
→ : 所以為啥AI看著台積電的晶片..
→ : 主要是運算速度問題.
→ : 但內容,是1943的數學模型.
推 : 好了啦C寶,你在想啥還在運算速度?46F 02/18 15:39
→ : 然後到今天,還是再用類神經.47F 02/18 15:39
→ : 你又沒改其他架構..大不了在一個模糊系統.
→ : 也就是車子就是四顆輪子.
→ : 你今天是F1..還是四顆輪子.
→ : 阿就說你整個大外行我也很無奈..XD
→ : 你又沒改其他架構..大不了在一個模糊系統.
→ : 也就是車子就是四顆輪子.
→ : 你今天是F1..還是四顆輪子.
→ : 阿就說你整個大外行我也很無奈..XD
噓 : ceca 的發言真是笑死人wwww 三十多年前沒有 LLM 的52F 02/18 15:40
→ : AI 配上當時破銅爛鐵的硬體連圍牆遊戲都被人類壓在
→ : 地上摩擦好嗎?
→ : AI 配上當時破銅爛鐵的硬體連圍牆遊戲都被人類壓在
→ : 地上摩擦好嗎?
→ : 你大語言模型去解物理學公式..XD55F 02/18 15:41
→ : 你不要笑死人好嗎..XD
→ : 你要不要找一個簡單的AI程式入門看一下.
→ : 了解一下到底AI是甚麼和你到底對AI的認知是怎樣.XD
→ : 外加你沒聽老教授說.
→ : 他們早年做研究.
→ : 學校只有一個地方可以跑運算.
→ : 還要去排隊送資料.
→ : 你不要笑死人好嗎..XD
→ : 你要不要找一個簡單的AI程式入門看一下.
→ : 了解一下到底AI是甚麼和你到底對AI的認知是怎樣.XD
→ : 外加你沒聽老教授說.
→ : 他們早年做研究.
→ : 學校只有一個地方可以跑運算.
→ : 還要去排隊送資料.
推 : 奇點近了!63F 02/18 15:43
→ : 外加20年前早就AI論文氾濫了..XD64F 02/18 15:43
噓 : 講個笑話:三四十年前的類神經網路架構和現今的 LLM65F 02/18 15:43
→ : AI 沒有什麼改變wwww
→ : AI 沒有什麼改變wwww
→ : 那時候工科的一堆人動不動就要跟AI掛上邊.67F 02/18 15:43
→ : 所以用AI去解科學,30年前就開始了,20年前就熱了.
→ : 這邊念工程的一堆..他們自己想是不是.
→ : 所以用AI去解科學,30年前就開始了,20年前就熱了.
→ : 這邊念工程的一堆..他們自己想是不是.
推 : 奇點快到了 已經在脫離人類領域70F 02/18 15:44
推 : 原來不是gpt爛 是我沒有問他物理學?71F 02/18 15:44
推 : 1990後AI冰河時期是因為類神經網路遇到模型瓶頸72F 02/18 15:44
→ : 樓上建議去爬一下 AI發展史73F 02/18 15:44
→ : 現在的AI和以前不是一個東西
→ : 現在的AI和以前不是一個東西
→ : Ceca 大,你需要請LLM幫你科普一下10年前跟現在AI的75F 02/18 15:45
→ : 差別
→ : 差別
→ : 後來2005前後的優化論文才改名"深度學習"突圍77F 02/18 15:45
推 : 就不懂 一開始講錯 後面努力要凹 何必討論78F 02/18 15:45
→ : 從Deep learning 到 GPT79F 02/18 15:46
→ : 冰河時期類神經網路就像票房毒藥計劃肯定不會過80F 02/18 15:46
→ : GPT - Generative Pre-trained Transformer81F 02/18 15:46
噓 : 笑死,沒有引進深度學習技術的 AI 連人臉辨識都跑得82F 02/18 15:46
→ : 一塌糊塗好嗎,嘻嘻
→ : 一塌糊塗好嗎,嘻嘻
→ : LLM transformer84F 02/18 15:47
→ : 上一個突破是 deepseek 邏輯推理
→ : 上一個突破是 deepseek 邏輯推理
→ : 當初人臉辨識 手寫數字文字辨識 是AI技術巔峰86F 02/18 15:47
→ : 金融海嘯後深度學習在影像辨識大放異彩
→ : 金融海嘯後深度學習在影像辨識大放異彩
→ : 類神經網路教父 都說不明白了88F 02/18 15:48
→ : 推進的太快 教父自己都被甩開了
→ : 推進的太快 教父自己都被甩開了
→ : 到之後AlphaGo算是讓AI揚眉吐氣90F 02/18 15:49

→ : 再之後爆發是ChaGPT直到現在依然繼續92F 02/18 15:50
→ : Geoffrey Hinton deeplearning 教父93F 02/18 15:50
→ : 自己都有些跟不上了
→ : 自己都有些跟不上了
→ : 辛頓在AI冰河時期持續類神經網路的研究才優化模型95F 02/18 15:51
→ : 開頭這句話送給大家96F 02/18 15:51
→ : 他是可以退休的年齡了跟不上很正常97F 02/18 15:52
→ : 你各位像是 坐第一排的好學生 啥都不懂98F 02/18 15:52
→ : 但是問題問得好
→ : 但是問題問得好
→ : 全部人類都要失業www100F 02/18 15:53
推 : 不用的人類會失業101F 02/18 15:54
推 : 教父年紀大,沒有辦法吸收那麼多新的變化102F 02/18 15:54
→ : 用了以後AI會告訴你 去哪找工作103F 02/18 15:54
→ : 要說AI跟以前相同在於本質上都還在找線性迴歸最佳解104F 02/18 15:54
推 : 現在LLM和1990左右的AI 概念上高度統一的 現在只105F 02/18 15:54
→ : 是有了Attention based的模型架構然後多了一個宣傳
→ : 名詞叫做深度學習
→ : 是有了Attention based的模型架構然後多了一個宣傳
→ : 名詞叫做深度學習
→ : 各式各樣的多元資料與各種新模型本質還是線性迴歸108F 02/18 15:55
推 : 貝氏定理109F 02/18 15:55
→ : 但這不是說現在的AI真的跟199X年代的AI相同110F 02/18 15:57
→ : 1990神經網路是透過向後傳遞改變權重去回歸資料111F 02/18 15:57
→ : 讓他去資料中間找出pattern 跟現在LLM沒啥不同
→ : 讓他去資料中間找出pattern 跟現在LLM沒啥不同
推 : 問AI 就會告訴你113F 02/18 15:57
→ : 就像2026的人類跟石器時代的人類都是人類但差異很大114F 02/18 15:57
→ : 2017以前的RNN CNN 和現在Transformer是不同東西115F 02/18 15:58
→ : AI在理論與實務的進步是很直接明確可以驗證的116F 02/18 15:58
推 : 某c咖又鬧笑話了 我怎麼說又了呢117F 02/18 15:59
→ : 比方說生成式AI對人類的影響空前巨大118F 02/18 16:00
推 : 大數據時代前後講的AI是不同等級的事情119F 02/18 16:00
推 : AlexNet (2012) ResNet (2015) GAN/AlphaGo120F 02/18 16:00
→ : 很古早的時候也就生成亂數 生成電腦棋局對弈121F 02/18 16:01
推 : 現代跟當時的差異是 為了找出更細緻的pattern 後122F 02/18 16:01
→ : 來人們發明了Convolution/LSTM等OP Attention也是
→ : 在Loss function以及訓練方式都有了長足進展
→ : 來人們發明了Convolution/LSTM等OP Attention也是
→ : 在Loss function以及訓練方式都有了長足進展
→ : 之前的A片要換臉 現在的A片可以直接生成125F 02/18 16:02
→ : AlphaGo除了層數變多 還增加了功能層(戰略層)126F 02/18 16:02
→ : 所以說不同也是不同 但本質精神都是用參數對資料做127F 02/18 16:02
→ : modeling
→ : modeling
→ : AlexNet 8層 ResNet 152層129F 02/18 16:03
→ : 所以要說現在206的AI 199X時代一樣是不對的130F 02/18 16:03
→ : 2026
→ : 2026
→ : 因此我覺得ceca不算有說錯 只是它忽略了中間進步了132F 02/18 16:03
→ : 一大段
→ : 一大段
推 : 基本可以看作transformer 架構前後AI完全不同,tran134F 02/18 16:04
→ : sformer 範式讓智能「湧現」或是「頓悟」,哈薩比斯
→ : 說,要到AGI,我們還差1-2次transformer等級的範式
→ : 升級
→ : sformer 範式讓智能「湧現」或是「頓悟」,哈薩比斯
→ : 說,要到AGI,我們還差1-2次transformer等級的範式
→ : 升級
→ : 現代的算力和參數差異 讓現在效果和當時有了巨大差138F 02/18 16:04
→ : 異
→ : 異
→ : 比較好的說法是 都不是AGI強人工智慧140F 02/18 16:04
→ : 除了垂直的增加層數 還有橫向的增加層數141F 02/18 16:04
→ : 以前就是一層 modeling
→ : 現在幾百萬層
→ : AlphaGO 之所以開始輾壓 也是增加了 "戰略層"
→ : 有了大局觀
→ : 會判斷 那邊地盤大
→ : 以前就是一層 modeling
→ : 現在幾百萬層
→ : AlphaGO 之所以開始輾壓 也是增加了 "戰略層"
→ : 有了大局觀
→ : 會判斷 那邊地盤大
推 : 以前蓋茅草屋是人類要住 哈里發塔也是人類要住147F 02/18 16:07
推 : 硬體限制突破 有無限想像148F 02/18 16:07
→ : 可是說茅草屋跟哈里發塔真的不一樣149F 02/18 16:07
→ : 蓋茅草屋跟哈里發塔都要土地 人類還沒進入異次元
→ : 可是茅草屋跟哈里發塔的技術差異太大了
→ : 蓋茅草屋跟哈里發塔都要土地 人類還沒進入異次元
→ : 可是茅草屋跟哈里發塔的技術差異太大了
推 : 不就圖靈的升級版152F 02/18 16:11
推 : 你可以看看Oliver Henry 的Openclaw agent153F 02/18 16:14
→ : 自動寫文案 生成影片 發布
→ : 然後用觀看率 來調整cta Call to Action
→ : 最近你會看到有些頻道 專注一些東西
→ : 女性打棒球
→ : 動物的故事
→ : Amazon 包裹小偷
→ : 這些都是自動發布的
→ : 自動寫文案 生成影片 發布
→ : 然後用觀看率 來調整cta Call to Action
→ : 最近你會看到有些頻道 專注一些東西
→ : 女性打棒球
→ : 動物的故事
→ : Amazon 包裹小偷
→ : 這些都是自動發布的
推 : 大統一場論更近了!?161F 02/18 16:19
→ : https://www.youtube.com/shorts/-I2sEKTmRvU162F 02/18 16:20
→ : 像這種頻道 我看到有20幾個
→ : https://www.youtube.com/shorts/Gy7QmSY1RI8
→ : 像這種頻道 我看到有20幾個
→ : https://www.youtube.com/shorts/Gy7QmSY1RI8


→ : 比大聯盟的還好看165F 02/18 16:23
推 : 沒用來生成跟多慧一起運動的影片 失敗166F 02/18 16:23
→ : 因為大聯盟 分鏡不可能 擺進場內167F 02/18 16:23
→ : 房版魯多 賠超慘 在這胡言亂語 好慘168F 02/18 16:29
推 : 驗證完了嗎?169F 02/18 16:37
推 : 硬體變得越來越重要170F 02/18 16:40
推 : 中國模型也解出來ㄌㄜ171F 02/18 16:41
推 : 還不頒個碩士學位給他172F 02/18 16:50
推 : 電力用在這也是很好的利用了173F 02/18 16:50
推 : 嗯嗯 跟我想的一樣174F 02/18 16:52
推 : 2奈米和28奈米本質上都是CMOS,所以概念上一樣,但175F 02/18 16:58
→ : 是製程精度和device結構不一樣。
→ : 是製程精度和device結構不一樣。
推 : 奇點將至?177F 02/18 17:01
推 : 奇點!!178F 02/18 17:03
推 : G點!?179F 02/18 17:03
推 : 嗯嗯跟我想的一樣180F 02/18 17:05
推 : 上個世紀<機器學習的AI>跟現在<深度學習的AI>,已181F 02/18 17:05
→ : 經不是用28奈米到2奈米可以類比的了
→ : 還是專心做股票比較好,強迫自己學東西放大人生格
→ : 局跟財富
→ : 經不是用28奈米到2奈米可以類比的了
→ : 還是專心做股票比較好,強迫自己學東西放大人生格
→ : 局跟財富
推 : 數學系差不多要廢的意思?185F 02/18 17:07
推 : 又多一批失業仔186F 02/18 17:12
推 : 審判日要來了嗎?187F 02/18 17:15
推 : ai到最後到達的境界人類會無法理解188F 02/18 17:15
推 : AI閉環快完成了,文明準備三級跳189F 02/18 17:31
推 : 恩恩 果然用在我身上是在浪費算力阿..190F 02/18 17:36
推 : 有可能嗎191F 02/18 17:44
推 : 某高雄炒房仔別丟臉了...不懂的領域就墊墊192F 02/18 17:45
推 : 叫他自己自我優化 左腳踩右腳 直接飛天193F 02/18 17:46
推 : 硬體造就如今的AI,而AI將躍進下個未來194F 02/18 17:54
推 : 叫ai找一下超導體195F 02/18 17:55
推 : 讚196F 02/18 18:04
推 : 當然還是要有數學物理學家啊,不然它亂跑出結果,誰197F 02/18 18:05
→ : 能驗證。
→ : 能驗證。
推 : 又要噴了嗎199F 02/18 18:09
推 : 還有人要喊AI泡沫嗎 笑死200F 02/18 18:16
推 : 當然還是要有物理學家,愛因斯坦100年前的廣義相對201F 02/18 18:18
→ : 論也是要有數學模型才能描述具體內容。現在的AI是
→ : 極速幫忙算出結果
→ : 論也是要有數學模型才能描述具體內容。現在的AI是
→ : 極速幫忙算出結果
→ : 跑simulation一直都有在改善算力運用的用法的204F 02/18 18:23
→ : 不然那麼多人用超算跑 為啥是某些人發論文
→ : 不然那麼多人用超算跑 為啥是某些人發論文
推 : 終於出來了? 不是被餵的資料 而是智慧的火花206F 02/18 18:34
推 : Hassabis 主張 AGI 必須具備從 0 到 1 的原創能力207F 02/18 18:36
推 : GPT5.2解開理論物理學中的未解問題也算往這方向邁進
→ : Hassabis 認為真正的 AGI 必須在沒有人類干預的情況
推 : GPT5.2解開理論物理學中的未解問題也算往這方向邁進
→ : Hassabis 認為真正的 AGI 必須在沒有人類干預的情況
推 : 強人工智慧AGI更多是學術目標類似大統一理論210F 02/18 18:40
→ : 真正打趴人類多數專家的應該是各領域的特化弱AI
→ : 真正打趴人類多數專家的應該是各領域的特化弱AI
→ : 執行以下完整循環:1.提出問題2.產生假說3.實驗驗證212F 02/18 18:41
→ : 現在市面上各類功能AI通通都是弱AI 未來會繼續變強213F 02/18 18:42
→ : 4.總結反饋5.迭代進步214F 02/18 18:42
→ : 我認為未來會出現多種弱AI集成的類AGI215F 02/18 18:43
→ : 目前的AI模型並沒有達成AGI的可能性
→ : 現在說的AGI廣告效果甚至大於學術討論
→ : 目前的AI模型並沒有達成AGI的可能性
→ : 現在說的AGI廣告效果甚至大於學術討論
噓 : 我只想問一個問題 AI得到諾貝爾物理獎還有多久?218F 02/18 18:47
→ : 這麼厲害?那openAI獲利了嗎?219F 02/18 19:14
→ : 這本來就是實驗室分析用的東西,其他絕大多數都是濫220F 02/18 19:24
→ : 用而已
→ : ,民間發展那些說難聽點就是透過相對小的資本拐老闆
→ : 跟上潮流用的而已lol
→ : 用而已
→ : ,民間發展那些說難聽點就是透過相對小的資本拐老闆
→ : 跟上潮流用的而已lol
推 : 所以以後會變成戰鎚黃金時代那種科技全靠AI,人類都224F 02/18 19:38
→ : 不懂原理只會用
→ : 不懂原理只會用
推 : 我懂 a=b226F 02/18 19:59
推 : Hassabis 不是認為目前科學上的終極目標227F 02/18 20:14
→ : 是讓AI在只靠相對論提出前的數據、理論、知識
→ : 找出相對論嗎?
→ : (喔應該不能說終極目標 而是他給的一個標準
→ : 是讓AI在只靠相對論提出前的數據、理論、知識
→ : 找出相對論嗎?
→ : (喔應該不能說終極目標 而是他給的一個標準
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 115
作者 LoveSports 的最新發文:
- 美國 OpenAI 於 2026 年 2 月 13 日宣布,該公司最新的 AI 模型「GPT-5.2」已解開理 論物理學中的未解決問題。它在素粒子物理學的「膠子散射」研究中,發現了過去被認為 不會發 …88F 25推 5噓
- 7F 6推
- 14F 2推
- 14F 6推
點此顯示更多發文記錄
→
guest
回列表(←)
分享