作者 sxy67230 (charlesgg)標題 Re: [閒聊] 低等動物被認為有意識,那AI難道沒有嗎?時間 Thu Nov 27 16:42:07 2025
這邊說一下,本身在領域內的研究員(早期做語言統計建模的)。
其實當前研究比較少會深究像這種哲學殭屍的問題(假設LLM具備有人類所有能力,包含反
思、推理、計畫、空間感知,但他其實是沒有意識這種問題)。其實大家都是樸素的假設假
如AI具備這些能力下就足以作為具有人類智力的通用智慧體(是否是生命、是否有意識其實
不是最重要的)。
然後大部分的研究當前都相信當前LLM確實不具備有人類的智慧水平(即使他表現很出色,
也通過樸素圖靈測試),主要還是在於對於特定問題上,AI表現不若人類(一些空間組合遊
戲還有需要大量依序推理的,AI都很難做出在複遊戲中抓住一些關鍵線索做規則遵循,
這個即使是三歲兒童的表現都遠超語言模型。不過LLM儲備的知識確實普通人類一生都難以
企及,所以以實用主義來說還是有其價值。)。
不過另一個有趣的地方是神經網絡學習到的空間表徵確實跟人腦的心理表徵存在某種層度的
呼應也有不同的地方,這個其實也是當今最需要突破也發展最慢的,有蠻多學者目前還在致
力於解釋神經網絡,這塊整合了認知科學皮質柱的研究跟訊息瓶頸理論,究竟神經網絡是怎
麼壓縮特徵然後人腦又是怎麼壓縮特徵到高維區的到目前有一些實驗佐證但缺乏關鍵證據就
是了。
差不多4醬
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.160.111 (臺灣)
※ 作者: sxy67230 2025-11-27 16:42:07
※ 文章代碼(AID): #1fA0xXsB (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1764232929.A.D8B.html
※ 同主題文章:
Re: [閒聊] 低等動物被認為有意識,那AI難道沒有嗎?
11-27 16:42 sxy67230
推 jupto: 簡單來說業界學界根本不想鳥 AI有沒有生命有沒有意識這種哲學問題 而是專注於AI能做到什麼工作 不能做到什麼工作2F 11/27 16:52
推 kons: 其實你的研究內容過時了,我小學科展曾經做過類似的
關於LLM與AI的......算了,這邊太小寫不下,不說了4F 11/27 16:54
→ kirimaru73: 之前棒球板有個爭論,如果我們很認真地餵食最強的LLM全套棒球規則,能不能阻止AI在討論棒球時講出各種令人腦充血的發言(現在是二出局滿壘,如果打者打出雙殺)我認為應該還是不行,他就是沒在理解規則,喜歡黑白講6F 11/27 16:56
→ jupto: 另外感覺上AI之所以在這些事情上表現不佳根本原因是記憶體不足 我記得之前看過一個分析目前AI模型的等效神經突出其實遠低於人腦 它更接近於使用一個性能劣勢的硬體靠著不斷優化軟體去做超級電腦靠著屎山代碼做的事10F 11/27 16:57
→ kirimaru73: 簡單說AI特定領域正確率比人高,能用嗎?能用
會被告嗎?被告在說 他的依據呢?不太清楚,慢慢研究14F 11/27 16:58
推 pttrAin: 餵規則不行,餵夠大量乾淨的主播發言就可以16F 11/27 16:59
→ kirimaru73: 特定領域正確率比人高這點是對的,後面各種已經快要毀滅網路文化的事情大多都要歸責於人類太可惡17F 11/27 16:59
推 k1k1832002: 其實細節牽涉蠻多東西的,包括後訓練這人為干涉很重的一塊也是,為了校準對其人類標準,光是這個校準行為本身就是問題之一XD19F 11/27 17:01
推 kirimaru73: 和家人討論時,他們對於AI為什麼一定會有幻覺比較不太能理解,我的解釋是這東西本身就是個創作家(生成式人22F 11/27 17:02
→ k1k1832002: 加上注意力問題等等,當前架構下限制很多,更不用說如果是多輪對話時量大時,可能有汙染問題存在.24F 11/27 17:03
→ kirimaru73: 工智慧),你去要求他準確地回答問題已經接近於強人所難了,幻覺率壓在現在這個程度甚至可以說他們盡力了偏偏主流不想讓AI只當個創作家,總是把他打造成小幫手所以三不五時就會用幻覺去幫助人類26F 11/27 17:03
→ k1k1832002: 幻覺問題撇過一篇文章,一種說法是因為"獎勵"設計的BUG,隨便輸出什麼比不輸出高30F 11/27 17:04
推 XFarter: 聽起來就是如果想證明LLM有沒有意識,你得找一個生物學上32F 11/27 17:04
→ kirimaru73: 今年幻覺文章很多,但從根本上解決應該還早得很33F 11/27 17:04
→ XFarter: 有意識的生物,然後證明 LLM 的思考運作跟這個有「意識」的生物是幾乎完全同構或近似的,那大概要等 LLM 甚至其他的類神經網路工具能一直疊代累積記憶然後自適應修正的時候才能討論了34F 11/27 17:04
→ kirimaru73: 這東西就是個寫作文的啊,怎麼可能根除幻覺
寫作時組合內容產生動人創作 和 法庭上組合內容憑空捏造鬧出大笑話 對他根本就是同一件事情
他一直都是在這樣幹的,怎麼人類就開始怪他胡說八道呢38F 11/27 17:05
→ XFarter: 現在的任何模型講白了就是空有神經的結構、卻沒有像真正生物大腦一樣的反覆迭代並且糾錯的功能ㄅ42F 11/27 17:07
推 kirimaru73: 其實不是不行,你程式設計他每天都自己去爬新的資料學新的內容就好了,但沒有任何一家正經的廠商會希望自己的服務這樣做,學一學就希特勒萬歲他要怎麼賺錢
研究這東西是要好好用的,那我當然是拷打出一個保證安全的版本然後固定它不動,最好什麼錯都不要給我犯
這樣就不能算是什麼生物和意識了,它就是個固定的死物44F 11/27 17:08
推 pttrAin: LLM的學習跟想主張LLM有意識的人所想的學習是兩碼事..50F 11/27 17:11
→ kirimaru73: 有些人對於「實際上是死物」的理解不夠明確
因為它必須好好地拿來用,所以必須是個死物
設定讓它能自行改變自己的常識有沒有出現過?以前有然後不到24小時就希特勒萬歲了,誰還敢這樣玩啊51F 11/27 17:12
→ jupto: 不到24小時就希特勒萬歲感覺很都市傳說 AI吃飽太閒去喊這幹嘛? 不到24小時就躺平擺爛才是比較合理的發展方向55F 11/27 17:17
推 kirimaru73: 因為那是放在網路讓和網友交流的聊天機器人
網友一定會餵食希特勒萬歲的,不然要餵什麼?
發現已經學歪之後就緊急關機了,再下去研究經費就沒了現在的服務基本上不會因為你對它灌資料而改變它的腦但那個實驗就是允許網友灌資料改變,想看看能學到什麼57F 11/27 17:18
→ orcazodiac: 現在AI的行為就有點像是接龍 你講了ABC之後它預測要接DE 所以了解這點自然會覺得它不是智慧生命
但隨著AI越來越像是有智慧的東西,說不定反過來證明所謂複雜的智慧生命可能也是以類似的方式在運作62F 11/27 17:23
→ kirimaru73: 它本質上是個死物這點無從改變 而為什麼一定是個死物這是由人類政策決定的 人類當然也可以給AI自由活動並改變自己的空間 但實際上就沒人做 所以就是沒有
不用說講什麼騷話,讓AI(搭配機器人技術)自由地上接開槍打人技術上都是做的到的,但人類就是不會那麼閒66F 11/27 17:24
※ 編輯: sxy67230 (49.216.160.111 臺灣), 11/27/2025 18:03:06
推 kaj1983: 理解AI的核心架構就不會覺得有意識的問題了
至少目前的模型發展還沒有人創造出來
會覺得有意識大概就像網路交友被詐騙一樣
對方講的話你聽的懂、你喜歡聽不代表對方是真心的71F 11/27 19:36
--