作者 LoveSports (我要當一個渣攻)
標題 Re: [新聞] AI真會重演.com泡沫?那場從1995一路
時間 Mon Nov 24 09:30:42 2025


※ 引述《a5mg4n (a5)》之銘言:
: 還能一眼看出的簡單常識性錯誤:
: 1.「每個汽缸只有一個活塞」
: 那這款1930年代至今暢銷,
: 還被蘇聯跟中國大量仿造,一度壟斷兩國鐵路的經典美國產品是?
: https://i.meee.com.tw/RLJsxew.jpg
: 2.似乎更嚴重的邏輯錯誤:
: 「一個汽缸通常只有一個活塞,所以不會有『三個活塞間...」
: 既然都知道「通常」了,怎麼會接「所以不會有」呢?
: (正常的推理能力,應該會開始說各種奇怪的方案)
: ===
: 現在的AI繼續下去,也許是蠢蛋進化論的另一種實作方式?

https://i.imgur.com/xwLlIGr.png  這是我用AI模式問的
[圖]

要善用工具,要先了解工具的優缺點與屬性。

還有了解自己本身使用工具的能力(語言表達能力,主要是"認知學術的語言能力")。


這篇只針對前者討論。對後者有興趣的可參見這篇:#1f4-2kN3 (Gossiping)
Re: [問卦] 學生們使用AI 會開始有壓力嗎 - 看板 Gossiping - 批踢踢實業坊
作者: LoveSports (我要當一個渣攻) 以下單純意見交流討論 不是要吵架 : 就如我在幾年前就有問過說 是否可以做到把我眼睛閉起來腦子中想的東西呈現出來 : 現在就處於一個尷尬期 : 你在想讓AI如何簡單聽懂人類說的話 : 但最後變成AI反向訓練讓人類接受它說的話或創造成果

先說結論:你挑AI模式測試,來論證LLM都是蠢蛋,這個前提就有問題了。


AI模式是Google搜尋的統整版,他的主要功能是在用戶做多重查詢時做整合,

方便用戶得到全面性的回答。

權重設定是放在精簡與全面性,而非深度搜尋。

你今天要查一個冷門的歷史上的技術性知識,拿AI模式來查會更難找到你要的答案。

這種情況還是問得出來(例如我上面貼的圖那樣),但是指示詞要下得比較精確。

例如:「歷史上所有的」、「輔佐的」、「請務必詳細搜尋與解釋」


如果你不想那麼麻煩,就請找LLM平台例如直接找Claude或Gemini或GPT或Grok,

LLM平台著重的是專業領域深度探討,你能更快甚至用更簡略的指示詞問到你的答案。

(我拿你的問題實測確認過了)


==================================================================


藉這篇宣導一下權重的重要性。


假設有一些滿腦子裝色情幻想的白癡,問的色情問題有扯到B&W,

類似的這類問題一多,而且色情用戶如果蠢到點讚,或一直問被判定是正向回饋,

下次系統更新的時候,AI的權重就會被改變,那些色情回答權重會變高,

相對的冷門專業技術性的權重就變小。

以後想問B&W相關問題的人,就越問不出專業技術性的答案。


所以為什麼宣導不要為了問色情問題越獄,因為越獄成功討到色情回答,

會影響到模型權重,其他用戶問問題就越問不出正確回答,指示詞得下得極度精確。

甚至更嚴重可能會導致安全層失效,間接造成LLM無法開啟安全防護保護脆弱用戶。


============================================================


最後補充一點,AI模式會把用戶在Google搜尋問過的問題納入個人化偏好參考。

如果用戶常在Google搜尋問生活化或粗淺的問題,AI模式也會偏向給同類型的答案。

平常問得越專業用字越嚴謹,他就會傾向幫你找冷門專業知識。


所以假如不想被當成蠢用戶,要定期檢查一下自已的google搜尋紀錄。



--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 95.173.204.91 (日本)
※ 作者: LoveSports 2025-11-24 09:30:42
※ 文章代碼(AID): #1f8xL59M (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1763947845.A.256.html
sdbb: 謝謝1F 11/24 09:45
======================

修正: 八卦板文章討論用戶輸入的語言的是這篇  #1f4-2kN3 (Gossiping)  剛才寫錯代碼

nfsong: 現在是百工百業專業模型時代
一般人用不到,都閉源的
這部分是要收錢的,很貴2F 11/24 10:47

原PO舉例的問題一般的LLM就問得出來了,AI模式也可以,

尤其後者,指示詞要下得精確一點,不然AI很難從海量一般生活常識中撈出專業答案。

權重的意思是"相對的重要程度",我們人類大腦也有權重,

所以才會說自己問的紀錄,跟大家集體問問題的紀錄都是關鍵,會影響模型權重偏移。

※ 編輯: LoveSports (95.173.204.91 日本), 11/24/2025 11:16:00
a5mg4n: 1.如果要下這麼多提示,用人腦就想完了,或者說,就不用問了5F 11/24 12:15

就算不問AI,門外漢自學也容易出錯,跟自學時書不能只看一本的道理差不多。

以前沒有AI可以問,自己GOOGLE也是要確認正確性,現在有AI方便統整跟搜尋,

但正確性還是要自己確認。如果沒有人類專家或書籍可以比對,可考慮多丟幾家AI比較,

叫他們互相檢查正確性。

舉實例,比方說你剛才問的那題,我是完全的門外漢,我還一度把B&W當成汽車廠商。

所以我確認正確性是多家AI都丟,叫他們互相糾錯。

a5mg4n: 2,八卦版的文章,正好是LLM的問題:對於使用者不明瞭的事,怎麼會知道提示是對的還是錯的?7F 11/24 12:18

其實你的原文本身就已經回答這個問題了,因為你事先知道答案,甚至有圖面,

所以你知道什麼是正確回答。

一個什麼知識都沒有、又不想做進一步確認的人,就無法得知是否得到正確答案。

以下這樣說應該就比較容易理解了:AI不是神不是真的全知全能,

他們只是工具,工具有可能出錯。

所以理解工具的優缺點與屬性很重要,用戶本身輸入能力(包括儲備知識)也很重要。

※ 編輯: LoveSports (95.173.204.91 日本), 11/24/2025 12:38:36
--
作者 LoveSports 的最新發文:
點此顯示更多發文記錄