看板 C_Chat作者 Senkanseiki (戦艦棲姫)標題 [閒聊] 這就是為什麼生成AI不是很可靠時間 Mon May 19 15:40:04 2025
https://i.meee.com.tw/YnWs8lY.jpg
自之前煤炭產業的官方報告提到擊殺凋零骷髏可以獲得煤炭
以及可以跟村民交換綠寶石之後
https://i.meee.com.tw/9BRWBZP.jpg
現在則是有鋼鐵產業發表利用鐵巨人來生產鐵錠的新自動化生產方式
中國的產業真是日益進步啊(遠目)
你各位在AI生產論文的時候記得審一下稿阿
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.64.25.104 (臺灣)
※ 作者: Senkanseiki 2025-05-19 15:40:04
※ 文章代碼(AID): #1eAk1NxJ (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1747640407.A.ED3.html
→ linzero: 這個學術用語好像叫 AI幻覺3F 05/19 15:41
推 WLR: 這什麼鬼售價9F 05/19 15:43
推 jojojen: 怎麼不直接開創造模式11F 05/19 15:44
推 fenix220: 前幾個禮拜看一部分解秘銀龍原來是不是亂畫的13F 05/19 15:46
推 tim1112: 中國的工人還要兼具戰鬥力才能生產19F 05/19 15:50
推 HJC6666: 連官方報告也有系統了21F 05/19 15:50
推 usoko: 這真的是AI嗎....24F 05/19 15:51
推 played: 我記得有研究指出DeepSeek幻覺率很高的樣子25F 05/19 15:51
→ linzero: 有人說文章是在AI興起前發表的,可能是爬蟲弄的28F 05/19 15:53
→ uclala: Deepseek開始吃牆內的資訊後就壞的差不多了29F 05/19 15:54
推 syk1104: DS有教授查資料給錯資訊,這錯資訊還生成一份假論文佐證31F 05/19 15:55
推 WLR: 一套攻略被內容農場複製個幾十遍,就成了common sense32F 05/19 15:55
推 Muilie: deepseek原本很正常的,是亂餵東西後開始上吐下瀉34F 05/19 15:55
推 LouisLEE: 60年代的土法煉鋼誠不欺我35F 05/19 15:57
→ aa1477888: 你怎麼不反過來想想 現實世界其實是個巨大的MC地圖36F 05/19 15:57
→ hoshitani: Deepseek給文件叫他翻譯翻得還蠻準確的 比ChatGPT好用37F 05/19 15:59
→ linzero: MC世界的圓周率是多少?39F 05/19 15:59
→ hoshitani: ChatGPT常常亂掰文件裡面根本沒有的東西40F 05/19 15:59
推 a43164910: 以前也是有遇過同學做報告都在GOOGLE隨便剪貼不看內容上台報告的時候才在讀稿 越念越心虛 大概就這種情況==41F 05/19 16:00
推 DON3000: 難怪中國之前要限制國外ip看B站的minecraft實況...43F 05/19 16:00
推 kirimaru73: Deepseek的文采好到太過頭了,特別容易創作這種東西44F 05/19 16:00
推 Jerrybow: 其實現實已經被麥塊逐漸侵蝕了45F 05/19 16:01
→ a25785885: 天堂處女 應許的別人之地 虛空麵包 做功德 台籍媽祖
我覺得ai還是略遜一籌 工程師還有很大的進步空間46F 05/19 16:01
→ kirimaru73: 髒東西可能是吃到或是聰明到可以生成 兩種來源都有
但是現在的AI聰明程度已經危險到唬爛能力有點太強
有時候它生成的唬爛內容你瞇著眼睛看還不太好看出來48F 05/19 16:01
推 kinuhata: 生出來的文章自己都不審一遍也是很勇 我學生時期寫報告都要自己反覆讀個5 6遍以上確定沒有錯字或語病51F 05/19 16:02
推 kinghtt: AI即便會出錯還是一堆企業在用...資料多了自然會完善內容57F 05/19 16:07
推 morphyster: DS一開始沒有吃屎的時候還滿正常的,但是開放連網吃屎之後,根本就完全不能用58F 05/19 16:07
→ kirimaru73: 目前還不能太有信心 資料多了幻覺反而越來越多確實是60F 05/19 16:11
→ kirimaru73: 現實正在發生的事情 然後那些幻覺都極難用肉眼分辨
最有效率運用AI的方法就是把你自己進修到比AI聰明62F 05/19 16:11
推 ex990000: ??我以為現在門只開在韓國66F 05/19 16:22
推 dnek: 一下子曝露了中國報告混習慣了67F 05/19 16:22
推 n3688: 原來是MC,還以為是DS72F 05/19 16:26
推 Ardve: DS就中文對口特化,非專業知識挺好用的75F 05/19 16:27
推 efkfkp: deepseek你跟他聊一些文藝作品的閱讀理解還不錯,相較於gpt的優勢是他可以直接閱讀許多含版權的資料,比如聊輕小說很多時候gpt會直接跟你說他無法閱讀版權相關資料請你主動提供,deepseek就可以直接聊。
但問一些宏觀社會問題,他只會給你胡說八道,估計吃太多營銷號垃圾資料跟遊戲攻略了w76F 05/19 16:27
→ kirimaru73: 中國有些單位的這種案例是上面部署下來 要求下面的人學習並使用以提升工作效率的 例如提升鐵廠產生報告文件的效率 你不學著用可能還不行
效率是提升了 但沒有保證不會產生鐵傀儡82F 05/19 16:28
→ linzero: 有人是說deepseek是語意理解比較強,但邏輯推導之類較差86F 05/19 16:29
推 Marle: 幹媽的笑死87F 05/19 16:37
推 oyaji5566: 網路上內容農場太多了 被AI判斷有效資料引用了吧88F 05/19 16:39
推 CCNK: AI還是去生成色漫好了89F 05/19 16:40
→ Strasburg: 那就觀知海內股份有限公司是賣產業分析服務的 感覺是刻意炒作知名度90F 05/19 16:43
→ Pochafun: 我大學時看中國的期刊論文就常看到亂寫的 還有一堆抄襲現在有AI可用 一定會用92F 05/19 16:43
推 kirimaru73: AI的天性一定會唬爛 因為它的訓練要求之一就是一定要94F 05/19 16:46
推 asdfg0612: 以前做生物相關的 meeting報中國人寫的paper會被罵 XD95F 05/19 16:46
→ kirimaru73: 有回答 即使資料完全乾淨 你問它不懂的問題仍然會產生96F 05/19 16:46
→ kirimaru73: 這種結果 當然如果你資料是髒的 情況就會更恐怖98F 05/19 16:46
推 Muilie: 可以看看以前中國遊戲攻略網的情況就是DS現在的情況,一個人在論壇寫了結果成功但是過程有誤的,農場開始瘋狂轉載,版本更新後也沒改,因為出產早又被農場的多,到後來中文能找到的都是被污染的錯誤資料99F 05/19 16:49
推 suanruei: 不是,大陸到底都餵ai吃什麼資料啊103F 05/19 16:51
推 sunwit: 中國人自己都說DS越用越智障.只會抄網路卻不分辨真偽104F 05/19 16:55
推 L1ON: 現在的AI就很會一本正經講幹話105F 05/19 16:55
推 tf010714: 查法條判決書 請它彙整 gpt居然還會生成不存在的法條
不然就是請它依照刑法三段論討論某事實結果亂唬爛
把主觀混成客觀 不然就法條罰未遂它居然無視109F 05/19 17:04
→ nalthax: 用ChatGPT讀判決書一點用都沒有,說查不到判決;拿案源的判決餵它,結果說不相干,還是拿去生一些無傷大雅的娛樂內容就好了114F 05/19 17:12
推 bladesinger: 垃圾進垃圾出就是這樣,你扔給糞坑給AI還期望他出奇蹟?117F 05/19 17:15
推 felaray: 鐵巨人農場是一個專業的課題..119F 05/19 17:16
→ kirimaru73: 這個狀況需要仔細審視的就是AI插入這些內容的能力
一般人如果寫報告到一半遊戲癮上身,或是故意想惡搞,插入的內容也沒辦法太過自然,很容易被看穿
但是AI(尤其是中文特化的DeepSeek)把這些異物自然混入的能力是非常強的123F 05/19 17:29
→ rogerlarger: 需要RAG啦,把真正的煤炭業資料嵌入到向量資料庫,再跟模型串接起來128F 05/19 17:32
推 DARUGU: 好奇這種還有辦法修正回來嗎?還是只能拿大量正確的資料洗回來?130F 05/19 17:42
推 kirimaru73: 可以再訓練懲罰他 但訓練模型本身是高風險的困難行為可以參考李宏毅老師2025年的年番 YT上有 現正連載中要逼模型學一件事並不算太困難
要逼模型學一件事「且不產生副作用」 極度困難132F 05/19 17:44
推 kirimaru73: 機器學習永遠有一種無限迴圈 你應該用正確的資料
然後網路上有巨量的資料 沒人保證什麼是正確的
你要怎麼挑出大量正確的資料呢?
再訓練一個會胡說八道的模型負責判斷什麼是正確的嗎?137F 05/19 17:48
推 probsk: 是這樣沒錯但不是這樣141F 05/19 17:49
推 jay920314: 幹超好笑 這階段真信了AI還不矯正or沒能力判斷內容是這樣的142F 05/19 17:59
--