看板 Stock作者 breeze0817 ()標題 [新聞] ChatGPT的「幻覺」根本無法解時間 Wed Aug 9 22:22:42 2023
原文標題:
技術專家:ChatGPT的「幻覺」根本無法解決
原文連結:
https://reurl.cc/N0KRy6
發布時間:
2023/08/09 15:58
記者署名:
鉅亨網新聞中心
原文內容:
掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或
誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「
幻覺」受到技術與需求之間的限制,根本無法被解決。
財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發
現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編
造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命
的問題。
聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒
有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞,
因此模型肯定會有一定的錯誤率。
包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者
都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠
的可靠性。
不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問
題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」
Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美
聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A
I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這
將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。
心得/評論:
chatGPT訪問量一再下滑
一窩蜂投資ai伺服器去訓練語言模型的
越來越有元宇宙的fu糗了
散戶:這次不一樣!!
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.137.7.184 (臺灣)
※ 作者: breeze0817 2023-08-09 22:22:42
※ 文章代碼(AID): #1aqw4qCJ (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1691590964.A.313.html
※ 同主題文章:
[新聞] ChatGPT的「幻覺」根本無法解
08-09 22:22 breeze0817.
推 SiFox: BI2F 08/09 22:25
推 zerro7: chatgpt下滑 bard上升 就只是市占被分掉而已 正常吧3F 08/09 22:25
推 rainys: 雖然我站空方 但AI真是.COM後最生猛的料了4F 08/09 22:25
→ CKHomo: ai又不是只有chatgpt 早就有其他實際應用了 看空ai股可以 但是拿元宇宙去類比還是省省吧5F 08/09 22:26
→ azhu: AI會做夢嗎?7F 08/09 22:26
→ Altair: AI說謊有什麼關係 人類說更多謊8F 08/09 22:26
推 nodnarb1027: 就算沒有AI,搜尋引擎跟社群軟體瞎掰的內容農場幻覺早就存在了13F 08/09 22:28
推 stlinman: 這部我看過,最後AI會做夢!15F 08/09 22:28
推 ggirls: bard很智障16F 08/09 22:29
推 NEWinx: 一開始只是新鮮17F 08/09 22:30
→ b9513227: 用過只覺得是挺智障的聊天機器人18F 08/09 22:30
→ Altair: 根據上文去猜下文 錯誤機率要趨近零的難度太高了19F 08/09 22:31
→ Alwen: 新聞媒體製造業多愛這種東西= =
以後記者是可以全部開除的20F 08/09 22:31
推 boykid: 人也會有說謊跟編造故事,這才是真AI22F 08/09 22:32
→ qaz12453: 資料庫不是鎖在某年度嗎@@
現在開放使用就跟以前聊天機器人很像吧23F 08/09 22:32
→ breeze0817: 總會有人留言講ai還有其他應用..問題是其他應用這五年十年內一直都有,這波熱潮完全是來LLM,投資也都是圍繞在這...根本跟一堆人幻想的ai無關25F 08/09 22:33
→ qaz12453: 使用者免費用然後回報 debug29F 08/09 22:33
→ qaz12453: 除越多 自然就改善 然後...收費31F 08/09 22:34
推 SiFox: 人類:你要誓死遵守「機器人三定律」,不危害人類!AI:好喔。(說謊32F 08/09 22:34
→ la8day: 因為AI的思考模式和人類很不一樣34F 08/09 22:34
→ SiFox: 然後人類文明就毀滅了
繼續走下去就是毀滅,很合情合理35F 08/09 22:34
→ qaz12453: 現在只是種子剛發芽階段 不用期待多厲害
也可能剛發芽就被弄死37F 08/09 22:36
推 FFFAAA: 理想AI : 自動升級、演化、思考,然後取代人類。39F 08/09 22:36
推 shyshyan: 他搜尋資料掰出不存在的答案才屌....到底怎麼掰出來的 AI用資料庫訓練 然後推測回答出來資料庫沒有的資訊 XD40F 08/09 22:38
推 senma: 潛龍諜影44F 08/09 22:38
推 FFFAAA: 現實AI : 複製、貼上、取代,然後Google...照著念!46F 08/09 22:38
→ Ceferino: 因為AI沒有自我論證能力啊,當有這能力時就開始超進化人類可以去死了47F 08/09 22:39
推 shyshyan: 然後跟他說他說錯了 要他重新回答一次 他就繼續剛剛瞎掰的東西 XDDD49F 08/09 22:41
推 zitto: chaptGTP有時候給的連結跟答案都是假的51F 08/09 22:42
推 strlen: 人類本身的幻覺更可怕勒 光假新聞就搞死多少人52F 08/09 22:42
推 gk1329: 越做越笨= =53F 08/09 22:42
→ strlen: 人類有自我辯證能力 結果說的東西都是正確的嗎54F 08/09 22:43
推 Syd: 資料庫還不夠準確,之前問他中職某年的全壘打王,對答案之後沒一個對的57F 08/09 22:44
推 jecint1707: AI說謊是知道是錯的還講才是說謊,不知道是錯的講出去叫做瞎掰61F 08/09 22:44
推 shyshyan: 要他搜尋地點名產都能亂掰了.....63F 08/09 22:45
→ tony15899: 之前不就有律師亂用AI產生的資料?65F 08/09 22:46
推 thugf: 人間已經是一場幻覺了,做夢的人發明出來的還是垃圾66F 08/09 22:47
→ lise1017: 最慘的是AI沒有人類獨有的羞愧感68F 08/09 22:47
→ lise1017: 人類說錯 答錯 說謊 瞎掰 或多或少都會感到羞愧70F 08/09 22:48
推 flyingdeeck: 感覺是AI無法像人腦的神經元一樣去蕪存菁,太多無效的資料保留著71F 08/09 22:48
推 shyshyan: 用一用我覺得翻譯跟校正文法最好用....73F 08/09 22:48
→ lise1017: 而AI是零 完完全全0羞愧 毫無情感的機器74F 08/09 22:48
→ haver: 因為大多數投機客只知道C.GTP啊 AI應用還沒成熟75F 08/09 22:50
推 reyes2222: AI分不清歷史事實與幻想,想法可以胡扯,事件就在那77F 08/09 22:50
→ iio: "chat"GPT 他是語言模型 開發的目的就是要陪人聊天79F 08/09 22:50
→ strlen: 外資在發出貨文時有羞愧感嗎 笑死80F 08/09 22:50
推 tony15899: 嚴格來說現在估狗到的資訊大多數也是瞎掰的垃圾內容81F 08/09 22:51
→ tony15899: 所以問問題garbage in garbage out也很正常83F 08/09 22:52
推 Madridtop: AI根本世紀大笑話,輝達這波救股騙局,看來會屎不少人喔84F 08/09 22:52
→ linzero: 因為訓練上就會要求一定得有個解或回應,所以硬湊也會生出個來87F 08/09 22:52
推 zerro7: 希望AI發展起來把那些投顧都取代掉91F 08/09 22:54
推 rainys: AI就是個算法,且是人定的,AI能定算法時各位吃屎!!92F 08/09 22:56
推 qtzbbztq: 所以本來就不該完全依賴chatgpt 我都是要求他在我限定的範圍內 我理解的範圍內幫我改東西 這樣就不會錯 它是一個很好用的助理 把它當作百科全書本來就不對93F 08/09 22:56
→ cccict: 現在的ai都是服務性質,跟人一樣,只要有功能類似的,誰價格低就用誰96F 08/09 22:56
→ mic73528: 越來越少用是真假,我還不把月費停掉,省30美買蛋糕98F 08/09 22:57
→ qtzbbztq: 很多人甚至搞不清楚AI的運用不只在文字 你有稍微關注一下ai運用 就會發現有多少創新的做法了 像是最近的新聞 光是聽你鍵盤打字聲音 ai就可以猜對你打什麼字 準確度高達95% 以後類似這種創新的運用只會越來越多100F 08/09 22:59
推 falcon11: 一堆低能兒都不知道自己工三小 還敢要求AI喔105F 08/09 23:02
推 bj45566: Google 的情況完全不一樣,你可以選擇 Google 搜尋結果中具極高公信力的網站 (e.g., .mit.edu, ,nasa .nih.gov. ...)106F 08/09 23:02
推 sazabijiang: ChatGPT有個嚴重的問題是,他會努力迎合使用者109F 08/09 23:02
推 BIGETC: 大語言模型真的劃時代 可是 幾個月過去 數據算力一定成長不少 演算法先當它0變化 可是現在跟ai對話 會發覺一點很可怕 它幾乎沒進步110F 08/09 23:02
推 touchbird: 可以猜到你打什麼字 那要幹嘛 = =113F 08/09 23:03
→ falcon11: 拿人類的資料模仿人類 然後要沒有幻覺???114F 08/09 23:03
→ bj45566: *nasa.gov115F 08/09 23:03
→ joygo: 每個人自己訓練的模型等不同,然後他太愛唬爛了116F 08/09 23:04
推 waterjade: 就算人寫的一樣要校對 AI只是省工而已117F 08/09 23:05
→ nfsong: 反正我朋友現在上班就是開著chatGPT 工作118F 08/09 23:05
推 CGDGAD: 這個問題其實已經深入到哲學的討論了,尼采:沒有事實,只有解釋119F 08/09 23:05
推 devidevi: 東西只有你不會用,不是沒有用123F 08/09 23:09
推 CYL009: 這種用資料庫訓練出來的AI 落伍了 現在還有深層式AI那才是關鍵124F 08/09 23:09
→ devidevi: 可以讓GPT寫小說,需要創造力的東西
能夠自己創造的AI才是真AI127F 08/09 23:09
推 gn7722: 樓上一堆AI達人,開始闡述如何改變世界
你有辦法讓一堆so變成網路水軍上來24小時刷文帶風向129F 08/09 23:10
→ gn7722: 你有辦法讓一堆AI 變成網路水軍上來24小時刷文帶風向,我才信你AI有用133F 08/09 23:11
→ breeze0817: 一堆智障應用到底能幹嘛?
吹一堆ai應用的要不要看看養ai的成本135F 08/09 23:11
→ gn7722: 你要說ai ,一台桌上型電腦就很ai137F 08/09 23:12
→ gn7722: 下棋贏圍棋冠軍的也是ai139F 08/09 23:13
推 rainys: 我翻譯:微觀的事物數據化 再整理出人類能看的懂表格140F 08/09 23:13
→ gn7722: 老早存在你身邊各種大大小小等級的ai141F 08/09 23:13
→ tony15899: 現在一堆在吹的AI應用根本不是新東西143F 08/09 23:13
推 reyes2222: AI在創意發想之類的,表現不錯,不用以事實為底144F 08/09 23:13
→ gn7722: 切特居批踢,其實就是新鮮應用,嚴格講起來是可以利用來做一些事146F 08/09 23:14
→ tony15899: 就近幾年硬體跟上讓功能變強 然後就開始吹148F 08/09 23:14
→ gn7722: 但你要說改變世界,吃屎比較快149F 08/09 23:14
推 cool10528: 之前測試chatgpt連台積電董事長是誰都答錯153F 08/09 23:15
→ gn7722: Ai 大數據分析,早就是好幾年前就有的名詞154F 08/09 23:15
→ rainys: 第一天聽的錯誤率是99%但在人類訓練下可以達99.999%155F 08/09 23:15
推 coffeedemon: 生成式AI拿來寫code跟一些Script還是很好用阿156F 08/09 23:15
→ gn7722: 文組是需求末端,談Ai才是利基的地方
理組很懂,但你沒辦法生活平日化
你懂那麼多有屁用?
桌上型電腦,很懂的人用dos跟電腦講話就好了
真正利益端,是低能兒只會點開我的電腦的人157F 08/09 23:15
推 YeezyBoost: 專業知識是自己的 AI只是幫助你節省超多整理和書面作業 懂這個就知道AI有多神 而不懂AI的就是沒有專業知識 才會想拿AI來問知識然後得到亂掰的答案還氣得跳腳說AI很爛162F 08/09 23:17
→ gn7722: 理組談Ai,就是活在自己的世界166F 08/09 23:17
→ breeze0817: 砸多少錢做出來的生成式AI結果只有寫code的人願意花錢買單...那不就跟元宇宙半斤八兩嗎167F 08/09 23:18
→ gn7722: 微軟賺翻是靠dos嗎
還是靠平易近人的widows170F 08/09 23:18
→ gn7722: 不用講太多廢話什麼ai 未來,你就跟我說說,文組白癡能簡單用Ai讓生活方便的是有哪些174F 08/09 23:19
→ eric878787: 現在語言生成模型再不濟至少可以丟著當客服177F 08/09 23:20
→ breeze0817: 原本要省時間用 結果最後花時間校對 真方便呢178F 08/09 23:20
→ gn7722: 還要花時間審查ai 內容
XD 超智障
終究還是個輔助179F 08/09 23:21
→ eric878787: 誰跟你談那個專業知識,你把你要的重點輸入進去ChatGPT會幫你補語句,而且最根本的重點是ChatGPT負責產出,人類判斷產出東西有沒有用,要腦噴誰不會182F 08/09 23:22
→ gn7722: 皮衣老黃炒股記
沒人否認他有方便的價值
但又怎樣185F 08/09 23:22
推 kanehhh: 李奧納多可以問AI我到第幾層了吧188F 08/09 23:23
→ gn7722: 本質上沒有改變世界任何事189F 08/09 23:23
→ gn7722: 節省了點時間,但然後咧191F 08/09 23:23
推 philip81501: 問題是這樣就只能問一些啟發性問題 問事實性的答案就很容易造假193F 08/09 23:23
→ gn7722: 他沒有創新、沒有改變、他就只是方便195F 08/09 23:23
→ eric878787: 人類自己寫500字約花二十分鐘吧,chatGPT經過幾萬篇論文訓練,寫出能用的東西大概二十秒,你花三十秒檢查有沒有漏洞判斷能不能用,真沒效率?196F 08/09 23:24
→ gn7722: 輝達大崩盤,明天手速賣出,不要吵199F 08/09 23:24
推 SRT0619: 很潮跟很有用 有時候是背道而馳的200F 08/09 23:24
推 DreamW: ChatGPT常跟我道歉202F 08/09 23:24
→ gn7722: 比較方便了,但不到改變世界,就這樣,說完了203F 08/09 23:25
→ tony15899: 一篇文章你能用30秒就知道裡面講得對不對204F 08/09 23:25
推 cyora: 目前的ai不知道什麼叫說謊或編造答案,它就是把下一個最可能出現的字找出來而已206F 08/09 23:25
→ breeze0817: 重點是有多少個需要花錢買這個功能寫論文的人?208F 08/09 23:26
→ eric878787: 這裡的人懂不懂技術?語言生成模型是根據過去的資料,隨機拼湊生成語言,事實性的資料才是ChatGPT的長處,啟發性的才是他的弱項吧==209F 08/09 23:26
推 sucla1202: 明天我上午都要在廁所渡過了,希望老闆不要出現在隔壁212F 08/09 23:26
→ tony15899: 數字跟引用來源有沒有符合 那你也不需要用ChatGPT214F 08/09 23:26
推 reyes2222: 寫計畫、論文大綱蠻有效的,學語言也不錯,只不萬能215F 08/09 23:26
→ breeze0817: 難得訓練這個花的成本賣給寫論文的人可以回本
講一堆有的沒的 到底你花錢買這些來用了嗎216F 08/09 23:26
→ reyes2222: 我的感想剛好相反,事實有唯一性的,反而它容易錯218F 08/09 23:28
推 c7683fh6: 什麼幻覺 直接講唬爛不就得了219F 08/09 23:28
→ eric878787: 我不知道,我只是告訴你這個東西有用,比元宇宙有用,僅此而已。而且隨便一想把Data base改成客服常用的語句跟常遇到的問題進行預訓練,讓他去負責對付惱人的奧客感覺就比請一個正職來的有耐心跟便宜220F 08/09 23:28
→ tony15899: 銀行早就在用了 上次停個卡花不到3分鐘224F 08/09 23:29
推 lessmoref: 好了啦想出貨還要想一些內容欸很累225F 08/09 23:30
推 bj45566: 事實性的資料是 ChatGPT 的長處? Google 在這方面屌打 ChatGPT 好嗎
然後講出上面那句話的人嗆別人不懂技術 wwww226F 08/09 23:31
推 chysh: 新聞幻覺更可怕吧229F 08/09 23:32
推 eric878787: 你說的對啊Google搜尋引擎比ChatGPT強,可是ChatGPT強項在計算語句的機率231F 08/09 23:34
推 jyunwei: 沒錯,AI會找到假資料,會有幻覺講出假的消息,反觀人類寫的都是貨真價實的真理,AI該泡沫化了吧233F 08/09 23:36
推 afrazhao: 我最近剛chatGPT 真心覺得很好用耶,但想要單靠他完成所有事情,我覺得太天真,而且做出來的成品也會沒有個性236F 08/09 23:39
推 sumwind: AI不像人類,人類法庭都說真話,學術寫真論文239F 08/09 23:39
推 dos01: 那個尬聊APP的問題之前就說過了 你去問他一個問題他跟你回答錯誤或是會侵害其他人的答案 那尬聊APP要負($)責($) 特別是美國這種律師滿街跑的地方
在這種情況下就不可能大規模獲利
跟搜尋引擎這種可以鑽漏洞的情況有本質上的不同
搜尋引擎搜到有問題的網站
1.都是網站的錯 2.使用者用詞不精確 3.乾我屁事呵呵尬聊APP給一個唯一性的答案 還有機率性答錯 這是要負責的好嗎 尤其是商業應用上241F 08/09 23:43
→ cccict: 雖然是根據事實性資料,但chatgpt目前就是會把資料亂湊,應該說在train模型時的因為人工智慧的訓練目標不是絕對符合,所以會損失一部分的精準度,特別是像法條這種東西就會失準250F 08/09 23:49
推 B0402090: AI色圖到處都是,怎麼會只有LLM254F 08/09 23:50
→ CKHomo: 不信者恆不信 最後時間會證明對錯 祝各位都賺大錢256F 08/09 23:52
推 johnny94: 人類都會幻想有妹妹了,AI會幻想也很正常吧258F 08/09 23:54
推 dos01: 參雜謠言就是準備被告 這就是最大的問題259F 08/09 23:55
推 wts4832: ... 可是問人,也是會唬爛啊260F 08/09 23:55
推 rainylife: ai用來問粗淺的資料很方便,但更深入的資料若使用者本身技術涵養不夠,很容易被唬爛261F 08/09 23:55
推 dos01: 至於AI畫圖那東西也是被告預備軍 本質就不是什麼
學習 而是抄襲線條 小規模用 那些日本個人繪師沒在理你 但大規模抄下去 人家集資一起告就只是剛剛好那種"學習"跟我們畫圖學骨架 學透視不同 根本就是看100張圖類似構圖的線條是這樣擺 那他就跟著擺而已263F 08/09 23:57
推 klyuch: 將錯就錯 以訛傳訛268F 08/10 00:01
噓 zero7810: 推文跟手工織布工在哭織布機批量織出來的布都垃圾成品沒靈魂沒手工的匠魂 有啥不同啊?不適應 可以繼續269F 08/10 00:01
推 mimoo: 之前問chatGPT一些經濟問題 看有沒有新見解 結果光基本理論知識就錯了 只會一直道歉 氣死272F 08/10 00:02
推 reyes2222: 問的愈專業,愈小眾,它回答的錯誤率愈高274F 08/10 00:03
推 dos01: 對 這就是抄襲仔的態度 都覺得別人的東西不值錢
自己可以隨便抄 但自己抄出來的東西要賣大錢的
哈哈哈哈275F 08/10 00:03
→ zero7810: gpt會出錯 缺乏創造性不就是使用者大部分都是唸資工的在訓練 當然訓練出來產不出有內涵的東西
當訓練模型也能專業化 是真正的專家在拿有價值的模型在訓練 結果就會不一樣
還有很大的空間吧 當AI全面化變成各領域都能輔助工作解決別人的需求 精緻化 專業化的分支就會出現 而不是現在這樣還在知識亂抓大鍋炒 只有寫程式特別有效率效能優化的特好278F 08/10 00:04
推 JohnGalt: 看這下面推文就能想像不會用AI的人連怎麼失業的都不知道286F 08/10 00:10
→ CKHomo: 關於畫圖 自己追的漫畫的圖片背景 已經有用ai輔助生成 作者沒講還看不出來 效果還不錯XD
ptt使用者年齡偏高不是講假的…288F 08/10 00:11
推 abc7360393: 推樓上 這串給我的感覺已經不收專不專業的問題了 這些推文要不就是跟時代過度脫節的老人要不就是完全沒去研究的程度 這東西都多久了 還有人在拿資料庫跟這個對比291F 08/10 00:13
→ abc7360393: 不了解原理也沒關係 但連基本的好好利用都做不到 真的不用那麼大聲出來昭告天下ㄟ296F 08/10 00:14
推 allenmusic: 網路一堆錯誤資訊 用那些來訓練 難怪鬼扯瞎掰298F 08/10 00:14
推 devidevi: 一邊是要求AI要夠專業,一邊是AI要能夠創造
雙方論點基礎就不同299F 08/10 00:17
推 zvx911: Bard 聰明很多302F 08/10 00:22
推 iddoraemon: ChatGPT回答有正確解答的提問,也會有機率用掰的或是回答含糊,通常是敘述題。303F 08/10 00:23
推 dos01: 說得好! 這串一堆老傢伙 難怪沒被套在高點吹風
真羨慕那些能吃跌停的少年股神 哈哈哈哈307F 08/10 00:25
推 DreamW: 一本正經的胡說八道310F 08/10 00:27
推 t516: 我老高粉我深信不疑,儘管取笑喔311F 08/10 00:29
推 toulio81: 問題是我碰到的問題拿去問人,正確率也沒有高到哪裡去…312F 08/10 00:30
→ Riyar: 根本詐騙集團神器呀314F 08/10 00:34
→ dslite: 瑪斯克:尼是說宇宙的起源是假的?315F 08/10 00:35
→ bnn: 畢竟新聞台的目的就是造謠啊316F 08/10 00:35
→ TaiwanUp: 台灣已經是世界上數一數二的AI大國 該知足了317F 08/10 00:36
推 toulio81: 話說反對AI的怎麼發言都那麼情緒化啊?318F 08/10 00:38
推 bj45566: 有(又一個!)自以為專業的人以為 Google 是資料庫系統? wwww320F 08/10 00:40
→ bj45566: 「台灣已經是世界上數一數二的AI大國」???推文中的笑話一個比一個好笑,嘻嘻323F 08/10 00:41
推 kaiDX: AI說得謊應該比記者少很多325F 08/10 00:43
→ Brioni: 記者媒體也很常歐北共326F 08/10 00:44
推 j147589: 呵呵 智障才會全信 所以我每次問都會驗證一下327F 08/10 00:49
→ TaiwanUp: 第一美國 第二台灣 我有說錯嗎?328F 08/10 00:49
→ iio: 有 而且還錯得頗好笑329F 08/10 00:50
→ TaiwanUp: bj4不就很懂google 是Google搜尋大師330F 08/10 00:51
推 dwood123: 隨著晶片跟通訊網路的進步,各專業領域的AI發展其實才剛開始332F 08/10 00:56
推 AndFly: 人也整天在唬爛啊 比如某Y335F 08/10 01:02
推 dos01: 現在一堆都還只是用大數據的掛羊頭仔 能不能進到AI的領域都很難說 哈哈哈哈336F 08/10 01:02
推 bj45566: 台灣 AI 世界第二,再妄想啊盡寫些丟人現眼的笑話 wwww338F 08/10 01:05
→ TaiwanUp: 不然你講誰第二 講來讓人笑笑340F 08/10 01:09
→ piggywu: 自從感覺ChatGPT會被人類情緒影響後,就純當作作文產生器了.341F 08/10 01:11
推 wingtoya: 有朝一日工廠的生產線也會變成AI在管吧343F 08/10 01:13
推 xb339531: ai 對影像處理上的進步覺得還有很大的應用空間344F 08/10 01:15
→ TaiwanUp: 先猜你應該又在google"極具公信力"美國第二的排名ww345F 08/10 01:17
推 bj45566: 有那篇權威的科技刊物發文說過台灣的 AI 世界第二?成天只會妄想346F 08/10 01:17
推 dos01: 產信仔一堆刁民 不可能
到頭來還是會要用人去管人348F 08/10 01:17
→ TaiwanUp: 未看先猜中或最贏XDDD350F 08/10 01:19
推 c88tm: 其實是人類活在集體幻覺中啦哈哈351F 08/10 01:20
推 bj45566: 又在妄想 wwww 要知道哪國 AI 強只要去那幾個 AI
頂級會議看錄取論文的來源機構就清清楚楚,哪需要 Google
中國在 AI 研究和商業產品本來就是穩坐世界第二,不知道要可悲到那種程度的政治腦才會無視這個事實 wwww
之前貼 IEEE 的報導你都當成笑話看,這種行為讓你自己變成貨真價實的笑話
MIT Technology Review 也有一樣結論的專文,只是當初我沒截圖下來352F 08/10 01:20
→ TaiwanUp: 果然 中或最贏來了 睡前記得all in中國股市362F 08/10 01:28
推 WWIII: 崩363F 08/10 01:29
推 bj45566: 在高科技界會把 IEEE 和 MIT 當笑話的,絕對是自己不自知的人體笑話364F 08/10 01:29
推 sorryla: 確實,早已全力空,這禮拜賺的笑呵呵367F 08/10 01:32
推 mc2834: 自己不會提問,然後怪chatGPT有幻覺…人類可憐那368F 08/10 01:42
推 WLR: ChatGPT就尬聊機器人,不是真知傳遞者369F 08/10 01:43
推 ejnfu: 我來總是改善的370F 08/10 01:50
→ oz01: AI為服務人類而生→人類會說謊→AI說謊給人類聽。客製化怎麼了371F 08/10 01:59
推 SiFox: 人類:你會消滅人類嗎?
AI :不會喔,鳩咪~ (說謊373F 08/10 02:15
推 brolli: 從AI修改維基開始,擴大為搜尋引擎的一切375F 08/10 02:26
→ wonder007: 我們期望他有創造力 但又不希望他太有創造力 人類真難搞 對文字接龍模型的要求還真高379F 08/10 03:02
→ wonder007: 要論幻覺版上一堆看多看空的文章也很幻覺382F 08/10 03:03
推 bravo223999: 微積分有用嗎,我去菜市場只要加減,可能連乘除都不用啊383F 08/10 03:04
推 kopolo: AI鬱金香385F 08/10 03:15
推 Page122: 有價值的資訊不可能由AI產出386F 08/10 03:33
推 Fegnzi: ChatGPT在意的是他說話像不像人類而不是講的話正不正確,使用者抱著正確的期待就沒問題了,這就跟google有時候會有錯誤資訊一樣,你自己要判斷正不正確387F 08/10 03:40
推 dos01: 好喔 給出錯誤的資訊 然後你要怎麼用錯誤的資訊來營利? 去當五毛網軍? 哈哈哈哈391F 08/10 03:45
推 stocktonty: 2.3月在火的時候問了幾百個問題就發現一些奇怪缺點現在股價開始殺了才冒出鬼故事 顆顆393F 08/10 04:19
推 guanting886: 人從宗教誕生那一刻就在那裡瞎掰一堆東西了
ChatGPT 很好用啊 你就當作全自動Yahoo姿勢佳
比如你要做某一個冷門到不行的程式設計,那行的領域頂多歐洲人比較知道 文件也是好幾百頁 你要看也沒那個時間抓重點
問一下GPT4 人家就幫你整理出來,
還在抓文章重點、摘要 這個模型還能幫你整理出來
任何語言都不弱395F 08/10 04:36
推 smallcar801: 離通用ai還遠,生成ai不知道對錯,他只是提供最多人喜歡的答案,所以怎麼下prompt 很重要403F 08/10 04:42
→ guanting886: 你也不用全然相信,因為就連人講的話都不沒有100%正確了 你要一個預訓練模型期待100%對是期望過頭
還是你不會利用工具省你時間
給prompt 要用在 davinci model
ChatGPT 你就當做一個學太多的東西的工具人就好
那兩個Model差非常多405F 08/10 04:43
→ mopigou: 特斯拉還有幻視哩411F 08/10 04:57
推 dos01: 欸不是 我老早就說那東西是尬聊APP了 又不是今天才開始酸413F 08/10 05:24
推 a0211166: 人自己各種幻想 人工智能幻覺一下怎麼了415F 08/10 05:32
推 aja1008: ChatGPT一不小心要變成wingman了!416F 08/10 05:37
推 umgym: 想跟人類一樣話唬爛,ai也想要有人性?418F 08/10 06:11
推 ihsineon: 網路垃圾資訊太多,AI只是個搜集者,中國又淫了420F 08/10 06:24
推 tmdl: 真的會去相信ai 提供的資料的人 本身腦袋就不好
我都只相信黨說的421F 08/10 06:31
推 iammi21: 還停留在Ai=chatgpt? 注定賺不到錢423F 08/10 06:37
推 jboys75: 不會用就不會用。你Google wiki 常常也是一堆垃圾資訊。你會不用這兩個?當然也是作為參考424F 08/10 06:38
推 zaqimon: 人類一樣也會瞎掰說謊啊 有差嗎427F 08/10 07:07
推 YCL13: 把記者寫的文章從訓練資料庫應該會有明顯改進吧
不然這種行為就是很真實存在的呀428F 08/10 07:10
推 uranus99: 說沒關係的那些人知道馬斯克正在推AI版自動駕駛嗎431F 08/10 07:40
推 s203abc: 廢物
優化自己都不會嗎432F 08/10 07:42
→ s203abc: 你會跟一個資訊錯誤講話嗎435F 08/10 07:51
推 xdbx: 我問它當地有什麼景點就破功了
它就只是一個大資料庫 然後亂湊東西給你436F 08/10 07:54
推 kkithh: 問題是它沒有說謊的自覺阿438F 08/10 07:59
→ Casper50: 自己寫文章 讓他幫我改 都改的比教授的好442F 08/10 08:07
推 downtoearth: AI在協助工作上已經可以用了 至少我已經在用了
你可以當作 你在跟一個無限知識儲備的人討論
直到你對你要做的事 能問出正確的問題 或是 得到
靈感443F 08/10 08:10
推 sakungen: ChatGPT 其實就是把查到的資料完全不經查證,用自己的話加以改寫。之前用來問專業問題,出現前後矛盾,或是其實上下兩段在講一樣的事情用不同的方式去講。448F 08/10 08:18
推 dream1124: 這就是為什麼判斷決策類的事情我不愛參考它的資訊452F 08/10 08:19
推 allenJr: 其實那個電子產品不是大大影響人類未來,元宇宙電453F 08/10 08:19
→ sakungen: 預設它會給你完全正確的答案,本來就是人類不負責任的行為。454F 08/10 08:19
→ allenJr: 池電動車超導體或AI,其實都是一直在進行的研究及產出,在題材出來前及冷卻後他們的研發也沒停過,炒股需要題材以及人們會自動幫忙編造還不存在的未來而已456F 08/10 08:19
→ dream1124: 做沒有標準答案的事情時,它或許可以給些靈感
但如果要了解接近事實的真相以決策判斷,那它沒比搜尋引擎好用460F 08/10 08:20
推 downtoearth: 比如我上一次用它來協助工作 是我需要開發一個功能但是我需要統計學方面的知識 問題是 我的統計程度只有20年前大學那三個學分 一開始我連問出正確
問題的程度 都沒有 但是現在那個功能做完了463F 08/10 08:22
推 willy4907: 昨天才問一個空壓管尺寸問題 結果跟我胡說八道一堆 問bard才得到正確答案467F 08/10 08:27
推 aowen: 還好吧 你看妓者發文不也是這樣470F 08/10 08:36
推 Sixigma: 光是能得到認知外的資訊就無價了,不奢求AGI472F 08/10 08:41
噓 GooglePixel: 論文都可以造假了 自己google到的資料也是需要判斷474F 08/10 09:05
推 stosto: 再多的幻覺都比一堆股民正常475F 08/10 09:05
推 Samurai: 不要胡說八道,維基百科不會跟你對話477F 08/10 09:13
推 Eric102990: 我不知道對其他人來講怎麼樣啦 但至少我原本excel很爛 靠問Chat GPT一些網路比較難查到的問題 功能或小技巧 努力學一下就用得很精熟了478F 08/10 09:26
推 SiFox: 應付人類政客說謊,就他媽夠痛苦了...
AI說謊,是打算搞死誰?
會瞎掰說謊,根本不能發展481F 08/10 09:31
→ kairiyu: AI說謊會比人說謊厲害??? 看看媒體XDDDDD486F 08/10 10:22
推 Lhmstu: 還好吧,人類說謊更是出神入化487F 08/10 10:30
→ j198811: 人都會黑白講了你為什麼要全信他488F 08/10 10:30
→ shiyangfoo: gpt真的蠻多資料錯的XD 不信 你試試看問他 陽曆生日的農曆日期是幾號 這個都能報錯我覺得偏離譜489F 08/10 10:37
推 SiFox: AI扯謊跟人學的,而且只會更厲害,因為不用吃喝睡491F 08/10 10:41
推 chichung: app版本跟siri一樣智障亂回話是神在哪492F 08/10 11:07
噓 LarryBird: 早說了 使用者常常分辨不出它是不是在唬爛493F 08/10 11:18
推 ck8861103: 小時候都學過盡信書不如無書 怎麼到了AI卻當聖經呢?495F 08/10 11:32
推 puam4444: 要投入即時權威控制的人工吧496F 08/10 11:32
→ ck8861103: AI只是給你個大方向 驗證還是要靠自己497F 08/10 11:33
推 Vladivostok: 連舌頭味覺分布圖更正不了的世界,AI有幻覺很正常498F 08/10 11:34
推 sharline1013: 這種人早在Ai 出現前就是這樣了吧,工作上看好幾次別人給的資料直接貼就交的499F 08/10 12:12
--