看板 Stock
作者 Player01 (Player2(請投入硬幣))
標題 [新聞] ChatGPT幫律師寫文件 結果一堆假判例
時間 Sun May 28 19:17:31 2023



-------------------------------發文提醒----------------------------------
1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處份。
2.連結過長請善用 https://bit.ly/ 等縮網址服務,連結不能點擊者板規1-2-2處份。
3.心得/評論請盡量充實,心得過短或濫竽充數將以板規 1-2-3、4-4 水桶處份。
4.發文請依照格式文章標明段落,不符合格式者依4-1刪文處分。
------------------------ 按ctrl+y 可刪除以上內容。 ----------------------

原文標題:

※請勿刪減原文標題

ChatGPT幫美國律師寫法庭文件 結果發明一堆假判例

原文連結:

※網址超過一行過長請用縮網址工具

https://ynews.page.link/PDVLX
ChatGPT幫美國律師寫法庭文件 結果發明一堆假判例
[圖]
聊天機器人ChatGPT近半年來爆紅,號稱不久後將能取代一堆文組工作;但科技專家也紛紛警告,ChatGPT可能自行編造內容,成為假新聞來源。美國一名律師在準備法庭文件時就讓ChatGPT來寫,結果引用的6個判例裡,沒有一個是真的,在法院紀錄裡根本找不到這些判例。 ...

 

發布時間:

※請以原文網頁/報紙之發布時間為準

2023年5月28日 週日 上午11:50

記者署名:

※原文無記載者得留空

原文內容:

聊天機器人ChatGPT近半年來爆紅,號稱不久後將能取代一堆文組工作;但科技專家也紛紛警告,ChatGPT可能自行編造內容,成為假新聞來源。美國一名律師在準備法庭文件時就讓ChatGPT來寫,結果引用的6個判例裡,沒有一個是真的,在法院紀錄裡根本找不到這些判例。

《紐約時報》27日報導,美國紐約一家律師事務所的律師史瓦茲(Steven A. Schwartz)協助客戶馬塔((Roberto Mata)打官司。馬塔自稱在2019年8月搭乘哥倫比亞航空公司(Avianca)班機從薩爾瓦多飛往紐約時,被空服員推的推車撞到膝蓋而受傷。事隔多時,他才打算控告航空公司。

曼哈頓法院今年3月駁回本案,稱訴訟時效已過。律師史瓦茲於是提交了一份10頁的文件,引用超過6項判例,包含旅客馬丁尼茲( Martinez)控告達美航空、旅客奇赫曼(Zicherman)控告大韓航空、旅客瓦吉斯(Varghese)告中國南方航空等,針對訴訟時效長篇大論了一番。

看起來很厲害,問題是,沒人找的到這份文件裡引用的判例。航空公司的律師找不到,法官本人也一頭霧水。法院訴訟紀錄上會載明判案的法院、法官、判決書編號和日期,照理說不可能找不到;航空公司委任的律師發現,史瓦茲提供的判例看起來似乎是出自聊天機器人的手筆。

史瓦茲本月25日在宣誓書裡承認,他使用了ChatGPT來準備法律文件。已經在紐約執業30年的他對法官表示,他不是故意要欺騙法庭或航空公司,這是他第一次用ChatGPT來準備開庭資料,先前從沒用過,所以不知道ChatGPT寫的東西「可能是假的」。

例如ChatGPT引用的「奇赫曼訴大韓航空」判例,聲稱是美國第11巡迴上訴法院2008年的判決。美國第11巡迴上訴法院的書記官調查後發現,ChatGPT提供的案卷編號確實存在,但是案件本身完全不相關。ChatGPT又用他編造的大韓航空去驗證另一起「瓦吉斯訴中國南方航空」,結果實際上也是沒這回事。最終,ChatGPT引用的判例裡,有6個是假的。

上當的律師史瓦茲對法官表示,他非常後悔依賴ChatGPT來工作。他甚至還有問ChatGPT說,「你提供的瓦吉斯訴中國南方航空是真的案例嗎?」ChatGPT回答「是的」。

但在史瓦茲進一步追問「你的資料來源是哪裡」時,ChatGPT道歉說,「對於先前的混淆,我深感抱歉」,然後提供了一份法律引證。史瓦茲再問,「你提供的其案例是假的嗎?」ChatGPT堅持:「不,我提供的其他案例都是真實的,可以在有公信力的法律資料庫裡找到。」

史瓦茲律師可能找不到那些判例,但本人可能將要成為新的案例。法官已下令6月8日舉行聽證會,針對律師提交這份充滿假判例的法律文件,討論潛在的制裁措施。

心得/評論:

※必需填寫滿30字,無意義者板規處分
有用chat gpt的人應該會有發現
其實搜尋一些消息會是亂湊的
還有些更誇張直接就是掰出來的資訊
如果沒有特別查證會過度相信他的統整資訊
不知道目前這個問題能不能解決

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.129.232 (臺灣)
※ 作者: Player01 2023-05-28 19:17:31
※ 文章代碼(AID): #1aSpXDDz (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1685272653.A.37D.html
pat1006: 資料庫更新1F 05/28 19:19
springman: 寫得很通順,但正確性需要仔細驗證。2F 05/28 19:20
ho83leo: 笑了,自己要被告。3F 05/28 19:21
mioco: 找不到就自己編一個 被抓包還會先強辯 很人性4F 05/28 19:24
pikaaco: 這種敢用chatgpt幫寫也是很勇5F 05/28 19:24
Kobe5210: 你已經違規超貼新聞了,下次不用那麼興奮一直貼,把時間留給其他事吧6F 05/28 19:24
keyofdejavu: 會狡辯,已經是強AI了,歐印8F 05/28 19:26
apple123773: 居然訓練成蘇東坡了 怕9F 05/28 19:27
zakijudelo: 不要打醒本板的AI炒股夢喔10F 05/28 19:29
JuiFu617: https://i.imgur.com/SN1nwE3.jpg
估計用免費的gpt3.511F 05/28 19:32
[圖]
KadourZiani: 沒差吧修改一下參數就好了別來黑啦13F 05/28 19:32
xuane: 可憐,這位律師提出前根本沒看過書狀吧14F 05/28 19:37
rrroooqqq: 這問題要解決不難吧,只要有專門針對法律去訓練,應該就可以改善很多了15F 05/28 19:37
lianli1024: 用完gpt 在用google選我正解17F 05/28 19:38
permanent27: 之前查專利號也是隨便給,還是要自己檢查過18F 05/28 19:39
ikachann: GPT真的很有自信把一件胡扯的事情說成像真的一樣19F 05/28 19:39
JuiFu617: 這律師通用模型拿去搞專業領域好像誤會了什麼
跟人一樣不懂的也會胡說八道,但是chatgpt比較適合作文整合,不適合直接搜索結果20F 05/28 19:40
Kydland: 為什麼我覺得是這位律師亂掰亂寫一通 然後推給
是chatGPT的錯?23F 05/28 19:41
sazabijiang: 我確定chatGPT會亂掰內容。我虛構兩個人名,問它
誰比較厲害,他還是煞有其事地完成分析。25F 05/28 19:42
JuiFu617: 美國法律很重視判例,但是判例其實到各大法律數據庫搜索會比較完善吧27F 05/28 19:43
pponywong: chatGPT 本來就是文本產生器 你怎麼會認為是真的 XD29F 05/28 19:43
dogfacehoho: 寫的很真但內容不實XD30F 05/28 19:43
jainyoyo: 就網路資訊很多是不正確31F 05/28 19:45
NotGiveUp: 靠chatGPT寫完,自己都不用驗證內容嗎......32F 05/28 19:46
nodnarb1027: 文組浮木33F 05/28 19:46
JuiFu617: 這麼懶的律師文件生成後判例不去餵狗,你覺得他會用付費gpt4嗎?34F 05/28 19:47
steak5566: 文組:看吧 我們還是很重要36F 05/28 19:49
ltflame: 沒有搜尋功能當然只能用掰的,用錯工具怪工具喔37F 05/28 19:51
dos01: 之前就說過好幾次了 這東西就尬聊APP 他會為了跟你尬聊胡扯
自己用還沒什麼事情 但用到商業上 被告死就是活該38F 05/28 19:51
Coffeewater: 騙不懂的87 機器人要先訓練過才能用啊41F 05/28 19:53
mooto: chatGPT是聊天AI 不是工作AI42F 05/28 19:54
saygogo: 這律師很故意  怎麼可能不知道43F 05/28 19:58
bj45566: 這就是我最討厭 ChatGPT 的地方 -- 一本正經的胡說八道44F 05/28 19:58
ganninian: 這律師是腦袋撞到?不怕被disbar?46F 05/28 19:58
mdkn35: 完了 GPT空47F 05/28 20:05
laechan: 我coding mud時最喜歡gpt跟我鬼扯,我就是需要它鬼扯48F 05/28 20:06
Alphaz: 果然越來越像人類 唬爛嘴49F 05/28 20:06
laechan: 要懂得它好用的地方,而且不要誤用它,專業的事問專家50F 05/28 20:06
ccjjea: 我之前查蜘蛛,他編了一堆學名新品種,還跟我說都是真的,真的扯51F 05/28 20:07
huabandd: chatGPT跟GPT 4.0都一樣,連手續費都會算錯
給他算式了算出來答案還能錯,真的無言53F 05/28 20:08
CGDGAD: chatgpt只適合拿來談談心55F 05/28 20:09
clubee: 笑死人 準備開告chatgpt56F 05/28 20:12
koexe: ChatGpt還是需要人去判斷啊57F 05/28 20:14
mooto: 不能說chatgpt只適合尬聊 而是現在生成式AI的訓練方式是封閉的 你餵給他屎當然就給你亂回58F 05/28 20:14
HaHaPoint: 果然是AI 相當人性化 人類的壞習慣也都學會了60F 05/28 20:18
DDDDRR: 人工智慧結果要人類去判斷 現在還剛開始而已呀61F 05/28 20:20
saygogo: chatgpt技能樹目前沒有點在算術,不過這問題不大62F 05/28 20:25
eddiefunnyyy: 假新聞找三明自就好,專家中的專家63F 05/28 20:25
[圖]
bj45566: ChatGPT 就是沒辦法從語境模式順利切換的符號運送模式,這問題很大好嗎65F 05/28 20:26
saygogo: 我估計早晚會去點數學的科技樹的  不難67F 05/28 20:27
ferb: 比小學生還不如!68F 05/28 20:27
TyuzuChou: 有玩chatgpt的應該都知道AI很會唬爛69F 05/28 20:28
sabishikuma: 結果本人成為新的案例XD70F 05/28 20:28
bj45566: 馬上就有人秀出實測圖了 wwww71F 05/28 20:29
welly7566: 鳥72F 05/28 20:30
bj45566: @saygogo:你去查一些 AI 大師級的發言,就會知道這不是點不點數學科技樹的問題73F 05/28 20:30
[圖]
bj45566: 這是現在的 AI 架構和人類大腦基本上的差異76F 05/28 20:31
ferb: 明明他自己答案就有108,然後還說沒有108
我被它搞到以為自己算錯了77F 05/28 20:32
bj45566: @ferb:呵呵呵呵79F 05/28 20:33
necrophagist: 寫完檢查是義務啊 連檢查文獻都要推給ai?80F 05/28 20:35
bj45566: 人腦可以很清楚的辨別自己正在做數字與符號運算,現在的生成式對話 AI 就是不能
*運算81F 05/28 20:36
fakejoker: 這不是廢話嗎84F 05/28 20:39
[圖]
PTTVERTWO: 說4.0 比 3.5 強很多的資訊,會不會也是3.5 唬爛瞎掰的?86F 05/28 20:42
abc12812: 哪位律師敢給ChatGPT寫文件? 不怕洩漏客戶秘密是嗎?88F 05/28 20:45
reyes2222: 就是這樣,明明不知道,也可以胡扯的像真的89F 05/28 20:46
JuiFu617: 為什麼用f大的同問題去問gpt,發現沒有回答很差啊
gpt很明確知道自己是在做數字與符號運算90F 05/28 20:46
bj45566: 這是可以用增加語境的方式訓練出來的
因為 GPT-4 還是會出現給了公式仍然算錯的情況92F 05/28 20:50
silentence: 很認真盡責地講完幹話94F 05/28 20:52
wind2k: 我上次問ChatGPT哪裡有素食吃 給我一堆沒聽過的95F 05/28 20:52
falcon11: 哪來的白痴文組= =96F 05/28 20:53
JuiFu617: 因為gpt不是搜尋用的,你問素食吃根本問錯人97F 05/28 20:54
cutbear123: chatgpt大部分都瞎掰
現在確實是不太實用的狀態 只是未來性可期98F 05/28 20:54
truevines: 這個包是要OpenAI賠,還是簽名的律師賠?262F 05/29 11:26
bettybuy: GPT真的很會唬爛,唬爛王263F 05/29 12:01
zephyr105: 看來又是一場大詐騙了264F 05/29 12:02
champion0922: 褻瀆司法的律師 關一關265F 05/29 12:06
lancelot123: 我用bing GPT在引用資料來源上至少好得多,點開網址都是正確的,只是編文章的內容相較之下弱得多,沒辦法長篇大論266F 05/29 13:55

--
作者 Player01 的最新發文:
點此顯示更多發文記錄