顯示廣告
隱藏 ✕
※ 本文為 Knuckles 轉寄自 ptt.cc 更新時間: 2023-05-28 23:42:48
看板 Gossiping
作者 ffreakk ()
標題 [新聞] 律師用ChatGPT幫寫訴狀慘了 被抓包引述
時間 Sun May 28 15:22:14 2023


律師用ChatGPT幫寫訴狀慘了 被抓包引述案例「根本是假的」

Ttoday國際新聞 | ETtoday新聞雲

https://www.ettoday.net/news/20230528/2508007.htm#ixzz82zItrTYZ
律師用ChatGPT幫寫訴狀慘了 被抓包引述案例「根本是假的」 | ETtoday國際新聞 | ETtoday新聞雲
[圖]
美國紐約州一名律師提交起訴文件,卻被發現其中引用的6起法律案件「根本不存在」,這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同事面臨紀律處分,將在6月8日召開聽證會。(北美要聞,ChatGPT,法律,官司,律師,AI,人工智慧) ...

 


吳美依/綜合報導

美國紐約州一名律師提交起訴文件,卻被發現其中引用的6起法律案件「根本不存在」,
這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同
事面臨紀律處分,將在6月8日召開聽證會。


BBC、商業內幕等外媒報導,一名男子想對哥倫比亞航空提告人身傷害罪,他在律師事務
所「Levidow, Levidow & Oberman」聘請的法律團隊提交宣誓書,引述多個判例,試圖證
明此案也應該被審理。未料,航空公司的法律團隊卻向法官表示,他們根本找不到其中幾
起案件。


法官卡斯提爾(Judge Castel)在一份命令中寫道,「在提交的案件中,至少6起似乎是
虛假的法律判決,有著虛假的引述及虛假的內部引用。」他直言這是「前所未有的情況」
,並要求原告法律團隊做出解釋。


調查後發現,原告律師洛杜卡(Peter LoDuca)並未參與這次法律研究,而把任務交給從
業逾30年的同事施瓦茨(Steven A Schwartz)。

施瓦茨在聲明中坦承使用ChatGPT尋找類似案例,並且對此感到「非常後悔」,但之前從
未使用AI進行法律研究,未來也不會在缺乏驗證的情況下使用AI「補充」法律文件內容。
他澄清,原告律師洛杜卡確實沒有參與這次案例研究,也不清楚是如何進行的。


根據施瓦茨提供的對話截圖,他反覆詢問幾起「不存在的案例」是否為真,ChatGPT給出
肯定回覆,還稱可以在萬律(Westlaw)及律商聯訊(LexisNexis)等法律資料庫找到。

ChatGPT自2022年11月推出以來,已經累計數百萬人使用,它可用類似人類的自然語言回
答問題,根據指令與要求生成內容,或者模仿特定寫作風格,但人們一直擔憂AI潛在風險
,包括可能散播偏見、假消息及不準確資訊。


備註:
居然不查證也太混
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意
※ 備註請勿張貼三日內新聞(包含連結、標題等)


--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.35.55.69 (臺灣)
※ 作者: ffreakk 2023-05-28 15:22:14
※ 文章代碼(AID): #1aSm4gXi (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1685258538.A.86C.html
james732: ChatGPT會一本正經胡說八道不是常識ㄇ1F 114.136.181.83 台灣 05/28 15:22
JuiFu617: 笑死,這麼懶2F 1.160.7.1 台灣 05/28 15:23
milkBK: 笑死 再不查證啊3F 114.32.18.127 台灣 05/28 15:23
whangkiahao: 上次找文獻差到被弄死4F 101.10.8.65 台灣 05/28 15:23
JuiFu617: 連判例去餵狗也嫌麻煩?5F 1.160.7.1 台灣 05/28 15:23
kaodio: 法律人不能抄錯嗎 奇怪匿6F 114.44.28.20 台灣 05/28 15:23
TackoFall: AI判案那天該到來了7F 211.76.74.210 台灣 05/28 15:23
sobiNOva: 律師也是專門一本正經胡說八道阿XD8F 118.167.92.231 台灣 05/28 15:23
laughingXD: 這樣我也可以當律師了9F 114.136.156.157 台灣 05/28 15:23
ju06080719 
ju06080719: 美國林智堅10F 111.83.175.253 台灣 05/28 15:24
Paulsic: 哈哈GPT胡說八道原來是真的11F 101.137.98.255 台灣 05/28 15:24
devidevi: 竟然有人不知道GPT的案例有可能是掰的12F 49.159.219.21 台灣 05/28 15:24
JuiFu617: 人家訓練是通用模型,又不是法律專用模13F 1.160.7.1 台灣 05/28 15:24
JuiFu617: 型
railman: 目前AI還沒辦法取代人類吧15F 111.71.212.84 台灣 05/28 15:25
laughingXD: 律師:我的客戶被告了 請問該怎麼打贏16F 114.136.156.157 台灣 05/28 15:25
laughingXD:  請給我六個相關案例
JuiFu617: 等到gpt5.0,說不定就可以通過美國律師18F 1.160.7.1 台灣 05/28 15:25
JuiFu617: 考試
metroid0104: 再偷懶啊,都已經省助理費了還不查證20F 61.227.115.218 台灣 05/28 15:26
starwillow: 就說ai想取代律師還早的很21F 106.64.162.78 台灣 05/28 15:26
JuiFu617: https://i.imgur.com/THFZ9mu.jpg22F 1.160.7.1 台灣 05/28 15:27
[圖]
kediflower: 很敢捏,CHAT連法律條文都會找錯惹23F 223.136.78.141 台灣 05/28 15:27
JuiFu617: 可能用到gpt3.5而已24F 1.160.7.1 台灣 05/28 15:27
ryusenming: 改成律師模式就可以了25F 111.243.237.136 台灣 05/28 15:29
JuiFu617: https://i.imgur.com/YeN5rK5.jpg26F 1.160.7.1 台灣 05/28 15:29
[圖]
takamiku: 笑死 你跟我說這是領高報酬的律師27F 118.232.138.60 台灣 05/28 15:31
andy199113 
andy199113: 網路界最大詐騙集團  chatgpt28F 118.167.157.160 台灣 05/28 15:36
gene51604: 欸不是耶 偷懶也是要檢查29F 223.141.135.45 台灣 05/28 15:36
sadmonkey: 會最先被chatgpt取代的是政客跟宗教家30F 114.25.25.217 台灣 05/28 15:37
mokumi: 是輔助不能全信.這傢伙太扯 懶成這樣.31F 1.200.242.78 台灣 05/28 15:42
qwe78971: 律師還用免費版 可憐32F 39.14.40.252 台灣 05/28 15:43
puritylife: ChatGPT會自己生成假資料來引述啊33F 219.71.37.121 台灣 05/28 15:45
andy2011: 一半都假的要再估狗查證34F 101.136.235.214 台灣 05/28 15:47
WJAider: 接下來就是花一堆成本檢驗的時代了35F 118.165.66.226 台灣 05/28 15:48
Colitas: 笑死xdd36F 106.64.184.72 台灣 05/28 15:49
ssccg: ChatGPT是拿來作文,不是拿來找資料,怎麼37F 118.150.124.138 台灣 05/28 15:50
horse2819: 太混了吧 靠北38F 223.138.243.27 台灣 05/28 15:50
ssccg: 還有人搞錯39F 118.150.124.138 台灣 05/28 15:50
signm: chatgpt好像蠻常會這樣的40F 42.77.26.57 台灣 05/28 15:51
riker729: chatgpt只要跟歷史有關 大都假的41F 1.169.209.206 台灣 05/28 15:52
signm: 你要問他第二次他才會跟你講資料是錯的42F 42.77.26.57 台灣 05/28 15:52
riker729: 案例也是歷史 習慣性造假43F 1.169.209.206 台灣 05/28 15:52
dos1019: 真的有夠懶44F 114.137.100.252 台灣 05/28 15:52
cassetoi: 學術論文也一樣,恰姬都給你唬爛拼裝45F 101.136.133.158 台灣 05/28 15:54
signm: 現在gpt根本不能當搜尋結果,常常給錯的還46F 42.77.26.57 台灣 05/28 15:55
signm: 講的一本正經
mrcat: The 掰48F 125.228.40.79 台灣 05/28 15:55
rayjames38: 這真的很失格 要問一下資料是不是真的49F 101.116.172.180 澳大利亞 05/28 15:58
rayjames38: 啊 拿去餵狗發現都找不到不覺得很怪嗎
rayjames38:  最後是ChatGPT 的目標不是找到正確答
rayjames38: 案耶 是回答像人會回答的答案 他完全
rayjames38: 沒搞懂底層邏輯也沒求證精神
payneblue: 人為去除錯都懶XD54F 223.139.107.142 台灣 05/28 15:59
wwwqoo: 哈哈哈55F 223.138.47.38 台灣 05/28 16:00
greenpine: 敢用GPT不復查直接上法院 心臟真大顆56F 1.172.173.70 台灣 05/28 16:01
WunoW: chatgpt分不出真偽 歷史小說太多了他都當真57F 114.36.175.89 台灣 05/28 16:02
WunoW: 之前永樂老師就測過 chatgpt會捏造假歷史
KadourZiani: 不懂就說不懂。還自己亂編。現在AI最59F 106.64.49.25 台灣 05/28 16:03
KadourZiani: 致命就這個缺點而已。修改一下就無敵
KadourZiani: 迪了
WunoW: 不止歷史 chatgpt也不具備數學能力62F 114.36.175.89 台灣 05/28 16:04
WunoW: 很多數學是要"思考" chatgpt沒思考能力
WunoW: 哪天ai有思考能力 不是人類該高興的時候
greenpine: Chat他是聊天功能 不是專業訓練出來的65F 1.172.173.70 台灣 05/28 16:07
reaturn: 專業人士,哈哈66F 220.143.113.222 台灣 05/28 16:10
beartsubaki: 顧客也太慘了 請到這種律師 慘67F 123.194.132.71 台灣 05/28 16:10
KGarnett05: 只能當輔助,連檢查都不檢查68F 106.107.244.92 台灣 05/28 16:14
emissary: 太懶了吧,至少要檢查,chatgpt很會唬爛69F 122.121.214.67 台灣 05/28 16:14
emissary: 每次問都會有不同的答案
KGarnett05: 要訓練命令限制ChatGPT引用來源啊71F 106.107.244.92 台灣 05/28 16:17
KGarnett05: ,強在可以跟他
KGarnett05: 溝通吧
Justinchen: 律師:我就不能用一次Ai寫訴狀嗎?74F 61.223.243.76 台灣 05/28 16:23
rayjames38: 樓上...他會引用不存在的來源...我說75F 101.116.172.180 澳大利亞 05/28 16:24
rayjames38: 的是4不是3.5 自己多玩一下就知道了
rayjames38: ChatGPT 是generate content 不是sear
rayjames38: ch 他從來就不是給你答案
chrisjeremy: ChatGPT就是會把錯誤的資訊講的好像79F 111.240.103.241 台灣 05/28 16:30
HOWyun2648: 我以為一般都是問過,自己再去查證80F 114.136.198.177 台灣 05/28 16:30
chrisjeremy: 真的一樣 使用的人本身必須要確認它81F 111.240.103.241 台灣 05/28 16:30
chrisjeremy: 給出的答案 不然就會像這個例子一樣
chrisjeremy: 出大包
diyaworld 
diyaworld: https://i.imgur.com/zRfW7sE.jpg84F 1.200.244.185 台灣 05/28 16:31
masala: 會相信chatGPT的也是個北七85F 114.137.100.106 台灣 05/28 16:34
susanmm: 泡沫要破了86F 223.140.251.43 台灣 05/28 16:35
masala: 上次叫它查文獻就錯誤一堆了87F 114.137.100.106 台灣 05/28 16:35
cheng399: 叫他列出台灣有名漫畫家 給我陳冠希,沒88F 122.2.72.36 菲律賓 05/28 16:45
cheng399: 列出朱德庸,之後我再也不敢信他了
viwa77068194: 陳冠希也太好笑了吧90F 180.217.214.98 台灣 05/28 16:46
koexe: 天才啊91F 111.254.248.52 台灣 05/28 16:48
garcia: 告不贏馬英九的塔綠師可以用看看吧92F 1.170.129.234 台灣 05/28 16:48
tkc7: 潤飾文字還行 扯上事實根本是屎93F 114.45.9.241 台灣 05/28 16:49
cheng399: 然後問他台灣是不是沒有漫畫產業,死嘴94F 122.2.72.36 菲律賓 05/28 16:50
cheng399: 硬不肯承認台灣沒有漫畫產業,却又偏偏
cheng399: 舉不出有名的漫畫家,舉出來的如尾田 陳
cheng399: 某
dann255181: 笑死 自己的作業自己寫98F 101.136.42.153 台灣 05/28 16:51
cheng399: 我糾正他都快崩潰了,糾正有十次多,最99F 122.2.72.36 菲律賓 05/28 16:53
cheng399: 後我放棄並學到,絕對不能問他小眾,資
ilovebig99: 平價律師對決奢華律師101F 223.141.199.41 台灣 05/28 16:55
srxteam0935: 把胡亂鬼扯的AI當搜尋軟體 根本北七102F 114.136.171.246 台灣 05/28 16:56
srxteam0935: 這種智商還是律師
cheng399: 資料不足的區塊,他絕對會把別的東西兜104F 122.2.72.36 菲律賓 05/28 16:58
cheng399: 過來振振有詞地寫給你
ASEVE: gpt會一本正經的瞎唬爛XD106F 114.32.115.188 台灣 05/28 16:59
oyaji5566: AI一堆唬爛但不重要,股價會漲就好107F 218.172.32.242 台灣 05/28 17:01
emissary: 其實它也只是個語言模型,就別為難它了108F 122.121.214.67 台灣 05/28 17:02
srxteam0935: 還問AI案例是不是正確的 那是隨意生109F 114.136.171.246 台灣 05/28 17:04
srxteam0935: 成文章的AI不是他媽天網
mind324: 通你媽 論文都亂掰111F 118.166.214.185 台灣 05/28 17:04
vanprasth: 要取代律師要自己丟案例去訓練一套吧112F 220.132.55.7 台灣 05/28 17:04
mind324: AI就是智障等級113F 118.166.214.185 台灣 05/28 17:04
vanprasth: 用網上資料訓練出來的當然亂扯114F 220.132.55.7 台灣 05/28 17:05
kilhi: 只有不會用的人115F 101.12.22.84 台灣 05/28 17:07
jewish123: 可悲文組116F 111.255.60.54 台灣 05/28 17:12
kris4588: 不檢查也太扯了117F 223.138.37.99 台灣 05/28 17:12
qa1122z: XD118F 111.83.95.134 台灣 05/28 17:33
reil: AI界的塔綠斑,吹牛嘴砲精通119F 1.162.70.85 台灣 05/28 17:40
tiros: 所以我要問啥都加個但書:不知道就說不知道120F 123.194.176.196 台灣 05/28 17:44
Turas: 也太懶121F 1.200.9.178 台灣 05/28 17:51
Zumi: 用了居然不查證也是挺猛的122F 39.15.64.147 台灣 05/28 17:53
psychicaler: 引用部分為何不靠自己google= =123F 1.160.144.87 台灣 05/28 17:58
ll6a: 白癡ChatGPT超愛杜撰的124F 27.242.165.69 台灣 05/28 18:02
ll6a: 上次讓他推薦某領域的書籍十本裡八本都是憑
ll6a: 空捏造
Everforest: AI造浪者  造浪失敗127F 114.45.198.136 台灣 05/28 18:03
swordmr20: 你問他某某地方有什麼好玩的他也會亂128F 114.137.210.207 台灣 05/28 18:11
swordmr20: 掰景點
FiveSix911: 智障130F 27.53.99.186 台灣 05/28 18:12
myyalga: 就跟你說gpt 是一個唬爛嘴^_^131F 27.51.142.127 台灣 05/28 18:14
gerry11107: 太瞎了吧132F 49.216.166.63 台灣 05/28 18:15
M80M80: 超靠北 之前gpt推薦我的文獻也都假的133F 61.227.7.30 台灣 05/28 18:33
hotrain13: 用gpt4 會比較準,然後記得查證啊...134F 111.185.90.46 台灣 05/28 18:35
phxcon: 律師不知道chatgpt的原理亂用135F 180.217.12.10 台灣 05/28 18:37
VVinSaber: 不查證太白癡..136F 101.9.50.182 台灣 05/28 18:37
liocorno: ChatGPT用於詐騙最適合了137F 111.248.167.17 台灣 05/28 18:46
Addidas: 目前此AI最大缺點就是會一本正經的說謊138F 150.117.226.131 台灣 05/28 19:07
Peter521: 蘇軾:這個我懂139F 101.12.26.48 台灣 05/28 19:24
brucefang: 綠師最佳寫照140F 1.163.19.149 台灣 05/28 19:26
cat5672: 早就說這是最適合用來飽和式造謠的工具141F 118.167.202.170 台灣 05/28 19:29
lee988325: 也太混了吧 連檢查都不做142F 114.137.138.193 台灣 05/28 19:39
huabandd: 笑死,北七143F 101.137.175.231 台灣 05/28 19:57
minipc: 都說是chat了144F 1.200.27.227 台灣 05/28 20:08
solarem: 北七 都沒在查證145F 114.136.110.69 台灣 05/28 20:35
PTTVERTWO: 說4.0比3.5強是不是也是3.5唬爛的?146F 1.200.58.255 台灣 05/28 20:40
guanting886: 如果你想要做到快速回應使用者的留147F 42.74.10.219 台灣 05/28 21:24
guanting886: 言 你模型勢必需要捨棄一些東西才能
guanting886: 快速處理
guanting886: 4.0的確在理解上跟回應上都優於3.5
guanting886:  但是你要拿他寫的東西去應付真實問
guanting886: 題 這律師就是偷懶照抄活該啊
guanting886: Ai的回應具有一定的隨機性,就好比
guanting886: 一個人唸了非常多的書,你要他突然
guanting886: 回應你一個問題他也是從記憶片段湊
guanting886: 出大概的答案交給你去參考
guanting886: 回應不會百分之百真實
gg86300: 還敢懶啊158F 101.9.38.140 台灣 05/28 21:56
masala: 這就是吹捧出來的產物,根本不堪正式使用159F 114.137.100.106 台灣 05/28 22:57
mirce: AI本體就是胡扯起頭160F 223.137.107.121 台灣 05/28 23:20

--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 1254 
作者 ffreakk 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
api 轉錄至看板 Anonymous (使用複製) 時間:2023-05-28 17:23:38
1樓 時間: 2023-05-28 18:27:30 (比利時)
  05-28 18:27 BE
一本正經胡說八道
2樓 時間: 2023-05-28 18:39:14 (台灣)
  05-28 18:39 TW
這不是大家都知道現在的 AI 會一本正經胡說八道。查證能力才是重點。
說白了,AI 只是幫你整理資料,至於真假要自己查證。
只是把蒐集資料的時間改成查證資料的時間,結論是直接找可信的資料來源去問不是比較快。
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇