看板 C_Chat作者 openbestbook (吃蘿蔔不吐蘿蔔皮)標題 [討論] AI判案或辯護的時代會到來嗎?時間 Tue Apr 15 22:13:14 2025
跟朋友聊到心靈判官,
故事裡面有個叫希比拉的黑箱系統
不只可以防範犯罪的發生
還可以讓大部份人心甘情願地把自己的人生交給它安排。
當年看到這個設定本來覺得太誇張離奇了
但幾年後看到AI發展起來,能作到的事越來越多。
如果之後法官判案或律師辯護時開始參考AI意見
乃至乾脆跳過人類的判斷,直接由AI判案
現實世界的大家能夠接受嗎?
--
https://pbs.twimg.com/media/GjDLDsOWYAEd5N7.jpg
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 150.117.151.252 (臺灣)
※ 作者: openbestbook 2025-04-15 22:13:14
※ 文章代碼(AID): #1d_cc8PJ (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1744726408.A.653.html
推 arrenwu: 這老問題了 你在問的其實就是 skynet1F 04/15 22:15
推 andy0481: 當權者會放棄審判權交給AI 想想 再想想4F 04/15 22:16
→ reaturn: 司法是個好工具,當然要握在手中6F 04/15 22:17
推 akila08539: 如果AI由當權者掌控就沒問題了阿
表面上民主AI 實際還是由執政者掌握7F 04/15 22:17
→ aaronhkg: AI的信服力不夠啊 如果要靠掌權者授權撐腰又會被批評是上位者的工具9F 04/15 22:18
推 Jimstronger: 想太多,最難處理的永遠不是事,而是人;法律判決就是處理人的問題12F 04/15 22:19
推 arrenwu: 那就要看那AI有多強了 只是這類文章講的AI其實都是skynet14F 04/15 22:19
推 alpho: 我在不少反烏托邦作品裡看過類似的情節15F 04/15 22:20
推 ShiinaKizuki: AI判人死刑 然後告訴犯人這是數據的結果 你覺得犯人會覺得這個AI完全公正嗎?17F 04/15 22:21
推 arrenwu: billy791122: 至少ai不會雙標 <--- 嗯 這我覺得就是你對LLM可能有比較多的假設了19F 04/15 22:23
推 vsepr55: 骰子也不會雙標,還是我們直接1D2021F 04/15 22:23
推 arrenwu: 即便是最一般的 classifier 也就是結果只有 是 or 不是22F 04/15 22:23
→ aaronhkg: 沒辦法雙標的判決其實很危險喔 因為法律還是有量刑問題23F 04/15 22:24
推 ShiinaKizuki: AI要公正那背後就不能有人 背後不能有人 那AI的背後是什麼?一堆數據和計算嗎?那為什麼用數據和計算可以判斷一個人有多好有多壞?24F 04/15 22:24
→ arrenwu: 的那種,除非你完全沒有版本更新,不然一樣可能會有你
看起來像雙標的判定27F 04/15 22:24
推 hanainori: 目前的AI真的不會雙標嗎 更何況它們還不是真正的AI吧29F 04/15 22:24
→ ShiinaKizuki: 反之 如果被害者覺得AI判輕 然後AI告訴被害者 基於犯人的精神狀況或某些原因 依照過去的數據 應該從輕量刑 那被害者會覺得AI公正嗎?
就算AI完全公正 在人看來卻不一定公正 公正這概念本來就是人定的 AI再怎麼公平都沒辦法讓所有人覺得公正30F 04/15 22:26
→ ayubabbit: AI這種到現在還在研究它到底會宮啥小的 有人敢靠它嗎36F 04/15 22:29
→ arrenwu: 要到這篇的程度,就是必須要到「人類已經完全相信這個系37F 04/15 22:29
推 bobby4755: ChatGPT律師 vs Grok檢察官39F 04/15 22:30
→ arrenwu: 統的公正性、不會去質疑他任何結果」
就好比文章中的西比拉這系統,他說是什麼就是什麼40F 04/15 22:30
→ ayubabbit: 當然以台灣現在來說 用AI應該比靠法官來的可信42F 04/15 22:30
→ arrenwu: 你沒有任何抗辯的餘地43F 04/15 22:30
→ kaj1983: AI書記官搞不好有機會45F 04/15 22:31
推 GaoLinHua: (′・ω・`) 說得好像人類法官就很公正似的…46F 04/15 22:31
→ ayubabbit: 現階段也沒人能理解法官到底會說出甚麼瘋話47F 04/15 22:31
→ kaj1983: 要輔助就是要輔助業務量最多最雜的啊48F 04/15 22:31
→ aaronhkg: 你住哪裡就會覺得當地法官沒啥可信度啦49F 04/15 22:31
推 MisuzuXD: 你確定系統不會被人為操縱嗎50F 04/15 22:31
→ kaj1983: 判案這種高級權力怎麼可以給ai做51F 04/15 22:31
→ aaronhkg: 不可能所有人都認同法律判決的 久而久之就會產生不信任52F 04/15 22:32
推 chocoball: 如果突然某次ai升版 判決改變怎麼辦53F 04/15 22:32
→ kaj1983: 現在的世界還是只能讓人類管理人類54F 04/15 22:32
→ MisuzuXD: QED有一集劇情就是在演這個55F 04/15 22:32
推 ShiinaKizuki: 而且以前在大家覺得這不公平的時候 會要求修改法律 那如果換成AI來審判 那我們能不能有說AI判的有問題 應該修改法律的情況發生?如果有 那這AI就不夠公平 如果沒有 那AI就只是不能與時俱進的計算機56F 04/15 22:33
推 arrenwu: @chocoball 使用這種AI判官系統的基本就是所有人都不可以60F 04/15 22:33
→ kaj1983: 因為管理要究責,ai出包你沒辦法究責61F 04/15 22:33
→ arrenwu: 質疑系統判定結果啊 不然就沒辦法用了62F 04/15 22:33
推 ayubabbit: 台灣不是有無上大法官嗎 有問題就交給大法官就好63F 04/15 22:33
→ arrenwu: 問題來了:如果系統結果你不能抗辯 這系統你想用嗎?64F 04/15 22:33
→ bobby4755: 只要有人類的6成滿意度就夠了 月費夠便宜就OK
便宜治百病
然後有錢人可以課金增加勝率 很公平65F 04/15 22:34
推 ShiinaKizuki: 6成滿意度 那如果有6成覺得另外4成該死 那是不是那4成就該死68F 04/15 22:35
推 cactus44: 不可能,因為這樣掌權者就無法操弄司法了70F 04/15 22:36
推 vsepr55: 美國不是才有關稅用AI幫算的
你們就繼續支持這種民智未開的東西==71F 04/15 22:36
推 ayubabbit: 不過這樣的確看出來 有一點不可能 因為律師比較高貴又不是甚麼底層 怎麼可能取代73F 04/15 22:36
→ arrenwu: 律師跟AI工具一點都不衝突就是了75F 04/15 22:37
→ ShiinaKizuki: 如果過半數人同意就能定奪一個人是死是活 那這情況叫多數暴力 而且還不能排除集體失智的情況76F 04/15 22:37
→ aaronhkg: 馬上出現示範 質疑掌權者操弄司法的了
阿如果掌權者選擇用AI 你是不是一樣會懷疑78F 04/15 22:37
→ arrenwu: 或者可以想像一個稍微更接近的:什麼情況下,大家會同意由同一個系統來決定你有沒有罪 而且你沒得解釋的?80F 04/15 22:38
推 vsepr55: 因為課本也會印錯,所以我決定100%相信AI給的知識82F 04/15 22:38
→ arrenwu: 我認真覺得還滿難的就是了83F 04/15 22:39
推 qazw222: 短時間不會,現在的AI沒有自我的判斷基準84F 04/15 22:39
→ arrenwu: 你要一個有「自我判斷基準」的AI也不難啊
只是那基準不見得是你喜歡的而以85F 04/15 22:40
→ qazw222: 現在的問題就是你說的這個基準可以被忽悠過去88F 04/15 22:41
→ arrenwu: 基準甚至可以明確地跟你說:就是算出來的數值超過某門檻89F 04/15 22:41
→ arrenwu: 甚至連怎麼算出這數值 都可以公開在你眼前 讓你驗證91F 04/15 22:42
→ kaj1983: 法律可以被計算出來其實是件很恐怖的事92F 04/15 22:42
推 simdavid: 老話一句「Ai審判眾人,誰來審判Ai?」93F 04/15 22:42
→ qazw222: 現在的AI沒有自己的判斷能力94F 04/15 22:42
→ kaj1983: 聰明的就會想辦法違法到極限邊緣95F 04/15 22:42
→ ShiinaKizuki: 一個AI說要暫時犧牲集體利益 否則未來會過得很慘
那人民是會暴動的96F 04/15 22:43
→ kaj1983: 然後就會發現殺1~2個人還真的不會被判死98F 04/15 22:43
推 arrenwu: 人民因此會暴動那就是AI不能取代法官啊99F 04/15 22:43
推 vsepr55: 你們要知道現在AI最大的功能就是推卸責任
圖是AI生的,是抄襲也別來找我100F 04/15 22:43
→ arrenwu: 你看心靈判官裡面 就算一大堆人數值超標,一般民眾是會覺得「矮額 他們有問題」
另一個問題就是 ShiinaKizuki 提到的,這AI能改版嗎?
能改版的話,如果做出的決定跟以前不一樣 會不會又有人覺得這AI標準有問題了102F 04/15 22:44
推 ShiinaKizuki: 我們來做個假設 如果在一戰過後由AI來管理威瑪共和 然後AI算出還款的政策 要求暫時加重人民的納稅 那當時覺得我們沒有輸的德國人是會乖乖繳稅還是選一個小鬍子把AI幹飛107F 04/15 22:46
→ aaronhkg: 就算不會改版也是會被懷疑啊 這判決是不是掛名AI其實是上位者搞的111F 04/15 22:48
→ ShiinaKizuki: 然後國與國的衝突要怎麼算?一個AI跳出來說某國錯 有罪 那被判有罪的那國會乖乖聽話嗎?113F 04/15 22:48
推 arrenwu: @aaronhkg 你講的那個比較是第一步的信任問題115F 04/15 22:49
推 arrenwu: 國與國衝突這個是強制力的問題 倒不是AI或人的問題了117F 04/15 22:49
推 ShiinaKizuki: 國與國之間有國際法 你讓AI根據國際法來仲裁看看
沒人會聽的118F 04/15 22:50
推 RoChing: 我認為可行而且很快,AI的邏輯推理是真的夠好,會擔心過程是否公正的話大可以要求它一一提出合理的理由來說明,只是AI目前還是容易假造資料,要限定它的資料必須完全來自於固定範圍的證據、餵給它限定的法律條文和判例120F 04/15 22:52
推 ShiinaKizuki: 你把國家的單位換成都市 再換成家庭 最後換成當事者 結果也是一樣 在那當下的人不一定會信服這個AI的判準
首先 合理的說明是什麼 有精神病是不是合理的說明124F 04/15 22:53
→ lovesleep68: 那些作品的假設都是 機器人三原則能正常運行...130F 04/15 22:55
→ aaronhkg: 是啊我的意思就是人性在第一步就會起疑了 哪有差132F 04/15 22:55
→ houjay: 很好啊,你看看現在那些法官有公正嗎?134F 04/15 22:56
推 arrenwu: 哈 所以我才說很多人心中想的就是skynet 而不是現代AI136F 04/15 22:57
→ arrenwu: 就是一個「存在小說中、大家都覺得不可質疑的AI」138F 04/15 22:57
→ ShiinaKizuki: 那就算換成AI來判 並且判出你覺得更公正的結果 那還是會有反方的人覺得那不公正 至少原先給出判決的法官和接受這判決的人會覺得不公正139F 04/15 22:58
推 yueayase: 目前AI解釋法條和引用法條似乎問題不少,我的話不可能相信AI吐出來的結果(因此,律師還是有得生存)142F 04/15 22:59
推 LonyIce: Ai連很客觀的答案都常常出錯,你說呢?146F 04/15 23:01
→ ShiinaKizuki: 判決是要追求公正沒錯 但判決的目的不只有給出公正的結果
它還安撫某些人的情緒和滿足某些道德觀 而那些東西不管怎麼搞都會有人跳腳
AI判決要成立就是你不能因為情緒而不滿 還要拋棄所有道德觀 完全服從AI給出的規則和判罰 就算你覺得那不合乎道德
就現在來說 要讓大家接受某些特殊條件可以減刑都很難了 何況是完全遵守AI給出的規則147F 04/15 23:01
推 ShiinaKizuki: 我們再來想一下一個有趣的假設 如果現在AI強大到能給出公平的判決 且某位醫生可能被判無罪或有罪 那在判下無罪或有罪時 大家可能都接受這個AI的判斷嗎?
我來想一下會有什麼結果 被告說謊 欺騙AI 或 檢調給出假的證據 栽贓好人157F 04/15 23:10
推 arrenwu: @ShiinaKizuki 你那個問題可能要定義一下什麼是"公平"
不然我覺得 「大家都接受」是"公平"這概念的必要條件XD163F 04/15 23:14
推 arrenwu: 或者可能寬鬆一點「變成大部人人都能接受」167F 04/15 23:15
→ BOARAY: 如果說有AI判案就Gta那個PC次世代版本就是了 一堆開過的不給玩168F 04/15 23:15
→ arrenwu: 不過這也不是AI的問題就是了 即便是人類法官裁判還是會170F 04/15 23:15
→ arrenwu: 遇到很多人不滿意的情況172F 04/15 23:15
推 MisuzuXD: 某些人別再期待有個救世主或ai能給你公正無私的方向指引了 你們只會被騙而已173F 04/15 23:16
→ Louis430: 不收賄不恐龍法官 & 不會偏坦辯護人不包疪的律師..誰要175F 04/15 23:16
→ ShiinaKizuki: 有犯罪係數這種東西說不定真能AI來判
如果犯罪係數完全沒有作假或操作的可能性的話
結果心靈判官的人每個都在這上面動手腳 笑死181F 04/15 23:20
推 Nitricacid: 除非AI可以扛責任不然別想了 即時機器的決策比人準但是不準的時候還是必須要有人背鍋的184F 04/15 23:22
→ jaguarroco: 律師使用AI已經有案例了,不過還在輔助階段而已186F 04/15 23:22
→ k798976869: 還可以顯示思考過程給你看 覺得有問題就加限制讓他重想187F 04/15 23:24
推 ShiinaKizuki: 就算AI能給出公平的判決 只要被告和受害者是人 那就肯定會有人覺得判決不公平 他們只是少了一個懷疑的人而已189F 04/15 23:25
推 willytp97121: 辯護還有可能 判案不可能 判決就是要經由人來決定才有意義 不然人類就真的要完蛋了193F 04/15 23:28
推 A98454: 我想說打個比方現在人都用AI學圍棋,往往Ai下的棋人類都看不懂,反之Ai做出一個人類看不懂的判決,那還是相信Ai的判決嗎196F 04/15 23:29
→ ShiinaKizuki: 有欸 想到一塊了
誰不想要一個比人還公正的AI來為自己辯護199F 04/15 23:29
推 kimokimocom: 這篇討論的不就是一個絕對公正唯一真神的AI嗎? 那怎麼可能會有問題呢? 如果判決材料有問題,那就連司法單位都全部用AI,那就絕對不會有問題了。如果誰對判決有疑問那就絕對是提出問題的人有問題。201F 04/15 23:32
→ ShiinaKizuki: 但我覺得總有一天人類能拋掉所有的道德觀 並且不管這法律是否合理 完全相信AI
可是你受害者和被告不可能是AI吧 他們都是可以影響判決的人
而且如果大部分的人覺得有問題怎麼辦?
這時候難道要說大部分的人都錯了?法律就是這麼寫 所以這判決合理 這種說詞能讓大部分的人接受?
如果司法單位是絕對公正的真神 那未來一定會做出違背大部分人意願的判決 因為他們只依照法律辦事 法律只能被大部分的人修改 不可能永遠是大部分人的共識205F 04/15 23:32
推 worshipA: 現在法律有些就已經很反直覺了 之後給AI判決一定會更多反直覺的判決結果 但你能說他錯嗎? 可是依然會有些用直決判斷的民眾覺得判決有問題吧216F 04/15 23:39
推 ShiinaKizuki: 要讓AI成為法官 那最好它是真神 有能力把所有對自己的判決有意見的人都除掉
不然這些人不爽就會要求改法律 最後遲早會發現法律是由前人定的 而這些前人不是AI 只是上個時代的大部分的人219F 04/15 23:41
推 Ashen19: 可以做參考,但不能成為主要224F 04/15 23:43
推 b4824583: ai的資料來源就是現實中的判例,你越不喜歡現實中的判例,他越會這樣判,而你到時候抗議ai的做法,他也不可能會改除非重新訓練,所以到最後還是人的問題226F 04/15 23:44
→ ShiinaKizuki: 如果大家都能接受 那最後的問題就剩下大家能不能接受把所有被告和受害者都換成AI
因為這些被告和受害者與其關係人本身就是導致不公正的泉源 是最該排除的對象
有個故事是一個正常人進到大家都是白癡的世界 最後他覺得自己才是白癡 如果有全知全能去完的AI 那他大概也會被我們搞到以為自己才是白癡
*去完 全善229F 04/15 23:45
推 ShiinaKizuki: 不過AI輔助判決倒是很有可能
法官需要某種可以證明自己很公平的東西
AI正好適合 以後有暴民要搞他 就說我是依AI來判238F 04/15 23:55
--