看板 C_Chat作者 openbestbook (吃蘿蔔不吐蘿蔔皮)標題 [討論] AI判案或辯護的時代會到來嗎?時間 Tue Apr 15 22:13:14 2025
跟朋友聊到心靈判官,
故事裡面有個叫希比拉的黑箱系統
不只可以防範犯罪的發生
還可以讓大部份人心甘情願地把自己的人生交給它安排。
當年看到這個設定本來覺得太誇張離奇了
但幾年後看到AI發展起來,能作到的事越來越多。
如果之後法官判案或律師辯護時開始參考AI意見
乃至乾脆跳過人類的判斷,直接由AI判案
現實世界的大家能夠接受嗎?
--
https://pbs.twimg.com/media/GjDLDsOWYAEd5N7.jpg
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 150.117.151.252 (臺灣)
※ 作者: openbestbook 2025-04-15 22:13:14
※ 文章代碼(AID): #1d_cc8PJ (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1744726408.A.653.html
推 arrenwu: 這老問題了 你在問的其實就是 skynet1F 04/15 22:15
推 andy0481: 當權者會放棄審判權交給AI 想想 再想想4F 04/15 22:16
→ reaturn: 司法是個好工具,當然要握在手中6F 04/15 22:17
推 akila08539: 如果AI由當權者掌控就沒問題了阿
表面上民主AI 實際還是由執政者掌握7F 04/15 22:17
→ aaronhkg: AI的信服力不夠啊 如果要靠掌權者授權撐腰又會被批評是上位者的工具9F 04/15 22:18
推 Jimstronger: 想太多,最難處理的永遠不是事,而是人;法律判決就是處理人的問題12F 04/15 22:19
推 arrenwu: 那就要看那AI有多強了 只是這類文章講的AI其實都是skynet14F 04/15 22:19
推 alpho: 我在不少反烏托邦作品裡看過類似的情節15F 04/15 22:20
推 ShiinaKizuki: AI判人死刑 然後告訴犯人這是數據的結果 你覺得犯人會覺得這個AI完全公正嗎?17F 04/15 22:21
推 arrenwu: billy791122: 至少ai不會雙標 <--- 嗯 這我覺得就是你對LLM可能有比較多的假設了19F 04/15 22:23
推 vsepr55: 骰子也不會雙標,還是我們直接1D2021F 04/15 22:23
推 arrenwu: 即便是最一般的 classifier 也就是結果只有 是 or 不是22F 04/15 22:23
→ aaronhkg: 沒辦法雙標的判決其實很危險喔 因為法律還是有量刑問題23F 04/15 22:24
推 ShiinaKizuki: AI要公正那背後就不能有人 背後不能有人 那AI的背後是什麼?一堆數據和計算嗎?那為什麼用數據和計算可以判斷一個人有多好有多壞?24F 04/15 22:24
→ arrenwu: 的那種,除非你完全沒有版本更新,不然一樣可能會有你
看起來像雙標的判定27F 04/15 22:24
推 hanainori: 目前的AI真的不會雙標嗎 更何況它們還不是真正的AI吧29F 04/15 22:24
→ ShiinaKizuki: 反之 如果被害者覺得AI判輕 然後AI告訴被害者 基於犯人的精神狀況或某些原因 依照過去的數據 應該從輕量刑 那被害者會覺得AI公正嗎?
就算AI完全公正 在人看來卻不一定公正 公正這概念本來就是人定的 AI再怎麼公平都沒辦法讓所有人覺得公正30F 04/15 22:26
→ ayubabbit: AI這種到現在還在研究它到底會宮啥小的 有人敢靠它嗎36F 04/15 22:29
→ arrenwu: 要到這篇的程度,就是必須要到「人類已經完全相信這個系37F 04/15 22:29
推 bobby4755: ChatGPT律師 vs Grok檢察官39F 04/15 22:30
→ arrenwu: 統的公正性、不會去質疑他任何結果」
就好比文章中的西比拉這系統,他說是什麼就是什麼40F 04/15 22:30
→ ayubabbit: 當然以台灣現在來說 用AI應該比靠法官來的可信42F 04/15 22:30
→ arrenwu: 你沒有任何抗辯的餘地43F 04/15 22:30
→ kaj1983: AI書記官搞不好有機會45F 04/15 22:31
推 GaoLinHua: (′・ω・`) 說得好像人類法官就很公正似的…46F 04/15 22:31
→ ayubabbit: 現階段也沒人能理解法官到底會說出甚麼瘋話47F 04/15 22:31
→ kaj1983: 要輔助就是要輔助業務量最多最雜的啊48F 04/15 22:31
→ aaronhkg: 你住哪裡就會覺得當地法官沒啥可信度啦49F 04/15 22:31
推 MisuzuXD: 你確定系統不會被人為操縱嗎50F 04/15 22:31
→ kaj1983: 判案這種高級權力怎麼可以給ai做51F 04/15 22:31
→ aaronhkg: 不可能所有人都認同法律判決的 久而久之就會產生不信任52F 04/15 22:32
推 chocoball: 如果突然某次ai升版 判決改變怎麼辦53F 04/15 22:32
→ kaj1983: 現在的世界還是只能讓人類管理人類54F 04/15 22:32
→ MisuzuXD: QED有一集劇情就是在演這個55F 04/15 22:32
推 ShiinaKizuki: 而且以前在大家覺得這不公平的時候 會要求修改法律 那如果換成AI來審判 那我們能不能有說AI判的有問題 應該修改法律的情況發生?如果有 那這AI就不夠公平 如果沒有 那AI就只是不能與時俱進的計算機56F 04/15 22:33
推 arrenwu: @chocoball 使用這種AI判官系統的基本就是所有人都不可以60F 04/15 22:33
→ kaj1983: 因為管理要究責,ai出包你沒辦法究責61F 04/15 22:33
→ arrenwu: 質疑系統判定結果啊 不然就沒辦法用了62F 04/15 22:33
推 ayubabbit: 台灣不是有無上大法官嗎 有問題就交給大法官就好63F 04/15 22:33
→ arrenwu: 問題來了:如果系統結果你不能抗辯 這系統你想用嗎?64F 04/15 22:33
→ bobby4755: 只要有人類的6成滿意度就夠了 月費夠便宜就OK
便宜治百病
然後有錢人可以課金增加勝率 很公平65F 04/15 22:34
推 ShiinaKizuki: 6成滿意度 那如果有6成覺得另外4成該死 那是不是那4成就該死68F 04/15 22:35
推 cactus44: 不可能,因為這樣掌權者就無法操弄司法了70F 04/15 22:36
推 vsepr55: 美國不是才有關稅用AI幫算的
你們就繼續支持這種民智未開的東西==71F 04/15 22:36
推 ayubabbit: 不過這樣的確看出來 有一點不可能 因為律師比較高貴又不是甚麼底層 怎麼可能取代73F 04/15 22:36
→ arrenwu: 律師跟AI工具一點都不衝突就是了75F 04/15 22:37
→ ShiinaKizuki: 如果過半數人同意就能定奪一個人是死是活 那這情況叫多數暴力 而且還不能排除集體失智的情況76F 04/15 22:37
→ aaronhkg: 馬上出現示範 質疑掌權者操弄司法的了
阿如果掌權者選擇用AI 你是不是一樣會懷疑78F 04/15 22:37
→ arrenwu: 或者可以想像一個稍微更接近的:什麼情況下,大家會同意由同一個系統來決定你有沒有罪 而且你沒得解釋的?80F 04/15 22:38
推 vsepr55: 因為課本也會印錯,所以我決定100%相信AI給的知識82F 04/15 22:38
→ arrenwu: 我認真覺得還滿難的就是了83F 04/15 22:39
推 qazw222: 短時間不會,現在的AI沒有自我的判斷基準84F 04/15 22:39
→ arrenwu: 你要一個有「自我判斷基準」的AI也不難啊
只是那基準不見得是你喜歡的而以85F 04/15 22:40
→ qazw222: 現在的問題就是你說的這個基準可以被忽悠過去88F 04/15 22:41
→ arrenwu: 基準甚至可以明確地跟你說:就是算出來的數值超過某門檻89F 04/15 22:41
→ arrenwu: 甚至連怎麼算出這數值 都可以公開在你眼前 讓你驗證91F 04/15 22:42
→ kaj1983: 法律可以被計算出來其實是件很恐怖的事92F 04/15 22:42
推 simdavid: 老話一句「Ai審判眾人,誰來審判Ai?」93F 04/15 22:42
→ qazw222: 現在的AI沒有自己的判斷能力94F 04/15 22:42
→ kaj1983: 聰明的就會想辦法違法到極限邊緣95F 04/15 22:42
→ ShiinaKizuki: 一個AI說要暫時犧牲集體利益 否則未來會過得很慘
那人民是會暴動的96F 04/15 22:43
→ kaj1983: 然後就會發現殺1~2個人還真的不會被判死98F 04/15 22:43
推 arrenwu: 人民因此會暴動那就是AI不能取代法官啊99F 04/15 22:43
→ ShiinaKizuki: 如果大家都能接受 那最後的問題就剩下大家能不能接受把所有被告和受害者都換成AI
因為這些被告和受害者與其關係人本身就是導致不公正的泉源 是最該排除的對象
有個故事是一個正常人進到大家都是白癡的世界 最後他覺得自己才是白癡 如果有全知全能去完的AI 那他大概也會被我們搞到以為自己才是白癡
*去完 全善229F 04/15 23:45
推 ShiinaKizuki: 不過AI輔助判決倒是很有可能
法官需要某種可以證明自己很公平的東西
AI正好適合 以後有暴民要搞他 就說我是依AI來判238F 04/15 23:55
--