回上層
Disp BBS
看板
C_Chat
作者
gundamx7812
(亞洲空幹王)
標題
[閒聊] 推特:防止AI學習繪師作品的方法
時間
Fri Oct 7 15:17:24 2022
就是在作品圖中加入人類肉眼難以辨識的雜訊
https://i.imgur.com/PBBbNRA.jpg
https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE
Zg&s=19
不過回覆裡也有人說有技術可以克服雜訊問題就是了
延伸閱讀:如何欺騙AI
https://youtu.be/YXy6oX1iNoA
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 182.239.85.157 (香港)
※ 文章代碼(AID): #1ZFzA7bN (C_Chat)
※ 文章網址:
https://www.ptt.cc/bbs/C_Chat/M.1665127047.A.957.html
推
diabolica
: 如何欺騙人類
1F 10/07 15:18
推
D2Diyus
: 這真的比較是在欺負盜圖仔肉眼w
2F 10/07 15:18
→
b2202761
: 就只不過是在抓圖時候多一道刪除雜訊的步驟
3F 10/07 15:19
→
Nuey
: 就多一道工序而已== 哪有差
你不如整張圖都打上馬賽克還比較有用
4F 10/07 15:19
推
holiybo
: 這是不是跟防b站盜片是同一個原理
6F 10/07 15:19
→
aqswde12349
: 這跟加浮水印一樣沒屁用吧,又不是不能去除掉
7F 10/07 15:20
推
hami831904
: 在色圖加入雜訊→古典制約導致性奮與雜訊連結→未來
光看雜訊就可以射
8F 10/07 15:20
推
k960608
: 這就上鎖的概念 總會有拆鎖專家
10F 10/07 15:20
→
Bugquan
: 人眼不能辨別,但是AI勒?
11F 10/07 15:21
→
k960608
: 但是上鎖可以防止很多低等ai也是事實
12F 10/07 15:21
→
mikeneko
: 建議加上防支咒
13F 10/07 15:21
推
joseph93234
: adversarial perturbation
14F 10/07 15:21
→
k960608
: 人眼不能辨識=我可以正常尻 ai會辨識=ai會得到跟我們不一
樣的資訊 這樣有沒有看懂
15F 10/07 15:22
→
pikachu2421
: 實際上根本不同類型的AI 不會有什麼效果
17F 10/07 15:22
→
minoru04
: 跟以前看到鎖碼台雜訊畫面就勃起一樣
18F 10/07 15:23
推
oldriver
: AI看得懂=AI可以把它挑出來去掉 多一道工而已
19F 10/07 15:23
推
phoenix286
: AI在讀樣本時不會做濾波嗎?
20F 10/07 15:24
→
forb9823018
: 單張圖識別物件才有用
21F 10/07 15:24
推
sameber520
: 只有一招 那就是拒絕交流 但肯定不值得
22F 10/07 15:25
推
a43164910
: 有人覺得只有他看得懂欸 笑死
23F 10/07 15:25
推
geniuseric
: 偷放維尼和綠色母狗呢
24F 10/07 15:25
→
lay10521
: 可以做到原圖相似度97%以上 但肉眼看不出來
25F 10/07 15:25
→
moritsune
: 早在讓AI畫圖前這類去雜訊的研究就已經做幾十年了
26F 10/07 15:25
→
LLSGG
: 這史前論文我覺得已經解決了啦
27F 10/07 15:26
→
haha98
: 以前gan紅的時候gradient adversarial 就一堆了
已知用火
28F 10/07 15:27
推
csvt32745
:
https://youtu.be/YjfzJdimPDA?t=333
30F 10/07 15:27
推
vios10009
: 你各位知道為什麼中國轉貼的圖片很多品質差又有雜訊了
吧,那是為了防盜啦
31F 10/07 15:27
推
k0942588
: 這只能防到很低階的model吧
33F 10/07 15:27
→
sameber520
: 以前怎麼防駭客 直接物理分隔系統不連網 同一招
34F 10/07 15:27
推
kinghtt
: 達文西領先業界500年...
35F 10/07 15:27
推
franktpmvu
: 這個是辨識用的模型 跟生成用的模型罩門不一樣 辨識
模型可能因為加一點雜訊就認錯物體 但加了雜訊的熊貓
在生成模型一樣會產生加了雜訊的熊貓
36F 10/07 15:28
→
qxpbyd
:
https://i.imgur.com/VyHLRzb.jpg
抱歉 隨便找就一篇還原
39F 10/07 15:28
推
smart0eddie
: 這種東西換個model就沒屁用了
40F 10/07 15:28
→
k960608
: 沒錯 最強的鎖就是連門都沒有
41F 10/07 15:28
→
qxpbyd
:
https://diffpure.github.io/
42F 10/07 15:28
Diffusion Models for Adversarial Purification
Diffusion Models for Adversarial Purification ...
→
smart0eddie
: 生成有雜訊的熊貓又如何 人眼又看不到
43F 10/07 15:28
→
k960608
: 其實你各位每次輸入的驗證碼就是在幫ai識別啦
44F 10/07 15:29
→
csvt32745
: 生成模型上不知道有沒有用就是XD
45F 10/07 15:29
→
qxpbyd
: 而且那是影響分類問題 不知道對生成模型是有什麼影響
46F 10/07 15:29
推
swear01
: 這個沒用啦 李弘毅前幾天在講transfer learning的時候才
講過這個,那裡的研究原因是訓練出來的AI模型要防盜,結
論卻是在肉眼看不出來的雜訊下,AI因為減少了Overfittin
g反而效果更好
47F 10/07 15:29
→
k960608
: 這我好像十幾年前還在抓免空就聽過了
51F 10/07 15:29
→
Annulene
: 看著蠻搞笑的 已經不知道安怎了..
52F 10/07 15:29
→
haha98
: 你攻擊gan可能還有點機會 但是現在紅的是diffusion
53F 10/07 15:29
推
asd8569741
: SD本身就是建立在去噪的模型,這種防禦方式會有用嗎
54F 10/07 15:30
→
smart0eddie
: diffusion 就是在去雜訊的==
55F 10/07 15:30
→
qxpbyd
: GAN有分類器 擴散模型沒有
56F 10/07 15:30
推
IntelG4560
: Difussion好像就是用加雜訊去雜訊的方式訓練的,懷疑
這個方法有效性
57F 10/07 15:31
→
haha98
: 建議可以先去看幾門開放式課程再來
59F 10/07 15:33
→
milk830122
: 繪師在這方面那比得過真正的工程師 耍小聰明哪有用
60F 10/07 15:34
推
e446582284
: 用AI的方法對抗AI? 腦洞真大,多一道工而已,連遊戲
DRM 都擋不住駭客,你才圖片是要擋什麼
61F 10/07 15:34
→
Mchord
: 這方法完全無效,不用幻想了
63F 10/07 15:34
→
milk830122
: 繪圖軟體也是程式來的
64F 10/07 15:34
→
sameber520
: 不要自以為能在技術上取巧 技術一年可能好幾次大改
65F 10/07 15:34
→
Mchord
: 你如果加了雜訊圖好看那train下去一樣會生出好看的東西
66F 10/07 15:35
→
tim910282
: 那就只好生出產生雜訊的AI了
67F 10/07 15:36
→
sameber520
: 這麼想防 那就是從現在開始都別放圖
68F 10/07 15:36
→
mapulcatt
: 工程師:已知用火
69F 10/07 15:36
推
shadowblade
: 影像處理早就能搞定這種東西了
70F 10/07 15:36
推
chuegou
: 現在主流網站用可見雜訊驗證碼都防不住機器人了 影像辨
識很強大捏
71F 10/07 15:36
→
Bugquan
: 就算不改模型,也只是多一道工,而且除非全加了,不然總
有沒加工的
73F 10/07 15:36
→
Mchord
: 加到整張看不清楚連粉絲都不想看的話,他們也懶得盜你圖
75F 10/07 15:36
推
miyazakisun2
: 那個雜訊還原 已經....
76F 10/07 15:37
→
k960608
: 對 最終就會走向大家都不放圖的境界
77F 10/07 15:37
→
Bugquan
: 不放圖先餓死繪師而已
78F 10/07 15:37
推
mn435
: Ai學老圖就夠本了吧…
79F 10/07 15:38
推
vios10009
: 這個AI本身就是以降噪為基底去練習的,這就像是在國文
考卷上丟一堆幼稚園數學題目,AI看了都會笑
80F 10/07 15:38
→
qxpbyd
: 訓練過程就會加噪了 等於是繪師先幫忙放了一點noise
82F 10/07 15:38
→
alen0303
: 這已經好幾年前的問題了 早就被解決了
83F 10/07 15:38
→
Annulene
: 看著跟當時抖音的情況有點像? 結果應該也差不多 使用
者越來越多的話
84F 10/07 15:38
→
mn435
: 最後ai學ai誰要學繪師
86F 10/07 15:39
推
jasonchangki
: 真正厲害早就去當工程師了哪會繪師
87F 10/07 15:39
推
sameber520
: 但繪師的知名度和商業來源要先從分享開始 所以別想了
88F 10/07 15:39
推
LiangNight
: 越來越好奇未來的發展了
89F 10/07 15:39
→
sameber520
: 工業革命時的手工業者最後還不是得進工廠工作
90F 10/07 15:40
推
twosheep0603
: 這套是騙分類器用的 aka tag污染
對於diffusion來說可以說是毫無作用w
91F 10/07 15:42
推
ringtweety
: AI現在生的圖的等級 其實已經告訴你這雜訊效果不大了
93F 10/07 15:43
推
undeadmask
: 最後就會變成繪師都懶得畫圖 ACG二創市場萎縮 宅宅只
能看AI圖尻尻 大家互相傷害罷了
94F 10/07 15:45
→
qxpbyd
:
https://i.imgur.com/qMV2uoH.jpg
Cold Diffusion那一篇
試過加不同種的noise了
96F 10/07 15:46
推
zeolas
: 看以後會不會變成軍備競賽囉,我反制你的反制之類的
98F 10/07 15:47
推
TentoEtsu
: 好像還滿多人樂見這種互相傷害 笑死 以後大家都沒得看
99F 10/07 15:48
推
a43164910
: 活不到那個以後啦 都沒得看是要發展成怎樣==
100F 10/07 15:49
推
sameber520
: 我倒覺得以後AI會變成繪師工作用IDE的一部份吧
說到底還不是要人下指令 修圖也還是繪師修的好
101F 10/07 15:49
推
Irenicus
: 不放圖就不能當社群偶像了 太苦了
是說有時間想這些有的沒的 不如趕快去研究AI可以怎樣讓
自己的產圖更多更好
103F 10/07 15:51
推
Lhmstu
: 這方法太低階了吧...
106F 10/07 15:52
推
guogu
: 怎麼可能沒得看 如果AI圖夠好看夠有趣 大家看AI圖一樣享樂
如果AI圖千篇一律 沒故事性 那樣人類繪師就會繼續主流
107F 10/07 15:52
→
nisioisin
: 這張圖是數位邏輯還是影像辨識課本跑出來的吧XD
這種程度應該很好分離出來
109F 10/07 15:53
推
Siika
: 真的要防就是完全斷網啦
111F 10/07 15:53
推
guogu
: 真的要防就是畫完送碎紙機 不上傳不出版就不可能被學
112F 10/07 15:56
推
GreenComet
: 都有對抗式訓練了 那比白噪點更能攻擊網路
113F 10/07 15:56
噓
orange0319
: 不就和驗證碼一樣,到後來正常人根本不知道驗證碼那團
歪七扭八文字是啥,但是電腦卻能辨識
114F 10/07 15:56
推
asiaking5566
: 只能讓自己推的愛心數變少而已
116F 10/07 15:57
推
purue
: 去防這個 不如公開模仿資訊讓繪師抽成
117F 10/07 15:57
推
DJYOSHITAKA
: 這超多人在做了吧
118F 10/07 15:57
推
mom213
: 這老方法了 一堆外行仔zzz
119F 10/07 15:58
推
sinnerck1
: 騙分類器的老方法是有什麼用
120F 10/07 16:00
→
mapulcatt
: 畫師都死去大概也沒差 到後來用照片訓練 AI圖互相訓練
121F 10/07 16:01
推
aaaaooo
: 這就第N次工業革命阿 先學會用法的人可以把其他人淘汰掉
122F 10/07 16:01
→
mapulcatt
: 然後再由受眾的反應去決定訓練的反饋就好了
就像當時阿法狗一樣 進化到後來 人類的棋譜反而是累贅
123F 10/07 16:02
推
ringtweety
: 當AI已經能呈現出水準很高的圖 而不是什麼都畫成邪神
125F 10/07 16:05
推
guogu
: 繪師本來就外行人啊 人家是畫圖的不是搞ai的是要多內行
126F 10/07 16:05
推
zeus7668
: 文組想到的方法沒什麼參考意義
127F 10/07 16:05
→
Annulene
: 跟“人類”借圖還要知會一下 這個根本厲害 還難追溯源頭
128F 10/07 16:06
→
ringtweety
: 表示它的理解能力已經不是這種雜訊就可以斷的了
129F 10/07 16:07
推
Aurestor
: 這招是在瞧不起AI嗎
130F 10/07 16:08
推
misclicked
: 我的論文就是做這個的
131F 10/07 16:10
→
akiue
: AI:哈欠。
想到網頁有時會出現,懷疑你是機器人。
132F 10/07 16:17
推
aaronpwyu
: 就跟放符文防中國一樣啊 插入訊息防盜用
134F 10/07 16:27
推
clothg34569
: 這一看就外行人的言論= =
晚點再回一篇好了 這篇只證明了懂AI真的很重要
之後繪師是不是應該要把李宏毅的課程列為必修阿
135F 10/07 16:29
推
dsa888888
: 不要上傳圖片讓它沒得吃
雖然現在的圖庫應該夠了
138F 10/07 16:34
推
jokerjuju
: 這個大概還是停留在剪貼時代的產物
140F 10/07 16:35
推
johnny3
: 一句話 來不及了啦
141F 10/07 16:39
→
Raptors1
: 小干擾就死掉的AI不會被端出來啦
以為工程師的頭髮白掉的?
142F 10/07 16:46
→
junren0183
: 這麼怕就不要貼圖出來就好了==
144F 10/07 16:49
→
Darnatos
: 這沒用...
145F 10/07 17:04
推
xxxyangxxx
: 前面加個濾波器就破解了
146F 10/07 17:13
推
chairfong
: 人類對ai做的事 就像以前大人為小孩裝了第四台鎖碼器
147F 10/07 17:18
推
start928
: 其實加雜訊進去 會讓這個程式更有robust 本來就有這個
技術了 這篇是在反串嗎XD
148F 10/07 17:24
推
Kururu8079
: 笑死,真的是已知用火欸
150F 10/07 17:24
噓
syldsk
: 這個本來就有在研發不是?
151F 10/07 17:30
推
Oxyuranus
: 那就是補一個filter再餵圖而已
152F 10/07 17:36
推
manu5566
: 訓練都會加noise了,你這個反而是幫助他們訓練,
153F 10/07 17:44
--
→
auluu
台灣 10-09 21:47
只有人 才會在意 圖像問題 利益問題