看板 C_Chat
作者 Satoman (沙陀曼)
標題 Re: [問題] AI 風格怎麼了嗎?為什麼容易膩?
時間 Mon Nov  4 23:07:05 2024


※ 引述《lcomicer (冷水青蛙鍋)》之銘言:
: 可能大多套用相同模型去跑是其一

SaberMyWifi: 新手調的AI幾乎都預設出來的不耐看,高手調的就很棒11/03 10:21
uohZemllac: 因為有在認真專研做出變化的的ai繪師少之又少
一堆一看就是直接用sd洗版的能不膩ㄇ11/03 10:25


其實和大家想的剛好相反,
那些「看起來很膩」的AI圖其實才是許多不同的模型分別生出來的。

而所謂「風格比較多變」、「不是預設畫風」的AI圖,
生那些圖的人搞不好換模型的頻率還沒「看起來很膩」的多。





首先要說明一件事,除非你用的是線上生成網站如midjourney,
否則大家用的大多都是SD stable diffusion,或是其模型或技術本身的衍生產物。




另外,AI沒有預設的畫風或模型。

真的要講預設,如果你用的工具是最入門的automatic1111 webui懶人安裝包的話,
他的確是會預設幫你下載一個模型叫SD15NewVAEpruned


但假設我想用這個模型生一個穿著洋裝的少女走在海邊的日式ACG風格圖片,
那這個模型生出來的東西可能長這樣:
https://iili.io/2xCWcNe.png
[圖]

或這樣:
https://iili.io/2xCW6JI.png
[圖]


上下取決於你要用咒文式提詞或自然語言提詞,但結果都是不可名狀之物。




這其實就是早期被認為能實用的圖片生成模型stable diffusion1.5

基本上,陽春版的stable diffusion1.5並沒有針對日式ACG風格訓練,
因此生成不可名狀之物是注定的結果。


第一個嘗試讓AI學習ACG畫風,模型基於SD訓練的是Waifu Diffusion
早期的WD生出來的圖片大概是長這樣:
https://iili.io/2xCvzxI.png
[圖]



另一方面,原本主打線上AI小說生成的網站novelai則是以SD為基底訓練,
推出了在宅圖生成方面相當卓越的線上生圖服務。

novelai生成的圖片大概長這樣(有沒有開始膩了)
https://iili.io/2xCStln.png
[圖]


novelai不知道是公司內部本身的愛好,還是基於市場策略,
在當時主流都在研究真人圖片或照片的時候,他們主打宅圖這招算是確立了市場獨特性。


至於他們成功的秘訣其實也很粗暴簡單,
就是直接把網路上最大的宅圖盜圖網站當訓練集給AI學習。




而無心插柳柳橙汁,他們在訓練時把網站的分類tag也一起讓AI學了,
這讓novelai的模型對於標籤式的提詞有相當的理解能力,
取代自然語言的「咒文」也開始流行。
(附帶一提,最新的Flux模型主打自然語言,但是那個自然語言有時候寫起來更像咒文 ==)



如果你提詞打得夠全,那它甚至能生出某些在訓練集中佔比較高的熱門角色,像這樣:
https://iili.io/2xCs3Is.png
[圖]


這件事的爭議其實很大,畢竟它訓練集來源是盜圖網站,而它也沒經過對方允許,
等於是盜上加盜。





然後呢,相當戲劇性的,novelai的模型某一天就突然被人幹出來了。
這個外洩的模型一般通稱為NAI,很快就被各路人馬抓來進行各種調整訓練。

事實上,前年至去年的ACG風格的AI圖可能有九成以上都是基於NAI的衍伸產物。
再加上微調模型Lora解決了AI無法生成冷門和新角色的短版,
AI群魔亂舞的時代時代也隨之開啟。


這時代的模型生成的圖片大致上長這樣,像是熱門模型hassaku
https://iili.io/2xCyl3b.png
[圖]
(這張圖應該最膩,沒錯吧?)


同樣也很熱門,眩光效果突出的Cetus-Mix則是長這樣:
https://iili.io/2xnd6b4.png
[圖]
(應該也很膩吧,這模型是當時很多推特AI仔的首選)


又或是我認為最傑出,擅長把背景搞得異常豐富(雜亂)的agelesnate
https://iili.io/2xn95RR.png
[圖]
(這張應該沒那麼膩,因為這模型比較沒有名氣)  


各位仔細瞧的話應該會發現,這三張圖片乍看之下畫風不同,
但是其實都可以看出來是原始NAI的衍伸產物。




SD1.5由於設備需求較低,當時的AI仔社群比現在活躍許多,
很多人用自家顯卡,以NAI為底搞出各種不同的混合模型。

但由於原始模型SD1.5的上限,當時的AI圖除非加上風格強烈的畫風lora,
否則都很難完全脫出NAI的既成風格。


所以那個時代的圖片大家看得最膩,但實際上模型種類卻是最多的。





至今SD1.5還是有不少使用者,因為它需求的設備較低,能用4GB的顯存勉強跑。
另外也有不少人是覺得SD1.5選擇多、變化多,
或是單純喜歡這種風格因此留在1.5時代。






下個時代則是stable diffusion XL的時代,簡稱SDXL


stable diffusion的母公司在stable diffusion 2遭遇了滑鐵盧等級的慘敗,
SD2相比SD1.5並沒有顯著的成果提升,而且還刪除了色情圖片的生成能力。

沒有色情的開源模型價值可想而知的是低到不行,結果當然是直接被大多數AI仔蛋雕。
雖然他們有搞個SD2.1補救,但為時已晚。




之後推出的SDXL則是一開始沒在AI宅圖圈引起太多波瀾,
但是數個月後隨後基於SDXL調整訓練的模型則是徹底改變了AI仔的生態。



第一個是Pony,這也算是一個無心插柳柳橙汁的模型。

如同名稱,Pony主要的學習目標是彩虹小馬,
但是最終的成果是則是一個泛用性高,在各方面都有及格水準的模型。

原始的Pony生成的結果較接近歐美審美,最熱門的衍伸模型AutismMix生成結果則是這樣:
https://iili.io/2xord8X.png
[圖]

這結果一路看下來應該很多人會覺得人物立像沒有進度,可能還退步了。




是的,Pony系的模型的缺點不少。
最明顯的就是整體生成結果偏暗,用色偏髒。

另外由於訓練流程中出錯,pony在生圖時必須打上審美分級標籤作為提詞和負面提詞,
這點也讓部分使用者頗為詬病。

最麻煩的一點則是Pony的Lora必須為它專屬,不僅是以前SD1.5不通用,
連其他以SDXL為基底的LORA也無法完全適用於Pony模型。




但是以下這張圖可以清楚地告知為何缺點雖多,它仍成為目前最流行的開源宅圖模型。
https://iili.io/2xobwFa.png
[圖]


對,Pony系模型對於提詞的理解遠高於過往的SD1.5、NAI模型。
特別是在「多人互動」方面,坦白講就是:「色圖」


基於SDXL的Pony本身對於提詞的理解力遠高於SD1.5數倍,
像上面那張圖片在SD1.5時代抽了亂數幾百張,掛了好幾個外掛尿袋,
用inpaint塗塗抹抹了大半天可能都不一定生不出來。


但是在Pony時代,這類圖片卻只要不到一分鐘的時間輸入提詞,
並且調整一下分區外掛就能快速生成,節省的時間可能有數百倍之多。

這張綾波零明日香我甚至沒有抽亂數,是直接拿第一張生成的圖片。


Pony出現的時機也和最大的AI模型網站civitai開始線上生成服務相應,
civitai對於Pony的推廣在當時也算是不遺餘力,促成了現今Pony一統天下的局面。




另外一個熱門模型則是Animagine XL,其生成的圖片如下:
https://iili.io/2xzlDwg.png
[圖]

平心而論,個人覺得Animagine XL生的圖其實比pony好看,
它的Lora能與其他SDXL模型互通也是其優勢。


Animagine XL和pony孰優孰劣其實一直是AI仔的熱門論戰。

不少幫Animagine抱屈的人會覺得它只是敗在Pony的色圖攻勢,
反方也有人認為Pony並不是真的只靠色圖,而是單純在理解提詞方面勝出。

總之,這個模型也是有其愛好者。
雖然在色圖方面較為不足,但是在非多人運動圖片,特別是單人角色圖方面有其優勢所在。






那就回到開頭了,那些「風格比較多變」的AI仔用的模型最有可能是什麼呢?
是Pony還是Animagine XL?

答案是:復仇歸來的novelai的SDXL新模型novelai3,俗稱NAI3



平心而論,在色圖方面NAI3仍是略遜Pony一籌,但是它有自己的三個獨特優勢:

1.認識的角色多且完成度高,特別是當時的熱門手遊角色如:檔案、馬娘或原神。
2.認識的畫師畫風多且再現率極高。

3.擅長把以上兩者混合。


以檔案角色舉例來講,大概就這樣:
https://iili.io/2xTBG0G.png
[圖]


然後1+2玩久了之後,就有人開始嘗試2+2,也就是將不同的畫師風格混合,
甚至是1+2+2。

一樣以檔案角色舉例來講,大概就這樣:
https://iili.io/2xTNGt4.png
[圖]

或這樣:
https://iili.io/2xTSnSI.png
[圖]

又或者這樣:
https://iili.io/2xTPTD7.png
[圖]



是的,大部分的AI仔達成「風格比較多變」這個前提其實不是他們自己有練模型,
也不是他們經常換模型。

而是他們使用的模型本身就能以提詞去拼、去疊、去組合、去接龍,
以不同畫師的畫風組合達成風格多變,甚至是「沒有AI味的效果」。

要達成這種效果,其實也就是在提詞寫上角色名字+畫師名字+畫師名字一直往下疊。





單以圖片生成來講,這有很難嗎?

一開始接觸如果你平常沒在追畫師可能確實有點難度,
但是熟了,或者從別人那邊要到提詞,單純疊畫師也是幾分鐘內的事情。




以現在來講,由於SD1.5和Pony都是以清潔的線條與均勻上色的風格為主。

所以AI仔在疊畫師通常會選擇那些線條筆觸強烈(或者相反沒什麼線條),
上色色塊明顯,但是臉部特色又沒有太獨特的畫風為主。


甚至有些人為了加強筆觸,會把以前通常放在負面提詞的sketch(素描)拉到正面提詞。





最衰,最常被拿來疊的大概就以下幾位:

TrNyteal(我感覺幾乎每張都有他 ==)
藤ちょこ、にんげんまめ、rei_17、DSマイル、ヒトこもる等等。


然後疊完可能還會再追加幾個畫風比較強烈的來修補。

例如覺得圖片太平沒立體和光影就疊個as109、
不夠美少女畫風就疊個YD試試、想要偏寫實一點就疊個wlop、
想要特別一點的風格就加上ratatatat74等等。

對了,有些畫師的名字建議別在公開場合估狗,社會性死亡機率很高 ==



所以真的是風格多變就是所謂的「用心的咒術師」嗎,也不一定,
在電腦前的他其實搞不好其實只是一直在玩畫風疊疊樂,然後拉長圖片放出時間而已。

甚至我都在懷疑某些說自己有加筆的根本沒加,
不然就是只修最容易看出破綻的眼睛和手。






至於之後嗎?
novelai我記得很久以前就說在弄NAI4了,只不過目前還沒消息。


開源部分,
其實Kohaku(這位是台灣高材生)在今年初弄出來的模型Kohaku-XL系列,
在角色認知和疊畫風方面已經可以有和NAI3互角的本錢。

只可惜他本人似乎沒有足夠的設備($$)提供算力讓模型精益求精。

我手上的Kohaku-XL Epsilon用疊疊樂生圖的結果大概長這樣:
https://iili.io/2xAUJJp.png
[圖]





前月推出的開源模型Illustrious XL則是以Kohaku-XL為基礎,
而它本身和衍伸的各模型實質上已經在各方面超越了Pony和NAI3。


寫到這邊我懶得再切模型讀取了,直接貼今天和前幾天測試的疊疊樂 ==

https://iili.io/2xAtcJe.png
[圖]
https://iili.io/2xREcml.png
[圖]
https://iili.io/2xAtAs2.png
[圖]
https://iili.io/2xAtzbf.png
[圖]
https://iili.io/2xAt5fS.png
[圖]
https://iili.io/2xAtuWl.png
[圖]
(角色方面除了小孤獨其它有套角色Lora)


這些疊疊類有些是我自己亂湊,有些是照抄別人的,
總之大部分脫離不開上面的提及的可憐畫師。

雖然不是同一個模型生的圖,但是原理基本上大同小異,
也都是Illustrious XL的衍伸產物。

我以前說過Illustrious XL在色圖方面沒Pony強,
但過了一個月一些優秀的微調模型問世之後在色圖上Illustrious XL也確實超越了Pony。





至於為什麼現在Illustrious XL還沒有非常熱門?還是一堆人留在Pony?

真正的原因大概是civitai正在全力推廣那個又肥又貴,
寫自然語言能寫到比標籤提詞更像咒文的flux吧 ==





回標題,那些AI圖看不膩?

對AI仔我來講,
只要是願意公布自己的生成提詞和參數的圖片,不管它是什麼風格什麼模型,
我看再多都不會膩。


而那些想賺熱度,對生成細節和技術一個字不提,
只寫個「AI生成」、「AI加筆」的推特AI仔的圖倒是真的膩。
(因為用了蘿莉相關提詞怕被搞的不公布不算,這點我可以理解 ==)

甚至還有那種明明就自己加了一堆尿袋外掛,提詞寫得天花亂墜去千方百計去引導AI,
尿袋裡的尿都快滿出來了,卻硬要說成「AI想的」那種更是膩上加膩 ==

至於那種明明是AI圖卻不標註的也沒啥好講,就是想騙熱度而已 ==








啊對了,別問我為什麼不公布參數和提詞。
我沒寫出來是因為這個圖床有保留PNG INFO,想要的可以直接自取 ==

--
(と・てノ)  翼龍欸

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.163.128.113 (臺灣)
※ 作者: Satoman 2024-11-04 23:07:05
※ 文章代碼(AID): #1dAECSSC (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1730732828.A.70C.html
※ 同主題文章:
Re: [問題] AI 風格怎麼了嗎?為什麼容易膩?
11-04 23:07 Satoman.
memoriespass: 感謝指引,之前只玩過pony和an imagine,發展到flux後反而不會玩了1F 11/04 23:17

flux就不太支援所謂的咒語,要是要把自然語言寫成真正的咒語 ==
而且因為這點導致Lora非常不好弄 ==

x2159679: 我原本在那串還在想版主怎麼還沒出現(′・ω・‵)3F 11/04 23:22
andyleeyuan: 可以玩玩看Kohaku-XL Zeta4F 11/04 23:24

我忘了有沒有玩過了,之前硬碟要報了清了一堆平常沒在用的模型 ==

uohZemllac: 推解釋5F 11/04 23:25
※ 編輯: Satoman (1.163.128.113 臺灣), 11/04/2024 23:27:49
andy0481: 我覺得單純就是 沒變強太多 那就懶得學新的 就繼續用==6F 11/04 23:28

SDXL時代的模型和SD1.5時代的提升是真的差很多,特別是色圖,
跑得動建議還是換換看會發現新大陸。
※ 編輯: Satoman (1.163.128.113 臺灣), 11/04/2024 23:30:52
tchaikov1812: nai3真是好用的可怕,我是從Animagine XL跳槽到nai3的,簡簡單單就能生出好看又自然的圖,唯一可惜的點是新一點角色不能生成7F 11/04 23:32
twosheep0603: Pony Animagine Illustrious算是現在AI色圖三國鼎立不過最近有個NoobAI XL在預熱 不知道你有沒有興趣10F 11/04 23:32
aria0520: 其實某種程度上的倖存者偏差 看不出來是AI圖的就不會被統計在AI圖的審美內12F 11/04 23:37
Satoman: NoobAI其實就Illustrious的再衍伸14F 11/04 23:38
twosheep0603: 那看來就是精修版了(15F 11/04 23:39
Satoman: 我測試過,Illustrious的Lora可以用在NoobAI,但是反過來效果卻會下降16F 11/04 23:39
clothg34569: Noob是IL延伸的 目前Noob都是用IL底模的Lora18F 11/04 23:39
Satoman: 上面有幾張圖應該就是用Noob生的,但是我忘了是哪幾張 ==19F 11/04 23:39
aria0520: 當底特律變人的主角拔下藍圈後 就沒人知道他是機器人了20F 11/04 23:40
Satoman: 而且NOOB目前三個版本結果差很大,幾乎可以算不同的模型了 ==21F 11/04 23:40
x2159679: 話說老八那張用google找圖都是跑一堆跟老八沒關係的AI圖耶 真神奇......23F 11/04 23:45
zxcmoney: 推解釋25F 11/04 23:51
karta018: 好詳細推26F 11/04 23:58
x2159679: 話說最下面那張luce是只靠原設定圖就能生出來的嗎27F 11/05 00:09
那個LORA只用了11張圖,可能但不一定。

inte629l: 難怪我在Animagine上練的LoRA套到Pony就超怪..28F 11/05 00:10

SDXL時代的問題就是lora互通性通常不好,很麻煩 ==

mantouman: 好詳細29F 11/05 00:12
※ 編輯: Satoman (1.163.128.113 臺灣), 11/05/2024 00:21:16
silentneko: 大咒術師是你30F 11/05 00:16
organic3321: 到Illustrious XL終於有種可以跟人一較高下的感覺
用你的圖當參考的話31F 11/05 00:25

其實只是用特定畫師當提詞誘導AI生成「比較像是人畫的」的AI圖,
這種風格搞不好之後大量生成之後也會被說膩 ==

ZunYin: 特級咒術師33F 11/05 00:46

沒有,我只是套件仔。
台灣搞AI最強的人應該是Kohaku,喜歡AI的話可以去朝拜他。
※ 編輯: Satoman (1.163.128.113 臺灣), 11/05/2024 00:55:34
inte629l: 補推34F 11/05 00:55
zChika: Luce35F 11/05 00:55
windconcerto: 感謝解說36F 11/05 00:58
conqueror507: 最近在玩pony,覺得比較特別的部份是,pony 模型不需要很高的權重,就可以畫出人物,但是權重的高低卻對畫風會有很大的影響37F 11/05 01:15
avans: 推衍生介紹40F 11/05 01:20
ruby080808: 後面兩組的感覺真的比較好看= =41F 11/05 01:24

當初1.5逐漸成熟時大家也是哇哇哇哇,現在就膩膩膩,
我是覺得也有可能這種疊出來的東西搞不好之後也是膩膩膩 ==

speed7022: 推42F 11/05 01:27
lcomicer: 對我這種不了解AI詳細運作方式的人 所謂模型其實是略稱指稱的是用類似設定去達成目的之意 中間疊再多層都一樣就是說這種層層疊出來的成果即是「怠惰AI仔」想要的43F 11/05 01:30

其實之前會去疊畫風的通常是比較不怠惰的AI仔,畢竟NAI包月不便宜
至於用NAI的圖經營推特或PATREON有沒有辦法回本我就不清楚了


真正怠惰的其實是我這種自爽為上,完全沒有討好別人意願的AI仔


x2159679: 因為用ai的人跟研究ai的人不一定是同一批人
絕大部分的人絕對是負責收割成果的人,不管是繪師還是研究者的46F 11/05 01:36
lcomicer: 他們大多沒意圖也無法對細節進行修正49F 11/05 01:37

看情況吧,我就是懶得修圖派的,頂多就是微調提詞和加量抽圖 ==

除了懶之外也是我覺得AI就AI,他生的圖就那樣,保留本來的樣子和PNG info很好,
剛好讓人一眼就看出來是AI不會被誤會更好。
※ 編輯: Satoman (1.163.128.113 臺灣), 11/05/2024 01:50:19
lcomicer: 會覺得膩並不是因為他們用的工法簡單繁複 而是美感追求做的事情就是把檯面最強風格組成要你命300050F 11/05 01:38
x2159679: 其實本來藝術界就有個詞彙拿來指類似現象52F 11/05 01:41
lcomicer: 畫面沒有取捨還塞滿了他人的堅持 所以看了很膩53F 11/05 01:41
x2159679: 就是「匠氣」啊
我覺得這波ai圖就是把匠氣這個詞彙發揮到淋漓盡致的結果54F 11/05 01:42
tym7482: 長知識推一個56F 11/05 01:44
assotr: 我比較好奇以後大模型還有得更新嗎 現在網路上充斥著ai圖 拿去訓練會不會變成一代不如一代57F 11/05 01:44

一定還會。

因為作為訓練集基底的盜圖網站對於AI圖的隔離相當完善,
所以完全不用太擔心AI圖污染的問題。


甚至某些人在搞訓練時是有自己加入AI圖去調整的,事實上我訓練LORA時也會,
AI圖不一定會讓成果變差,實際上還是看練的人怎麼處理訓練集。

speed7022: 樓上說的就是AI訓練資源的問題,好的資源會越來越珍貴不只AI圖,文字也是59F 11/05 01:46

文字不知道,

但是圖片現在反倒是因為盜圖網站本身的區隔讓畫師的作品與AI圖分隔的相當清楚,
起碼宅圖模型不太需要擔心這個問題。

當然壞處就是畫師的圖被學光光 ==
※ 編輯: Satoman (1.163.128.113 臺灣), 11/05/2024 01:56:32
x2159679: 盜圖網站不會盜AI圖嗎? 他們是怎麼區隔AI圖跟繪師圖的(′・ω・‵)61F 11/05 01:57
Satoman: 網站的圖片是人上傳的,不是爬蟲63F 11/05 01:59
Alter: 雖然有些名詞看無但很有趣的介紹64F 11/05 02:22
cains70: 推65F 11/05 02:40
nightcrow: 隨便點進來沒想到內容超有料66F 11/05 02:52
Snomuku: 哪個
盜圖網站這麼精準?67F 11/05 02:58
Satoman: 板規禁止講的網站 ==69F 11/05 02:59
ohyeaaaah: 推,專業文70F 11/05 04:34
Sinreigensou: 其實我比較好奇ai怎麼從以前面癱跟死板的動作變成現在表情豐富又可以玩花式體位,以前覺得沒fu現在可以尻了
p站一堆實用ai咒術師71F 11/05 05:17

就pony啊,大概七成左右的play都可以直接用提詞叫出來,
套lora的話臉部表情也更還原。

只不過現在Illustrious又更強,起碼我自己能接受的題材它都能生 ==


showwhat2: 推、推!很豐富詳細的解說。75F 11/05 06:16
swswsw129: 推詳細76F 11/05 06:19
AoWsL: 好酷哦 中途跑外送放棄一陣子沒想到這麼複雜77F 11/05 07:01
chiekat: pony 海一樣lora多少能補一下自身的缺陷吧,每天civitai上仍是一堆新lora冒出來78F 11/05 07:22
purplvampire: 推80F 11/05 07:33
balabala56: 內容好多 推推81F 11/05 07:35
andyching168: 我滿好奇,以前1.5的lora在SDXL還能用嗎
另外現在SDXL在12G的3060不知道還跑不跑得動82F 11/05 07:53

1.5的lora只有1.5能用。

pony的lora只有pony和pony的衍生底模能正常使用,其他SDXL底模用了會歪
反之亦然。

Illustrious的Lora只有Illustrious和Illustrious的衍生底模能用,
pony和其他SDXL模型用了和沒用差不多。
反之亦然

12GB算入門吧。


clubee: 推 你是AI繪圖史官吧84F 11/05 08:00
ryo1008: 感謝 最近開始玩AI 解開了不少疑問85F 11/05 08:04
v86861062: 讚讚讚86F 11/05 08:07
ETTom: 這篇也太專業了吧  推一下87F 11/05 08:18
denny8437: 專業推88F 11/05 08:20
qd6590: 哇 太專業89F 11/05 08:21
protoss97: 推專業90F 11/05 08:25
tiger870316: 太認真了吧91F 11/05 08:29
joeii0126: 好厲害啊92F 11/05 08:30
longkiss0618: 大師93F 11/05 08:35
jafifshn4: 好專業的文94F 11/05 08:36
naya7415963: 如果圖片是人上傳的,那種號稱有防ai學習技術的平台其實根本沒有用吧...95F 11/05 08:43
sudekoma: (′・ω・`)小偷都會笑別人上的鎖沒用
但是你加了一道爛鎖害小偷不能直接進去,他就會碎念
(′・ω・`)比如你家又沒有什麼好偷之類的97F 11/05 08:46

現在是沒鎖狀態,除非你是那種圖沒放上網路只賣本本的,
畢竟現在掃圖仔其實變少很多。

比起防AI平台或浮水印,
最好防AI爬蟲抓圖的方法其實是不要上傳768*768以上的圖片。

Dayton: 這篇太優秀了100F 11/05 09:36
nelson220011: 感謝分享101F 11/05 09:48
EvilKnight: 推推102F 11/05 10:10
※ 編輯: Satoman (1.163.154.180 臺灣), 11/05/2024 10:15:57
GeorgeBear: 感謝分享103F 11/05 10:27
tom50512: 大師104F 11/05 10:35
waynemayday: 好像在看AI圖進化史 真的是越來越難分辨105F 11/05 10:47
kuochuwon: 感謝科普106F 11/05 10:53
salamender: 沒想到大大還是個大咒術師107F 11/05 10:54
bluejark: 你有去惡補了嗎= =看了之後有看到有人會講成拼圖嗎108F 11/05 12:40

我不用補啊
倒是你這種用嘴玩AI的什麼時候要不拼圖搞個模型讓我瞧瞧?

owlman: 用pony忽然感覺ai聽懂人話了整個驚訝感到現在還很鮮明109F 11/05 13:01

對啊,可是pony早期的圖用色真的很髒 ==
當時讓我猶疑了超久不知道是要停在1.5還是換Pony或是等SD3測風向 ==
※ 編輯: Satoman (1.163.154.180 臺灣), 11/05/2024 13:13:32
wsad66: 請問我之前組了一台4080想入坑 要從pony開始學起嗎110F 11/05 15:15

以基礎生圖(單純提詞生圖)來講其實都相通的,你會一個等於其他都會了。
差別只是要下載讀取安裝的檔案不一樣,pony也只是要多複製貼上幾個字而已。

你想玩玩和生色圖可以先試試Pony,畢竟相關資源多而且應用方向大。
想疊畫師玩不同風格變化就用Illustrious或他的衍伸像noobai或Illustrious SmoothFT。
※ 編輯: Satoman (1.163.154.180 臺灣), 11/05/2024 15:39:02
stillsato: 你是不是開了間學校叫咒術高專?111F 11/05 17:01

--
--
作者 Satoman 的最新發文:
點此顯示更多發文記錄
(Satoman.): Re: [問題] AI 風格怎麼了嗎?為什麼容易膩? - ACG板