看板 PC_Shopping
作者 nissan168 (pingGO)
標題 [請益] AMD顯卡跑AI繪圖,大概差距多大?
時間 Sun Jul 20 22:19:24 2025


Nvidia市值衝到4.2兆美金了!

問ChatGPT,也只到2024年的知識量。

還是問懂PC硬體的人,或許能知道現狀!

現在的AMD顯示卡,拿來跑Stable diffusion,大概還跟Nvidia有多大的差距?

我知道是CUDA這個平台,才讓Nvidia在AI的運作中成為唯一檔的存在。

但我不知道,AMD的顯示卡,現在能不能跑AI繪圖。

我看原價屋的價格,是完全不行。賣3分之1的價錢,好像也不大能跑。

有沒有當下的性能研究?

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.167.242.83 (臺灣)
※ 作者: nissan168 2025-07-20 22:19:24
※ 文章代碼(AID): #1eVFhk4v (PC_Shopping)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1753021166.A.139.html
Boris945: 可以用DirectML跑 效能約1/5而且很難搞1F 150.117.168.178 台灣 07/20 22:24
spfy: 能不能 能   https://www.amuse-ai.com/
這個有掛AMD合作夥伴 把AI繪圖又包了一層UI懶人簡單化 但預設模型有問題 畫出來超醜
至於你要性能差距的研究 建議自己研究2F 118.231.169.100 台灣 07/20 22:27
rail02000: stable diffusion在AMD可以用ROCm6F 114.38.17.21 台灣 07/20 22:33
Pixmi: https://i.postimg.cc/SmSYhTmr/sd.jpg
9070XT可以跑得7F 36.237.238.204 台灣 07/20 22:37
[圖]
tokikaze: directml,rocm,zluda,願意折騰辦法多得9F 36.236.224.31 台灣 07/20 22:41
michellehot: 6700以上就可以了 但是速度很慢
而且要在Linux下用ROCm Win可能會當11F 118.232.100.61 台灣 07/20 22:41
jhjhs33504: 晶片還是很缺 Compute0動得起來就不錯13F 1.162.79.2 台灣 07/20 22:43
michellehot: 如果手癢跑圖去撿二手3060 12G就好很多模型優化到6G 8G VRAM都跑的來但是ㄧ換AMD就全崩了 至少目前是
9070xt跑圖速度之前有人分享過還行14F 118.232.100.61 台灣 07/20 22:44
Supasizeit: 你想知道什麼 差幾千塊不值得折騰18F 203.204.195.174 台灣 07/20 22:48
dos01: 只問可不可以跑 答案是可以
但如果要問該不該買A卡來跑 只能說別這樣搞自己19F 210.209.164.247 台灣 07/20 22:52
vsbrm: 有AI需求就選N卡就別折騰自己了22F 1.175.89.237 台灣 07/20 23:03
doomsday0728: 除非你有一定技術力 不然乖乖買N卡23F 36.234.244.247 台灣 07/20 23:15
rgo: 蘇媽炒股比較利害 4月低點到現在 AMD+80% NVDA+70%24F 1.162.124.8 台灣 07/20 23:20
commandoEX: rocm目前不支援windows吧,只能在WSL下跑,要不然就要等7.026F 118.171.172.239 台灣 07/20 23:41
s78513221: win的ROCm停擺很久了,管生不管養28F 111.71.58.216 台灣 07/21 00:01
qwe753951: 別浪費時間29F 111.241.189.121 台灣 07/21 00:06
Pixmi: windows環境跑ROCm 6.4以上版本要用WSL跑30F 36.237.238.204 台灣 07/21 00:08
CrackedVoice: 速度慢算小問題了,問題在其地方
上網花更多時間搜尋解決問題的方式31F 1.162.128.97 台灣 07/21 00:30
langeo: amuse很爛很難用 18禁關不掉33F 1.163.145.243 台灣 07/21 00:38
gbcg9725: 有跑AI就別折騰A卡 技術一直在迭代
現在的能用不代表新的能用34F 119.14.217.132 台灣 07/21 01:02
nextpage: 現在有些模型還針對5系做加速優化,速度差距拉大你不得不屈服老黃淫威36F 114.38.220.45 台灣 07/21 01:05
arnold3: 看你願不願意自己寫代碼阿38F 182.234.98.55 台灣 07/21 03:10
Xpwa563704ju: 大部分AI的模型都是偏向N家的吧39F 42.74.24.248 台灣 07/21 05:37
ltytw: 都可以跑 但還是cuda優化最好 社群大小問40F 114.33.46.227 台灣 07/21 07:18
xsdferty035: 不要虐待自己42F 42.72.236.96 台灣 07/21 07:30
x94fujo6: https://i.meee.com.tw/Vi12oUd.png
有CUDA的可以試試ZLUDA43F 114.33.176.49 台灣 07/21 08:01
[圖]
zo6596001: 等2027年出的卡吧,預計會有架構調整,ROCm支援度可能會提高
我比較期待架構調整後的Ryzen AI,共享記憶體非常大45F 111.71.75.50 台灣 07/21 08:14
yangwen5301: Win現在ROCm改用pip install了,GitHub theRock有安裝步驟很容易
但只有6000和7000系49F 106.146.12.229 日本 07/21 09:20
d58974: 必須得說,能跑,但要在win環境下很麻煩,不像N卡網路一堆github專案可以一鍵安裝52F 220.128.131.141 台灣 07/21 09:34
cc10601cc: 之前玩了一下 瞎搞一天後放棄了54F 49.216.48.13 台灣 07/21 09:40
elvis222: 我自己實試可以跑 但要用wsl安裝rocm
或者等一下rocm7 第三季上會有windows版本55F 89.117.42.78 美國 07/21 10:42
poi96300: 去撿張二手30系 都比你在那邊折騰還快58F 223.138.244.59 台灣 07/21 11:51
coox: 這要看社群實力 N家模型多太多了59F 163.26.206.202 台灣 07/21 12:04
benen: 欸黑~想要色色的話,成本多一點沒關係啦~不要省不要省☺♥ (誤60F 101.8.137.137 台灣 07/21 12:06
qaz13579: 有AI需求就別折騰自己62F 123.205.15.239 台灣 07/21 12:20
forever9801: 7F那樣要一分23秒 那真的差距超大
更正 1分2秒 3080大概可能10秒63F 118.165.11.114 台灣 07/21 13:23

--
作者 nissan168 的最新發文:
點此顯示更多發文記錄