作者 ncufalcon (ncufalcon)
標題 [菜單] 45K AI測試機
時間 Tue Jun 25 15:41:35 2024



已買/未買/已付訂金(元):未買

預算/用途: 預算45K,用於測試Olama +RAG模組,鎖定4070。因為是以顯卡
為主,其他的就依照預算搭配CPU。因為要跑Windows平台,記憶體預計買64G
;SSD也想分成兩個,一個系統,一個放LLM+RAG


CPU (中央處理器):AMD【6核】Ryzen5 7500F 3.7GHz(Turbo 5.0GHz)/
                  ZEN4/6C12T/快取32MB/65W/無外盒/含散熱器/代理商三年

MB      (主機板):【重磅價】華碩 DUAL-RTX4070-O12G+華碩 TUF GAMING
                   B650-E WIFI+WD_BLACK SN850X 1TB+EVGA 850 G6

RAM     (記憶體):十銓 TEAM T-CREATE EXPERT DDR5-6000 64G(32G*2)-黑
                  (CL34/支援XMP&EXPO)

VGA     (顯示卡):同重磅

ooler  (散熱器):【救贖】Sinya 欣亞 S200TG 玻璃透側機殼+Thermalright
 利民 Peerless Assassin 120 絕雙刺客

SSD   (固態硬碟):Solidigm P44 Pro 1TB/M.2 PCIe Gen4/讀:7000M/
                  寫:6500M/五年保固 (雙散熱片)

HDD       (硬碟):無

PSU (電源供應器):同重磅

CHASSIS   (機殼):同救贖

MONITOR   (螢幕):沿用
Mouse/KB  (鼠鍵):沿用
OS    (作業系統):自備

其它      (自填):
總價 (未稅/含稅):44929

沒有特殊品牌洗好,第二個SSD只是選擇有帶散熱片,寫入速度不錯的。
請各位先進指點,是否還有可以修改的
謝謝大家

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.171.103.113 (臺灣)
※ 作者: ncufalcon 2024-06-25 15:41:35
※ 文章代碼(AID): #1cUdInyp (PC_Shopping)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1719301297.A.F33.html
otosaka: 要64G怎麼不組126K+DDR41F 42.72.140.224 台灣 06/25 15:43

您是說intel 12600K嗎? 我不知道AMD的差異,當然也可以換

otosaka: 然後你說鎖定4070 結果買4070S..?
跑AI不買大VRAM的4060ti 16G嗎2F 42.72.140.224 台灣 06/25 15:44

回o大,因為以TFLOPS數據來看,跑LLM方面,4070還是比4060系列好一點
請參考國外網站比較
https://reurl.cc/ezlZoj
Nvidia GeForce RTX 4060 Ti 16GB vs Nvidia GeForce RTX 4070: What is the difference?
[圖]
What is the difference between Nvidia GeForce RTX 4070 and Nvidia GeForce RTX 4060 Ti 16GB? Find out which is better and their overall performance in  ...

 
※ 編輯: ncufalcon (1.171.103.113 臺灣), 06/25/2024 15:55:48
Zenryaku: 要大ram去組ddr4吧,現在d5 64g太貴
顯卡挑五年保的
記憶體價錢少一半 你顯卡可以上super
AM5不能用ddr4 所以要換intel4F 27.242.161.33 台灣 06/25 15:54
otosaka: 70/70S跑起來一定比4060ti強 但VRAM不夠就是不夠8F 42.72.140.224 台灣 06/25 15:59
RoarLiao: 哥,llama3:8b 就要16G vram
您跑LLM 要直接略過llama3 嗎?
像上面o大說的,這不是速度問題是門檻10F 61.216.44.21 台灣 06/25 16:01
chocoball: 我的怎麼才4.7gb..13F 112.78.83.42 台灣 06/25 16:03
RoarLiao: 還是您先買4070s 然後發現跑不動了
我去二手版等您xd
樓上c大,您試試在ollama 下這個指令
ollama run llama3:8b-text-fp16
看還是不是 4.7gb14F 61.216.44.21 台灣 06/25 16:03
bighta83330: VRAM不夠的情況你模型放不進去效能再好都白搭吧 除非你要調整精度19F 118.163.153.95 台灣 06/25 16:18
abc0922001: 我4060Ti-16G有試 llama3,超~~慢的所以現在還是繼續用ChatGPT= =21F 203.66.179.162 台灣 06/25 16:36

--
作者 ncufalcon 的最新發文: