作者 sssh (叫我松高魂 ~~)標題 [選購] 輕量型Local端大語言模型(LLM)開發筆電 (內有選手)時間 Fri Jul 5 11:36:42 2024
因工作需求,之後會進行本地端大語言模型相關開發,
我知道如果文本量大,或是遇到較長 Token 筆電可能還是無法負荷,
因此這台筆電的定位大概會是在 PoC 階段使用的開發機
目前有下列兩台考慮中 :
1. ROG Strix G16
i9-13980/RTX4080-12G/32G可支援到64G
2. Razer Blade 15 Advanced
i7-12800/RTX3080ti-16G/32G
先不論重量及外型,基本上就是工作用
雷蛇 Blade 15 Advanced 3080ti 有 vram 16G
但記憶體最大僅支援到 32G 且 CPU 使用的是 i7
但 ROG Strix G16 用的是 4080 犧牲了一點 vram
但可以換得最大記憶體支援到 64G 跟 i9 CPU
兩者價格差不多 請問各位大大們會怎麼選啊啊啊啊啊~~~~~~ (選擇障礙中)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.163.81.128 (臺灣)
※ 作者: sssh 2024-07-05 11:36:42
※ 文章代碼(AID): #1cXsfDx2 (nb-shopping)
※ 文章網址: https://www.ptt.cc/bbs/nb-shopping/M.1720150605.A.EC2.html
推 Pegasus99: 不能貼賣場連結喔~ 複製規格下來貼就好1F 1.200.67.171 台灣 07/05 12:51
感謝提醒
→ Pegasus99: 然後我會選4080 擴充性大且不過時
除非你對重量有需求 畢竟兩者差半公斤3F 1.200.67.171 台灣 07/05 12:52
推 mrme945: 跑LLM就是VRAM先決,VRAM不夠是連跑的資格都沒有,你核心再快都沒用,消費級顯卡能跑個3B就要偷笑了5F 111.71.212.124 台灣 07/05 13:29
推 weiyuhsi: VRAM重要性遠大於其他8F 114.136.229.16 台灣 07/05 14:14
→ gbcg9725: 要用筆電跑ai要有雲端或外接顯卡的心理準備了,vram不夠直接oom給你看
盡量選vram大的就對9F 27.242.128.23 台灣 07/05 14:22
感謝各位前輩推薦 !
※ 編輯: sssh (118.163.81.128 臺灣), 07/05/2024 14:57:55
噓 AmigoSin: 跑不動除非你用cpu去跑12F 114.136.49.77 台灣 07/05 15:43
--