作者 sxy67230 (charlesgg)
標題 Re: [新聞] 曾害輝達市值一夜噴掉17兆! DeepSeek
時間 Sat May 17 19:21:57 2025


很多國外新聞這幾天比較專業的都是關注在DeepSeek的新論文,詳細列出了很多DeepSeek技
術細節如何省流的數據,像是KV Cache的成本還有透過軟體整合協同提升硬體的使用效率(
3F

S無疑是工藝品的等級),揭露了未來減少GPU、Disk跟CPU之間的通訊無疑是下一個軟硬整
合加速指標。

當前開源生態甚至是Gemini都已經將DeepSeek的GRPO當作模型對齊Reasoning的新範式了,
實際也是證明很好用有效又省錢,最近也是蠻多篇Paper探討Reward作為一種弱監督信號為
什麼有用又不會像DPO一樣會過度擬合訓練數據的好處。題外話,連NVIDIA 的Nemotron最新
一代也採用這樣的Post training 新範式。


然後文章沒揭露的是很多閉源模型當前為了alignment最新的時事資料或基於用戶反饋的校
正成本,實際上谷歌、Claude跟OpenAI在這塊的維護上每年都要虧損十幾億美金,這東西是
很多小企業維護不來的。


然後GPU的Infra群集這幾年也是不斷在往上增加,反正訓練的成本才是往下掉的。谷歌跟Op
enAI為了維持服務響應花費的不比訓練建構的群集還要少。

我個人認為這種文章針對性蠻強的,重點也不是在DeepSeek系統架構上的缺失,真的要我說
的話,當前DeepSeek比較大的問題是市場上具有Reasoning的LLM競品在DS開源方法以後開始
暴增,但DeepSeek沒有資源來調優當前自己的R1模型(畢竟公司多數都是研究員,可以看出
團隊會更想把精力花費在研究上)。


然後實際上普通人對Reasonong的需求就不大(吉卜力會爆紅顯示普通人對AI的期望會更像
有趣的玩具),企業有資源的會選擇自己建構,沒資源的會採用Agent方式讓多個響應比較
快的模型建構特地場景的任務替代Reasoning LLM。


差不多4醬


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.109.14 (臺灣)
※ 作者: sxy67230 2025-05-17 19:21:57
※ 文章代碼(AID): #1eA75N92 (Tech_Job)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1747480919.A.242.html
※ 同主題文章:
Re: [新聞] 曾害輝達市值一夜噴掉17兆! DeepSeek
05-17 19:21 sxy67230
keter007: 難用,微調成本極高,搞死用戶1F 123.192.217.254 台灣 05/17 19:37
cityhunter04: 對使用者來說,難用就不會有人用!實用性才是AI的重點…2F 114.24.92.6 台灣 05/17 19:43
※ 編輯: sxy67230 (101.10.109.14 臺灣), 05/17/2025 20:08:25
theedge: 難用就不會有人用? 那Linux呢?4F 42.73.60.185 台灣 05/17 21:45
DrTech: 難得認真文。普通人誰管你reasoning,直接給我出個有趣的圖比較有用
inference scaling law 研究性質遠超過實用性質5F 42.73.94.186 台灣 05/17 22:10
JoSue: 推9F 111.241.128.249 台灣 05/17 22:42
flinch: 無黃金錨定的美元 不配叫美金10F 42.70.91.247 台灣 05/17 23:25
questionboy: 認真文 推11F 114.45.60.220 台灣 05/17 23:25
zyliu: 推認真文12F 218.35.15.123 台灣 05/18 01:22
pponywong: Linux 其實在工程上不難用阿
同樣開發軟體 Linux 方便太多了13F 118.160.135.12 台灣 05/18 07:42
DA3921999: DS最大的問題就是直接開源教大家怎麼做,這樣一來一回註定輸偷吉卜力15F 27.53.147.72 台灣 05/18 13:12

--
作者 sxy67230 的最新發文:
點此顯示更多發文記錄