作者 TameFoxx (foxx)標題 Re: [情報] 輝達:將恢復H20在中國的銷售時間 Wed Jul 16 14:48:54 2025
※ 引述《LDPC (Channel Coding)》之銘言:
: 最近時間比較多 發發廢文https://reurl.cc/x3GvEb
: 摘錄"我們希望中國持續使用排名第四的產品,因為他們仍然離不開美國技術",
: "中國完全有能力自己做晶片,但你要保持領先一步,這樣他們就會持續買我們的產品"
: 這意味 美國商務長已接受用次次次次級晶片 來鎖西岸自研
: (這論點很久以前就發過 參照2023 11月 1bJpKX18) 所以老黃應該會爆賺
: 針對H20架構 https://hao.cnyes.com/post/76040
: 還是老話一句 單顆快沒有太大好處 要的是整個node-to-node cluster-to-cluster
: 巨大串級 也就是nvlink+cuda h20有4TB/s串連速度 穩定cuda 這種只有老黃有
: 這點來說h20還是可以打贏910b 尤其910b坪寬速度是h20一半 這意味多顆串連時
: 910b自身算力會被頻寬限制住而下降 以及h系列都有 transformer engine 可以動態調整
頻寬有兩種
HBM的頻寬跟GPU-GPU的頻寬
如果是串聯走張量並行 最後都是會卡在GPU頻寬沒錯
H20單顆算力較低 在input token較多的時候會顯得吃力
多顆並聯確實可以改善這問題
在使用者只問一些 幫我用Python寫一個貪食蛇 這種超短的prompt
根本不需要消耗多少算力
最後都是比頻寬
如果模型大小比較小可以整個塞在H20中
那H20的速度直接屌打華為
H20其實某種程度上CP值真的算很好
只有中國買得到
中國以外的地方 請你們買我們NV貴貴的GPU喔 不提供H20超值餐
: bf16精度 然後在inference系列還是有極佳generation token效果
: 而h20 記憶體是96GB hbm3 這就意味者 cowos/hbm/tsm小隊可以回歸了
: 中國的市場訂單可以作為後來買其他股票的定錨 下一季NV財報可以用來其他廠商對答案
: 這也意味者老AI要回來了 來吧 tsm小隊集合 \@@/
我比較期待把HBM弄到個人電腦的那天
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 202.39.243.162 (臺灣)
※ 作者: TameFoxx 2025-07-16 14:48:54
※ 文章代碼(AID): #1eTqjOu4 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1752648536.A.E04.html
※ 編輯: TameFoxx (202.39.243.162 臺灣), 07/16/2025 14:49:16
推 peterwu4: 主要製程封裝都是一樣的,電晶體數量少還可以宣傳成不易過熱XD1F 07/16 14:55
推 dragonjj: 不是 有B100 200 300系列買什麼H20?3F 07/16 14:55
→ peterwu4: 生意人做生意,又要滿足美國,又要滿足中國,難為了4F 07/16 14:56
→ TameFoxx: 價格問題 B系列保底8片最便宜也要1200萬5F 07/16 15:03
推 sdbb: H是不好的6F 07/16 15:29
--