看板 Stock作者 enouch777 (雷)標題 [新聞] DeepSeek:華為新AI晶片推理性能可達 Nvi時間 Wed Feb 5 16:18:55 2025
原文標題:DeepSeek:華為新AI晶片推理性能可達 Nvidia H100 60%
※請勿刪減原文標題
原文連結:
https://bit.ly/4jNspGA
DeepSeek:華為新AI晶片推理性能可達 Nvidia H100 60%
華為擬今年開始量產最先進人工智能(AI)晶片「Ascend 910C(昇騰910C)」,據報是用以抗衡輝達(Nvidia)所生產的晶片。據 DeepSeek(深度求索)研究人員最新測試,在推理任務中,910C 效能可達 H100 的60%,其推出有助降低中國對 Nvidia GPU 的依賴。微信公眾 ...
※網址超過一行過長請用縮網址工具
發布時間:2025年2月5日 週三 下午1:00 [GMT+8]
※請以原文網頁/報紙之發布時間為準
記者署名:
※原文無記載者得留空
原文內容:
<匯港通訊> 華為擬今年開始量產最先進人工智能(AI)晶片「Ascend 910C(昇騰910C)」,據
報是用以抗衡輝達(Nvidia)所生產的晶片。據 DeepSeek(深度求索)研究人員最新測試,在推
理任務中,910C 效能可達 H100 的60%,其推出有助降低中國對 Nvidia GPU 的依賴。
微信公眾號 AGIHunt 指出,DeepSeek 團隊的實測數據顯示,910C 處理器的推理效能表現超
預期。若透過手動優化 CUNN 核心,性能還可進一步提升。而 DeepSeek 對昇騰處理器的原
生支援,以及其PyTorch 儲存庫可讓 CUDA 到 CUNN 無縫轉換,讓華為硬件更容易整合到 AI
工作流程中。反映即使受美國政府制裁、以及無法獲得台積電的先進製程技術,華為 AI 處
理器的能力仍快速進步中。
據報,昇騰 910C 將由中芯國際(00981)採用「N+2工藝」生產,但因為缺乏先進的光刻設備,
所以「良率」(即產品的合格比例)是偏低。 (BC)
心得/評論:
60%。好的!粉棒!昇騰 910C都用起來!
然後別再用,不知道哪邊弄來的H100~
連輝達的H20也不要再買。
但如果最後是這樣 就搞笑了
https://i.imgur.com/PNvGA9L.png
※必需填寫滿30正體中文字,無意義者板規處分
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.138.233.13 (臺灣)
※ 作者: enouch777 2025-02-05 16:18:55
※ 文章代碼(AID): #1denxnZR (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738743537.A.8DB.html
推 MIM23: 突破天際5F 02/05 16:20
推 piliwu: 從新加坡買的GPU啊7F 02/05 16:21
→ MIM23: 再多說一些 才有便宜的股票11F 02/05 16:21
推 win8719: 910?台積電表示:不要再從我這邊偷買了好嗎12F 02/05 16:21
推 NEWinx: 小粉紅一直都是拿iphone吹華為,大外宣是工作,媚外才是生活13F 02/05 16:22
推 swbthj: 還想騙人賣股票阿15F 02/05 16:22
→ gn7722: 越吹越假,收手吧、維尼,不要再吹了22F 02/05 16:24
→ cohj: 過年期間吹成這樣我還以為今天a股開盤要大漲惹23F 02/05 16:24
推 y800122155: NV今年要發表Rubin系列 Hopper是上上代的欸25F 02/05 16:25
推 hdlihnk39: 只有推理有h100的60%,其它指標很爛吧,嘻嘻27F 02/05 16:25
推 baboosh: 新加坡代理商又要忙了 笑死28F 02/05 16:25
推 uxy82: 東升西降、遙遙領先、跪了,還有什麼?29F 02/05 16:25
→ knives: DS也懂捧中LP30F 02/05 16:26
推 win8719: 就是比a100還好一點
但是散熱 耗電可能很慘31F 02/05 16:26
→ knives: AI也懂吹33F 02/05 16:26
推 v21638245: 華為偷用GG,Deepseek偷用NV遙遙領先34F 02/05 16:27
推 deepelves: 60%...老黃都在準備B300了==36F 02/05 16:27
→ LMgogo: 60%.....gb200要來了欸 老共37F 02/05 16:27
→ win8719: 大約2020左右的水準38F 02/05 16:27
→ Leo4891: 就算只有60% 搭配中國新算法讓算力變800倍 馬上屌打輝達40F 02/05 16:27
噓 EDFR: NV準備腰斬 wwwwwwwwwwwwwwww43F 02/05 16:28
→ LMgogo: 所以要偷買gb200了麻 ....44F 02/05 16:28
推 c1951: 放心 西方媒體+三民自繼續抹黑造謠是白手套給GG做的48F 02/05 16:29
→ LMgogo: 我好像看到獵戶座晶片49F 02/05 16:29
推 teremy: 兩片合在一起就120%!!XDD52F 02/05 16:30
噓 payneblue: 60% 但沒說耗電可能是高200%55F 02/05 16:30
→ LMgogo: 這樣沒人要的gb200老共跪著收吧 60%這怎麼辦56F 02/05 16:30
推 godog: H100 4nm 910c 7nm 可以達到效能60% 華為在設計上57F 02/05 16:31
→ godog: 蠻強的60F 02/05 16:31
推 scum5566: 重點是便宜吧 便宜治百病嘻嘻62F 02/05 16:31
→ bnn: 所以他一片賣多少錢 不是說中國白菜價嗎63F 02/05 16:32
推 win8719: h100是2022年出來的~910現在出來的光記憶體配置就不同了64F 02/05 16:32
推 mopa: 會不會是買NV晶片remark成華為晶片啊?66F 02/05 16:32
→ tmdl: 慘了 鬼故事67F 02/05 16:33
→ LMgogo: 真的差距很大 這open ai應該直接用gb200碾過去了68F 02/05 16:33
→ bnn: 中國效能還沒追上不意外啊 重點是能不能便宜治百病69F 02/05 16:34
推 AndyMAX: 之前狂吹的華為三折手機都被遺忘 每天都有新東西吹70F 02/05 16:34
推 redkuo: 中果贏兩次72F 02/05 16:34
→ LMgogo: 如同風見開0的領域用破車還是被美國人拿冠一樣73F 02/05 16:34
推 win8719: 對了910c一開始這樣吹的華為即將推出新AI晶片 與輝達H100晶片相媲美74F 02/05 16:35
→ LMgogo: 便宜能治病嗎 永遠不用錢?那愛奇藝怎麼股價2元76F 02/05 16:35
推 a930740: 太強了吧 好可怕喔77F 02/05 16:36
→ LMgogo: 如果中國再不偷gb200會越差越遠吧78F 02/05 16:36
推 cms6384: 這乳滑了吧 怎麼可能輸79F 02/05 16:37
推 behati: 重要的都是那40%84F 02/05 16:39
推 F20V: 中國或成最大贏家85F 02/05 16:40
噓 eriker: 所以你程式碼為什麼要用pytorch 難道fb願意幫華為支援87F 02/05 16:40
→ Fuji: Rinbin架構今年發表的話,明年出60系?90F 02/05 16:41
→ jyan97: 成本不太可能低到哪裡去,硬做出來的7nm成本就高台積很多了92F 02/05 16:42
推 kotorichan: 沒差吧 中國本來就賺不到西方人的錢
把技術開源,讓AI卷起來就好96F 02/05 16:43
推 peterwu4: N+2至少號稱是5nm了
因為要曝光更多次良率…99F 02/05 16:44
推 eriker: 而且又cunn又pytorch 還不是都cuda102F 02/05 16:46
推 RenBo: 遙遙領先 彎道超車103F 02/05 16:48
推 ADS1: 買不到自己做很正常吧105F 02/05 16:49
推 peterwu4: 其實中國的半導體技術是蠻恐怖的,像有人聽說中芯的106F 02/05 16:50
→ ADS1: 就體積大一點 電耗多一點 這些中國不缺107F 02/05 16:50
→ peterwu4: 晶片有過熱的問題嗎? 像三星和intel做不下去都是因為晶片會過熱108F 02/05 16:50
→ win8719: 中芯晶片過熱很久了好嗎110F 02/05 16:53
→ boringuy: 反正其他國家也拿不到,隨便他們吹111F 02/05 16:54
→ win8719: 然後n+2連中芯都不敢號稱5nm112F 02/05 16:54
推 jamesho8743: 想太多體積大一點電耗多一點就好了?那三星AMD怎不113F 02/05 16:54
推 jympin: 好了啦 華為116F 02/05 16:54
→ win8719: 現在中芯的晶片就是用現在配置去跟2020的晶片的配置再比效能~但是記憶體都升級幾代了
如果910用的也是h100的配置會輸更多117F 02/05 16:55
推 ronga: 60% 好爛喔....123F 02/05 16:57
→ roseritter: 成本阿 越大越貴 做來賣和做功德的不一樣124F 02/05 16:58
噓 jinshun: 它大部分是拿A100 H800 H20 所以就算是60%也很夠了 甚至30%也行 鄉民真的呵呵125F 02/05 16:58
推 jamesho8743: 60%很強啊贏麻了 是事實再說 還是某個條件下60%?127F 02/05 16:59
→ pov: 贏兩次ww129F 02/05 16:59
→ LMgogo: 不是欸 ai不可能永遠是這樣啊132F 02/05 17:00
噓 a22530722: 【【【【傻鳥又造謠了!明明是600%】】】】133F 02/05 17:01
→ LMgogo: 三星都過熱怎可能中國不熱
ai又不是一台電車 搞個電池就上路了134F 02/05 17:01
推 NEWinx: 習大大已經幫中國人民準備人民公社要長期過苦日子,美國以為制裁有用?笑死,制裁加關稅,中國都沒在怕的136F 02/05 17:02
→ j198811: 60%應該還要打折吧,這國家說的都吹很大140F 02/05 17:05
推 ndilavril: 現在美國華西街在怕用低階晶片就有同高階算力
高階GPU會沒人買142F 02/05 17:05
→ WTF55665566: 中國人嘴巴硬的很 身體卻超級老實 整天從新加坡走私144F 02/05 17:06
推 wts4832: 依照中國人的做法,應該是在特殊條件下,調參數後才有60%,實際應用估計更差146F 02/05 17:06
推 jamesho8743: 耗電是嚴重問題 不是多給電就好了 你不是過熱不能用就是單位體積內塞不了幾個運算單元效能差 體積佔用大也是一樣 塞不了太多 而且只能慢 越快的時脈光在一個clock內走不到1公尺 你體積大怎麼快?148F 02/05 17:07
推 goodjop: 手動優化 XDDDDDDD 加油 手刻半導體152F 02/05 17:08
噓 Annahahaha: deepseek團隊生在美國肯定年薪千萬起跳,生在中國只能淪為大外宣打手153F 02/05 17:09
噓 fly5566: 一片60% 用兩片就120%屌打NV了 選我正解156F 02/05 17:10
→ ter2788: 良率還好啦 反正是國家戰略 虧損一些也沒差157F 02/05 17:12
推 QooSnow: (請問300)(會不會)(很耗電啊?嘻嘻。)158F 02/05 17:12
→ ter2788: 再說了中國人口這麼多 算法丟人進去研發總能弄點東西出來 算力也就久一點而已
又不是nv就算不了160F 02/05 17:14
推 s213092921: 之後中國也不一定要輝達算卡了,繞過Cuda軟體還有昇騰替代163F 02/05 17:15
推 Samurai: CUDA轉譯問題是隨便改個版,你就要重搞,沒人會拿穩定性冒險
說性能比較差耗電還真的不是問題,中國不缺那個資源169F 02/05 17:18
推 zxcvb7700: 不意外吧..白手套都來台灣掃5090了.
,現在都2倍價再收..買一片賺一片175F 02/05 17:19
推 roccqqck: 目前只有amd跟tpu有辦法 替代cuda 這是支援的問題跟效能無關177F 02/05 17:19
噓 LimYoHwan: 性能60% 可是人家收費比你便宜27倍 真的完了179F 02/05 17:20
→ lmc66: H100這什麼歷史文物了 還只有60% 還應該是調一堆參數後的最佳結果180F 02/05 17:20
→ roccqqck: 如果這麼簡單就能替代cuda
amd跟Intel早就替代了182F 02/05 17:20
推 WTF55665566: 沒看清楚喔?是用來運算的硬體前提就比人家爛60%了 然後成本問題早就一堆深入研究的打爛臉
外宣知道deepseek還是用輝達訓練的嗎?184F 02/05 17:21
推 Samurai: 樓上說的沒錯,就算是AMD,也是玩玩而已,實際跑起187F 02/05 17:21
推 q22w: 60%?190F 02/05 17:22
推 win8719: deepseek成本便宜已經被打破了好嗎~現在在吹他便宜的是多久沒更新191F 02/05 17:23
推 WTF55665566: 只有人家過時硬體60%的效能 然後說要取代 2ㄏ2ㄏ193F 02/05 17:23
推 sin31429: H100在GB200面前就是垃圾194F 02/05 17:23
推 QooSnow: (請問Toyota)( 和雙B,)(誰賣的好啊?嘻嘻。)196F 02/05 17:25
推 jamesho8743: 久一點就是個問題 這世界比拚的不就強度速度密度?人家高鐵早就坐到高雄了你騎機車還在桃園197F 02/05 17:26
推 WTF55665566: 請問AI現在的競爭就是拼F1冠軍 有人塞車在跟你拼cp值的嗎? 再想想
有 乾脆以後叫F1辦一個cp值最高的賽車大賽 看誰能用最破產的成本搞出賽車200F 02/05 17:27
推 QooSnow: (是在賣產品,)(不是在比賽!)(腦?)
(便宜治百病!)(嘻嘻。)204F 02/05 17:30
推 ots625: Ai不可靠,退訂加小玲當207F 02/05 17:30
→ unima: 難怪nvda最近一直跌208F 02/05 17:32
推 chou3321: 怎麼推文裡混了一個表達能力連國中生的不如的小丑210F 02/05 17:32
推 huabandd: 遙遙遙遙遙遙領先,中國贏了又贏贏了又贏215F 02/05 17:44
→ josephpu: 算力摸到老黃上代產品的6成,能耗大概更慘216F 02/05 17:47
推 yoyodiy: 母公司應該靠炒這波新聞 空美股賺不少了218F 02/05 17:48
→ sionxp: 好強 但是中國股市崩盤220F 02/05 17:49
→ hihi29: 早說華為遙遙領先224F 02/05 18:02
推 DREE: 把晶片買來磨掉商標再印自己的~~10年前就做過了吧!!226F 02/05 18:11
推 a28200266: 60% 那價格有60%嗎= = 都買沒cuda的大便我幹嘛不買AMD?227F 02/05 18:11
推 DREE: 講錯 20年前 「漢芯1號」229F 02/05 18:13
推 g0428168: 推論以外的性能有多少敢講嗎?230F 02/05 18:15
推 kausan: 人家都換gb200了 你們的軟體可能要更精進才行232F 02/05 18:19
噓 tangolosss: 才60%而已 為什麼不喊遙遙領先....................234F 02/05 18:23
推 upeo: 厲害了 你的國! 終於要起飛了235F 02/05 18:34
→ wr: 整天想跟nv比 先去跟英特爾AMD比好嗎237F 02/05 18:39
推 Happysam99: 長期看至少比沒生出東西的好~~ 但一定還欠東欠西238F 02/05 18:43
→ unima: nv 大跌小漲還有人阿Q說反彈了!240F 02/05 18:45
推 crtzeng: 其實我笑不出來,想想美國領幾十萬美金薪水的工程師跟大陸幾萬人民幣的作出差不多的效能,一個週休二日,另一個996還輪班243F 02/05 18:58
→ ajkofqq: Xi YES!!249F 02/05 19:17
推 flipflap: 中或贏 雙贏就是中國贏兩次252F 02/05 19:22
推 jiansu: 推論又不難搞 大陸國產晶片看來都會支援DeepSeek了 7nm良率80% 有文章說訓練差多了 推論市場大概低價化了 DeepSeek+華為目前免費給你用 ! 不過nv主要獲利在訓練 不會造成重大打擊 少賺點而已253F 02/05 19:35
→ LMgogo: 今年應該是gb200257F 02/05 19:38
推 wowjesus: 一堆傻傻的 你看看可以做的五常有誰 懂??259F 02/05 19:51
推 a123454698: 早就說了,以後AI不一定要用台積的最先進製程,還有人不信262F 02/05 20:32
→ alau: 別唬爛 肯定是泡在乾冰裡面測的啦264F 02/05 20:33
推 pupudice: 666 祖國這次真的厲害了265F 02/05 20:37
→ r40491101: 衝啊啊啊,屎特拉
樓上,祖國是中華民國~
我們的kmt266F 02/05 20:48
→ talentsu: 效能60%,成本N倍,一來一往,低成本優勢都沒了270F 02/05 21:28
→ Arpia: 匯港通訊這篇要扣錢
油膩了271F 02/05 22:34
推 ksjr: 可是nvda利潤不是50%+?一來一往 低成本又回來了XD274F 02/06 00:07
--