※ 本文轉寄自 ptt.cc 更新時間: 2025-12-15 18:25:03
看板 Stock
作者 標題 Re: [新聞] 中國大廠狂下單!H200供不應求 輝達考慮
時間 Sun Dec 14 23:49:00 2025
這很玄
買H200是CUDA體系,會被綁死
中國目前有自己的AI開發生態體系
如果要發展國產的,慢就慢,慢慢跟他煉丹,體系是自己的永遠不怕卡
這就像你要直接買現成的WINDOW 11,還是要慢慢刻一個鴻蒙系統出來
這兩者是極端互斥的,所以說中國廠商很踴躍要訂購H200,這很玄
這就像你要直接買現成的WINDOW 11,還是要慢慢刻一個鴻蒙系統出來
這兩者是極端互斥的,所以說中國廠商很踴躍要訂購H200,這很玄
如果中央決定深入發展國產的,應該就不會希望廠商用CUDA體系的東西吧
還是說可以相容阿,可以相容的話,那就有可能吧。反正用多少算多少。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.126.16.9 (臺灣)
※ 作者: YAYA6655 2025-12-14 23:49:00
※ 文章代碼(AID): #1fFjnkRj (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1765727342.A.6ED.html
※ 同主題文章:
12-14 21:40 ■ [新聞] 中國大廠狂下單!H200供不應求 輝達考慮擴產因應
12-14 22:07 ■ Re: [新聞] 中國大廠狂下單!H200供不應求 輝達考慮
● 12-14 23:49 ■ Re: [新聞] 中國大廠狂下單!H200供不應求 輝達考慮
→ : 沒那麼互斥 其實cann(華為體系)也在開發能和cuda1F 12/14 23:52
→ : 的code互通的方式
→ : 我真的沒法說的很好 只能搬網上看來的東西 但這個
→ : 體系不是像手機系統一樣那麼不能互通
→ : 華為喊出的是能在輝達跑的例如pytorch“稍微改動”
→ : 就能在cann上跑 但實際不知道要改多少
→ : 然後華為長遠目標是code能互通
→ : 的code互通的方式
→ : 我真的沒法說的很好 只能搬網上看來的東西 但這個
→ : 體系不是像手機系統一樣那麼不能互通
→ : 華為喊出的是能在輝達跑的例如pytorch“稍微改動”
→ : 就能在cann上跑 但實際不知道要改多少
→ : 然後華為長遠目標是code能互通
→ : 關鍵是字節要翻桌了 其他廠商沒時間等國產生態建立8F 12/15 00:02
→ : 長遠來說 字節或任何單一公司都不重要 自主技術重要9F 12/15 00:03
→ : 其他廠商除了 發展只使用自己App的AI Agent10F 12/15 00:04
→ : 才是當前最重要的戰略 不然只能被淹沒在歷史的洪流
→ : 櫻木 : 老爹 , 我只有現在
→ : 才是當前最重要的戰略 不然只能被淹沒在歷史的洪流
→ : 櫻木 : 老爹 , 我只有現在
→ : 字節可以在歐洲或其他第三地..沒有被綁死13F 12/15 00:11
推 : 廠商哪管你愛不愛國,哪個好用就買哪個14F 12/15 00:14
推 : 阿里巴巴 也可以在第三地搞15F 12/15 00:16
→ : 但是現在 能走大門 一定買好買滿
→ : 但是現在 能走大門 一定買好買滿
推 : 因為code有可能有辦法相容 所以問題變複雜 不是簡單17F 12/15 00:16
→ : 2選1 而且應該中國也沒公司敢把全雞蛋都放一個隨時
→ : 能被美國喊禁運禁服務的cuda系統裡 太依賴cuda
→ : 那cuda就會變哭大了 哭很大
→ : 2選1 而且應該中國也沒公司敢把全雞蛋都放一個隨時
→ : 能被美國喊禁運禁服務的cuda系統裡 太依賴cuda
→ : 那cuda就會變哭大了 哭很大
![[圖]](https://pbs.twimg.com/media/G8B4qDwbsAA6yVg.jpg)
→ : 所以新聞第六段的"然而"才是重點 看對岸給不給進啊22F 12/15 00:19
推 : 現在是爆發期 沒有人跟你在那邊慢慢磨23F 12/15 00:19
→ : 幾十萬個專業模型 等著出頭
→ : 一定是用通用cuda 不可能用 優化tensor core
→ : 訓完了 要轉ASIC 再轉
→ : google 能燒 專用tensor core IC 是因為alpha fold
→ : 市場夠大 錢夠多
→ : 藥廠已經從 alpha fold 取得比投資還好的回報
推 : 可以去看看 蔡崇信 最近幾個訪問
→ : 原則就是 現金流許可的情況下 All in
→ : 現在 有一半人才都中國養的
→ : 2013 百度deep learning 萬卡叢集
→ : 幾十萬個專業模型 等著出頭
→ : 一定是用通用cuda 不可能用 優化tensor core
→ : 訓完了 要轉ASIC 再轉
→ : google 能燒 專用tensor core IC 是因為alpha fold
→ : 市場夠大 錢夠多
→ : 藥廠已經從 alpha fold 取得比投資還好的回報
推 : 可以去看看 蔡崇信 最近幾個訪問
→ : 原則就是 現金流許可的情況下 All in
→ : 現在 有一半人才都中國養的
→ : 2013 百度deep learning 萬卡叢集
→ : ???你講的什麼“不可能”?deepseek就正在用34F 12/15 00:26
→ : Andrew Ng 這種神一樣的人 也是百度出來的35F 12/15 00:26
→ : cann和華為ascend系統了啊 幹嘛閉眼講什麼不可能36F 12/15 00:26
→ : 之前deepseek較長時間沒出新版本就是在換系統
→ : 之前deepseek較長時間沒出新版本就是在換系統
→ : Anthropic CEO Dario Amodei 也是百度出來的38F 12/15 00:27
→ : 那現在v3.2也出了 可以停止講中國系統不能用嗎39F 12/15 00:28
→ : 都用給你看了
→ : 一定用通用cuda 這句話是你膝蓋想的 還是哪看到的
→ : 都用給你看了
→ : 一定用通用cuda 這句話是你膝蓋想的 還是哪看到的
→ : 可以去看看 羅永浩 訪問 MiniMax 創辦人42F 12/15 00:28
→ : 因為我想看訊息來源 請提供 謝謝43F 12/15 00:28
→ : 看CEO專訪的44F 12/15 00:29
→ : 羅永浩 訪了10幾位 你可以去多聽一點
→ : MiniMax 闫俊杰 是現在大廠以外最強模型
→ : 2013 百度時期 用掉萬卡1/3 算力
→ : 羅永浩 訪了10幾位 你可以去多聽一點
→ : MiniMax 闫俊杰 是現在大廠以外最強模型
→ : 2013 百度時期 用掉萬卡1/3 算力
推 : 中國特色不是先卷死其他家 再來搞自己的?48F 12/15 00:31

推 : 買h200開發賣海外,買國內卷國內51F 12/15 00:32
推 : 發個新聞不用多少錢52F 12/15 00:46
推 : 中國遙遙領先 灣灣當歸53F 12/15 00:49
推 : 不可能慢慢磨 你看現在AI競賽已經不悠哉了。雖然鏟54F 12/15 01:01
→ : 子希望掘金的不要這麼快分勝負,但今年已經場面驚
→ : 悚、不溫和了。
→ : 子希望掘金的不要這麼快分勝負,但今年已經場面驚
→ : 悚、不溫和了。
→ : 這新聞讓我覺得老黃和中大廠都精神分裂是嗎…57F 12/15 01:04
推 : 只能說之前美國沒有開放H20 阿里千問與DS的新模型都58F 12/15 01:07
→ : 能持續推出新版本 且性能不落後GPT多少 現在會急著
→ : 能持續推出新版本 且性能不落後GPT多少 現在會急著
推 : gtx 4060也有cuda core阿60F 12/15 01:08
→ : 買不到 就用顯卡
→ : 買不到 就用顯卡
→ : 搶購H200嗎? 而且現在AI晶片需求增長主要在推理上62F 12/15 01:09
→ : AI聊天這塊已經變紅海無利可圖 也不急著切入搶占
→ : AI聊天這塊已經變紅海無利可圖 也不急著切入搶占
推 : 對耶 看阿里最準 完全沒落後64F 12/15 01:20
推 : 都在搞Agent吧 LLM可不是聊天用而已 呵呵 Siri有多
→ : 急著升級成真AI Agent就知道
推 : 都在搞Agent吧 LLM可不是聊天用而已 呵呵 Siri有多
→ : 急著升級成真AI Agent就知道
推 : Agent這塊最近的確也有不少進展 前幾天豆包手機就很67F 12/15 01:30
→ : 驚人 但是馬上被APP廠商抵制 前面也有文章討論過
→ : 這塊要發展起來也有很多競爭挑戰
→ : 驚人 但是馬上被APP廠商抵制 前面也有文章討論過
→ : 這塊要發展起來也有很多競爭挑戰
噓 : 現在AI還會等你?等你研發好了,人家都不知道跑哪70F 12/15 01:31
→ : 去了!
→ : 去了!
推 : 融資的時候 資本也不會同意 慢慢磨72F 12/15 01:33
推 : 資本:拿出成果,有的是錢,拿不出來,別怪冷漠73F 12/15 03:07
推 : 誰要用爛東西 然後卡自己公司 中國能比賽贏就要用對74F 12/15 04:23
→ : 美國晶片
→ : 中國資本叫你做晶片也是要內捲的 你愛國沒屁用
→ : 誰跟你 慢慢是錯 那是給中研院還是國家研究單位的工
→ : 作
→ : 已經慢一兩拍了 還不快買好晶片去推導
→ : 美國晶片
→ : 中國資本叫你做晶片也是要內捲的 你愛國沒屁用
→ : 誰跟你 慢慢是錯 那是給中研院還是國家研究單位的工
→ : 作
→ : 已經慢一兩拍了 還不快買好晶片去推導
→ : 慢慢練丹是一回事 你以為中國自己內部不競爭 有夠80F 12/15 06:36
→ : 瞎的邏輯 這根本黨出發點XD
→ : 瞎的邏輯 這根本黨出發點XD
→ : 吹牛 懂嗎82F 12/15 06:53
→ : 吹到多軍歐印
→ : 吹到多軍歐印
→ : 你要知道正常的大老闆都是精神分裂的 它們會全都要84F 12/15 07:32
→ : 然後還跟你下面的說資源就這樣 你給我兩條路都弄來
→ : 然後還跟你下面的說資源就這樣 你給我兩條路都弄來
推 : AI進化賽:你不買有的是人買,懂嗎?86F 12/15 07:33
推 : 就跟華為一樣,愛用的去用,但iphone還是霸榜第一87F 12/15 07:35
→ : 資本市場:你不刷詐,以為別人就不會耍詐嗎?88F 12/15 07:37
推 : 軟體是一定能互換的 效率問題 而且他是被逼的一定要89F 12/15 08:14
→ : 有彈性在cuda上再多一層 而不是自願的
→ : 有彈性在cuda上再多一層 而不是自願的
→ : google早就打爆NV了91F 12/15 09:05
推 : 有人說不能並行嗎?一邊買一邊研發(抄),不是非92F 12/15 09:36
→ : 黑即白ㄚ
→ : 黑即白ㄚ
→ : 鴻蒙系統也是要基於Linux硬體沒那麼簡單94F 12/15 11:59
推 : 中國市場大啊,池子大可以容得下各種魚~~95F 12/15 17:04
→ : 像中國的客機市場,空客、波音和自己的C9X9都有得吃
→ : 而且買爆…會不會是假消息?(推完文後猛想一下XD
→ : 像中國的客機市場,空客、波音和自己的C9X9都有得吃
→ : 而且買爆…會不會是假消息?(推完文後猛想一下XD
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 2 累積人氣: 104
作者 YAYA6655 的最新發文:
這很玄 買H200是CUDA體系,會被綁死 中國目前有自己的AI開發生態體系 如果要發展國產的,慢就慢,慢慢跟他煉丹,體系是自己的永遠不怕卡 這就像你要直接買現成的WINDOW 11,還是要慢慢刻一 …93F 22推 1噓- 14F 5推 2噓
- 12F 2推 1噓
- 10F 4推 1噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享
