作者 LDPC (Channel Coding)
標題 Re: [新聞] 雷蒙多態度髮夾彎 允輝達向中國出售AI晶
時間 Wed Dec 13 01:59:10 2023


這是最近幾天TSLA那邊AI晶片訊息
https://reurl.cc/bl1xdd
特斯拉 Dojo 次代晶片未達標?大將遭解雇原因外洩 | TechNews 科技新報
[圖]
特斯拉(Tesla Inc.)AI 超級電腦「道場」(Dojo)專案負責人 Ganesh Venkataramanan 傳出於 11 月離職,可能衝擊自駕系統的研發進程。有消息顯示,Venkataramanan 可能是因為 Dojo 次世代晶片未達標而遭到解雇(let go)。 Electrek 8 ...

 
現在看來就是NVDA+AMD會繼續有機會在AI晶片市場拉一波 最近另外一個比較紅的新聞是
Mistral AI小公司開發的LLM模型吸引不少人 而Misral AI是用CoreWeave租借算力
開發出來的大模型 這些小公司能靠租算力媲美大公司發展的模型
新聞大概都會讓老黃繼續開心賣他鏟子


※ 引述《qwe22992168 (蛋疼)》之銘言:
: 原文標題:雷蒙多態度髮夾彎 允輝達向中國出售AI晶片
: 原文連結:https://www.ctee.com.tw/news/20231212700408-430701
: 發布時間:2023.12.12  08:26
: 記者署名:工商時報 呂佳恩
: 原文內容:
: 美國商務部長雷蒙多(Gina Raimondo)11日表示,美國正在研究輝達為中國市場開發的
: 產品,並於早前與輝達執行長黃仁勳就晶片出口進行討論,她指出,輝達「能夠、將會且
: 應當」向中國出售人工智慧(AI)晶片。
: 美國拜登政府於今年10月擴大晶片管制,劍指AI算力領域,雷蒙多更於本月稍早點名輝達
: ,直言該公司透過推出降規版晶片特別供應中國,她強調,企業不應為短期收入犧牲國安
: ,並警告稱,若再次繞道降規,商務部將會立即出手管控。
: 不過,雷蒙多11日接受媒體訪問時態度明顯軟化許多,她透露商務部將檢查輝達為中國市
: 場開發的晶片,以確保其不會違反出口管制,並指出該部定期與輝達溝通,該公司是很好
: 的合作夥伴,雙方共享資訊。
: 雷蒙多表示,由於多數AI晶片皆用於商業用途,輝達「能夠、將會且應當」向中國AI晶片
: ,不過不會讓該公司出售其最精密、處理能力最高的AI晶片,以避免中國藉此訓練先進AI
: 模型。
: 雷蒙多補充指出,她一周前曾與黃仁勳溝通,黃仁勳的態度相當明確,即該公司無意違反
: 拜登政府的規則,願與政府合作,並希望在向中國銷售AI晶片時做「正確的事」。
: 針對雷蒙多的最新言論,輝達表示,目前正在與美國政府合作,在遵循規範的同時,致力
: 於為全球客戶提供資料中心解決方案。
: 至於商務部是否會對輝達的新晶片祭出任何限制,該部門拒絕發表評論,但重申會不斷更
: 新規則,以應對瞬息萬變的威脅。
: 另外,雷蒙多再次呼籲國會通過立法,以解決TikTok等外國應用程式對國家安全構成的潛
: 在威脅,並強調受到規範的不應只有TikTok,因此更需要由法律途徑對此進行管制。
: 心得/評論:
: 未來黃勳仁可以向中國出售AI晶片了
: 難怪NVIDIA的股票又在漲了
: 中國又贏了 又能做AI暴打美帝了
: 美帝又輸了 為了賺錢一樣跪下去
: 用美帝的技術來暴打美帝 吃你的飯 砸你的鍋 嘻
: 不愧是制度自信 道路自信 超英趕美 彎道超車

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.169.111.72 (美國)
※ 作者: LDPC 2023-12-13 01:59:10
※ 文章代碼(AID): #1bU9zlW9 (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1702403951.A.809.html
※ 同主題文章:
Re: [新聞] 雷蒙多態度髮夾彎 允輝達向中國出售AI晶片
12-13 01:59 LDPC
musie: 我倒覺得Mistral會把算力需求打下去
1. 他主打7B~10B model 強調小模型也可以達標
2. 他的MOE就表明 可以用8x7B 去Complete 40B1F 12/13 02:21
LDPC: 7B 也要接近千顆gpu耶。8,個agent就要上萬啊4F 12/13 02:51
musie: ?? ?你在講啥 一個H100就可以train GPT-3 175B mode5F 12/13 03:00
LDPC: 還有scaling law 算力只會要更多啊
h100 80gb 單顆train 100B以上模型?
llama 7b 是82432 hours 80gb A100單顆
h100大概是a100兩倍 用千顆train 也要三天才能train完整一次
7b現在最陽春做法training也要百顆啊
還沒說100b模型用1byte 方式load 要100gb ram 也超過單顆h100 80gb 記憶體容量6F 12/13 03:04
musie: 我的意思是time/money trade-off
1024 A100 train GPT3 需要34d 但我也可以128 340d我看7B model是不用一天就跑完.. 跑個2week也沒差反正到最後都是卡在data quality14F 12/13 04:12
LDPC: 有差啊。你沒此調整一個參數 learing rate 或schedule 就兩個裡拜看結果18F 12/13 04:18
musie: 而且現在fine-tune都用LORA 記憶體可以大砍
只有做foundation model的要整個model
現在做foundation model也才那幾家..20F 12/13 04:19
LDPC: 等你找到對的data 架構和training。至少要數十次調整 每次五天和每次一個月 差距就是被幹掉23F 12/13 04:21
musie: 大大做foundmaion model嗎 我們應用沒有這麼多錢25F 12/13 04:21
LDPC: 這也是為何meta有五萬張a100 就是搶縮減時間
misra就是做pretrained llm26F 12/13 04:22
musie: 應用面就真的都卡在生資料和洗資料 我是不覺得
大家還會瘋狂搶GPU啦28F 12/13 04:23
LDPC: 現在不是只有大廠玩的起 很多學校也玩的起30F 12/13 04:23
Alwen: 推特有人說大概明年上半年就能看到有人把GPT4等級的模型開源,大廠大模型還真的沒辦法獨佔惹31F 12/13 06:03
EvilSD: 上半年要把GPT4等級開源很難吧 誰要開第一槍
哪個大廠願意開源給你fine-tune33F 12/13 06:44
Alwen: 很快阿 現在開源已經追上3.5惹
再花半年達到GPT4 蠻正常DER
這東西以後只會越更新越快而已
當然那時候GPT4.5已經推出惹八35F 12/13 07:07
cosmo7897: 7b叫做小模型XD 真會凹39F 12/13 07:33

--
作者 LDPC 的最新發文:
點此顯示更多發文記錄