看板 Stock作者 h0103661 (單推人) 每日換婆 (1/1)標題 [新聞] 告別GPU OpenAI推出極速晶圓引擎模型時間 Fri Feb 13 11:13:53 2026
原文標題:
Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras
原文連結:
https://www.cerebras.ai/blog/openai-codexspark
Cerebras
Cerebras is the go-to platform for fast and effortless AI training. Learn more at cerebras.ai. ...
發布時間:
2026-02-12
記者署名:
James Wang
原文內容:
Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
y Cerebras, is available in research preview. This marks the first release in ou
r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
me software development where responsiveness matters as much as intelligence. Po
wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
ng near-instant feedback in live coding environments.
今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並
開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
乎瞬時的回饋。
Agentic coding has fundamentally changed software development. For the first tim
e, machines can autonomously work for hours or days without human supervision. B
ut this mode of interaction can also leave developers feeling out of the loop wi
th long wait times and less opportunity to direct the work. As software developm
ent is iterative, developers need to inject taste, direction, and sensibility al
ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
It is fast, responsive, and steerable, putting the developer back in the driver
’s seat.
Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
it produces more capable responses than GPT-5.1-Codex-mini while completing tas
ks in a fraction of the time.
Codex-Spark excels at making precise edits, revising plans, and answering contex
tual questions about your codebase. It’s a fast way to visualize new layouts, r
efine styling, and test new interface changes.
「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時
甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
掌握主導權。
Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro
與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min
i,且完成任務的時間僅需後者的一小部分。
Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺
化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。
"Cerebras has been a great engineering partner, and we’re excited about adding
fast inference as a new platform capability. Bringing wafer-scale compute into p
roduction gives us a new way to keep Codex responsive for latency-sensitive work
, and we’re excited to learn from developer feedback on how to compose our comp
ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
l Compute at OpenAI.
OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很
高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
能力整合進流暢的工作流中。」
Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
r goal is to accelerate a wide spectrum of AI workloads across both real-time an
d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
est on-chip memory of any AI processor, enabling high-speed inference at thousan
ds of tokens per second per user. The architecture scales out to thousands of sy
stems, extending fast memory capacity into the multi-terabyte domain to support
trillion-parameter models for both training and inference. We expect to bring th
is ultra-fast inference capability to the largest frontier models in 2026.
Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
e Codex app, CLI, and VS Code extension, with API access rolling out to select d
esign partners. Try Codex-Spark rolling out today.
Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步
(Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C
ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex
-Spark。
心得/評論:
上個月我有發了兩家合作的消息,
今天正式推出第一個合作產品,推理速度破千的GPT-5!
給大家一個比例尺:平常用的GPT-5速度不到一百。
Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算,
由於能直接載入整個AI模型到運算單元上,
速度是GPU的數十倍,
這是Cerebras成立以來第一個企業級應用,
或將衝擊整個GPU市場。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.79.16.163 (臺灣)
※ 作者: h0103661 2026-02-13 11:13:53
※ 文章代碼(AID): #1fZfRtzM (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770952439.A.F56.html
※ 同主題文章:
[新聞] 告別GPU OpenAI推出極速晶圓引擎模型
02-13 11:13 h0103661
推 L1ON: 台積電噴1F 02/13 11:16
推 ccdrv: 都不用gpu NV要涼了2F 02/13 11:16
推 mopa: 還是要台積電...3F 02/13 11:17
推 maimss: 會不會有人不玩了?….4F 02/13 11:18
推 joygo: 關鍵字 台積電5F 02/13 11:18
推 woko: 這超大威化餅真的能吃啊...?太厲害了6F 02/13 11:19
→ Brioni: GG噴 NV哭8F 02/13 11:20
推 Marginal: GPU需求下修? GPU市場要被衝擊了?10F 02/13 11:20
→ Brioni: 黃爸直接砸錢買下來掐死你11F 02/13 11:21
推 tomdavis: 能訓練再來說取代gpu 都幾年了還在亂下標 不專業13F 02/13 11:23
→ ZO20: 還是要台積 結案14F 02/13 11:24
推 kload: 老黃:我不投資你就扯我後腿?16F 02/13 11:24
→ tomdavis: 跟去年說Deepseek 會終結運算需求一樣的知識水準17F 02/13 11:24
推 onekoni: 台積電
xddd 啥都要扯到台積電 2330真的無腦多18F 02/13 11:28
推 howdiee: 又又又又又要被取代了22F 02/13 11:29
→ sonatafm2: 看成曲速引擎 想說有曲速AI引擎都出來了還不飛天23F 02/13 11:29
→ deann …
推 deann: 誰代工?24F 02/13 11:30
推 cwolf: 滿庫存的GPU沒電力用?投放廣告?28F 02/13 11:33
推 josephpu: 亂下標才有高能兒看啊 嘻嘻29F 02/13 11:35
→ josephpu: cpu藥丸惹 gpu藥丸惹 tpu藥丸惹31F 02/13 11:36
推 gladopo: 超巨大那個嗎? 成本很高的說32F 02/13 11:36
推 s881720: OAI還有錢喔 嘻嘻36F 02/13 11:41
推 house911: 台雞雞受惠 ? 封裝測試也會受惠 ?37F 02/13 11:41
→ tmdl: 美股不歡迎太快的40F 02/13 11:45
推 grtfor: AI大廠都想要逃離NV41F 02/13 11:47
推 yutaka28: 其實真的要整片的話,我一直不懂真正獨家在哪裡?最困難的技術不是其實是台積嗎
設計部分困難的點在哪?其他公司無法設計嗎?
不是其實都是依賴台積的良率?43F 02/13 11:48
噓 strlen: 老黃這輩子就這樣惹48F 02/13 11:52
→ gladopo: 整片最難的部份台積包了,有凱子付錢能做就做50F 02/13 11:52
推 PA5566: 直接用晶圓跑啊 真的假的53F 02/13 11:56
推 kunyi: 三星五奈米也搶不到?54F 02/13 11:57
→ a79111010: 就說了會走BTC的路 顯卡之後就是專用礦機的概念
顯卡終究只是過度的產品 需求上來就需要專門的55F 02/13 11:58
推 haworz: 這篇需要翻譯翻譯,晶圓引擎是啥?用整片晶圓把GPT硬體化嗎?57F 02/13 11:59
推 gladopo: 察Cerebras就有相關說明了
之前的關鍵字是 44GB on-chip SRAM59F 02/13 12:02
Product - Chip - Cerebras
Meet the Cerebras Wafer-Scale Engine—the world’s largest AI processor. Train deep learning models faster, with lower power consumption and industry-le ...
推 fakelie: 那就是雞雞5nm + 更多記憶卡蛙65F 02/13 12:08
推 jympin: GPU IS OVER?67F 02/13 12:08
推 mopa: 以後做出來的晶片不會是圓形吧 跟晶圓一樣大 完全不浪費68F 02/13 12:08
→ gladopo: 這東東真的紅的話就肯定是gg的單,沒法跑71F 02/13 12:08
→ JoeyChen: 直接載入整個AI模型 所以關鍵是記憶體?72F 02/13 12:09
→ roseritter: 我是覺得產能很受限啦 除非你早早下很大單等著75F 02/13 12:10
→ JoeyChen: 問一下 那gpu可以也套用這種晶圓級記憶體模式嗎 反正記憶體越多越快越好78F 02/13 12:12
→ changmary: 台G利空 高價GPU換低價RISC81F 02/13 12:12
推 fakelie: 三星5nm良率有沒有上來?有ㄉ話GG就GG懶83F 02/13 12:13
噓 cpz: 回答快但答案垃圾有什麼用85F 02/13 12:14
推 motan: 蛤?所以只是記憶體反應速度?sram 不是本來就反應快嗎86F 02/13 12:14
推 poeoe: 這怎麼可能對NV有啥重大影響啦……89F 02/13 12:15
推 roseritter: 架構不一樣 H100 die size 814 WSE-3 4622590F 02/13 12:15
推 onekoni: 出什麼大事 舊產能再利用xddd 省capex 噴爛91F 02/13 12:15
推 fakelie: WSE-3ㄉ話 5nm就夠ㄌ92F 02/13 12:15
→ onekoni: 五奈米廠折舊早攤完了 純純的利潤像大海一樣啊93F 02/13 12:16
推 vc39: 全世界股民都要買台積電了94F 02/13 12:16
→ fakelie: 三星5nm良率有上來ㄉ話 吃得到95F 02/13 12:16
推 tsubasawolfy: 這跟GOOGLE那個TPU同概念? 不過做鏟子的鐵都2330的96F 02/13 12:16
→ roseritter: GPU 小片 配合HBM去做 這個就是一體機97F 02/13 12:16
推 lusifa2007: 輝達哭哭 台積二奈米可能要少訂單還不出大事哦 有腦嗎?98F 02/13 12:17
→ roseritter: 100x-defect-tolerance-how-cerebras-solved-the-yield-problem 良率夠高 壞點爆掉的小核夠少100F 02/13 12:17
推 nrrakaur: 產能都被NV包了,這晶片找誰做?102F 02/13 12:18
推 vc39: 不管幾奈米廠商都會想辦法讓自己的產品可以用台積電做的晶片,All in 2330跟TSM就對了。105F 02/13 12:19
→ JoeyChen: 全部做在一片上理論上更快吧?107F 02/13 12:19
推 gladopo: 下5nm又不走先進封裝還好啦,只是聽說這東東很難做108F 02/13 12:20
→ roseritter: SM的核心 和WSE-3核心大小不一樣 同樣的壞點率110F 02/13 12:20
推 fakelie: 看來就是計算晶片生產門檻降低 記憶體需求增加111F 02/13 12:20
推 furnaceh: 這種晶片怎麼可能說做就做得出來113F 02/13 12:25
→ la8day: 這家真的有人用喔 厲害了116F 02/13 12:28
推 gladopo: 老黃買下來就又少個對手了117F 02/13 12:29
推 cylu7878: 台積又要噴 出關目標價2330118F 02/13 12:29
推 tsubasawolfy: 要gpt用平鋪直敘的方式解說。回答因為現行LLM運算是在多張gpu跟gpu之間一直把資料搬來搬去。這種直接大晶圓可以省去搬運時間。壞點問題就在硬體層面繞過去不要用。119F 02/13 12:32
推 tsubasawolfy: 順便問了發熱量。回答說跟gpu是高頻小面積需要強散熱,它是低頻跟大面積,後面直接做液冷微流道帶走熱。在LLM上每token產生的焦耳數更低。125F 02/13 12:44
推 RaiGend0519: NV涼了
5奈米對台積電沒有太大優勢,看量了
這條路走得通,對岸也看到光XD128F 02/13 12:44
推 pinkg023: 5奈米應該只是現階段吧,軍備競賽沒理由不往更高密度推131F 02/13 12:46
→ wolver: pass, 文組可能比較喜歡134F 02/13 12:47
推 devidevi: 需要啥硬體,大家應該比較關心這個135F 02/13 12:50
推 sonyvaio: Open AI 就是差評137F 02/13 12:55
推 iwcuforever: 好險還有台積,但我的alphabet是不是下去了138F 02/13 13:03
推 wolver: 孫正義那300億看來撐不到2027了139F 02/13 13:07
推 tsubasawolfy: 硬體回答說只有GG 三星 INTEL有能力。但只有GG有跟它們完成前面兩代的經驗。所以還是GG的天下140F 02/13 13:08
推 mdkn35: 甲骨文:幹 要呷骨了143F 02/13 13:16
推 fay001: openai就是不長進,gemini 聰明又博學149F 02/13 13:29
→ JoeyChen: 問啥大家不看好這架構 不是很符合AI發展的需求嗎
良率問題可能也被GG解決了151F 02/13 13:31
推 onekoni: 2奈米輝達不用亞麻要搶喔 你敢退單嗎
想太多 現在2奈米廠商排隊搶 輝達寧可捏著也不願意退單
亞麻T4晶片現在擠不進去單 你敢退亞麻直接塞進來156F 02/13 13:55
推 jackgn: 先不論成品,這個問題是本來整片晶圓就算良率低還是可以做,那這個一整片的,良率需要多少?160F 02/13 14:02
噓 griffon569: 這篇文章是要炒TSMC的股票嗎?本文根本沒提到TSMCCerebras的WSE-3提到TSMC的新聞都去年的事了
除非看到WSE-3因為市場需求需要增加晶圓訂貨量
不然這新聞跟TSMC根本沒啥關聯...166F 02/13 15:50
推 viorc: 老黃上次來台灣提前暗示了?170F 02/13 16:05
推 orze04: 你們要怎麼用鏟子我不管171F 02/13 16:15
--