作者 waitrop (嘴砲無雙)標題 Re: [新聞] 告別GPU OpenAI推出極速晶圓引擎模型時間 Fri Feb 13 14:41:06 2026
※ 引述《h0103661 (單推人) 每日換婆 (1/1)》之銘言:
:
: 原文標題:
: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras
:
: 原文連結:
: https://www.cerebras.ai/blog/openai-codexspark
:
: 發布時間:
: 2026-02-12
:
: 記者署名:
: James Wang
:
: 原文內容:
: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
: y Cerebras, is available in research preview. This marks the first release in ou
: r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
: me software development where responsiveness matters as much as intelligence. Po
: wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
: ng near-instant feedback in live coding environments.
: 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並
: 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
: 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
: 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
: 乎瞬時的回饋。
: Agentic coding has fundamentally changed software development. For the first tim
: e, machines can autonomously work for hours or days without human supervision. B
: ut this mode of interaction can also leave developers feeling out of the loop wi
: th long wait times and less opportunity to direct the work. As software developm
: ent is iterative, developers need to inject taste, direction, and sensibility al
: ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
: It is fast, responsive, and steerable, putting the developer back in the driver
: ’s seat.
: Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
: ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
: it produces more capable responses than GPT-5.1-Codex-mini while completing tas
: ks in a fraction of the time.
: Codex-Spark excels at making precise edits, revising plans, and answering contex
: tual questions about your codebase. It’s a fast way to visualize new layouts, r
: efine styling, and test new interface changes.
: 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時
: 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
: 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
: 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
: 掌握主導權。
: Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro
: 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min
: i,且完成任務的時間僅需後者的一小部分。
: Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺
: 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。
: "Cerebras has been a great engineering partner, and we’re excited about adding
: fast inference as a new platform capability. Bringing wafer-scale compute into p
: roduction gives us a new way to keep Codex responsive for latency-sensitive work
: , and we’re excited to learn from developer feedback on how to compose our comp
: ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
: l Compute at OpenAI.
: OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很
: 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
: 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
: 能力整合進流暢的工作流中。」
: Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
: r goal is to accelerate a wide spectrum of AI workloads across both real-time an
: d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
: est on-chip memory of any AI processor, enabling high-speed inference at thousan
: ds of tokens per second per user. The architecture scales out to thousands of sy
: stems, extending fast memory capacity into the multi-terabyte domain to support
: trillion-parameter models for both training and inference. We expect to bring th
: is ultra-fast inference capability to the largest frontier models in 2026.
: Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
: e Codex app, CLI, and VS Code extension, with API access rolling out to select d
: esign partners. Try Codex-Spark rolling out today.
: Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步
: (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
: 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
: 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
: 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
: Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C
: ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex
: -Spark。
:
:
: 心得/評論:
:
: 上個月我有發了兩家合作的消息,
: 今天正式推出第一個合作產品,推理速度破千的GPT-5!
: 給大家一個比例尺:平常用的GPT-5速度不到一百。
:
: Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算,
: 由於能直接載入整個AI模型到運算單元上,
: 速度是GPU的數十倍,
: 這是Cerebras成立以來第一個企業級應用,
: 或將衝擊整個GPU市場。
:
:
我之前有分析過,
https://www.ptt.cc/bbs/Stock/M.1769589988.A.C87.html
Cerebras是用大力出奇蹟的方式,
晶片大小是其他GPU/TPU的百倍大小,
一片晶圓wafer 切出一顆,
這會導致良率極低
基本上,
Cerebras有兩個問題: 1. 良率, 2. 相容性(CUDA)
以OpenAI的軟體能力,
相信可以繞過CUDA 的相容性問題,
也就是說,
相信OpenAI 有能力可以把自己的模型移植到Cerebras晶片上運行,
所以對OpenAI+Cerebras而言,
最大的問題就是良率,
以Cerebras的良率跟體量,
不太可能可以吃下所有 ChatGPT Pro 用戶,
1%? 10%? 20%?
不確定能吃下多少的用戶量,
但是對NVDA 影響不大,
2nd solution 的AMD Intel可能就會受到影響
另外,
對於板上的大神與專家們的指教,
我回應幾句話,
我只是用國小數學以及大一基本課本的內容做解釋,
淺顯易懂, 不去賣弄專業,
主要目的是讓大家知道真相,
然後很多大神跟專家對我的提出的觀點,
有很多的指教以及抓錯,
其實,
我也不是笨蛋,
我當然知道我說法的問題,
只是主打一個淺顯易懂, 大方向正確,
這樣說吧!
要是良率可以用之前推文裡說的各種方式解決提高良率,
那為何Intel 三星還在為良率的問題被台積電打趴,
各種提高良率的方式,
都只是小部分的改進,
大方向跟大數字是不會差太多的,
的確,
Cerebras 的良率可能不會到1%那麼慘,
但是絕對絕對是極低良率 極低產量,
要是Cerebras產量夠大,
怎麼沒有大量部署到各大CSP廠,
撇開CUDA相容問題,
就是產量不夠,
而且這麼大的晶片一定是特殊機器特殊規格
然後,
因為Cerebras的良率問題,
所以Cerebras只能選擇台積電,
一樣用國小數學算一算就知道,
Cerebras面積這個大,
吃代工廠良率就更重
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國)
※ 作者: waitrop 2026-02-13 14:41:06
※ 文章代碼(AID): #1fZiU4ks (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770964868.A.BB6.html
※ 同主題文章:
Re: [新聞] 告別GPU OpenAI推出極速晶圓引擎模型
02-13 14:41 waitrop
→ komeko: 寫那麼多小作文結果微軟還是沒反彈1F 02/13 14:44
???
我沒有買微軟, 我也沒有推微軟
※ 編輯: waitrop (76.103.225.6 美國), 02/13/2026 14:46:07
推 lawy: 感謝W大持續分享,把複雜的事說的業外也看得懂2F 02/13 14:47
推 madeinheaven: 最主要的問題是SRAM很貴
會做成那麼大也是因為SRAM的關係3F 02/13 14:48
推 strlen: 老黃還是破不了2006F 02/13 14:52
推 abc0922001: 不管到時候用誰的GPU,或者用不用GPU,都是GG代工7F 02/13 14:54
推 kira925: 對AMD/Intel的"晶片"影響可能還沒那麼大
這有一定程度是打廣告8F 02/13 14:59
推 madbele: qqq最近好慘,請問大神對qqq盤那麼久還沒發動有什麼看法嗎QQ11F 02/13 15:05
推 Coolno9: 支持w大的方式 投資向來不保證懂最細最新的人贏13F 02/13 15:08
推 wahaha99: 這個大晶圓的不良是內部處理吧?
把不良、故障的單元隔離掉就好
良率應該是90%以上 只要達到出貨標準就可以出貨15F 02/13 15:26
噓 ttmm: 呵呵
以為2這麼簡單阿 他們是軟體公司ok19F 02/13 15:36
→ niniko: 結論是不是買台積電就對了?21F 02/13 15:38
推 QDR18: 感謝分享22F 02/13 15:42
推 as6633208: 嗯...基本上歐噴醬,近期操作本質都是一直試著找回自己的主導權,但其實內心深處大家越不怕他,歐噴醬心裡越怕== 本來chatgpt 一哥,先被Gemini 壓制,然後又要被Anthropic追過,其實歐噴醬現在最怕的反而是老黃跑去大力幫anthropic,唉,好可憐,歐噴醬科技政客組局快極限了嗎,唯一沒有從0開始到千億市值的公司ceo,靠著科技政客組局和權力鬥爭看來快到極限了,科技發明家從0開始,白手起家經營到七巨頭的企業,ceo的還是比較有料,看著猶太屁精這樣真的覺得有點可憐==24F 02/13 16:01
推 roseritter: 這顆就是拼超爆量小核,缺陷多到某個程度就不划算惹,能用核變的更少35F 02/13 16:04
→ as6633208: 他爬到了一個不屬於他的高度,該均值回歸了,跟 賈伯斯 馬斯克 祖克柏 黃仁勳這些從白手起家經營到現在的ceo還是有點差距阿,anthropic 那個ceo達利歐還比較像創業家,感覺奧特曼...胸口的光開始閃紅燈快要沒光了37F 02/13 16:05
→ roseritter: 反倒是一般的晶片,壞的部分遮蔽後還能當次貨賣42F 02/13 16:06
推 as6633208: 看好他的猶太血統,但感覺同樣是猶太人,怎麼神力好像還是有差43F 02/13 16:09
--