顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2026-02-13 23:10:36
看板 Stock
作者 waitrop (嘴砲無雙)
標題 Re: [新聞] 告別GPU OpenAI推出極速晶圓引擎模型
時間 Fri Feb 13 14:41:06 2026


※ 引述《h0103661 (單推人) 每日換婆 (1/1)》之銘言:
:
: 原文標題:
: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras:
: 原文連結:
: https://www.cerebras.ai/blog/openai-codexspark:
: 發布時間:
: 2026-02-12
:
: 記者署名:
: James Wang
:
: 原文內容:
: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
: y Cerebras, is available in research preview. This marks the first release in ou
: r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
: me software development where responsiveness matters as much as intelligence. Po
: wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
: ng near-instant feedback in live coding environments.
: 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並
: 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速
: 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的
: 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近
: 乎瞬時的回饋。
: Agentic coding has fundamentally changed software development. For the first tim
: e, machines can autonomously work for hours or days without human supervision. B
: ut this mode of interaction can also leave developers feeling out of the loop wi
: th long wait times and less opportunity to direct the work. As software developm
: ent is iterative, developers need to inject taste, direction, and sensibility al
: ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
:  It is fast, responsive, and steerable, putting the developer back in the driver
: ’s seat.
: Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
: ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
:  it produces more capable responses than GPT-5.1-Codex-mini while completing tas
: ks in a fraction of the time.
: Codex-Spark excels at making precise edits, revising plans, and answering contex
: tual questions about your codebase. It’s a fast way to visualize new layouts, r
: efine styling, and test new interface changes.
: 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時
: 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的
: 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力
: 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新
: 掌握主導權。
: Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro
: 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min
: i,且完成任務的時間僅需後者的一小部分。
: Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺
: 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。
: "Cerebras has been a great engineering partner, and we’re excited about adding
: fast inference as a new platform capability. Bringing wafer-scale compute into p
: roduction gives us a new way to keep Codex responsive for latency-sensitive work
: , and we’re excited to learn from developer feedback on how to compose our comp
: ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
: l Compute at OpenAI.
: OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很
: 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏
: 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算
: 能力整合進流暢的工作流中。」
: Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
: r goal is to accelerate a wide spectrum of AI workloads across both real-time an
: d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
: est on-chip memory of any AI processor, enabling high-speed inference at thousan
: ds of tokens per second per user. The architecture scales out to thousands of sy
: stems, extending fast memory capacity into the multi-terabyte domain to support
: trillion-parameter models for both training and inference. We expect to bring th
: is ultra-fast inference capability to the largest frontier models in 2026.
: Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
: e Codex app, CLI, and VS Code extension, with API access rolling out to select d
: esign partners. Try Codex-Spark rolling out today.
: Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步
: (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最
: 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架
: 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓
: 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。
: Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C
: ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex
: -Spark。
:
:
: 心得/評論:
:
: 上個月我有發了兩家合作的消息,
: 今天正式推出第一個合作產品,推理速度破千的GPT-5!
: 給大家一個比例尺:平常用的GPT-5速度不到一百。:
: Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算,
: 由於能直接載入整個AI模型到運算單元上,
: 速度是GPU的數十倍,
: 這是Cerebras成立以來第一個企業級應用,
: 或將衝擊整個GPU市場。
:
:

我之前有分析過,
https://www.ptt.cc/bbs/Stock/M.1769589988.A.C87.html
Re: [新聞] OpenAI與硬體供應商Cerebras簽約 - Stock板 - Disp BBS
[圖]
waitrop bull shit Cerebras Systems 推出尺寸最大晶片,推理速度超過輝達 Blackwell 這款晶片的尺寸是 8.5 英吋(約 22 公分)的巨大方形晶片 一顆晶片比你的書桌還大張
Cerebras是用大力出奇蹟的方式,
晶片大小是其他GPU/TPU的百倍大小,
一片晶圓wafer 切出一顆,
這會導致良率極低

基本上,
Cerebras有兩個問題: 1. 良率, 2. 相容性(CUDA)
以OpenAI的軟體能力,
相信可以繞過CUDA 的相容性問題,
也就是說,
相信OpenAI 有能力可以把自己的模型移植到Cerebras晶片上運行,
所以對OpenAI+Cerebras而言,
最大的問題就是良率,
以Cerebras的良率跟體量,
不太可能可以吃下所有 ChatGPT Pro 用戶,
1%? 10%? 20%?
不確定能吃下多少的用戶量,
但是對NVDA 影響不大,
2nd solution 的AMD Intel可能就會受到影響

另外,
對於板上的大神與專家們的指教,
我回應幾句話,
我只是用國小數學以及大一基本課本的內容做解釋,
淺顯易懂, 不去賣弄專業,
主要目的是讓大家知道真相,
然後很多大神跟專家對我的提出的觀點,
有很多的指教以及抓錯,
其實,
我也不是笨蛋,
我當然知道我說法的問題,
只是主打一個淺顯易懂, 大方向正確,
這樣說吧!
要是良率可以用之前推文裡說的各種方式解決提高良率,
那為何Intel 三星還在為良率的問題被台積電打趴,
各種提高良率的方式,
都只是小部分的改進,
大方向跟大數字是不會差太多的,
的確,
Cerebras 的良率可能不會到1%那麼慘,
但是絕對絕對是極低良率 極低產量,

要是Cerebras產量夠大,
怎麼沒有大量部署到各大CSP廠,
撇開CUDA相容問題,
就是產量不夠,
而且這麼大的晶片一定是特殊機器特殊規格

然後,
因為Cerebras的良率問題,
所以Cerebras只能選擇台積電,
一樣用國小數學算一算就知道,
Cerebras面積這個大,
吃代工廠良率就更重

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國)
※ 作者: waitrop 2026-02-13 14:41:06
※ 文章代碼(AID): #1fZiU4ks (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770964868.A.BB6.html
komeko      : 寫那麼多小作文結果微軟還是沒反彈1F 02/13 14:44
???
我沒有買微軟, 我也沒有推微軟
※ 編輯: waitrop (76.103.225.6 美國), 02/13/2026 14:46:07
lawy        : 感謝W大持續分享,把複雜的事說的業外也看得懂2F 02/13 14:47
madeinheaven: 最主要的問題是SRAM很貴3F 02/13 14:48
madeinheaven: 會做成那麼大也是因為SRAM的關係
chewthelife8: 1樓三小啦…….5F 02/13 14:51
strlen      : 老黃還是破不了2006F 02/13 14:52
abc0922001  : 不管到時候用誰的GPU,或者用不用GPU,都是GG代工7F 02/13 14:54
kira925     : 對AMD/Intel的"晶片"影響可能還沒那麼大8F 02/13 14:59
kira925     : 這有一定程度是打廣告
ztsc0304356 : 感謝W大的分享和用心解說10F 02/13 15:02
madbele     : qqq最近好慘,請問大神對qqq盤那麼久還沒發動有什11F 02/13 15:05
madbele     : 麼看法嗎QQ
Coolno9     : 支持w大的方式 投資向來不保證懂最細最新的人贏13F 02/13 15:08
fakelie     : wait來啦14F 02/13 15:14
wahaha99    : 這個大晶圓的不良是內部處理吧?15F 02/13 15:26
wahaha99    : 把不良、故障的單元隔離掉就好
wahaha99    : 良率應該是90%以上 只要達到出貨標準就可以出貨
searchroy   : Only GG18F 02/13 15:33
ttmm        : 呵呵19F 02/13 15:36
ttmm        : 以為2這麼簡單阿 他們是軟體公司ok
niniko      : 結論是不是買台積電就對了?21F 02/13 15:38
QDR18       : 感謝分享22F 02/13 15:42
speculator  : 大概就是這東西對良率要求很高 也會很貴吧23F 02/13 15:50
as6633208   : 嗯...基本上歐噴醬,近期操作本質都是一直試著找回24F 02/13 16:01
as6633208   : 自己的主導權,但其實內心深處大家越不怕他,歐噴醬
as6633208   : 心裡越怕== 本來chatgpt 一哥,先被Gemini 壓制,然
as6633208   : 後又要被Anthropic追過,其實歐噴醬現在最怕的反而
as6633208   : 是老黃跑去大力幫anthropic,唉,好可憐,歐噴醬科
as6633208   : 技政客組局快極限了嗎,唯一沒有從0開始到千億市值
as6633208   : 的公司ceo,靠著科技政客組局和權力鬥爭看來快到極
as6633208   : 限了,科技發明家從0開始,白手起家經營到七巨頭的
as6633208   : 企業,ceo的還是比較有料,看著猶太屁精這樣真的覺
as6633208   : 得有點可憐==
appledick   : GG:這誰能做啊?34F 02/13 16:04
roseritter  : 這顆就是拼超爆量小核,缺陷多到某個程度就不划算惹35F 02/13 16:04
roseritter  : ,能用核變的更少
as6633208   : 他爬到了一個不屬於他的高度,該均值回歸了,跟 賈37F 02/13 16:05
as6633208   : 伯斯 馬斯克 祖克柏 黃仁勳這些從白手起家經營到現
as6633208   : 在的ceo還是有點差距阿,anthropic 那個ceo達利歐還
as6633208   : 比較像創業家,感覺奧特曼...胸口的光開始閃紅燈快
as6633208   : 要沒光了
roseritter  : 反倒是一般的晶片,壞的部分遮蔽後還能當次貨賣42F 02/13 16:06
as6633208   : 看好他的猶太血統,但感覺同樣是猶太人,怎麼神力好43F 02/13 16:09
as6633208   : 像還是有差
breathair   : Cerebras 用備用核心避開單點故障整片報廢的問題,45F 02/13 16:14
breathair   : 理論上良率不會差喔,而且他不用CoWoS封裝,理論上
breathair   : 產能出的來喔,而且速度理論上會比機櫃式solution
breathair   : 更好,當然,以上都是理論
edison106   : 這篇說的正確49F 02/13 16:17
edison106   : 除了良率 這麼大片光要測試都不知道要搞多久了 成
edison106   : 本一定高到靠北
b325019     : 都幾年了還頭鐵搞超大晶片真的是不怕死52F 02/13 16:29
uodam64402  : 一片晶圓只能產一片晶片,這種肯定要作損害控管分割53F 02/13 16:31
uodam64402  : ,切分成數十到百多個區域來剔除不良區,以提升晶片
uodam64402  : 可使用程度吧,這東西肯定比GB-200的晶圓總價貴不少
as6633208   : 晶片設計這塊啦 老黃的護城河包含設計技術、客戶關56F 02/13 16:35
as6633208   : 係、產業鏈關係,深不見底,看看全村希望amd 一項沒
as6633208   : 跟上財報就撐不住被華爾街看破手腳,另外自研的那些
as6633208   : 笑話看看就好,孤狗買老黃晶片的力道還比誰都還用力
as6633208   : ,想自己設計,先搞定好台積電產業關係吧== 連社交
as6633208   : 都捨不得來台灣,台積產能當然老黃優先,大家都馬知
as6633208   : 道老黃壟斷晶片業還抓到趨勢,就希望他不要賣這麼貴
as6633208   : 而已,至於台積電在這波的產能更是關鍵中的關鍵==
wolver      : 等孫正義那300億燒完奧特曼就會沒亮燈倒了64F 02/13 16:36
gladopo     : 我也是覺得晶片硬要這麼大頭太鐵,好處就是不用跟老65F 02/13 16:39
gladopo     : 黃搶先進封裝
as6633208   : 之前全村希望是什麼,各家自研晶片+博通+amd+intel67F 02/13 16:42
as6633208   : ,取代老黃+台積電壟斷,結果財報出來各各笑話冠軍
as6633208   : ,intel良率大問題,amd營收不理想,博通和amd全都
as6633208   : 離不開台積電,硬要說台積成了這波大贏家,代工出奇
as6633208   : 蹟
misakiitoh  : 感謝分享!!72F 02/13 16:44
as6633208   : 喔至於老黃跟台積的關係相比其他笑話冠軍的自研晶片73F 02/13 16:46
as6633208   : ,不說了,ceo來台灣social沒幾次,產能是搶的贏老
as6633208   : 黃有事沒事就過來social的?然後更好笑七巨頭嘴巴喊
as6633208   : 自研晶片,身體買老黃晶片比誰都用力,資本支出一兩
as6633208   : 千億砸,不是說自研省錢,省得錢?之前那波自研敘事
as6633208   : 財報和指引一出來跟笑話沒兩樣
TameFoxx    : 反正在這裡講錯也沒人在乎吧,就繼續亂講就好79F 02/13 16:56
ProTrader   : 這種產品類似超級電腦性質 用的起的廠商肯定超少80F 02/13 17:02
ProTrader   : 就算成功 產片量一定很低 因為沒人用的起
madeinheaven: 不會成功的82F 02/13 17:04
ProTrader   : 房市產品有套房二房三房四房...豪宅83F 02/13 17:04
ProTrader   : 這產品是造鎮甚至建城的等級
ProTrader   : 然後不管怎樣 台積電肯定是最大贏家
josephpu    : 老黃還是大領先,但矽晶片就是未來5~10年戰略資源86F 02/13 17:08
josephpu    : 從設計到量產到供應鏈關係都是,巨頭不願意擺爛任
josephpu    : 由老黃宰他們。哪怕微軟阿祖兩家起步最晚的,都還
josephpu    : 在投入asic。概念其實有點類似中國現在一邊走私,
josephpu    : 一邊還是積極投入國內自產
josephpu    : openAi最大的問題是沒有巨頭的現金流卻做著巨頭在
josephpu    : 做的事,但它真的熬過去那就不一樣了
Gaujing     : Amd 比較有影響93F 02/13 17:20
edison106   : 良率 sram 測試 全部都是成本94F 02/13 17:25
kivan00     : 機櫃空間很貴 你能忍受幾個人在一間公司整天睡覺不95F 02/13 17:35
kivan00     : 做事 冷氣還不能繞過他
realskyer   : 無話可說,感謝W大分享!97F 02/13 17:52
realskyer   : 推淺顯易懂
kamitengo   : https://i.meee.com.tw/DxQ6f9c.jpg99F 02/13 18:03
kamitengo   : 前年去聽了下,Cerebras表示他們的設計理念是你本
kamitengo   : 來就是要預設裡面的device是fail的,裡面設計了相
kamitengo   : 當多的redundancy,當然D0會影響每片的performance
kamitengo   : 有差,所以當場與會的主要問他你如何測試與sorting
kamitengo   : ?對於每片性能差異你如何建立business model讓客
kamitengo   : 戶買單?我自己判斷他采用近存運算主要用途在推論
kamitengo   : 效率,所以你也不用擔心他cuda相容。
[圖]
lane34      : CEREBRAS我一直很疑惑它們為何可以活這麼久107F 02/13 18:19
myyalga     : 難怪散熱又噴~原來是cerebras 帶起來的!108F 02/13 18:49
hellomo     : 好期待open醬被打下去,好興奮109F 02/13 19:08
sdbb        : 謝謝,新年快樂110F 02/13 19:30
myyalga     : Cerebras感覺是比較大顆的cpu,跟CPU裡面有快取、暫111F 02/13 19:31
myyalga     : 存,感覺不會是取代gpu,而是更專業算力分工!
myyalga     : —
myyalga     : 不過gpt 的思考模式倒是有感提升速度,從幾分進化成
myyalga     : 幾秒。
myyalga     : 這樣的速度才爽,以前都等到快睡著
ppuuppu     : 99老黃 99狗狗 霸脫惹117F 02/13 19:38
jiansu      : 剛剛查了一下Gemini 這個推理訓練都能用 初期建置118F 02/13 19:56
jiansu      : 風險過後 很有潛力 https://i.imgur.com/oregYIO.jpeg
jiansu      :   直接和ai 然後再去驗證避免幻覺吧討論
[圖]
ckpetercheng: 老黃真的別買 gpu在ai的市場正在萎縮121F 02/13 19:58
coke7       : 感謝TQ王的分享和苦口婆心解說122F 02/13 21:16
kobebrian   : 萎縮??成長趨緩=萎縮?我有看錯嗎123F 02/13 21:27
kobebrian   : 頂多沒辦法再每年噴80%
as6633208   : 老黃的問題不是公司基本面,是股票市值太大,4.5萬125F 02/13 21:38
as6633208   : 億的市值,噴10%大概要5000億資金灌進去,資金這種
as6633208   : 規模的資金灌給5000億的中小盤股可以噴100%了
kobebrian   : 市值大是個問題 但營收開出來你不想買都不行128F 02/13 22:16
kobebrian   : 人家就是賺爛了啊
kobebrian   : 台積電之前盤了將近一年 最後還是噴

--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 43 
作者 waitrop 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
guest
x)推文 r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇