看板 Stock
作者 winall (winall)
標題 Re: [新聞] AI版圖將洗牌?Meta傳洽購Google AI晶片TPU
時間 Fri Nov 28 09:35:30 2025


Google 的 TPU 已經很久了

在 OpenAI 發表 ChatGPT之前 , Google 就在用 TPU了

簡單講 Google 為了訓練AI , 自己研發一款專為AI訓練的晶片

這個晶片通常需要自己調校

這已經發表很久了 , 為什麼現在才在炒

可能是最新的 Gemini的成功吧

不完全好的比喻

Nvidia GPU = Windows ; Google TPU = Linux

Nvidia GPU = 自排車  ; Google TPU = 手排車

TPU 拿掉所有跟AI無關的功能

其他團隊要用的時候 需要先花很多時間去了解跟調校

但是 Nvidia 的 GPU 已經有各種好的套裝 , 可以很快地開發

但你看現在用 Windows的人多 還是 Linux的人多

現在開自排的人多 還是開手排的人多 ?

TPU適合自己完全的調教跟開發

未來可能會有人用TPU

但主流仍然是 Nvidia GPU



--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.24.212.244 (臺灣)
※ 作者: winall 2025-11-28 09:35:30
※ 文章代碼(AID): #1fAFnavA (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1764293732.A.E4A.html
※ 同主題文章:
Re: [新聞] AI版圖將洗牌?Meta傳洽購Google AI晶片TPU
11-28 09:35 winall.
※ 編輯: winall (114.24.212.244 臺灣), 11/28/2025 09:36:29
stepnight: Windows 跟 Linux 看領域、需求決定而已
GPU TPU 也不太適合這樣看
其實兩者也不是完全競爭,反而一起用
還可以降本增效1F 11/28 09:37
HiHiCano: 大公司完全可以自用linux 而且現在gpu買家70%都是大公司買的…
損失70%業績 輝達不跌才怪5F 11/28 09:38
stepnight: 這就來了,誰說用TPU就沒GPU需求了==8F 11/28 09:40
visa9527: 那慘了~商用都是 Linux 嵌入式系統自己調教的9F 11/28 09:40
j0588: 調校是工程師的事 能省錢儘早虧轉盈才是重點 市場不缺便宜的工程師10F 11/28 09:40
stepnight: 誰說你之後預計要用TPU,現在就可以不買GPU了
還是你當這沒個過渡期?轉用TPU青青鬆鬆?12F 11/28 09:41
visa9527: GPU自己就是一種專武好嗎?當初CPU繪圖不夠快才有GPU14F 11/28 09:41
yoshonabee: 你看windows server 多還是 Linux 多15F 11/28 09:41
visa9527: 你要不要先搞懂世界上為何會出現GPU這種東西
現在誰還用通用的CPU繪圖?要高性能繪圖哪個不用GPU?16F 11/28 09:41
super0949: google都說 GPU TPU一起用了18F 11/28 09:44
visa9527: GPU也是捨棄掉了繪圖用不到的CPU指令啊19F 11/28 09:44
centaurjr: 你用的東西除了PC底層一堆linux好嗎20F 11/28 09:44
deann 
deann: 訓練通常都是用GPU TPU是用來推論21F 11/28 09:45
visa9527: Android都是Linux的衍生品了~這比喻到底在想啥22F 11/28 09:45
deann 
deann: 用TPU很難訓練...23F 11/28 09:46
visa9527: Linux可以跨的平台裝置比Windows多太多,這更可怕繪圖開發的時候要CPU GPU並用跑軟體~渲染時只要GPUTPU 也是主要用在訓練完的模型拿來跑的時候
TPU當然可以訓練~但訓練不會進步就是用現有演算法跑24F 11/28 09:46
csghuuguh: 發文前為啥不問一下AI28F 11/28 09:49
lancechance: 久不久不重要,NV的GPU在ai領域耕耘也很久了,這兩年大眾才知道,股票才飛漲。
TPU影響GPU股價,跟發表時間一點關係都沒有,現在的趨勢GPU就是要下去29F 11/28 09:49
visa9527: 但作為服務端的meta如果沒要自己訓練那買TPU很合理33F 11/28 09:50
FncRookie001: 我覺得核心問題是GPU的用戶都被榨乾了34F 11/28 09:50
james80351: 樓上還在記那種過時的資訊? Gemini 3官網都說用TPU訓練的了35F 11/28 09:50
liwae: 買鏟子的都是正版受害者37F 11/28 09:50
visa9527: 如果meta是拿訓練好的模型來跑大量服務用TPU不奇怪38F 11/28 09:50
FncRookie001: 淘金熱過了 最後買鏟子的人就少了39F 11/28 09:50
lancechance: 大眾開始理解TPU的現在,就跟去年大眾開始理解GPU一樣40F 11/28 09:51
FncRookie001: meta不用看 祖克柏就是個笑話 跟風仔還跟風落後42F 11/28 09:51
visa9527: 模型就一堆數據~你訓練好可以賣給一堆公司直接跑43F 11/28 09:52
FncRookie001: 之前AI新創火就挖亞歷山大 還把楊立坤踢掉 然後現在Gemini火了就說要TPU 自己ASIC部門可能也要倒大44F 11/28 09:52
visa9527: 以後都是拿基礎模型配自己訓練額外資料標記來 run47F 11/28 09:52
BBKOX: 結論:GOOG、NV回檔就買48F 11/28 09:52
visa9527: meta這樣有啥奇怪~當年IBM還不是火掉自己團隊用微軟你根本不用去想那麼多~這在IT產業就是常態49F 11/28 09:53
stepnight: TPU GPU的關係又不是像GPU之於2D、3D加速卡
那種完全取代==,反而是像最初CPU還要負責圖像
有了2D、3D加速卡出現幫忙算圖,這樣互助的51F 11/28 09:55
visa9527: IBM打不過 Motorola 就找 Intel 做 x86 還不是成功GPU自己都不能獨立運作了~CPU才有中樞系統指令集54F 11/28 09:55
b9513227: 井蛙的腦袋裡tpu=gpu 轉換只要復制貼上就好56F 11/28 09:58
visa9527: GPU自己算平行資料很快~但是牽扯到 I/O 根本廢物
ASIC最後一定贏~跟BTC挖礦一樣演算法最佳化
蛋雕GPU挖礦就是GPU也贏不過ASIC效能了57F 11/28 09:58
fatb: 你的比喻完全錯誤 對使用者而言 享用的是成本 只看的是價格 你以為linux市佔輸windows 但其實市面上各式智慧型電器都有嵌入式
你用這個比喻反而表示GOOGLE即將起飛60F 11/28 10:01
kakayao: 開始了各式TPU/GPU大師64F 11/28 10:03
fatb: 別的不說 你在生活中使用的電器大概除了電腦之外都是用linux哦 科科65F 11/28 10:03
ejnfu: 這個議題我比較信股癌說法,只要硬體需求還是增量市場,餅就夠大到TPU不影響輝達,並不是零和競爭67F 11/28 10:04
xephon: 穩了69F 11/28 10:04
ejnfu: 其他的都當作短期雜音70F 11/28 10:04
b03b01048: To b to c差這麼多71F 11/28 10:07
mdkn35: 但我不想用windows開發machine learning的相關服務72F 11/28 10:09
bitcch: g家的訓練當然使用tpu 有省錢的方法怎麼可能用貴的但換其他公司成本絕對變高而且被綁死 不太可能複製73F 11/28 10:10
ejnfu: 而且除非AI領域已經成熟了,不然只要還在發展中,GPU通用性還是無法取代,AI也不是只有LLM75F 11/28 10:11
sing60905: TPU才是自排車77F 11/28 10:13
stanleyplus: TPU就是炒作  GPU才是王道78F 11/28 10:15
strlen: TPU訓練是Google專武 其它人只能拿來推理
除非狗家公開自己訓練模型的秘方和訣竅 哪有可能79F 11/28 10:17
etset: google要投錢開產能嗎81F 11/28 10:19
strlen: 一堆人找TPU就是GPU太缺 算力就不夠用
魚也好蝦也好有算力的通通來82F 11/28 10:19
BBKOX: TPU用於降低模型固定後的運營成本84F 11/28 10:20
windfeather: 谷歌可以用TPU訓練,不代表別家辦得到耶85F 11/28 10:22
sdbb: 重點一直在谷歌全家桶86F 11/28 10:27
fhjqwefs: 結論就是NV 或alb 懶一點QQQ or 662 回檔加碼買進 市場就會自動送錢來87F 11/28 10:28
mamorui: 不急 等OpenAI半殘 就知道會發生什麼事89F 11/28 10:31
mainsa: 話說我公司也算不小 但我們公司就是用微軟套裝 連AI都用copilot 好像有說要自己訓練 但目前還沒端出東西 Google這種規模要賣AI當然可以自己搞特規晶片 其他沒那麼大的不要說用TPU惹 要用NV來自己搞都有一定難度了 而且其實NV的伺服器可能還沒那麼好搶
乖乖買這些AI大頭搞出來的方案應該便宜很多90F 11/28 10:33
yulunyeh: GOOG NVDA都買不就好了96F 11/28 10:37
breathair: 其實我倒覺得GOOG跟Open醬最大的差異不是算力,而是GOOG的數據量屌打,Meta 跟TSLA都有他們自己獨有的數據,就Open醬沒有97F 11/28 10:43
windfeather: 會搞AI研發的,本來就是試圖搶龍頭地位的大公司吧小公司或平民直接租訂大公司的AI成品就好100F 11/28 10:43
breathair: 或許AI所需要的數據量就註定AI巨頭必然是互聯網巨頭其中之一,新創根本不可能102F 11/28 10:46
EDFR: 比喻超爛...104F 11/28 10:46
st88082003: 程式開發方面linux不是比較多嗎105F 11/28 10:47
ter2788: meat我看是真的不行了106F 11/28 10:47
st88082003: 你卻不是把一般電腦用戶跟程式開發用戶全部混在一起了?107F 11/28 10:47
windfeather: AI就是那些頂尖大公司的軍備競賽,一般人等成果就好109F 11/28 10:48
sasewill: 同意樓上,除了巨頭就是等著買成品,自己開發一個二流ai到底要幹嘛110F 11/28 10:52
qhair: XLA都幫你調好了,你要調什麼?112F 11/28 10:59
ryback98: 確定要用OS來比喻?android是linux… iOS是unix113F 11/28 11:00
BBKOX: 只要open醬去跟微軟合作,數據馬上一堆114F 11/28 11:00
Lowpapa: 無知115F 11/28 11:05
andy79323: 尼買訓練好的模型還是要做SFT
不然一堆企業買算力做什麼116F 11/28 11:07
NekomataOkay: 感謝信心加持118F 11/28 11:09
SapiensChang: gemini 3 100%是靠TPU訓練的好嗎 一點用到GPU的地方都沒有 當初繪圖而讓GPU從CPU分離 現在ai運算需求大 TPU在ai領域變成獨大 也只是時間早晚問題 因為這是必然119F 11/28 11:11
breathair: OpenAI又不是微軟獨家,他怎麼可能那麼無私給他數據….
算力應該不是問題,畢竟大家都狂買。TPU充其量性價比比較高,問題應該在數據量123F 11/28 11:16
stepnight: Gemini 3 training 對 GPU 0依賴那是TPU強項阿
AI又不是只有Training這件事==127F 11/28 11:19
SapiensChang: 樓上太放大ai 在訓練和推論外對gpu的需求了 那個需求量根本不值一提 gpu在ai最後只會退守研發端和小模型 剩下就是像GCP平台那樣 這種結果就算tpu取代gpu129F 11/28 11:31
goodevening: 但是現在都是訓練大語言模型阿 tpu就實證LLM訓練出來很好 而且成本也便宜 GPU怎麼可能不受影響133F 11/28 11:33
dobedobedo: 是說開發都馬用 Linux135F 11/28 11:43
sonatafm2: 都要買很難? 小孩才在那邊選擇困難136F 11/28 11:53
sarspieya521: 兩個都買不就解決了137F 11/28 11:55
breathair: 現在問題是:OpenAI有微軟的數據中心支持跟最多投資金額,理論上有最多的GPU在訓練,但是輸Gemini,請問問題出在哪?
理論上TPU再強也只是算力成本較低,應該還是OpenAI在訓練上擁有更多的算力,那問題不是出在算法,那就是數據了?138F 11/28 12:00
waitrop: 的確,其實OpenAI的GPU數量,算力,跟投資金額都遠遠比谷歌多很多很多
谷歌是七巨頭裡頭買GPU買最少的,GPU還要分給公用雲谷歌內部私有雲拿來自己使用訓練的GPU非常非常少144F 11/28 12:02
breathair: 這個前提之下,GOOG有但OpenAI沒有的,應該就是數據量的差異吧?算法能差那麼多嗎?148F 11/28 12:04
waitrop: 你看財報,谷歌的資本支出低於軟+亞麻150F 11/28 12:05
tsukuyomii: OpenAI買一堆GPU還被Gemini壓在地上扁才恐怖吧151F 11/28 12:05
waitrop: 但是谷歌的資本支出是要分給AI+search+youtube+公雲152F 11/28 12:05
breathair: 如果是數據量的差異,那open醬註定追不上了,而且會越差越遠,因為使用者被搶走,數據擴張規模一個進入飛輪階段,另一個就掛了153F 11/28 12:06
tsukuyomii: 身邊一堆人還有社群軟體都再退訂GPT轉Gemini了 不難查 我看奧特曼真的完蛋了156F 11/28 12:06
waitrop: 真正資本支出在TPU跟模型訓練的經費非常非常少158F 11/28 12:06
tsukuyomii: OpenAI後面的金主是微軟 微軟整家公司要跟Google玩現金流可能也玩不贏更何況openAI只是他投資的公司159F 11/28 12:07
breathair: 沒錯,我覺得這才是大家擔心的地方,瓶頸可能出現在算力以外的東西,數據或是算法161F 11/28 12:08
FncRookie001: 比起性能 更可怕的是應用 歐噴醬也是輸
基本上只剩chatgpt Sora2很強但我很懷疑後面砸了多少錢163F 11/28 12:09
tsukuyomii: 應用不用說了 Nano香蕉出來就屌打了  繪圖那些差距不是一個檔次166F 11/28 12:09
waitrop: OpenAI根本走錯路了,朝著堆算力的錯路一直走,還把還把所有其他AI公司都帶到算力競賽裏頭
微軟已經無法滿足OpenAI的算力跟資金要求
OpenAI的算力不只是微軟,還有ORCL,CRWV等等
OpenAI居乎壟斷鎖住算力,除了GCP AWS外,其他都他的OpenAI 1.5兆到2030年,平均一年300B-400B
OpenAI的AI資本支出是谷歌的5-10被,一年168F 11/28 12:10
tsukuyomii: OpenAI砸那麼多錢 結果屌輸Gemini 重點是他用戶被搶這麼多 之後確定能賺回本?175F 11/28 12:14
breathair: 真的,資本很聰明的,ㄧ嗅到算力以外的瓶頸是Open醬沒有的,很快就會縮手,這個泡沫可能還沒大到很恐怖就會先擠掉了,範圍大概局限在晶片跟半導體177F 11/28 12:14
mamorui: 擴展瓶頸 要繼續看下去 反正OpenAI再來看會怎樣 這才是AI永動機可以走到哪關鍵180F 11/28 12:17
ejnfu: 我覺得現在猜發展還太早,我會兩家都持有繼續看下去182F 11/28 12:17
E103A6: GPU是一般汽車,TPU是跑車~183F 11/28 12:19
ru04hj4: 現在看雖open醬會不會下一季就被打臉就跟兩年前google一樣184F 11/28 12:19
E103A6: 各有各的目的和強項,把餅做大186F 11/28 12:19
mamorui: Meta 菇菇認為去年定位是跟幾家平齊的為目標,但今年變了,要自己察覺這個變化,AI開發也是可能從爭第一線到退出一線目標的,阿祖可以專心搞垂直型AI(公司業務為主的)187F 11/28 12:21
stepnight: 阿祖專心搞詐騙那塊就好了191F 11/28 12:24
windfeather: OPENAI我最得最不妙的是,並非追不上Gemini
而是市場已經察覺,AI領域已經不會由它獨霸領頭了192F 11/28 12:27
chatbra: meta的AI到現在還不讓我用,差評XDD194F 11/28 12:27
windfeather: 但對消費者來說,多家AI去競爭反而才是好事195F 11/28 12:29
mamorui: Meta未來反而有空間跟最後贏家(不是OpenAI跟Grok會更好)合作 反正狗狗的個性是不會跟他搶詐騙事業 wwww196F 11/28 12:29
breathair: 堆這麼多算力,還不能獨霸,那堆算力意義就不大了,下一季是Open醬的生死線了我覺得,萬一Gemini迭代要是搶在Open醬一步,發表的當天會很慘烈,現在大家都在等著看Open醬有沒有壓箱寶199F 11/28 12:30
mamorui: 奧特曼個性喜歡贏了A去搶B, 也是可能做詐騙事業,
狗狗不會做
狗狗逼他出牌,應該是想在半年內分勝負203F 11/28 12:30
F20V: 很棒且簡易的比喻206F 11/28 12:32
mamorui: Meta一年的時間就退出第一環的競爭,Grok也說要去搞gaming當個酷AI了,知道其他AI都吃瓜看戲中了嗎207F 11/28 12:32
windfeather: OPENAI一季內拿不出驚豔的新玩意或改版
我看也不用想要上市了209F 11/28 12:36
matlab1106: 輝達已經走錯方向了 要變下個柯達了211F 11/28 12:37
windfeather: 我是覺得有機會追上GEMINI,但別想再像前兩年
給人AI創世主的印象與夢想了
輝達頂多就市值大減,但他始終是業界技術最強的
不會像OPENAI一樣,失敗就整個泡沫化212F 11/28 12:37
sppmg: Top500 Windows 查不到耶!216F 11/28 12:42
mamorui: 還有垂直整合AI會需要NV, 只是第一環競爭的基礎型LLM, 會決定B&B合作的基礎, 蘋果是已經決定跟不會倒、可以持續更新的合作,而且蘋果重視安全性隱私、也是多產品未來都得整合AI,狗狗也許比較有人力跟蘋果穩定合作
各家雲都會持續照客戶租賃需求買進GPU的設備,跟以前傳統時期的一樣
阿婆再等下去 也會怕手機這塊功能愈落後 必須提早做抉擇217F 11/28 12:42
pigcola: 不管GPU, TPU 買 TSM226F 11/28 12:51
mamorui: 而且菇菇我看波克夏跟蘋果都動起來了 離答案可能也不遠了227F 11/28 12:51
partsex: GPU當然會繼續增加 但現在是怕影響到NVDA eps成長率成長率放緩 (但還是繼續成長)
會影響到本益比
如果不能每年成長超過40%以上 nvda本益比會被調降炒股 注重的是 「股價成長率」 而不是股價
那麼你該注重的 不是公司會不會成長 這種二分法
而是成長率變大 還是變小229F 11/28 12:52
mamorui: 美股分析師沒把谷歌跟OpenAI後續發展的新報告丟出來前,NV的相關報告也不會出來236F 11/28 12:55
leoloveivy: 說個團隊要調教的 是只有兩台server 在公司的嗎 如果是那請他們也可以退出了238F 11/28 13:01
jason0814uj: 我只想知道新光用的破爛AI是哪款
更正:台新銀行240F 11/28 13:12
a8017700: Linux伺服器滿街都是.....242F 11/28 13:21
waitrop: 走錯路的是OpenAI,不是NV,賣鏟子的NV最希望堆算力很多話說白了會很難聽,非常得罪人
奧特曼所有的言論跟決策非常不像專業人士,非常外行讀過CSEE的人都知道,大一第一堂課就是performance不論是軟體算法,硬體架構設計,IC設計,全都做一件事performance, complexity
然後你奧特曼拼命堆算力,馬的,你大一算法一定死當如果你需要把全世界的算力都堆進去,表示你的路錯了這還需要討論嗎?那些在酸我的人是不知道這道理嗎?當你需要全世界算力還不夠,問題就是你的算法錯了
不然就是你的硬體基本架構設計錯了
連這道理都不懂,你連CSEE大一的學生都還不如
越說越氣,谷歌是一開始就發現這問題,才會做TPU
谷歌是從算法跟基礎硬體架構雙方面一起去改進243F 11/28 13:25
mamorui: 真的 這都只能說一點點實話 企業都很努力 有的是為了全人類 有些是看AI造就龐大商機(需求飽和不易)可以稱霸至少20年之類的 把所有巨頭資產在這一代AI就全賭進去 回收成本難度高 我擔心可能可能影響下一代AI發展
希望明年就分勝負,後續走在正軌上開發下去,不然GPT幾乎沒包袱專心搞自己的LLM,進步速度真的看不見一個泛化型的突破257F 11/28 13:37
ejnfu: 我沒看到有人在酸w大吧..?265F 11/28 13:40
mamorui: 有啊 wait大前一篇回文266F 11/28 13:41
breathair: NV信仰者太多,TQ大講的很婉轉了267F 11/28 13:43
ejnfu: 所以是在說上篇的推文?268F 11/28 13:45
mamorui: 反正AI最終走到升級難度SS時,追求效能的會愈來愈多,礦工時代就演過,還有繼續挖掘新領域的用NV求有(現在基礎型就這個LLM,人類世界媲美語言的基礎還有什麼),已經玩爛或決定冠軍的AI(無論通用基礎型領域或專用型領域)一定追求成本跟效能吊打的。269F 11/28 13:49
saiya: 奧特曼就玩資本出身的274F 11/28 14:10
mamorui: 所以波克夏跟阿婆都投票了 支持正道 (′・ω・`)275F 11/28 14:11
xshaddockx: 把嵌入式系統跟安卓算進去,應該比windows 多了276F 11/28 14:13
chigo520: 但製作ai的那些廠商明顯不是大眾吧…277F 11/28 14:27
mamorui: 這次LLM、生圖、影片是全市場型的,ToC, ToB都要吃,尤其是LLM是各領域專業型AI都要搭配使用的
所以為什麼七巨頭全為了LLM砸身家,AI世界的語言用誰家的最多,以後可能AI虛擬世界的話語權就在誰手
就像英語的地位
如果AI LLM有贏家,以後要封鎖某家公司的產品,不278F 11/28 14:29
ravelson: 好像這邊就是你死我活誓不兩立的樣子
但聽外面的都是說,一起把AI拱上去286F 11/28 15:09
mamorui: 原因是因為現在主軸的LLM在使用上的對象重疊性100%,很難在利益目標上差異化,你如果只想支援碼農LLM請問可以賺大錢嗎,而且最後極有可能被通用型LLM幹掉專用型LLM,這就是你死我活的癥結點288F 11/28 15:17
woker: 問題是便宜啊 如果以後要當服務型推廣 機器是要賺錢的292F 11/28 15:33

--