看板 Stock
作者 winall (winall)
標題 Re: [新聞] AI版圖將洗牌?Meta傳洽購Google AI晶片TPU
時間 Fri Nov 28 09:35:30 2025


Google 的 TPU 已經很久了

在 OpenAI 發表 ChatGPT之前 , Google 就在用 TPU了

簡單講 Google 為了訓練AI , 自己研發一款專為AI訓練的晶片

這個晶片通常需要自己調校

這已經發表很久了 , 為什麼現在才在炒

可能是最新的 Gemini的成功吧

不完全好的比喻

Nvidia GPU = Windows ; Google TPU = Linux

Nvidia GPU = 自排車  ; Google TPU = 手排車

TPU 拿掉所有跟AI無關的功能

其他團隊要用的時候 需要先花很多時間去了解跟調校

但是 Nvidia 的 GPU 已經有各種好的套裝 , 可以很快地開發

但你看現在用 Windows的人多 還是 Linux的人多

現在開自排的人多 還是開手排的人多 ?

TPU適合自己完全的調教跟開發

未來可能會有人用TPU

但主流仍然是 Nvidia GPU



--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.24.212.244 (臺灣)
※ 作者: winall 2025-11-28 09:35:30
※ 文章代碼(AID): #1fAFnavA (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1764293732.A.E4A.html
※ 同主題文章:
Re: [新聞] AI版圖將洗牌?Meta傳洽購Google AI晶片TPU
11-28 09:35 winall
※ 編輯: winall (114.24.212.244 臺灣), 11/28/2025 09:36:29
stepnight: Windows 跟 Linux 看領域、需求決定而已
GPU TPU 也不太適合這樣看
其實兩者也不是完全競爭,反而一起用
還可以降本增效1F 11/28 09:37
HiHiCano: 大公司完全可以自用linux 而且現在gpu買家70%都是大公司買的…
損失70%業績 輝達不跌才怪5F 11/28 09:38
stepnight: 這就來了,誰說用TPU就沒GPU需求了==8F 11/28 09:40
visa9527: 那慘了~商用都是 Linux 嵌入式系統自己調教的9F 11/28 09:40
j0588: 調校是工程師的事 能省錢儘早虧轉盈才是重點 市場不缺便宜的工程師10F 11/28 09:40
stepnight: 誰說你之後預計要用TPU,現在就可以不買GPU了
還是你當這沒個過渡期?轉用TPU青青鬆鬆?12F 11/28 09:41
visa9527: GPU自己就是一種專武好嗎?當初CPU繪圖不夠快才有GPU14F 11/28 09:41
yoshonabee: 你看windows server 多還是 Linux 多15F 11/28 09:41
visa9527: 你要不要先搞懂世界上為何會出現GPU這種東西
現在誰還用通用的CPU繪圖?要高性能繪圖哪個不用GPU?16F 11/28 09:41
super0949: google都說 GPU TPU一起用了18F 11/28 09:44
visa9527: GPU也是捨棄掉了繪圖用不到的CPU指令啊19F 11/28 09:44
centaurjr: 你用的東西除了PC底層一堆linux好嗎20F 11/28 09:44
deann: 訓練通常都是用GPU TPU是用來推論21F 11/28 09:45
visa9527: Android都是Linux的衍生品了~這比喻到底在想啥22F 11/28 09:45
deann: 用TPU很難訓練...23F 11/28 09:46
visa9527: Linux可以跨的平台裝置比Windows多太多,這更可怕繪圖開發的時候要CPU GPU並用跑軟體~渲染時只要GPUTPU 也是主要用在訓練完的模型拿來跑的時候
TPU當然可以訓練~但訓練不會進步就是用現有演算法跑24F 11/28 09:46
csghuuguh: 發文前為啥不問一下AI28F 11/28 09:49
lancechance: 久不久不重要,NV的GPU在ai領域耕耘也很久了,這兩年大眾才知道,股票才飛漲。
TPU影響GPU股價,跟發表時間一點關係都沒有,現在的趨勢GPU就是要下去29F 11/28 09:49
visa9527: 但作為服務端的meta如果沒要自己訓練那買TPU很合理33F 11/28 09:50
FncRookie001: 我覺得核心問題是GPU的用戶都被榨乾了34F 11/28 09:50
james80351: 樓上還在記那種過時的資訊? Gemini 3官網都說用TPU訓練的了35F 11/28 09:50
liwae: 買鏟子的都是正版受害者37F 11/28 09:50
visa9527: 如果meta是拿訓練好的模型來跑大量服務用TPU不奇怪38F 11/28 09:50
FncRookie001: 淘金熱過了 最後買鏟子的人就少了39F 11/28 09:50
lancechance: 大眾開始理解TPU的現在,就跟去年大眾開始理解GPU一樣40F 11/28 09:51
FncRookie001: meta不用看 祖克柏就是個笑話 跟風仔還跟風落後42F 11/28 09:51
visa9527: 模型就一堆數據~你訓練好可以賣給一堆公司直接跑43F 11/28 09:52
FncRookie001: 之前AI新創火就挖亞歷山大 還把楊立坤踢掉 然後現在Gemini火了就說要TPU 自己ASIC部門可能也要倒大44F 11/28 09:52
visa9527: 以後都是拿基礎模型配自己訓練額外資料標記來 run47F 11/28 09:52
BBKOX: 結論:GOOG、NV回檔就買48F 11/28 09:52
visa9527: meta這樣有啥奇怪~當年IBM還不是火掉自己團隊用微軟你根本不用去想那麼多~這在IT產業就是常態49F 11/28 09:53
stepnight: TPU GPU的關係又不是像GPU之於2D、3D加速卡
那種完全取代==,反而是像最初CPU還要負責圖像
有了2D、3D加速卡出現幫忙算圖,這樣互助的51F 11/28 09:55
visa9527: IBM打不過 Motorola 就找 Intel 做 x86 還不是成功GPU自己都不能獨立運作了~CPU才有中樞系統指令集54F 11/28 09:55
b9513227: 井蛙的腦袋裡tpu=gpu 轉換只要復制貼上就好56F 11/28 09:58
visa9527: GPU自己算平行資料很快~但是牽扯到 I/O 根本廢物
ASIC最後一定贏~跟BTC挖礦一樣演算法最佳化
蛋雕GPU挖礦就是GPU也贏不過ASIC效能了57F 11/28 09:58
fatb: 你的比喻完全錯誤 對使用者而言 享用的是成本 只看的是價格 你以為linux市佔輸windows 但其實市面上各式智慧型電器都有嵌入式
你用這個比喻反而表示GOOGLE即將起飛60F 11/28 10:01
kakayao: 開始了各式TPU/GPU大師64F 11/28 10:03
fatb: 別的不說 你在生活中使用的電器大概除了電腦之外都是用linux哦 科科65F 11/28 10:03
ejnfu: 這個議題我比較信股癌說法,只要硬體需求還是增量市場,餅就夠大到TPU不影響輝達,並不是零和競爭67F 11/28 10:04
xephon: 穩了69F 11/28 10:04
ejnfu: 其他的都當作短期雜音70F 11/28 10:04
b03b01048: To b to c差這麼多71F 11/28 10:07
mdkn35: 但我不想用windows開發machine learning的相關服務72F 11/28 10:09
bitcch: g家的訓練當然使用tpu 有省錢的方法怎麼可能用貴的但換其他公司成本絕對變高而且被綁死 不太可能複製73F 11/28 10:10
ejnfu: 而且除非AI領域已經成熟了,不然只要還在發展中,GPU通用性還是無法取代,AI也不是只有LLM75F 11/28 10:11
sing60905: TPU才是自排車77F 11/28 10:13
stanleyplus: TPU就是炒作  GPU才是王道78F 11/28 10:15
strlen: TPU訓練是Google專武 其它人只能拿來推理
除非狗家公開自己訓練模型的秘方和訣竅 哪有可能79F 11/28 10:17
etset: google要投錢開產能嗎81F 11/28 10:19
strlen: 一堆人找TPU就是GPU太缺 算力就不夠用
魚也好蝦也好有算力的通通來82F 11/28 10:19
BBKOX: TPU用於降低模型固定後的運營成本84F 11/28 10:20
windfeather: 谷歌可以用TPU訓練,不代表別家辦得到耶85F 11/28 10:22
sdbb: 重點一直在谷歌全家桶86F 11/28 10:27
fhjqwefs: 結論就是NV 或alb 懶一點QQQ or 662 回檔加碼買進 市場就會自動送錢來87F 11/28 10:28
mamorui: 不急 等OpenAI半殘 就知道會發生什麼事89F 11/28 10:31
mainsa: 話說我公司也算不小 但我們公司就是用微軟套裝 連AI都用copilot 好像有說要自己訓練 但目前還沒端出東西 Google這種規模要賣AI當然可以自己搞特規晶片 其他沒那麼大的不要說用TPU惹 要用NV來自己搞都有一定難度了 而且其實NV的伺服器可能還沒那麼好搶
乖乖買這些AI大頭搞出來的方案應該便宜很多90F 11/28 10:33
yulunyeh: GOOG NVDA都買不就好了96F 11/28 10:37
breathair: 其實我倒覺得GOOG跟Open醬最大的差異不是算力,而是GOOG的數據量屌打,Meta 跟TSLA都有他們自己獨有的數據,就Open醬沒有97F 11/28 10:43
mamorui: 原因是因為現在主軸的LLM在使用上的對象重疊性100%,很難在利益目標上差異化,你如果只想支援碼農LLM請問可以賺大錢嗎,而且最後極有可能被通用型LLM幹掉專用型LLM,這就是你死我活的癥結點288F 11/28 15:17
woker: 問題是便宜啊 如果以後要當服務型推廣 機器是要賺錢的292F 11/28 15:33

--
作者 winall 的最新發文:
點此顯示更多發文記錄