作者 Lushen (pttlushen)
標題 Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片
時間 Sat Oct  7 21:49:43 2023


上次台裔Google科學家紀懷新Ed H. Chi (L9)來台灣接受訪問的時候就有談到這個:

今天記者會上,紀懷新也解密,其實 Google 在訓練 AI 時,100% 使用的都是自家的
TPU,「Google 很早就在 AI 領域投入了大量資源,包括硬體,包括裡頭的數學、算法等
,這些都是我們的強項。」

Google 2023 最新的論文

TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with
Hardware Support for Embeddings

Abstract

1.2x–1.7x faster and uses
1.3x–1.9x less power than the Nvidia A100

大公司自己搞這些東西沒問題
沒資源搞這些有的沒的 還是只能跟Nvidia買沒衝突

至於什麼生態

大公司完全可以自己在公司搞一套自己專用的工具

進來的人自然會想辦法學會這套工具怎麼用

https://www.inside.com.tw/article/32510-Google-Bard-Ed
訓練 Bard 全靠自家 TPU!為何 Google 要增加 AI 數學能力?開發者親自解答 - INSIDE
[圖]
「其實 Google 在訓練 AI 時,100% 使用的都是自家的 TPU!」來自台灣、於總部 Google DeepMind 團隊帶領大型語言模型研究與 Bard 開發的 Google 傑出科學家紀懷新(Ed H. Chi)博士,親自回台解密並分享 Google 針對大型語言模型技術研究與應用的發 ...

 

微軟要搞鏟子好啊

還是只能找台積電代工

代工鏟子94舒服

※ 引述《jerrychuang ()》之銘言:
: 原文標題:
: 減少依賴輝達 傳微軟將推自研首款AI晶片
: 原文連結:
: https://ec.ltn.com.tw/article/breakingnews/4451397
: 發布時間:
: 2023/10/07 11:13
: 記者署名:
: 原文內容:
: 〔財經頻道/綜合報導〕根據《The Information》報導,微軟(Microsoft)可能下個月
: 在其年度開發者大會上,推出首款專為人工智慧 (AI)設計的晶片。

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.84.25 (臺灣)
※ 作者: Lushen 2023-10-07 21:49:43
※ 文章代碼(AID): #1b8M7vdq (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1696686585.A.9F4.html
※ 同主題文章:
Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片
10-07 21:49 Lushen
Leo4891: 台積電都說AI只佔6%了  占比拉不高沒啥用1F 10/07 21:50
jerrylin: 找台積電代工10元晶片賣100元  這生意哪裡不能做2F 10/07 21:52
※ 編輯: Lushen (111.249.84.25 臺灣), 10/07/2023 21:55:23
payneblue: AI就初期而已 是多高占比 6%不是錢 沒啥用 甚麼邏輯3F 10/07 21:54
zerro7: 台積電不是說努力在擴充CoWas產能 之後只會更高吧                      CoWoS4F 10/07 21:56
aegis43210: GG喜歡標準化SOC的單,這種客製化晶片的單量很少
才領先A100的能效比1.9倍,TPU可是ASIC,這樣其實蠻差的6F 10/07 22:11
henry2003061: 現在6% 未來10年變幾% 有些人只看了到這一兩年9F 10/07 22:17
jerrychuang: 現在鏟子會貴是因為稀有跟專用,不是因為鏟子真的很厲害啊10F 10/07 22:21
rrroooqqq: 挖不到黃金鏟子就沒用了,看看元宇宙...12F 10/07 22:43
scum5566: ai終究會平價化13F 10/07 22:49
roseritter: 我先用強大算力衝了再說,搶時間啊14F 10/07 23:56
darktasi: Ai終究會泡沫化15F 10/08 00:23
enso: gpu的設計本來就不是AI。只是有個Cuda方便開發,這才是NV勝出的原因。不然Intel與AMD都有gpu 啊16F 10/08 00:56
a000000000: 去年之前估狗在內部推tpu都推不太起來喇
自研=超封閉環境=跳槽不友善
今年裁員不知道那些AI仔會不會乖一點
然後這時點估狗吹說他tpu多有遠見也沒意義
因為LLM大爆發根本沒啥人預期得到   包含老黃
老黃要是知道  h100就不會只給80G hbm惹18F 10/08 02:18
rkilo: 比贏A100有什麼好說嘴的24F 10/08 07:55
ajkofqq: 雀食25F 10/08 08:27
jatj: 某 又來了26F 10/08 09:44
aegis43210: 所以老黃緊急做了一個gh200出來,不過i皇、蘇嬤針對性LLM的新架構要等2025了27F 10/08 12:04
lavign: 實驗訓練AI模型,TPU效能比GPU差勁60倍29F 10/08 13:25
richaad: 看人說啥就吸收啥,看看業績才是真的30F 10/08 16:40

--
作者 Lushen 的最新發文:
點此顯示更多發文記錄