看板 Stock
作者 jacknavarra (阿姆羅)
標題 [新聞] 輝達壟斷地位將打破 ? 「地表最強」AI模
時間 Fri Mar 14 15:37:22 2025


自由財經

輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、
Meta

https://ec.ltn.com.tw/article/breakingnews/4979570
輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、Meta - 自由財經
高佳菁/核稿編輯 〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就是, ...

 
2025/03/14 11:04
高佳菁/核稿編輯

〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的
,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就
是,這款AI模型單可單晶片運作,只需「1個」H100晶片。這意味著,Google未來只需訂
購輝達少量的高階晶片,就能展現開發AI模型的成本效益。


分析師指出,Google推出的新AI模型,只需用1個H100就可運行,該模型的表現還超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個)。

此數據對輝達來說,未來市場用戶無需購買大量其GPU晶片,即可部署先進的AI應用程式
未來高階晶片出貨量,恐將影響輝達的高階晶片出貨量。此外,Google TPU等替代硬體平
台積極發展,加上類似Gemma 3等優化模型將陸續出現,未來輝達在AI訓練和推理方面的
優勢約80%的市占壟斷地位,恐被逐步打破。


據報導,Google的新AI模型對輝達在AI硬體市場主導地位的挑戰,主要來自於Google正在
積極建構開放、多元的人工智慧生態系統,以支持學術研究並推動商業應用創新,並透過
可在多種硬體平台上高效能運行的模型,計劃減少對輝達高階GPU的依賴。


Google聲稱,Gemma 3 是「全球最強的單加速器模型」,經過針對輝達GPU和專用AI硬體
的優化,無需大量部署GPU就能運行先進的AI應用。值得注意的是,該模型的表現超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個),凸顯了Google的成本效益。。


另外,Gemma 3 特別引人注目的原因,除了「效率」,另一大功能「多功能性」也與其他
大模型不同。外媒指出,Gemma 3 可以無縫處理文字、圖像甚至短影片,這種多模式能力
為從視覺問答到基於圖像生成故事等各種應用打開了大門。


===
天下苦黃已久

紛紛推出可能擺脫輝達的策略

但終究還是要用輝達的晶片

除非有人能用別家晶片做出更好的AI設備

不然依然是要交錢給輝達阿

依舊看好

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.250.144.251 (臺灣)
※ 作者: jacknavarra 2025-03-14 15:37:22
※ 文章代碼(AID): #1dqzoqPW (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1741937844.A.660.html
fbiciamib123: 笑能過剩 完了1F 03/14 15:38
chigo520: 那需要台積電麼?2F 03/14 15:38
mystage: 北七,訓練跟運作本來就不一樣3F 03/14 15:38
thetide0512: 這才是真的利空阿4F 03/14 15:38
mystage: 記者會不會是文組的啊?這麼外行5F 03/14 15:39
a0808996: 笑死 就說硬體過剩了 過年還被一堆人嗆xd6F 03/14 15:39
Transposon: 晶片還是GG產,但客戶各自交單議價,量不多就可以加價,噴7F 03/14 15:40
icrose: 這樣搞GOOGLE自己的股票也得掉下來9F 03/14 15:40
lianli1024: 所以谷歌有本事現在砍單嗎?10F 03/14 15:40
BlueBird5566: 效能超過deepseek好像沒有很難11F 03/14 15:40
quann: 好啊 那就降資本支出阿12F 03/14 15:40
karta018: 鏟子還是要買,只是學會念的應用技就不用買那麼多了13F 03/14 15:40
caity: 怎麼硬體需求越來越少,怕爆14F 03/14 15:41
SuGK: 周末鬼故事開始了嗎15F 03/14 15:41
uv5566: 丸子16F 03/14 15:41
jeff0025: 輝達是賣硬體耶17F 03/14 15:41
VVizZ: 硬體需求少 那硬體推上去不會更強嗎18F 03/14 15:42
a0808996: 矽谷都是精英軟體工程師 靠硬體撐運算 能聽嗎19F 03/14 15:42
caity: Google 搞軟體又不搞硬體,為啥他要下去?20F 03/14 15:42
sky777: 推理本來就不需要什麼太高階的卡 訓練才需要21F 03/14 15:42
tomdavis: 周末鬼故事來拉 搭配鴻海開營收 周一跌停能買嗎?22F 03/14 15:42
gn7722: 越來越會掰23F 03/14 15:43
tony15899: 丸了 需求剩幾百分之一 GG100收24F 03/14 15:43
Toge: 用來用去還是 Grok 3 好用,又快又精準回答25F 03/14 15:43
caity: 經濟效應吧像是堆到多少再往上疊硬體效果增加變小26F 03/14 15:44
mlda888: 丸子27F 03/14 15:44
deann 
deann: 谷哥更強28F 03/14 15:44
idernest: 5090 50收29F 03/14 15:44
a0808996: 繼續堆硬體 保證未來都收不回來30F 03/14 15:45
stanleyplus: 下去吧31F 03/14 15:45
Toge: 但還是期待有一天能在手機上離線運作32F 03/14 15:46
centuryboy: 蒸餾再蒸餾 濃縮再濃縮33F 03/14 15:46
jason0925: 硬體AI 死去  edgeAI 蓬勃發展34F 03/14 15:46
wemee:   ok 明天輝達熔斷35F 03/14 15:46
jumilin927: 變gg200了36F 03/14 15:46
PureAnSimple: 蒸的丸子   塊陶啊啊啊啊啊啊    陶之前別忘了空達37F 03/14 15:46
AGODC: 就是準不準跟費用中間,去搞個平衡點39F 03/14 15:47
bojan0701: 硬體堆上去應更強,可是帶來的效益?40F 03/14 15:47
jinhouse123: 閹割 再 閹割41F 03/14 15:48
strlen: 一鍵出清 反手作空 AI泡沫 勢在必行42F 03/14 15:49
amazingwow: 原來只需要一個就可以了43F 03/14 15:49
bojan0701: 要再飆 必須有更多應用普及...44F 03/14 15:49
FatFatQQ: 準備砍單45F 03/14 15:50
bonaqabo: 我蒸餾你蒸餾我的蒸餾46F 03/14 15:50
a0808996: 中國靠更低的成本運行ai 你還在堆硬體47F 03/14 15:50
s881720: 老黃乖乖回去賣顯卡吧48F 03/14 15:50
pziix: 題材臭酸了 可以再端新穎的東西出來嗎49F 03/14 15:50
strong66: 無需購買大量GPU晶片 就是最大利空50F 03/14 15:51
Brioni: NV: 你不要再說了51F 03/14 15:51
s860703: 台股沒破22000都是假議題52F 03/14 15:51
a9564208: 所以接下來是ASIC的回合?53F 03/14 15:51
GivemeApen: 還不是要用asic gg根本沒差54F 03/14 15:52
summer08818: NV: 你要採購少一點 那我每顆報價高一點不就好了55F 03/14 15:52
yabaidesu: 每個都說自己最強 到底誰最強56F 03/14 15:52
QooSnow: (請問)(如果你)(吃一個便當)(就8分飽,)(你會)(同時買)(1萬個)(便當嗎?)57F 03/14 15:52
jinhouse123: AGI 有沒有機會早點問世啊。59F 03/14 15:52
qrose666: 這會是Asic 利多嗎?60F 03/14 15:52
ssarc: 針對輝達優化?61F 03/14 15:52
demon159000: 啊所以玩家的顯卡要大量生產了沒?62F 03/14 15:52
anyu0805: 照這個道理蘋果股價應該趴在地上了~63F 03/14 15:52
nasarood: 效能2.5倍價格兩倍你還是得買。單價更便宜。64F 03/14 15:52
ezreal1315: 回調什麼鬼故事都有65F 03/14 15:52
summer08818: ASIC 問題在於你自己造車造輪子 會不會比較便宜阿XD66F 03/14 15:53
ImHoluCan: 這昨天的新聞喔67F 03/14 15:53
qwe78971: 單晶片運作 一堆菜雞扯訓練要幾個幾個 到底懂不懂 真得笑死 一群小丑69F 03/14 15:54
jinhouse123: 等RobotTaxi和家用Robot問世,再跟我說進到AI時代71F 03/14 15:54
ImHoluCan: 還有騰訊昨天說買了多少Nvidia gpu 怎不說呢72F 03/14 15:54
Brioni: ASIC沒軟體更新速度那麼快,但是NV卡今年這批出完後續拉貨力道有待考驗73F 03/14 15:55
c928: 大家一起來唬爛75F 03/14 15:56
HiuAnOP: 1個H100是Ai那10個H100是不是就變愛因斯坦了!76F 03/14 15:56
Lowpapa: 好了啦77F 03/14 15:58
ohya111326: 同一套劇本要用幾次  有種不要買GPU78F 03/14 15:59
rbelldandy: 不重要,能賺錢就好不可有人NV套在140以上吧79F 03/14 15:59
PureAnSimple: 10個H100是AAAAAAAAAAi80F 03/14 15:59
lpmybig: 老黃 單雕81F 03/14 16:00
MrStone: 算力需求低為什麼以前寫不出來AI83F 03/14 16:03
kotorichan: AI都白菜價了 沒差啦84F 03/14 16:03
zerro7: AI鬼故事平均一個月會出現一個85F 03/14 16:04
Haerin520: 完惹 操灰搭140還有救嗎86F 03/14 16:04
ganbee: 誰攏都可以,只要免錢我就用。87F 03/14 16:05
jimmy12332: 任何人都能去hugging face下載一個LLM來玩88F 03/14 16:06
ymlin0331: 呵呵89F 03/14 16:06
flylife0527: 少量晶片 美GG崩90F 03/14 16:07
rbelldandy: 技術本來就會越來越進步,ai更是不是嗎91F 03/14 16:09
ccdrv: 到周末 鬼故事特別多92F 03/14 16:09
syoritoo: 還在講算力過剩的 不是壞就是騙了93F 03/14 16:11
sean667cd: 算力跟記者智商一樣 ,永遠不嫌多94F 03/14 16:11
tmdl: 笑死
不是說人工智能會以幾倍速成長95F 03/14 16:11
noahlin: 有沒有新梗啊 整天炒作這個不無聊嗎
難道GG一直擴廠是腦袋有問題嗎97F 03/14 16:13
zerro7: AI沒到頂之前哪來的算力過剩問題 難理解99F 03/14 16:13
noahlin: 消費性趴在地上 GG擴廠只能是為了其他用途100F 03/14 16:14
airawesu: AI聊天室在解決長期記憶健忘問題前 算力都是假議題101F 03/14 16:15
a0808996: 股價看的是複合成長 複合成長慢了 不就完了
需求+100% 明年變10%102F 03/14 16:16
transfight: QQ完啦!!overbooking!!104F 03/14 16:17
mutohchi: 笑鼠105F 03/14 16:17
QooSnow: (直接)(看股價,)(就知道)(答案了!)106F 03/14 16:17
carlos159357: 輝達是買鏟子的,跟軟體啥關係啦,你只能說鏟子不用買這麽多這麽好了107F 03/14 16:17
transfight: QQ塊陶啊啊啊啊啊啊啊啊啊啊啊啊啊!109F 03/14 16:17
noahlin: GG都說CAGR未來五年20% 這還有被消費性拖累 純ai一定超過這比例 至於這夠不夠高就看人了 人家擴廠幾百億鎂不能亂投資的110F 03/14 16:17
leefengynh: GG只要有人下定單 就會擴廠了 但訂單可以撤掉XDDDDD113F 03/14 16:18
a0808996: GG有單 不代表NV有單阿
越來越多巨頭 都要自制晶片了114F 03/14 16:18
noahlin: 在打信用卡客服還要等真人到天荒地老的時候 ai飽和116F 03/14 16:19
sdbb: 輝達要搞輝達宇宙117F 03/14 16:19
noahlin: 還非常遠 這是很基礎也相對容易做的需求118F 03/14 16:19
a0808996: 大家都不想被 老黃綁架了119F 03/14 16:19
leefengynh: 1個H100=1個毛利小五郎  10個H100也不會變柯南
因為AI會不會變聰明的關鍵 還是在演算法
錯誤的腦迴路 不會因為迴路運轉比較快 就變正確120F 03/14 16:19
a0808996: 你算數學請再多人算 還是比不上一個創新的公式123F 03/14 16:21
leefengynh: 1個h100=1個毛利小五郎
在同樣演算法下124F 03/14 16:22
josephpu: 其實ds問世後,那幾間巨頭對asic是有點放緩的126F 03/14 16:22
leefengynh: 10個H100 就是 毛利小五郎用10倍的速度思考出一樣錯誤的推理
速度變快 但結果一樣錯
原本30秒可以得到錯誤的推理結果 現在3秒得到錯誤結127F 03/14 16:23
freezee: 呵呵 運作132F 03/14 16:26
panda816: 吹過頭了吧133F 03/14 16:28
jerrychuang: 推理用4090也可以跑啊134F 03/14 16:28
shorty5566: 看這篇一堆文組N酸在大放厥詞就覺得有趣135F 03/14 16:29
leefengynh: 就已經說了 AI需求能不能上去 本質是AI好不好用
AI夠不夠聰明決定了AI好不好用
AI如果一直不好用 無法讓大多數人產生依賴性使用136F 03/14 16:30
saya2185: 搞錯了吧 應該是買越多賺越多才對139F 03/14 16:30
leefengynh: 你賣鏟子的需求能多大 XDDDD
AI語言模型的訂閱人口 連智慧手機使用人口的0.01%都都不到 根本沒多大市場 因為就是對多數人來講不好用140F 03/14 16:31
antiUSA: 效能過剩都是騙你各位韭菜啦 機器人是能幫你開車打手槍了沒?143F 03/14 16:34
syk1104: 今晚又要跌了嗎?跌一根大的,接起來145F 03/14 16:34
symeng: 提問:多數人不訂閱AI,有沒有可能是免費的AI已經足夠供其使用?146F 03/14 16:34
leefengynh: 免費的都不好用 誰會願意訂閱XD148F 03/14 16:35
ISNAKEI: 軟體跟硬體有啥關係149F 03/14 16:36
eric356: 運行還是要一堆晶片150F 03/14 16:37
symeng: 不好用的原因是準確度不夠或機密資料不方便使用於各家AI?151F 03/14 16:37
leefengynh: 叫AI幫忙分析一家公司的多空消息 裡面列出一堆資訊自己還要去google確認他有沒有講錯 其實難用得要死153F 03/14 16:37
tctv2002: 代表目前算力需求已滿足大部分的人了155F 03/14 16:37
leefengynh: 聊天打屁還行 要問專業或正經的事情一點都不可靠156F 03/14 16:38
Arashi0731: 你還是得用他們家的鏟子,越多人進入AI對輝達越有利好嗎157F 03/14 16:38
symeng: 感謝L大回答159F 03/14 16:38
leefengynh: 你還要重複確認有沒有錯誤
唯一有突破的大概就是翻譯能力變很強而已160F 03/14 16:38
kissboy1065: 拜託今天騙殺100 NV讓我撿162F 03/14 16:39
leefengynh: yt上面的影音翻譯 快用AI就對了 還在用傳統弱智翻譯這樣子可以看更多不同語言的影片 德語法語的YTber163F 03/14 16:40
ntuee1803: 又在寫廢文165F 03/14 16:41
fan415: 不會啊 如果ai有極限 到達極限只需要少量晶片 那根本銷量就會大減166F 03/14 16:41
nono5938: 噴168F 03/14 16:41
godchoice: 不錯,但硬體強才能吃龐大市場169F 03/14 16:42
eddy13: 訓練困難,但使用簡單,是比較合適的發展方向,這樣願意用的廠商才會多170F 03/14 16:43
TWkobe5566: 研發不用買卡嗎  RD早就搶資源搶瘋了172F 03/14 16:44
funguy0202: 谷歌都跌倒吐奶了173F 03/14 16:45
cityhunter04: 還不是要晶片?有種設計都不用用的啊!174F 03/14 16:47
shellback: 更聰明 應用更多 客戶增加還是要多硬體來維持服務175F 03/14 16:48
yulun1984: 笑死176F 03/14 16:53
c24253994: 丸子177F 03/14 16:54
tinybunny: 笑能過剩辣就創造需求鴨178F 03/14 16:55
stkoso: 有一萬張嘴要餵就得買一萬個便當阿
你只有一張嘴要餵應該先找找自己的問題179F 03/14 16:56
catfixdog: 是非難斷 惟有股價會反映最真實的情況181F 03/14 16:57
xkso: 99 goog 已躺平182F 03/14 16:59
a1252352: 這麼划算班班有晶片啦183F 03/14 16:59
Shermie: 笑死H100誰做的184F 03/14 16:59
xkso: 等到不是用輝達的晶片再說185F 03/14 17:00
yoyo1994yoyo: 這麼有信心估狗肯定都退貨了吧嘻嘻186F 03/14 17:00
jumpballfan: 哇 公公利空187F 03/14 17:01
haworz: 不用H100,我們專用ASIC演算法屌打NV,然後量太少下單成本更高。188F 03/14 17:02
minaei: 這模型的參數量不大吧190F 03/14 17:12
takeda3234: 當然要蒸餾濃縮越來越小191F 03/14 17:20
Yogin: 如果是這樣,說真的科技也不用再進步了,就用黑金剛192F 03/14 17:24
QooSnow: (廢話一堆!)(看股價,)(最直接!)193F 03/14 17:24
CCPenis: 硬體需求降低 崩崩194F 03/14 17:29
moom50302: 這個再傻傻被騙出去就自愛了……195F 03/14 17:29
hpk89: 邏輯有問題,模型效率變高當然是用一樣的硬體追求更強大的Ai, 硬體需求怎麼會變少? 目前Ai只能說勉強堪用,離好用甚至夠用都還很遠196F 03/14 17:35
leviathen: 訓練用多少出來講講199F 03/14 17:48
saixpzooo: 看看那些買輝達的韭菜200F 03/14 17:52
kkchen: 這樣是不是可以節省大量的電力?201F 03/14 17:57
c00jsw00: 這個效能不好 qwq32b可能都比他好202F 03/14 18:00
kimula01 
kimula01: 最強沒用啊 最後還是會回到軍備競賽比算力203F 03/14 18:09
kkevinhess1t: 我怎麼看來看去是,訓練完後還要買一顆離線運作204F 03/14 18:12
ToastBen: 濃縮再濃縮 提煉再提煉 wwwwwwwwww205F 03/14 18:18
aweara: 好猛喔  看好輝達繼續往上206F 03/14 18:24
aewul: 以後成熟製程就可以應付了207F 03/14 18:25
visadanny: google什麼時候研發ggpu了 第一次聽說軟體打破硬體商壟斷地位208F 03/14 18:31
Lhmstu: 問號,不用訓練嗎210F 03/14 18:32
ivanos: 台積 下看80211F 03/14 18:42
PTTMAXQQ: 這世界ai的訓練還需要持續
但問題已經沒有新資料喂給AI
只能靠AI自行延伸運算推算
未來就看哪個AI能推算發明出改變世界格局的東西
不然在這之前運作真的不需要這麼多晶片212F 03/14 18:43
newlie: GG比較慘吧 美積電本來毛利就會下降 然後量又降更慘217F 03/14 18:50
la8day: 要確呢 我到現在還是覺得Gemini北七北七218F 03/14 18:57
losage: 不是不需要,是目前的模型都太智障了。根本沒有殺手級的模型啊
我光是叫ds 或gpt 整理一週行情,都可以給我亂引用資料219F 03/14 19:00
q09701023: 效能過剩,那就是模型可以進步的空間還很大223F 03/14 19:14
NEWinx: 用輝達晶片打破輝達壟斷?這記者是不是邏輯有問題?224F 03/14 19:15
xiaoyao: 記者好好笑 還是靠輝達晶片啊225F 03/14 19:17
DrTech: 很多人不知道H100多少錢耶…   5萬元嗎?226F 03/14 19:20
jboys75: 不懂 用5090 就可以跑很順了啊 要H100跑幹嘛?227F 03/14 19:20
DrTech: 光是一張H100成本就超高好嗎228F 03/14 19:21
joke3547: 有開源嗎?229F 03/14 19:23
Dean997: 老黃快飛來台灣救救台灣股民230F 03/14 19:28
kinda: google ai studio試了一下gemma3 27b,又慢又爛
gemini 2.0 還比較好用231F 03/14 19:29
sustto: 喔是喔 用nv晶片大敗nv晶片 文組就這邏輯 好惹啦233F 03/14 19:38
naushtogo: 最好世界加強234F 03/14 20:00
huntergirl14: 水喔,效能過剩,崩三年235F 03/14 20:39
cityport: 印度人又在吹了,等著看褲子被沖到哪去236F 03/14 20:47
ggyaining: 幹這邏輯有問題237F 03/14 21:33
japan428: Google手機晶片的例子猶在,真有人信這篇嗎238F 03/14 21:57
hyperyoujo: 我先不論這篇新聞真假、也不論板友看不看好未來堆硬體的效益,我只問一個基本邏輯問題:要打破一間公司的壟斷地位,需要的是很多間公司都能做出H100、還是我只要用更少的H100就能達到一樣的事情?
如果有科技人認真討論這篇文組白痴寫的新聞的,我真的覺得很悲哀,很明顯作者就搞不清楚什麼叫做「壟斷」239F 03/14 22:26
LieTo: 可能要再多學一點...推理 跟 訓練 不同...246F 03/14 23:11
jerry20151: 文組新聞247F 03/14 23:26
idlewolf: 除非能少到讓他產能過剩 不然還不是要用老黃 壟斷沒打破阿 連定義都搞不清楚就在發稿 水準可悲248F 03/14 23:37
a731977: 這模型真的不怎樣- -250F 03/15 01:41
xm3u4vmp6: 傻了嗎 在開發出上帝等級全知大腦前 算力永遠不夠251F 03/15 06:49

--