顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2025-03-15 12:03:43
看板 Stock
作者 jacknavarra (阿姆羅)
標題 [新聞] 輝達壟斷地位將打破 ? 「地表最強」AI模
時間 Fri Mar 14 15:37:22 2025


自由財經

輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、
Meta

https://ec.ltn.com.tw/article/breakingnews/4979570
輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、Meta - 自由財經
[圖]
高佳菁/核稿編輯 〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就是, ...

 
2025/03/14 11:04
高佳菁/核稿編輯

〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的
,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就
是,這款AI模型單可單晶片運作,只需「1個」H100晶片。這意味著,Google未來只需訂
購輝達少量的高階晶片,就能展現開發AI模型的成本效益。


分析師指出,Google推出的新AI模型,只需用1個H100就可運行,該模型的表現還超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個)。

此數據對輝達來說,未來市場用戶無需購買大量其GPU晶片,即可部署先進的AI應用程式
未來高階晶片出貨量,恐將影響輝達的高階晶片出貨量。此外,Google TPU等替代硬體平
台積極發展,加上類似Gemma 3等優化模型將陸續出現,未來輝達在AI訓練和推理方面的
優勢約80%的市占壟斷地位,恐被逐步打破。


據報導,Google的新AI模型對輝達在AI硬體市場主導地位的挑戰,主要來自於Google正在
積極建構開放、多元的人工智慧生態系統,以支持學術研究並推動商業應用創新,並透過
可在多種硬體平台上高效能運行的模型,計劃減少對輝達高階GPU的依賴。


Google聲稱,Gemma 3 是「全球最強的單加速器模型」,經過針對輝達GPU和專用AI硬體
的優化,無需大量部署GPU就能運行先進的AI應用。值得注意的是,該模型的表現超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個),凸顯了Google的成本效益。。


另外,Gemma 3 特別引人注目的原因,除了「效率」,另一大功能「多功能性」也與其他
大模型不同。外媒指出,Gemma 3 可以無縫處理文字、圖像甚至短影片,這種多模式能力
為從視覺問答到基於圖像生成故事等各種應用打開了大門。


===
天下苦黃已久

紛紛推出可能擺脫輝達的策略

但終究還是要用輝達的晶片

除非有人能用別家晶片做出更好的AI設備

不然依然是要交錢給輝達阿

依舊看好

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.250.144.251 (臺灣)
※ 作者: jacknavarra 2025-03-14 15:37:22
※ 文章代碼(AID): #1dqzoqPW (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1741937844.A.660.html
fbiciamib123: 笑能過剩 完了1F 03/14 15:38
chigo520    : 那需要台積電麼?2F 03/14 15:38
mystage     : 北七,訓練跟運作本來就不一樣3F 03/14 15:38
thetide0512 : 這才是真的利空阿4F 03/14 15:38
mystage     : 記者會不會是文組的啊?這麼外行5F 03/14 15:39
a0808996    : 笑死 就說硬體過剩了 過年還被一堆人嗆xd6F 03/14 15:39
Transposon  : 晶片還是GG產,但客戶各自交單議價,量不多就可以加7F 03/14 15:40
Transposon  : 價,噴
icrose      : 這樣搞GOOGLE自己的股票也得掉下來9F 03/14 15:40
lianli1024  : 所以谷歌有本事現在砍單嗎?10F 03/14 15:40
BlueBird5566: 效能超過deepseek好像沒有很難11F 03/14 15:40
quann       : 好啊 那就降資本支出阿12F 03/14 15:40
karta018    : 鏟子還是要買,只是學會念的應用技就不用買那麼多了13F 03/14 15:40
caity       : 怎麼硬體需求越來越少,怕爆14F 03/14 15:41
SuGK        : 周末鬼故事開始了嗎15F 03/14 15:41
uv5566      : 丸子16F 03/14 15:41
jeff0025    : 輝達是賣硬體耶17F 03/14 15:41
VVizZ       : 硬體需求少 那硬體推上去不會更強嗎18F 03/14 15:42
a0808996    : 矽谷都是精英軟體工程師 靠硬體撐運算 能聽嗎19F 03/14 15:42
caity       : Google 搞軟體又不搞硬體,為啥他要下去?20F 03/14 15:42
sky777      : 推理本來就不需要什麼太高階的卡 訓練才需要21F 03/14 15:42
tomdavis    : 周末鬼故事來拉 搭配鴻海開營收 周一跌停能買嗎?22F 03/14 15:42
gn7722      : 越來越會掰23F 03/14 15:43
tony15899   : 丸了 需求剩幾百分之一 GG100收24F 03/14 15:43
Toge        : 用來用去還是 Grok 3 好用,又快又精準回答25F 03/14 15:43
caity       : 經濟效應吧像是堆到多少再往上疊硬體效果增加變小26F 03/14 15:44
mlda888     : 丸子27F 03/14 15:44
deann 
deann       : 谷哥更強28F 03/14 15:44
idernest    : 5090 50收29F 03/14 15:44
a0808996    : 繼續堆硬體 保證未來都收不回來30F 03/14 15:45
stanleyplus : 下去吧31F 03/14 15:45
Toge        : 但還是期待有一天能在手機上離線運作32F 03/14 15:46
centuryboy  : 蒸餾再蒸餾 濃縮再濃縮33F 03/14 15:46
jason0925   : 硬體AI 死去  edgeAI 蓬勃發展34F 03/14 15:46
wemee       :   ok 明天輝達熔斷35F 03/14 15:46
jumilin927  : 變gg200了36F 03/14 15:46
PureAnSimple: 蒸的丸子   塊陶啊啊啊啊啊啊    陶之前別忘了空達37F 03/14 15:46
PureAnSimple: 達
AGODC       : 就是準不準跟費用中間,去搞個平衡點39F 03/14 15:47
bojan0701   : 硬體堆上去應更強,可是帶來的效益?40F 03/14 15:47
jinhouse123 : 閹割 再 閹割41F 03/14 15:48
strlen      : 一鍵出清 反手作空 AI泡沫 勢在必行42F 03/14 15:49
amazingwow  : 原來只需要一個就可以了43F 03/14 15:49
bojan0701   : 要再飆 必須有更多應用普及...44F 03/14 15:49
FatFatQQ    : 準備砍單45F 03/14 15:50
bonaqabo    : 我蒸餾你蒸餾我的蒸餾46F 03/14 15:50
a0808996    : 中國靠更低的成本運行ai 你還在堆硬體47F 03/14 15:50
s881720     : 老黃乖乖回去賣顯卡吧48F 03/14 15:50
pziix       : 題材臭酸了 可以再端新穎的東西出來嗎49F 03/14 15:50
strong66    : 無需購買大量GPU晶片 就是最大利空50F 03/14 15:51
Brioni      : NV: 你不要再說了51F 03/14 15:51
s860703     : 台股沒破22000都是假議題52F 03/14 15:51
a9564208    : 所以接下來是ASIC的回合?53F 03/14 15:51
GivemeApen  : 還不是要用asic gg根本沒差54F 03/14 15:52
summer08818 : NV: 你要採購少一點 那我每顆報價高一點不就好了55F 03/14 15:52
yabaidesu   : 每個都說自己最強 到底誰最強56F 03/14 15:52
QooSnow     : (請問)(如果你)(吃一個便當)(就8分飽,)(57F 03/14 15:52
QooSnow     : 你會)(同時買)(1萬個)(便當嗎?)
jinhouse123 : AGI 有沒有機會早點問世啊。59F 03/14 15:52
qrose666    : 這會是Asic 利多嗎?60F 03/14 15:52
ssarc       : 針對輝達優化?61F 03/14 15:52
demon159000 : 啊所以玩家的顯卡要大量生產了沒?62F 03/14 15:52
anyu0805    : 照這個道理蘋果股價應該趴在地上了~63F 03/14 15:52
nasarood    : 效能2.5倍價格兩倍你還是得買。單價更便宜。64F 03/14 15:52
ezreal1315  : 回調什麼鬼故事都有65F 03/14 15:52
summer08818 : ASIC 問題在於你自己造車造輪子 會不會比較便宜阿XD66F 03/14 15:53
ImHoluCan   : 這昨天的新聞喔67F 03/14 15:53
[圖]
qwe78971    : 單晶片運作 一堆菜雞扯訓練要幾個幾個 到底懂不懂69F 03/14 15:54
qwe78971    :  真得笑死 一群小丑
jinhouse123 : 等RobotTaxi和家用Robot問世,再跟我說進到AI時代71F 03/14 15:54
ImHoluCan   : 還有騰訊昨天說買了多少Nvidia gpu 怎不說呢72F 03/14 15:54
Brioni      : ASIC沒軟體更新速度那麼快,但是NV卡今年這批出完後73F 03/14 15:55
Brioni      : 續拉貨力道有待考驗
c928        : 大家一起來唬爛75F 03/14 15:56
HiuAnOP     : 1個H100是Ai那10個H100是不是就變愛因斯坦了!76F 03/14 15:56
Lowpapa     : 好了啦77F 03/14 15:58
ohya111326  : 同一套劇本要用幾次  有種不要買GPU78F 03/14 15:59
rbelldandy  : 不重要,能賺錢就好不可有人NV套在140以上吧79F 03/14 15:59
PureAnSimple: 10個H100是AAAAAAAAAAi80F 03/14 15:59
lpmybig     : 老黃 單雕81F 03/14 16:00
MrStone     : 算力需求低為什麼以前寫不出來AI83F 03/14 16:03
kotorichan  : AI都白菜價了 沒差啦84F 03/14 16:03
zerro7      : AI鬼故事平均一個月會出現一個85F 03/14 16:04
Haerin520   : 完惹 操灰搭140還有救嗎86F 03/14 16:04
ganbee      : 誰攏都可以,只要免錢我就用。87F 03/14 16:05
jimmy12332  : 任何人都能去hugging face下載一個LLM來玩88F 03/14 16:06
ymlin0331   : 呵呵89F 03/14 16:06
flylife0527 : 少量晶片 美GG崩90F 03/14 16:07
rbelldandy  : 技術本來就會越來越進步,ai更是不是嗎91F 03/14 16:09
ccdrv       : 到周末 鬼故事特別多92F 03/14 16:09
syoritoo    : 還在講算力過剩的 不是壞就是騙了93F 03/14 16:11
sean667cd   : 算力跟記者智商一樣 ,永遠不嫌多94F 03/14 16:11
tmdl        : 笑死95F 03/14 16:11
tmdl        : 不是說人工智能會以幾倍速成長
noahlin     : 有沒有新梗啊 整天炒作這個不無聊嗎97F 03/14 16:13
noahlin     : 難道GG一直擴廠是腦袋有問題嗎
zerro7      : AI沒到頂之前哪來的算力過剩問題 難理解99F 03/14 16:13
noahlin     : 消費性趴在地上 GG擴廠只能是為了其他用途100F 03/14 16:14
airawesu    : AI聊天室在解決長期記憶健忘問題前 算力都是假議題101F 03/14 16:15
a0808996    : 股價看的是複合成長 複合成長慢了 不就完了102F 03/14 16:16
a0808996    : 需求+100% 明年變10%
transfight  : QQ完啦!!overbooking!!104F 03/14 16:17
mutohchi    : 笑鼠105F 03/14 16:17
QooSnow     : (直接)(看股價,)(就知道)(答案了!)106F 03/14 16:17
carlos159357: 輝達是買鏟子的,跟軟體啥關係啦,你只能說鏟子不用107F 03/14 16:17
carlos159357: 買這麽多這麽好了
transfight  : QQ塊陶啊啊啊啊啊啊啊啊啊啊啊啊啊!109F 03/14 16:17
noahlin     : GG都說CAGR未來五年20% 這還有被消費性拖累 純ai一110F 03/14 16:17
noahlin     : 定超過這比例 至於這夠不夠高就看人了 人家擴廠幾百
noahlin     : 億鎂不能亂投資的
leefengynh  : GG只要有人下定單 就會擴廠了 但訂單可以撤掉XDDDDD113F 03/14 16:18
a0808996    : GG有單 不代表NV有單阿114F 03/14 16:18
a0808996    : 越來越多巨頭 都要自制晶片了
noahlin     : 在打信用卡客服還要等真人到天荒地老的時候 ai飽和116F 03/14 16:19
sdbb        : 輝達要搞輝達宇宙117F 03/14 16:19
noahlin     : 還非常遠 這是很基礎也相對容易做的需求118F 03/14 16:19
a0808996    : 大家都不想被 老黃綁架了119F 03/14 16:19
leefengynh  : 1個H100=1個毛利小五郎  10個H100也不會變柯南120F 03/14 16:19
leefengynh  : 因為AI會不會變聰明的關鍵 還是在演算法
leefengynh  : 錯誤的腦迴路 不會因為迴路運轉比較快 就變正確
a0808996    : 你算數學請再多人算 還是比不上一個創新的公式123F 03/14 16:21
leefengynh  : 1個h100=1個毛利小五郎124F 03/14 16:22
leefengynh  : 在同樣演算法下
josephpu    : 其實ds問世後,那幾間巨頭對asic是有點放緩的126F 03/14 16:22
leefengynh  : 10個H100 就是 毛利小五郎用10倍的速度思考出一樣錯127F 03/14 16:23
leefengynh  : 誤的推理
leefengynh  : 速度變快 但結果一樣錯
leefengynh  : 原本30秒可以得到錯誤的推理結果 現在3秒得到錯誤結
leefengynh  : 果
freezee     : 呵呵 運作132F 03/14 16:26
panda816    : 吹過頭了吧133F 03/14 16:28
jerrychuang : 推理用4090也可以跑啊134F 03/14 16:28
shorty5566  : 看這篇一堆文組N酸在大放厥詞就覺得有趣135F 03/14 16:29
leefengynh  : 就已經說了 AI需求能不能上去 本質是AI好不好用136F 03/14 16:30
leefengynh  : AI夠不夠聰明決定了AI好不好用
leefengynh  : AI如果一直不好用 無法讓大多數人產生依賴性使用
saya2185    : 搞錯了吧 應該是買越多賺越多才對139F 03/14 16:30
leefengynh  : 你賣鏟子的需求能多大 XDDDD140F 03/14 16:31
leefengynh  : AI語言模型的訂閱人口 連智慧手機使用人口的0.01%都
leefengynh  : 都不到 根本沒多大市場 因為就是對多數人來講不好用
antiUSA     : 效能過剩都是騙你各位韭菜啦 機器人是能幫你開車打143F 03/14 16:34
antiUSA     : 手槍了沒?
syk1104     : 今晚又要跌了嗎?跌一根大的,接起來145F 03/14 16:34
symeng      : 提問:多數人不訂閱AI,有沒有可能是免費的AI已經足146F 03/14 16:34
symeng      : 夠供其使用?
leefengynh  : 免費的都不好用 誰會願意訂閱XD148F 03/14 16:35
ISNAKEI     : 軟體跟硬體有啥關係149F 03/14 16:36
eric356     : 運行還是要一堆晶片150F 03/14 16:37
symeng      : 不好用的原因是準確度不夠或機密資料不方便使用於各151F 03/14 16:37
symeng      : 家AI?
leefengynh  : 叫AI幫忙分析一家公司的多空消息 裡面列出一堆資訊153F 03/14 16:37
leefengynh  : 自己還要去google確認他有沒有講錯 其實難用得要死
tctv2002    : 代表目前算力需求已滿足大部分的人了155F 03/14 16:37
leefengynh  : 聊天打屁還行 要問專業或正經的事情一點都不可靠156F 03/14 16:38
Arashi0731  : 你還是得用他們家的鏟子,越多人進入AI對輝達越有利157F 03/14 16:38
Arashi0731  : 好嗎
symeng      : 感謝L大回答159F 03/14 16:38
leefengynh  : 你還要重複確認有沒有錯誤160F 03/14 16:38
leefengynh  : 唯一有突破的大概就是翻譯能力變很強而已
kissboy1065 : 拜託今天騙殺100 NV讓我撿162F 03/14 16:39
leefengynh  : yt上面的影音翻譯 快用AI就對了 還在用傳統弱智翻譯163F 03/14 16:40
leefengynh  : 這樣子可以看更多不同語言的影片 德語法語的YTber
ntuee1803   : 又在寫廢文165F 03/14 16:41
fan415      : 不會啊 如果ai有極限 到達極限只需要少量晶片 那根166F 03/14 16:41
fan415      : 本銷量就會大減
nono5938    : 噴168F 03/14 16:41
godchoice   : 不錯,但硬體強才能吃龐大市場169F 03/14 16:42
eddy13      : 訓練困難,但使用簡單,是比較合適的發展方向,這170F 03/14 16:43
eddy13      : 樣願意用的廠商才會多
TWkobe5566  : 研發不用買卡嗎  RD早就搶資源搶瘋了172F 03/14 16:44
funguy0202  : 谷歌都跌倒吐奶了173F 03/14 16:45
cityhunter04: 還不是要晶片?有種設計都不用用的啊!174F 03/14 16:47
shellback   : 更聰明 應用更多 客戶增加還是要多硬體來維持服務175F 03/14 16:48
yulun1984   : 笑死176F 03/14 16:53
c24253994   : 丸子177F 03/14 16:54
tinybunny   : 笑能過剩辣就創造需求鴨178F 03/14 16:55
stkoso      : 有一萬張嘴要餵就得買一萬個便當阿179F 03/14 16:56
stkoso      : 你只有一張嘴要餵應該先找找自己的問題
catfixdog   : 是非難斷 惟有股價會反映最真實的情況181F 03/14 16:57
xkso        : 99 goog 已躺平182F 03/14 16:59
a1252352    : 這麼划算班班有晶片啦183F 03/14 16:59
Shermie     : 笑死H100誰做的184F 03/14 16:59
xkso        : 等到不是用輝達的晶片再說185F 03/14 17:00
yoyo1994yoyo: 這麼有信心估狗肯定都退貨了吧嘻嘻186F 03/14 17:00
jumpballfan : 哇 公公利空187F 03/14 17:01
haworz      : 不用H100,我們專用ASIC演算法屌打NV,然後量太少188F 03/14 17:02
haworz      : 下單成本更高。
minaei      : 這模型的參數量不大吧190F 03/14 17:12
takeda3234  : 當然要蒸餾濃縮越來越小191F 03/14 17:20
Yogin       : 如果是這樣,說真的科技也不用再進步了,就用黑金剛192F 03/14 17:24
QooSnow     : (廢話一堆!)(看股價,)(最直接!)193F 03/14 17:24
CCPenis     : 硬體需求降低 崩崩194F 03/14 17:29
moom50302   : 這個再傻傻被騙出去就自愛了……195F 03/14 17:29
hpk89       : 邏輯有問題,模型效率變高當然是用一樣的硬體追求196F 03/14 17:35
hpk89       : 更強大的Ai, 硬體需求怎麼會變少? 目前Ai只能說勉
hpk89       : 強堪用,離好用甚至夠用都還很遠
leviathen   : 訓練用多少出來講講199F 03/14 17:48
saixpzooo   : 看看那些買輝達的韭菜200F 03/14 17:52
kkchen      : 這樣是不是可以節省大量的電力?201F 03/14 17:57
c00jsw00    : 這個效能不好 qwq32b可能都比他好202F 03/14 18:00
kimula01 
kimula01    : 最強沒用啊 最後還是會回到軍備競賽比算力203F 03/14 18:09
kkevinhess1t: 我怎麼看來看去是,訓練完後還要買一顆離線運作204F 03/14 18:12
ToastBen    : 濃縮再濃縮 提煉再提煉 wwwwwwwwww205F 03/14 18:18
aweara      : 好猛喔  看好輝達繼續往上206F 03/14 18:24
aewul       : 以後成熟製程就可以應付了207F 03/14 18:25
visadanny   : google什麼時候研發ggpu了 第一次聽說軟體打破硬體208F 03/14 18:31
visadanny   : 商壟斷地位
Lhmstu      : 問號,不用訓練嗎210F 03/14 18:32
ivanos      : 台積 下看80211F 03/14 18:42
PTTMAXQQ    : 這世界ai的訓練還需要持續212F 03/14 18:43
PTTMAXQQ    : 但問題已經沒有新資料喂給AI
PTTMAXQQ    : 只能靠AI自行延伸運算推算
PTTMAXQQ    : 未來就看哪個AI能推算發明出改變世界格局的東西
PTTMAXQQ    : 不然在這之前運作真的不需要這麼多晶片
newlie      : GG比較慘吧 美積電本來毛利就會下降 然後量又降更慘217F 03/14 18:50
la8day      : 要確呢 我到現在還是覺得Gemini北七北七218F 03/14 18:57
losage      : 不是不需要,是目前的模型都太智障了。根本沒有殺219F 03/14 19:00
losage      : 手級的模型啊
losage      : 我光是叫ds 或gpt 整理一週行情,都可以給我亂引用
losage      : 資料
q09701023   : 效能過剩,那就是模型可以進步的空間還很大223F 03/14 19:14
NEWinx      : 用輝達晶片打破輝達壟斷?這記者是不是邏輯有問題?224F 03/14 19:15
xiaoyao     : 記者好好笑 還是靠輝達晶片啊225F 03/14 19:17
DrTech      : 很多人不知道H100多少錢耶…   5萬元嗎?226F 03/14 19:20
jboys75     : 不懂 用5090 就可以跑很順了啊 要H100跑幹嘛?227F 03/14 19:20
DrTech      : 光是一張H100成本就超高好嗎228F 03/14 19:21
joke3547    : 有開源嗎?229F 03/14 19:23
Dean997     : 老黃快飛來台灣救救台灣股民230F 03/14 19:28
kinda       : google ai studio試了一下gemma3 27b,又慢又爛231F 03/14 19:29
kinda       : gemini 2.0 還比較好用
sustto      : 喔是喔 用nv晶片大敗nv晶片 文組就這邏輯 好惹啦233F 03/14 19:38
naushtogo   : 最好世界加強234F 03/14 20:00
huntergirl14: 水喔,效能過剩,崩三年235F 03/14 20:39
cityport    : 印度人又在吹了,等著看褲子被沖到哪去236F 03/14 20:47
ggyaining   : 幹這邏輯有問題237F 03/14 21:33
japan428    : Google手機晶片的例子猶在,真有人信這篇嗎238F 03/14 21:57
hyperyoujo  : 我先不論這篇新聞真假、也不論板友看不看好未來堆239F 03/14 22:26
hyperyoujo  : 硬體的效益,我只問一個基本邏輯問題:要打破一間
hyperyoujo  : 公司的壟斷地位,需要的是很多間公司都能做出H100
hyperyoujo  : 、還是我只要用更少的H100就能達到一樣的事情?
hyperyoujo  : 如果有科技人認真討論這篇文組白痴寫的新聞的,我
hyperyoujo  : 真的覺得很悲哀,很明顯作者就搞不清楚什麼叫做「
hyperyoujo  : 壟斷」
LieTo       : 可能要再多學一點...推理 跟 訓練 不同...246F 03/14 23:11
jerry20151  : 文組新聞247F 03/14 23:26
idlewolf    : 除非能少到讓他產能過剩 不然還不是要用老黃 壟斷沒248F 03/14 23:37
idlewolf    : 打破阿 連定義都搞不清楚就在發稿 水準可悲
a731977     : 這模型真的不怎樣- -250F 03/15 01:41
xm3u4vmp6   : 傻了嗎 在開發出上帝等級全知大腦前 算力永遠不夠251F 03/15 06:49

--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 107 
作者 jacknavarra 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
guest
x)推文 r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇