看板 Stock作者 jacknavarra (阿姆羅)標題 [新聞] 輝達壟斷地位將打破 ? 「地表最強」AI模時間 Fri Mar 14 15:37:22 2025
自由財經
輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、
Meta
https://ec.ltn.com.tw/article/breakingnews/4979570
2025/03/14 11:04
高佳菁/核稿編輯
〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的
,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就
是,這款AI模型單可單晶片運作,只需「1個」H100晶片。這意味著,Google未來只需訂
購輝達少量的高階晶片,就能展現開發AI模型的成本效益。
分析師指出,Google推出的新AI模型,只需用1個H100就可運行,該模型的表現還超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個)。
此數據對輝達來說,未來市場用戶無需購買大量其GPU晶片,即可部署先進的AI應用程式
未來高階晶片出貨量,恐將影響輝達的高階晶片出貨量。此外,Google TPU等替代硬體平
台積極發展,加上類似Gemma 3等優化模型將陸續出現,未來輝達在AI訓練和推理方面的
優勢約80%的市占壟斷地位,恐被逐步打破。
據報導,Google的新AI模型對輝達在AI硬體市場主導地位的挑戰,主要來自於Google正在
積極建構開放、多元的人工智慧生態系統,以支持學術研究並推動商業應用創新,並透過
可在多種硬體平台上高效能運行的模型,計劃減少對輝達高階GPU的依賴。
Google聲稱,Gemma 3 是「全球最強的單加速器模型」,經過針對輝達GPU和專用AI硬體
的優化,無需大量部署GPU就能運行先進的AI應用。值得注意的是,該模型的表現超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個),凸顯了Google的成本效益。。
另外,Gemma 3 特別引人注目的原因,除了「效率」,另一大功能「多功能性」也與其他
大模型不同。外媒指出,Gemma 3 可以無縫處理文字、圖像甚至短影片,這種多模式能力
為從視覺問答到基於圖像生成故事等各種應用打開了大門。
===
天下苦黃已久
紛紛推出可能擺脫輝達的策略
但終究還是要用輝達的晶片
除非有人能用別家晶片做出更好的AI設備
不然依然是要交錢給輝達阿
依舊看好
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.250.144.251 (臺灣)
※ 作者: jacknavarra 2025-03-14 15:37:22
※ 文章代碼(AID): #1dqzoqPW (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1741937844.A.660.html
→ mystage: 北七,訓練跟運作本來就不一樣3F 03/14 15:38
→ mystage: 記者會不會是文組的啊?這麼外行5F 03/14 15:39
推 a0808996: 笑死 就說硬體過剩了 過年還被一堆人嗆xd6F 03/14 15:39
→ Transposon: 晶片還是GG產,但客戶各自交單議價,量不多就可以加價,噴7F 03/14 15:40
推 icrose: 這樣搞GOOGLE自己的股票也得掉下來9F 03/14 15:40
推 quann: 好啊 那就降資本支出阿12F 03/14 15:40
推 karta018: 鏟子還是要買,只是學會念的應用技就不用買那麼多了13F 03/14 15:40
推 caity: 怎麼硬體需求越來越少,怕爆14F 03/14 15:41
推 SuGK: 周末鬼故事開始了嗎15F 03/14 15:41
推 VVizZ: 硬體需求少 那硬體推上去不會更強嗎18F 03/14 15:42
推 a0808996: 矽谷都是精英軟體工程師 靠硬體撐運算 能聽嗎19F 03/14 15:42
→ caity: Google 搞軟體又不搞硬體,為啥他要下去?20F 03/14 15:42
噓 sky777: 推理本來就不需要什麼太高階的卡 訓練才需要21F 03/14 15:42
推 tomdavis: 周末鬼故事來拉 搭配鴻海開營收 周一跌停能買嗎?22F 03/14 15:42
推 gn7722: 越來越會掰23F 03/14 15:43
推 tony15899: 丸了 需求剩幾百分之一 GG100收24F 03/14 15:43
推 Toge: 用來用去還是 Grok 3 好用,又快又精準回答25F 03/14 15:43
→ caity: 經濟效應吧像是堆到多少再往上疊硬體效果增加變小26F 03/14 15:44
→ deann …
推 deann: 谷哥更強28F 03/14 15:44
推 a0808996: 繼續堆硬體 保證未來都收不回來30F 03/14 15:45
→ Toge: 但還是期待有一天能在手機上離線運作32F 03/14 15:46
推 jason0925: 硬體AI 死去 edgeAI 蓬勃發展34F 03/14 15:46
推 wemee: ok 明天輝達熔斷35F 03/14 15:46
推 AGODC: 就是準不準跟費用中間,去搞個平衡點39F 03/14 15:47
→ bojan0701: 硬體堆上去應更強,可是帶來的效益?40F 03/14 15:47
推 strlen: 一鍵出清 反手作空 AI泡沫 勢在必行42F 03/14 15:49
推 a0808996: 中國靠更低的成本運行ai 你還在堆硬體47F 03/14 15:50
推 s881720: 老黃乖乖回去賣顯卡吧48F 03/14 15:50
推 pziix: 題材臭酸了 可以再端新穎的東西出來嗎49F 03/14 15:50
推 strong66: 無需購買大量GPU晶片 就是最大利空50F 03/14 15:51
推 Brioni: NV: 你不要再說了51F 03/14 15:51
→ s860703: 台股沒破22000都是假議題52F 03/14 15:51
→ a9564208: 所以接下來是ASIC的回合?53F 03/14 15:51
→ summer08818: NV: 你要採購少一點 那我每顆報價高一點不就好了55F 03/14 15:52
推 QooSnow: (請問)(如果你)(吃一個便當)(就8分飽,)(你會)(同時買)(1萬個)(便當嗎?)57F 03/14 15:52
推 ssarc: 針對輝達優化?61F 03/14 15:52
推 anyu0805: 照這個道理蘋果股價應該趴在地上了~63F 03/14 15:52
推 nasarood: 效能2.5倍價格兩倍你還是得買。單價更便宜。64F 03/14 15:52
→ summer08818: ASIC 問題在於你自己造車造輪子 會不會比較便宜阿XD66F 03/14 15:53
推 qwe78971: 單晶片運作 一堆菜雞扯訓練要幾個幾個 到底懂不懂 真得笑死 一群小丑69F 03/14 15:54
→ jinhouse123: 等RobotTaxi和家用Robot問世,再跟我說進到AI時代71F 03/14 15:54
→ ImHoluCan: 還有騰訊昨天說買了多少Nvidia gpu 怎不說呢72F 03/14 15:54
推 Brioni: ASIC沒軟體更新速度那麼快,但是NV卡今年這批出完後續拉貨力道有待考驗73F 03/14 15:55
推 c928: 大家一起來唬爛75F 03/14 15:56
推 HiuAnOP: 1個H100是Ai那10個H100是不是就變愛因斯坦了!76F 03/14 15:56
→ rbelldandy: 不重要,能賺錢就好不可有人NV套在140以上吧79F 03/14 15:59
推 MrStone: 算力需求低為什麼以前寫不出來AI83F 03/14 16:03
推 zerro7: AI鬼故事平均一個月會出現一個85F 03/14 16:04
推 ganbee: 誰攏都可以,只要免錢我就用。87F 03/14 16:05
推 jimmy12332: 任何人都能去hugging face下載一個LLM來玩88F 03/14 16:06
推 ccdrv: 到周末 鬼故事特別多92F 03/14 16:09
推 syoritoo: 還在講算力過剩的 不是壞就是騙了93F 03/14 16:11
→ tmdl: 笑死
不是說人工智能會以幾倍速成長95F 03/14 16:11
推 noahlin: 有沒有新梗啊 整天炒作這個不無聊嗎
難道GG一直擴廠是腦袋有問題嗎97F 03/14 16:13
推 zerro7: AI沒到頂之前哪來的算力過剩問題 難理解99F 03/14 16:13
→ noahlin: 消費性趴在地上 GG擴廠只能是為了其他用途100F 03/14 16:14
推 airawesu: AI聊天室在解決長期記憶健忘問題前 算力都是假議題101F 03/14 16:15
推 a0808996: 股價看的是複合成長 複合成長慢了 不就完了
需求+100% 明年變10%102F 03/14 16:16
推 QooSnow: (直接)(看股價,)(就知道)(答案了!)106F 03/14 16:17
推 carlos159357: 輝達是買鏟子的,跟軟體啥關係啦,你只能說鏟子不用買這麽多這麽好了107F 03/14 16:17
推 noahlin: GG都說CAGR未來五年20% 這還有被消費性拖累 純ai一定超過這比例 至於這夠不夠高就看人了 人家擴廠幾百億鎂不能亂投資的110F 03/14 16:17
推 leefengynh: GG只要有人下定單 就會擴廠了 但訂單可以撤掉XDDDDD113F 03/14 16:18
→ a0808996: GG有單 不代表NV有單阿
越來越多巨頭 都要自制晶片了114F 03/14 16:18
→ noahlin: 在打信用卡客服還要等真人到天荒地老的時候 ai飽和116F 03/14 16:19
→ sdbb: 輝達要搞輝達宇宙117F 03/14 16:19
→ noahlin: 還非常遠 這是很基礎也相對容易做的需求118F 03/14 16:19
→ a0808996: 大家都不想被 老黃綁架了119F 03/14 16:19
→ leefengynh: 1個H100=1個毛利小五郎 10個H100也不會變柯南
因為AI會不會變聰明的關鍵 還是在演算法
錯誤的腦迴路 不會因為迴路運轉比較快 就變正確120F 03/14 16:19
→ a0808996: 你算數學請再多人算 還是比不上一個創新的公式123F 03/14 16:21
→ leefengynh: 1個h100=1個毛利小五郎
在同樣演算法下124F 03/14 16:22
推 josephpu: 其實ds問世後,那幾間巨頭對asic是有點放緩的126F 03/14 16:22
→ leefengynh: 10個H100 就是 毛利小五郎用10倍的速度思考出一樣錯誤的推理
速度變快 但結果一樣錯
原本30秒可以得到錯誤的推理結果 現在3秒得到錯誤結果127F 03/14 16:23
推 leefengynh: 就已經說了 AI需求能不能上去 本質是AI好不好用
AI夠不夠聰明決定了AI好不好用
AI如果一直不好用 無法讓大多數人產生依賴性使用136F 03/14 16:30
推 saya2185: 搞錯了吧 應該是買越多賺越多才對139F 03/14 16:30
→ leefengynh: 你賣鏟子的需求能多大 XDDDD
AI語言模型的訂閱人口 連智慧手機使用人口的0.01%都都不到 根本沒多大市場 因為就是對多數人來講不好用140F 03/14 16:31
噓 antiUSA: 效能過剩都是騙你各位韭菜啦 機器人是能幫你開車打手槍了沒?143F 03/14 16:34
→ syk1104: 今晚又要跌了嗎?跌一根大的,接起來145F 03/14 16:34
推 symeng: 提問:多數人不訂閱AI,有沒有可能是免費的AI已經足夠供其使用?146F 03/14 16:34
推 ISNAKEI: 軟體跟硬體有啥關係149F 03/14 16:36
推 eric356: 運行還是要一堆晶片150F 03/14 16:37
推 symeng: 不好用的原因是準確度不夠或機密資料不方便使用於各家AI?151F 03/14 16:37
→ leefengynh: 叫AI幫忙分析一家公司的多空消息 裡面列出一堆資訊自己還要去google確認他有沒有講錯 其實難用得要死153F 03/14 16:37
→ tctv2002: 代表目前算力需求已滿足大部分的人了155F 03/14 16:37
→ leefengynh: 聊天打屁還行 要問專業或正經的事情一點都不可靠156F 03/14 16:38
→ Arashi0731: 你還是得用他們家的鏟子,越多人進入AI對輝達越有利好嗎157F 03/14 16:38
→ symeng: 感謝L大回答159F 03/14 16:38
→ leefengynh: 你還要重複確認有沒有錯誤
唯一有突破的大概就是翻譯能力變很強而已160F 03/14 16:38
→ leefengynh: yt上面的影音翻譯 快用AI就對了 還在用傳統弱智翻譯這樣子可以看更多不同語言的影片 德語法語的YTber163F 03/14 16:40
→ fan415: 不會啊 如果ai有極限 到達極限只需要少量晶片 那根本銷量就會大減166F 03/14 16:41
推 eddy13: 訓練困難,但使用簡單,是比較合適的發展方向,這樣願意用的廠商才會多170F 03/14 16:43
→ shellback: 更聰明 應用更多 客戶增加還是要多硬體來維持服務175F 03/14 16:48
→ stkoso: 有一萬張嘴要餵就得買一萬個便當阿
你只有一張嘴要餵應該先找找自己的問題179F 03/14 16:56
→ catfixdog: 是非難斷 惟有股價會反映最真實的情況181F 03/14 16:57
推 xkso: 99 goog 已躺平182F 03/14 16:59
→ Shermie: 笑死H100誰做的184F 03/14 16:59
→ xkso: 等到不是用輝達的晶片再說185F 03/14 17:00
推 haworz: 不用H100,我們專用ASIC演算法屌打NV,然後量太少下單成本更高。188F 03/14 17:02
推 minaei: 這模型的參數量不大吧190F 03/14 17:12
→ Yogin: 如果是這樣,說真的科技也不用再進步了,就用黑金剛192F 03/14 17:24
推 QooSnow: (廢話一堆!)(看股價,)(最直接!)193F 03/14 17:24
推 CCPenis: 硬體需求降低 崩崩194F 03/14 17:29
推 hpk89: 邏輯有問題,模型效率變高當然是用一樣的硬體追求更強大的Ai, 硬體需求怎麼會變少? 目前Ai只能說勉強堪用,離好用甚至夠用都還很遠196F 03/14 17:35
推 kkchen: 這樣是不是可以節省大量的電力?201F 03/14 17:57
推 c00jsw00: 這個效能不好 qwq32b可能都比他好202F 03/14 18:00
→ kimula01 …
→ kimula01: 最強沒用啊 最後還是會回到軍備競賽比算力203F 03/14 18:09
→ ToastBen: 濃縮再濃縮 提煉再提煉 wwwwwwwwww205F 03/14 18:18
推 aweara: 好猛喔 看好輝達繼續往上206F 03/14 18:24
→ aewul: 以後成熟製程就可以應付了207F 03/14 18:25
噓 visadanny: google什麼時候研發ggpu了 第一次聽說軟體打破硬體商壟斷地位208F 03/14 18:31
推 Lhmstu: 問號,不用訓練嗎210F 03/14 18:32
推 ivanos: 台積 下看80211F 03/14 18:42
推 PTTMAXQQ: 這世界ai的訓練還需要持續
但問題已經沒有新資料喂給AI
只能靠AI自行延伸運算推算
未來就看哪個AI能推算發明出改變世界格局的東西
不然在這之前運作真的不需要這麼多晶片212F 03/14 18:43
噓 newlie: GG比較慘吧 美積電本來毛利就會下降 然後量又降更慘217F 03/14 18:50
→ la8day: 要確呢 我到現在還是覺得Gemini北七北七218F 03/14 18:57
推 losage: 不是不需要,是目前的模型都太智障了。根本沒有殺手級的模型啊
我光是叫ds 或gpt 整理一週行情,都可以給我亂引用資料219F 03/14 19:00
推 q09701023: 效能過剩,那就是模型可以進步的空間還很大223F 03/14 19:14
噓 NEWinx: 用輝達晶片打破輝達壟斷?這記者是不是邏輯有問題?224F 03/14 19:15
→ xiaoyao: 記者好好笑 還是靠輝達晶片啊225F 03/14 19:17
→ DrTech: 很多人不知道H100多少錢耶… 5萬元嗎?226F 03/14 19:20
推 jboys75: 不懂 用5090 就可以跑很順了啊 要H100跑幹嘛?227F 03/14 19:20
→ DrTech: 光是一張H100成本就超高好嗎228F 03/14 19:21
推 Dean997: 老黃快飛來台灣救救台灣股民230F 03/14 19:28
→ kinda: google ai studio試了一下gemma3 27b,又慢又爛
gemini 2.0 還比較好用231F 03/14 19:29
噓 sustto: 喔是喔 用nv晶片大敗nv晶片 文組就這邏輯 好惹啦233F 03/14 19:38
噓 cityport: 印度人又在吹了,等著看褲子被沖到哪去236F 03/14 20:47
推 japan428: Google手機晶片的例子猶在,真有人信這篇嗎238F 03/14 21:57
噓 hyperyoujo: 我先不論這篇新聞真假、也不論板友看不看好未來堆硬體的效益,我只問一個基本邏輯問題:要打破一間公司的壟斷地位,需要的是很多間公司都能做出H100、還是我只要用更少的H100就能達到一樣的事情?
如果有科技人認真討論這篇文組白痴寫的新聞的,我真的覺得很悲哀,很明顯作者就搞不清楚什麼叫做「壟斷」239F 03/14 22:26
推 LieTo: 可能要再多學一點...推理 跟 訓練 不同...246F 03/14 23:11
噓 idlewolf: 除非能少到讓他產能過剩 不然還不是要用老黃 壟斷沒打破阿 連定義都搞不清楚就在發稿 水準可悲248F 03/14 23:37
噓 a731977: 這模型真的不怎樣- -250F 03/15 01:41
推 xm3u4vmp6: 傻了嗎 在開發出上帝等級全知大腦前 算力永遠不夠251F 03/15 06:49
--