※ 本文轉寄自 ptt.cc 更新時間: 2025-03-15 12:03:43
看板 Stock
作者 標題 [新聞] 輝達壟斷地位將打破 ? 「地表最強」AI模
時間 Fri Mar 14 15:37:22 2025
自由財經
輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、
Meta
https://ec.ltn.com.tw/article/breakingnews/4979570
輝達壟斷地位將打破 ? 「地表最強」AI模型只用「1個」H100、效能就超越DeepSeek、Meta - 自由財經
高佳菁/核稿編輯 〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就是, ...
![[圖]](https://img.ltn.com.tw/Upload/business/page/800/2025/03/14/phpwKlgKs.jpg)
高佳菁/核稿編輯
〔財經頻道/綜合報導〕各家科技大廠陸續推出自家的AI大模型,但近期最受市場注目的
,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就
是,這款AI模型單可單晶片運作,只需「1個」H100晶片。這意味著,Google未來只需訂
購輝達少量的高階晶片,就能展現開發AI模型的成本效益。
,就是Google的Gemma 3,推出不久後就獲得「地表最強AI模型」的稱號,當中的關鍵就
是,這款AI模型單可單晶片運作,只需「1個」H100晶片。這意味著,Google未來只需訂
購輝達少量的高階晶片,就能展現開發AI模型的成本效益。
分析師指出,Google推出的新AI模型,只需用1個H100就可運行,該模型的表現還超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個)。
此數據對輝達來說,未來市場用戶無需購買大量其GPU晶片,即可部署先進的AI應用程式
未來高階晶片出貨量,恐將影響輝達的高階晶片出貨量。此外,Google TPU等替代硬體平
台積極發展,加上類似Gemma 3等優化模型將陸續出現,未來輝達在AI訓練和推理方面的
優勢約80%的市占壟斷地位,恐被逐步打破。
未來高階晶片出貨量,恐將影響輝達的高階晶片出貨量。此外,Google TPU等替代硬體平
台積極發展,加上類似Gemma 3等優化模型將陸續出現,未來輝達在AI訓練和推理方面的
優勢約80%的市占壟斷地位,恐被逐步打破。
據報導,Google的新AI模型對輝達在AI硬體市場主導地位的挑戰,主要來自於Google正在
積極建構開放、多元的人工智慧生態系統,以支持學術研究並推動商業應用創新,並透過
可在多種硬體平台上高效能運行的模型,計劃減少對輝達高階GPU的依賴。
積極建構開放、多元的人工智慧生態系統,以支持學術研究並推動商業應用創新,並透過
可在多種硬體平台上高效能運行的模型,計劃減少對輝達高階GPU的依賴。
Google聲稱,Gemma 3 是「全球最強的單加速器模型」,經過針對輝達GPU和專用AI硬體
的優化,無需大量部署GPU就能運行先進的AI應用。值得注意的是,該模型的表現超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個),凸顯了Google的成本效益。。
的優化,無需大量部署GPU就能運行先進的AI應用。值得注意的是,該模型的表現超過了
DeepSeek的R1(34個H100)和Meta的Llama 3(16個),凸顯了Google的成本效益。。
另外,Gemma 3 特別引人注目的原因,除了「效率」,另一大功能「多功能性」也與其他
大模型不同。外媒指出,Gemma 3 可以無縫處理文字、圖像甚至短影片,這種多模式能力
為從視覺問答到基於圖像生成故事等各種應用打開了大門。
大模型不同。外媒指出,Gemma 3 可以無縫處理文字、圖像甚至短影片,這種多模式能力
為從視覺問答到基於圖像生成故事等各種應用打開了大門。
===
天下苦黃已久
紛紛推出可能擺脫輝達的策略
但終究還是要用輝達的晶片
除非有人能用別家晶片做出更好的AI設備
不然依然是要交錢給輝達阿
依舊看好
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.250.144.251 (臺灣)
※ 作者: jacknavarra 2025-03-14 15:37:22
※ 文章代碼(AID): #1dqzoqPW (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1741937844.A.660.html
推 : 笑能過剩 完了1F 03/14 15:38
推 : 那需要台積電麼?2F 03/14 15:38
→ : 北七,訓練跟運作本來就不一樣3F 03/14 15:38
推 : 這才是真的利空阿4F 03/14 15:38
→ : 記者會不會是文組的啊?這麼外行5F 03/14 15:39
推 : 笑死 就說硬體過剩了 過年還被一堆人嗆xd6F 03/14 15:39
→ : 晶片還是GG產,但客戶各自交單議價,量不多就可以加7F 03/14 15:40
→ : 價,噴
→ : 價,噴
推 : 這樣搞GOOGLE自己的股票也得掉下來9F 03/14 15:40
推 : 所以谷歌有本事現在砍單嗎?10F 03/14 15:40
噓 : 效能超過deepseek好像沒有很難11F 03/14 15:40
推 : 好啊 那就降資本支出阿12F 03/14 15:40
推 : 鏟子還是要買,只是學會念的應用技就不用買那麼多了13F 03/14 15:40
推 : 怎麼硬體需求越來越少,怕爆14F 03/14 15:41
推 : 周末鬼故事開始了嗎15F 03/14 15:41
推 : 丸子16F 03/14 15:41
噓 : 輝達是賣硬體耶17F 03/14 15:41
推 : 硬體需求少 那硬體推上去不會更強嗎18F 03/14 15:42
推 : 矽谷都是精英軟體工程師 靠硬體撐運算 能聽嗎19F 03/14 15:42
→ : Google 搞軟體又不搞硬體,為啥他要下去?20F 03/14 15:42
噓 : 推理本來就不需要什麼太高階的卡 訓練才需要21F 03/14 15:42
推 : 周末鬼故事來拉 搭配鴻海開營收 周一跌停能買嗎?22F 03/14 15:42
推 : 越來越會掰23F 03/14 15:43
推 : 丸了 需求剩幾百分之一 GG100收24F 03/14 15:43
推 : 用來用去還是 Grok 3 好用,又快又精準回答25F 03/14 15:43
→ : 經濟效應吧像是堆到多少再往上疊硬體效果增加變小26F 03/14 15:44
推 : 丸子27F 03/14 15:44
→ deann …
→ : 5090 50收29F 03/14 15:44
推 : 繼續堆硬體 保證未來都收不回來30F 03/14 15:45
噓 : 下去吧31F 03/14 15:45
→ : 但還是期待有一天能在手機上離線運作32F 03/14 15:46
推 : 蒸餾再蒸餾 濃縮再濃縮33F 03/14 15:46
推 : 硬體AI 死去 edgeAI 蓬勃發展34F 03/14 15:46
推 : ok 明天輝達熔斷35F 03/14 15:46
推 : 變gg200了36F 03/14 15:46
推 : 蒸的丸子 塊陶啊啊啊啊啊啊 陶之前別忘了空達37F 03/14 15:46
→ : 達
→ : 達
推 : 就是準不準跟費用中間,去搞個平衡點39F 03/14 15:47
→ : 硬體堆上去應更強,可是帶來的效益?40F 03/14 15:47
→ : 閹割 再 閹割41F 03/14 15:48
推 : 一鍵出清 反手作空 AI泡沫 勢在必行42F 03/14 15:49
推 : 原來只需要一個就可以了43F 03/14 15:49
→ : 要再飆 必須有更多應用普及...44F 03/14 15:49
→ : 準備砍單45F 03/14 15:50
→ : 我蒸餾你蒸餾我的蒸餾46F 03/14 15:50
推 : 中國靠更低的成本運行ai 你還在堆硬體47F 03/14 15:50
推 : 老黃乖乖回去賣顯卡吧48F 03/14 15:50
推 : 題材臭酸了 可以再端新穎的東西出來嗎49F 03/14 15:50
推 : 無需購買大量GPU晶片 就是最大利空50F 03/14 15:51
推 : NV: 你不要再說了51F 03/14 15:51
→ : 台股沒破22000都是假議題52F 03/14 15:51
→ : 所以接下來是ASIC的回合?53F 03/14 15:51
推 : 還不是要用asic gg根本沒差54F 03/14 15:52
→ : NV: 你要採購少一點 那我每顆報價高一點不就好了55F 03/14 15:52
噓 : 每個都說自己最強 到底誰最強56F 03/14 15:52
推 : (請問)(如果你)(吃一個便當)(就8分飽,)(57F 03/14 15:52
→ : 你會)(同時買)(1萬個)(便當嗎?)
→ : 你會)(同時買)(1萬個)(便當嗎?)
→ : AGI 有沒有機會早點問世啊。59F 03/14 15:52
推 : 這會是Asic 利多嗎?60F 03/14 15:52
推 : 針對輝達優化?61F 03/14 15:52
推 : 啊所以玩家的顯卡要大量生產了沒?62F 03/14 15:52
推 : 照這個道理蘋果股價應該趴在地上了~63F 03/14 15:52
推 : 效能2.5倍價格兩倍你還是得買。單價更便宜。64F 03/14 15:52
推 : 回調什麼鬼故事都有65F 03/14 15:52
→ : ASIC 問題在於你自己造車造輪子 會不會比較便宜阿XD66F 03/14 15:53
噓 : 這昨天的新聞喔67F 03/14 15:53
![[圖]](https://i.imgur.com/hkos4GYh.jpeg)
推 : 單晶片運作 一堆菜雞扯訓練要幾個幾個 到底懂不懂69F 03/14 15:54
→ : 真得笑死 一群小丑
→ : 真得笑死 一群小丑
→ : 等RobotTaxi和家用Robot問世,再跟我說進到AI時代71F 03/14 15:54
→ : 還有騰訊昨天說買了多少Nvidia gpu 怎不說呢72F 03/14 15:54
推 : ASIC沒軟體更新速度那麼快,但是NV卡今年這批出完後73F 03/14 15:55
→ : 續拉貨力道有待考驗
→ : 續拉貨力道有待考驗
推 : 大家一起來唬爛75F 03/14 15:56
推 : 1個H100是Ai那10個H100是不是就變愛因斯坦了!76F 03/14 15:56
推 : 好了啦77F 03/14 15:58
→ : 同一套劇本要用幾次 有種不要買GPU78F 03/14 15:59
→ : 不重要,能賺錢就好不可有人NV套在140以上吧79F 03/14 15:59
推 : 10個H100是AAAAAAAAAAi80F 03/14 15:59
推 : 老黃 單雕81F 03/14 16:00
推 : 算力需求低為什麼以前寫不出來AI83F 03/14 16:03
推 : AI都白菜價了 沒差啦84F 03/14 16:03
推 : AI鬼故事平均一個月會出現一個85F 03/14 16:04
推 : 完惹 操灰搭140還有救嗎86F 03/14 16:04
推 : 誰攏都可以,只要免錢我就用。87F 03/14 16:05
推 : 任何人都能去hugging face下載一個LLM來玩88F 03/14 16:06
推 : 呵呵89F 03/14 16:06
推 : 少量晶片 美GG崩90F 03/14 16:07
→ : 技術本來就會越來越進步,ai更是不是嗎91F 03/14 16:09
推 : 到周末 鬼故事特別多92F 03/14 16:09
推 : 還在講算力過剩的 不是壞就是騙了93F 03/14 16:11
噓 : 算力跟記者智商一樣 ,永遠不嫌多94F 03/14 16:11
→ : 笑死95F 03/14 16:11
→ : 不是說人工智能會以幾倍速成長
→ : 不是說人工智能會以幾倍速成長
推 : 有沒有新梗啊 整天炒作這個不無聊嗎97F 03/14 16:13
→ : 難道GG一直擴廠是腦袋有問題嗎
→ : 難道GG一直擴廠是腦袋有問題嗎
推 : AI沒到頂之前哪來的算力過剩問題 難理解99F 03/14 16:13
→ : 消費性趴在地上 GG擴廠只能是為了其他用途100F 03/14 16:14
推 : AI聊天室在解決長期記憶健忘問題前 算力都是假議題101F 03/14 16:15
推 : 股價看的是複合成長 複合成長慢了 不就完了102F 03/14 16:16
→ : 需求+100% 明年變10%
→ : 需求+100% 明年變10%
→ : QQ完啦!!overbooking!!104F 03/14 16:17
推 : 笑鼠105F 03/14 16:17
推 : (直接)(看股價,)(就知道)(答案了!)106F 03/14 16:17
推 : 輝達是買鏟子的,跟軟體啥關係啦,你只能說鏟子不用107F 03/14 16:17
→ : 買這麽多這麽好了
→ : 買這麽多這麽好了
→ : QQ塊陶啊啊啊啊啊啊啊啊啊啊啊啊啊!109F 03/14 16:17
推 : GG都說CAGR未來五年20% 這還有被消費性拖累 純ai一110F 03/14 16:17
→ : 定超過這比例 至於這夠不夠高就看人了 人家擴廠幾百
→ : 億鎂不能亂投資的
→ : 定超過這比例 至於這夠不夠高就看人了 人家擴廠幾百
→ : 億鎂不能亂投資的
推 : GG只要有人下定單 就會擴廠了 但訂單可以撤掉XDDDDD113F 03/14 16:18
→ : GG有單 不代表NV有單阿114F 03/14 16:18
→ : 越來越多巨頭 都要自制晶片了
→ : 越來越多巨頭 都要自制晶片了
→ : 在打信用卡客服還要等真人到天荒地老的時候 ai飽和116F 03/14 16:19
→ : 輝達要搞輝達宇宙117F 03/14 16:19
→ : 還非常遠 這是很基礎也相對容易做的需求118F 03/14 16:19
→ : 大家都不想被 老黃綁架了119F 03/14 16:19
→ : 1個H100=1個毛利小五郎 10個H100也不會變柯南120F 03/14 16:19
→ : 因為AI會不會變聰明的關鍵 還是在演算法
→ : 錯誤的腦迴路 不會因為迴路運轉比較快 就變正確
→ : 因為AI會不會變聰明的關鍵 還是在演算法
→ : 錯誤的腦迴路 不會因為迴路運轉比較快 就變正確
→ : 你算數學請再多人算 還是比不上一個創新的公式123F 03/14 16:21
→ : 1個h100=1個毛利小五郎124F 03/14 16:22
→ : 在同樣演算法下
→ : 在同樣演算法下
推 : 其實ds問世後,那幾間巨頭對asic是有點放緩的126F 03/14 16:22
→ : 10個H100 就是 毛利小五郎用10倍的速度思考出一樣錯127F 03/14 16:23
→ : 誤的推理
→ : 速度變快 但結果一樣錯
→ : 原本30秒可以得到錯誤的推理結果 現在3秒得到錯誤結
→ : 果
→ : 誤的推理
→ : 速度變快 但結果一樣錯
→ : 原本30秒可以得到錯誤的推理結果 現在3秒得到錯誤結
→ : 果
推 : 呵呵 運作132F 03/14 16:26
推 : 吹過頭了吧133F 03/14 16:28
噓 : 推理用4090也可以跑啊134F 03/14 16:28
→ : 看這篇一堆文組N酸在大放厥詞就覺得有趣135F 03/14 16:29
推 : 就已經說了 AI需求能不能上去 本質是AI好不好用136F 03/14 16:30
→ : AI夠不夠聰明決定了AI好不好用
→ : AI如果一直不好用 無法讓大多數人產生依賴性使用
→ : AI夠不夠聰明決定了AI好不好用
→ : AI如果一直不好用 無法讓大多數人產生依賴性使用
推 : 搞錯了吧 應該是買越多賺越多才對139F 03/14 16:30
→ : 你賣鏟子的需求能多大 XDDDD140F 03/14 16:31
→ : AI語言模型的訂閱人口 連智慧手機使用人口的0.01%都
→ : 都不到 根本沒多大市場 因為就是對多數人來講不好用
→ : AI語言模型的訂閱人口 連智慧手機使用人口的0.01%都
→ : 都不到 根本沒多大市場 因為就是對多數人來講不好用
噓 : 效能過剩都是騙你各位韭菜啦 機器人是能幫你開車打143F 03/14 16:34
→ : 手槍了沒?
→ : 手槍了沒?
→ : 今晚又要跌了嗎?跌一根大的,接起來145F 03/14 16:34
推 : 提問:多數人不訂閱AI,有沒有可能是免費的AI已經足146F 03/14 16:34
→ : 夠供其使用?
→ : 夠供其使用?
推 : 免費的都不好用 誰會願意訂閱XD148F 03/14 16:35
推 : 軟體跟硬體有啥關係149F 03/14 16:36
推 : 運行還是要一堆晶片150F 03/14 16:37
推 : 不好用的原因是準確度不夠或機密資料不方便使用於各151F 03/14 16:37
→ : 家AI?
→ : 家AI?
→ : 叫AI幫忙分析一家公司的多空消息 裡面列出一堆資訊153F 03/14 16:37
→ : 自己還要去google確認他有沒有講錯 其實難用得要死
→ : 自己還要去google確認他有沒有講錯 其實難用得要死
→ : 代表目前算力需求已滿足大部分的人了155F 03/14 16:37
→ : 聊天打屁還行 要問專業或正經的事情一點都不可靠156F 03/14 16:38
→ : 你還是得用他們家的鏟子,越多人進入AI對輝達越有利157F 03/14 16:38
→ : 好嗎
→ : 好嗎
→ : 感謝L大回答159F 03/14 16:38
→ : 你還要重複確認有沒有錯誤160F 03/14 16:38
→ : 唯一有突破的大概就是翻譯能力變很強而已
→ : 唯一有突破的大概就是翻譯能力變很強而已
→ : 拜託今天騙殺100 NV讓我撿162F 03/14 16:39
→ : yt上面的影音翻譯 快用AI就對了 還在用傳統弱智翻譯163F 03/14 16:40
→ : 這樣子可以看更多不同語言的影片 德語法語的YTber
→ : 這樣子可以看更多不同語言的影片 德語法語的YTber
噓 : 又在寫廢文165F 03/14 16:41
→ : 不會啊 如果ai有極限 到達極限只需要少量晶片 那根166F 03/14 16:41
→ : 本銷量就會大減
→ : 本銷量就會大減
→ : 噴168F 03/14 16:41
→ : 不錯,但硬體強才能吃龐大市場169F 03/14 16:42
推 : 訓練困難,但使用簡單,是比較合適的發展方向,這170F 03/14 16:43
→ : 樣願意用的廠商才會多
→ : 樣願意用的廠商才會多
推 : 研發不用買卡嗎 RD早就搶資源搶瘋了172F 03/14 16:44
噓 : 谷歌都跌倒吐奶了173F 03/14 16:45
噓 : 還不是要晶片?有種設計都不用用的啊!174F 03/14 16:47
→ : 更聰明 應用更多 客戶增加還是要多硬體來維持服務175F 03/14 16:48
推 : 笑死176F 03/14 16:53
→ : 丸子177F 03/14 16:54
→ : 笑能過剩辣就創造需求鴨178F 03/14 16:55
→ : 有一萬張嘴要餵就得買一萬個便當阿179F 03/14 16:56
→ : 你只有一張嘴要餵應該先找找自己的問題
→ : 你只有一張嘴要餵應該先找找自己的問題
→ : 是非難斷 惟有股價會反映最真實的情況181F 03/14 16:57
推 : 99 goog 已躺平182F 03/14 16:59
噓 : 這麼划算班班有晶片啦183F 03/14 16:59
→ : 笑死H100誰做的184F 03/14 16:59
→ : 等到不是用輝達的晶片再說185F 03/14 17:00
推 : 這麼有信心估狗肯定都退貨了吧嘻嘻186F 03/14 17:00
推 : 哇 公公利空187F 03/14 17:01
推 : 不用H100,我們專用ASIC演算法屌打NV,然後量太少188F 03/14 17:02
→ : 下單成本更高。
→ : 下單成本更高。
推 : 這模型的參數量不大吧190F 03/14 17:12
推 : 當然要蒸餾濃縮越來越小191F 03/14 17:20
→ : 如果是這樣,說真的科技也不用再進步了,就用黑金剛192F 03/14 17:24
推 : (廢話一堆!)(看股價,)(最直接!)193F 03/14 17:24
推 : 硬體需求降低 崩崩194F 03/14 17:29
→ : 這個再傻傻被騙出去就自愛了……195F 03/14 17:29
推 : 邏輯有問題,模型效率變高當然是用一樣的硬體追求196F 03/14 17:35
→ : 更強大的Ai, 硬體需求怎麼會變少? 目前Ai只能說勉
→ : 強堪用,離好用甚至夠用都還很遠
→ : 更強大的Ai, 硬體需求怎麼會變少? 目前Ai只能說勉
→ : 強堪用,離好用甚至夠用都還很遠
→ : 訓練用多少出來講講199F 03/14 17:48
推 : 看看那些買輝達的韭菜200F 03/14 17:52
推 : 這樣是不是可以節省大量的電力?201F 03/14 17:57
推 : 這個效能不好 qwq32b可能都比他好202F 03/14 18:00
→ kimula01 …
推 : 我怎麼看來看去是,訓練完後還要買一顆離線運作204F 03/14 18:12
→ : 濃縮再濃縮 提煉再提煉 wwwwwwwwww205F 03/14 18:18
推 : 好猛喔 看好輝達繼續往上206F 03/14 18:24
→ : 以後成熟製程就可以應付了207F 03/14 18:25
噓 : google什麼時候研發ggpu了 第一次聽說軟體打破硬體208F 03/14 18:31
→ : 商壟斷地位
→ : 商壟斷地位
推 : 問號,不用訓練嗎210F 03/14 18:32
推 : 台積 下看80211F 03/14 18:42
推 : 這世界ai的訓練還需要持續212F 03/14 18:43
→ : 但問題已經沒有新資料喂給AI
→ : 只能靠AI自行延伸運算推算
→ : 未來就看哪個AI能推算發明出改變世界格局的東西
→ : 不然在這之前運作真的不需要這麼多晶片
→ : 但問題已經沒有新資料喂給AI
→ : 只能靠AI自行延伸運算推算
→ : 未來就看哪個AI能推算發明出改變世界格局的東西
→ : 不然在這之前運作真的不需要這麼多晶片
噓 : GG比較慘吧 美積電本來毛利就會下降 然後量又降更慘217F 03/14 18:50
→ : 要確呢 我到現在還是覺得Gemini北七北七218F 03/14 18:57
推 : 不是不需要,是目前的模型都太智障了。根本沒有殺219F 03/14 19:00
→ : 手級的模型啊
→ : 我光是叫ds 或gpt 整理一週行情,都可以給我亂引用
→ : 資料
→ : 手級的模型啊
→ : 我光是叫ds 或gpt 整理一週行情,都可以給我亂引用
→ : 資料
推 : 效能過剩,那就是模型可以進步的空間還很大223F 03/14 19:14
噓 : 用輝達晶片打破輝達壟斷?這記者是不是邏輯有問題?224F 03/14 19:15
→ : 記者好好笑 還是靠輝達晶片啊225F 03/14 19:17
→ : 很多人不知道H100多少錢耶… 5萬元嗎?226F 03/14 19:20
推 : 不懂 用5090 就可以跑很順了啊 要H100跑幹嘛?227F 03/14 19:20
→ : 光是一張H100成本就超高好嗎228F 03/14 19:21
推 : 有開源嗎?229F 03/14 19:23
推 : 老黃快飛來台灣救救台灣股民230F 03/14 19:28
→ : google ai studio試了一下gemma3 27b,又慢又爛231F 03/14 19:29
→ : gemini 2.0 還比較好用
→ : gemini 2.0 還比較好用
噓 : 喔是喔 用nv晶片大敗nv晶片 文組就這邏輯 好惹啦233F 03/14 19:38
噓 : 最好世界加強234F 03/14 20:00
推 : 水喔,效能過剩,崩三年235F 03/14 20:39
噓 : 印度人又在吹了,等著看褲子被沖到哪去236F 03/14 20:47
噓 : 幹這邏輯有問題237F 03/14 21:33
推 : Google手機晶片的例子猶在,真有人信這篇嗎238F 03/14 21:57
噓 : 我先不論這篇新聞真假、也不論板友看不看好未來堆239F 03/14 22:26
→ : 硬體的效益,我只問一個基本邏輯問題:要打破一間
→ : 公司的壟斷地位,需要的是很多間公司都能做出H100
→ : 、還是我只要用更少的H100就能達到一樣的事情?
→ : 如果有科技人認真討論這篇文組白痴寫的新聞的,我
→ : 真的覺得很悲哀,很明顯作者就搞不清楚什麼叫做「
→ : 壟斷」
→ : 硬體的效益,我只問一個基本邏輯問題:要打破一間
→ : 公司的壟斷地位,需要的是很多間公司都能做出H100
→ : 、還是我只要用更少的H100就能達到一樣的事情?
→ : 如果有科技人認真討論這篇文組白痴寫的新聞的,我
→ : 真的覺得很悲哀,很明顯作者就搞不清楚什麼叫做「
→ : 壟斷」
推 : 可能要再多學一點...推理 跟 訓練 不同...246F 03/14 23:11
推 : 文組新聞247F 03/14 23:26
噓 : 除非能少到讓他產能過剩 不然還不是要用老黃 壟斷沒248F 03/14 23:37
→ : 打破阿 連定義都搞不清楚就在發稿 水準可悲
→ : 打破阿 連定義都搞不清楚就在發稿 水準可悲
噓 : 這模型真的不怎樣- -250F 03/15 01:41
推 : 傻了嗎 在開發出上帝等級全知大腦前 算力永遠不夠251F 03/15 06:49
--
※ 看板: Stock 文章推薦值: 0 目前人氣: 0 累積人氣: 107
作者 jacknavarra 的最新發文:
- 19F 7推 4噓
- 63F 20推 5噓
- 15F 9推 2噓
- 27F 6推 7噓
苗博雅以烏克蘭為例 說台灣跟中國一旦兩岸開戰之後 戰爭是職業軍人的事,一般平民百姓仍然可以維持正常生活秩序 上班上課不受影響 這種可能性高嗎??215F 54推 14噓
點此顯示更多發文記錄
→
guest
回列表(←)
分享
