回上層
Disp BBS
看板
Stock
作者
su35
(謠指部-指揮官)
標題
Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
時間
Tue Jan 28 20:07:21 2025
※ 引述《huabandd (我是阿肥巴你頭)》之銘言:
: 沒什麼好恐慌的
: 中國算法優秀,還是需要有硬體來使用
: 除非可以做到不需要專用晶片依然能有成效
: 到時候再來跑也來得及
: 該恐慌的是那些投入大量資源搞AI軟體的公司
: 不過話說回來,禁令似乎也沒什麼意義了
: 反正中國有的是辦法搞到這些晶片
需要算力沒錯
只是根本不需要這麼多
原本預估要10000台才能學完
但我發現只需要將資料先預處理
挑出重點再去學習
發現只需要500台就能學完了
所以結論就是我的確需要更快的GPU跟內存容量
但我不需要買那麼多了
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.233.228.11 (臺灣)
※ 作者:
su35
2025-01-28 20:07:21
※ 文章代碼(AID): #1dcCX-br (Stock)
※ 文章網址:
https://www.ptt.cc/bbs/Stock/M.1738066046.A.975.html
※ 同主題文章:
[新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 06:29
cherish772.
Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 08:56
fashsboy.
Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 13:22
YAYA6655.
Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 16:08
michiangchen.
Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未
01-28 20:07
su35.
推
tomaschang
: 所以會有更多公司加入AI行列
1F 01/28 20:09
推
idletime
: 好還要更好 對那些想走前面的公司,還是會想買
2F 01/28 20:09
推
SRNOB
: 會嗎?
3F 01/28 20:10
→
vicklin
: 先定義"學完"
4F 01/28 20:10
推
poisonB
: 原本是3巨頭*1000台 現在是人人有功練100家*50台
5F 01/28 20:10
我猜是10000家*50 接著變成50*10
→
wxyz7819
: 現在又不是終點 如果有新的應用出來 更多人用 還是
要有算力
6F 01/28 20:11
推
YandereLove
: AI不只LLM,可以拿去算其他項目
8F 01/28 20:11
→
NovaShin
: 確實 現在就反應 寫寫文章 到底要什麼算力
人家小米家庭已經飽和了,apple生態圈就那點東西
9F 01/28 20:11
※ 編輯: su35 (36.233.228.11 臺灣), 01/28/2025 20:20:11
→
NovaShin
: 深度跟廣度 自己選一個 不要跟applevision一樣
11F 01/28 20:12
推
patrol
: 學完了歸學完了,要面對數億人還是需要大量鏟子,不
然就是當機還裝成被駭客攻擊
12F 01/28 20:12
→
NovaShin
: 弄一個好棒棒的結果沒人要買
14F 01/28 20:12
推
pt993526
: AI軍備競賽開打 算力這種硬實力越高越好吧
15F 01/28 20:13
→
ab4daa
: 穩
16F 01/28 20:13
推
wind93
: 搞不好是特定題目算的很厲害而已
17F 01/28 20:13
推
jaricho
: iPhone停在16就夠用了 s25當最後一代差不多了 製程
不用推什麼2nm 也許14nm就夠了
18F 01/28 20:14
→
johnney
: 拿DS預處理資料然後餵給其他AI練功 選我正解!
20F 01/28 20:15
推
poisonB
: 用什麼iPhone 照某些人的說法 用小米就好了
21F 01/28 20:16
推
loveadu
: 根本不需要每個人都有100台,怎麼還停留在硬體,ai
全新算法
22F 01/28 20:16
推
hbkhhhdx2006
: 這邏輯就好像說任何晶片根本沒必要繼續研發
24F 01/28 20:16
→
sdbb
: 台肯,大家應該用14400 bps modem上網就好
25F 01/28 20:16
推
redbeanbread
: 再多的小公司都買不到原本七巨頭要買的
26F 01/28 20:16
推
dongdong0405
: 看了傑文斯悖論後…大膽抄底
27F 01/28 20:16
→
sdbb
: 14400 bps可能還太快?
28F 01/28 20:16
→
loveadu
: 你用微積分難道是100計算機算出來的?什麼叫算法跟
算力
別人是空間到空間,你還在光速要多久
29F 01/28 20:17
噓
madeinheaven
: 你說的是訓練 還有推理晶片這東西好嗎 = =
32F 01/28 20:20
推
qwert123456
: 誰知道後續AI會用多少?大家也只是囤貨而已
33F 01/28 20:20
→
madeinheaven
: 後面你還是要買推理晶片
34F 01/28 20:20
推
poisonB
: 用99乘法表能解的題目跟實際運算還是有差別
35F 01/28 20:20
→
waterjade
: 學完怎麼定義? AI這麼快就到盡頭了嗎?
而且廣範圍運用的話也要很多伺服器或工作站啊
36F 01/28 20:21
→
loveadu
: 推理晶片對的,所以我買世芯沒有買NV
38F 01/28 20:21
噓
yangte
: 你是不是沒搞懂AI
39F 01/28 20:22
推
spa41260
: 算力還是需要,只是大家會思考有沒有必要溢價去追
求算力,尤其是現在買進最新的硬體,不到兩年可能
打骨折都沒人要
40F 01/28 20:26
推
breathair
: 除了學,你還要有提供服務的算力支援
不然就是像DS當機
43F 01/28 20:26
→
brella
…
→
brella
: 很壯喔
45F 01/28 20:27
推
qxpbyd
: 跟我念三次 AGI AGI AGI
46F 01/28 20:28
噓
a22530722
: 學完什麼?你的大一微積分嗎???????????????????????
47F 01/28 20:28
→
IBIZA
: 念AGI要幹嘛
48F 01/28 20:30
推
loveadu
: AI這種東西快一步只會快更多,美國算法落後,再多
計算機也無用
49F 01/28 20:30
噓
bitcch
: 老黃每年都在提升硬體性能大家GPT有越買越少嗎
51F 01/28 20:31
→
IBIZA
: 美國算法不會落後 這種東西就是一家找出方法
其他家很快就會跟上
52F 01/28 20:31
→
bitcch
: *GPU
54F 01/28 20:32
推
FFFAAA
: 實際兩者使用就知道差別,一個像似前5篇文章統合結
果,另一個前100篇文章分析統合,如果前5篇文章就是
重點,那後者分析確實浪費資源與時間,資料庫與資訊
來源變成節省算力的主因。
55F 01/28 20:33
推
peter0625
: 同意 市場為什麼會恐慌 不就是這個原因原先輝逹估價
價 就是依據市場需要那麼多GPU去估的 現在看起來
就是可以不需要那麼多 除非有什麼其他依據跌不會停
59F 01/28 20:33
噓
q2825842
: 現在根本沒法預估5-10年後ai需要多大的硬體規模。
巨頭之前給出的天文數字其實也是主觀判斷
62F 01/28 20:34
→
IBIZA
: DeepSeek並不是靠什麼統合文章節省算力 不要胡說
64F 01/28 20:35
→
q2825842
: 要能估算個大概,至少要等商業模式和應用層的探索
都進行得差不多
65F 01/28 20:35
推
supereva
: 什麼叫「學完」 我期待的完全自動駕駛和ai機器人
幫我煮菜洗衣服都還沒看到耶
67F 01/28 20:35
推
yiersan
: 中國放開源 注定無法賺錢 中國繼續捲死自己
69F 01/28 20:35
→
supereva
: 你以為的學完的ai是什麼樣子?
70F 01/28 20:36
→
IBIZA
: DeepSeek是用了有別於OpenAI開創出來的訓練方式
71F 01/28 20:36
→
yiersan
: 把結果給7巨白嫖 簡直佛
72F 01/28 20:36
→
supereva
: 我能不能用ai描述一個世界 就用vision pro讓我在
裡面探索呢 現在還差得遠吧
73F 01/28 20:36
→
visadanny
: 這個結論是ai已經是成熟的產品 已經沒辦法有太大進
步 問題是ai剛起步欸
75F 01/28 20:37
→
loveadu
: 老闆如果可以只請一個馬斯克,會請100個留美的嗎?
77F 01/28 20:38
→
IBIZA
: OpenAI的訓練分成四個階段
預先訓練 監督微調 獎勵建模 強化學習
78F 01/28 20:38
→
loveadu
: 幾百個臭皮匠敵不過一個諸葛亮,差別就在於腦袋(
算法)
80F 01/28 20:38
→
IBIZA
: 預先訓練就是給AI大量文本 讓他學習語言跟知識
82F 01/28 20:39
→
loveadu
: 公司還是需要臭皮匠阿,廢話,但不需要這麼多了
83F 01/28 20:39
→
IBIZA
: 監督微調 就是用人工貼標籤的方式 去糾正預先訓練中
AI產生的認知
84F 01/28 20:39
推
qaz630210
: 昨天看到一種說法說開源也是無奈之舉,不開源沒人信
86F 01/28 20:39
推
yiersan
: DS離AGI還扯不上邊 除非小女孩能低成本用演算法搞
出AGI 那才是真的了不起
87F 01/28 20:40
→
qaz630210
: 只好開源讓大家抄來證明實力
89F 01/28 20:40
→
IBIZA
: 獎勵建模 就是 建立一個獎勵模型 當AI做出正確推理
機制獎勵他
90F 01/28 20:40
→
visadanny
: 開源只是他也有用別人開源的東西……少講得好像很
委屈
92F 01/28 20:41
→
IBIZA
: 強化學習就是讓AI模型自己跟自己練習
94F 01/28 20:41
推
abiggun
: 距離AI無所不在 還有很長的距離
95F 01/28 20:41
→
IBIZA
: 這個是OpenAI建立的訓練方法 OpenAI出台之後 各家
96F 01/28 20:41
→
liangnet
: 硬體需求變低,相對就能讓原本負擔不起的公司變成
負擔的起,簡單的說,就是更好銷售硬體了,不再只
有那幾家客戶才會買
97F 01/28 20:41
推
supereva
: 如果你覺得ai現在已經很成熟沒什麼新把戲 那算力
才會嫌多吧
100F 01/28 20:41
→
IBIZA
: LLM基本上都照做
102F 01/28 20:41
推
SuGK
: 原本以為要大撒幣才能玩AI 現在發現好像小資族也可
以了
103F 01/28 20:42
→
supereva
: 像汽車 或是手機這樣
105F 01/28 20:42
→
IBIZA
: DeepSeek是把四個步驟的監督微調拿掉 不人為介入
告訴AI怎樣才是對的 而是用強化學習讓AI自己跟自己
練習 自己找出怎樣是對的
106F 01/28 20:42
推
yiersan
: NV的digits迷你超級電腦會大賣吧 三千美元而已 中
國也會想辦法走私
109F 01/28 20:43
→
IBIZA
: 這個基本上就是AlphaGo跟AlphaZero的差別
111F 01/28 20:43
→
q2825842
: 開源又不只它一家,meta也推出過開源模型,怎麼就
這次藉口特別多,還有外行的在吹開源代表它領先競
爭對手好幾代
112F 01/28 20:43
→
Samurai
: 現在的AI你覺得已經是終點了???
115F 01/28 20:43
→
SuGK
: 現在就看小資族AI夠不夠用 但沒人知道什麼叫夠用
116F 01/28 20:43
→
IBIZA
: AlphaGo是用大量人類棋手的棋譜訓練的
117F 01/28 20:43
推
lusifa2007
: 學完?AI的極限已經到了哦?短短兩年
118F 01/28 20:43
→
IBIZA
: 他的棋路就是會照人類棋手的思路
AlphaGo是自己跟自己練習出來的 所以會走出人類覺得
不合理的棋
119F 01/28 20:44
→
loveadu
: 馬斯克有說AI已經學完人類的資料,現在都是自己生
成自己學習
122F 01/28 20:44
→
IBIZA
: 但結果是AlphaGO棋力更強
打錯 但結果是AlphaZero棋力更強
DeepSeek的訓練方式也是一樣 電腦自己跟自己練習
不人為介入告訴電腦對錯
124F 01/28 20:44
推
supereva
: 學完人類的資料只是記住而已 那他自動駕駛怎麼還
沒完成
128F 01/28 20:45
→
zxm00038
: 我認為,我以為,我…,好了啦
130F 01/28 20:46
→
IBIZA
: 結果照論文裡頭描述的 一開始DeepSeek的推理能力
131F 01/28 20:46
推
klwei
: 你以為會跟你聊天就學完了嗎?
132F 01/28 20:46
→
supereva
: 有這deepseek我覺得還會加速哩
133F 01/28 20:46
→
IBIZA
: 發展很慢 結果有一天就開竅了 論文稱為aha moment
中國那邊翻譯做頓悟時刻
134F 01/28 20:46
→
bnn
: 問題其實就是那個aha moment是不是人動了手腳
136F 01/28 20:47
推
newstyle
: 如果沒有給AI道德觀,繼續發展下去蠻可怕的
137F 01/28 20:47
推
strlen
: 讓AI自己訓練自己 我自己猜 OpenAI早就已經在做了
138F 01/28 20:47
→
IBIZA
: DeepSeek就是不人為介入啊
139F 01/28 20:47
→
bnn
: 又或者你其他問題上誰知道花多少算力時間才aha
140F 01/28 20:48
→
IBIZA
: 要介入就是OpenAI的訓練了
花了多少算力時間V3是有公布的
用2美元一小時算 就是580萬美元
141F 01/28 20:48
→
strlen
: 去年聖誕節時期釋出o3 工程師就再興奮要AI自己產程
144F 01/28 20:48
推
supereva
: 這個概念特斯拉幾年前的ai day也有講過
145F 01/28 20:48
→
bnn
: 然後他aha出來的搞不好很突破人類下限 就(ry
146F 01/28 20:49
→
strlen
: 式自己改進 他這樣講是已經在做了 奧特曼聽到嚇尿
147F 01/28 20:49
→
supereva
: 只是比誰做得更好
148F 01/28 20:49
→
strlen
: 怎摸把作法不小心公開 母湯喔 又要被學走了 XD
149F 01/28 20:49
推
agpc
: 沒有最好,只有更好;科技產業就是如此。
150F 01/28 20:50
→
supereva
: 自動駕駛也需要ai自己生成場景去訓練 不然靠人類
的駕駛很多極端狀況的數據根本不夠
也不是科技業都這樣 像手機車子就沒啥新把戲 ai
可是起步中的起步
151F 01/28 20:50
→
bnn
: 然後他就aha出水溝蓋可以跑(ry
155F 01/28 20:51
推
basslife
: 很多問題 包含那個aha 反正他號稱是開源 自然會有
人去嘗試然後公布 讓子彈飛
156F 01/28 20:51
→
ccc52168
: 除非DS的成果是大家認為的AI極限,不然還是要靠算力
往前推進
158F 01/28 20:51
→
IBIZA
: 不是580萬 是557.6萬
160F 01/28 20:51
→
supereva
: 今天你要拼命想才有一個很雞肋的新點子 那ai才是
成熟了 像什麼小米汽車可以跳過坑洞那種
161F 01/28 20:52
→
strlen
: 要說DS對整體降本增效有功絕對同意 但極限 遠遠不及
163F 01/28 20:52
→
IBIZA
: 這篇其實講錯 不是甚麼學完
164F 01/28 20:53
→
strlen
: 我測太多東西了 真的不行 差得遠了 o1都不太滿意了
165F 01/28 20:53
→
IBIZA
: 而是如果各家開始學習DeepSeek的方法 各家AI的效率
166F 01/28 20:53
→
strlen
: 我講白一點 覺得r1夠用的人 其實只要用臉書的拉馬
167F 01/28 20:54
→
IBIZA
: 都提升 那目前佈的算力是不是已經超過短期的商業需
168F 01/28 20:54
→
strlen
: 也夠用了 根本一毛錢都不用花 超輕度用戶
169F 01/28 20:54
→
IBIZA
: 求
170F 01/28 20:54
→
z23061542
: DS就小模型== 到時你要接起來還是要大量算力
171F 01/28 20:54
→
IBIZA
: 事實上大部分的算力並不是用來開發AI模型
172F 01/28 20:54
→
strlen
: 提升要看程度 先讓國中數學解得出來再談
173F 01/28 20:54
→
IBIZA
: 是模型建立之後 把模型佈在平台上 提供商業應用cal
l的
174F 01/28 20:55
→
strlen
: 大多數算力就是拿來推論的 但推論便宜了就有更多算
176F 01/28 20:55
→
IBIZA
: 昨天就說過 以Meta來講 訓練的成本不過30億
但平台的資本支出是650億
177F 01/28 20:55
→
strlen
: 力來研發 可以越快訓練出可以解決國中數學的AI
179F 01/28 20:55
→
IBIZA
: 絕大部分的資本支出 其實是提供商業應用 而不是訓練
核心
180F 01/28 20:56
→
strlen
: 那些爛AI拿來商用 難怪沒人要用
182F 01/28 20:56
→
IBIZA
: 算力效率變好 那應用需求能不能跟上?
原本預計每年投入多少資本支出 商業應用還是供不應
求 但現在效率變好 會不會幾年內算力過剩?
183F 01/28 20:57
→
strlen
: 不能 因為AI就是蠢 不好用 便宜也沒用
186F 01/28 20:58
→
bnn
: 大部分其實不是訓練 是應用端場景一直加進來改
187F 01/28 20:58
→
IBIZA
: 這才是問題 不是甚麼10000片能學完 現在只要200片
AI蠢不蠢 目前都已經開始有應用了
188F 01/28 20:58
→
strlen
: 企業要的是能滿足需求 再來談價錢 現在連需求都沒有
滿足 爛
有 但根本沒辦法普及 因為太蠢了
190F 01/28 20:58
→
IBIZA
: DS並沒有帶來質的提升
193F 01/28 20:59
→
strlen
: 現在就連o1的質也遠遠不及商務需求
194F 01/28 21:00
→
IBIZA
: LLM也不一定是通往AGI的正確道路
也許有一天會發現走錯了 目前佈的都是錯的
195F 01/28 21:01
→
strlen
: 如果好用 AI商用早就普及了 現在各行各業才在用....
*誰
197F 01/28 21:01
推
slothman
: 我開100匹馬力的車也可以為啥需要200匹馬力的 你以
為需求是有終點的喔
199F 01/28 21:02
→
strlen
: 就連麥當勞當年套個AI點餐機就被罵爆
201F 01/28 21:02
推
DellSale999
: 你可以說人不懂AI 但你也不懂老闆要的AI
202F 01/28 21:02
→
strlen
: o1我看連麥當勞點餐都沒辦法 蠢得要命 還早得很
要是有用 夠用 麥當勞早就去談了 店員全裁光
203F 01/28 21:02
→
ai2311
: 算力永遠不夠
205F 01/28 21:03
→
IBIZA
: 現在AI的需求沒看到終點 事實上連終點都還不知道在
206F 01/28 21:03
→
poru
: 巨頭囤貨就是在壟斷資源及價高後進者門檻.結果
207F 01/28 21:03
→
strlen
: 問題就現在AI太蠢了 超廢 連點餐都處理不了
208F 01/28 21:03
→
IBIZA
: 哪 但 真正的問題應該是 這幾年的需求是不是飽和了
209F 01/28 21:03
→
sheep2009
: 學完不用?
210F 01/28 21:03
→
IBIZA
: 畢竟現在AI能做的有限
211F 01/28 21:03
推
TSMCfabXX
: 所以我說那個醬汁呢 (X)
所以我說那個應用呢 (O)
212F 01/28 21:03
→
ai2311
: 太多東西 材料 蛋白 病毒 基本上算不完
214F 01/28 21:03
→
vdrenike
: 誰agi先出來就能吃下市場
215F 01/28 21:04
→
IBIZA
: 這個就像2000年的時候
216F 01/28 21:04
推
hbkhhhdx2006
: 需求飽和還是要繼續研發啊
217F 01/28 21:04
→
strlen
: 不是需求飽和 是你的產品根本沒達到需求
218F 01/28 21:04
→
IBIZA
: 那時候你能用網路做的事情不多
是網路沒用嗎? 不是 是應用沒開發出來
219F 01/28 21:04
→
iphone9C
: 你要先有別人幫你整理才能分類
221F 01/28 21:04
→
IBIZA
: 2000年那之後的兩三年的泡沫 不是因為網路沒用
222F 01/28 21:04
推
sdbb
: 2000年網路應用沒開發出來,部分原因是不夠快
223F 01/28 21:05
→
IBIZA
: 而是當時的應用不夠 所以當時的網路需求上不來
224F 01/28 21:05
→
hbkhhhdx2006
: 等到應用出來才去搞算力就不知道落後多少了
225F 01/28 21:05
→
IBIZA
: 不是 當時就真的沒甚麼應用
226F 01/28 21:05
→
takase
: 我想到個老笑話: PC只需要640kb的記憶體
227F 01/28 21:05
→
sdbb
: 2000年的網路,能想像視訊通話、Netflix嗎?
228F 01/28 21:05
→
IBIZA
: 那時候就是e-mail 簡單的靜態web
229F 01/28 21:06
→
bnn
: 嗯 那時候網路一部分是不夠快沒法讓影音起來
230F 01/28 21:06
→
fedona
…
噓
fedona
: 你知道agi需要的算力嗎
231F 01/28 21:06
噓
GHowPan
: 學完是什?
232F 01/28 21:06
推
Mosskappa
:
https://i.imgur.com/2CwbrC2.jpeg
perplexity C
EO
233F 01/28 21:06
→
IBIZA
: 講AGI都講太遠
235F 01/28 21:06
噓
haopig
: 講得很好,以後不要再講了
236F 01/28 21:06
→
IBIZA
: 現在LLM的方向是不是對的都不知道 就在講AGI
237F 01/28 21:06
→
bnn
: 影音的應用是不知道嗎 不是 是用起來卡死不好應用
238F 01/28 21:06
→
IBIZA
: 2000年那時候是真的很多技術都還沒有
239F 01/28 21:07
→
fedona
…
噓
fedona
: 用常識屁股想也知道 agi 需要的算力
240F 01/28 21:07
→
IBIZA
: 沒有點對點的話 其實影音應用 到現在還是起不來
串流
你手機頻寬可能100M吧
你能接受下載一部片再看嗎
241F 01/28 21:07
→
bnn
: 但很明顯現在的頻寬也可以暴力支撐老技術(ry
當年下載色圖或mp3等多久都有人應用(X
245F 01/28 21:08
→
IBIZA
: 雖然不會太久 可能10幾分鐘
當然 也是有人願意等 但等的人就少
247F 01/28 21:09
→
bnn
: 總之力大磚飛不見得不行 但DS幫他加速了進程
249F 01/28 21:10
→
IBIZA
: 不然固網其實很早就100M了啊
250F 01/28 21:10
推
ahlolha
: 成本降才能普及 頂尖的繼續去追求超高算力 一般人
用不到那麼多算力 總不可能要一般人都去吃頂尖等級
的成本 智慧型手機也是靠中低階大量普及
251F 01/28 21:11
推
huabandd
: 你看小了,演算法是可以進步的,才開始而已,並不
像人腦受智力上限限制
254F 01/28 21:11
→
IBIZA
: 其實不見得有甚麼進程
256F 01/28 21:11
推
Mosskappa
: 下一步是AI AGENT
257F 01/28 21:11
→
IBIZA
: 現在是要達到70B 也就是有意義的訓練量要很久
要花很多GPU時間
DeepSeek是大量減少需要的時間
258F 01/28 21:11
推
SAMMY728
: 有了技術,成本又能普及,資本市場自然會找到使用他
的方式。
261F 01/28 21:12
→
IBIZA
: 但並沒有優化
達到一定的訓練量 能力成長就有限
你灌幾倍的算力下去 也不會有甚麼進步
263F 01/28 21:12
→
bnn
: 所以說只有加速 LLM是不是朝向AGI也還不知道啊
266F 01/28 21:13
→
IBIZA
: 要真的有進步 可能還要找到其他方法
267F 01/28 21:13
→
bnn
: 能力成長有限 但並聯其實能增加覆蓋問題範疇就夠了
268F 01/28 21:13
→
IBIZA
: 也許根本不是LLM
269F 01/28 21:13
→
bnn
: 大概比喻就是你雇用一百個小學畢業工人跟雇用一千個
他就是沒法提供研究所智力 但可能可以做到便宜事了
270F 01/28 21:14
→
IBIZA
: 是 現在的問題就是 市場有沒有需要這麼多勞動力
以前勞動力供不應求 但現在一個工人可以做10倍的
事情 會不會工人過剩
272F 01/28 21:16
推
herrowui
: 一堆東西沒學,當然砍半訓練
275F 01/28 21:16
→
IBIZA
: 一堆東西沒學(X) 現在的LLM模型能力就這樣(O)
並不是算力丟下去 LLM就會飛天遁地
現在LLM的智力就是4歲 你強迫他念研究所的書也沒用
276F 01/28 21:17
→
strlen
: 網路泡沫要到一堆空殼公司連產品都沒有就拿到資金
279F 01/28 21:18
→
IBIZA
: 4歲小孩多看一點書會聰明一點 但總是有上限
280F 01/28 21:18
→
strlen
: 然後股市裡一堆中小AI群魔亂舞
281F 01/28 21:18
→
bnn
: 總之看記憶能力還能怎麼發展
282F 01/28 21:18
→
LouisWOLF
: 成本計算的真實性是個謎,但投資肯定是先閃為妙
283F 01/28 21:18
→
strlen
: 這兩年股票根本只漲七巨頭 中小死在地上
284F 01/28 21:18
推
zerro7
: 重點是"學完了"嗎
285F 01/28 21:19
→
bnn
: 但感覺需要的不是HBM 而是CPO到硬碟怎麼辦(ry
286F 01/28 21:19
→
strlen
: 除七巨頭哪家AI公司股價飛天的?還不就那些有業績的
287F 01/28 21:19
→
IBIZA
: 看你學完怎麼定義 如果以4歲智商能念的書
應該是差不多唸完了
蠻多AI公司飛天的啊
288F 01/28 21:19
噓
PureAnSimple
: 什麼算力不用那麼多 ?你知道自己在說殺小嗎?拼命
獻曝耶
291F 01/28 21:20
→
zerro7
: 沒看到阿斯拉或賈維斯出來前一律當作沒念完(O)
293F 01/28 21:20
→
strlen
: 哪一間空殼沒產品的股票噴飛天?
294F 01/28 21:20
→
G8AJ
: 結論:all in tsmc
295F 01/28 21:20
→
IBIZA
: 像各種機器人公司 從低點算漲三四倍不算多
要看你定義的飛天是怎樣算
296F 01/28 21:20
推
Mosskappa
: 特斯拉跌到200那時候更慘,一堆人說賣車的估值這麼
高不合理
298F 01/28 21:21
推
walelile
: DS節省的訓練的算力,沒有提到推論節省多少算力吧?
300F 01/28 21:21
→
IBIZA
: RBOT也是還沒產品 但從低點噴四倍多
當然 我是期待他產品真的有用 可以噴100倍啦
301F 01/28 21:21
→
strlen
: 2000年納指四年漲五倍 現在兩年連一倍也沒有......
303F 01/28 21:22
→
IBIZA
: 其實很多喔
304F 01/28 21:22
→
strlen
: 這種公司數量遠遠不及2000年.....
305F 01/28 21:22
→
IBIZA
: 位階差那麼多哪能這樣算
306F 01/28 21:22
噓
MoonCode
: 看衰的人 那你們要買什麼 還是要做空呢?
307F 01/28 21:22
→
heinzblack
: 10000人的工作500人就能做完?太棒了
以後給他們20倍的工作量!
308F 01/28 21:23
→
strlen
: 位階跟這又沒關係 2000年可是沒有QE耶
310F 01/28 21:23
推
tonyparker18
: 連2000年網路泡沫化都出來了 也太離譜
311F 01/28 21:24
→
IBIZA
: 我打開我的AI&Robot自選組合
312F 01/28 21:24
→
strlen
: 股市在高位沒錯 但泡沫 還早 那時可是一片樂觀
313F 01/28 21:24
→
IBIZA
: 我看大概有一半是沒產品 或是產品幾乎沒營收的
314F 01/28 21:24
→
strlen
: 老黃躺在這半年了 樂觀在哪?質疑聲從沒少過
315F 01/28 21:24
→
fywei
: 實在可悲 不為難空空的思想了
316F 01/28 21:25
→
IBIZA
: QE是在AI爆發前 AI爆發之後一質都是QT
317F 01/28 21:25
→
strlen
: 看到板上 哪次老黃大跌不是半信半疑 這樣哪來樂觀
318F 01/28 21:25
推
RaiGend0519
: 合理的推論
319F 01/28 21:25
推
Mosskappa
: 機器人也要考慮中國的競爭呀,他們的機器狼是世界
頂尖
320F 01/28 21:25
→
IBIZA
: 從ChatGPT引發AI爆炸成長到現在 都是高利率+Qt
322F 01/28 21:26
→
strlen
: 話說八月那次也是拿泡沫出來講 結果勒
323F 01/28 21:26
推
RaiGend0519
: 再來就散戶公司進場,紅海化的速度越快需求越高鏟
324F 01/28 21:27
推
tonyparker18
: 8月那次喊台積電300-500的人呢
325F 01/28 21:27
→
RaiGend0519
: 子才賣得動
326F 01/28 21:27
→
strlen
: 重點還很剛好 每次都在財報前 還真的沒一次miss
我記得23年底財報前也是狂殺20% 網路泡沫論也是滿天
327F 01/28 21:27
噓
akimu
: 一個80分 一個60分 誰會願意花時間在60分那邊
329F 01/28 21:28
推
tonyparker18
: 4月盤中跌一千點喊一次 8月台指期跌停再喊一次 總
有一天喊對AI泡沫
330F 01/28 21:28
→
pippen2002
: 總市值75.53兆 隨便就跌去1/4 台股!?神!!
332F 01/28 21:29
→
strlen
: 絕對有泡沫爆掉的一天 但到時板上絕不會有任何看空
直到那時 就真的完了 哈哈哈
333F 01/28 21:29
推
tonyparker18
: 絕對是當大家瘋狂買進的時候才會泡沫 現在是一片看
空
335F 01/28 21:30
→
bnn
: Cisco在網路泡沫爆掉的時候也沒比軟體股慘
基建的基礎就是鏟子賣出去了就回收了
337F 01/28 21:30
→
JOHN117
: 學完XDD
339F 01/28 21:33
噓
GivemeApen
: 覺得考95夠了就等著被靠120幹死 不懂救繼續當快樂寶
貝吧
340F 01/28 21:34
推
RaiGend0519
: 但是Cosco 2000年用一年時間從80元崩到20元左右
*Cisco
342F 01/28 21:34
→
strlen
: 95太抬舉它們了 現在連60分及格都沒有 實用性的話
GPT3就是個概念 新奇 但垃圾 GPT4改進一點 但沒用
一直到了o1現在 才非常勉強可以用在特定工作上
GPT4之前胡說八道問題太嚴重 現在越來越少
我記得幾個月前 也一堆人擔心 AI胡說八道問題沒法解
那一定會泡沫勒 現在呢........
344F 01/28 21:35
推
gray2000
: 那原本的1萬台不就可以算更多東西?
350F 01/28 21:37
→
bnn
: NV先腰斬一次回80吧
351F 01/28 21:37
噓
xluds24805
: AI 又不是已經走到極限了,哪來學完
你大學學完,腦袋就能丟掉了嗎
352F 01/28 21:37
推
walelile
: 從openrouter這個網站來看,DS v3 latency 6秒
354F 01/28 21:46
噓
ben1013
: 你覺得現的功能可以嗎?
355F 01/28 21:46
→
walelile
: 4o latency 0.6秒,這也是成本差距吧
356F 01/28 21:47
→
borriss
: GPT3都幾年了 這幾天去踹去吹的 也有說就GPT3.5
357F 01/28 21:54
噓
c8111136
: 你不要買啊,你就看別人賺爛就是這樣而已
358F 01/28 21:58
→
cablate
: 然後大家都從500台開始,一路捲到1萬台,你覺得誰
的比較強?
359F 01/28 22:16
推
PoloHuang
: 使用的人越多越需要買
361F 01/28 22:20
→
dostey
…
→
dostey
: 垃圾中國deepseek是面板套用人家gtp當輸出
362F 01/28 22:20
→
dostey
: 拿人家的結果當成自己的輸出 真他媽白標
噓
BlueBird5566
: 看到學完就覺得好好笑 拿OPEN AI來當目標的話 那當
然有學完的一天 但事實上OPEN AI還有一堆缺陷
智慧這種東西怎麼可能有學完的一天
364F 01/28 22:51
→
jympin
: 講的好像ds已經是最終答案了
367F 01/28 22:52
推
skery3188
: 猜AI練題完存答案 不用再run一遍
368F 01/28 23:01
→
s0920151048
: 確定?更多中小企業可以玩自己的i’ll了 算力需求
是下降?
llm
369F 01/28 23:16
→
ChungLi5566
: 不是喔 資料量只會一直變大
就像以前以為電腦進步會越來越小台省電
372F 01/28 23:24
推
andysun221
: 看起來就是輝達晶片要賣爛了......人人有you
gpu
374F 01/28 23:37
→
holien
: 除非你覺得現在的AI已經完美不需再進化了,否則硬
體需求永遠無法滿足人類的慾望
376F 01/28 23:52
噓
LiamTiger
: 那你繼續用十年前的顯卡CPU玩遊戲啊
378F 01/29 00:00
推
HenryLin123
: 為啥18124突然怎麼懂AI啊?
379F 01/29 00:43
推
bring777
: 直接買10年前的硬體,不是更省成本,為啥買今年的產
品?
10年前的製程成熟到爆炸,為啥買今年新上市的?
380F 01/29 00:49
噓
cityhunter04
: 500台不用錢嗎?你以為是一台嗎…
383F 01/29 01:15
推
ElrosHsun
: 更多小公司少量卡都能做 噴
384F 01/29 01:39
噓
q91126
: 光看到學完就知道沒參考價值
385F 01/29 01:42
--
→
CtFrank
台灣 01-29 06:36
資料篩檢??
那也是需要成本的吧....