作者:
H2 (超級噴火龍X)
118.161.199.201 (台灣)
2025-11-25 09:39:56 推 annboy: TPU很多代了 主要也是不想給老黃賺
TPU跟老黃的賽道差滿多的TPU只能透過雲端租用
老黃是賣實體伺服器(的晶片) 70F 11-25 10:16
→ annboy: Gemini 3.0 不知道會不會讓奧特曼急了 79F 11-25 10:19
推 annboy: QC沒那麼快 就算出來 NV跟GOOG都還是領頭羊 402F 11-25 11:40
作者:
wangrg (孤身不寂寞)
85.237.207.52 (台灣)
2025-11-19 23:51:19 → annboy: Google TPU 做好多代了 62F 11-20 09:21
作者:
parttime (隱r)
150.117.249.81 (台灣)
2025-08-11 01:39:12 推 annboy: 定期定額ETF 只要不打仗就穩賺 294F 08-11 09:48
→ annboy: 特斯拉車機晶片比較大 不需要最先進的製程
最先進的基本上是手機晶片跟CPU 109F 08-07 17:19
作者:
cheerf (蝦米)
112.104.168.137 (台灣)
2025-07-31 23:50:07 推 annboy: 你不了解台灣老闆 沒人要雜大錢養人蓋資料中心
他們心裡知道玩不贏老美
台灣現況就是等Meta出新模型 fine-tune一下
領政府計劃錢 279F 08-01 07:19
作者:
icrose (人本良心)
171.14.60.249 (中國)
2025-02-19 23:17:29 推 annboy: 拜託 老馬是要跟OpenAI 拼SOTA跟AGI
蒸餾是另一個賽事 不要混為一談 83F 02-20 13:43
作者:
YAYA6655 (YAYA)
111.82.232.93 (台灣)
2025-01-28 13:22:05 → annboy: 很多研究有相關結論了 LLM就是大力出奇蹟
不是說小的不可能 而是太小的不可能
現在的商用模型可能都在7B附近
要比這個數字小10倍可能真的就做不到 79F 01-28 14:29
作者:
rayisgreat (在過往中無盡徘徊)
175.182.185.173 (台灣)
2025-01-28 14:02:31 推 annboy: OpenAI 將要釋出的o3還是領跑啊 不急.jpg 56F 01-28 14:15
推 annboy: 這波我看Deepseek 的貢獻是訓練的方法好
RL、MOE、distillation的方法都蠻印象深刻的
但因為是開源 這些方法老美下一波就抄過去了
論硬體資源現在OpenAI Google Meta 還是多太多了 86F 01-28 14:20
… 共有 18 則推文,點此顯示
作者:
newbrain (普丁下地獄救眾生)
122.116.228.113 (台灣)
2024-06-27 01:37:18 → annboy: 這個只能inference 也是普普 training還是最大需求 155F 06-27 13:14
作者:
qazsedcft (離開是)
210.242.37.226 (台灣)
2024-03-22 15:45:07 推 annboy: 想太多 等到中國出一個NVIDIA我們再來談 63F 03-22 16:08