作者 lordmi (星宿喵)標題 [閒聊] Gemma4當作LLLM作AIAgent的測試時間 Tue Apr 7 16:50:24 2026
轉載,但這人的測試結果有意思
https://reurl.cc/qpLxjn
他的命題是"開源小模型,到底能不能真正自主工作?當 OpenClaw 的 LLM 夠嗎?"
這v4結果當小幫手我覺得沒問題,但他的實驗結果讓我覺得還是太難落實到一人公司
或者創業團隊
用了一台128G共通記憶體的機器跑,卻只能跑NVFP4量化的版本才能搾出50Tok/s的
推理速度?看他活躍參數4B=就是只有一個專家在活躍,那不是應該多測幾個嗎?
拋開實驗失誤,gemma4的表定需求似乎也不樂觀
https://myppt.cc/WdiZD
代表還是要128GB起跳才能跑便宜推理,那gemma4對目前上限只有64GB的mac mini就
得等了。超過10萬的Ai agent主機很難變成基礎共識
不過還是比千問好一點吧,Qwen 3.5 35B沒事會吐出簡體中文,不能放心給agent自己
做事那還叫什麼自動化
--
弟子「先生、処女を貴重だと思う男は多いです?」 孔明「
..その通りだ 」
弟子「しかし逆に童貞は女に気持ち悪がられます? 」孔明「
....確かに 」
弟子「おかしいじゃないですか、何故このような意識の違いが生まれるのですか 」
孔明「
それは一度も侵入を許していない砦は頼もしく
一度も侵入に成功しない兵士は頼りないからだ! 」
原出:「孔明の罠だ!」(民明書房新刊)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.88.164 (臺灣)
※ 作者: lordmi 2026-04-07 16:50:24
※ 文章代碼(AID): #1frCLLRa (AI_Art)
※ 文章網址: https://www.ptt.cc/bbs/AI_Art/M.1775551829.A.6E4.html
推 Supasizeit: 簡體跑個檢查重出不就好了
完全靠LLM不用tool 叫什麼agent3F 04/07 17:56
推 yymeow: NV DGX Spark記憶體頻寬273GB/s,相較mac mini m4的546GBs可能就是造成瓶頸的原因
實際跑35B模型,前者38token/s,後者是兩倍5F 04/07 18:10
推 stlinman: 我覺得目前起碼要100B以上的模型跑Agent才夠智能。
nvidia/nemotron-3-super-120b-a12b GGUF(Q4)版 64G免強夠用吧! 勉強8F 04/07 20:54
--