作者 naticom (踢踢~)
標題 [問卦] ollama本地模型答非所問怎麼辦?
時間 Mon Apr 28 09:56:17 2025


我試著部署本地ollama,什麼參數都沒加,就直接

ollama run llama3.2:latest 搭配 firefox page-assist 圖形界面

然後把我下面管的幾個人(IT部門)的每日status update貼進去

他們回報的格式是

ticket #: status, action, next step

類似這樣,加上一些隨機的討論

我跟他說這是我組內的周報告,請為每個ticket #整理出一個summary (用英文問的)

結果 ollama 完全答非所問,只回答說

"This appears to be a log file from a distributed system, likely a cloud-based
infrastructure. The log entries are from various users and mention different
issues with the system, which can be categorized into three main areas:"

根本沒有就我所需要的將每個ticket #做摘要,然後他也只針對其中一種問題做答覆

請問要怎麼修改prompt還是參數(temperature?其他?)啊?

你們都直接  ollama run 就可以用了嗎?

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 165.225.211.3 (加拿大)
※ 作者: naticom 2025-04-28 09:56:17
※ 文章代碼(AID): #1e3k13fs (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1745805379.A.A76.html
azeroth: =_=??你484發錯版惹1F 111.242.111.24 台灣 04/28 09:57
faterosa: 肛它2F 114.33.177.222 台灣 04/28 09:57
baan: 先去nvda 網站測llama能不能正常回你,可能llama本來就這麼笨3F 114.140.137.74 台灣 04/28 09:59
bill403777: 蛋雕5F 42.73.158.229 台灣 04/28 10:00
gino0717: 讓他去從政6F 220.136.86.238 台灣 04/28 10:01
neo5277: 多少b 啥顯卡先說阿7F 1.162.170.143 台灣 04/28 10:01
chita0258: LLM Finetuning了解一下8F 114.136.254.65 台灣 04/28 10:02
HKCs: RAG9F 106.64.129.63 台灣 04/28 10:02
veryGY: 想省錢就是這種下場 乖乖花錢去用openai10F 114.45.211.166 台灣 04/28 10:03
Nonegrame: 參數只有 3b  當然慘11F 118.163.84.200 台灣 04/28 10:06
sky777: 你確定部署的是滿血版嗎 還是蒸餾
過的12F 49.217.58.228 台灣 04/28 10:06
rasheedchiu: 幾B的模型講一下啊14F 114.32.196.140 台灣 04/28 10:07
after1: 這個參數量,能符合語法就偷笑了吧15F 42.73.64.106 台灣 04/28 10:07
hihjktw: 胡扯比不知道有誠意吧16F 27.52.103.130 台灣 04/28 10:07
neo5277: 他這3.2是version 不是b拉17F 1.162.170.143 台灣 04/28 10:13
liquidbox: 本地模型比雲端爛多了,跑10分鐘給一堆廢話,草稿有改等於沒改,公司出錢有api當然用雲端18F 223.137.55.118 台灣 04/28 10:13
xm3u4vmp6: 本地只有deepseek 能打吧 其他都垃圾不過還是ChatGPT 最完善21F 111.83.101.2 台灣 04/28 10:21
fukku100: 開源模型小模型就是給你當玩具玩玩 有點參與感
真要做產品還是選至少32b以上的吧23F 39.12.104.213 台灣 04/28 10:36
awdxabc295: 認真回 重啟就好了26F 39.12.121.0 台灣 04/28 10:45

--
作者 naticom 的最新發文:
點此顯示更多發文記錄