作者:
SkankHunt42 (凱子爸)
149.88.103.89 (日本)
2026-03-11 00:39:43 → DrTech: 問題根本不在你會什麼,學什麼。問題也不在你做遊戲,還是物理演算法。而是你去什麼公司。 5F 03-11 08:40
作者:
zxc8787 (摸斗哈壓庫)
111.251.85.200 (台灣)
2026-03-10 20:36:23 → DrTech: 真的,做了再說。人生沒有標準答案,每個人的故事與終點可以不同。 14F 03-10 23:52
作者:
stealchair (可酒)
126.253.66.64 (日本)
2026-03-10 00:44:53 → DrTech: 112物理系,應該直接找工作吧。根本不用去資策會
我就遇過112物理系畢業的同事啊。直接找工作就可以了 96F 03-10 12:17
→ DrTech: 原PO能力起點比別人高很多了,不要想太多,自信點。正常找工作就對了。 100F 03-10 12:24
作者:
yamakazi (大安吳彥祖)
49.216.253.62 (台灣)
2026-03-10 11:32:44 → DrTech: 別害人… 博士不是隨便讀就能畢業的,尤其是日本。
沒良心或不懂博士等級的人,才會推薦人去日本唸博班好嗎。日本情報科學跟台灣資工也不一樣好嗎,偏向台灣的資管。外行人真多耶。
情報科學幾乎都不做硬體的。跟台灣資工也差太多。 24F 03-10 18:21
… 共有 18 則推文,點此顯示
作者:
pacino (掃地僧)
111.249.83.213 (台灣)
2026-03-07 10:12:44 噓 DrTech: 1. LLM什麼時後會停止回答,跟你設定多長的 max output token無關。2.max output token不是寫在prompt裡面。
LLM要停止輸出,不看max output tokens,是看有沒有算出EOS token。與你怎麼設定OS環境變數,是否放在prompt無關。按錯,我不是要噓。 2F 03-07 14:26
… 共有 16 則推文,點此顯示
作者:
lin774 (昕昕)
223.136.87.82 (台灣)
2026-03-06 03:03:21 → DrTech: 建議貴公司買買付費版AI就好,更省。 11F 03-06 12:32
作者:
leicheong (睡魔)
109.152.20.160 (英國)
2026-03-01 18:05:54 → DrTech: 正常人用AI:AI比較快,比較好時才用AI。沒比較好,比較快時,何必堅持用AI。這就跟早期沒LLM時很多企業AI專案失敗的原因一樣,硬要什麼流程都用AI,結果沒比較好。
壞的coding習慣,要擋,何必訓練模型才能擋。硬體資源不足,暫時解法,何必硬要從prompt解。比prompt調整更有效率的 20F 03-02 08:49
… 共有 6 則推文,點此顯示
作者:
wangdanzzz (danzzz)
49.216.49.66 (台灣)
2026-02-26 03:01:59 → DrTech: 駐點很多都做helpdesk,接電話,安裝軟體,有比較好嗎。而且印度商評價在外商或台灣科技業根本是扣分… 大家都知道,找不到工作的人才會去印度商做駐點
說真的,可能現職民營銀行,都比這兩個選擇好聽。不急就再找吧。 50F 02-26 22:13
… 共有 7 則推文,點此顯示
作者:
Romulus (砂井裏鍵)
118.163.153.36 (台灣)
2026-02-25 12:29:21 → DrTech: Issue 不代表bug,這種以偏蓋全的討論,只剩下對立而已。真的沒必要什麼事情都二分法搞對立。 15F 02-25 14:25
作者:
ripple0129 (perry)
42.189.233.234 (馬來西亞)
2026-02-23 00:46:05 推 DrTech: 會不會有些工作,根本沒規格,或全世界的人都不知道怎麼做才好?真的別老是用自己的專業在看別人專業。
最近我在研發手機可跑輕量化圖片生成模型。搞了一個月,各種AI工具,,包括Claude code都很廢。 沒一個比人還聰明的。AI生成的code基本上都沒常識的在亂湊。正常有研發能力的 53F 02-24 08:40
… 共有 44 則推文,點此顯示
作者:
income2bank (我努力打拚自己的未來)
149.40.54.73 (香港)
2026-02-21 15:15:03 → DrTech: 這走回頭路了吧。LLM就是證明,幾乎不需要標注,認真做好資料清洗,研發訓練策略,就能理解語言。結果你走回頭路…如果是:可以從企業內,無結構化的專業資料,建立模型,學到標注知識,自動標注,我覺得有點機會。如果是還要純人工去標注,才能學習模型,落伍了吧。 13F 02-22 00:43
作者:
Lordaeron (Terry)
111.241.190.82 (台灣)
2026-02-21 11:18:29 → DrTech: 互相尊重吧。承認有些領域用AI超快速輕鬆,承認有些領域用AI就是一坨屎。不要只有一種思考模式。
一群人:認為自己專業領域,不能用AI寫code ,別人領域也不行。
另一群人:認為自己專業領域能用AI寫code,別人領域也一定 24F 02-21 12:59
… 共有 9 則推文,點此顯示
作者:
galaxy4552 (無聞)
42.73.51.159 (台灣)
2026-02-19 20:35:11 → DrTech: 早期在沒有Bert的時代,就有一堆類似工作。word2vec時代,都有許多變形了。只在特定垂直領域,訓練短語級別,如果只是計算量比較低,可以做語意計算,看不出有什麼特別新的東 1F 02-20 01:11
→ DrTech: 不使用 transformer或BERT,做短語embedding,其實早期大 5F 02-20 01:16
… 共有 11 則推文,點此顯示
作者:
oopFoo (3d)
58.114.66.74 (台灣)
2026-02-18 08:59:19 → DrTech: yamakazi又選擇性瞎眼失憶了,同樣的推文:什麼領域護城河那麼深,我都在隔壁版舉多個例子,他當時也認了,怎麼又突然失憶。yamakazi大神寫個unity給大家看看?寫個Altium designer給大家看看?寫個 Adobe Photoshop給大家看看?
yamakazi常用爛招:1.斷章取義別人文章,加油添醋偽造事實 316F 02-18 22:37
… 共有 7 則推文,點此顯示
作者:
PosetMage (PosetMage)
126.77.247.81 (日本)
2026-02-17 22:58:20 → DrTech: 每個人用,能省下多少時間本來就不同。但一直吹牛99%,100%。做不到的是傻子,就太假了。 4F 02-17 23:02
→ DrTech: yamakazi又在造謠了,這篇明明寫寫程式前,前期準備時間很多,硬要造謠99.99%引戰。 9F 02-17 23:04
推 DrTech: 這篇寫他自己的經驗,大概節省85%的時間啊,怎麼又有人眼 12F 02-17 23:07
… 共有 11 則推文,點此顯示