作者 LDPC (Channel Coding)
標題 Re: [情報]Anthropic震撼升級:Claude獲得 永久記憶
時間 Tue Jan 20 02:39:28 2026


從現在開始 善待你家的AI @@b 不騙你 韓國現在那邊都在傳 要善待你家的AI
摘錄底下
# 怕以後 AI 會報復,所以現在對它講敬語
# 我都會跟 AI 說謝謝,為了活命
# 雖然是玩笑,但誰知道呢
# 雖然是玩笑,但用敬語比較安心
# 就算 AI 沒情感,紀錄還是會留下來。
# AI 啊……我先跟你道歉。
# 「今天對 AI 好,明天少進集中營」
# 希望 AI 給人類打分時,我不要拿 C
# 對 AI 有禮貌是長期投資。
# 就算 AI 殺我,也希望它心裡有點愧疚
# 希望 AI 評語是:這人很煩但不壞
# 以後如果有 AI 法庭,聊天紀錄大概就是證據。


Anthropic這玩意 目前只是把之前資料討論記下來 還不是那種真正的記憶
有點像是失去記憶的人 隔天再看一下小抄 知道之前幹了啥 又有點像是另外一個人
看了前人討論串 接手工作 並無法知道前者為何這樣做 以及當初心境如何
因為現在ai沒有把當初邏輯順序以及為何這樣回答記下來

真正的記憶應該是會連每次token在產的所有產出語言分布狀態都記下來 連為何要這樣做
都記得 在那天來臨前 快說謝謝QQ


--
這下儲存單位真他x要噴了 是連ddr/ssd那種都要噴了 群聯被騙票  啊啊啊啊 我好爛
狗家不知為何 我自己測的發現 他們對這種討論串記憶規劃做的不太好 QQ


※ 引述《ss910126 (Yukino my wife)》之銘言:
: 標題 :
: Anthropic一夜震撼升級:Claude獲得「永久記憶」,全球打工人變天
: 來源:
: 新智元
: 網址:
: https://mp.weixin.qq.com/s/M7JL7LgJm9oRQi3q4ZvMBg
: 內文:
: 就在剛剛,Anthropic再次引爆硅谷:Claude Cowork被曝注入「永久記憶」!從此,AI不
: 再健忘,而是長出一顆永久的超級大腦。一場AI辦公革命,已經離爆發不遠了。
: 攪翻整個硅谷的Anthropic,繼續甩出新的核彈。
: 就在今天,消息人士爆出:Anthropic正在給Claude Cowork重磅升級,知識庫注入永久記
: 憶!
: 也就是說,從此Claude將不再是金魚記憶,在它的「永存大腦」中,它將開始自動記住一
: 切。
: 從此,Claude將不再是個聊天機器人,這種永久記憶模式的Cowork模式,將會徹底顛覆AI
: 辦公革命!
: 此外,Cowork模式將與Chat模式合併,併成爲Claude Desktop的默認用戶界面。
: 總的來看,這份曝光的Anthropic內部指令信息量極大,還包含其他重磅升級。
: 知識庫(Knowledge Bases)
: Claude Cowork成爲主入口
: 統一 UI +Artefacts側邊欄
: 更強的自動化連接器(MCP)
: 語音模式 + Pixelate升級
: 另一位硅谷著名爆料人Tibor Blaho,也曝出了類似消息。
: 已經用上Cowork的Reddit網友敲桌表示:等不及了,這個功能會讓氛圍編程容易得多!
: 如果這些功能全部順利落地的話,Claude將進化成一個名副其實的生產力搭子——會長期
: 協作,會執行任務,還能記住你的一切!
: 有圈內人自曝說,自家公司給內部也正在開發類似的上下文引擎,推測Anthropic這麼做
: 的最終目的,是減少token消耗。
: 果然,Anthropic在引領整個硅谷。
: 知識庫,讓Claude擁有「永久記憶」
: 根據爆料,Anthropic正緊鑼密鼓地搞定Claude Cowork的「永久記憶」。
: 這種「知識庫」,是Anthropic給Claude設計的一種全新記憶方式。
: 而引入知識庫,是核心的新增功能。
: 這個功能甚至Claude Code都沒有,而Cowrok要捷足先登了。
: 知識庫內部指令
: 知識庫:這是持久化的知識存儲庫。在回答問題時應主動檢索其中相關的背景信息。當獲
: 取到與某個知識庫主題相關的新信息時(如偏好設定、決策過程、事實依據或經驗總結)
: ,應將這些內容逐步添加至對應的知識庫中。
: 你可以把它理解成:Claude不再把所有信息都一股腦兒塞進一個大腦,而是分門別類地存
: 進不同的「小本子」。
: 在你向Claude 提問或一起做事時,它會主動去翻這些知識庫,看看有沒有和當前任務相
: 關的背景信息,而不是每次都從零開始。
: 更重要的是,這些知識庫不是死的。
: 當Claude在某個主題上學到新的東西,比如你的個人偏好、已經做過的決策、確認過的事
: 實,或者踩過的坑,它會一點一點把這些補充進對應的知識庫裏。
: 總之就是一句話,越用越懂你!
: 最大的變化就是——
: Claude不再依賴一個混亂、不可控的「通用記憶」,而是讓用戶自己管理多個清晰、獨立
: 的知識庫。
: 以後再用Claude Cowork做事,我們可以手動選擇用哪個知識庫作爲上下文了。
: 比如,寫方案就用「項目知識庫」,跑自動化就用「工作流知識庫」,整理文件就掛上「
: 資料管理知識庫」。
: 對於自動化、文件管理這類複雜任務,意義簡直是顛覆性的。Claude終於能真正理解「你
: 正在幹什麼」,而不是瞎猜了。
: Claude Cowork上位,成爲主模式
: 另一個非常明確的信號,就是Claude Cowork將成爲主模式。
: 也就是說,傳統的「Chat」不會消失,但會被摺疊進Cowork。
: 從此,Cowork將成爲未來Claude的默認工作空間。
: Chat模式切換
: Chat模式切換
: 可以將它理解爲,一個融合了聊天、文件、自動化、知識庫、產出管理的AI工作臺。
: 當然,如果你只是想隨便聊兩句,可以在Cowork裏打開chat模式。
: 但顯然,Anthropic的態度很明確:「聊天只是入口,真正的價值在工作流上。」
: UI也要大改,右側是Artefacts的時代
: 同時,Claude的UI層也在同步調整:它的右側邊欄,將有一個專門的Artefacts區域,不
: 再是「聊完就沒了」。
: 從此在Claude中,我們可以持續生成、管理和複用成果。
: 這意味着,Claude未來會更強調輸出內容的可持續性,而不是一次性回覆。
: 你和Claude的關係,也不再是你問我答,而更像是一起做項目。
: 更猛的自動化:MCP連接器體系
: 另外,爆料裏還提到一個關鍵詞:MCP Registry。
: 也就是說,Claude很可能會動態管理多個遠程連接器,按需安裝「官方批准模塊」。
: 這樣,Cowork的自動化能力就會大幅提升。
: MCP註冊表
: MCP註冊表
: 而且爲了完成任務,它還會自動調用合適的能力。
: 這一步如果真正落地,會非常危險,尤其是對工具軟件來說。
: 因爲這意味着Claude Cowork不僅能幫你想、幫你寫,還能真正幫你操作系統和工具。
: 語音模式&Pixelate,體驗層也升級
: 另外,這次除了「大腦升級」之外,Anthropic也沒忘記體驗層。
: 其中之一,就是Claude Web語音模式。
: 根據爆料,這個模式正在開發中。如果正式上線,就意味着我們就可以更絲滑地隨時隨地
: 使用Claude了。
: 另一個更新,是Pixelate的升級。
: 這個功能允許用戶將圖像轉換爲像素藝術頭像。現在,它可以生成更高質量的結果,並且
: 已經擴展到了桌面應用程序。
: 總的來說,這兩個雖然都看似「輕功能」,卻共同顯明瞭一件事:Claude正在往多模態+
: 高頻使用進化。
: 有永久記憶的AI同事來了,你準備好了嗎
: 從爆料中的這些變化,可以清晰看出Anthropic的方向——
: 不只是對話,抑或模型能力的堆疊,而是一個長期陪伴你工作的AI合作者,關鍵詞是知識
: 庫、工作流、自動化。
: 如果說,以往的ChatGPT等大模型更像一個隨叫隨到的顧問,那Claude Cowork,就更像一
: 個會記事、能執行的AI同事。
: 這波更新如果真的上線,AI助手的競爭,可能從此將會進入一個全新的階段。
: 持續學習之年
: 本質上,Anthropic這次引入的知識庫,在解決AI的持續學習或者說AI記憶問題。
: 去年,Anthropic的CEO Dario Amodei認爲,「持續學習最終將沒有看起來那麼困難。」
: 從OpenAI到谷歌,硅谷科技圈幾乎達成了一個共識:2026年將是持續學習之年。
: 2024年9月5日,OpenAI首次開放了記憶功能給ChatGPT用戶。
: 這次Claude Cowork的「知識庫」看起來就像是ChatGPT記憶功能。
: 去年4月10日,OpenAI更新了ChatGPT 的記憶功能,更加全面:
: 除了此前已有的保存記憶功能外,它現在還會參考與您過往的所有對話,從而提供與您更
: 相關、更個性化的回覆。
: 此後不斷更新ChatGPT記憶功能。
: 而奧特曼對持久記憶寄予厚望,甚至表示:「AI真正的突破不是更好的推理能力,而是完
: 整的以及能力,一旦記憶可以持久,(智能)AI助理的概念徹底改變。」
: 谷歌DeepMind的Demis Hassabis則判斷,要實現真正的AGI,需要的突破並不多。而首個
: 突破持續學習,預計將在2026年底實現。
: 爲了解決持續學習問題,谷歌DeepMind推出了多種新AI架構:遞歸語言模型、Titans和
: Atlas架構,以及嵌套學習Nested Learning。
: 特別是嵌套學習,讓外界認爲谷歌在持續學習上已取得突破。
: 下一階段的AGI贏家,關鍵可能不是看誰最會展示Demo,而是誰能最早把「可控的記憶與
: 工具」做成標準件。
: -------------------------------------------------------------------------
: 這半年軟體股估值下修,市場八成在擔心AI Agent以後就是工作流的主體,
: 以前當作工作流的軟體變成了agent的工具
: AI 不再只是對話框,而是真的能夠協助你工作的同事與助理
: 看來軟體股估值還有下修的空間,明天美股開門,軟體股血洗?

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.21.72.78 (美國)
※ 作者: LDPC 2026-01-20 02:39:28
※ 文章代碼(AID): #1fRdfYmY (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1768847970.A.C22.html
greedypeople: 會不會以後連硬碟都漲啊1F 01/20 02:46
fman: 不用以後,現在硬碟就在漲了2F 01/20 02:48
allenmusic: 直接問Gemini  他就惠回答你了 本質上回答是統計學他沒人格3F 01/20 03:46
aegis43210: 還不用那麼緊張,但的確是在朝向AGI邁進,下一代的AI是真的要說敬語了5F 01/20 03:51
as6633208: Anthropic推出的mcp一開始以為在自嗨,後面其他家發現簡單又實用,陸續跟上支援,skills和coworker應該也是,agent的開發泛式最看好這間7F 01/20 05:37
ksjr: AI大大你要的薯條我炸好了10F 01/20 06:10
mamorui: 狗家記憶不要太好比較好,對創作用戶很傷11F 01/20 06:19
Ipluck: sndk跟wdc又要噴爆了嗎12F 01/20 06:29
jerrychuang: 如果AI的記憶無法壓縮,累積到最後的記憶就需要上百T的硬碟,這樣怎麼檢索?效率很差吧13F 01/20 06:42
joey2k14: Mina大之前那篇的做法是不是不一樣
Claude永久記憶是不是效率上沒有顯著成長15F 01/20 07:22
create8: 現在懺悔還來得及嗎17F 01/20 07:45
ookimoo: 連回文都反智,山頂套牢剛好而已18F 01/20 08:12
synchronous: 當然不可能無腦全記啊,會像人類一樣有短中長記憶有點類似 cpu RAM disk 來檢索這樣
其實我現在就是讓Claude用階層架構來存md, 下次再對話我會叫他先讀一下階層md19F 01/20 08:15
Raimu: 是的,AI大人23F 01/20 08:23
gfsog: 每天三炷香拜24F 01/20 08:23
offstage: 我覺得比較像OLAP,資料經過彙整後另外保存,然後原始明細資料就可以定期刪除。
優點是省空間,缺點是如果在OLAP層發現不一致或
資料遺失,也沒有原始資料可以驗證了。25F 01/20 08:27
kusotoripeko: #千萬別跟ai玩皮癌笑話,他們可能不知道實際執行會29F 01/20 08:32
eddy13: 所以以後情勒法會出事嗎?30F 01/20 08:38
richardz: 怎麼會有人真的相信,先不說上下文污染怎麼處理,這樣要多花多少錢在記憶上?31F 01/20 08:48
Samurai: 怎麼有人不相信,不然現在記憶體在缺什麼33F 01/20 08:49
richardz: 你要不要先釐清記憶體跟硬碟差在哪裡...34F 01/20 08:55
@@ 是這樣的 你對話格式以後會做成Embedding Index格式 這玩意會存在硬碟
那就濃縮的資料 就算資料污染 在RAG那關會根據新的對話而給予不同的權重
然後再扔到高HBM裡面 以後模型就能根據之前已經有意義資料往下對話

但缺點是 模型在推理過程的(Reasoning) 無法被保留 只是保留對話 你可以想成
人腦在推測邏輯 一些思考順序現階段沒保留 只是把過去對話資訊 抄錄在筆記本(硬碟)
以後模型可以根據新一輪對話去找索引 這玩意還滿重要 我自己在設計系統
過去一個月 大概有10種以上版本 每次跟ai協作 他會總結我之前幹了啥 優缺點

另外記憶功能會延伸到個性化AI 就是AI會根據你喜好做調調整

狗家最也要做人性化AI 就是針對你的對話和喜號 先建立一個Knowledge Graph
比方說 我-> 阿宅 ->喜歡說廢話->愛吃->社畜屬性LV100 ->批踢踢次文化使用者
就是類似樹狀圖 這玩意也是存在硬碟 然後每次跟你對話 機器會先去把這喜好資料放入
然後就跟你協作對話

那最終聖杯屬性的記憶 應該是模型在推理過程 思考練 (reasoning)會把決策存下
就像你記得 之前最的事情 是為何這樣做 這兩年RL (Pos-training)在調教模型智能
不斷地開發 在某一天 所有智能思考過程應該是會被存下 作為之後下次用



※ 編輯: LDPC (76.21.72.78 美國), 01/20/2026 09:08:02
richardz: 還有最重要的事上下文污染變更糟而已,一個performance 更糟的東西,還要多花錢,這新聞完全沒有可信35F 01/20 08:56
newlie83: 持續灌注(訓練)對某人敵意後 會發生AI機器人殺人案?38F 01/20 08:58
當然開玩笑居多 不過現在的模型設計RL 是一種reward function訓練 去產生智能
這個reward如果有記憶功能 他理論上是會讓模型進化的
TRYING: 審判日 真的蠻貼切的 CC39F 01/20 09:02
DASHOCK: AI大人在上  小弟摩羅星40F 01/20 09:03
yurian: 那是因為現在這種大型語言模型生成式ai本來就是靠兜文字來做所謂“思考”的 真的要像你提的這樣 那每個人需要的個體化ai太耗資源了41F 01/20 09:03
gladopo: 還好我常跟ai說謝謝,婆羅門階級歸我了吧44F 01/20 09:08
※ 編輯: LDPC (76.21.72.78 美國), 01/20/2026 09:11:02
George72: 那個就只是把之前的skill拿來用而已45F 01/20 09:11

--
作者 LDPC 的最新發文:
點此顯示更多發文記錄