一个新的 AI 记忆层概念:哈勃半径

最近几个月,我给自己的 AI Agent 配了三层上下文记忆。

第一层是「我知道的」。第二层是「我应该知道的」。第三层是「我可能知道的」。这个第三层,我叫它「哈勃半径」。

AI 不应该只知道我已经写下来的东西,也不应该一遇到问题就冲进公共搜索引擎。它应该先知道一件事:在我的世界里,哪些东西本来就有可能被我看见。

很多人在谈 AI 记忆时,只谈两个问题。一个是 AI 能不能记住我,另一个是 AI 能不能查资料。前者是个性化,后者是搜索。但这两个东西中间缺了一块。

AI 还需要知道:我平时从哪里感受世界。

这就是哈勃半径。

我们先从前两层记忆开始讲起。

一、RAG 与 LLM Wiki:先让 AI 知道我是谁、我如何思考

先说第一层:我知道的。

我给 Notion AI 接了一套切片式 RAG 系统。它只存事实。每条记忆都很短,通常不超过 200 字。每个片段有关键词、向量、关系和时效性,存放在一个 Notion 数据库里。它会从我的文章、日记、Dayflow、Looki、方案、聊天记录里提取东西。

Dayflow 是分钟级的 Mac 使用记录。Looki 是一个可穿戴设备,会隔几分钟记录一小段视频,再通过 API 抽取文字总结。日记是我每天对自己状态的复盘。

我每天凌晨 5 点会跑一个自动化流程,调用 Notion AI 的技能,把这些原始数据切成一条条记忆碎片。它们共同构成一个事实记忆层:我最近做了什么,想了什么,困在什么问题里,哪些项目正在推进,哪些判断已经发生过。

这层记忆的效果非常明显。

我和 Notion AI 聊天时,它通过一次 Function Call,基本就能知道我最近在做什么。它知道我这几天在调 Hermes Agent,知道我在做中美 AI 叙事研究,知道我搭了兴趣晨报和晚报,也知道我一边依赖 Notion 的平台优势,一边对这种依赖保持警惕。

这很像一个熟悉你个人助理。

它不一定懂你完整的知识结构,但它知道你最近说过什么、做过什么、立过什么 flag、刚刚踩过什么坑。AI 从一个通用模型,变成了一个「在你身边待过一阵子的人」。

但这还不够。

事实层的问题也很明显:它只记录已经发生过的事情。它知道我真正知道什么,却不知道那些还没有被我整理成事实、没有写进日记、没有主动问过的问题。

它是我的影子,但不具备我的思考。

所以有了第二层:我应该知道的。

这一层是 LLM Wiki。LLM Wiki 是 OpenAI 联合创始人 Andrej Karpathy 提出的概念,可以简单理解成一个由 AI 维护的 Wiki。它不是让内容以原始形态散落在知识库里,而是按 Wiki 的规则,把材料整理成可以继续生长的条目。

我的 LLM Wiki 由 Hermes Agent 驱动,最早从 OpenClaw 一路折腾过来,后来逐渐变成一个带有 FTS5 lexical、向量搜索和图结构的内网知识系统。它不会简单地把材料切碎后塞进数据库,而是试图把散落的材料编织成结构。

它读的东西也比第一层更宽。

除了「我知道的」那些关于「我」的事实,它还会读我收藏的文章、抖音、播客、个性化日报,甚至是我没有认真读完但已经被系统捕捉到的内容。Hermes Agent 每天凌晨到我的 Notion 里读取当日新增内容,再做联想、归纳、合并和结构化。最后形成一张可以浏览、可以检索、也可以继续修改的知识网。

切片式 RAG 对 AI 很好用,但对人很难读。打开以后全是碎片,没有结构,也没有涌现。AI 可以从里面召回细节,但人很难从里面看见知识的形状。

我给我的 LLM Wiki 部署了一个 Quartz 前端,让它能不止在 AI 里被调用,还可以直接看。

LLM Wiki 的意义就在这里。它不是回答「某条事实在哪」,而是回答「这些事实之间有什么关系」。

比如我长期关注 AI、平台权力、消费文化、非人行动者、工作流、知识管理和个人数据主权。单条记忆只能告诉 AI:「用户最近在搭 FreshRSS」或「用户关注 AI 记忆层」。但 Wiki 可以把它们放到一条更长的线上:从早年对 Rewind 的兴趣,到想要自动维护「我知道的东西」的 Wiki,再到 Notion as Me、Hermes、LLM Wiki、兴趣日报、NotionSearch。其实这一直是同一个问题在变形。

这个问题是:我能不能让 AI 使用我的上下文,而不是把我的上下文继续交给平台公司?

第二层解决的是「我应该知道」。它不只是记住过去,也开始整理过去。它把材料变成结构,把结构变成立场,把立场变成下一次对话的背景。

顺便说一句,这并不意味着第一层的切片式 RAG 就不重要了。我在 X 和小红书上刷到不少帖子,说 RAG 已经过时了,应该用 LLM Wiki 取代它。我觉得这是一种很典型的非此即彼。

切片式 RAG 在关键词搜索、速度和短事实召回上,仍然非常好用。比如我每天和谁开了什么会,这类来自 Looki 或 Dayflow 的记录,就不应该被郑重其事地写进 LLM Wiki。它只适合待在第一层。需要的时候被找回来,不需要的时候安静躺着。

第一层是记忆卡片,第二层是 Wiki,前两层是网上已经比较多见的实践了,我不必太多啰嗦。但用了一段时间之后,我发现这两层记忆依然有它的边界——它只能处理已经进入我系统的东西。

那些我没有收藏、没有读、没有转录、没有整理,只是刚好出现在我关注源里的东西,它仍然不知道。

这恰恰是今天要讲的最大的一块。

二、哈勃半径:我可能知道的世界

第三层,就是「我可能知道」。我叫它哈勃半径。

我把所有关注源,包括抖音、播客、网站、公众号、即刻、X,都通过工作流(OpenClaw 或 n8n)尽量先处理成文字,再汇总到 FreshRSS。然后把 FreshRSS 的全量数据定时导入一个私有 Meilisearch 搜索引擎。最后把这个 Meilisearch 接到 Notion AI 和 Hermes Agent 上,作为一个独立搜索源。

Meilisearch 是一个开源的私有搜索引擎,在建立之后,你可以通过 API 向其中加入任何文档,并且像搜索引擎一样搜索整个库。更重要的是,它的性能很好,能在海量数据下以十几毫秒的速度返回搜索结果。

这件事听起来很工程化。实际也确实很工程化。

我是在一个周日下午把它搭起来的。先在群晖上部署 Meilisearch,配置端口、卷挂载和环境变量;再给它配 UI,处理 CORS,检查索引;然后给 Hermes Agent 装 Meilisearch 技能,调整 FreshRSS 的订阅分类,把来源分成公众号、博客、学术期刊、视频和其他信息流。

后来我又给它接了 Cloudflare Worker,做了一个中转服务,配反向代理、API Key、过滤字段、排序参数和全文读取。这样 Notion AI 就可以远程调用这个私有搜索引擎。

那天晚上,我在 Meilisearch UI 里看到索引里已经有接近一万条文档。这个数字对 Google 来说小到没意义,但它还会以每周大约 2000 条的速度增长。对一私有的信息库来说,这已经是一个不小的宇宙了。

更重要的是,这些文档不是互联网上随机抓来的几万条网页。

它们来自我手动关注过的源。

公众号是我关注的,播客是我订阅的,网站是我放进 RSS 的,即刻和 X 也是我自己选择的社交场。它们当然不等于我已经读过,更不等于我同意。但它们至少说明,在过去某个时刻,我允许这些源进入我的视野。

这就是哈勃半径和公开搜索引擎的区别。

公开搜索引擎回答的是:全网有什么。

哈勃半径回答的是:在我的信息宇宙里,有什么。

为什么叫哈勃半径?

在宇宙学里,哈勃半径可以粗略理解为一个观测边界。以观察者为中心,边界以内的东西在原则上可以被观测,边界之外的东西越来越远,也越来越不可达。我不是在严格使用物理概念,只是借它说一个信息生活里的事实:每个人都有一个以自己为中心的信息半径。

你每天刷到什么,订阅了什么,关注了哪些人,信任哪些媒体,反复打开哪些网站,收藏哪些文章,听哪些播客,甚至在哪些平台上浪费时间。这些东西共同构成了你的信息宇宙。

过去,这个宇宙主要对平台有用。

平台知道你看了什么、停留多久、划走了什么、又回头看了什么。它用这些数据推荐下一条内容,卖广告,优化留存,让你继续待在它的宇宙里。但你自己很难使用它。

你没法问抖音:「我过去半年关注的所有创作者里,有没有人谈过某个问题?」

你也没法问公众号:「在我关注的这些媒体里,最近两周关于 AI 教育的讨论发生了什么变化?」

更不用说把播客、短视频、社交平台、RSS 和日记放在一起比较。

平台拥有你的信息半径,但你没有。

哈勃半径的意义,就是把这个半径拿回来,放进自己的 AI 里。

它不是为了对抗 Google,也不是为了替代小红书、抖音或公众号搜索。它要做的事更小,也更私密:让 AI 在回答我的问题之前,先进入我的可观测宇宙。

当我问一个事实类问题,公开搜索当然重要。但当我问一个非事实类问题,比如「最近中文互联网对 AI Agent 的态度是不是变了」「为什么我觉得某类内容越来越像工作泔水」「年轻人对信息流的疲劳是不是正在出现」,Google 的第一条结果未必有用。

我更想知道的是:在我的可观测宇宙里,这些情况有没有发生变化。

因为这类问题不是在找一个标准答案,而是在找一种气候。

气候不在百科里。气候在我长期接触的那些源里。

三、它不是搜索引擎,而是记忆层

我认为哈勃半径是一个记忆层,不是一个搜索引擎。

搜索引擎的核心动作是检索。记忆层的核心动作是限定上下文。

同一个关键词,在不同人的哈勃半径里,意思会完全不同。搜索「AI 陪伴」,投资人、心理咨询师、乙女游戏玩家、产品经理、未成年人研究者、同人作者,看到的世界不会一样。公开搜索会把这些语义场压平,再按流行度、权威性或广告逻辑排序。

私人哈勃半径会先问另一组问题:

这个词对你来说通常出现在哪里?你通常从哪些人那里接触它?你过去对它有什么反应?你关注的源最近怎么谈它?

这不是覆盖率问题,而是权重问题。

AI 接入公开搜索以后,最大的问题往往不是查不到资料,而是不知道该信谁。它能打开 Google,能搜小红书,能查抖音,能读网页,但它不知道这些源在我的世界里是什么位置。

有些来源对我只是噪音。有些来源我长期信任。有些来源我不同意,但我会用它观察某种立场。有些来源质量一般,却很接近一线语感。有些来源不权威,但能比论文更早捕捉到文化变化。

这些权重,公开搜索不知道。AI 也不知道。

哈勃半径知道。

不是因为它更聪明,而是因为它的信源已经被我过去的关注动作筛过一遍。关注本身就是一种缓慢的标注。它不是点赞那么短,也不是收藏那么重。它更像一种持续授权:这个源可以进入我的世界。

所以 AI 在哈勃半径内搜索时,不是在「查全网」,而是在调用我的长期注意力沉淀。

这就是记忆。

这层记忆还有一个很微妙的地方:它记录的不是「我知道」,而是「我可能知道」。

第一层记忆里的东西,我大概率真的知道。因为我写过、说过、做过、记录过。第二层知识里的东西,我应该知道。因为它已经被系统整理成结构,等着我在合适的时候调用。

第三层不一样。它包含大量我根本没看过的内容。

我估计在我的哈勃半径中,至少 99% 以上的内容我都没看过。毕竟我关注了至少 2000 个不同类型的订阅源:网站、公众号、短视频、播客,都有。

按传统知识管理的标准,这很奇怪。没看过,怎么能算我的知识?没有消化,怎么能算我的记忆?

但 AI 时代会改变这件事。

过去,知识管理的瓶颈是人的阅读时间。你订阅 100 个源,真正能读完的可能只有 5 个。剩下 95 个只是焦虑来源,是未读数字,是信息债务。

但如果 AI 可以在需要时帮你回到这些材料里,未读内容就不再只是债务。它变成一种可调用的可能性。

我不需要每天读完所有公众号、播客和视频。我只需要在某个问题出现时,让 AI 先到我的哈勃半径里看一眼:在我本来可能接触到的信息宇宙里,有没有人已经说过类似的话?有没有一个我错过的案例?有没有一场小众讨论,比公开搜索更贴近我的问题?

这是一种将「阅读」从前置消费,改成后置召回的信息管理方式。

过去我们必须先读,未来才有资格想起。现在我们可以先建立半径,再在问题出现时让 AI 回到半径内部找线索。人的角色不再是吞下全部信息,而是维护自己的可观测宇宙。

我觉得这会是 AI 时代知识管理的一个大变化。

四、半径的价值来自边界

当然,哈勃半径不是越大越好。

这是它和公开搜索最根本的差别。公开搜索追求覆盖率,私人半径追求相关性。你不需要把全网都装进来,甚至不应该这么做。如果一个私人搜索库最后变成小号 Google,它就失去了意义。

哈勃半径的价值来自边界。

边界越清楚,AI 越知道你在什么语境里提问。边界越混乱,AI 就越容易重新滑回公共平均值。

所以它的维护重点不是「多抓」,而是「选择」。哪些公众号值得保留,哪些 RSS 已经失效,哪些播客只是阶段性兴趣,哪些社交账号虽然经常胡说但有现场感,哪些来源应该降权,哪些来源适合做事实判断,哪些来源只适合做情绪采样。

这些都不是模型能自动决定的。

AI 可以帮你清理、分类、去重、打标签、转文字、做索引,但半径本身必须由人来画。因为这条边界表达的是你的注意力史、信任结构和审美偏好。

这也是我为什么越来越不满足于「给 AI 接一个搜索引擎」。

接搜索引擎只是扩展能力。设置哈勃半径,才是在扩展主体。

前者让 AI 更会查。后者让 AI 更像你。

把三层记忆放在一起,关系就清楚了。

第一层,「我知道的」,是事实记忆。它让 AI 记得我的近况、偏好、项目和判断。

第二层,「我应该知道的」,是结构记忆。它把事实和材料织成 Wiki,让 AI 理解我的长期问题和知识网络。

第三层,「我可能知道的」,是半径记忆。它把我长期关注但未必阅读的一切变成可召回的信息宇宙,让 AI 在进入公共互联网之前,先进入我的信息边界。

最内层是我留下的痕迹,中间层是这些痕迹被整理后的结构,最外层是我可能接触到的世界。

如果用一个人来类比,第一层像记忆,第二层像知识,第三层像视野。一个真正个人化的 AI,不能只有记忆和知识。它还必须有视野。否则它知道你昨天做了什么,也能背出某个概念的定义,却不知道你平时从哪里感受世界。

这就是很多 AI 个性化产品让我不满意的地方。

它们把「记住用户」理解成记住偏好:喜欢什么语气,在哪里工作,正在做什么项目。它们把「连接外部世界」理解成搜索网页。但用户不是一个偏好表,外部世界也不是一张无差别网页列表。用户和世界之间,还有一层长期形成的媒介关系。

哈勃半径记录的就是这层关系。

五、每个人都需要自己的哈勃半径

我比较相信,未来每个重度使用 AI 的人都需要自己的哈勃半径。

它可以很简单,不一定要像我这样折腾 FreshRSS、Meilisearch、群晖、Cloudflare Worker、Hermes Agent 和 Notion AI。对大多数人来说,它可能只是一个持续维护的 RSS 列表,一个高质量收藏夹,一个跨平台稍后读,一个能被 AI 调用的信息源仓库。

关键不在技术栈,而在观念:你需要给 AI 一个你不读,但你给出权重很高的,可不依赖你的内在系统也持续更新的内容池,

AI 的上下文不应该只来自公开互联网,也不应该只来自你已经整理好的笔记。真正属于你的上下文,还包括那些你长期允许进入生活、但尚未被你消化的信源。

那是你的信息暗物质。

它平时不可见,却影响你的判断、写作、情绪和问题意识。你以为自己是在独立思考,其实你一直在某个半径内思考。过去,这个半径只被平台拿来塑造你;现在,你可以把它交还给自己的 AI,让它帮你看见这半径内部到底发生了什么。

这也是为什么我叫它「哈勃半径」。

AI 时代的问题,不是信息不够,而是默认的世界太大。世界越大,平均值越强。平均值越强,个人经验越容易被淹没。

给 AI 设置哈勃半径,就是告诉它:先别急着替我抵达全世界。先回到我的宇宙里。

看看我关注过什么,错过了什么,可能知道什么。看看哪些信号已经在我身边出现,只是我还没来得及读。看看哪些问题早就在我的信息半径里反复回响,只是还没有被命名。

当 AI 能做到这一点,它就不再只是一个更快的搜索框,也不只是一个更长记性的助手。

它开始像一个能替我巡视视野的人。

而这可能才是个人 AI 真正开始成立的时刻。

评论

《 “一个新的 AI 记忆层概念:哈勃半径” 》 有 3 条评论

  1. […] This blog post was originally written in Chinese and translated into English by AI. The author did not proofread the translation, so there may be errors. If you can read Chinese, you can read the original blog post: https://1q43.blog/?p=12336 […]

  2. Junming 的头像
    Junming

    很棒的想法,一直以来都想通过AI建立一个自我,然后看他是如何处理各种事情的。尝试了各种知识库,并最终以失败告终。作者这篇文章给了我新的启发,虽然技术部分看不懂,但或许我就把这篇文章丢给claude,然后问它我该怎么做?

    1. 评论尸 的头像

      是的,可以的,如果你用 Claude Code,应该能完全让 AI 在本地实现这里面的三层结构。