编者按:当多数人还在把 AI 当作一个更聪明的聊天窗口时,Y Combinator 现任 CEO Garry Tan 已经在尝试把它改造成一套个人操作系统。
AI 时代个人生产力的底层结构正在发生变化:模型只是引擎,真正产生复利的,是围绕个人知识、工作流、上下文和判断力搭建起来的一整套系统。
在这套系统里,每一次会议、每一本书、每一封邮件、每一个人脉关系,都不再是孤立信息,而会被持续写入一个结构化的「第二大脑」;每一个重复出现的任务,也不再依赖临时 prompt,而会被抽象成可复用的 skill,并在后续工作中不断迭代。换句话说,AI 不只是帮人完成任务,而是在帮助个人把自己的工作方式产品化、系统化、基础设施化。
更值得关注的是,作者提出了一种与中心化 AI 工具不同的个人路径:未来的竞争力,可能不只属于会使用 AI 的人,而属于那些能围绕自己真实生活和工作,训练出一套复利型 AI 系统的人。聊天机器人给出答案,搜索引擎提供信息,而真正的个人 AI 系统,则会记住你的背景、理解你的语境、继承你的判断,并在每一次使用中变得更强。
这也是本文最有启发性的地方:AI 的价值,不在于一次性生成了什么,而在于它能否成为一个持续积累、持续连接、持续改进的神经系统。对于个人而言,这或许才是「AI 原生工作方式」的真正起点。
以下为原文:
人们总问我,为什么我会把晚上都花在写代码上,一直写到凌晨 2 点。我有一份工作,而且是一份很重的工作——我是 Y Combinator 的 CEO。我们每年帮助成千上万的创业者去实现他们的梦想:创办真正有收入、真正高速增长的初创公司。
过去 5 个月里,AI 让我重新变回了一个 builder。去年年底,工具已经好到足以让我重新开始动手构建。不是玩具项目,而是真正能够复利增长的系统。我想用具体例子告诉你,当你不再把个人 AI 当作一个聊天窗口,而是把它当作一个操作系统时,它到底会是什么样子。我把这些东西开源出来,并写成这样的文章,是因为我希望你也能和我一起提速。
这是一个系列的一部分:《Fat Skills, Fat Code, Thin Harness》介绍了核心架构;《Resolvers》讲的是智能的路由表;《The LOC Controversy》讨论的是每个技术人如何把自己放大 100 倍到 1000 倍;《Naked models are stupider》提出,模型只是引擎,不是整辆车;而《skillify manifesto》则解释了为什么 LangChain 融资 1.6 亿美元,却给了你一套深蹲架和哑铃,却没有训练计划,而这篇文章则给了你真正需要的那份训练计划。
那本「反过来读懂我」的书
上个月,我在读 Pema Chödrön 的《When Things Fall Apart》。这本书一共 162 页、22 章,讲的是佛教如何看待痛苦、无根感和放下。一个朋友在我经历一段艰难时期时向我推荐了它。
我让我的 AI 做了一次「书籍镜像」(book mirror)。
具体来说,这意味着:系统提取了这本书全部 22 章的内容,然后针对每一章运行一个子 agent,同时完成两件事:总结作者的思想,并把每一个观点映射到我的真实生活中。
不是那种泛泛而谈的「这对领导者也适用」的空话,而是非常具体的映射。它知道我的家庭背景:移民父母,父亲来自香港和新加坡,母亲来自缅甸。它知道我的职业语境:我在管理 YC,构建开源工具,指导成千上万名创始人。它知道我最近在读什么、凌晨 2 点在想什么、我和治疗师正在处理哪些问题。
最终输出是一篇 3 万字的「脑页」(brain page)。每一章都被呈现为两栏:一栏是 Pema 在说什么,另一栏是这些内容如何映射到我正在真实经历的事情上。讲「无根感」的那一章,连接到了我前一周和某位创始人的一次具体谈话;讲「恐惧」的那一章,映射到了我的治疗师曾指出过的一些行为模式;讲「放下」的那一章,则引用了我某个深夜写下的内容——关于我今年找到的那种创作自由。
整个过程大约花了 40 分钟。一个时薪 300 美元的治疗师,即便读完这本书并把它应用到我的人生中,也不可能在 40 个小时内做到这一点。因为他们并没有完整加载并可交叉引用我的职业语境、阅读历史、会议笔记和创始人关系网络。
到目前为止,我已经用这种方式处理了 20 多本书:《Amplified》(Dion Lim)、《罗素自传》、《Designing Your Life》、《天才儿童的悲剧》、《有限与无限的游戏》、《海的礼物》(Lindbergh)、《悉达多》(黑塞)、《荒原狼》(黑塞)、《The Art of Doing Science and Engineering》(Hamming)、《The Dream Machine》、《The Book on the Taboo Against Knowing Who You Are》(Alan Watts)、《What Do You Care What Other People Think?》(Feynman)、《When Things Fall Apart》(Pema Chödrön)、《A Brief History of Everything》(Ken Wilber),等等。
每一本书都会让这个「大脑」变得更丰富。第二次镜像知道第一次的内容,第二十次镜像则知道前十九次的全部内容。
Book-Mirror 是如何通过迭代变得更好的
我第一次做 book mirror 时,效果非常糟糕。
第一个版本里,有三处关于我家庭的事实错误。它说我父母离婚了,但事实并非如此;还说我在香港长大,但我其实出生在加拿大。这些都是基础错误,如果我把结果分享出去,很可能会破坏信任。
所以我加入了一个强制性的事实核查步骤。现在,每一次 mirror 在交付之前,都会针对大脑中已知事实进行跨模态评估。Opus 4.7 1M 会抓精确性错误;GPT-5.5 会发现缺失的上下文;DeepSeek V4-Pro 则会判断某些内容是不是读起来太泛泛而谈。
后来,我又把它升级为基于 GBrain 工具调用的深度检索。最初的版本擅长综合,但在具体性上很弱。第三版开始进行逐节的大脑搜索。右栏中的每一条内容,都会引用真实存在的 brain page。
当书里谈到如何处理艰难对话时,它不会只是总结一些通用原则。它会调出我和那些正在与联合创始人经历艰难对话的创始人的真实会议笔记;或者是我某个星期四和弟弟 James 一起闲聊时冒出的一个想法;又或者是我 19 岁时和大学室友的一段即时通讯聊天记录。那种感觉非常离奇。
这就是「技能化」(skillification,用 GBrain 里的 /skillify)在实践中的含义。我把第一次手动尝试提炼成一个可重复的模式,写成一个经过测试的 skill 文件,里面包含触发条件和边界情况。此后,每一次修复都会在所有未来的 book mirror 中继续复利。
能够创造技能的技能
真正递归的地方来了,我认为这也是其中最大的洞见。
支撑我日常生活的系统,并不是以一个庞大单体的形式出现的。它是由一个个技能组装起来的。而这些技能本身,又是由另一个技能创造出来的。
Skillify 是一个「元技能」——一个用来创造新技能的技能。每当我遇到一个未来会反复执行的工作流时,我就会说:「把这个技能化。」然后它会回看刚才发生了什么,提取出其中可重复的模式,写成一个经过测试的 skill 文件,包含触发条件和边界情况,并把它注册到 resolver 里。
前面提到的 book-mirror 流水线,就是从我第一次手动完成这个流程之后被技能化出来的。meeting-prep 工作流也是如此:当我意识到自己每次通话前都在做相同步骤时,就把它技能化了。
技能可以组合。Book-mirror 会调用 brain-ops 做存储,调用 enrich 补充上下文,调用 cross-modal-eval 做质量评估,调用 pdf-generation 输出结果。每个技能只专注于一件事,但它们可以串联起来,形成复杂的工作流。
当我改进其中一个技能时,所有使用这个技能的工作流都会自动变得更好。不再有那种「我忘了在 prompt 里提到这个边界情况」的问题。技能会记住。
那场自己完成准备工作的会议
Demis Hassabis 来 YC 做了一场炉边谈话。Sebastian Mallaby 关于他的传记刚刚出版。
我让系统帮我做准备。
不到两分钟,它就拉取出了:Demis 的完整 brain page——这页内容已经从文章、播客转录稿和我自己的笔记中持续积累了几个月;他公开表达过的关于 AGI 时间线的看法,比如「50% 靠规模扩展,50% 靠创新」,以及他认为 AGI 还需要 5 到 10 年;Mallaby 传记中的重点内容;他明确提到过的研究优先级,包括持续学习、世界模型和长期记忆;他和我公开谈过的 AI 观点之间的交叉引用;三个用于在谈话中展示这个「大脑」多跳推理能力的演示脚本;以及一组基于我们世界观重叠和分歧之处设计的对话切入点。
这不只是一次更好的 Google 搜索。它是一种基于上下文的准备:系统不仅使用了我长期积累的关于 Demis 的信息,也结合了我自己的立场,以及这场对话的战略目标。
它准备的不只是事实,而是角度。
一个 10 万页的大脑是什么样子
我维护着一个结构化知识库,大约有 10 万页。
我遇到的每个人,都会有一个页面,里面包括时间线、状态栏——也就是当前真实情况、尚未结束的线索,以及一个评分。每一场会议都会有转录稿、结构化摘要,以及一个我称为「实体传播」(entity propagation)的流程:每次会议结束后,系统都会遍历会议中提到的每个人和每家公司,并用这次讨论的内容更新他们对应的 brain page。
我读过的每一本书,都会得到一份逐章 book mirror。我接触过的每篇文章、每期播客、每个视频,都会被摄入、打标签,并建立交叉引用。
这个 schema 很简单。每个页面都有三部分:最上方是「编译后的真相」——也就是当前最好的理解;下方是只追加不修改的时间线,按时间顺序记录事件;旁边则是原始数据 sidecar,用来存放来源材料。
你可以把它想象成一个个人版维基百科。每个页面都由一个 AI 持续更新,而这个 AI 参加了会议、读了邮件、看了演讲,也消化了 PDF。
这里有一个例子,可以说明这种系统是如何复利的。
我在 office hours 见了一位创始人。系统会创建或更新他的个人页面、公司页面,交叉引用会议笔记,检查我之前是否见过他——如果见过,就浮现出上次我们谈了什么;它会检查他的申请资料,拉取最新指标,并识别我的投资组合公司或联系人中,是否有人能帮到他正在处理的问题。
等我下一次走进和他的会议时,系统已经准备好了一整套上下文包。
这就是「文件柜」和「神经系统」之间的区别。文件柜只是储存东西;神经系统会把它们连接起来,标记发生了什么变化,并在当下浮现出最相关的信息。
架构
它的工作方式是这样的。我认为,这是构建个人 AI 的正确路径,所以我把整套东西都开源了,你也可以自己搭建。
Harness 很薄。OpenClaw 是运行时。它接收我的消息,判断适用哪个技能,然后进行分发。只有几千行路由逻辑。它并不了解书、会议或创始人,它只是负责路由。
Skills 很厚。现在已经有 100 多个技能,每个都是一个自包含的 markdown 文件,里面为某个具体任务写了详细说明。前面你已经看到了 book-mirror 和 meeting-prep。下面是 GBrain 里自带的另外几个技能:
meeting-ingestion:每次会议结束后,它会拉取转录稿,生成结构化摘要,然后遍历会议中提到的每个人和每家公司,用讨论内容更新他们的 brain page。会议页面本身不是最终产品,真正的价值在于把这些信息传播回每个人和每家公司页面。
enrich:给它一个人的名字。它会从五个不同来源拉取信息,将所有内容合并成一个 brain page,包括职业轨迹、联系方式、会议历史和关系上下文。每一个判断都有来源引用。
media-ingest:处理视频、音频、PDF、截图和 GitHub repo。它会转录内容、提取实体,并把材料归档到正确的大脑位置。我经常用它处理 YouTube 视频、播客和语音备忘录。
perplexity-research:这是带有大脑增强能力的网络研究。它通过 Perplexity 搜索网页,但在综合之前,会先检查大脑里已经知道什么,从而告诉你哪些信息是真正新的,哪些是你已经捕捉过的。
我还为自己的工作构建了几十个技能,之后大概率也会开源:email-triage、investor-update-ingest——它可以识别我邮箱里的投资组合更新,并把指标提取到公司页面里;calendar-check——用于检测日程冲突和不可能完成的出行安排;还有一整套我用于公共事务工作的新闻研究栈。
每个技能都编码了一种运营知识,而这些知识如果交给一位新人类助理,可能需要几个月才能学会。有人问我如何「提示」我的 AI。答案是:我不提示。技能本身就是 prompt。
数据很厚。大脑 repo 里有 10 万页结构化知识。我接触过的每个人、每家公司、每场会议、每本书、每篇文章、每个想法,都被连接起来,可搜索,并且每天都在增长。
代码也很厚。为它供料的代码也很重要:转录、OCR、社交媒体归档、日历同步、API 集成的脚本。但复利价值真正沉淀的地方,是数据。
我每天运行 100 多个 cron 任务,检查所有我关注的东西:社交媒体、Slack、邮件,以及其他任何我会留意的信息。我的 OpenClaw/Hermes Agents 也会替我看这些东西。
模型是可以替换的。为了精确性,我用 Opus 4.7 1M;为了召回和穷尽式提取,我用 GPT-5.5;为了创意工作和第三视角,我用 DeepSeek V4-Pro;为了速度,我用 Groq 加 Llama。由技能决定哪个任务调用哪个模型。Harness 并不在乎。
当有人问「哪个 AI 模型最好」时,答案是:你问错问题了。模型只是引擎,除此之外的所有部分,才是整辆车。
凌晨 2 点的 builder,以及一个不断复利的系统
人们问我关于生产力的问题。但我并不是这样思考的。
我思考的是复利。
我参加的每一场会议,都会为这个大脑增加内容。我读的每一本书,都会为下一本书丰富上下文。我构建的每一个技能,都会让下一个工作流更快。我更新的每一个人物页面,都会让下一次会议准备更锋利。
今天这个系统,已经是两个月前的 10 倍。再过两个月,它又会再变成现在的 10 倍。
当我凌晨 2 点还在写代码时——而且我确实经常如此,因为 AI 让我重新找回了构建的快乐——我不只是在写软件。我是在给一个每小时都会变得更好的系统增加能力。
100 个 cronjob 全天候运行。会议摄入自动执行。邮件分诊每 10 分钟跑一次。知识图谱会从每一次对话中自我丰富。系统会处理每天的转录稿,并实时提取那些我没注意到的模式。
这不是一个写作工具,不是搜索引擎,也不是聊天机器人。
这是一个真正可运行的第二大脑。它不是隐喻,而是一个正在运行的系统:10 万页内容、100 多个技能、15 个 cron job,以及过去一年中我参与过的每一段职业关系、每一场会议、每一本书和每一个想法所积累的上下文。
我把整套技术栈都开源了。GStack 是一个编码技能框架,已经有 8.7 万多个 star,我就是用它构建了这个系统。当 agent 需要写代码时,我仍然会把它作为 OpenClaw/Hermes Agent 里的一个技能来使用。里面还有一个很棒的可编程浏览器,既支持有头模式,也支持无头模式。
GBrain 是知识基础设施。OpenClaw 和 Hermes Agent 是 harness,你可以二选一,但我通常两个都会用。数据 repo 也都在 GitHub 上。
核心判断很简单:未来属于那些能构建复利型 AI 系统的个体,而不是那些只会使用企业拥有的中心化 AI 工具的个体。
这两者之间的差别,就像写日记和拥有一个神经系统之间的差别。
如何开始
如果你也想构建这样一套系统:
先选一个 harness。可以用 OpenClaw、Hermes Agent,也可以基于 Pi 从零搭一个。关键是保持轻量。Harness 只是路由器。你可以把它部署在家里闲置的电脑上,用 Tailscale 访问;也可以放到 Render 或 Railway 这样的云服务上。
然后用 GBrain 建一个「大脑」。我最初受到 Karpathy 的 LLM Wiki 启发,在 OpenClaw 里实现了它,后来又把它扩展成了 GBrain。它是我测试过的最好的检索系统:在 LongMemEval 上达到 97.6% 的召回率,在检索环节不调用 LLM 的情况下超过了 MemPalace。它自带 39 个可安装技能,包括本文中提到的所有内容。只需要一条命令就能安装。你会得到一个 git repo,里面每个人、每场会议、每篇文章、每个想法都会有自己的页面。
接着,去做一件真正有意思的事。不要一开始就规划你的技能架构。先去完成一个具体任务:写一份报告,研究一个人,下载一个赛季的 NBA 比分并为你的体育投注建立预测模型,分析你的投资组合,或者做任何你真正关心的事情。用你的 agent 去做,持续迭代,直到结果足够好,然后运行 Skillify——也就是前面提到的那个元技能——把其中的模式提取成一个可复用技能。再运行 check_resolvable,确认这个新技能已经接入 resolver。这个循环会把一次性的工作,变成可以持续复利的基础设施。
继续使用它,并认真查看输出。这个技能一开始一定会很普通。这正是重点。使用它,阅读它生成的内容,当你发现哪里不对时,就运行 cross-modal eval:把输出交给多个模型,让它们根据你关心的维度相互打分。这就是我当初发现 book-mirror 事实错误的方法。修复被写进了技能里,从那以后,每一次 mirror 都变得更干净了。
六个月后,你会拥有一个任何聊天机器人都无法复制的东西。因为真正的价值不在模型本身,而在于你教会了这个系统理解你的具体生活、工作和判断方式。
我用这套系统做出来的第一个东西非常糟糕。到第一百个时,它已经是一个我敢托付日历、收件箱、会议准备和阅读清单的系统。系统在学习,我也在学习。复利曲线是真实存在的。
厚技能,厚代码,薄 harness。LLM 本身只是一台引擎。你完全可以造出自己的车。
我在这里描述的一切——所有技能、book mirror 流水线、cross-modal eval 框架、skillify 循环、resolver 架构,以及 30 多个可安装的 skillpack——都已经开源,并免费放在 GitHub 上。
去构建吧。
[原文链接]
