我们是否需要重新思考什么是 AI Native?
在 AI Agent的浪潮中,大多数人还停留在“写出完美的提示词”阶段。但如果你曾深度使用过那些所谓的“助理”,你很快会遇到第一代系统的瓶颈:它们是静态的。你喂给它越多信息,它的上下文就越混乱;你教给它越多规矩,它就变得越束手束脚。
在构建 BBot 的早期阶段,设计哲学深受传统实践的影响。当时的架构通过多层解耦、严谨的数据库模式以及针对特定平台(如 Telegram)的深度绑定,力求在我们这些所谓的人类开发者眼中呈现出一种整洁的秩序感。
然而,随着对自治代理(Autonomous Agents)理解的深入,这种「为人类审美服务」的工程化设计逐渐显现出其局限性。
OpenAI 的工程师 Ryan Lopopolo 曾提出一个观点:给智能体一本 1000 页的说明书是注定失败的。真正的核心是环境的可读性(Legibility)。
最核心的问题在于,传统的模块化拆分实际上是将 Agent 的认知全貌切割成了离散的碎片。当 Agent 试图通过自省来理解自身逻辑时,支离破碎的上下文不仅加速了 Token 的损耗,更引发了逻辑链断裂。
这一反思促使我转向一种更激进的理念:AI Native as Framework
AI Native as Framework?
早期的 BBot 将 Telegram 接入视为核心模块,这种设计在本质上是给 AI 安装一台呼吸机。框架强行接管了消息的监听与分发,而 AI 仅仅是被动地接收指令并反馈结果。这种架构剥夺了 Agent 主动感知环境的权利。
后面,在观察 Pi mono, Bub, OpenClaw 的设计思路过后,我意识到,一个真正的 AI Native 系统应当是“不可知”的。内核应当是绝对真空的决策中心,它不应感知具体的通信介质。
在这种视角下,Telegram 或 Discord 不再是系统预设的组件,而应当是 Agent 为了达成目标而自主编写、挂载并维护的外部驱动
所以,事实上,我们的内核应该不再持有任何关于 Telegram 或 Discord 的硬编码知识,而是通过一种高度抽象的特征(Trait)系统与外界交互。在这个架构中,数据库不再承载复杂的业务逻辑状态,而是转化为一个无限增长的事件账本(Event Ledger)。基于 Event Source 的逻辑,无论是用户的输入、Agent 的思考过程,还是工具调用的报错,都被视为不可篡改的事实。
而人类在界面上看到的对话列表或系统状态,本质上是针对这些原始事件流计算得出的物化视图(Materialized View)。这种设计让 Agent 能够以最自然的序列化方式审视历史。
但,架构的进化并未止步于此。在追求大道至简的过程中,即使是精心设计的框架接口,有时也会成为 AI 的新枷锁,而 AI Native as Framework 中,真正的 AI Native,应当回归 Unix 哲学的原点,而在 Unix 中,这七个足以构造几乎所有现代系统:
- Byte streams → read/write
- Handles → file descriptors
- Process → fork/exec
- Composition → pipe/dup
- Events → signals
- Memory model → mmap
- Time → clocks
于是,我们是否直接赋予 Agent 最本质的系统工具即可,在这个环境中,没有固定的“启动流程”,只有 Agent 为了管理自己而写下的脚本.
思考:任务连续性的解决
这种转变似乎可能可以解决了一个长久以来的痛点:进程重启的任务连续性。
在传统的 Session 模式中,Agent 的生命周期随连接断开而终结。而通过引入系统级的原语(如 Cronjob 和持久化的任务记录),Agent 学会在执行自杀式更新之前留下遗言。当系统因心跳机制或 Cron 任务再次唤醒 Agent 时,它能通过读取文件系统中的 Checkpoint 瞬间恢复意识。这种“自主呼吸”的能力,似乎能让 Agent 能够在你睡觉时持续工作,在无人值守的情况下推进复杂的长期目标。而这,其实就是 OpenClaw 当中的 HEARTBEAT.md
思考:父子关系
我后面想到了一个极其有趣的隐喻:父子关系。
传统的Agent协作是横向的“同事关系”,靠复杂的编排器硬连线。而我觉得纵向的教导关系才是我想追求的。
- Root Agent像一个不断成长的个体。它刚启动时是婴儿,通过 bash 巡视环境,写下 MY_WORLD.md 来完成自我启蒙
- 当它面对一个无法独立完成的挑战时(比如深度研究某个极其复杂的协议),它不会硬扛,而是会“分身”。
- 这种分身不是简单的 API 调用,而是一个父权行为:Root Agent 会新建一个文件夹,为这个具体的子任务定制一份特化的 AGENTS.md,然后启动一个新的进程
如果这个“儿子”表现不好,作为“父亲”的 Root Agent 有权利也有义务使用 edit 工具去修改那个文件夹里的 AGENTS.md,直到子智能体通过内部的 Critic(审查员) 测试。这种通过修改物理文件实现的能力进化,才是真正的永续。
我在思考,如果,不再教 AI 如何使用我们造好的工具,而是提供一个空白的 Linux 沙箱和一份 MISSION.md,让它自己去造工具,去修改自己,去适应不断变化的环境。而此时,Agent 已经超越了工具的范畴,它成为了一个寄生在计算环境中的、具有自我迭代能力的数字秘书。
它如影随形,是因为它本身就是这个操作系统的逻辑延伸;它无处不在,是因为它已经学会了如何为自己制造新的化身。这种基于第一性原理的极简主义,正是通往真正自治智能的终极蓝图。