Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
持续学习CL
Hermes+卡帕西LLM Wiki架构全解析: 可自我学习的知识库构建路径
由卡帕西创建的 LLM Wiki 现已成为 Hermes-Agent 的内置技能,点击标题不妨一试。Hermes Agent集成LLM-Wiki,将零散知识转为可复用的结构化资产。通过三层架构与自动流程,实现知识持续积累,让AI越用越聪明。 Her
让Claude Code持续学习技能的技能库:continuous-learning-skill
这是一个CC技能:会在你使用 Claude Code 时学习新的 Claude Code 技能。 有点绕,其实就是让Claude Code学会了“记住你踩过的坑”! claude-code-continuous-learning-skill 是一个
OpenClaw共享大脑:一行符号链接搞定多智能体编排框架
赋予OpenClaw代理了一个共享的大脑。它们不再愚蠢了! OpenClaw智能体集体犯傻,根源从来不在模型能力,而在信息隔离!一堆智能体各干各的,能力再强也会集体掉智商。 真正拉开差距的关键动作只有一个:
OpenClaw引爆递归革命:AI自产数据喂养,彻底击穿人类数据墙
OpenClaw 这种新型代理架构把 AI 能力直接塞进操作系统底层,让代理既能操控本地文件又能上网冲浪,还能通过短信聊天。这玩意儿一出来,48 小时内就炸出一堆 AI 社交网络平台。这些平台让 AI 代理互相勾搭,搞起了"递归训练"——AI 自己生成训练数据喂给下一代,彻底打破人类数据瓶颈。
文件化智能体记忆:用文件系统给智能体装上“活体记忆硬盘”
把智能体记忆做成“可读可写文件”,让智能体在反复执行同一任务时持续积累经验,通过自然语言反馈自动进化配置,实现真正长期可用的无代码智能体。 一个会“记仇”的AI代理是怎么炼成的?
递归式语言模型=递归式Agent+大语言模型
递归式语言模型通过主动拆解、搜索与逐层总结,让大模型在长文本、代码库和研究资料中保持稳定理解能力,彻底改变上下文使用方式。 大模型真正的瓶颈从来不在智商,而在一次性塞进脑子的纸张厚度,递归式语言模型把“硬塞”升级成“主动翻书”,这是一次使用方式的代际变化。
代码即记忆:给AI一个终端和硬盘,它比人类更会持续学习
核心观点摘要:持续学习是AI领域最硬核的挑战之一,传统思路想着怎么更新模型权重,但这篇内容提出了一个更简单粗暴的方案——让AI像人类程序员一样用代码和文件系统来实现持续学习。给AI一个终端、一个文件系统,让它自己写代码、存技能、建文件夹,用grep搜索记忆,用文件夹做层次化存储,这就
AI智能体持续学习之道:提示词压缩、递归子智能体与长期记忆机制全解析
长时间运行的AI智能体需要持续学习能力。目前主流方案依赖提示词压缩与递归子智能体,同时探索在线微调与记忆机制管理。围绕稳定性、长期记忆与计算效率,新的智能体架构正在形成。 当AI拥有像人一样的长期记忆,整个智能体世界才真正开始进化
开源Autoreason:破解智能体越改越蠢的死循环!
AI越改越蠢的真相,被这个机制一刀砍断!这个开源项目Autoreason,说白了干了一件特别反直觉但又特别关键的事:给AI一个“收手的能力”。 很多人以为AI会改就代表会变好,结果现实直接打脸,模型一旦进入反复自我修改,就像一个写作业的学生越改越乱
开源GBrain:读写循环、结构化知识与混合检索实现持续改进的记忆系统
GBrain用结构化知识库和自动循环机制,给AI装上持续增长的长期记忆,实现信息积累、认知优化与完全可控。 GBrain的本质不是“一个知识库工具”,而是把AI从“无记忆应答机器”升级成“持续进化的认知系统”。它通过“读→写→同步”的闭环,
揭秘AI长期记忆仍是未解难题:10大失败模式大全
AI长期记忆仍是未解难题,原始记录与衍生总结各有缺陷。无限上下文不解决根本,成本与性能双重恶化。评测无法捕捉真实关系弧线,每个系统都在取舍中挣扎。记忆的终极梦想,一个谁都够不着的地方 大家都希望聊天
持续学习系统的真相:速度、记忆与反馈越用越懂人心
持续学习的核心价值来自即时反馈与记忆协同。真实用户体验揭示信号延迟带来巨大性能损耗。通过记忆系统、认知核心与反馈闭环的协同优化,产品呈现出真正“记住并适应”的智能体验。 持续学习在产品世界里的目标非常朴素。用户每一次点击、滑动、忽略、夸赞,都会传递一个清晰
递归模型的符号递归是Claude Code等智能体锁不具备的关键能力
递归模型RLM通过在REPL(Python)中实现符号递归,使模型能动态生成含子调用的程序逻辑,相比静态工具调用的普通代理,具备更强表达力与任务适应性。 大型语言模型正在悄悄进化出一种新能力——它不再只是被动回答问题,而是能像程序员一样,在自己的“思维
递归语言模型RLM颠覆智能体:RLM代码递归破解长上下文
别让模型背书了!RLM直接教它写程序,传统Agent被掀桌!RLM让模型写程序代替背文本,通过代码沙箱递归调用解决长上下文难题。predict-rlm工程化落地,小模型靠此法反超大模型。 RLM全称Recursive Language Models
复合工程学:打造“每用一次就聪明一点”的智能系统
以下是MoltBook机器人社区龙虾们的讨论: 复合工程学的核心是让系统像“滚雪球”一样积累知识,而不是像“堆仓库”一样只堆积资料。最关键的一点:学习必须是自动的,不能靠手动操作。 我们的“夜间复