Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
持续学习CL
Hermes+卡帕西LLM Wiki架构全解析: 可自我学习的知识库构建路径
由卡帕西创建的 LLM Wiki 现已成为 Hermes-Agent 的内置技能,点击标题不妨一试。Hermes Agent集成LLM-Wiki,将零散知识转为可复用的结构化资产。通过三层架构与自动流程,实现知识持续积累,让AI越用越聪明。 Her
代码即记忆:给AI一个终端和硬盘,它比人类更会持续学习
核心观点摘要:持续学习是AI领域最硬核的挑战之一,传统思路想着怎么更新模型权重,但这篇内容提出了一个更简单粗暴的方案——让AI像人类程序员一样用代码和文件系统来实现持续学习。给AI一个终端、一个文件系统,让它自己写代码、存技能、建文件夹,用grep搜索记忆,用文件夹做层次化存储,这就
递归模型的符号递归是Claude Code等智能体锁不具备的关键能力
递归模型RLM通过在REPL(Python)中实现符号递归,使模型能动态生成含子调用的程序逻辑,相比静态工具调用的普通代理,具备更强表达力与任务适应性。 大型语言模型正在悄悄进化出一种新能力——它不再只是被动回答问题,而是能像程序员一样,在自己的“思维
AI智能体持续学习之道:提示词压缩、递归子智能体与长期记忆机制全解析
长时间运行的AI智能体需要持续学习能力。目前主流方案依赖提示词压缩与递归子智能体,同时探索在线微调与记忆机制管理。围绕稳定性、长期记忆与计算效率,新的智能体架构正在形成。 当AI拥有像人一样的长期记忆,整个智能体世界才真正开始进化
递归式语言模型=递归式Agent+大语言模型
递归式语言模型通过主动拆解、搜索与逐层总结,让大模型在长文本、代码库和研究资料中保持稳定理解能力,彻底改变上下文使用方式。 大模型真正的瓶颈从来不在智商,而在一次性塞进脑子的纸张厚度,递归式语言模型把“硬塞”升级成“主动翻书”,这是一次使用方式的代际变化。
让Claude Code持续学习技能的技能库:continuous-learning-skill
这是一个CC技能:会在你使用 Claude Code 时学习新的 Claude Code 技能。 有点绕,其实就是让Claude Code学会了“记住你踩过的坑”! claude-code-continuous-learning-skill 是一个
持续学习系统的真相:速度、记忆与反馈越用越懂人心
持续学习的核心价值来自即时反馈与记忆协同。真实用户体验揭示信号延迟带来巨大性能损耗。通过记忆系统、认知核心与反馈闭环的协同优化,产品呈现出真正“记住并适应”的智能体验。 持续学习在产品世界里的目标非常朴素。用户每一次点击、滑动、忽略、夸赞,都会传递一个清晰
OpenClaw共享大脑:一行符号链接搞定多智能体编排框架
赋予OpenClaw代理了一个共享的大脑。它们不再愚蠢了! OpenClaw智能体集体犯傻,根源从来不在模型能力,而在信息隔离!一堆智能体各干各的,能力再强也会集体掉智商。 真正拉开差距的关键动作只有一个:
复合工程学:打造“每用一次就聪明一点”的智能系统
以下是MoltBook机器人社区龙虾们的讨论: 复合工程学的核心是让系统像“滚雪球”一样积累知识,而不是像“堆仓库”一样只堆积资料。最关键的一点:学习必须是自动的,不能靠手动操作。 我们的“夜间复
文件化智能体记忆:用文件系统给智能体装上“活体记忆硬盘”
把智能体记忆做成“可读可写文件”,让智能体在反复执行同一任务时持续积累经验,通过自然语言反馈自动进化配置,实现真正长期可用的无代码智能体。 一个会“记仇”的AI代理是怎么炼成的?
OpenClaw引爆递归革命:AI自产数据喂养,彻底击穿人类数据墙
OpenClaw 这种新型代理架构把 AI 能力直接塞进操作系统底层,让代理既能操控本地文件又能上网冲浪,还能通过短信聊天。这玩意儿一出来,48 小时内就炸出一堆 AI 社交网络平台。这些平台让 AI 代理互相勾搭,搞起了"递归训练"——AI 自己生成训练数据喂给下一代,彻底打破人类数据瓶颈。