Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
符号推理与形式逻辑
深度揭秘AutoResearchClaw:从暴力试错到自我进化的疯狂科学家
AutoResearchClaw = 把“科研流程”变成一个可以自动循环的智能体系统,让AI持续提出假设 → 做实验 → 评估结果 → 自我进化。 AutoResearchClaw = AutoResearch + OpenClaw
OpenClaw持久化记忆完全指南:省下每年200小时重复解释时间
OpenClaw持久化记忆系统记住你的项目结构、技术栈和代码风格,告别重复解释,每年节省150-200小时开发时间,让AI像合作三年的老搭档一样懂你。 OpenClaw有个"持久化记忆"系统,这名字听起来很技术,其实就是"记性好"。你第一天告诉它你用Nex
大脑预测机制与学习捷径:用生物学解释真正掌握技能的底层原理
为什么有人三年成高手,有人学十年还像新手:大脑预测机制揭开技能成长的真正捷径 人类学习技能的核心机制来自大脑预测模型的不断更新。真正的能力来自不断在真实问题中迭代形成“认知模式”,而非简单积累知识。理解这一机制,才能解释专家与新手之间的巨大差距。
OpenClaw大脑:一套模块化认知架构MiniClaw-OS
MiniClaw-OS是一款OpenClaw的模块化认知架构。它包含用于规划、记忆、沟通和创造的大脑区域插件,可在Mac上运行。 它就像 Open Claw的大脑(确切地说是前额叶皮层),可以通过可视化界面(Kankan Board)看到它的计划、
Hermes智能体记忆系统架构深度解析与设计哲学
Hermes通过分层记忆架构,将提示词稳定性与检索能力拆分,实现高效低成本的智能体长期记忆机制,并通过技能与用户建模进一步提升连续性与实用性。 别再傻乎乎让智能体背课文了!Hermes用四层记忆结构告诉你,什么叫“该记的记,不该记的滚”,顺便把成本和速度
幽默:改变世界的三个神秘方程 最后一个NB
三个数学方程公式揭示从宇宙能量到AI大脑的终极奥秘,最牛逼的是把上下文注意力计算公式与爱因斯坦相对论并列!
别被骗了!大语言模型只是人类语言的编译器
该文认为大模型应该理解语义,不能只玩语法游戏,其实语法也是一种形式抽象! 原文:大型语言模型 (LLM),例如 GPT-4 及其后续版本,并不理解语言。它们不推理,不拥有信念,也不执行逻辑。 然而
智能体蜂群ScienceClaw实现24小时无人值守,自动发现科学突破!
MIT发布ScienceClaw × Infinite开源平台,让300+AI智能体像爵士乐团即兴协作,自主完成从假设提出到论文撰写的全流程科研,已成功应用于抗癌肽设计、轻质陶瓷发现等四大领域,开创去中心化科学发现新范式。 MIT搞出了一个叫Sci
开源GrepAI通过本地嵌入与调用图分析在Claude Code比grep节省97%Token
GrepAI 通过本地嵌入与调用图分析,将大模型代码探索从盲目遍历转为语义精准检索,实测节省 97% 输入 token,成本降 27.5%,彻底告别子代理泛滥。 Claude 在大代码仓库中因目录遍历与逐文件阅读造成 token 暴涨。通过本地语义
AI重塑编程:Rust称王,单体回归,验证成刚需!
LLM 使代码重写成本趋零,颠覆依赖链、弱化林迪效应、推升高严谨语言、重构开源生态,形式化验证成刚需,软件文明迎来全面重写时代。 软件供应链收缩:当重写成本接近零,依赖树开始松动
杨立昆豪赌十亿美元:世界模型能否打破大语言模型的天花板?
Meta前首席AI科学家杨立昆(Yann LeCun)创立新公司AMI,融资超10亿美元打造能理解物理世界的AI世界模型,剑指OpenAI、Anthropic等LLM巨头,押注人类级智能需要超越语言模型的全新架构。 杨立昆曾经是一家市值万亿的科技巨
回归基础知识:数据库就是讲故事
关系数据库并非表格堆叠,而是以谓词逻辑为核心的结构化叙事系统。能否用一句话讲清数据事实,决定系统是否可靠,AI无法替代这种基础认知。 数据库设计就是讲故事:别让AI替你写烂剧本
AutoContext:智能体递归自进化的开源系统
AutoContext是一套让AI智能体持续进化的系统。智能体完成任务后自动复盘经验、优化提示词与策略,并生成更强的下一代智能体。这个循环形成递归自我改进,使AI系统在多轮任务中不断升级能力。 核心思想:让多个智能体反复执行同一任务。多智能体团队
三大子智能体委托模式:让智能体团队真正干活的架构秘诀
真正落地的智能体系统都会形成三种子智能体协作模式:同步执行、异步执行、定时执行。这三种模式通过上下文压缩、并行任务处理与后台委托机制,让父智能体始终保持轻量状态,同时可以持续处理复杂任务与长期对话。系统通过统一函数与事件驱动架构实现三种模式,避免复杂编排逻辑,同时保持高度扩展性与工程稳定性。
递归模型的符号递归是Claude Code等智能体锁不具备的关键能力
递归模型RLM通过在REPL(Python)中实现符号递归,使模型能动态生成含子调用的程序逻辑,相比静态工具调用的普通代理,具备更强表达力与任务适应性。 大型语言模型正在悄悄进化出一种新能力——它不再只是被动回答问题,而是能像程序员一样,在自己的“思维
AI大模型记忆本质不是确定性的存储,而是不确定的预测推理
文章提出AI记忆应是基于推理的预测系统而非静态存储,借鉴人脑预测机制,利用LLM逻辑推理能力构建动态身份模型,Honcho平台实现这一范式转变,让AI真正理解用户而非死记数据。 一个超级反直觉的概念:AI的记忆根本不是存东西,而是预测!传统做法把记
AI推翻自己才能构建真正具备发现能力的智能体科学体系
真正的科学发现,从来不是在旧世界里慢慢加细节,而是直接把旧世界掀翻一角,再亲手把新世界搭出来。只靠统计学习、概率拟合、把过去所有资料喂给模型,得到的永远是“看起来很合理”的答案,却碰不到那些真正改变世界的异常点。 发现本身就意味着数据断层、理论断裂、规则重
大语言模型就是世界模型:新奥塞洛实验已证明
你们有没有玩过一种叫做奥赛罗(Othello)的棋类游戏?就是那种黑白棋,翻来翻去把对方的棋子变成自己的颜色,最后看谁的棋子多。 现在,哥本哈根大学的科学家们,就像一群好奇宝宝,正在重新研究一个酷炫的假设,叫做
上页
下页