Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
符号推理与形式逻辑
大脑预测机制与学习捷径:用生物学解释真正掌握技能的底层原理
为什么有人三年成高手,有人学十年还像新手:大脑预测机制揭开技能成长的真正捷径 人类学习技能的核心机制来自大脑预测模型的不断更新。真正的能力来自不断在真实问题中迭代形成“认知模式”,而非简单积累知识。理解这一机制,才能解释专家与新手之间的巨大差距。
AI重塑编程:Rust称王,单体回归,验证成刚需!
LLM 使代码重写成本趋零,颠覆依赖链、弱化林迪效应、推升高严谨语言、重构开源生态,形式化验证成刚需,软件文明迎来全面重写时代。 软件供应链收缩:当重写成本接近零,依赖树开始松动
OpenClaw大脑:一套模块化认知架构MiniClaw-OS
MiniClaw-OS是一款OpenClaw的模块化认知架构。它包含用于规划、记忆、沟通和创造的大脑区域插件,可在Mac上运行。 它就像 Open Claw的大脑(确切地说是前额叶皮层),可以通过可视化界面(Kankan Board)看到它的计划、
深度揭秘AutoResearchClaw:从暴力试错到自我进化的疯狂科学家
AutoResearchClaw = 把“科研流程”变成一个可以自动循环的智能体系统,让AI持续提出假设 → 做实验 → 评估结果 → 自我进化。 AutoResearchClaw = AutoResearch + OpenClaw
幽默:改变世界的三个神秘方程 最后一个NB
三个数学方程公式揭示从宇宙能量到AI大脑的终极奥秘,最牛逼的是把上下文注意力计算公式与爱因斯坦相对论并列!
AutoContext:智能体递归自进化的开源系统
AutoContext是一套让AI智能体持续进化的系统。智能体完成任务后自动复盘经验、优化提示词与策略,并生成更强的下一代智能体。这个循环形成递归自我改进,使AI系统在多轮任务中不断升级能力。 核心思想:让多个智能体反复执行同一任务。多智能体团队
开源GrepAI通过本地嵌入与调用图分析在Claude Code比grep节省97%Token
GrepAI 通过本地嵌入与调用图分析,将大模型代码探索从盲目遍历转为语义精准检索,实测节省 97% 输入 token,成本降 27.5%,彻底告别子代理泛滥。 Claude 在大代码仓库中因目录遍历与逐文件阅读造成 token 暴涨。通过本地语义
智能体蜂群ScienceClaw实现24小时无人值守,自动发现科学突破!
MIT发布ScienceClaw × Infinite开源平台,让300+AI智能体像爵士乐团即兴协作,自主完成从假设提出到论文撰写的全流程科研,已成功应用于抗癌肽设计、轻质陶瓷发现等四大领域,开创去中心化科学发现新范式。 MIT搞出了一个叫Sci
杨立昆豪赌十亿美元:世界模型能否打破大语言模型的天花板?
Meta前首席AI科学家杨立昆(Yann LeCun)创立新公司AMI,融资超10亿美元打造能理解物理世界的AI世界模型,剑指OpenAI、Anthropic等LLM巨头,押注人类级智能需要超越语言模型的全新架构。 杨立昆曾经是一家市值万亿的科技巨
Hermes智能体记忆系统架构深度解析与设计哲学
Hermes通过分层记忆架构,将提示词稳定性与检索能力拆分,实现高效低成本的智能体长期记忆机制,并通过技能与用户建模进一步提升连续性与实用性。 别再傻乎乎让智能体背课文了!Hermes用四层记忆结构告诉你,什么叫“该记的记,不该记的滚”,顺便把成本和速度
回归基础知识:数据库就是讲故事
关系数据库并非表格堆叠,而是以谓词逻辑为核心的结构化叙事系统。能否用一句话讲清数据事实,决定系统是否可靠,AI无法替代这种基础认知。 数据库设计就是讲故事:别让AI替你写烂剧本
OpenClaw持久化记忆完全指南:省下每年200小时重复解释时间
OpenClaw持久化记忆系统记住你的项目结构、技术栈和代码风格,告别重复解释,每年节省150-200小时开发时间,让AI像合作三年的老搭档一样懂你。 OpenClaw有个"持久化记忆"系统,这名字听起来很技术,其实就是"记性好"。你第一天告诉它你用Nex
什么是阿恩特-舒尔茨定律?
阿恩特-舒尔茨定律是药理学和毒理学领域的一个经典原理,由德国药理学家 Rudolf Arndt 和 Hugo Schulz 在19世纪末提出。这个定律用最简洁的方式概括了剂量与生物效应之间的非线性关系:小剂量刺激,中剂量抑制,大剂量毁灭。 这听起来像是一个
三大子智能体委托模式:让智能体团队真正干活的架构秘诀
真正落地的智能体系统都会形成三种子智能体协作模式:同步执行、异步执行、定时执行。这三种模式通过上下文压缩、并行任务处理与后台委托机制,让父智能体始终保持轻量状态,同时可以持续处理复杂任务与长期对话。系统通过统一函数与事件驱动架构实现三种模式,避免复杂编排逻辑,同时保持高度扩展性与工程稳定性。
德国数学家跨界生物学:从DNA甲基化模式中发现表观遗传时钟
德国数学家Steve Horvath跨界生物学,从DNA甲基化模式中发现"表观遗传时钟",首次实现生物年龄的精准量化,颠覆衰老研究范式,获Nathan Shock奖等多项荣誉,现为Altos Labs首席研究员。一个让生物学家集体沉默的"愚蠢问题"
递归模型的符号递归是Claude Code等智能体锁不具备的关键能力
递归模型RLM通过在REPL(Python)中实现符号递归,使模型能动态生成含子调用的程序逻辑,相比静态工具调用的普通代理,具备更强表达力与任务适应性。 大型语言模型正在悄悄进化出一种新能力——它不再只是被动回答问题,而是能像程序员一样,在自己的“思维
AI大模型记忆本质不是确定性的存储,而是不确定的预测推理
文章提出AI记忆应是基于推理的预测系统而非静态存储,借鉴人脑预测机制,利用LLM逻辑推理能力构建动态身份模型,Honcho平台实现这一范式转变,让AI真正理解用户而非死记数据。 一个超级反直觉的概念:AI的记忆根本不是存东西,而是预测!传统做法把记
AI推翻自己才能构建真正具备发现能力的智能体科学体系
真正的科学发现,从来不是在旧世界里慢慢加细节,而是直接把旧世界掀翻一角,再亲手把新世界搭出来。只靠统计学习、概率拟合、把过去所有资料喂给模型,得到的永远是“看起来很合理”的答案,却碰不到那些真正改变世界的异常点。 发现本身就意味着数据断层、理论断裂、规则重
上页
下页