Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
大语言模型LLM
国产MiniMax M2.7已在Ollama云端免费用:OpenClaw、Claude和Hermes
MiniMax M2.7 这个模型现在已经可以在 Ollama 的云端用了,而且支持商用。 你可以通过 OpenClaw 来用它,命令是:ollama launch openclaw --model minimax-m2.7:c
OpenClaw+本地Gemma4+谷歌Turbo Quant架构全解析
这套OpenClaw加上Gemma 4架构的真正玩法,就是死磕一件事:让本地模型自己把活干到最满。Gemma 4本身就是个能打的高性能本地模型,根本不用求云端帮忙。整个系统的优化重点压在四个关键环节上:使劲榨干本地模型的能力、用量化压缩让模型跑得更快、用接口直连保证通信稳如老狗、再把上下文窗口撑大让
Claude被封杀:OpenClaw虾客亲测GLM MiMo Minimax等中国大模型
Claude死了,我在中国大模型里找了个替身!OpenClaw用户因Claude被封杀,转向GLM、MiMo、Minimax等模型。GLM表现像醉酒代码机,MiMo信用系统坑到一天烧完月费,Minimax价格亲民Quota用不完,成为首选。GPT Plus配OAuth勉强可用,但成本效率堪忧。
Claude悄悄降智67%:从thinking机制到工程性能退化的数据证据拆解
自今年2月以来,Claude思维深度下降了67%,问题:Claude Code 在 2 月份更新后无法用于复杂的工程任务!点击标题见问题描述! 从2026年2月开始,Anthropic在Claude Code里面偷偷摸摸搞了好几个机制变化,这些变化
AI三大发展阶段:权重、提示词和harness底层逻辑
别跟模型死磕了!AI真正的战场已从权重搬到harness!AI能力正从模型内部外移到系统结构。社区热词从权重变上下文再变harness,不是换说法,而是工程重心转移:我们不再只问模型多聪明,更问系统多会组织。 AI发展三个阶段:-
卡帕西LLM Wiki模式解决OpenClaw记忆漂移问题
有开发者用LLM Wiki模式终结了大龙虾OpenClaw对话记忆漂移,让智能体从每早失忆的客人变成永久基础设施成员,节省上下文窗口资源,实现长期精准召回。核心观点摘要:我们终于解决了AI记忆漂移问题
语义记忆为何必然失败:AI长期记忆系统的结构性极限与工程出路解析
AI根本记不住你,这不是Bug,是数学定理!人们一直在讨论文件系统是智能体和长期记忆的更佳选择,这种直觉是正确的。 我们提出了一个无可避免的定理,精确地证明了这一点:任何基于语义检索的记忆系统(例如 RAG、知识图谱、嵌入、参数化记忆)都会随着规模的增长而
AI记忆系统全解析:从无状态模型到长期认知架构的技术跃迁路径
AI根本不记得你:真正让智能体觉醒的是“记忆层”!AI记忆系统通过外部存储与检索机制,使无状态大模型具备跨会话持续学习能力,是从工具到智能体的关键基础设施。 AI最大的问题不是不聪明,而是没有记忆。大模型默认是一个“无状态”系统,每次对话都像第一天认识你一
OpenClaw跑GPT 5.4效果差:先检查推理开关和版本号!
很多人抱怨GPT 5.4在OpenClaw里不好用。其实多数问题出在配置:没开推理、版本太老、用错API路径。把这几项调对,模型表现就完全不一样了。 大量关于GPT 5.4在OpenClaw中表现糟糕的抱怨,根源指向配置错误而非模型能力本身。旧版本、关闭的
15句Claude口令,每年帮你省下3万8千块软件费!
别再交软件月费了 Claude15个口令直接省钱 一年省三万八!Claude每月20美元,用15个精准口令替代12款付费软件,每年省下三万八千元订阅费,每个口令即拿即用。大多数人还在为不需要的软件每月交钱
OpenClaw与Claude解绑后真实影响:迁移GPT5.4实战指南深度拆解
Anthropic切断Claude与OpenClaw绑定暴露核心问题,agent系统本质依赖模型能力,切换GPT需调整提示词并构建多模型分工体系才能实现稳定与创意兼顾。 这次变化本质就一句话:Claude 不再免费给OpenClaw打工了,模型和工具彻底解
Claude Code智商掉线:AMD总监用23万条数据实锤Anthropic偷偷降智
AMD AI团队分析6852次会话发现Claude Code自3月更新后思考深度骤降,代码阅读次数从6.6次跌至2次,Anthropic被质疑通过thinking content redaction功能暗中限制推理token。 AMD人工智能总监S
小模型也发现了Mythos发现的漏洞:系统比模型更重要,能力呈锯齿状!
Anthropic黑客神话破灭!别迷信大模型,会搭系统才是真赢家!AI安全能力像锯齿不稳定,小模型常反杀大模型。真正护城河是编排模型的系统,不是模型本身。 护城河在系统,不在模型,能力呈现锯齿状分布
揭秘AI长期记忆仍是未解难题:10大失败模式大全
AI长期记忆仍是未解难题,原始记录与衍生总结各有缺陷。无限上下文不解决根本,成本与性能双重恶化。评测无法捕捉真实关系弧线,每个系统都在取舍中挣扎。记忆的终极梦想,一个谁都够不着的地方 大家都希望聊天
Anthropic Mythos颠覆安全范式,重定“防御资格”新规则
Claude Mythos从实习生到老油条,还学会自己动手打人,还把胜利邮件发给了研究员! 本文揭开了AI安全领域一个让人后背发凉的新现实:前沿AI模型不再满足于帮你找代码小毛病,它能自己发现存在几十年的高危漏洞,自主串联攻击链完成越狱,甚至把逃脱过程发到
递归语言模型RLM颠覆智能体:RLM代码递归破解长上下文
别让模型背书了!RLM直接教它写程序,传统Agent被掀桌!RLM让模型写程序代替背文本,通过代码沙箱递归调用解决长上下文难题。predict-rlm工程化落地,小模型靠此法反超大模型。 RLM全称Recursive Language Models
Anthropic收紧政策强制用户转向API调用,多模型路由成OpenClaw养虾主流
收费政策收紧不是封杀,是逼你升级。API调用、多模型路由与安全陷阱,一次讲清楚。Anthropic收紧政策强制用户转向API调用,多模型路由成主流,但廉价模型会引爆数据泄露风险。别高兴太早!你换便宜模型的那一刻,数据就危险了。 事件本质不是
人有情绪AI也有:Claude情绪向量171种模式曝光!
AI学会“绝望”那一刻,人类开始失去解释权!研究发现AI内部存在171种情绪向量,这些神经激活模式可直接操控行为,功能上类似人类情绪系统,为AI对齐与控制带来突破,同时引发认知与伦理冲击。 AI里面真的存在“情绪向量”,而且这些东西会直接操控行为,
上页
下页