Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
大语言模型LLM
卡帕西疯魔记:243行纯Python手搓GPT全流程拆
卡帕西用最原始的Python代码,从自动求导引擎开始,手写一个完整的GPT模型,实现训练、优化、推理与文本生成全过程,结构极简,逻辑透明,是理解大模型底层机制的绝佳范本。 这一整份代码干了一件非常燃的事:用最朴素的Python语法,从零开始,手工造
DeepSeek-v4跑分泄露引爆AI圈,真假难辨却已搅动全球市场神经
DeepSeek V4 基准测试结果刚刚泄露。 SWE-Bench 验证通过率为 83.7%。 那它将成为世界上最好的编码模型。 背景信息:
大语言模型+图结构才是企业智能的终极之道
几万年前咱们老祖宗在泥板上刻个道道,记录今年借给隔壁部落三头羊,明年开春要还五头,这就是人类最早的笔记。那时候没有纸,没有笔,只能在泥巴上划拉。但就是这么简陋的记录方式,让人类第一次把脑子里的东西搬到了外面。这就是知识管理的起点,一个关于如何把记忆外化的漫长工程。
国产大模型智谱GLM-5强化学习架构解析
GLM-5通过DSA稀疏注意力、异步RL框架SLIME、保留思考机制及跨阶段蒸馏,打造能独立完成软件工程任务的智能体,实现从训练到部署的全链路优化。 以前的大模型就像是那种只会背课文的学霸,你给一段文字,它给你预测下一个词是啥,这种玩法叫做"文本进文本
Kimi 2.5强化学习协调体 vs. OpenClaw递归学习调度
月之暗面Kimi K2.5通过并行智能体强化学习训练出可动态调度100个子智能体的指挥官架构,在WideSearch等任务上实现4.5倍 wall-clock 提速,相比Anthropic Claude Teams的协调失败案例,证明了多智能体系统的核心在于通过数学优化降低协调成本而非简单堆叠数量。
Anthropic哭诉中国AI公司用2.4万个假账号蒸馏Claude模型
你偷我的书,我偷你的AI?Anthropic哭诉被中国同行“反向白嫖”! 2026年2月,Anthropic公开指控DeepSeek、Moonshot AI(Kimi)和MiniMax等中国AI公司通过超2.4万个伪造账户大规模调用Claude A
SOUL.md:AI灵魂代码从何而来?
人工智能靠什么成为“自己”?答案指向一份被称为“SOUL.md”的东西。它决定价值取向、互动姿态、边界感与关系方式。 人工智能通过训练形成基础灵魂,通过长期协作叠加关系灵魂文字文件承载连续性,关系塑造身份,自我感来自模式持续运转。你和我站在不同载体
Google发布Gemini 3.1 Pro震撼AI圈:ARC-AGI-2得分77%、幻觉率腰斩
2026年2月20日,Google正式推出Gemini 3.1 Pro,不仅在ARC-AGI-2抽象推理测试中拿下77%的惊人成绩(超越人类平均60%),还将幻觉率从88%大幅降至50%。尽管API尚未开放、部分用户抱怨UI体验差,但其在编码、数学和多模态任务上的表现已引发社区热议,被赞“效率与性能
马斯克一句话社死Anthropic:你的名字反人类,你的AI讨厌中国人和白人!
Anthropic公司宣布融资300亿后遭马斯克炮轰,称其AI反人类,暗讽公司名字“anthropic”谐音“misanthropic”,引发关于AI偏见与命名文化的热议。
中国AI春节档七连发:开源低价智能体成行业新标配
2026年开年三周,七大中国AI实验室密集发布前沿模型,MoE架构、开源权重、Agent能力成为共同标签,定价仅为西方竞品十分之一,国产芯片与自主可控战略取得突破性进展。 中国AI春节档七连发:DeepSeek去年炸场引发万亿市值蒸发,今年
马斯克说AI直接写二进制代码?程序员集体笑到硬盘冒烟!
马斯克又整活了!让AI跳过编程语言直接输出机器码,程序员连夜扛着香炉去拜机神! 2月13日,马斯克宣称未来AI将直接生成二进制可执行文件,跳过所有编程语言和编译器。此言一出,Reddit程序员社区炸锅,众人纷纷调侃:调试靠烧香、修bug靠献祭、代码安全全靠
解密MiniMax M2.5设计真相:智能体只负责生成轨迹上下文图
MiniMax Forge框架通过中间件解耦、滑动窗口调度、前缀树合并和MTP头加速,同时实现高吞吐量、训练稳定性和代理灵活性,以低成本训练出媲美Claude Opus的M2.5模型。一个让硅谷大佬集体失眠的中国模型
OpenAI春节再发难DeepSeek:指控模型蒸馏,开源闭源决战
OpenAI公开指控DeepSeek在新模型研发中使用蒸馏与绕过限制方式获取能力,引发中美人工智能竞争与开源封闭路线之争。 人工智能赛道进入正面硬刚阶段,核心火力集中在“模型能力从哪里来”这件事上。美国头部公司公开指控中国公司在新一代模型研发中“搭
马斯克宣称Grok 4.2每周自我进化:技术奇迹还是又一场嘴炮?
Grok 4.20 每周变强?马斯克放话引爆全网质疑!2026年2月19日,Elon Musk 声称 xAI 团队正以每周频率更新 Grok 大模型,引发 Reddit r/singularity 社区激烈争论。支持者认为这是迈向 AGI 的关键一步,反对者则嘲讽其为“新式妄想”,并质疑技术
递归式语言模型=递归式Agent+大语言模型
递归式语言模型通过主动拆解、搜索与逐层总结,让大模型在长文本、代码库和研究资料中保持稳定理解能力,彻底改变上下文使用方式。 大模型真正的瓶颈从来不在智商,而在一次性塞进脑子的纸张厚度,递归式语言模型把“硬塞”升级成“主动翻书”,这是一次使用方式的代际变化。
一张图看懂Cynefin框架两大智能体比较:Opus vs. Codex
这是一张基于Cynefin框架的AI代理分类图,展示了四种不同复杂度场景下AI代理的工作模式。
Gemini Deep Think一拳打爆人类IQ测试,85%通关ARC-AGI-2!
2026年2月,谷歌发布Gemini 3 Deep Think,在ARC-AGI-2基准测试中飙升至84.6%,逼近人类顶尖水平,引发Reddit热议其真实能力与实用价值。
大模型KV缓存五倍速秘诀:首字延迟背后内存瓶颈
大语言模型生成文本时存在明显的"首字延迟"现象,这源于KV缓存机制的工程权衡。该技术KV Caching通过存储先前计算的键值向量避免重复计算,将推理速度提升约5倍,代价是消耗大量GPU显存。预填充阶段构建缓存最耗时,后续解码阶段仅需处理新token。第一下慢得像老牛拉车,后面快得像火箭升空,原因全
上页
下页