Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
本地小语言模型
OpenClaw+苹果神经引擎实时微调参数,10秒进化1000次!
通过Apple Neural Engine在设备端执行实时Fine-Tuning,OpenClaw实现会进化、会记忆的智能体架构,本文完整拆解原理、流程与实验细节。 这套玩法,它的本质特别简单粗暴,就一句话——让AI在跟你扯淡的过程中自己偷偷改参数,把你刚
阿里千问Qwen3.5强悍代码能力背后的团队八卦与技术真相
HN围绕Qwen3.5的实测表现与争议,从Agentic Coding循环、MoE架构到temperature调优,再延展到中美AI生态与人才流动,梳理事实与因果脉络。 Qwen3.5-35B-A3B 这款模型就像是一个班里新来的插班生,平时只有
开源本地模型Qwen3-Coder-Next首次逼近 Claude Sonnet 4.5性能
Qwen3-Coder-Next 是阿里巴巴通义千问团队发布的 800 亿参数 MoE 代码模型,每次推理仅激活 30 亿参数,原生支持 25.6 万 token 上下文(可扩展至 100 万 token),在 SWE-Bench Pro 等基准测试中表现接近 Claude Sonnet 4.5 等
本地OpenClaw让你彻底摆脱云服务订阅
OpenClaw通过模型无关的智能体框架加本地推理引擎,彻底颠覆SaaS模式的AI服务。本文手把手教你用Mac M3或DGX Spark搭建完全离线的智能体指挥中心,跑MiniMax M2.5和GLM-5,零API成本,绝对数据隐私。 咱们每个月给那些Sa
苹果M5 Pro Max融合架构深度解析:本地AI推理性能暴涨4倍
M5 Pro 和 M5 Max 是苹果公司为 MacBook Pro 推出的全新超强“大脑”。 苹果公司将两颗先进的芯片(3nm工艺)合并成一颗,从而制造出了这种芯片:这就是融合架构。 简而言之:
超越DeepSeek中国开源超大模型Kimi K2发布
K2 甚至比 DeepSeek v3 更强大,可以与 Claude Opus 4 和 GPT-4.1 相媲美! Kimi K2是一个最先进的混合专家(MOE)语言模型,拥有320亿个激活参数和1万亿个总参数。经过Muon优化器的训练,Kimi K2
Osmosis-Apply-1.7B:Qwen+Cursor开源编程工具
使用RL可以很容易地微调小型模型,使其在垂直任务上优于基础模型。我们正在开源Osmosis-Apply-1.7B:一个比基础模型更好地合并代码的小模型(类似于Cursor的即时应用)。 Osmosis-Apply-1.7B就像个"代码拼图高手",它
谷歌本地运行小模型Gemma 3n正式版发布
首个 Gemma 模型于去年年初发布,自此发展成为一个蓬勃发展的Gemma 生态系统,累计下载量超过 1.6 亿次。这个生态系统涵盖了我们十多个专业模型系列,涵盖从安保到医疗应用等各个领域,最令人鼓舞的是来自社区的无数创新。从像Roboflow这样构建企业计算机视觉的创新者,到东京科学研究所
重磅!LM Studio全面免费,工作生活无缝切换
从今天起,LM Studio 在家和工作中均可免费使用。查看更新后的条款了解详情。我们的隐私政策保持不变,您可以
本地运行DeepSeek-R1-0528指南
现在可以在本地设备上运行 DeepSeek-R1-0528!(至少 20GB RAM)大家好!2天前,DeepSeek对他们的R1模型进行了巨大的更新,使其性能与OpenAI的o3,o 4-mini-high和Google的Gemini 2.5 Pro相当。
AI部署:本地小试Ollama,企业狂飙vLLM
AI工具选得好,下班回家早!现在连隔壁小学生都在玩AI了,企业们更是卷成麻花抢着上线AI功能。这时候选个趁手的"AI发动机"就像选游戏本——是挑个轻便的上网本随便玩玩?还是搞个顶配电竞本横扫全场?今天咱就掰扯掰扯两大神器:Ollama和vLLM!
SpringAI+Docker Model Runner实现本地运行LLM
Docker Model Runner 提供了一种开发者友好、注重隐私且经济高效的本地运行 LLM 解决方案,尤其适合在 Docker 生态系统中构建 GenAI 应用程序的用户。在本文中,我们探讨了 Docker Model Runner 的功能,并演示了它与 Spring AI 的集成。
企业定制AI:18步搞定本地模型微调实战
手把手教你玩转AI模型微调!零基础也能秒懂 什么是微调?(给模型开小灶)想象GPT-4是个全能学霸,但OpenAI给它开了"家教课"专门练对话,这才有了我们现在用的ChatGPT!就像: 你
新本地小模型Phi-4-mini-flash-reasoning发布
Phi-4-mini-flash-reasoning 是一个基于合成数据的轻量级开放模型,专注于高质量、推理密集的数据,并进一步优化以实现更高级的数学推理能力。该模型属于 Phi-4 模型系列,支持 64K 的 token 上下文长度。 Phi-4
Kimi K2云端碾压本地模型:速度×价格双杀
考虑到像K2这样强大的模型可以在托管平台上廉价地获得,并且具有很高的推理速度,您是否后悔为LLM投资硬件? 现在网上租的AI模型又猛又便宜,速度还快得像闪电侠!你砸钱买高端电脑跑本地AI,肠子悔青没? 我
Meta计划放弃Llama 4 专注于构建闭源模型
Meta最近闹了个超级尴尬的大新闻——他们原本打算今年放出来的“AI巨无霸”Llama 4 Behemoth(官方吹上天的2万亿参数巨兽),可能要被直接扔进垃圾桶了! 据《纽约时报》爆料,Meta可能要把压箱底的Llama 4"巨兽"AI模型给雪藏
Mistral AI发布Devstral Small 1.1本地开源模型
今天,我们推出 Devstral Medium 模型,以及 Devstral Small 的升级版。这些模型由 Mistral AI 和All Hands AI合作发布
AI从训练卷到推理秀,现在玩的是速度与激情!
【AI技术进化史:从训练卷到推理秀,现在玩的是速度与激情!】 (一)训练时代:AI的"高考备战期"以前大家聊AI就像讨论高考——天天比谁家模型刷题(训练)更狠!90年代到2010年代,LeCun、Krizh
下页
关闭