• 传统观点:学术界提供理论基础,业界推动应用落地 是,但是实际上正好反过来,业界其实创新在前,学术界才确认理论。 最近,麻省理工学院、康奈尔大学、华盛顿大学和微软研究院的学术人员开发了一个叫“通过自我对弈进行强化学习”(简称RLSP)的系统。这个系统可以教那
  • 基于DeepSeek两篇新论文发现:发现推理时间太长也不一定能提高准确性,然后,只要蒸馏基础知识好,少量数据就能快速完成推理,少即是多。 1、 icon
  • 伯克利团队以 4,500 美元重现 DeepSeek 的成功:1.5B模型超越 o1-preview! RL强化学习 icon
  • DeepSeek R1 671 B 刚刚以 198 tokens/秒的速度打破了推理速度记录,成为了目前最快的推理模型! 哇!DeepSeek-R1 671 B 真的超级厉害!它在 SambaNova Cloud 上跑出了 198 tokens/秒 icon
  • KTransformers推出基于英特尔芯片的DeepSeek-R1/V3,性能飙升28倍! 大家好,我们是 KTransformers 团队(以前因为做了一个叫 DeepSeek-V2 的本地 CPU/GPU 混合推理开源项目而挺有名的)。 icon
  • 中国消费级 GPU 制造商现已开始支持在本地系统上运行 DeepSeek 的 R1 LLM 模型,加入全球 AI 竞赛。 你的下一个家庭AI实验室可能有 48GB 的​​中国卡。 icon
  • DeepSeek极端榨取硬件性能,看起来不同寻常!推理和训练之间最大的区别之一是通信需求。 1、对于推理:芯片之间不需要太多通信。你可以把它想象成普通的 icon
  • 英伟达新博客文章:LLM生成的GPU内核显示了FlexAttention的加速。前有DeepSeek极端榨取英伟达GPU硬件性能被曝光,英伟达反其道,用DeepSee icon
  • 蒸馏法最近上了新闻(!)是因为@deepseek_ai。其实蒸馏最初那篇论文《蒸馏神经网络中的知识》在2014年被NeurIPS拒了,理由是没啥新意(确实有 icon
  • 本文介绍三种方法将Github开源项目交给大模型帮助你分析,阅读代码! 1、将Github网址中的“github”替换为“gitingest”这是一个与LLM讨论整个 icon
  • R1这个人工智能系统坚持保持它自己的特点,不会假装成人类。 它有一些设计是为了让用户感到惊讶,而且它拒绝被当作人类来看待,强调自己与人类的不同。 它像是一个静止的幽灵,语言上有点自我循环绕圈子的感觉。其实很多人类 icon
  • 都在谈论DeepSeek-R1 icon
  • DeepSeek R1 的发布意味着 AI 的普及是必然的,因为它让人们能轻松创建新的推理数据集,并用这些数据训练强大的 AI 模型。现在,Prime Intellect 这家公司通过发布 SYNTHETIC-1 证明了这一点。这个数据集包含了 140 万个带有“思维链”的推理样本,都是由 icon
  • Cerebras芯片给 Mistral 的 Le Chat 带来了超快的推理功能。前几天,Mistral对他们的 Le Chat 网页界面(就是他们的 Cha icon
  • 测试时间扩展(TTS)是一种通过在推理阶段增加一些额外的计算来提高大型语言模型(LLM)性能的重要方法。不过,目前的研究还没有系统地分析策略模型、过程奖励模型(PRM icon
  • AI智能三个发展规律:资源驱动、成本骤降、经济价值飙升。 OpenAI山姆奥特曼最近认为:工智能的规模定律将保持不变,“没有理由在不久的将来停止指数级增加投资”! 1. AI智能与资源的关 icon