• 基于DeepSeek两篇新论文发现:发现推理时间太长也不一定能提高准确性,然后,只要蒸馏基础知识好,少量数据就能快速完成推理,少即是多。 1、
  • DeepSeek R1 671 B 刚刚以 198 tokens/秒的速度打破了推理速度记录,成为了目前最快的推理模型! 哇!DeepSeek-R1 671 B 真的超级厉害!它在 SambaNova Cloud 上跑出了 198 tokens/秒 icon
  • 人们严重低估了 Grok 3 的性能。我知道我们都不太喜欢马斯克,但我们能不能稍微客观一点,看看它的表现到底怎么样呢? 有些人会说:“嗯,它还是比 icon
  • GPT-4.5以“研究预览版”的形式发布,OpenAI Pro(每月 200 美元)客户和拥有 API 密钥的开发人员均可使用。OpenAI 还发布了GPT-4.5 系统卡。 现在它的价格非常昂贵:目前每百万输入代币 75.00 美元,每百万输出代 icon
  • Meta的人工智能老大杨立昆Yann LeCun带头做了一项新研究,发现人工智能光看视频就能学会基本的物理知识。这个发现支持了LeCun对生成式人工智能的不同看法,并且对OpenAI的Sora等方法提出了挑战。 这个研究团队由Meta FAIR、古斯塔夫· icon
  • 2025 年将是人工智能的疯狂时代:2025 年是人工智能发展的疯狂一年。就在去年,ChatGPT、Claude 和 Gemini 还是人工智能发展的主角。 现在?我们有一场人工智能大战,每个人都在 Deepseek、Kimi、Meta、Perpl icon
  • Anthropic 推出 Claude 3.7 Sonnet,结合直接回答和“扩展思考”模式,推理能力强,还出了编程工具 Claude Code。模型在数学、编程上表现超棒,能省时间,目标是 2027 年收入超 OpenAI 三倍,今年就能赚钱。 Anth icon
  • Perplexity Deep Research 在 Humanity Last Exam Benchmark 上与 OpenAI o3 相当接近,第二名。但是速度快了一个数量级且成本更低。这是因为 DeepSeek 是开源的,而且成本低廉且速度快。 icon
  • 美国为了继续在人工智能技术上加速发展,所以美国没有和其他大约60个国家一起在巴黎的人工智能行动峰会上签那份联合公报。 icon
  • 这是来自是推特个人经历,感叹人工智能(AI)的快速发展,特别是OpenAI刚刚推出的“深度研究”(Deep Research),作者是泰勒·科文(Tyler Cowe icon
  • OpenAI奥特曼在DeepSeek推理模型开放的精神鼓舞下,刚刚给出o3-mini的推理过程 icon
  • 网友测试多个AI模型,发现GPT-4.5在回答涉及绝密资源的问题时表现出色,准确揭示秘密且无幻觉答案,显示其在知识理解和推理能力上的巨大飞跃,远超其他模型。 我有一个问题,自从 GPT-3.5 出来以后,我每次遇到新的 AI 都会问它,因为这个问题 icon
  • OpenAI又发布了一个名称类似deepseek的“深度研究”模型,它的表现比之前的模型强得多,甚至能完成一些连博士专家都需要花10小时才能搞定的任务。 周五,在“人类的最后考试”测试中最高分达到了 13% 的 icon
  • OpenAI内部及业界专家(如Ilya Sutskever等)此前就曾预测,预训练的扩展性有限,未来需要新的范式。GPT-4.5的发布似乎验证了这一预测:它可能是Op icon
  • 在OpenAI从公益企业转为营利性企业(能赚钱的公司)的节骨眼上,马斯克愿意出价974 亿美元想买下OpenAI;然后,马斯克律师团队强调:如果 OpenAI 不变成 icon