• 霍夫斯塔德的《表面与本质》这本书很不错,是一本500页的书,讲的是思想的本质。他基本上是给你列了一大堆例子,来证明所有的思维归根结底都是靠类比(analogy、category )推动的。 他认为所有的想法都首先得
  • Perplexity刚刚发布了经过培训的DeepSeek R1,用于提供事实和公正的信息- MIT许可。语文数学能力双解放,敢说智商不掉线! R1 1776 是一个 DeepSeek-R1 推理模型,经过 Perplexity AI 后期训练,可消
  • Grok3这个大模型不简单,火力全开,成了暴躁老哥/老姐。 埃隆·马斯克的人工智能公司搞出了个Grok 3的语音功能,这玩意儿能说些露骨的话,还能表现出超级夸张的个性,跟其他对手的做法完全不一样。 xAI给他们的 icon
  • 信息工作的核心不是光靠逻辑推理牛不牛,而是能不能拿到足够多、足够相关的信息(高信号量上下文)。 例如,在阅读文章时 icon
  • Framework Desktop是不是被吹得太厉害了,说它能跑DeepSeek这样的大模型LLM?但实际上,它的内存不够大,没法搞MoE(专家混合模型),带宽也不够,跑不了那些需要大量计算的密集型模型。 理论上,128GB内存跑LLM会因为带宽不够而卡顿 icon
  • 人们严重低估了 Grok 3 的性能。我知道我们都不太喜欢马斯克,但我们能不能稍微客观一点,看看它的表现到底怎么样呢? 有些人会说:“嗯,它还是比 icon
  • GPT-4.5以“研究预览版”的形式发布,OpenAI Pro(每月 200 美元)客户和拥有 API 密钥的开发人员均可使用。OpenAI 还发布了GPT-4.5 系统卡。 现在它的价格非常昂贵:目前每百万输入代币 75.00 美元,每百万输出代 icon
  • Deepseek 的语言模型即使定价远低于 OpenAI 也能带来巨额利润 中国的人工智能公司DeepSeek最近发布了一些数据,告诉我们人工智能语言模型其实可以赚很多钱,就算价格比OpenAI低很多也没问题。 icon
  • 连贯的草稿提示让大模型能够用更少的文字更轻松地思考:少些字,多思考。 一种叫“草稿链Chain of Draft”(简称CoD)的新方法,可以帮助人工智能模型用更少的字和更快的速度完成复杂的任务,而且准确度还和以前的方法差 icon
  • 2025 年将是人工智能的疯狂时代:2025 年是人工智能发展的疯狂一年。就在去年,ChatGPT、Claude 和 Gemini 还是人工智能发展的主角。 现在?我们有一场人工智能大战,每个人都在 Deepseek、Kimi、Meta、Perpl icon
  • Anthropic 推出 Claude 3.7 Sonnet,结合直接回答和“扩展思考”模式,推理能力强,还出了编程工具 Claude Code。模型在数学、编程上表现超棒,能省时间,目标是 2027 年收入超 OpenAI 三倍,今年就能赚钱。 Anth icon
  • Grok思考模式泄露揭示系统提示,大资本家马斯克在操控AI,引发对信息操控和真相定义的质疑与反思。 有人用这个提示询问Gr icon
  • Harper Reed 描述了他如何用大型语言模型(LLM)来帮忙写代码的过程。 这个过程显然是他经过深思熟虑的,而且已经发展了很多,还在不断改进。 Harper 在开始一个新项目时,会先进行 icon
  • 这篇文字主要讲述了公司在构建公共云服务过程中,对GPU支持的探索和挑战。公司最初投入大量资金,押注于为AI/ML推理任务提供GPU支持,并创建了Fly GPU Machines。然而,尽管GPU在AI/ML领域的重要性被正确判断,但公司发现其产品可能并不适合当前市场需求,尤其是开发者更倾向于 icon
  • 网友测试多个AI模型,发现GPT-4.5在回答涉及绝密资源的问题时表现出色,准确揭示秘密且无幻觉答案,显示其在知识理解和推理能力上的巨大飞跃,远超其他模型。 我有一个问题,自从 GPT-3.5 出来以后,我每次遇到新的 AI 都会问它,因为这个问题 icon
  • OpenAI内部及业界专家(如Ilya Sutskever等)此前就曾预测,预训练的扩展性有限,未来需要新的范式。GPT-4.5的发布似乎验证了这一预测:它可能是Op icon
  • 很多人一直在说,GPT-4.5 证明了“扩展定律失效”或者“没有达到大家预期的改进效果”。但有趣的是,这些人似乎从来没有拿出任何实际的数据来证明 GPT-4.5 的扩 icon