• 柏拉图的洞穴理论(Allegory of the Cave)是古希腊哲学家柏拉图在他的著作《理想国》中提出的一个哲学寓言,用来说明人类对现实和真理的认知局限性。 柏拉图描绘了这样一个场景:一些囚犯从小就被困在一个黑暗的洞穴中,他们的头和身体都被束缚,只能看
  • 本周,诺贝尔化学奖和物理学奖授予了谷歌旗下的少数人工智能先驱,引发了有关该公司研究主导地位以及如何认可计算机科学突破的争论。 谷歌一直处于人工智能研究的前沿,但在应对微软支持的OpenAI竞争压力时,它被迫采取守势,同时面临美国司法部日益严格的监管审查。<
  • 凯恩斯主义:价值是由消费决定的马克思 icon
  • 这些有意义吗? 微软正在重新启动三哩岛核电站,以便为其下一代 AI 数据中心之一提供电力。 Anthropic.ai 的首席执行官预测,我们很快将需要价值 1000 亿美元的模型。 萨姆·奥特曼 正在寻求 7 万亿美元来实现 AGI。 是的,大语言模型 (L icon
  • OpenAI的山姆奥特曼在推特上透露:新范式的开始了,o1将是能够进行通用复杂推理的人工智能。o1-preview 和 o1-mini 现在可以在 ChatGPT Plus 和团队用户以及我们为 5 级用户开放的 API 中使用(在几个小时内逐步推出)。 icon
  • Ultralearning: 斯科特-扬所著《掌握高难度技能,超越竞争对手,加速你的职业生涯》,作者在一年内学会了麻省理工学院的全部计算机科学课程。 icon
  • 在认知科学的古典方法中,与在发展心理学中一样,存在着对表征和学习之间紧张关系的探讨。 一方面,纯粹的先天论者否认了学习,专注于描述已经存在详细的表征。 另一方面,经验主义者认为不需要结构化表征,学习(以及随后的推理)只是一个自下而上的学习统计关联的过程。 < icon
  • Aidan McLau 在社交媒体上发表了一条评论: "gpt-4o mini"在"arena"上投票得分第二,这是一个历史性的时刻。表明普通人无法区分大语言模型和小语言模型了,也就是并不那么聪明,而且这是历史上第一次。由此,得出结论:AI icon
  • 每个人都存在于他自己的认知陷阱中,如何发现这一点是有技巧的,来自X网友分享: 我曾经以为自己很理性,后来我读了丹尼尔·卡尼曼的诺贝尔奖获奖著作《人类决策》,他经常问 8 个问题来发现自己每天陷入的认知陷阱。用这些问题来测试自己(这是你大脑的终极 B icon
  • “不要记住你不理解的东西” 这句话的意思是强调在学习或记忆时,理解比单纯的记忆更重要。 但是,理解需要时间,而记忆能够立即记住 ,供以后理解? 贝叶斯理论在许多领域都有广泛的应用,并且确实能够在某些方面帮助协调理 icon
  • 使用大模型 LLM时, 提供元认知指导(例如:举例说明、逐步推理等),它就会更容易被使用。更驯服,更少出现幻觉。 这就是元提示: icon
  • 区分正常高智商人群和非常高智商人群的一个简单方法是:当你给出一个具体的例子时: 他们是只在那个例子中得到了解惑? 还是他们看到了其底层的潜在模式/公式? 这个观点涉及到认知心理学和智力理论中的一些概念,特别是关于模式识别 icon
  • 我们经常听说大语言模型(LLM) 有多么强大,但在战略和规划方面,他们似乎有一个明显的弱点。 一篇文章对此进行了精辟的分析: 规划任务成功率低: 研究表明,当像 GPT- icon
  • 从 "Claude能否冥想 "的实验中得到的一个重要启示是:意识似乎发生在 "混沌的边缘"  Claude是Anthropic公司开发的一款新一代大语言模型,主要特点包括强大的自然语言处理能力、优秀的上下文理解、较高的安全性、友好的交互体验以及持续 icon
  • AGI 将开发出一种人类可能永远无法理解的多维“语言 2.0 ”。 维特根斯坦的哲学是“我的语言的极限意味着我的世界的极限 ” Google Deepmind最近对 LL icon
  • 发表在著名《Cell》最新文章《在大型语言模型中分离语言和思维》认为: icon
  • OpenAI 发布了“元提示”,旨在帮助用户更高效地创建和改进 LLM 提示。该公司表示,这将节省开发高质量 AI 提示的时间。 元提示内置于 icon
  • 《自然》杂志的一篇论文首次展示了果蝇整个大脑的接线图,果蝇的大脑虽然很小,但包含约 140,000 个神经元和超过 5000 万个连接,使果蝇能够看、闻、听、行走和飞翔。 1、讨论:现 icon