• 这个开源集成了各种用来挑战大型语言模型推理能力的提示,使用著名的思想实验或悖论测试大模型。 这些思想实验或悖论有: #电车问题 蒙蒂·霍尔问题 #理发师悖论 #薛定谔的猫 意外的悬挂悖论 过河
  • 来自Anton Zhiyanov文章:我写代码赚钱已经有 15 年了:我尝试过其他角色--产品管理、分析、测试--但都没有坚持下来。这些年来,我发现自己很笨。
  • 哈佛大学遗传学家戴维·辛克莱尔(David Sinclair)表示,他的“生理年龄”比实际年龄大约年轻十岁,并以自己几乎没有皱纹的脸作为长寿运动的代言人。 54岁的辛克莱尔教授是一位在衰老生物学领域享有盛誉的科学家,他提出了“衰老是一种可以治疗的疾 icon
  • Jdon My Soul,有时简称为 Jdon,是一个俚语和口头禅,源于 2024 年 2 月的 Hololive VTuber 流。 Hololive-EN的YouTubers Nerissa Ravencroft、Kobo Kanaeru、To icon
  • 这里有一个合理解释(点击标题):解释了为什么安全不是 OpenAI 关注的焦点。 超级对齐团队离开 OpenAI 有很多荒谬的原因解释,他们离开openAI更可能的原因: 首选,肯定不是因为首席科学家伊利亚Ilya 和 Jan 看到 icon
  • Eugene Yan 撰写的文章《Simplicity is An Advantage but Sadly Complexity Sells Better》,这篇文章探讨了为什么简单性在某些情况下可能不被充分重视,尽管它本身是一个巨大的优势,以及为什么复杂性在某些情况下会卖得更好。文章还讨论 icon
  • Meta 仅在三天前发布了 Llama-3,感觉开源模型最终缩小了与专有模型的差距已经是一个拐点。初始基准测试显示 Llama-3 70B 在许多任务中与 GPT-4 非常接近: 官方Meta 页面仅显示 Llama-3 优于 Gemini 1.5 和 Claude Sonn icon
  • 真正辩证法应该是对话,而不是: 离开上下文狡辩 下结论停止对话 苏格拉底辩证法经典辩证法实际上是两点或 "两极 "之间的对话,这两点或 "两极 "相互影响。 icon
  • 在不断发展的人工智能(AI)世界中,对话式人工智能领域有两大巨头脱颖而出:Claude AI 和 OpenAI 的 ChatGPT。两者都是大型语言模型 (LLM),能够生成人类质量的文本、翻译语言、编写不同类型的内容以及以信息丰富 icon
  • 我看到很多评论和帖子都在谈论,亚洲人/印度人在科技领域取得成功,是因为采取了 "DEI "措施,以至于现在人们只雇用亚洲人/印度人,这完全是大错特错。 亚裔/印度裔实际上是受多元化措施影响最严重的群体,因为亚裔被视为代表性过高、非常有特权的群体。< icon
  • 这项研究发表在《国家科学院院刊》上,题为《大型语言模型中出现的欺骗能力》,揭示了大型语言模型 (LLM) 中令人担忧的能力:理解和诱导欺骗策略的能力。 随着 GPT-4 等 LLM 与人类交流交织在一起,将它们与人类价值观保持一致变得至关重要。 该论文展示了 LLM icon
  • 人群:需要一位医生医生:我是一位医生 icon
  • 咋一看:MiniCPM-Llama3-V 2.5与Llama3-V 好像只是版本不同,是的,Llama3-V只是在MiniCPM-Llama3-V 2.5上修改一下,然后就作为升级版本发布,这两个都是开源,外行人以为是抄袭剽窃,有的网友不以为然,开源3.0版本在开源2.5版本基础上做些很少修 icon
  • 伊隆·马斯克是一位在科技和太空领域具有巨大影响力的亿万富翁,他的个人生活令人着迷,尤其是他的家庭生活。伊隆·马斯克的净资产达到数十亿美元,人们对伊隆·马斯克的孩子和他的人际关系非常感兴趣,包括伊隆·马斯克妻子的信息。伊隆·马斯克不仅因特斯拉和 SpaceX 等领先公司而闻名,他的家庭生活,包括他的孩 icon
  • Anthropic 对映射其大型语言模型 Claude 的内部表示的研究的要点: Anthropic 开发了一种称为“词典学习”的技术,用于识别其语言模型 Claude 中与特定概念、实体和想法相对应的神经元状“节点”或“特征”集。这使得他们能够映 icon
  • 最近,一名印度学生被驱逐出境,因为他伪造了成绩单,rec信,成绩,国家考试成绩,并通过他购买的学校域名发送给他申请大学,他获得了一所顶级大学的几乎全额奖学金。 但认为这还不够,所以他也伪造了自己父亲的死亡证明,并迅速得到了包括航班在内的全额资助,他 icon
  • 人工智能公司一直在努力阻止用户找到新的“越狱”来绕过他们实施的护栏,以防止聊天机器人帮助制造毒或炸 弹。 例如,今年早些时候,一名白帽黑客宣布他们发现了一种可以同时实现这两种功能的“  icon
  • Claude 3.5 Sonnet因其机制可解释性而擅长编码。 机制可解释性:这是指理解机器学习模型内部运作的能力,尤其是不同组件如何对模型的预测或输出做出贡献。 icon