• 来自黑客新闻(Hacker News)的一个讨论帖子,主题是关于一个名为"Lamini"的人工智能记忆调整技术,它能够显著减少幻觉10 倍 在AI领域,幻觉通常指的是模型生成的错误或不准确的输出
  • ARC-AGI 的设计初衷是抵制大语言模型“记忆”技术 我们举办本次比赛的目标是: 1. 增加从事前沿 AGI 研究的研究人员数量(而不是修补 LLM)。我们需要新的想法,解决方案很可能来自局外人! 2. 建立一个流行的、客 icon
  • 杨立昆(Yann LeCun)提出,大型语言模型(LLM)并不能引领我们走向人工通用智能(AGI),因为它们缺乏形成心智模型的能力。尽管如此,一些观点认为LLM与人类智能的比较存在根本性的缺陷。 人类智能与LLM的比较分析 人类智能 icon
  • Vaswani 等人在 2017 年发表的论文《注意力就是你所需要的》介绍了 Transformer 架构,这是近年来人工智能研究和进步蓬勃发展的关键驱动力 icon
  • 《自然》杂志发表的题为《语言主要是交流工具而非思考工具》的文章探讨了语言在人类认知中的作用。 icon
  • LLM OS (大语言模型操作系统)架构类比图是由 Andrej Karpathy 创建的: icon
  • 在本文中,我们将讨论如何使用 Rust 构建代理 RAG 工作流!我们将构建一个代理,它可以获取 CSV 文件、对其进行解析并将其嵌入到 Qdrant 中,以及从 Qdrant 中检索相关嵌入以回答用户有关 CSV 文件内容的问题。 有兴趣部署还是只想看看 icon
  • 本文讨论了人工智能的快速发展以及在不久的将来取得重大进展的潜力。以下是要点: 过去的AI进展: “#有效加速主义 计算”的增加已经导致模型性能在几年内和许多数量级(OOM)的一致增长。 GPT-2类似于学龄前儿童的智力水平, icon
  • AlphaFold3 是一个技术杰作: 它减少了多序列比对的使用(需要使用相似的例子来预测蛋白质相互作用),并引入了一个新的扩散模块来进行结构预测。 换句话说: 他们在提 icon
  • 一句话总结Transformer : Transformer 是一种神经网络,擅长理解序列数据的上下文并从中生成新数据。 Transformer 是第一个完全依赖自注意力机制而不使用 RNN 或卷积的网络。 Tr icon
  • 笛卡尔认为语言是思想的唯一确定标志,因为只有人类才能通过语言自由地表达思想,这是人之为人的根本特征。 笛卡尔认为: 人类个体,不管是愚蠢的人、白痴还是最笨的小孩,都能够通过语言表达和交流思想。 人类的行为是自由的,人类能够通 icon
  • 每个人都在期待一个重生的Siri,Ferret-UI来了! Ferret-UI:一个多模态视觉语言模型,它可以理解iOS移动的屏幕上的图标、小部件和文本,以及它们的空间关系和功能含义。 您可以向Ferre icon
  • Claude 3.5 Sonnet因其机制可解释性而擅长编码。 机制可解释性:这是指理解机器学习模型内部运作的能力,尤其是不同组件如何对模型的预测或输出做出贡献。 icon
  • 一种革命性的语言模型方法,完全消除矩阵乘法 (MatMul),同时又不损失性能 论文《可扩展的无 MatMul 语言建模》讨论了如何开发可扩展且高效的语言模型,从而避免矩阵乘法(MatMul) 运算。 在这项工作中,我们表明 Mat icon
  • 语言模型可以被用作世界模拟器吗? 在我们的ACL 2024论文中,我们证明了这不是真的。 GPT-4在模拟基于常识任务(如沸水)的状态变化时,准确率仅为60%。 该论文题为 "语言模型能否作为基于文本的世界模拟器? icon
  • 1、Anthropic首席执行官Dario Amodei表示: 与诺贝尔奖获得者科学家一样聪明的人工智能模型可以加速生物学发现并治愈疾病 到2027年,人工智能模型的训练成本将高达1000亿美元,并且“在大多数事情上都比大多数人类更好”。 人工智能模型正在接近研究生水 icon