• 人类不太擅长逻辑,需要依赖内容直觉进行推理。许多认知研究表明,人类的推理并不是完全抽象的(不是完全的形式与内容分离)。 相反,我们的推理取决于问题的内容: 当内容支持逻辑推理时,我们回答得更准确, 当内容和逻辑冲突时,我们会
  • 我认为解决问题的模式大致有三类--背诵、直觉和推理。 背诵:你只需识别到一个已知的问题,然后运用你所学到的步骤。就像下棋开局一样。(例如考试填试卷) 直觉:面对新情况,你(大部分是下意识地)将其与之前遇到的情况进
  • RAG(Retrieval-Augmented Generation:检索增强生成) 是一个人工智能框架,用于减轻大模型的“幻觉”问题。 大语言模型的回答经常可能不一致。有时他们会确定问题的答案,有时他们会从训练数据中反省随机事实。如果他们有时听起来像是不 icon
  • 大型语言模型 (LLM) 和知识图谱 (KG) 是互补技术,结合起来可以平衡彼此的优缺点:大模型具有很强的理解和生成自然语言的能力,但有时会产生幻觉事实。 KG 以结构化格式明确表示事实知识,但缺乏语言理解。 大模型可以共同为知识图谱中的严格事实提 icon
  • GPT-4-turbo 现在可以处理 128K 输入令牌!这是下一代 RAG:长上下文 RAG! 什么是RAG?RAG(Retrieval-Augmented Generation:检索增强生成) 是一个人工智能框 icon
  • 这是李开复的AI公司开发的人工智能模型,该公司在不到一年的时间里就获得了 10 亿美元估值。 Yi系列模型是由01.AI的开发人员从头开始训练的大型 icon
  • 谷歌:请输入一个很强的密码,强到别人很难破解我:ChuckNorris (简单的字母大小写)谷歌:不予通过,这个密码强过了,过分强了 icon
  • 对于生成式人工智能系统来说,在复杂的现实世界领域中航行是一项艰巨的挑战。不过,现在一种很有前途的方法照亮了前进的道路。 通过首先深入理解数据,我们可以将原始输入转化为经过验证的结构,从而优化人工智能推理。映射到关键任务的特定领域建模就像一个解释透镜,能将噪 icon
  • ChipNeMo 旨在探索大语言模型(LLM)在工业芯片设计中的应用。 今天发布的一篇 icon
  • PromptIDE 是一个用于即时工程和可解释性研究的集成开发环境。它允许通过 SDK 实施复杂的提示技术,并通过分析可视化网络输出。开发 IDE 的目的是为工程师和研究人员提供对 Grok-1(Grok 的驱动模型)的透明访问。 它旨在增强用户能 icon
  • 视觉语言模型在空间推理中有以下的弱点: - 在将图像与 "桌子上的杯子 "等空间说明进行匹配时,模型的得分接近随机概率。他们无法掌握 "上 "与 "下 "这样的概念。 - 在 "桌子上的杯子与桌子下的杯子,就像桌子下的碗与桌子上的碗 "这样的视觉类比中,模型的得分率仅 icon
  • 来自《自然》杂志的文章:人工智能“突破”:神经网络具有类似人类的语言泛化能力。 两位科学家创建了一个人工神经网络,它展示了类似人类的语言概括能力。 人工智能 (AI) 系统在将新学到的单词折叠到现有词汇中 icon
  • 心理学家长期以来一直在研究绑定问题:人类如何将一个对象的特征识别为与该对象绑定,而不是与其他对象绑定? 现代大模型LM毫不费力地解决了这些任务。 当给出 "绿色正方形 "和 "蓝色圆形 "的上下文时,语言 icon
  • 在当今快节奏的开发环境中,高效的沟通和协作是项目成功的关键。在 icon
  • 从人类反馈中强化学习(RLHF)是一种用于训练高质量人工智能助手的流行技术。然而,RLHF 也可能鼓励模型做出与用户信念相匹配的反应,而不是真实的反应,这种行为被称为 "谄媚"。 我们研究了在 RLHF 训练的模型中 "谄媚 "行为的普遍性,以及人 icon
  • 缺乏与人文学科的深入接触会导致几个关键问题,从而影响对人工智能及其社会影响的全面理解: 1.狭隘的智能定义。由于缺乏哲学、心理学和其他领域的投入,人工智能研究人员往往将智能简单地理解为计算能力或信息处理能力。这忽视了人类认知的细微现象学、情感和伦理层面。< icon
  • 美国宇航局的BIDARA 是一个 GPT-4 聊天机器人,旨在帮助科学家和工程师理解、学习和模仿生物所使用的策略,以创建可持续的设计和技术。 这个生物启发设计和研究助理说明了特定领域的词汇表如何推动更复杂的想法。< icon
  • 马斯克发推特说:明天,xAI 将向特定群体发布其首个人工智能。 在某些重要方面,它是目前最好的。 甲骨文联合创始人、自称为马斯克密友的拉里·埃里森 (Larry Ellison) 在 9 月份表示,xAI 已签署一份合同,将在甲骨文的云上训练其人工智能模型 icon