大语言模型LLM

     
  • 新研究:大脑语言有形式和功能两种,前者更像大模型

    1

    发表在著名《Cell》最新文章《在大型语言模型中分离语言和思维》认为:大型语言模型 (LLM) 是迄今为止所有模型中最接近掌握人类语言的模型,但对其语言和认知能力的看法仍然存在分歧。我们使用下面这两个.

  • 谷歌AI在数学奥林匹克竞赛中获得银牌

    6

    谷歌刚刚推出了一位精英人工智能数学家,它是一个神经符号系统,能将问题形式化为 Lean(一种形式语言),并使用经过微调的 Gemini,使用 AlphaZero 风格的搜索来解决这些问题。在 IMO(.

  • 历史上第一次:聪明AI能愚弄人类

    17
    Aidan McLau 在社交媒体上发表了一条评论:"gpt-4o mini"在"arena"上投票得分第二,这是一个历史性的时刻。表明普通人无法区分大语言模型和小语言模型了,也就是并不那么聪明,而且.
  • Llama 3.1发布:开源AI是未来吗?

    45 2K
    Meta发布三款机型:新款 3.1-405B 以及较小型号的升级版:3.1-70B 和 3.1-8B。如果 405B 真如基准测试所示,那么这将是开源机型首次与最好的封闭机型相媲美——这是一个深刻的转.
  • 最难逻辑考题:来自IOL国际语言学奥林匹克

    13 4K
    IMO是最难的高中数学考试,而IOL是国际语言学奥林匹克:明天开始!学生被要求纯粹使用逻辑来翻译不太知名的语言。5个问题,6小时。这个文件是关于Supyire语言的数字表达方式的描述。Supyire语.
  • AI状元榜被黑:huggingface排名第一大模型被质疑

    33

    昨日,Reddit网友发现一个奇怪事情:这是什么模型?为什么它突然在 huggingface 上占据第一的位置?什么是Hugging FaceHugging Face 是领先的机器学习和自然语言处理 .

  • 三则大模型使用提示技巧

    19

    微调大模型提示时: 是在提示中给出相关的例子? 应该给出多少个最佳表现的例子? 如果提供更多,是否会损害性能? 示例的前后顺序重要吗? 这篇Deepmind的新论文回答了所有这些问题,主要要点: 从提.

  • BM42:语义搜索与关键词搜索结合

    70

    40 年来,BM25 一直是搜索引擎的标准。然而,它无法满足现代 RAG 应用的需要。BM42 诞生:语义搜索与关键词搜索的结合什么是BM25?BM25 是一种排名算法,用于信息检索和搜索引擎,以确定.

  • LMOS:大型语言模型操作系统正在到来!

    16

    OpenAI联合创始人Andrej Karpathy(安德烈)解释了新的计算范式:我们正在进入一个新的计算范式: 大型语言模型像CPU一样工作 使用令牌而不是字节 使用上下文窗口而不是RAM。 这就是.

  • “万能钥匙”漏洞使AI变得邪恶

    20

    人工智能公司一直在努力阻止用户找到新的“越狱”来绕过他们实施的护栏,以防止聊天机器人帮助制造毒或炸 弹。例如,今年早些时候,一名白帽黑客宣布他们发现了一种可以同时实现这两种功能的“ Godmode”C.

  • 元学习:人类与大模型比较建模

    48 1 10K
    本文介绍了一种心智模型的概念模型,该模型可以解释心智的关键特征,例如代理、学习、思考和内省。该模型的关键组成部分包括: 能够理解和产生动作的动作模型,类似于语言模型理解和产生语言的方式。 提供来自感官.
  • 比尔盖茨:元认知将是AI下一个前沿

    38 1 5K

    比尔-盖茨说,人工智能系统的扩展还需要两次迭代,之后的下一个重要领域是元认知(metacognition),即人工智能可以对其任务进行推理。盖茨在采访中说了一些关于元认知的有趣话:“我看到我们明年会在.

  • 大脑、视觉与语言有趣关系

    6

    三个有趣的事实: - 大脑是为视觉而进化的,但结果证明对语言很有帮助。 - 视觉是反向图形。 - GPU 是为图形而设计的,但结果证明对语言很有帮助。  这些事实确实引人入胜,凸显了视觉、语言和计算之.

  • 如何使用大模型实现突破性创新研究?

    8

    对于那些希望使用大模型LLM从事突破性科学研究的人来说:大模型尤其不适合从事这项工作。(如果你是一名研究人员,你一定已经注意到了这一点)。突破性研究需要朝着一个全新的、出乎意料的方向前进,而每个人在很.

  • Claude 3.5 Sonnet为何更擅长做码农?

    15 2K

    Claude 3.5 Sonnet因其机制可解释性而擅长编码。机制可解释性:这是指理解机器学习模型内部运作的能力,尤其是不同组件如何对模型的预测或输出做出贡献。就 LLM 而言,这可能意味着理解不同层.

  • 一句话解释Transformer

    18

    一句话总结Transformer : Transformer 是一种神经网络,擅长理解序列数据的上下文并从中生成新数据。 Transformer 是第一个完全依赖自注意力机制而不使用 RNN 或卷积的.

  • 五条大模型最新动态

    4

    1、Anthropic首席执行官Dario Amodei表示: 与诺贝尔奖获得者科学家一样聪明的人工智能模型可以加速生物学发现并治愈疾病 到2027年,人工智能模型的训练成本将高达1000亿美元,并且.

  • 比喻:什么是大模型操作系统?

    39 13K
    LLM OS (大语言模型操作系统)架构类比图是由 Andrej Karpathy 创建的: LLM 作为 CPU:LLM 作为核心处理单元,替代或增强传统 CPU。它负责自然语言处理、生成和理解,为.
  • 笛卡尔:语言是思想唯一确定标志?

    18

    笛卡尔认为语言是思想的唯一确定标志,因为只有人类才能通过语言自由地表达思想,这是人之为人的根本特征。笛卡尔认为: 人类个体,不管是愚蠢的人、白痴还是最笨的小孩,都能够通过语言表达和交流思想。 人类的行.

  • 语言主要是一种交流工具,而不是思维工具

    53

    《自然》杂志发表的题为《语言主要是交流工具而非思考工具》的文章探讨了语言在人类认知中的作用。该研究探讨了语言的主要功能是交流,而不是作为思考的媒介这一观点。它深入探讨了语言处理的各个方面及其对理解人类.

  • 经典论文:《注意力就是你所需要的》

    53 21K
    Vaswani 等人在 2017 年发表的论文《注意力就是你所需要的》介绍了 Transformer 架构,这是近年来人工智能研究和进步蓬勃发展的关键驱动力。该论文为 BERT、GPT 等 Trans.
  • 使用 Rust、OpenAI 和 Qdrant 构建 Agentic RAG

    11 15K

    在本文中,我们将讨论如何使用 Rust 构建代理 RAG 工作流!我们将构建一个代理,它可以获取 CSV 文件、对其进行解析并将其嵌入到 Qdrant 中,以及从 Qdrant 中检索相关嵌入以回答用.

  • 大语言模型能用作世界模拟器吗?

    14

    语言模型可以被用作世界模拟器吗? 在我们的ACL 2024论文中,我们证明了这不是真的。 GPT-4在模拟基于常识任务(如沸水)的状态变化时,准确率仅为60%。 该论文题为 "语言模型能否作为基于文本.

  • 幻觉与创新:AlphaFold3为何失败?

    13 3K

    AlphaFold3 是一个技术杰作: 它减少了多序列比对的使用(需要使用相似的例子来预测蛋白质相互作用),并引入了一个新的扩散模块来进行结构预测。 换句话说: 他们在提高整体性能的同时简化了 Alp.

  • 本周17个github有趣项目Teo等

    82 1 15K

    17个github有趣的项目、工具和库1、TeoTeo 是模式驱动的 Web 服务器框架。服务器端 API 是 Rust、Node.js 和 Python 的原生 API。亮点和特点 原生于Rust、.

  • “幻觉”反而是大语言模型最有用之处

    59 2 2K

    来自黑客新闻(Hacker News)的一个讨论帖子,主题是关于一个名为"Lamini"的人工智能记忆调整技术,它能够显著减少幻觉10 倍 在AI领域,幻觉通常指的是模型生成的错误或不准确的输出 什么.

  • 为什么大语言模型能将我们带入AGI?

    40 1

    杨立昆(Yann LeCun)提出,大型语言模型(LLM)并不能引领我们走向人工通用智能(AGI),因为它们缺乏形成心智模型的能力。尽管如此,一些观点认为LLM与人类智能的比较存在根本性的缺陷。人类智.

  • MatMul:一种革命性的语言模型方法

    14

    一种革命性的语言模型方法,完全消除矩阵乘法 (MatMul),同时又不损失性能论文《可扩展的无 MatMul 语言建模》讨论了如何开发可扩展且高效的语言模型,从而避免矩阵乘法(MatMul) 运算。 .

  • ARC奖:价值100万美元以上开放式AGI竞赛

    59 1 2K

    ARC-AGI 的设计初衷是抵制大语言模型“记忆”技术我们举办本次比赛的目标是: 1. 增加从事前沿 AGI 研究的研究人员数量(而不是修补 LLM)。我们需要新的想法,解决方案很可能来自局外人! 2.