• 新研究:大脑语言有形式和功能两种,前者更像大模型

    1
    发表在著名《Cell》最新文章《在大型语言模型中分离语言和思维》认为:大型语言模型 (LLM) 是迄今为止所有模型中最接近掌握人类语言的模型,但对其语言和认知能力的看法仍然存在分歧。我们使用下面这两个.
  • 谷歌AI在数学奥林匹克竞赛中获得银牌

    6
    谷歌刚刚推出了一位精英人工智能数学家,它是一个神经符号系统,能将问题形式化为 Lean(一种形式语言),并使用经过微调的 Gemini,使用 AlphaZero 风格的搜索来解决这些问题。在 IMO(.
  • 开源向量数据库Milvus简介

    2 15K
    在本教程中,我们将探索Milvus,一个高度可扩展的开源矢量数据库。它旨在存储和索引来自深度神经网络和其他机器学习模型的大量矢量嵌入。Milvus 支持跨文本、图像、语音和视频等多种数据类型进行高效的.
  • 历史上第一次:聪明AI能愚弄人类

    17
    Aidan McLau 在社交媒体上发表了一条评论:"gpt-4o mini"在"arena"上投票得分第二,这是一个历史性的时刻。表明普通人无法区分大语言模型和小语言模型了,也就是并不那么聪明,而且.
  • Llama 3.1发布:开源AI是未来吗?

    45 2K
    Meta发布三款机型:新款 3.1-405B 以及较小型号的升级版:3.1-70B 和 3.1-8B。如果 405B 真如基准测试所示,那么这将是开源机型首次与最好的封闭机型相媲美——这是一个深刻的转.
  • 马斯克xAI团队名单遭质疑

    9 2K
    埃隆马斯克表示: 今天一个模型已经开始在世界上最强大的新型人工智能集群上进行训练。 所有人工智能公司都在竞相建立一个比所有人类加起来都聪明的数字超级智能,通过参与这场比赛,xAI希望将其引导到对人类有.
  • 最难逻辑考题:来自IOL国际语言学奥林匹克

    13 4K
    IMO是最难的高中数学考试,而IOL是国际语言学奥林匹克:明天开始!学生被要求纯粹使用逻辑来翻译不太知名的语言。5个问题,6小时。这个文件是关于Supyire语言的数字表达方式的描述。Supyire语.
  • 2027年数字神降临

    9
    大多数秘密顶级实验室人员都在规划 2027 年数字神的存在。过去几个月,Open AI 和 Anthropic 的员工一直在推特上发布类似这样的消息。 Anthropic 的一名研究人员发推文称,他们.
  • 本周AI一句话摘要

    7
    AMD表示,其最出色的Ryzen AI芯片将击败苹果、英特尔和高通。OpenAI正在与博通等半导体设计公司讨论开发新的 AI 芯片,这是增强计算能力和减少对 Nvidia GPU 依赖的战略的一部分。.
  • 幽默:内向+AI对话=10倍程序员

    29 1
    .
  • AI成功是因为数学吗?

    18
    学习AI或研究AI的认知偏见:"人工智能之所以有效,是因为数学!",Sean McClure反驳了这个观点:不,至少不是你想象的那样。如果你把足够多的原始部件拼凑在一起,就会得到与部件截然不同的东西。.
  • Github上5个供学习研究的AI与ML项目

    21
    5个GitHub项目将为您提供AI/ML工程师的超级能力:1、awesome-artificial-intelligenceAwesome Artificial Intelligence人工智能精选列.
  • 三则大模型使用提示技巧

    19
    微调大模型提示时: 是在提示中给出相关的例子? 应该给出多少个最佳表现的例子? 如果提供更多,是否会损害性能? 示例的前后顺序重要吗? 这篇Deepmind的新论文回答了所有这些问题,主要要点: 从提.
  • 世界知识产权组织:《生成式人工智能专利态势报告》

    6
    最新消息:世界知识产权组织发布了《生成式人工智能专利态势报告》,这是人工智能领域每个人的必读书。以下是[令人印象深刻的]主要发现: 在 2014 年至 2023 年期间,共提交了 54,000 项 G.
  • BM42:语义搜索与关键词搜索结合

    70
    40 年来,BM25 一直是搜索引擎的标准。然而,它无法满足现代 RAG 应用的需要。BM42 诞生:语义搜索与关键词搜索的结合什么是BM25?BM25 是一种排名算法,用于信息检索和搜索引擎,以确定.
  • LMOS:大型语言模型操作系统正在到来!

    16
    OpenAI联合创始人Andrej Karpathy(安德烈)解释了新的计算范式:我们正在进入一个新的计算范式: 大型语言模型像CPU一样工作 使用令牌而不是字节 使用上下文窗口而不是RAM。 这就是.
  • “万能钥匙”漏洞使AI变得邪恶

    20
    人工智能公司一直在努力阻止用户找到新的“越狱”来绕过他们实施的护栏,以防止聊天机器人帮助制造毒或炸 弹。例如,今年早些时候,一名白帽黑客宣布他们发现了一种可以同时实现这两种功能的“ Godmode”C.
  • 元学习:人类与大模型比较建模

    48 1 10K
    本文介绍了一种心智模型的概念模型,该模型可以解释心智的关键特征,例如代理、学习、思考和内省。该模型的关键组成部分包括: 能够理解和产生动作的动作模型,类似于语言模型理解和产生语言的方式。 提供来自感官.
  • 比尔盖茨:元认知将是AI下一个前沿

    38 1 5K
    比尔-盖茨说,人工智能系统的扩展还需要两次迭代,之后的下一个重要领域是元认知(metacognition),即人工智能可以对其任务进行推理。盖茨在采访中说了一些关于元认知的有趣话:“我看到我们明年会在.
  • 大脑、视觉与语言有趣关系

    6
    三个有趣的事实: - 大脑是为视觉而进化的,但结果证明对语言很有帮助。 - 视觉是反向图形。 - GPU 是为图形而设计的,但结果证明对语言很有帮助。  这些事实确实引人入胜,凸显了视觉、语言和计算之.
  • 八大预测算法小结

    13
    时间序列预测的算法繁多,让人眼花缭乱。在 5 分钟内,我将分享 5 年来使用 8 种常见预测算法的经验。1.ARIMA(自回归整合移动平均):使用线性回归作为基础模型。捕捉自回归和移动平均项,同时对原.
  • 如何使用大模型实现突破性创新研究?

    8
    对于那些希望使用大模型LLM从事突破性科学研究的人来说:大模型尤其不适合从事这项工作。(如果你是一名研究人员,你一定已经注意到了这一点)。突破性研究需要朝着一个全新的、出乎意料的方向前进,而每个人在很.
  • Claude 3.5 Sonnet为何更擅长做码农?

    15 2K
    Claude 3.5 Sonnet因其机制可解释性而擅长编码。机制可解释性:这是指理解机器学习模型内部运作的能力,尤其是不同组件如何对模型的预测或输出做出贡献。就 LLM 而言,这可能意味着理解不同层.
  • 一张图:9个数据科学中的距离测量与算法

    8
    .
  • 一句话解释Transformer

    18
    一句话总结Transformer : Transformer 是一种神经网络,擅长理解序列数据的上下文并从中生成新数据。 Transformer 是第一个完全依赖自注意力机制而不使用 RNN 或卷积的.
  • 什么是方框图?

    8
    方框图是数据科学武器库中最有用的工具之一。在 6 分钟内,将向您传授 6 年来使用方框图进行 EDA 和解决问题的经验。什么是方框图?方框图是显示数据分布的标准化方法,它基于五个数字汇总:最小值、第一.
  • 五条大模型最新动态

    4
    1、Anthropic首席执行官Dario Amodei表示: 与诺贝尔奖获得者科学家一样聪明的人工智能模型可以加速生物学发现并治愈疾病 到2027年,人工智能模型的训练成本将高达1000亿美元,并且.
  • 一张图:数据分析师的完整数据可视化指南图

    24
    .
  • 比喻:什么是大模型操作系统?

    39 13K
    LLM OS (大语言模型操作系统)架构类比图是由 Andrej Karpathy 创建的: LLM 作为 CPU:LLM 作为核心处理单元,替代或增强传统 CPU。它负责自然语言处理、生成和理解,为.
  • 几行代码提升Pandas性能150倍

    14
    Pandas是一个强大的Python数据分析和操作库!NVIDIA让Pandas的速度提高了150倍,无需更改代码您只需添加几行代码:%load_ext cudf.pandas import pand.