• 比尔-盖茨说,人工智能系统的扩展还需要两次迭代,之后的下一个重要领域是元认知(metacognition),即人工智能可以对其任务进行推理。 盖茨在采访中说了一些关于元认知的有趣话:“我看到我们明年会在这方面取得进展,但之后的一段时间内我们无法完全
  • 本文介绍了一种心智模型的概念模型,该模型可以解释心智的关键特征,例如代理、学习、思考和内省。该模型的关键组成部分包括: 能够理解和产生动作的动作模型,类似于语言模型理解和产生语言的方式。 提供来自感官的信息的感官输入。 代表身体需求和心理状态的情绪状态模块,可 icon
  • 40 年来,BM25 一直是搜索引擎的标准。然而,它无法满足现代 RAG 应用的需要。 BM42 诞生:语义搜索与关键词搜索的结合 什么是BM25?BM25 是一种排名算 icon
  • Meta发布三款机型:新款 3.1-405B 以及较小型号的升级版:3.1-70B 和 3.1-8B。如果 405B 真如基准测试所示,那么这将是开源机型首次与最好的封闭机型相媲美——这是一个深刻的转变。 网友评价Llama 3.1-405B: icon
  • 有趣的项目、工具和库 1、Mem0个性化人工智能的内存层。 icon
  • 在您的计算机上本地运行Llama 3.1的3种方法(100%免费且无需互联网): 1. Ollama + Ope icon
  • 昨日,Reddit网友发现一个奇怪事情:这是什么模型?为什么它突然在 huggingface 上占据第一的位置? 什么是Hugging FaceHugging Face 是领先的机器学习和自然语言处理 (N icon
  • IMO是最难的高中数学考试,而IOL是国际语言学奥林匹克: 明天开始!学生被要求纯粹使用逻辑来翻译不太知名的语言。5个问题,6小时。 icon
  • Aidan McLau 在社交媒体上发表了一条评论: "gpt-4o mini"在"arena"上投票得分第二,这是一个历史性的时刻。表明普通人无法区分大语言模型和小语言模型了,也就是并不那么聪明,而且这是历史上第一次。由此,得出结论:AI icon
  • OpenAI联合创始人Andrej Karpathy(安德烈)解释了新的计算范式: 我们正在进入一个新的计算范式: 大型语言模型像CPU一样工作 使用令牌而不是字节 使用上下文窗口而不是RAM。 这就是大型 icon
  • 人工智能公司一直在努力阻止用户找到新的“越狱”来绕过他们实施的护栏,以防止聊天机器人帮助制造毒或炸 弹。 例如,今年早些时候,一名白帽黑客宣布他们发现了一种可以同时实现这两种功能的“  icon
  • 微调大模型提示时: 是在提示中给出相关的例子? 应该给出多少个最佳表现的例子? 如果提供更多,是否会损害性能? 示例的前后顺序重要吗? 这篇Deepmind的新论文回答了所有这些问题, 主要要点:< icon
  • 故事一:我岳父的故事非常鼓舞人心,他是一位自学成才的电气工程师,通过自己的努力和天赋,在没有接受正规教育的情况下,成功创立了一家芯片制造公司。 他只用汇编语言编写代码。 他自己在建筑警报器上学到了很多东西。他甚至没有上过大学。 icon
  • 发表在著名《Cell》最新文章《在大型语言模型中分离语言和思维》认为: icon
  • 三个有趣的事实: - 大脑是为视觉而进化的,但结果证明对语言很有帮助。 - 视觉是反向图形。 - GPU 是为图形而设计的,但结果证明对语言很有帮助。  这些事实确实引人入胜,凸显了视觉、语言和计算之间的 icon
  • 对于那些希望使用大模型LLM从事突破性科学研究的人来说:大模型尤其不适合从事这项工作。(如果你是一名研究人员,你一定已经注意到了这一点)。 突破性研究需要朝着一个全新的、出乎意料的方向前进,而每个人在很久以前就认为这个方向是愚蠢的; icon
  • 谷歌刚刚推出了一位精英人工智能数学家,它是一个神经符号系统,能将问题形式化为 Lean(一种形式语言),并使用经过微调的 Gemini,使用 AlphaZero 风格的搜索来解决这些问题。 在 IMO(数学奥林匹克竞赛) 2024 上解出 4/6,获得银牌 icon