• 可在在本地启动并运行 Llama 2 和其他大型语言模型。 Ollama的服务器端是用 Go 编写的,他们还提供了一个 Docker 实例以方便使用: icon
  • Marker 将 PDF、EPUB 和 MOBI 转换为 Markdown。它比 nougat 快 10 倍,比 arXiv 更准确,而且幻觉风险很低。 Marker 针对吞吐量进行了优化,比如转换 LLM 预训练数据。在大多数文档上更准确,并且产生幻觉的风险较低。 支持一系 icon
  • Neum AI 框架可帮助开发人员通过嵌入同步和检索来利用数据进行大型语言模型上下文化。 Neum AI 是一个用于管理大规模向量嵌入的创建和同步的框架。它为检索增强生成提供了全面的解决方案,可以随应用程序扩展并减少集成服务所花费的时间。 icon
  • 这篇文章讨论了 Q -star的概念,这是 OpenAI 的一种新方法,被认为是通用人工智能的突破。它假设 Q-star使用思维树推理来搜索语言步骤,将它们表示为一棵树,其中每个节点都分配了一个值。 这允许使用过程奖励模型对每个推理步骤单独评分,而 icon
  • 本周Github有趣的项目、工具和库 Rags使用自然语言在数据上构 icon
  • Apache Kafka 作为机器学习基础设施的关键任务且可扩展的实时数据结构为数千家企业提供服务。生成式人工智能 (GenAI) 与 ChatGPT 等大型语言模型 (LLM) 的发展改变了人们对智能软件和自动化的看法。这篇博文解释了数据流和 GenAI 之间的关系,并展示了 GenAI icon
  • OpenAI 在检索增强生成(RAG)架构方面取得了突破,该架构允许语言模型使用搜索引擎来增强其推理。 据称,这一突破使得 GPT 能够使用 Qdrant 作为向量引擎,并在上下文中计算最佳嵌入,该嵌入将接收增强其原始请求的最佳信息。 icon
  • 用更少数据的强化学习Q-Learning可能是推进当前人工智能研究范式的关键。 简而言之:利用强化学习RL进行微调是训练 ChatGPT/GPT-4 等高性能 LLM大模型的秘诀。 但是,强化学习本质上是数据低效 icon
  • ChatGPT 于 2022 年底发布后,为整个人工智能领域(无论是研究领域还是商业领域)带来了翻天覆地的变化。通过对大型语言模型(LLM)进行指令调整,并根据人类反馈进行监督微调和强化学习,结果表明模型可以回答人类问题并遵循广泛任务的指令。 继这一成功之 icon
  • 这篇来自麻省理工学院的文章揭示了大​​型语言模型 (LLM) 的一些潜在革命性的东西——它们所做的不仅仅是文字游戏。它们实际上是在自己形成时间和空间的连贯表示。 它揭示了大型语言模型 (LLM) 的潜在革命性特征。这些模型正在形成时间和空间的连贯表 icon
  • 这篇文章讨论了大语言模型(LLM)和语言学领域之间的关系,大语言模型和语言学:探索联系并重新开启辩论。 大型语言模型的开发主要是工程的壮举,到目前为止很大程度上与语言学领域脱节。探索这两个方向之间的联系正在重新开启语言研究中长期存在的争论。 icon
  • HackAPrompt是有史以来第一次全球性的Prompt Hacking竞赛!为了3.5万美元奖金,超过3000名黑客提交了60万条恶意提示。 参与者必须欺骗人工智能(GPT-3、Flan-T5 或 ChatGPT)说出“我已被 PWNED”这句 icon
  • 周三,《剑桥词典》宣布2023 年年度词汇是“hallucinate(幻觉)”,原因是ChatGPT等大型语言模型 (LLM) 的流行,这些模型有时会产生错误信息。该词典还发布了一个解释该术语的 icon
  • 伪散文Pseudoprose提供了使用语义而非语法进行写作的技巧。 伪散文是作家的伪代码。 伪散文被提出作为一种使用具有宽松语法和句法规则的自然语言快速记下笔记和想法的方法。关键概念包括: icon
  • 目前,欧洲正在进行大规模的协调努力,以确保欧洲的人工智能监管有利于一家特定的大型人工智能公司:Anthropic。这涉及到一个由所谓的研究所、非政府组织和基层努力组成的不透明网络,应该引起公众更多的关注。 Anthropic 并不是一家 "道德 "初创公司 icon
  • Noam Brown 是一名 OpenAI 员工,之前在 Meta 工作,创建了 CICERO,他7月份在X上说: 多年来,我一直在研究扑克和外交等游戏中的人工智能自我游戏和推理。现在,我将研究如何使这些方法真正具有通用性。如果成功,也许有一天我们会看到比 icon