• 生成式人工智能,特别是LLM(大型语言模型)已经引起了公众的关注。像许多软件开发人员一样,我对这些可能性很感兴趣,但不确定从长远来看这对我们的职业到底意味着什么。 每当出现一个模式和技术仍在不断发展的新领域时,我都会尝试开发一种关于事物如何组合在一
  • Microsoft Semantic Kernel for Java的第一个版本发布了,这个Java 库通过将 OpenAI 和 Azure OpenAI 等 AI 服务与传统和惯用的编程无缝集成,为开发人员开辟了新的可能性。 现在,您可以创建尖端
  • 大型语言模型了解世界吗?作为一名科学家和工程师,我一直避免问人工智能系统是否 "理解 "任何事物。 对于一个系统是否真的理解--而不是看似理解--并没有一个得到广泛认同的科学检验标准,就像我在之前的一封信中讨论过的意识或智商一样,也不存在这 icon
  • 主要思路是在实际编码开始之前编写 API 规范,然后根据API规范让OpenAPI生成模型。 第一步创建一个规范文件并根据该规范生成一个模型。 首先,我们在resources文件夹中创建一个名为bookapi.y icon
  • 托兰斯创造性思维测试可能足以测试人类,是否可以用来测试计算机,这是测试尝试的结果: 1、创造力测试:研究人员对 ChatGPT 进行了标准创造力评估,并将其表现与学生进行了比较。 - Cha icon
  • 来自a16z的大语言模型分析文章,以第三方观点概述了当前LLM大语言模型应用的特点: 大型语言模型是构建软件的强大新工具。但由于它们是如此之新,而且行为方式与普通计算资源如此不同,因此如何使用它们并不总是显而易见的。 icon
  • 昨天发布的 CodeLlama 模型在 HumanEval 上展示了令人印象深刻的性能。 CodeLlama-34B 在 HumanEval 上取得了 48.8% pass@1 的成绩 CodeLlama-34B-Python 在 HumanEval 上达到 53.7 icon
  • 像 ChatGPT 这样的所有主要人工智能语言模型都会产生幻觉,编造虚假事实。虽然无法解决,但整理训练数据和强化学习等步骤可以缓解这一问题。( icon
  • 如今,有许多基于GPT的工具可以分析注释和代码,并在您键入时提出补全建议。您也可以提示它们生成或转换代码。 无论哪种情况,您都可以选择接受更改(或不接受),但必须小心。 基于GPT的工具容易产生幻 icon
  • ChatGPT企业版现已推出,其功能如下: - 无限制访问GPT-4(无使用上限) - 针对GPT-4的更高速度性能(最多快2倍) - 无限制访问高级数据分析(代码解释器) - 32 k令牌上下文窗口,用于4倍长的输入、文件或后续操作 - 可共 icon
  • 为了将算法作为一种技能教授给模型,我们开发了算法提示,它建立在其他基本原理增强方法(例如scratchpad和 icon
  • 使用大型语言模型(LLMs)来增强和加速对 P vs NP 问题的研究,这是理论计算机科学和数学领域最重要的开放性问题之一。 具体来说,我们提出了苏格拉底式推理(Socratic reasoning)这一通用框架,以促进使用 LLMs 进行深入思考 icon
  • 如果你知道什么是马尔可夫链,就很容易把大语言模型想象成一个非常大的马尔可夫链,如果你知道,就把它等同于”句子补全“。 想象一下,你让一台计算机阅读世界上的每一本书,然后让它为书中的每一个三字短语构建一个列表。然后,对于每一个短语,你让它列出它所看到的在该短 icon
  • 据报道,OpenAI 正在加紧努力发布一种名为 GPT-Vision 的先进多模式法学硕士,代号为Gobi。 随着秋天的临近,谷歌和OpenAI陷入了一场传统的软件竞赛,旨在推出下 icon
  • 下面是 GPT-4V 的视觉识别能力: 物体检测:GPT-4V 可以检测和识别图像中的常见物体,如汽车、动物、家庭用品等。我们在标准图像数据集上对其物体识别能力进行了评估。 文本识别:该模型具有光学字符识别(OCR)功能,可检测图像中的印刷或手写文本并将其转录为机器可 icon
  • 人类的词语思维(Word-thinking)其实是一种类似人工智能用词语模式模拟智能的方式,词语思维是人类文明中最大的问题之一。我们人类以为自己在使用一种我们称之为智能的东西,其实我们只是在使用词语模式。 例如,"婚姻 "一词被用来描述一种制度,这种制度曾 icon
  • 微软希望打造自己的高级人工智能,以降低成本和对 OpenAI 的依赖。 微软正在指导其研究人员创建对话式人工智能模型,这些模型的性能几乎与 OpenAI 相当,但体积更小,运行成本更低。微软必应团队已经在测试这种内部人工智能,其功能与 ChatGPT 类似 icon