人工智能GPT-3最近被玩坏了,关于上下文AI模型GPT3的快速思考 - Delian


OpenAI是由Elon Musk,Sam Altman,Greg Brockman和ML的其他一些领导者创立的AI研究基金会创建的API和网站,人们可以访问名为GPT-3的新语言模型。在过去的几天里,我有幸体验了它,并对其功能感到惊讶。
首先,我想指出这一点,特别是在我非常聪明的ML朋友当中,我是一个门外汉,因此,该帖子更面向非技术读者,如果在此帖子中遇到任何技术错误,我深表歉意。

GPT-3本质上是基于上下文的生成AI。这意味着,当给AI某种上下文时,它将尝试填充其余部分。例如,如果给它脚本的前半部分,它将继续执行该脚本。给它上一篇论文的前半部分,它将生成其余的论文。

解释其工作原理的最简单方法是,它分析互联网上大量的文本样本,并学会根据给定的先验上下文来预测句子中接下来的单词。根据您提供的上下文,它会基于从所有这些文本数据中的学习,以统计上最有可能发生的事情来回应您。
这是OpenAI和其他研究人员一直追求的一种策略,首先要解决一个“简单”的问题,例如尝试预测句子中的下一个单词。现在,我们已经稳步发展到今天的水平,像GPT-3这样的模型可以完成几段甚至更多段。虽然取得了令人难以置信的结果,即使是GPT-3,也可能会迷失方向并漫无目的地游荡。尽管其规模巨大(超过175B参数),但仍可能难以记住长期目标或在许多段落中保持逻辑一致的上下文。

我认为,尽管对此存在争议,但尽管该工具令人印象深刻,并且GPT-4可能会显示出进一步的改进,但这种方法的边际回报可能会减少。他们可以不断地对人们曾经写过的所有文本进行非常复杂的统计,但是AI仍然无法“推理”。

有一篇很好的文章解释了该AI在通过图灵测试方面存在一些局限性(http://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing- test.html),即,如果您与AI对话,是否可以说它是AI。
值得注意的是,最简单的方法是提出一些毫无意义的问题,“一个肠胃里能装多少个香肠?”因为从统计学上讲,在大多数情况下,AI会在互联网上看到类似问题的信息,因此通常会使用“ 3个X装在一个Y中”这样的语句来回答它们,因此它会回答“ 3个香肠可放入一个肠胃中” ”,而不是“那些香肠是人造的”或“我不知道”的更合适的答案。

该工具作为写作伙伴非常出色。如果您是剧作家来设置场景,则GPT-3是探索场景可以采用的路径的好方法,它可以编写对话框,跟踪角色并生成有意义的对话框。如果您是漫画家,那么您会从一个关于童年的有趣故事开始,而GPT-3可以帮助您提出更多的即兴演奏。如果您是一位企业家,试图提高您的聊天远程治疗公司的工作效率,那么GPT-3可能会为您的用户提供3-4个令人信服的,长段的答案,人类可以迅速对其进行审核和批准,从而大大提高了他们的工作效率。

有网友专门玩成url:https://thoughts.sushant-kumar.com/word,用任何词语包括中文替代网址斜杠后面的word,会自动生成一段有意义的语句。
有人使用GPT-3,可以构建了一个HTML布局生成器代码,您可以在其中描述所需的任何布局,并为您生成JSX代码。