吴恩达: ChatGPT在一本正经地胡说八道


像 Galactica 和 ChatGPT 这样的大型语言模型可以用自信、权威的语气胡说八道。这种过度自信——反映了他们接受训练的数据——使他们更容易误导。

比之下,真正的专家知道什么时候该表现得自信,什么时候让其他人知道他们处于知识的边界。专家知道并且可以描述他们所知道的界限。

建立大型语言模型,可以准确地决定何时自信,何时不自信,这将降低他们误传的风险并建立信任。


其他人观点:
1、Chatgpt 听起来像 Twitter 上的人。

2、Galactica 和 chatGPT 不一样:Galactica 曾作为研究工具销售,但失败了。GPT 作为一个有趣的聊天应用程序出现,并在无数其他应用程序中取得了巨大的成功。

3、人类也容易表现出过度自信。不同之处在于,人工智能可以很容易地被训练来表达不确定性,而有些人则对这种智力上的诚实有很强的抵触情绪。

4、当模型“保留在上下文中”时,ML 术语置信度(很像术语训练)可以有很多含义,并且可以进一步提示基本原理、数据来源,甚至可以用相反的陈述来挑战……使事情更难量化。
在这种情况下,将模型称为“过度自信”几乎与人类定义重叠。肯定有很多人过度自信(Dunning-Kruger)。他们在知识上的差距通常越明显,他们受到其他参与者的挑战就越多。

5、这些只是单词适用性概率。该模型只能根据前面的词来确定一系列词是否合理——它没有其响应背后的抽象思想的实际概念。这就是为什么它不擅长基本算术。