诺贝尔奖得主杰弗里·辛顿,号称AI教父,2018年,他与Yoshua Bengio和杨立昆(Yann LeCun)共同获得了图灵奖。这么一个集各种荣誉为一体的人,刚刚被普通中国人熟悉和崇拜,但是,他最新言论却被国外Reddit网友激烈讨论。
他说:他特别自豪的是他的一名学生(伊尔亚·苏茨克维Ilya Sutskever)离开了 OpenAI和山姆·奥特曼(Sam Altman ),因为奥特曼更关心利润而非人工智能的安全。
Reddit网友讨论:
1、我一直都很喜欢 辛顿。我相信那些讨厌他的人之所以会讨厌他,是因为在 chatgpt 流行之前,他并不是一个科学界的大明星。其实,在 chatgpt 之前,他是机器学习领域排名前三的名人。现在我们有更多的名人,但那时他确实很有影响力
为何那些讨厌他的人大多讨厌他,因为他们不“想”相信他说的话。
2、诺贝尔奖认可的是霍普菲尔德,
- 在过去的 10 年里,他的大部分贡献都来自 80 年代,属于第一代人工智能
- 辛顿主导的以图像方面的反播算法、卷积神经网络是属于第二代人工智能
- Transformer架构ChatGPT主导的大语言模型属于第三代人工智能
3、辛顿 是个(道德)伪君子,他基本上想禁止开源 AI。有了诺贝尔奖,他的声音只会越来越大。他只是证实了 Ilya 是另一个失败者,OpenAI 做出了绝对正确的决定,不再雇用他。
4、杰弗里·辛顿在刚刚获得诺贝尔奖后就说出这样的话,他对山姆·奥特曼及其实现 AGI 的方向的看法可能极其糟糕。
- 这几乎看起来像是一个(圣经中)告密者时刻。
- 辛顿能最关心的是他的弟子Ilya。
5、我认为山姆·奥特曼做的是正确的事情。
考虑到目前人工智能模型的能力水平,人们对人工智能安全的恐慌完全是杞人忧天。显然,人工智能根本不存在任何风险。
OpenAI 正在将当前水平的人工智能带入人们的手中,这正是现在需要做的事情。我们需要让公众熟悉人工智能。
而这确实会发生,因为它会让所有人吓得魂飞胆丧,包括 OpenAI 的员工。
在此之前,研究当前水平的人工智能的安全性,是毫无意义的浪费时间。你无法为尚不存在的东西设计有意义的安全测试。
6、我认为像 辛顿 一样谨慎是明智之举。这些问题需要在某些时候得到解决,为什么要等到为时已晚呢?制定法律、监管,确保安全优先于利润。
拥有危险能力的强大人工智能可能还需要几年时间才能问世,但如果我们继续把利润放在首位,最终可能会得到可怕的结果。自我改进的人工智能将以指数级增长,因此最好在这种情况发生之前安排好合适的人选。
如果我们有像奥特曼这样的人,盲目地追求利润,那么人工智能最终可能会失衡,以牺牲人类为代价来获取利润。
OpenAI 目前采用与 Google 和 Anthropic 相同的利润结构运营。
他们提供收费的 AI 订阅服务。有什么大不了的?
Reddit 对 CEO 有一种奇怪的准社会痴迷(道德绑架)。
7、这家伙太野蛮了。难怪人们说,责任越大(在这种情况下是诺贝尔奖),就越有吹牛的权利
8、阴谋论:诺贝尔奖委员会正在密谋通过选择一位对这一主题有深入了解的人来推动人工智能安全?
马克·吐温的名言:我们没有人像看上去那么好或那么坏
9、这家伙真是太差劲了。每个用过 ChatGPT 的人都知道它并不危险。人们甚至说 ChatGPT 2 很危险。山姆 奥特曼 是唯一一个有胆量真正推动人工智能发展的人。顺便说一句,辛顿就是那个说抓娃娃机有意识的“白痴”。
10、人工智能安全是一个试图让未来的人工超级智能避免毁灭世界的领域。 从本质上讲,其论点如下:
- 智能≠道德。 我们所谓的道德只是我们个人效用函数最大化的结果,而我们至今仍未完全理解这一进化过程。 我们的道德体系,或任何与之类似的体系,并不比其他任何体系更智能。 我们有可能创造出一个拥有任何目标的超级智能体(包括一个唯一目标就是最大限度地增加宇宙中回形针数量的智能体)。
- 最终目标≠次目标。 这就是所谓的工具趋同,指的是人工智能可以追求看似无害的子目标,同时却有着截然不同的最终目标。 因此,我们永远无法确定人工智能的行动是否至少不会毁灭世界。
- 人工超级智能可能不会局限于任何特定的接口,例如,它可以访问互联网,接管生物医学或标准工厂。
- 从人工通用智能到人工超级智能,假定持续发展,时间可能很短:可能只有几个月到最多几年。
- 我们基本上只有一次真正的机会来调整它。 与其他科学发明不同,一旦 "不友好 "的超级智能被创造出来,一切就都结束了。 一个 "哎呀 "的场景可能是,当人工智能系统重新转换宇宙中的每一个原子,创造出尽可能多的微观笑脸时,每一个人类都会在同一秒钟内死去。
11、Ilya 应该发布自己的 AI,与邪恶的Sam AI 竞争。如果他们觉得发布足够安全的话(看看他们对 GPT2 的评价)。你可以随心所欲地发出美德信号,但如果你无法竞争,那么这一切都只是空谈。
12、不知道 Ilya 打算如何制造“安全的超级智能”,他要做的正是 OpenAI 所说的他们不想做的事情,即在某个秘密实验室里花 5 年时间构建一个强大的人工智能系统,然后向世界发布。
不明白 Ilya 如何与 OpenAI 竞争,因为他不想在短期内发布一款会严重削弱投资额度并因此削弱他们可以获得的计算能力的产品。
与此同时,微软和 OpenAI 正在建设价值 1000 亿美元的数据中心并重启整个核电站以实现他们的目标。
Ilya 非常聪明,但目前看来,Sam 的特殊优势——筹集巨额投资,几乎将成为谁将首先实现 AGI/ASI 的决定性因素。
计算为王。
13、Sam 想要快速加速,但 Ilya 专注于确保一切尽可能安全,这可能需要天知道多长时间。考虑到他们当时是一家非营利组织,我不知道该公司如何生存下来。
Sam 认为确保人工智能安全的最佳方法是逐步发布并让公众对其进行压力测试,我认为这是正确的方法。Ilya 提出的通过考虑所有可能的变量来创建安全的人工智能的想法似乎不切实际。
14、计算为王,但数据质量才是王道。
15、如果您的“安全”担忧在于人工智能可能会制作色情内容或说出其他令人反感的话语,那么您就是一个阻碍人类进步的傻瓜,您会像过去让女性穿长裙包裹全身的那些白痴一样被人们铭记。
如果你对人工智能安全的担忧是基于电影《终结者》,那你也是个傻瓜。我们甚至还没有接近通用人工智能。
除非你的神奇人工智能明天就能发明出能量密度是目前电池 1000 倍的安全电池,否则我们很多年都无法拥有终结者。
16、有人将率先实现 AGI 和自我改进型人工智能。你更希望那是一家美国公司还是一家中国公司?当西方世界喋喋不休地谈论道德和安全时,他们将被由外国先进人工智能策划的中国网络攻击消灭。