奥特曼下台之前OpenAI董事会早已分裂

banq

OpenAI 董事会在安全性和进展速度问题上存在分歧:

  • 董事会成员海伦·托纳(Helen Toner)发表了一份报告,主张在发布强大的人工智能系统之前采取更多的安全预防措施。
  • 奥特曼认为这损害了 OpenAI,并希望将她从董事会中除名。
  • 其他董事会成员担心奥特曼“过于关注扩张”而不是安全。
  • 他们的分歧导致在任命新董事会成员方面陷入长达数月的僵局。

发展与安全哪个更重要?
普遍的观点是,人工智能的商业兴趣越大,投资的资金就越多,公司尝试占领该市场的速度就越快。这会因竞争而加速发展,从而增加AGI的风险,而安全性则被视为“减速”。

不仅仅是 OpenAI。每个人工智能组织都发现他们的内部团体与组织其他部门的方向不同,并试图摆脱这些团体。

  • 谷歌解散了“道德人工智能”小组
  • Facebook 刚刚解散了“Responsible AI”团队
  • OpenAI 希望摆脱董事会中的“有效利他主义者”

总会有一些邪恶的人利用人工智能来试图实现邪恶的目标。骗子、恐怖分子、黑客。现在所有使用计算机做坏事的人,他们都会尝试用人工智能做更糟糕的坏事。我们需要通过改善我们的安全来阻止这些人。

就像已经修复了电话号码系统一样。必须有某种方法来阻止机器人诈骗电话。验证每个拨打电话的人并阻止垃圾电话。

这比随机放慢顶级公司的速度更有利于人工智能安全。

董事会争权
奥特曼可能长期以来一直在谋求获得董事会的控制权,甚至数年之久,他操纵董事会的离职并与微软签署协议。董事会终于意识到了这一点。

海伦·托纳想让奥特曼滚开,而奥特曼试图在她损害公司之前将她除掉。海伦·托纳说过摧毁这家公司将有助于完成其使命,难道美国如果不发明原子弹,其他国家就不会了吗?

关键是她难道真的相信:没有其他实体拥有与 OpenAI 相匹配的资源,即使存在其他类似openAI实体,它也会自我毁灭而不是继续发展?
“顶级”公司的人很容易陷入这种谬论。FAANG(尤其是 Google 和 Facebook 的工程师)在各种事情上都是这样思考的。

实际情况是:对于任何软件项目,如果明显有用,那么您的竞争对手很少会落后您超过 1 年。OpenAI 制作了 ChatGPT,这表明这种东西显然是有用的,从而拉开了军备竞赛的序幕。现在,他们为了保持自己的市场地位而正在流血经营一种没有人能够盈利的模式。

真正的问题是 OpenAI 从一开始就注定会失败。人工智能的商业价值太高,无法由像他们这样肩负使命的组织开发。最终他们必须做出选择:要么成为不顾人类福祉的营利性企业,要么忠于使命并放弃处于人工智能开发前沿的雄心。

非营利组织无法在开发原子弹方面击败超级大国,非营利组织也无法在开发人工智能方面击败商业利益。

美国和其他国家正在进行一场不公开的军备竞赛,而据我们所知,美国的私人实体(或实体)恰好认为他们已经足够接近实现目标,他们的目标是积极致力于诸如对齐之类的事情,而不仅仅是在 GPU 和其他乘法硬件上瞎搞。

AGI 要么即将到来,要么需要 50 年或更长时间,如果它即将到来,你会希望至少有某种表面上的平衡的各方最终能够掌管这件事。假设这项技术的武器化能够实现,将极大地改变世界的力量平衡。每个人似乎都在担心错误的事情:通用人工智能AGI 是否会对我们友好。其实这并不重要,重要的是谁控制它。

海伦·托纳通她与 Open Philanthropy 的合作,很早就向 OpenAI 捐赠了 3000 万美元。她就这样进入了OpenAI董事会。也有人认为,她其实是为一个捐赠了 3000 万美元的组织工作,他们让她进入董事会。

有网友强烈怀疑:整件事的起因是她过度膨胀的自我意识,以及想把自己当成主角,成为拯救世界的主要 "抵抗力量 "的欲望。EA 哲学确实有毒。它导致人们为了崇尚抽象的理想而背叛亲近的人,而这些理想很可能是错误的。如果你要组建一支任何类型的团队,就应该像躲避瘟疫一样躲避这样的人。