OpenAI刚聘请了一位光量子计算研究员


OpenAI 刚刚聘请了一位光子量子计算研究员,他最近获得美国空军/国防部赞助的专利非常有趣。

我看到了本-巴特利特(Ben Bartlett)发的这条推特,他今天开始在 OpenAI 担任新的研究职位。我不知道他将在 OpenAI 做什么,但他在自己的网站上说,他的研究 "基本上就是为光子设计一些小赛道,诱使它们进行有用的计算"。

我对他的研究进行了调查,发现了最近发表的非常有趣的专利,标题为 "合成时间维度中的确定性光子量子计算"。

很显然,这种东西极其复杂,如果用我的话来解释会很傻,所以我请 Claude 3 Opus 给我一份简化的要点清单。虽然还是有点长,有点复杂,我们说的是光量子计算是:

1、可扩展性:

  • 该提案使用单个原子控制多个光子量子比特之间的相互作用,与系统中的量子比特总数无关。
  • 这使所需的量子硬件数量与量子比特数量脱钩,是光子量子计算机可扩展性方面的重大进步。
  • 传统的量子计算架构通常要求量子元件的数量与量子比特的数量成比例,这对构建大规模系统构成了重大挑战。

2、合成时间维度:
  • 该方案采用了 "合成时间维度",即光子量子比特在光纤环路中循环时,在不同时间与单个原子相互作用。
  • 这样,原子就可以控制许多量子比特,而无需额外的原子或量子元件。
  • 合成时间维度是实现单原子控制机制的关键创新。

3、确定性操作:

  • 拟议的远传方案允许确定性而非概率性的量子门。
  • 许多线性光量子计算方法都依赖于概率操作,但由于相关过程的基本性质,这些操作只能在一小部分时间内成功。
  • 相比之下,该方案中的确定性门在本质上不受概率成功率的限制,因此可以提高计算的效率和可扩展性。

4、最小化量子硬件:

  • 无论系统中的光子量子比特数量有多少,该方案都只需要最小的量子硬件(腔中的单个原子)。
  • 与硬件需求随量子比特数量而增加的量子计算架构相比,这是一个显著优势。
  • 最小化所需的量子硬件可以大大简化大规模光子量子计算机的实验实现。

5、对瑕疵的稳健性:

  • 论文中的分析表明,该方案即使在现实实验不完美的情况下也能保持高保真运行。
  • 估计错误率低于容错量子计算的阈值,而容错量子计算是实用量子计算的一个关键里程碑。
  • 该方案对缺陷的鲁棒性增强了其可行性和实用性。

我绝不是专家,但我发表这篇文章的原因是,这看起来是在人工智能应用中大规模使用量子计算机的一条非常有前景的道路,因为它使用单个原子来充当所有光子量子比特的控制中心。这项前沿研究似乎克服了我们长期以来听说的许多问题,这些问题使得量子计算成为 "永远 20 年后 "的技术之一。

更重要的是,这让我想起了 OpenAI 最近聘请诺姆-布朗(Noam Brown,OpenAI 研究多步骤推理、自我游戏和多代理人工智能的研究科学家)的情况,他曾在 Meta 工作,并创造了 CICERO(能和人类一样玩外交游戏的人工智能)以及 Libratus 和 Pluribus(能击败人类顶级扑克职业玩家的超人扑克人工智能)。在去年 11 月的 Q* 事件中,Yann LeCun 对 OpenAI 聘请诺姆-布朗的原因是这样说的:

"Q*很可能是OpenAI在规划方面的尝试。他们几乎雇佣了诺姆-布朗(Noam Brown,Libratus/扑克和西塞罗/外交名家)来从事这项工作。"

我想说的是,这些人才对 OpenAI 来说意义重大,他们很可能是为了特定项目而受雇的。

我不记得以前从 OpenAI 那里听说过什么量子计算,所以这似乎是他们正在探索的一条新途径。这让我不禁好奇,如果量子计算、核聚变(萨姆-奥特曼和微软大力投资的项目)和人工超级智能都汇聚到一个系统中,10 年后的世界会是什么样子。当然,这只是我的猜测,请谨慎对待。