家庭超级智能:deepseek一体机

未来是属于我们每个人的:家里的智能助手会怎么改变我们的生活呢?

想象一下:再过一两年,我们可能就能在自己家里运行小型的超级智能模型了。不需要依赖云服务,不用交月费,也不用等公司批准你怎么用。

你只需要在桌子上放一个,就能直接享受到最原始的AI能力。随着新的图形处理器(GPU)和专门为AI设计的芯片越来越便宜,这种变化不仅是可能的,而且是一定会发生的。

现在,让我们来畅想一下这带来的各种可能性。

  • 你的个人AI助手真的懂你——知道你的习惯、工作、喜好——而且不会把你的数据泄露给那些大科技公司。
  • AI可以自己改进,自己调整,用现在聊天机器人还做不到的方式来帮你。
  • 你可以完全自由地创作——无论是图片、视频、音乐还是整本书,都不受外面公司的限制或者隐藏的偏见影响。
  • 你的工作效率会大大提高——编程更快,研究更深,还能自动完成一些现在看起来不可能完成的日常任务。
  • 你会拥有真正的数字自由——你的AI,你做主。没有审查,没有付费墙,也没有“服务中断”。
我们正从“租用智能”转向“拥有智能”。唯一的障碍是什么?就是计算能力。你家里拥有的计算能力越强,你对未来的掌控力就越大。

我们会同时做到这两件事——
首先,超级智能(ASI)会在你的设备上运行,比如台式机、笔记本电脑、手机或者虚拟现实设备,然后它会转移到你的个人机器人上(这个机器人会连接到你的设备),最后它会进入你的大脑接口(不管是植入式的还是非植入式的)。

对大多数人来说,他们自己的计算能力就足够应付日常生活中的事情了。

但是,对于那些需要超级智能来处理的事情(比如管理整个文明),我们也会继续在大型计算集群上运行超级智能。

当需要的时候,你的个人超级智能会和这些更大的超级智能进行交流。如果你想听点更惊人的话题,现在确实有一种技术可以让你用思想控制你的智能家居。


这绝对是让人震惊的技术,应该多聊聊。
虽然现在还不是主流,但如果有人愿意,这项技术已经存在,只需要你的想法,就能用你的思想以数字方式控制任何东西。

现在想象一下,一个大模型来运行你用思想控制的智能家居:
这项技术已经存在,如果有人想把它拼凑起来,现在就可以实现,但当然,这种应用的普及还需要一段时间。未来会出现先进的人工智能系统,但我对未来一两年内在家庭系统上实现超级智能持怀疑态度。如果开发出超级智能(通用人工智能),它很可能会首先在大型数据中心运行——可能在未来5年内。

目前,最先进的模型需要超过1TB的GPU内存才能有效运行,而且它们还不是超级智能。
比如,deepseek R1有6710亿个参数,每个参数占16位,大约需要1.3TB的内存。目前最常见的家用商用GPU提供16GB的内存,有些甚至达到24GB。你可能会推测GPU内存将在未来2-3年内大幅增加,但根据过去五年的数据,GPU内存大小几乎没有翻倍。

同样,计算机内存也出现了小幅增长。我3-4年前买的电脑最多可以升级到64GB内存,而几个月前买的带有非常昂贵主板的新电脑最多可以支持128GB内存,再次强调,我说的是家用硬件。服务器可以拥有更多内存,但它们确实非常昂贵。

为了让超级智能有效运行,可能需要至少3TB的GPU内存,用于大约1.5万亿个参数。通过将精度从16位降低到4位,这个要求可以降到768GB,但模型可能不准确。你可以在服务器级设备上运行它。

关于自我改进的人工智能,目前的技术不支持不经过重新训练就能实时自我改进。
重新训练一个1.5万亿参数的模型非常昂贵,虽然有一些技术可以降低成本,而且现在很多人用它们进行微调,但这仍然不是一个实时的过程。

专用的人工智能芯片,比如各种NPU和光子学,在短期内不太可能被普通消费者所接受。这些技术主要由大型数据中心收购,这些数据中心拥有几乎无限的购买力,并且价格非常高。我认为普通人主要会坚持使用云AI,而爱好者则会越来越多地推崇DIGITS等本地服务器。

但一旦人形机器人变得无处不在,这些家庭服务器也将变得普及。到那时,机器人可能可以完全在机器人内部完成物理移动所需的所有计算,但我认为它会将所有智力任务转移到其他地方,以至少节省电池。

如果人形机器人连接到云端并可从云端控制,我对拥有它有点犹豫。你能想象特斯拉机器人在你家里跑来跑去,带着摄像头,把所有东西都送到特斯拉的数据中心吗?

因此我认为所有这些机器人都需要离线工作。如果机器人本身的成本为5万美元,那么他们可以简单地将5000美元的服务器成本包含在价格中,并将其与机器人一起发货。

最终,拥有这样的机器人(以及本地服务器)将像现在拥有一辆汽车一样普遍。

总之:
别觉得这是个有争议的看法,人工智能其实一直在往这个方向走,DeepSeek 的出现只是让这个趋势更明显了。

你可能会听到一些时髦的词,比如“人工智能民主化”或者“人工智能边缘计算”。其实意思都差不多,虽然那些大型数据中心可能还在忙着搞出下一个火爆的人工智能模型,但现有的模型已经开始从这些大地方搬到小一点的企业服务器机房,甚至像你说的,搬到咱们自己的机房里。用户们会根据自己的需要对模型进行一些小的调整,然后把它们放在本地运行,这样就不用担心网络延迟或者其他因为联网带来的问题了。

我觉得你可能需要更清楚地明白一点,你可能会觉得模型只会在本地做一些简单的推理任务,这其实现在用普通的消费级产品就能做到了。

或者你可能在想,是不是要重新训练或者微调模型,让它更符合你的需求。如果是后者的话,那就需要更强的计算能力了,比如真正的服务器或者工作站,至少也得是一台性能不错的本地 AI 一体机。像技嘉这样的 AI 服务器公司已经在卖这种设备了,专门用来在桌面上进行 AI 训练,比如他们的 AI TOP(www.gigabyte.com/Consumer/AI-TOP?lan=en),所以他们确实看到了这个需求。

不过我觉得,咱们大多数人可能更愿意直接在本地用 AI,而不是花时间去重新训练它。就像我们大多数人喜欢直接买电子产品用,但很少有人会想着拆开电器自己改点什么。