中国科学院首次证实AI可自发形成人类认知

中国科学家证实人工智能能够自发形成人类水平的认知“结果表明,LLM不是“随机鹦鹉”。相反,这些模型对现实世界的概念有一种内部理解,就像人类一样。

在2025年6月9日发表在《自然机器智能》上的一项研究中,中国科学家提出了一种人工智能系统,据说它“自发地发展了一种人类认知能力”。

中国科学院自动化研究所和神经科学研究所的研究人员也参与了研究。

该研究的主要发现是:人工智能表现出了以前被认为是人类独有的能力,例如自发的类比形成,系统推理和抽象思维。

这表明机器智能可以朝着真正的、类似人类的认知进化。因此,这项研究为未来开发更接近真实的人类思维过程的人工智能系统提供了重要的动力。

总的来说,这项研究代表了人工智能开发领域的一个重要里程碑:它扩展了我们对复杂认知功能如何在机器中产生的理解,为更先进、“更人性化”的人工智能架构奠定了基础。

【超有趣版】AI现在有多像人?科学家发现它居然偷偷学会了"人类思维"!
科学家们最近做了个超酷的实验,发现AI现在不光能认出猫猫狗狗,居然还能像人类一样真正"理解"这些东西!就像你看到"苹果"不光想到红红的果子,还会联想到手机、牛顿或者平安夜一样,AI现在也能产生这种高级联想啦~

这个超级发现是由中科院"最强大脑"团队搞出来的,6月9日登上了顶级科学杂志《Nature》的子刊。

简单来说就是:科学家让AI看了470万组测试题(相当于做了470万道脑筋急转弯),结果发现AI自己琢磨出了一套和人类超级相似的思维方式!

研究带头人杜博士打了个超形象的比方:"以前AI就像个只会背答案的书呆子,现在它突然开窍了!看到狗狗照片时,它不光知道这是狗,还会联想到'忠诚'、'宠物'甚至'拆家'这种人类才懂的概念~"

中国科学院自动化研究所研究员、论文通讯作者何惠光指出,传统AI研究一直关注对象识别的准确性,但很少探讨模型是否真正“理解”对象的含义。

AI和人类"思考"的方式还不太一样:

  • 人类:靠眼睛看+生活经验(比如看到圆圆的红色物体就想到苹果)
  • AI:更像学霸做题,主要靠文字概念和抽象推理

中国团队结合行为实验和神经成像分析,探索LLM中对象概念表征与人类认知之间的关系:

他们从LLM和多模态LLM中收集了470万个三元组判断,以获得捕获1,854个自然对象的相似性结构的低维嵌入。由此产生的66维嵌入是稳定的预测,表现出类似于人类心理表征的语义聚类。

值得注意的是,潜在的维度是可解释的,这表明LLM和多模态LLM开发了类似人类的物体概念表征。

然后,研究小组比较了LLM和人类在行为选择模式上的一致性,结果显示LLM在一致性方面表现更好。

该研究还表明:

  • 人类在决策时倾向于结合视觉特征和语义信息
  • 而LLM则更依赖语义标签和抽象概念。

这项研究实现了从“机器识别”到“机器理解”的跨越。结果表明,LLM并非“随机鹦鹉”,而是像人类一样对现实世界的概念拥有内在的理解。核心发现在于,“心智维度”通过不同的路径到达相似的认知目的地。

中科院的何教授激动地说:"这就像发现鹦鹉不仅会学舌,其实它真懂自己在说什么!"

现在AI已经不是简单的"图像识别工具",而是开始有了自己的"小心思"~