谷歌一直处于人工智能研究的前沿,但在应对微软支持的OpenAI竞争压力时,它被迫采取守势,同时面临美国司法部日益严格的监管审查。
周三,谷歌人工智能部门 DeepMind 联合创始人德米斯·哈萨比斯和同事约翰·江珀与美国生物化学家大卫·贝克因破译微观蛋白质结构的工作而共同获得诺贝尔化学奖。
与此同时,前谷歌研究员杰弗里·辛顿 (Geoffrey Hinton)于周二与美国科学家约翰·霍普菲尔德 (John Hopfield) 共同获得诺贝尔物理学奖,以表彰他在机器学习领域的早期发现,为人工智能的热潮铺平了道路。
计算机科学家、联合国人工智能顾问温迪·霍尔教授告诉路透社,虽然获奖者的工作值得认可,但由于没有诺贝尔数学奖或计算机科学奖,因此将物理奖颁发给计算机成就存在偏差。
诺贝尔奖委员会不想错过人工智能方面的研究,所以他们让杰弗里 辛顿走上物理学之路,这很有创意,这两位科学家都值得怀疑,但就他们所做的科学研究而言,他们仍然值得获得诺贝尔奖。
《算法如何创造和防止假新闻》一书的作者诺亚·吉安西拉库萨也认为辛顿的获胜值得怀疑:即使从物理学中得到灵感,他们也没有发展出新的物理学理论或解决物理学中长期存在的问题。
诺贝尔奖的奖项设置了医学或生理学奖、物理学奖、化学奖、文学奖和和平奖,这些奖项的颁发对象都是瑞典发明家阿尔弗雷德·诺贝尔(Alfred Nobel),他于 1895 年去世,在他的遗嘱中规定了获奖者的名字。经济学奖是后来于 1968 年由瑞典中央银行捐赠设立的。
主导地位
美国监管机构目前正在考虑对谷歌进行分拆,这可能迫使其剥离部分业务,例如 Chrome 浏览器和 Android 操作系统,一些人认为这些业务让谷歌得以在在线搜索领域保持非法垄断地位。
领先地位所带来的利润使得谷歌和其他大型科技公司在发表突破性的人工智能研究方面超越了传统学术界。
辛顿本人也对他一生的工作表达了一些遗憾,他去年辞去了谷歌的职务,以便可以自由地谈论人工智能的危险,并警告说计算机可能比之前预期的要快得多地变得比人类更聪明。
他在周二的新闻发布会上表示:“我希望我能有一个简单的办法,如果你这样做,一切都会好起来,但我不知道,特别是考虑到这些事情失控和接管的生存威胁。”
2023 年,由于对人工智能的担忧,他辞去了谷歌的职务。辛顿表示,谷歌本身的行为非常负责任。
对于某些人来说,本周的诺贝尔奖获奖者突显了传统学术界的竞争难度。
吉安西拉库萨告诉路透社,需要加大对研究的公共投资:很多大型科技公司并没有着眼于下一个深度学习突破,而是通过推广聊天机器人或在互联网上投放广告来赚钱,虽然有一些创新,但其中很多都非常不科学。
网友八卦:
谷歌人工智能在第二代浪潮中曾占据主导地位,以图形图像为媒介的视觉模型中是霸主,但是他们忽视了自家transformer架构的深入研究,在这里,辛顿作为当时先驱者和领导者,负有不可推卸的战略方向决策错误,这使得openai在transformer架构上深挖出以语言为媒介的大语言模型,从此告别了视觉游戏模型,进入数学理性世界,迈向了通用人工智能。
当然辛顿弟子伊利亚在openai任首席科学家,他相当于在谷歌和openai两边押注,获得诺贝尔奖以后更是力挺自己的学生,抨击奥特曼掉入钱眼子里了,这位今年年初openai的宫斗大戏添加更加精彩的旁注。
真正全球人工智能真正进入全面大发展只有transformer论文出来以后,但是今年诺贝奖却没有颁给论文作者。诺贝尔奖想跟上科学认知时代浪潮,结果还是赶上了晚集,它的诺贝尔物理奖和化学奖都是颁给了上一代人工智能。
计算机领域不像传统物理化学那样讲究传承,而是否定升级,现在大语言模型代表的人工智能完全不同于视觉图像模型,虽然名字都是生成式,其实语言是命令输入式,图形才是生成式,语言是智能的唯一媒介,当原始人从墙壁上的图形到象形文字发展时,文明才真正诞生,这些都是辛顿之类上代人工智能专家无法意识到的。
吴恩达将自己老师引入谷歌
吴恩达(Andrew Ng)是人工智能领域的杰出学者,他在机器学习和人工智能领域有着重要的成就。吴恩达曾在斯坦福大学担任教授,并在2011年与谷歌的工程师合作创建了“谷歌大脑”(Google Brain)项目,该项目利用谷歌的分布式计算框架来训练大规模的人工神经网络。这个项目的一个重要成果是开发了一个能够在无监督学习的情况下识别猫的10亿参数神经网络,这个成果在当时是开创性的。
但是由于当时没有足够重视transformer架构,因此他们发现当时深度学习的算法限制了硬件扩展,由于RNN之类循环顺序计算特定,导致添加更多硬件资源也无法提高计算速度与性能,而真正人工智能智慧只有等到一定计算规模以后才涌现一点点智能。
吴恩达与辛顿有着师生关系,人工智能教父也是吴恩达首次冠以自己老师的尊称。因为他的学生时代受到了辛顿的教导和影响,由此,吴恩达介绍自己恩师进入谷歌,等于告诉谷歌:我老师请来了,世界上最高水平请来了,对得起你谷歌的,而自己则跳槽到百度,复制了他谷歌的经验,可能对百度的智能自动驾驶起到一定基础开门作用,但是在自己忙碌捞金的同时,OpenAI的ChatGPT爆发了,吴恩达由此担任起人工智能布道教学任务,深层次可能因为他担心自己那套以图像为基础的模型被以语言文字为基础的大模型淘汰,希望给后来人的洗脑。
其实计算机科学的传承真的不像传统科学,传统科学论文总是可以找到它的上篇引用,并且以此为依据判断其科学水平,而在认知科学中,上篇引用可能很少,都是跳跃式发展,因为现在的科学是以人类自身为认知为研究对象,不再像过去牛顿和爱因斯坦以自然宇宙为研究对象了,这些面向对象的改变,很少人适应得过来,包括诺贝尔奖审核专家。
李飞飞的ImageNet
李飞飞主要以其在计算机视觉领域的工作而闻名,尤其是她创建的ImageNet项目。ImageNet是一个包含了上千万张标注图片的大型数据集,它为深度学习算法提供了丰富的训练数据。
- 2012年,辛顿的学生亚历克斯·克里兹夫斯基(Alex Krizhevsky)使用卷积神经网络(CNN)模型AlexNet,赢得了ImageNet图像分类竞赛。
- 2012年,克里兹夫斯基和他的导师杰弗里·辛顿以及Ilya Sutskever共同创立了DNNresearch公司,专注于深度学习研究。DNNresearch的成立旨在推动深度学习的发展。
- 2013年,谷歌收购了DNNresearch,克里兹夫斯基因此加入了谷歌,并在Google Brain谷歌大脑团队工作。他的工作主要涉及深度学习的研究和应用,特别是在计算机视觉领域。
但是,有些人认为李飞飞“其实不懂大语言模型”,认为吴恩达 、李飞飞这些人的公开言语充满傲慢和偏见,也许是他们自己的认知困境造成而不自知而已。
谷歌AlphaFold与颜宁的蛋白质
这次诺贝尔化学奖得主两个来自谷歌的AlphaFold团队,他们用人工智能自动生成了蛋白质模型,而在这之前是依靠一个个科学工作者的辛苦手工作业。
颜宁的研究主要集中在膜蛋白的结构与功能:她的研究方法包括使用X射线晶体学和冷冻电镜等实验技术,解析蛋白质的三维结构,揭示其功能原理。
AlphaGo的开发公司DeepMind后来开发了AlphaFold,这是一款基于深度学习的AI工具,用于预测蛋白质的三维结构。蛋白质结构预测一直是生物学领域的难题,传统方法依赖于耗时且昂贵的实验数据,而AlphaFold通过深度学习模型能够在短时间内预测出高精度的蛋白质结构。2020年,AlphaFold在蛋白质结构预测的关键挑战中取得了显著成果,为蛋白质研究带来了革命性变化。
在颜宁的研究领域,AI工具(如AlphaFold)也被广泛应用于预测膜蛋白的结构和动力学行为。膜蛋白由于其复杂性,一直是结构生物学中的难点,AI算法在快速解析其结构方面展现了巨大潜力,帮助科学家更好地理解这些蛋白质的功能。
颜宁在美国普林斯顿大学担任教授期间,当时已经是国际上非常有影响力的科学家,然而,她选择回国主要是因为爱国。