感觉:人类大脑的专利

作者:0+1
发表时间:
+-

最近读到两篇谈人工智能(AI)的文章。一篇有关桥牌,一篇有关数学定理的推导。正好自己这两方面均有涉猎,就写两篇谈谈自己的感想。

关于数学定理的那篇谈到,有人认为,AI和人脑的区别,在于人脑会“感觉”。对此,我深有同感。文章谈到,在费马大定理358年的漫长求证过程中,现在看来,关键一步就是日本数学家谷山丰和志村五郎差不多在同一时间分别独立地感觉到费马大定理和椭圆函数方程中存在一种微妙的联系。以后两人合作研究,最后得到了不那么著名的谷山-志村猜想。以后,加州伯克利大学的Ribet教授证明了费马大定理和谷山-志村猜想是等价的。最后,普林斯顿的Wilse教授临门一脚,用了8年时间,于1993年最终证明了谷山-志村猜想,也证明了费马大定理。

在这个漫长的过程中,谷山-志村猜想的建立,Ribet教授证明两者的等价, Wilse教授的证明,以及成百上千其他数学家的不懈努力,当今的AI经过专门训练后,都可能全部或部分加以完成。唯有那句轻描淡写的“感觉”,感觉到两者之间的微妙联系,却是当今或今后最优秀的AI都无法胜任的。

历时124年,著名的四色定理是由美国数学家Haken   Appel 1976年证明的。这个猜想说,任何地图都可以用四种颜色标识。人们早就证明五种颜色足以标识任何地图,人们感觉其实四种颜色就够了,就是无法证明。

这两位数学家的大部分工作是用计算机完成的,但这不是当今意义的AI。他们写了程序,命令计算机如何计算。但是最关键的一步,还是两位数学家完成的。他们把各种地图归类成1482种基本构型,他们只要证明这其中任何一种构型只需要最多只需要四种构型就可以了。

四色问题的复杂性远超过外行人的想象,我对此也知之甚少,我们只来观察一下,如果放到今天,AI能做些什么。对地图进行分类本身并不容易,更难的是如何证明两个同类或不同类的构型拼接以后,边界上不会产生新的着色问题。然而,一旦这两点能够完成,对1482个构型逐个检验,对于受过训练的AI或许不是大问题。令人惊讶的是,他们的程序已经具有学习功能,“它会根据教会它的技巧制定出复杂的策略”。

下面两个例子是我自己1991年的研究成果,我很有兴趣看看如果我们34年前没有解出,今天的AI能否胜任。

第一个是集体震动模式,是个历经36年的世界难题。第一步是我的博士后导师Percus根据牛顿名下一个鲜为人知的数学定理,得出了一个生存函数,然后就被卡住了。大约两个月以后,他邀请我参加这项工作。第二天我告诉他,这个问题在四个粒子的情况解答是存在的。正如我在《暗示的力量》一文中所说,这个强烈的暗示给了我们极大的鼓舞,我们在两个星期内得到了完整的解答。

如果让AI做这个课题,它大概率是不知道牛顿这个定理的。我的理由如下。理论物理学家都知道,超级大师朗道最喜欢用这个数学工具,他不可能没有想过这个问题。就他的聪明程度,他如果知道牛顿的这个定理,大概不用两个星期,只要一个晚上,就能得出解答。连朗道都不知道这个定理,当今AI的训练团队不知道就不足为奇了。没有这个定理,这个问题就不可能解决,所以整整用了36年。

我导师是电机工程学士,数学硕士,物理博士,师从诺贝尔奖得主汤川秀树。我以为他是读硕士时偶然接触到的,凭着超强的记忆力所以还记得。我问他在参考文献中这个定理的出处怎么写。他说家里有这本书,回去查一下。

即使AI的资料库有这个定理,AI如何凭“感觉”,在浩如烟海的定理资料库,找出这一个来帮助自己。

另一个问题与无规吸附有关,至少有52年历史。我1991年解出这个问题时,参考文献中还没有中国国内学者的名字,所以这个中文译名是我自己给出的。

问题大致如下,我们有一个系统的密度表达式,是时间t的无穷级数,t的幂次k代表在晶格上随机行走k步。系数的诸多因子中有一项是行走k步可能的走法。这个随机行走是允许重复的,这k步中可能有几种走法会有重复。凭着排列组合专家的职业习惯,我马上想到把这原地踏步给消除掉。通过改变求和次序,我做到了这一点。然而,这个新的级数也无法求和,而且似乎更复杂了。这时候,“感觉”就发挥了作用。因为是t的无穷级数,我就对级数进行拉普拉斯变换。变换以后,奇迹发生了,好几个求和号消失了。再对新的表达式进行拉普拉斯反变换,最后结果不再是t的无穷级数,而是x=1-exp(-t) 的无穷级数。原先的级数当t趋于无穷,每一项都是无穷大。而现在当t趋于无穷,m每一项是1乘上一个有限的但越来越大的系数。

在整个过程中,消除原地踏步应该是很容易训练的,告诉AI一次以后它就知道这么做了。拉普拉斯变换后,改变求和次序并求和也是可以训练的。拉普拉斯反变换是这种工作的必要步骤,应该不用训练。反变换时用到了Beta函数,我不知道对AI难度如何。

这儿最难的是,在众多的数学工具中,怎么凭“感觉”去找到拉普拉斯变换,各种各样的变换多的是。其实,当时的情况也不一定是“感觉”,更像病急乱投医,凭感觉找一个试试看。

前些日子,我写过一篇短文《都错了》。我让ChatGPTDeep Seek做一道著名的不算太难的数学题,结果两者都错了,Deep Seek 还错的非常离谱。我得出结论,AI只会模仿,不能创新。这种模仿可以非常高端,就像证明四色定理的计算机程序那样,但从严格意义来说,还是不能算创新。创新,恐怕就是文中谈到的“感觉”,是AI无法胜任的。