我们终于知道AI如何“思考”了——基本没啥思考

华尔街日报 2025-05-14 13:06+-

华尔街日报专栏作者Christopher Mims评论文章:研究人员正在开发新工具,以便能够观察AI模型的内部。研究结果让许多人开始对这些模型接近通用人工智能的结论产生疑问。

人工智能领域的大佬——OpenAI、Anthropic、谷歌(Google)及其他公司的领导者——仍然自信满满地预测,人工智能很快就会变得跟人类一样聪明。但持反对意见的人越来越多,声量也越来越大。他们说,人工智能压根就不会像人类这样思考。

这些研究人员的工作表明,今天的人工智能模型在底层架构上存在某种根本性限制。今天的人工智能之所以能够模拟人类的智能,从本质上说是通过学习大量经验法则来实现的,它们将这些法则有选择地应用于遇到的所有信息。

而人类乃至动物则能够以多种方式对世间万事进行推理并预测未来。我们生物体会建立“世界模型”来理解事物如何运作,包括因果关系。

许多人工智能工程师声称,他们的模型也在庞大的人工神经元网络内建立了这样的世界模型,证据是这些模型能够写出明显表现出推理能力的流畅文字。所谓“推理模型”的最新进展让一些观察人士更加确信,ChatGPT和其他公司已经达到与人类相当的能力水平,这在业内被称为AGI,也就是通用人工智能。

ChatGPT及其竞品自问世以来,大多数时候都像是神秘的黑盒子。

我们不知道它们是如何生成结果的,因为我们对它们进行的是训练而不是编程,构成这些模型人工“大脑”的大量参数以创造者捉摸不透的方式对信息和逻辑进行编码。但研究人员正在开发新工具,以便能够观察这些模型的内部。研究结果让许多人开始对这些模型接近通用人工智能的结论产生疑问。

“关于这些模型究竟在做什么,还有用来描述它们的一些拟人化语言,存在一些争议。”圣菲研究所(Santa Fe Institute)研究人工智能的教授梅兰妮·米切尔(Melanie Mitchell)说。

圣菲研究所教授梅兰妮·米切尔

圣菲研究所教授梅兰妮·米切尔图片来源:KATE JOYCE/SANTA FE INSTITUTE

“启发式规则包”

探索大语言模型的新技术——属于“机械可解释性”这一不断发展的领域——能够向研究人员展现这些人工智能如何进行数学运算、学习玩游戏或在环境中导航。米切尔在最近发表的一系列文章中指出,越来越多的研究表明,可能的情况似乎是,模型会建立巨大的“启发式规则包”,而不是创建效率更高的场景心智模型,然后通过推理来完成手头的任务。(用平白的话来说,“启发式”是指解决问题的捷径。)

当哈佛大学(Harvard University)的人工智能研究者基恩·瓦法(Keyon Vafa)第一次听说“启发式规则包”理论时,“我觉得它为我解锁了一些东西,”他说。“这正是我们试图描述的东西。”

瓦法自己的研究是探索人工智能在接受数百万次类似谷歌地图那种逐个提示转弯的导航训练之后,会构建出什么样的心智地图。瓦法和同事使用了曼哈顿密集的街道网络作为原始材料。

AI在经过数百万条逐个转弯路线的训练后,在其“思维”中生成的曼哈顿地图。该研究成果来自于Keyon Vafa、Justin Y. Chen、Ashesh Rambachan、Jon Kleinberg和Sendhil Mullainathan的论文《评估生成式AI模型中隐含的世界模型》(Evaluating the World Model Implicit in a Generative Model)。

AI在经过数百万条逐个转弯路线的训练后,在其“思维”中生成的曼哈顿地图。该研究成果来自于Keyon Vafa、Justin Y. Chen、Ashesh Rambachan、Jon Kleinberg和Sendhil Mullainathan的论文《评估生成式AI模型中隐含的世界模型》(Evaluating the World Model Implicit in a Generative Model)。

结果看起来一点也不像曼哈顿的街道地图。经过仔细观察,研究者发现人工智能推断出了各种脱离现实的机动路线,比如直接越过中央公园或斜穿许多街区的路线。但由此产生的模型成功给出了曼哈顿区任意两点之间可用的逐个转弯路线,准确率高达99%。

瓦法说,尽管这张乱七八糟的地图会让驾车者抓狂,但人工智能模型已经基本学会在多种情况下从每一个可能的起点出发进行导航的单独规则。

人工智能庞大的“大脑”加上前所未有的处理能力,使它们能够学会如何以一种杂乱无章的方式来解决问题,而这是人类不可能做到的。

思考还是记忆?

还有一些研究关注大语言模型尝试进行数学运算时所表现出的特殊性,这些模型从前不擅长数学运算,但现在的表现越来越好。一些研究表明,模型在做某个数值范围内的乘法,比如200到210之间数字的乘法时,会学习一套单独的规则,在做其他数值范围内的乘法时,则会学习另一套规则。如果你认为这种数学运算方式不太理想,那你说得没错。

这方面的研究都表明,在引擎盖下,今天的人工智能是过于复杂、拼拼凑凑的鲁布·戈德堡机械,其中充满了回答我们提示的临时性解决方案。瓦法说,如果理解了这些系统是一长串拼凑在一起的经验法则,就能很好地解释,为什么当它们被要求做未经训练的事情,哪怕只是超出训练范围一丁点的事情,也会非常困难。当他的团队阻断仅1%的曼哈顿虚拟道路,迫使人工智能绕道而行,人工智能的表现便直线下降。

他补充说,这说明了今天的人工智能与人类之间的一项重大差异。人可能无法以99%的准确率记住纽约市内的每一处转弯,但人的思维足够灵活,可以避开一些道路作业。

这项研究还揭示出为什么许多模型都如此庞大:它们必须记住无穷无尽的经验法则,而无法像人一样,把知识浓缩到心智模型中。这或许也有助于解释,为什么人工智能必须从海量的数据中学习,而人只需要经过几次尝试就能掌握知识:为了得出这一条条经验法则,它们必须看到单词、图像、棋盘位置等所有可能的组合。而要想真正训练好人工智能模型,需要让它们反复看这些组合。

这项研究或许还能解释,为什么不同公司推出的人工智能似乎都在以同样的方式“思考”,甚至性能水平也在趋同——而这种性能水平的发展可能趋于停滞。

以前的人工智能研究者也曾信心满满。1970年,麻省理工学院(Massachusetts Institute of Technology)教授马文·明斯基(Marvin Minsky)告诉Life杂志,“三到八年后”,计算机将拥有普通人的智力。

我们终于知道AI如何“思考”了——基本没啥思考

去年,埃隆·马斯克(Elon Musk)声称,到2026年,人工智能将超越人类的智力。今年2月,山姆·阿尔特曼(Sam Altman)在自己的博客上写道,“我们看到,系统开始指向通用人工智能”,这一历史时刻代表着“某种东西的开始,很难不说‘这次不一样’”。4月22日,Anthropic的首席安全官警告说,“虚拟员工”将在一年内进入美国公司工作。

即便这些预言被证明为时尚早,人工智能也将继续存在,并改变我们的生活。软件开发人员才刚刚摸索出如何利用这些无疑令人惊艳的系统来帮助我们所有人提高工作效率。虽然人工智能固有才智的发展可能趋于停滞,但完善人工智能的工作仍在继续。

与此同时,对人工智能“思考”方式局限性的研究恰恰可能是完善人工智能的重要一环。麻省理工学院人工智能研究员雅各布·安德烈亚斯(Jacob Andreas)在最近的一篇文章中写道,更好地理解语言模型所面临的挑战,有助于找到训练它们的新方法。他说: “当我们着手处理这些局限性时,我们就能让语言模型变得更好(更准确、更可信、更可控)。”

  • 最新评论
  • 破棉袄

    即使现在的大模型无法超越人类智慧,但是其应用前景已经足够广泛了,假以时日,将在文本解读,图像分析,数据分析,报表,自动驾驶,机器人,工业自动化,等等许多领域广泛应用。

    屏蔽
  • 金唢呐

    通过对AI的互动和交流,觉得这篇文章的结论过于草率。就拿人类的智慧来说,有几人能做到完全理性思考的呢?这也涉及到到底什么是意识和智慧的问题。一切都是梦幻泡影,人类的意识和智慧,如果向微观下去追查,也许不过就是大脑神经细胞的电信号活动的统计计学表象而宏观上呈现出逻辑和智慧的。如AI一样,若求其本,其本本空..

    屏蔽
2