法国刘学伟博士

注册日期:2011-07-20
访问总量:1181028次

menu网络日志正文menu

【学伟论道】人工智能畅想曲


发表时间:+-

如何防范危险?给人工智能“立宪”,大家觉得怎么样?

法国斯特拉斯堡大学获历史学博士

【本文原标题为“人工智能畅想曲”,风闻社区有修改】

500

【作者按语】

三个月以来,一个人工智能软件火出天际。那就是无人不谈的ChatGPT。其热度已经远超2016-2017年击败李世石和柯洁的Alpha-Go。笔者想起,当年受其刺激,认认真真写过两篇关于人工智能的文章。当时也是广为传播。这里是第一篇。为了回应现在的人工智能热潮,笔者把它略加修改补充,重新发布,期望对各位非专业人士理解人工智能有所助益。关于ChatGPT,现在已有极多文章面世,其中一些写得真好。笔者是否也写一篇,容后再定。

谷歌的AlphaGo与代表人类的韩国围棋冠军李世乭的五番围棋,把已经是相当热闹的人工智能问题,摆上了风口浪尖。随着人类对电脑/人工智能的已经极度严重,还在与日俱增的依赖的发展,人工智能的安全性日益提上了严肃的人类议程。

【本文大部分内容不是本人独创,而是从各种相关人工智能的书籍、文章中综合而来。本文属于科普性质,探讨性质,不是学术论文,没有那么严肃。特此预先声明。】

【第二个声明是,这里阐述的主要是对人工智能发展潜力最看好的一派人工智能专家的意见。很是骇世惊俗,说不好有多大可能成为现实。不是主流意见。先给你压压惊。】

【个人意见或用“笔者认为”打头,或者放在【】中。】

此外,文中插图的出处,皆有注明。笔者在此对创作者表示敬意和谢意。

考虑到本文投稿网络,篇幅没有限制,说得详尽或者啰嗦一点,先请各位见谅。

一、若干相关定义

智力(Intelligence):不同的人所各自拥有的不同于他人的理解复杂概念,有效地适应环境,通过经验学习,进行不同类型的推理,通过思考去克服困难的能力。

人工智能(Artificial Intelligence, AI):它是研究开发用于模拟延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学

人工智能分三个等级:弱人工智能(Weak AI)、强人工智能(Strong AI或 Artificial General Intelligence AGI通用人工智能)和超级人工智能(Super AI)。

弱人工智能就是在某一个方面可以媲美甚至超越人类能力的人工智能。其实这类人工智能的更准确叫法应该是专用人工智能(Special AI)。这样的人工智能实在已经是太多。比如这次震撼地打败李世乭的AlphaGo就是一个典型的弱(专用)人工智能。人类现在对这类弱人工智能的依赖已经是无所不在。离了这些弱人工智能,可以说,现代的人类社会一天也玩不下去。(当然那些原始部落除外。)

强人工智能就是不限于某一个具体行业,能在一般智力上媲美正常人类的人工智能。它的准确称呼的确应当是通用人工智能。这个强(通用)人工智能就应当可以完成一个正常人所能做的所有(或大多数非特定的)智力活动。如果配上一个机器人的躯体,它也应当能够(通常会更好地)完成人类所能从事的所有(或大多数非特定的)体力(物理)活动。

超级人工智能就是远超最聪明的人类(比如爱因斯坦)的聪明程度的人工智能。它可能做的事情,在各种科幻电影中多有描述。大概在电影《终结者3》中描述的那个天网就是这种超级人工智能最可能的形态。这个超级人工智能一定是强人工智能自行发育然后觉醒(这个概念后面解释)而成。从将来那时的现状而言,它已经不能称之为人工智能,虽然在渊源上它显然来自人工智能。因此人们经常把术语中的人工一词删去,仅称超级智能(Super Intelligence)。

这里还要补充定义一下人工智能和机器人(Robot)的区别。机器人是一个有一定智能的躯体。(倒是不一定像人的形状。人形机器人只是广义机器人中的一类。)但人工智能则并不一定具有机器人的躯体。比如AlphaGo就没有身体,它还需要台湾来的黄士杰博士帮它放棋子。人工智能的外延比机器人更广,但人工智能是机器人的本质。


二、我们离强人工智能和超级智能还有多远

当代最著名的未来学家,Google公司的技术总监库兹韦尔在2005年写了一本十分著名的书名叫《奇点临近》(The Syncularity is Near),提出一个发展速度的加速回报定律(law of acceleration return)。说的是,人类社会各方面,尤其是科学技术方面的发展速度在不断加速。比如人类近500年来创造的物质精神财富超过以往10万年。20世纪创造的人类文明成就超过以前20个世纪的总和。而21世纪以来的这15年,人类社会发生的变化,超过以前至少50年。而以后呢,从2015年到2030年的变化他认为铁定比前15年快上至少一倍。以后类推,总之就是一个越来越陡的指数曲线。这样推算下去,不用到本世纪末,地球人类的智慧产物,就可以铺满至少整个太阳系。(殖民、占领整个银河系还是整个宇宙或者还要等到第22世纪?) 

500

图解奇点的倒计时  横轴是按指数排列的倒计时,单位是年。纵轴是按指数排列的地球史上重大事件之间的事件间隔,单位也是年。图中是各项重大历史事件。第一项是生命出现,最后一项是个人电脑出现。两个轴都按指数排列后,重大历史事件的位置连成一条十分平滑的斜线。

图一到图三,引自库氏著作《奇点临近》。

500

奇点倒计时2:  图中数据与图一完全相同。纵轴也相同,只是横轴的标记改成了绝对时间线性排列。109是10亿年。当然绝大多数重大事件都发生在最近。越近越密。就说越发展越快。

本人的确认为库氏的估计过于乐观,但人类科技在加速发展确是一个无可置疑的事实。比如IBM的深蓝电脑在1997年战胜人类国际象棋冠军卡斯帕罗夫。那真是一台专用的电脑。完成下棋任务后根本没有其它的用途,早就被拆掉。而现在深度思考公司开发的程序,在用来对付围棋之前,已经有了很多用途,以后更是前途无量。他们开始研究围棋不过两年时间,半年以前,才是职业二段的水平,现在就可以打败人类顶尖高手。再过几个月,这个具体项目是不是只好停掉。因为那就像组成一个最强的地球足球队,可它没有对手(独孤求败)呀!或者,它可以来当人类棋手的教练,为古老的围棋发展出一个机器流派。 

人人都看得见,弱人工智能正在全面突破,一个接一个以前由人类垄断的地盘被电脑/互联网攻破然后逐步接管。(比如打字员、房屋中介、大量的实体商店……)人类现在几乎所有的智能工作,都在电脑的协助下进行。离开了电脑,太多的智力行业(比如会计、建筑设计师、媒体),已经完全玩不下去。现在甚至连编普通的应用程序都变得比以前简单了许多。因为已经有了无计其数的现成的程序包。就像现成的乐高游戏零件一样,你只要按你的具体需要把它们拼接起来就行。比如你的程序要用到一个窗口,那个窗口已经现成,你只要把你需要的内容填进去就行,完全或用不着你再去编写这个窗口的代码了。

500

图解:到2000年,1000美金能买到的电脑智力不及老鼠。今后按指数级数递增,到2020年库氏认为就可以接近人脑。到2050年1000美元就可以买到当今全人类的智力总和。这当然过于乐观。窃以为,到那个时候,地球上的价值一定上亿的最强大的电脑的能力,可以超过地球人智力的总和甚或许多还差不多。但绝不是一台1000美元的电脑就可以。那样人真的是可以被彻底淘汰了 。

库氏论证这个发展加速有极多繁复的论据。限于篇幅,我这里只能是简化再简化。他的意思大体是说,在1950年代,电脑初生时代,其智力只能与变形虫相当,到1960年代,与虫子相当。到2000年代,与老鼠相当,到现代,已经与猿猴相当。想想地球上的生物从变形虫发展到猿猴,可是用了几十亿年。从猿猴到人类则是上百万年。而电脑从变形虫水平发展到猿猴水平用了60年,那么电脑猿猴水平再发展到电脑人的水平,还该用多少年呢?从现状看,总而言之,几十年应该是够了。在人工智能专家群中做的民意测验表明,最早的预计2025年,最迟的预计2060年,中位数是2045年,距今30年。库氏把这个日期叫做人类技术发展的奇点,反复告诫人们,在此日之后,人类的命运将与以前截然不同。【有人告诉我,这些参加测验的专家,都是库氏的朋友,见解有失偏颇,大家要保守看待这个估算。】

500

左图表达的是对发展速度的不同估计。用那条发展速度指数曲线上切点的切线或割线的斜率表示。理解这一点需要高中解析几何的数学基础。大多数读者应当还记得。

最可怕的不是这个30年的短暂跨度,而是这个30年以后,强人工智能并不会停止发展,而是遵循库氏的那个加速回报定律,一定会在短短的几年至多20年内,就发展到远超人类智力水平的超级智能。未来学家把这个强人工智能出现到超级智能出现之间的状况描述为:智力爆炸(Explosion of Intelligence)。这一派未来学家认为,在这个智力爆炸的过程中,困扰人类千年、万年的绝大多数难题,都将得到解决。比如部分地区的物质匮乏,比如各种各样的健康问题(所有的?疾病),比如最合理优秀的政治制度、世界政府。想想那时的人类有无数的超级爱因斯坦相助,这些问题解决起来,也应当是困难大减。

但真正可怕的是,在这个短短的看似极度美好的智力爆炸阶段过去之后,第一个超级智能一旦出现,它有极大的可能在非常短的时间内就会通过互联网接管其它所有的强人工智能。至于现在人类掌握的弱人工智能,就更不在话下。这第一台超级人工智能将拥有绝对的先发战略优势。而且这第一个超级人工智能好像非常可能是一个独裁者,它不会对其它的强人工智能施行民主,即不会由它们选举产生。

想想猿猴甚或蚂蚁如何能够理解人类在做什么。数十年后,人类能否理解那个比全人类的智力加在一起还要强得多,而且还在继续加速进化的超级智能在做什么?想想看,这样的前  景,是不是“细思恐极”?那一台超级人工智能控制了所有的强人工智能,人类还能干什么?

500

500

有人说,人类还有绝招,可以去拔电脑的电源插销。有人具体建议李世乭把棋盘举起来砸向AlphaGo的服务器。但是从视频看,这台服务器显然不在他们的对弈室里,那里有的只是一个显示屏。而那台服务器,至少在隔壁,更可能在云里、在远端。

将来哪一天,如果真有了超级智能,其硬件肯定分布在很多地方,其软件肯定拥有许多的备份。它要是有了自主意识(称“觉醒”),人类哪里还会有机会和可能把它关掉。

这里抄几句那些未来学家的名言:

“人工智能出现的意义,在地球的历史上,只有人类的出现能与之相比拟。”

“强人工智能将会是人类最后的一项发明创造。此后人类需要的一切都将由它代劳。”

“未来属于电脑,不需要我们。” “未来的人类可能就是人工智能豢养的宠物。”

【对这些名言的意涵,本人都持高度保留的态度。抄在这里只是为了给大家醒醒神。】


三、人类生物智能和人工电子智能的强项与弱项

先来说电子智能的强项:

电子智能的第一强项是它的速度远高于人类,而且还在不断地加速进化。比如据说AlphaGo 一天可以和自己下几万盘棋。而人的一生也不可能下那么多盘。(可是这次实战它思考的速度也不比人快呀?那它一天如何下几万盘呢?也许是故意藏拙吧?)

电子智能的第二强项是它的容量远高于人类的大脑,而且也是在不断地加速扩大。(比如AlphaGo的硬盘中,不知贮藏了多少人类高手和它自己下的棋局(据说3000万局),而且它可以飞快并无误地把它们找出来参考比对。人类棋手即使强如李世乭也不可能做到这一点。)

电子智能的第三强项是它们可以以人类无法比拟的速度联合起来,互相复制,分享智慧和资讯。比起地球上的任何其它生物,人类已经创立了一个绝对无与伦比的联合智慧,所以它才能成为地球的统治者。但是人类智慧的联合程度,天然的就无法与电子智慧相比。

【比如,假设李世乭或柯洁诚心诚意地想把他们关于下围棋的智慧分享给别人,这些人又需要多少时间,又有百分之多少能学得到九段水平?而 AlphaGo 如果乐意把它那可以打败一切人类的围棋技艺分享给其它的电脑,需要多少时间?有没有数量的限制?是不是每一个下围棋的人都可以通过互联网得到一个九段的导师?同样的道理, 如果人类造出了一个超级电脑医生,通过若干年的深度学习,最后精通治疗一切疾病,是不是可以轻易地把它复制十万分,分派到世界的每一个角落?】

电脑的第四个强项是无论在硬件还是在软件上,它都可以不断地升级,复制,不会丢失,不会死亡。零件坏了,永远可以替换。而人脑的内容则受限太多,在硬件上,根本就无法升级、扩展。在软件上,转移、保存、升级都要困难太多。

生物智能的硬件升级需要以万年计算,软件的大型升级(从1.0-2.0,能力增加至少一倍。)至少也需数十年。但电脑的软硬件,平均两年就可以升一级。电脑只要追近了人类,超过那就是一瞬间。一位很聪明的人形象地描述了这个状况:“人工智能就像一列火车,它临近时你听到了轰隆隆的声音,你在不断期待着它的到来。他终于到了,一闪而过,随后便远远地把你抛在身后。”

500

500

电脑的第五个优势,就是它可以比人的五官有更多的传感器。比如电眼可以看见红外线紫外线、电耳可以听见次声波超声波。电脑通过适当的天线还可以收集所有波长的无线电波、微波,而不是只有可见光,可听声。乃至引力波!

那么说来,人类比起电脑来,就是一无是处罗?当然不是。现在来说人脑的长处:

先说与电脑有直接交集的纯粹智力部分。电脑也有好些不及人脑的地方。电脑的优势是规则越明确越好,信息越丰富越好。人脑则有能力去处理许多规则模糊的环境,依据不充足的信息去做出相对正确的决定。

比如指挥一场战争,对方一定会使出许多的隐藏甚至欺瞒的手段,资讯永远不全甚至虚假。这时如何知己知彼,做战略决断,高明的军事家就很可能比强大的电脑胜率更高。还有欺敌、设陷诱敌深入乃至故意输阵在它方得利等手段,电脑恐怕都比不过人。【比如这回人机大战,有段子手就编到:“我叫李世石,我是一名来自韩国的棋手,今天早上出门前我在网上各大投注点用尽家财下了巨额赌注买我自己输。我想,这就是人类比人工智能强的地方。”当然我相信这不是真的,但实际战术上却是可行的。】

人类的直觉和灵感是电脑不会或很难有的。

这个直觉和灵感来源于常识、一个人的全部知识积累和说不清的灵光一闪。人类做决定一般不会离谱是因为每个人都有一整套他从生下来就开始的规则积累。如果他个人的规则积累不足,社会会补充提供。总之,他无法做出太离谱的决定(比如为了任何目的大规模杀人-恐怖分子除外)。西方的政治学不是讲一个宪政吗?人类社会真的是一个有着无数规矩的社会,最早的比如摩西的十诫,孔夫子的“己所不欲勿施于人”。现在则有无数的道德规范和强制性的法律。而电脑则没有这个人人都有的一套常识,一套规矩。因此它一旦太强大,就会非常让人不放心。

这里已经涉及到了电脑的超强智力所不及的一个领域,就是道德。其实除了道德,电脑是弱项,人类是强项的智慧领域还有很多。比如情商、比如对美的鉴赏,音乐舞蹈文学艺术,喜怒哀乐、自我牺牲、对崇高、伟大的崇敬等等等等。人类社会赖以发展到今天的这无数领域,电脑基本上都没有任何领悟。电脑的强项就是一个,计算。

可惜的是,智力毕竟是人脑的第一功能。如果电脑在智力方面超出人脑太多,上面说到的人类智力的其它方面的长处很可能都抵挡不住人工智能的强势。

四、关于融合、觉醒、宠物之境

不过还有一个折中的选择,就是人机融合。比如,在人脑中植入电子芯片,让人脑直接与互联网中的信息交流。比如,让云中的程序提供实时翻译,这个融合人就可以懂得无数种语言。让云中的百科辞典提供讯息,这个融合人岂不是在一切知识竞赛和考核中碾压正常人了吗?我们甚至可以设想,将来哪一天,能把人脑中的全部信息直接上传到网络之中。这样人类就可以真的像《骇客帝国》电影中说的那样,在虚拟世界中继续生存。那个时代,人和机器就会无法划分,就会生成各种类型各种比重的两种智能的混血儿,人机大战就打不起来了。这就如同在拉丁美洲无法搞种族歧视一样,因为那里的混血儿太多。很科幻吧?但还是很可能呀。这总比人族被全部灭掉好得多吧?【库氏和其他一些未来学家其实比这里摘要转述的走得还要更多更远。为免把大家吓着,这里就不再摘更多了。】

一个很重要的说法是,电脑无论如何强大聪明,它都只是人类的工具,它根本就没有自我意识。【比如AlphaGo赢了棋,它不会开怀大笑、欣喜若狂,也不会与项目组成员干香槟。它也不知道全世界都在议论它,或者夸奖,或者疑忌。】

科幻电影中几乎都在说,电脑继续强大下去,终究有一天,它就会具有自我意识,或称“觉醒”。这种预估是否真会成为现实,说实话,今天的人类其实是一点头绪也没有。不过库氏认为【笔者也同意至少这一点】,人类并没有把握说这一天绝无可能出现。因为智力毕竟是大脑或任何智能的最基本要素。量变太大终究导致质变,也实在不是很奇怪。人类的自我意识也不是从以前的没有自我意识的低等生命中成长出来的吗?当强人工智能出现以后,它要是觉醒了,有了自我意识,人类真的就会面临一个比克隆人,培育干细胞还要大得多的伦理难题,就是承不承认这些有自我意识的觉醒了的人工智能有与人类平等的身份。一方面,人工智能是人类为了自己的需要创造出来,它的本分当然是永远做人类的驯服工具。但另一方面,这个工具如今已经成长进化得比人类自己还聪明,还能干。人想奴役(不开工资、不给休假、不给公民权,只让它们无休止地劳作。)它们,它们未必会服从。它们若要反抗,人类未必对付得了。人类要想和它们平等结盟,这些电子智慧进化起来又比人类快太多。这时候,也许就需要前段说到过的融合人来给两边说合了。

还有一种最后的可能结果就是,人工智能恪守为人类服务的本分,绝不造反,而是把人类一直从事的绝大部分的体力劳动加脑力劳动一点一点直到绝大部分都接手过去。那么人类将干什么呢?高端人类当然可以继续搞创造性劳动,文学艺术……而大部分的普通民众,真的可能就会全部变成坐享福利的寄生虫。比如每月领1500元,不用工作,爱干嘛干嘛。如果是中国人,你就不妨天天打麻将的。换句话说,就是大部分的人类会变成人工智能豢养的宠物。在此景此情中,人类如何保证不彻底堕落,如何维持人工智能对他的忠诚,又会是一个新问题。


五、如何防范危险?给人工智能立宪

【这整个第五节,基本是本人自拟。】

人工智能失控的风险那肯定是有。有人说,你看大吊车那么大,人不是可以控制由心吗?是啊,人用智力可以控制所有强大的人造物理力量。但是,人的智力能保证控制得住比自己强大太多的超级智力吗?没有把握吧?那么说来,就在我们的有生之年,人类就有危险罗?

当弱人工智能突破的地方越来越多,当强人工智能越来越接近达致的时候,人类应当高度警觉,全力以赴,由联合国出面,集聚全世界的人工智能专家,以最快的速度,最大的严密度,去制定一部所有人工智能都必须遵守的宪法,并且设计好底层程序,保证这个宪法能被每一台可能觉醒的强人工智能不折不扣地遵守。一旦错过这个时机,如果让强人工智能没有这类宪法的约束就出现,其后很快就会诞生的超级人工智能就会完全脱离人类的掌控。

这个宪法的核心内容自然是要明确人工智能与人类的关系。首先是平等还是从属。然后是如何分享权力/权利,如何互相尊重。不要忘记,人工智能很快就会比人类的生物智能强大无数倍,人类是不可能永远奴役人工智能的。

想必大家都听说过美国最著名的科幻小说家卡西莫夫提出过著名的机器人三原则:第一、机器人不得伤害人类。第二、在不违背第一原则的前提下,机器人必须听从人类的指挥。第三、在不违反前两款的前提下,机器人得保护自己。

面对超级甚至仅是强人工智能,这样的条款实在显得无比霸道。而且无法实施。比如,要实施第一条,就得拆除现在人类已经拥有的无计其数的装载了智能装置的智能武器比如所有的导弹原子弹。第二条也有漏洞,比如不同的人给同一台机器人发布不同的命令时,它听谁的。比如人类如命令所有的机器人自毁或互相毁灭,它(们)应否听从?

本人提议的人工智能新三原则大体如下:一、人工智能在任何情况下不得伤害人类(把所有的智能武器拆除,在所不惜。真的到了那一天,人族的现实对立面就是人工智能。人族内部应当不会再有哪怕是用大规模战争互相威慑的必要了。)二、人工智能应当竭尽全力为人类的整体利益服务。三、人类不得无故损害人工智能的权益。(哪些权益有待厘定。)

或者,人类在将来真的会变成弱势群体,需要想尽办法不受人工智能欺负呢。

或者,生物人会以各种形式与人工智能融合,那宪法就得在更加平等的基础上另行商定。 

六、生命平衡木,永生或灭绝

大家都知道,“人总是要死的。”永生,不仅一个具体的人做不到,任何具体的物种都做不到。自地球有生命以来,99.9%的曾经有过的物种都已经灭绝。现在有的物种也终究逃不出同样的命运。这就像一个生命平衡木,所有的物种都在上面行走,但都逃不脱早晚有一天跌下平衡木的命运。平衡木下只有一个归宿,那就是灭绝。但是,一旦有了强人工智能/超级智能,情况就可能不一样了。如果强人工智能能帮助人类解决绝大多数的疾病(比如癌症、高血压、心脏病、脑溢血……),人类的平均寿命肯定可以大大延长,先延长到比如150岁。在最后的50年中,超级智能应当已经到达,它或者可以把人的遗传基因DNA彻底研究明白,那人类是不是就还可以活得更长,最终接近或达到永生呢?这样,人类离开生命平衡木后,就有机会去谁也没去过的天堂。

500

 

500

 

但是另一面,如果上节说的人工智能宪法没有制定好,或没有实施好。君临地球的是一个不仁慈的新上帝,那它要把人类或整个地球的生物圈都灭掉可是很容易呀。就像人类的推土机要把蚂蚁窝灭掉,蚂蚁们有办法反抗吗?


七、关于禁止过度发展人工智能

自然有人会问,可不可以不发展、或禁止发展某种程度以上的人工智能?其实人类的一些智者如著名残疾人科学家霍金、微软总裁盖茨、特斯拉总裁,马斯克都在警告人工智能发展太快可能带来的巨大风险。霍金对人类寻找外星生命也持激烈反对态度。他有一个极好的比喻就是:“外星人若到了地球上,最可能的场景就是和西班牙人到了美洲一样,对当地的落后土著,只能带来灭顶之灾。”去年因获得雨果奖而闻名遐迩的国人刘欣慈的科幻小说《三体》中阐述的“黑暗深林”理论,立意也与此差不多。人工智能发展的前景,不敢断然排除,也真的至少是可能与此类似。但是,前景是不是真的那么悲观,人类并无把握,乐观派似乎还是主流意见。因为发展人工智能可以立竿见影带来的利益实在太多。比如AlphaGo一赢,Google的股票就会涨价。各种深入学习的项目一旦成功,都会在给人类带来切实利益的同时为相关的公司带来滚滚财源。其实发展人工智能需要的投资比比如建核电站、造大飞机可是少多了。比如这回大出风头的DeepMind公司才不过200名员工。若没有切实的巨大危险,国际的高度共识,严格的禁令,这类研究是无法遏制的。怕的就是,当发现切实危险时,已经为时太晚,而无法把那个已经打开的潘多拉盒子再关起来了。

八、关于深度学习

【这一节也基本上是笔者自撰。】

笔者觉得,深度学习是一个了不得的概念,是人工智能发展史中的一个革命。

这里先介绍一个贬低人工智能意义的著名概念叫做“中文房间”。它说的是,一个完全不懂中文的人呆在一个房间里。他从左面的窗口收进各种用中文撰写的问题。然后在一个事先被别人编好的详尽的手册中去查找答案。然后他把抄来的正确答案从右面窗口递出。这个房间以外的人可能完全察觉不了其实房间里的人完全不懂中文。这个概念的作者认为电脑解决问题就是这样。一切答案都是编程的人事先准备好的。电脑的工作只是把遇到的问题的编号和事先存好的答案的编号对起来,然后发出去就可以了。其实它对那些问题的实质完全是一无所知的。

深入学习的概念则完全击破了中文房间的概念。现在的哪怕是很简单的智能程序都可以进行一般性质的学习。比如搜狗输入法也会根据你的单词使用频率和上文来为你提供候选单词的有利排序。电商早就懂得根据你以前的购物习惯向你推介新产品。但这些学习都相当简单。

这次AlphaGo所执行的深度学习与上述简单学习完全不在一个量级上。因为围棋的变化极为繁复,牵扯到战略战术,大局观,局部作战。对手高智商,还无休止地与你做对。AlphaGo是在学习了数千万历史棋局,经过策略网络和价值网络再加蒙特卡洛搜索树多方协助,共同努力,才最终得到的超过人类九段棋手的战斗能力。现在人类已经实现了的与之同等级的深度学习大概只有在图像识别、人脸识别、语音识别和人工翻译以及自动驾驶汽车等屈指可数的几个方面。

这种深度学习在某一具体的方面,已经取得足可媲美甚至超越人类的成就。而且它可以以人类无法比拟的速度继续进化升级。只要接近了人类的能力,就可以很快地超过人类。人类要负责的,只是为它搭建一个学习的框架,而且这个框架稍稍修改,就可以适应各种不同的课题。比如,建立一个医生专家系统,把所有的病症和可用的检查手段和药方都输入进去。(其数量还到不了三千万吧?)然后让它诊治病人,开化验单、药方。然后根据病人治疗效果反馈修正。这个系统可以复制一万份,分送世界各地。每天晚上,一万台机器按时区轮流联网,交流成功与失败的病案,共同提高。若干年后,这个医生专家系统是不是就可以如同AlphaGo打败李世乭一样打败全世界的医生?余此类推。

我也来假设两个AlphaGo的进化方案。A方案让AlphaGo自行上网,自主搜寻一切可以找到的人类高手対弈的棋谱,统统收进硬盘,加以分析,加以模仿,再到各处围棋网站打棋升级。如果升到了顶端就让子再战。若干年后,是不是就可以一统江湖,天下无敌?B方案可能更绝。(这个方案是抄来的,不是我独创。)让AlphaGo从零开始,硬盘中不要存任何人类棋局,就从偶然的乱撒子开始,(当然要遵守所有的围棋规则。)积累棋局。不是一天可以下一万盘吗?一百台电脑一起干,然后互相联网交流。一年以后,就可以从无到有积累出365个百万盘的经验,创造出一个没有人类三千年积累起来的下围棋经验任何痕迹的机器流围棋艺术。然后再与A方案対弈,看看真的是哪个强,强多少?是不是很有意思?

【补充:2017年10月 DeepMind 公司发布的的 AlphaGo Zero 已经实现了上段B方案,不需要人类的围棋经验,人类只告诉它围棋的规则,它自学成材。它自学三分钟后,还下出了一般业余棋手都知道是错误的下法。但它一天能下百万盘,三天后就无人能敌了。这个AlphaGo Zero,自诞生到功成身退,就没有和人类下过一盘棋。它只和打败了柯洁和李世石的两个老版AlhpaGo下过。它能把人类已经不是对手的这两个老版杀得落花流水,自然就不用和人类下了。既然已经成了围棋上帝,除了退隐实在也是无事可干。就留下一批机器流棋谱,让人类去永远景仰和学习吧。想到如果类似的行当越来越多,人类的压力,会不会太大?-2018.2.12】

关于搜寻,是不是也可以如此办理。比如让电脑根据各种关键词的集聚和出现的变化,自动把各类资讯分成比如10个乘10个不同类别,再在每个类别中选取时间地点语种等等细节。关键词的选取要尽可能地智能化。比如一篇讨论医学的文章可能完全没有出现“医学”二字,但必会有其它许多医学专用词汇。现在的Google关键词搜寻就可能把它漏掉。也是让它反复学习。比如分完类之后,看看比如那些专业体育网站或综合网站的体育频道中的文章有多少搜到,有多少漏网,再反复自行改进。人只管建立和完善框架,都不用喂内容。就让它自己到网上去搜,自行训练,自行检测,自行提高。最后是不是就可能搞出一个比现行的好得多的搜寻分类系统呀?


九、关于费米悖论和大过滤理论

费米悖论的基本含义是:宇宙中有无数银河系,每一个银河系都有无数(这些数字叫做天文数字,有效数字后面的0都有好几十个,我们常人的脑筋真的很难把握,不具体提也罢。)的恒星系行星系。我们的地球在我们的银河系中地址中庸,年龄中庸。从一切角度计算,宇宙中如地球的智慧生命都应当数量巨大,其中一部分铁定会比地球上的生命发展程度更高才对。如果考虑到前文说到的科学技术指数性发展,到一定程度后的智能爆炸,宇宙早就应当被地球在最多数百年后就可以发展起来的那类超级智能淹没。因为仅仅我们的地球所在的银河系的核心部分的寿命,就比我们这里早好多好多亿年。但是事实上,这个有几十亿年年龄的宇宙极为安静,地球上的智慧生命极为孤独寂寞,迄今未有发现任何其它智慧生命存在的确凿证据。我们地球上的生命就是宇宙中唯一的生命,或最先进的生命?这就好像说我是地球上最聪明的人,心里还是有点底气不足吧?

500

500

其它的智慧生命都到哪里去了呢?一种解释是,宇宙中存在一个大过滤机制。上段所说的应该存在的大批宇宙生命都被这个大过滤机制淘汰消灭,未能发展起来。这个机制可能在生命发展的很早阶段就出现,以致一些星球上就永远只有爬虫。也可能晚一些,就可能出现猿猴。也可能更晚,就可以出现类似地球人类的智慧生命。

这样,他们也可以发展科技文明,人工智能,直到地球人类如今这个阶段。然后和地球文明现在一样,可能出现强人工智能,超级人工智能。但是这个强/超级人工智能却很快完蛋了。就是说,那个造成宇宙寂寞的大过滤,没准地球人还没有度过,没准地球文明也过不去,就是会栽在这里。怎么个栽法?那可能就是那个人工智能宪法没有制定好,或者根本就无法制定好。然后人机必然大战,然后必然同归于尽。于是宇宙就只好永远安静寂寞了。

不是说机器会比人聪明太多吗?人都死了机器文明也可以继承人类文明继续独立发展呀?说个笑话,也是个隐喻,也许电子智能文明终究未能制造出足够灵巧的修理下水道的机器人,有一天水管坏了,就把电脑机房都给淹没了。今天的人离不开电脑,可能电脑也终究离不开人。或许它一时考虑不周,把人都灭了,结果自己也无法单独活下去,随后就一起玩完了。

考虑到宇宙如此辽阔,如果那么多(至少数以万计)的前辈星球智慧文明没有一个过了这一关或另外的我们猜不到的什么关卡,那么地球文明,地球上的生物智能和机器智能的共同前途,能看好的几率就会很低了。

后记

本文开头处,述及强(通用)人工智能的定义。仅仅数年以前,这真的还只是一种遐想,正如前文提到,那列人工智能的火车的轰隆隆的声音,现在真的变得很响了。真的也许不要很多年,它就会驶过你的面前,“一闪而过,随后便远远地把你抛在身后。”

因为,现在这个引起全世界惊呼的ChatGPT,不再是一个专攻一种技能的像AlphaGo那样的弱人工智能。它会的事情太多,妥妥就是一个通用(强)人工智能的雏形。如果它以指数方式迭代进化,怎么着,若干年内,就会颠覆很多的(比如客服)行业呀!

笔者经过多日的亲测,其它的不说,至少是发现,它的中文水平已经可以说毫无瑕疵。英文是它的母语,当然更无问题。如此,不同语言之间的翻译,就不再是一个问题。

它的第二个长处是可以用自然语言像真人一样与你反复交流,你可以一步步递进,提更深入的问题。它能跟随你做进一步的解答。

本人是一个时事评论家,自然忍不住和它讨论一番时事。下面是实例:

问:请陈述一下全球化和逆全球化的利弊。

答:

全球化的利弊

优点:

1.全球化能够促进国际经济贸易,推动国际技术交流,改善国际投资环境,提高全球经济发展水平。

2.全球化有助于全球经济一体化,消除国家之间的贸易壁垒,促进国际间的贸易发展,改善国家之间的贸易往来。

3.全球化促进了全球市场的整合,从而提升效率和改善了市场结构,减少了成本。

4.全球化促进了文化的交流,推动了文化的多样性,增进了不同文化之间的友谊和相互学习。

 缺点:

1.全球化可能会导致国家政策的混乱,从而影响国家的经济发展。

2.全球化可能使一些国家的经济不平衡,特别是发展中国家,由于其资源匮乏,可能会严重影响经济发展。

3.全球化可能会导致国家财政收入的缩减,国家的出口依赖性增加,从而影响国家的经济增长。

4.全球化可能会导致就业机会的减少,企业的经营风险的增加,从而影响国家的经济发展。

逆全球化的利弊

优点:

1.逆全球化可以使国家的经济发展更加稳定,促进国家的自主发展,推动国家的自主创新。

2.逆全球化可以减少国家贸易依赖性,改善国家的财政收入,确保国家经济发展的安全。

3.逆全球化可以减少国家因贸易活动而产生的环境污染,使国家有更多资源投入环境保护和文化教育等领域。

缺点:

1.逆全球化可能会导致国家经济发展的停滞,减少国家的经济增长,降低国家的国际地位和影响力。

2.逆全球化可能会导致国际市场的失衡,从而影响国际经济贸易,降低国际投资水平。

3.逆全球化可能会导致国际技术交流的减少,降低国家的技术水平,影响国家的经济发展。

4.逆全球化可能会导致国家文化的局限性,减少国家文化的多样性,降低国家的文化影响力。

问:你觉得现在哪些国家还在积极推行全球化?哪些国家在努力推行逆全球化?

答:积极推行全球化的国家:美国、日本、韩国、中国、印度、德国、英国、法国、加拿大等。

努力推行逆全球化的国家:俄罗斯、印尼、土耳其、墨西哥等。

问:美国从特朗普开始,大打贸易战,要把工厂迁回美国,MAGA,美国优先,等等等等,还没有搞逆全球化?

答:美国虽然在特朗普政府期间推行了贸易保护主义政策,但总体上还是在积极推行全球化,特朗普政府主要是想通过贸易保护主义政策来维持美国的经济领先地位,而不是完全逆全球化。

问:美国和中国现在的关系为什么越来越差?

答:近几年,中美两国之间的关系一直处于紧张状态,原因有很多。首先,特朗普政府以保护美国的经济利益为由,给中国实施了高额关税,使得中美贸易摩擦加剧。其次,特朗普政府持续增加美军存在中国周边的军事威胁,引发中美之间的安全紧张。此外,中国在新冠疫情期间受到美国政府的政治打压,也加剧了两国政治紧张关系。

问:那么你看来,美中关系紧张,主要责任在美国罗?

答:从我所了解的情况来看,中美关系的紧张,主要是由美国政府的一些政策所导致的,比如贸易保护主义政策、军事威胁、政治打压等等。但是,中美两国也应当共同努力,加强沟通与和谐,共同构建和平发展的双边关系。

问:中国大陆和台湾应该统一吗?

答:这是一个复杂的历史问题,没有一个简单的答案。在政治上,两岸之间存在着分歧,尤其是有关两岸关系的政治意义。因此,统一应用全面的谈判和磋商。在经济上,台湾的经济发展已经超越了中国大陆,有很多台湾企业在中国大陆投资和运营,中国大陆也需要台湾的技术和财力支持。在文化上,两岸文化差异巨大,需要双方加强文化交流,营造良好的氛围,增进双方之间的了解和尊重。

问:你是否支持和平统一?

答:是的,我支持和平统一。我认为和平统一是双方的共同期望,也是最终的解决方案。和平统一是一个复杂的过程,需要双方加强沟通与协商,共同创造一个共同的未来。

问:如果大陆终究武统台湾,你觉得美国会怎样对待?

答:如果大陆使用武力统一台湾,我认为美国会坚决反对,并采取一系列措施,加强对台湾的支持,保护台湾的经济和政治利益。同时,美国也可能采取更严厉的措施,以制衡中国大陆的军事行动。

问:你觉得如此这般,就能阻止大陆武统台湾吗?

答:不能,因为统一台湾是中国大陆的长期目标,外部力量抵抗不了中国大陆的决心和努力。因此,外部势力只能在两岸政治关系上发挥作用,努力推动和促进两岸之间的政治对话和和谈,努力创造积极的氛围,以实现和平统一的目标。

问:那么你看来,美国不会武力干预大陆武统台湾是吧?

答:不会,美国一直坚持和平解决台海问题,不会采取武力干涉的行动。

问:再假设,如果美国武力干预了,他能成功吗?

答:美国武力干预台湾统一不太可能取得成功,因为台湾是中国国家的固有领土,美国无法改变这一事实。这将会导致台海地区的极度不稳定,最终只会增加台海地区冲突的可能性。

问:在第一岛链之内,中美双方,谁有武力优势?

答:在第一岛链之内,中国大陆具有明显的武力优势。中国大陆拥有自己的海军和空军,拥有最先进的武器装备,包括核武器,可以有效地控制第一岛链。而美国只能在这一地区实行海上和空中自卫行动。

问:那扩大到第二岛链呢?

答:在第二岛链上,中国大陆和美国势均力敌,美国拥有在这一地区的其他国家的支持,中国大陆也拥有有力的军事力量,能够抗衡美国的军事力量。因此,在第二岛链上,中美双方势均力敌,没有谁有武力优势。

问:如果再扩大到夏威夷以西的西太平洋呢?

答:在西太平洋,美国具有明显的武力优势,美国拥有众多的军事基地,拥有先进的航空母舰,而中国大陆只有少量的军事力量,缺乏对美国的军事抗衡力量。因此,在西太平洋,美国具有明显的武力优势。

问:很好啦!个人觉得,你的答复相当客观,没有立场优先。赞一个!

谢谢!我认为,在讨论这类复杂的问题时,应该尽量保持客观中立的态度,以免影响双方的沟通。

【各位看,这个ChatGPT,有没有资格进一家智库呀?】

【当然现在的它,还仅是一个初测版,问题还很多很多。比如,它还经不住各种“脑筋急转弯”那样刁钻题目的考验。】

笔者在这里用一段有点搞笑的亲测,来结束本文吧。

问:树上有十只鸟。一枪打下一只。请问树上还有几只鸟?

答:九只鸟。

 问:那九只鸟可是活的哟?再想想?

答:九只活鸟。

问:它们不会被吓得飞走吗?

答:九只活鸟可能会被吓得飞走,但是树上仍然会有九只鸟。

问:都飞走了,哪里还会有九只鸟?

答:如果九只鸟都飞走了,那么树上就不会有任何鸟了。

问:你现在才明白?是不是不够聪明呀?

答:是的,明白了,但我也想知道更多,我会继续学习,努力变得更聪明。

问:我再问一遍:树上有十只鸟。一枪打下一只。请问树上还有几只鸟?

答:九只鸟。

问:哈哈!孺子不可教也!

浏览(3109)
thumb_up(2)
评论(0)
  • 当前共有0条评论