小思

注册日期:2011-12-30
访问总量:7256307次

menu网络日志正文menu

人工智能,你可不能放荡不羁。


发表时间:+-

人工智能,你可不能放荡不羁。 

文章是个人感想和编辑的网络材料。如果有您认为不妥的地方请批评指正。

  人类科学技术的每一次进步对人类社会是利多弊少,使得人类有了长足的进步,明显高于其他动物。但是,如果运用不当,飞速发展的人类技术也可能带来巨大的灾害。

  人工智能(AI)是一个以计算机科学为基础,由计算机、心理学、哲学等多学科交叉融合的交叉新兴学科,研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。

  人工智能确实可以给人类带来诸多的便利和更多的服务。首先,人工智能具有高度的商业价值。当前的方向主要有三个,第一是大数据的统计,第二个是对用户的管理,第三个则是用户的关系的一个纽带(比如支付宝付款)。同时,人工智能将会带来更多的就业机会。

  不料,ChatGPT-4出现让人们心头一震,它的副作用立即被发现,譬如有人写文章以他的名字投稿。因此AI的潜在危险一直是大家担心的问题。因此,许多AI界专家,包括马斯克在内,4月曾共同签署一封公开信,呼吁OpenAI暂停研究,不要让比“ChatGPT-4”更厉害的软件问世。

  特此我也呼吁各界,行政机构,科学家,商业,企业和民间团体,纷纷提高警惕,与时俱进。不断修改我们的法律,规章制度。同时不断提高我们劳苦大众的道德修养,认识到一些无限制科研行为的危害,防止突然一天人们陷入了自己或者某些狂人研究出来的本来可能是优化人类的动机却产出让人自食其果的灾难,甚至导致人类灭绝的AI产品。

  没有限度的开发AI,有可能带来如下危害。

 1. 大规模的失业。人工智能可能导致很多工人失业,它可以代替很多职业,如此便会导致大批人无所事事,后果不堪设想。

 2. 高新技术型人才争夺战导致垄断,贫富分化进一步加剧。人工智能时代的到来,必将引发空前的人才争夺战,导致巨头的垄断、贫富分化加剧。

 3. 机器人具有很大危险性。机器人类人化之后就会存在很多的不确定性,这也是人工智能的弊端之一,以前有机器人杀人的事件。

 4. 人工智能有可能让人们把低端工作全部替换为机器人,计算机工程师首当其冲。因为chatGPT已经可以让汽车司机写计算机程序,去寻找一个本来不属于他,不能胜任的工作。

 5. 可能让年轻人失去学习的能动性,让那些不学无术而投机取巧(甚至没有基本知识)的人得到最大的利益。可怕!

  人工智能造成人才的两极分化,一部分人才将成为企业的稀缺人才,而另一部分将会因人工智能而失业。这样就会导致资源越来越集中,企业垄断现象将会越发明显,城市贫富差距将愈发严重。人工智能还有可能带来战争,人工智能更多的利用于武器当中的话这种危害是巨大的,而且是无法估量的。另外随着人工智能的发展人工智能对人的危害也将逐步增大。在不远的将来有可能实现机器人工智能机器统治世界的情况。

  斯蒂芬·霍金认为人工智能可能会毁灭人类。怎样控制人工智能才对呢?是否要像对待核能和其他潜在危险的技术一样,制定法律甚至是国际条约来控制人工智能的发展?

   由于chatGPT的闪亮登场,人们必须警惕了。不是狼会不会来,而是已经来了。我们其实并没有准备好。如果人工智能掌握在魔鬼手里,人类命运就不能让人们安稳了。有时候就是身不由己。试想,当年希特勒如果比美国更早造出了原子弹,恐怕人类历史完全不一样。其实现在还有一些人类科学技术的飞跃发展,有可能一夜之间改变我们的生活方式。比如,人类可以用基因编辑把人变得美妙无比,那就没意思了。人人是美女,人人是美男子,聪明无比。当然还有魔鬼可以让部分人变得奇丑无比,笨拙无能。甚至是无德无能。那么一般人统治另一部分人,黑奴时代可能再次来临。什么黑人也是人运动就失去意义,甚至会得到惊人的镇压。

    极端例子就是,说不定你正在酣睡中一个混蛋来了结了你的命。还有你的机器人突发奇想,产生邪念,一刀就要了你的命。

 

  一种解决办法是,建议政府制定法律和规则和民间学术学会现成规定,对人工智能技术的开发和使用进行严格监管。目前,通过一般法律来管理人工智能的使用是不现实的,比如通过立法来管理数学和科学的使用。一个似乎正在被接受的办法是,如果软件做出了影响你的决定,那么你应该有权知道这个决定是如何做出的,使用了哪些和你有关的数据,标准是什么。我认为这比较合理。使人工智能可解释化和透明化,是当今这一领域面临的最大挑战之一。还有许多的未知数,需要不断的完善规定。

   在某些情况下,人工智能决策可能直接事关生死,比如在战场上使用人工智能系统。尽管目前还没有证据表明这种“致命性自主武器”已经被使用,但确实已经具备了可能性。人工智能领域的科学家们目前也在行动,希望政府认识到这一问题的严重性并做出应对。最近英国政府在一份报告中明确表示,永远不给人工智能系统伤害人的权力。

   人工智能只是一种技术,就像任何技术一样,可以用来造福人类,也可能带来危害。条件反射式的立法,对于把控人工智能不太可能奏效。我们需要以负责和道德的方式使用人工智能,正如最近全球关于自主武器的讨论取得进展一样,国际社会需要应对解决人工智能带来的挑战。

   为了人类安全起见,我们需要比当前更厉害的技术来控制超级智能。也就是在“对齐研究”上有所突破。“对齐研究”是聚焦于确保AI如何持续对人类有益的研究,相当于保护伞。假如每当AI前进一步,就有办法让她不疯狂。

  目前微软支持了OpenAI采用20%的研究力量开展对齐研究,公司正针对这项任务筹组一个新的研究团队。目标是打造一个“人类等级”的AI对齐研究队伍, 然后透过庞大的计算能力来对付AI,即地地道道的反制行为。公司会以人类反馈的方式训练AI系统,训练AI系统协助人类评估,最终训练AI系统实际上进行研究“对齐研究”。

  当然,我也不会停止我的战斗,慎重的呼吁各个国家,各国人民建立人类命运共同体,一起制定规章制度和法律限制AI的无限度发展。一当发展起来,要严格控制她的应用。


浏览(2509)
thumb_up(16)
评论(2)
  • 当前共有2条评论
  • 巴黎老高

    有些事情可以做,AI可生产一些青蛙王子,田螺姑娘。情深深雨蒙蒙的第三者,,,,给一些家庭不和的解决矛盾。

    屏蔽 举报回复
  • 巴黎老高

    这些年太不像话,人类在作死的路上狂奔,,,

    哪些龟儿搞啥子星恋,开汽车不扶方向盘,,一个叫马斯卡的家伙抓起来爆打一顿,钱没收去支援第三世界办学,办食品加工厂,,,

    屏蔽 举报回复