舒畅

注册日期:2025-02-27
访问总量:527048次

menu网络日志正文menu

舒畅:先进的人工智能是双面刃


发表时间:+-

舒畅:先进的人工智能是双面刃

xx,你说的对,你转发给我的视频中,那位女性不知道从哪里道听途说来的,马斯克并不是计算机方面的专家,从未获得过图灵奖。

image.png7a892184e606bc7e9a0fcc48e041abbc.jpg

图灵奖是计算机科学领域的最高荣誉,通常被视为计算机科学界的“诺贝尔奖”,颁给那些在计算机基础理论、核心算法和原创性研究等方面做出根本性贡献的科学家,而不是马斯克这样的企业家。虽然他是非常杰出的企业家,但他不是计算机科学家,也不可能、从未获得过图灵奖。

至于他后面提到的大部分内容,虽然不太精准,但仍可作为普及资料,提醒人们人工智能是一把双刃剑。

作为现代人工智能发展的奠基人物之一,Geoffrey Hinton对AI的未来表达了深切的担忧。作为神经网络和机器学习理论的先驱,他不仅获得了2024年的诺贝尔物理学奖,还明确指出人工智能可能在未来几十年内达到或超过人类智能水平,但他警告,正因为AI发展迅速,这可能带来无法预测的风险。他因此选择离开大型科技公司,以便更自由地讨论这些问题。可以说,他是最早呼吁推动更严格的全球AI安全研究和治理措施的先驱者。

2025年,很多科学家,包括诺贝尔奖得主和人工智能领域的顶尖研究者,向联合国表达了对人工智能未来发展的关切。这些关切并非无的放矢,主要集中在以下几方面:

失控风险:随着人工智能系统复杂度不断上升,它们具备自我学习、自我优化能力后,一旦目标设定出现偏差,人类可能不再具备真正的控制能力。这不是科幻,而是复杂系统安全工程中必须正视的问题。

权力集中问题:如果先进的AI技术集中在少数国家、机构或企业手中,这可能导致前所未有的权力不对称,形成技术垄断,不仅改变全球政治结构,还可能加剧社会不公平。我个人认为,这一点应该进一步强调:AI技术本身并不邪恶,但它是否会成为邪恶的武器——试想如果AI技术被希特勒这样的独裁者推广和使用,甚至用来监督和镇压民众以维护统治,那么人工智能就会成为最危险的武器——独裁者的帮凶!我觉得很奇怪,为什么科学家们没有提到这一点,也许这是一个政治问题,太难解决。试想,如果一个独裁国家掌握先进AI技术,那岂不是让它可以更加为所欲为?

社会系统破坏风险:人工智能在信息生成、舆论引导、深度伪造等方面的能力,可能系统性削弱社会信任基础,使真假难辨成为常态,从而冲击社会运行机制。

军事化与武器化风险:当人工智能深度嵌入军事系统、自主武器与战争决策链条时,算法系统可能获得部分“生死决策权”,在伦理与安全层面有极其严肃的含义。

如果独裁者那是过去啊掌握了先进的AI技术并且用来巩固他的统治那这个问题就非常难以解决了(甚至我认为几乎无法解决)。记得那一年,中国有一个年轻科学家——贺建奎(He?Jiankui),宣布利用 CRISPR?Cas9 基因编辑技术 修改人类胚胎的DNA,据称创造了世界上首例“基因编辑婴儿”。这一宣布立即在全球科学界和公众中引发伦理震荡和强烈批评,因为试验缺乏充分监管、医学必要性和伦理审批。所以我最担心的是,如果在某种制度下的国家,统治者为了自身利益,不重视国际法则,进行违背国际原则的研究,这是最可怕的。




浏览(166)
thumb_up(0)
评论(0)
  • 当前共有0条评论