人工智能时代:谁来约束技术的权力? ——从一家AI公司的拒绝谈起
人工智能时代:谁来约束技术的权力?
——从一家AI公司的拒绝谈起
艾地生
当人工智能技术迅速改变世界时,一个越来越重要的问题正在浮现:
当国家权力与技术伦理发生冲突时,科技公司应该站在哪一边?
最近,美国人工智能公司 Anthropic 与 Donald Trump 政府之间的一场公开冲突,
使这一问题突然变得具体而现实。
据媒体报道,美国国防系统希望获得Anthropic的人工智能技术,
用于包括情报分析、监控系统以及军事应用在内的一系列项目。
然而,在谈判过程中,这家公司提出了两条明确的伦理底线:
其技术不得用于大规模国内监控,也不得用于完全自主的致命武器系统。
如果这些原则无法得到保证,公司将拒绝合作。
对于一家人工智能企业来说,这显然不是一个轻松的决定。
美国政府,尤其是国防系统,一直是高科技产业最重要的客户之一。
拒绝这样的合作,意味着放弃巨额合同,也意味着承受政治压力。
随后发生的事情似乎证明了这一点:
特朗普政府公开批评该公司,并推动将其列入政府供应链的“风险企业名单”,
限制联邦机构和政府承包商使用其技术。
表面上看,这是一场政府与企业之间的利益冲突。
但实际上,它揭示的是人工智能时代一个更深层的问题:
当关键技术掌握在私人企业手中时,谁来决定这些技术可以被用于什么目的?
在20世纪的大部分时间里,最重要的军事技术往往诞生于国家体系内部。
从核武器到导弹系统,大量关键技术都来自军方实验室或与政府高度绑定的军工企业。
这种结构被美国总统 Dwight D. Eisenhower 在1961年的告别演说中称为“军工复合体”。
在这种体系中,企业的角色往往被视为国家机器的一部分。
然而,人工智能时代改变了这一格局。
今天最先进的算法、大模型以及算力架构,往往来自私人科技公司,而不是国家实验室。
硅谷企业掌握的技术能力,正在成为影响国家安全和全球政治的重要因素。
这意味着一个新的矛盾开始出现:
国家希望利用这些技术,而企业可能试图为技术设定伦理边界。
Anthropic的选择之所以引发关注,正是因为它在现实利益面前坚持了一条明确的原则。
在当今科技行业,“AI伦理”“负责任的创新”已经成为常见的企业口号,
但真正愿意因为伦理问题而拒绝政府合同的例子并不多。
许多科技公司一方面强调技术安全,
另一方面却积极参与军事与情报系统的技术合作。
因此,这一事件也被一些评论者视为对科技行业的一次伦理测试。
当然,也有人认为企业不应当限制国家在安全事务上的决策权。
在这种观点看来,
如果政府认为某项技术对国家安全至关重要,私人公司理应提供支持。
这种逻辑延续了传统的国家安全优先原则。
但这种逻辑同样值得反思。
历史经验表明,
当技术完全被纳入权力结构之中时,伦理边界往往会迅速消失。
从核武器竞赛到全球范围的大规模监控体系,
科技进步并不自动带来道德进步。
相反,在缺乏约束的情况下,技术常常被用来扩大权力。
人工智能尤其如此。
与传统武器相比,AI不仅可能改变战争的方式,
也可能改变国家对社会的治理方式。
通过算法分析海量数据、预测行为、识别身份,
人工智能可以极大提高监控系统的效率。
如果没有明确的限制,
这些技术可能被用于建立前所未有的社会控制体系。
事实上,在一些国家,人工智能已经被系统性地应用于社会治理。
从遍布城市的人脸识别系统,到整合海量数据的智能监控网络,
再到通过算法评估个人行为风险的管理模式,技术正在成为权力结构的一部分。
这种模式往往以“安全”和“效率”的名义被推广,但它同时也提出一个令人不安的问题:
当技术极大地提高了监控能力,而制度约束却没有同步增长时,
权力是否会变得更加难以被限制?
人工智能的真正风险,也许并不只是自动化武器,而是自动化权力。
正是在这样的背景下,Anthropic事件才显得格外值得关注。
它真正提出的问题并不是企业是否“爱国”,而是:
在人工智能时代,谁来为技术划定道德边界?
政府显然不会主动限制自己的技术能力。
国家机器的本能是扩大权力,而不是约束它。
在这种情况下,科技公司在某种程度上也成为伦理边界的参与者。
当然,企业伦理并不能替代公共治理。
人工智能的风险最终仍然需要通过法律、国际规则以及社会监督来管理。
但在这些制度尚未完全建立之前,企业的选择仍然具有现实意义。
当一家科技公司决定拒绝某些用途时,它实际上是在提醒社会:
技术的发展不应当完全由权力逻辑决定。
在人工智能时代,科技公司不再只是普通的商业机构。
它们掌握的技术能力,可能影响战争、政治乃至社会结构。
正因为如此,企业伦理也逐渐成为公共议题的一部分。
Anthropic的选择并不一定能够改变整个行业,
但至少,它让人们重新思考一个问题:
在技术力量不断增长的时代,人类是否仍然能够为技术设定边界。
当科技公司对权力说“不”的时候,这种声音或许仍然微弱,
但它至少说明了一件事情——
技术的未来,并不必然只属于权力。
