艺萌

注册日期:2011-10-21
访问总量:13234810次

menu网络日志正文menu

人工智识分子与社会-“破坏性创造”


发表时间:+-

人工智识分子与社会

---大模型时代的“破坏性创造”

中国思想快递

unnamed.jpg

马四维

托马斯·索维尔(Thomas Sowell)在《知识分子与社会》(Intellectuals and Society)里,有一句非常抓人的定义:知识分子是“以观念为主要工作成果的人”。他们靠生产思想、话语、论证谋生,而不必直接为观念在现实世界里的后果负责。在生成式人工智能爆发的当下,这个定义突然多了一层含义。已经出现了一种新的“观念生产者”——不是教授、作家、评论员,而是大模型,是全天候写作、编码、翻译、分析的人工系统。它们和人类知识分子(Human Intellectuals)勾连在一起,形成一个混合的、半人半机的“人工智识分子”群体(Artificial Intellectuals)。

在很多办公室里,这个群体已经悄悄接管了写邮件、做方案、起草合同、写代码的大量工作。律师、会计、程序员、咨询顾问、媒体编辑,都在和它们“协作”,也在被它们取代。麦肯锡在一份报告里估算,大模型可以影响到全球数亿知识工作者的日常任务结构,对高收入白领的冲击甚至比对蓝领更大。这一变化不只是技术新闻里的数字问题。它会冲击整套“知识分子与社会”的旧结构。索维尔批评的那些毛病——脱离后果的观念、缺乏约束的影响力、话语和权力之间的暗通——在人工智识分子身上会不会被放大?还是会被重新排布?这个问题,和未来几十年对中国文化、政治、经济的理解,都纠缠在一起。

人类知识分子 vs. 人工智识分子

索维尔在书里反复强调一点:现代社会把大量权威交到了“观念工作者”手里。外交政策、城市规划、教育改革、司法理念,背后都站着一批作报告、写社论、写学术论文的人。他们的成果是文字,是理念,是框架,而不是具体的桥梁、工厂、公司。

在索维尔看来,这群人有几个结构性的问题:他们对观念的“美感”和自洽性,比对后果的可检验性更敏感。他们的主要反馈来自同行评价和媒体声望,而不是政策效果本身。他们常常用“道德优越感”覆盖不确定性,把复杂问题说成简单的对错。

这种批评在冷战、在反越战运动、在种族议题上,都有具体例子。索维尔的主要担心其实很朴素:当一群不用为后果买单的人,却掌握了塑造舆论和政策的巨大权力时,社会会走向偏斜。

按照索维尔的定义,人类知识分子有三个核心特征:主要工作是处理符号和观念,而不是直接动手做实物。成果形式是文本、理论、叙事、图像、代码。影响力主要通过媒体、教育、出版、政策网络扩散。

今天,这个逻辑很容易延伸到大模型。因为它们也是“以观念为成果”的生产者,而且生产速度远超任何一个人。人工智识分子——以大模型为代表的智能系统——在这三个点上几乎完全符合:它们不修桥、不种地,只处理语言、图像和结构化数据。它们的成果是文章、合同草案、法律分析、市场报告、代码片段。它们通过搜索引擎、办公软件、社交平台集成,迅速进入公共空间。

所以在知识生产的意义上,人工智识分子已经是“同类”。但相似之处到这里就变成分叉。至少有四个关键差异:

第一,责任主体不同。人类知识分子至少在理论上要为自己的观点负责,哪怕只是名誉风险。人工智识分子本身没有人格,它的“责任”被重新分配给模型开发者、平台公司、监管机构,以及那个按下回车键的人。这种责任的拆散,让“谁该为观念后果负责”变得更模糊。

第二,经验来源不同。人类知识分子有个人经验,有情绪,有偏见,也有成长和反思。人工智识分子的经验来自训练数据——书籍、新闻、网页、代码库、社交媒体。它在统计意义上“综合了世界”,却没有亲身的疼痛和损失。

第三,规模和速度不同。一个人一天能写几篇文章?一个大模型一天能生成多少文本?这种规模差距,意味着人工智识分子可以在短时间里向社会投放前所未有的观念量。信息环境会更像一条洪水,而不是一条河。

第四,嵌入方式不同。人类知识分子分布在大学、媒体、智库、出版社。人工智识分子则嵌在各类平台的底层。它们通过 API 进入政府办公系统、银行风控、律所工作流、媒体写作平台。它们不像一个个具体的人,而像一层看不见的“知识基础设施”。

这几条差异,让“人工智识分子与社会”的问题,比索维尔当年的问题更棘手:不止是“观念生产者的权力过大”,而是“观念生产能力本身被技术放大,并且与责任和经验剥离”。这种硅基生命体的能力放大和人工智识分子与社会责任的剥离,已经对社会造成巨大冲击。

从“创造性破坏”到“破坏性创造”

过去二十年里,自动化主要冲击的是制造业和部分服务业。流水线工人、柜台售票员、超市收银员,都是第一批承受压力的人。

生成式 AI 出现后,风向明显变了。麦肯锡、普华永道、德勤等机构的研究都在强调一点:大模型对“非体力、以文本和符号为主”的工作冲击更大。律师可以用模型起草合同、整理案例。会计可以让模型先做账目归类和风险扫描。记者可以用模型写快讯、整理数据。程序员可以用模型写样板代码、查 bug。

这类“AI+人”的工作形态,被很多人类学者和科技评论者称为“半人马模式”(centaur model):人和机器像半人半马那样组合,人负责直觉判断、伦理底线、复杂协商;机器负责大规模检索、语言组织、模式识别。

在这种模式里,传统意义的人类知识分子——学术界、媒体界、智库界的专业人士——也在被拆开。研究的“文献整理”和“初稿撰写”,可能交给模型;论证结构和核心观点,交给人。新闻写作的“素材收集”和“摘要”,交给模型;现场采访和判断,交给人。

表面看,这是一种辅助。长期看,这是对“谁有资格发言”的重新划分。因为任何一个懂得提问和修改的人,都可以借助人工智识分子迅速生成可读文本。传统知识分子赖以维持权威的门槛——语言能力、文本生产速度、信息掌握能力——正在被技术压平。

电商干掉一部分实体零售,流媒体干掉录像带店,线上广告挤压纸媒广告,这些都是典型案例。如果把人工智识分子的出现放在这个框架里,有一个微妙的变化:这次破坏的,不只是旧行业,而是一整套知识生产和判断的方式。

熊彼特(Joseph Schumpeter)把资本主义形容成一个不断“创造性破坏”(creative destruction)的过程:新技术、新企业、新模式不断出现,在创造价值的同时摧毁旧的行业和岗位。可以说,这更像一种“破坏性创造”(destructive creation):它在创造一个前所未有的知识生产机器,但也在破坏人们对“知识是什么”的传统理解。它在创造高效率的文本、代码和分析,但也在破坏“谁该为这些内容负责”的清晰边界。它在创造新的协作形式,但也在破坏很多人的自我价值感和职业尊严。

过去,创造性破坏依赖企业家、发明家和资本。现在,破坏性创造背后还有平台算法和大模型的黑箱。熊彼特曾经预言,资本主义可能不是死于失败,而是死于自己的成功:当创造性破坏太强,社会承受不了,反而会寻求稳定和管制。

在人工智识分子的问题上,也可以看到类似趋势。一方面,社会享受它带来的效率;另一方面,对失业、谣言、深度伪造、算法偏见的恐惧又在上升。结果是,技术在前面狂奔,而监管、伦理和社会心理在后面追赶。这种追赶的关系,无处不在。《跨文化下的社会认知偏差》作者王野林指出,AI存在着“我不用,别人会用” 的心态,存在着“竞争”,国家之间也会如此。 但到一定的时候,人类总会意识到要共同防止人工智能异化为人的主人。



人工智识分子的创新与破坏

从技术乐观的角度看,人工智识分子的出现,至少带来三种新机会。

一是加速。很多琐碎的知识工作——查资料、做摘要、写初稿——可以交给模型。研究者、律师、记者、教师可以把更多精力放在真正需要人类判断的部分。对资源紧张的教育系统、医疗系统,这是一个实在的缓解。

二是扩音。过去,一个普通人很难写出结构清晰、逻辑完整的长文,更难用多种语言表达自己。大模型可以充当“语言放大器”,让更多人有机会参与公共讨论。有些边缘群体的经验,也许因此更容易被整理出来。

三是知识民主化。索维尔批评“主流知识分子”垄断解释权。人工智识分子在某种程度上,削弱了这一点。任何人都可以要求模型解释某个理论、概括某本书、展示不同观点。知识获取门槛被拉低。

当然,这种民主化有前提:模型是否开放,还是只在少数机构的私有云里运行。训练数据是否多元,还是严重偏向某种话语。用户有没有足够的“媒介素养”去辨别输出的可靠性。

如果这些条件不能满足,“知识民主化”很容易变成“知识幻觉”:大家以为自己知道得更多,实际只是被算法喂了更多相似的答案。

从技术悲观的角度看,人工智识分子的破坏性也非常明显。

一是白领失业和职业降级。高盛等机构估计,生成式 AI 可能影响全球 3 亿左右的全职岗位,大部分集中在高技能白领。 很多律师助理、会计助理、编辑、客服、翻译,面临被“AI+少数人类”取代的风险。这不只是收入问题,也是身份问题。很多人的自我认同,建立在“我是专业人士”“我是靠脑力吃饭”的基础上。人工智识分子对这一点的冲击,比对某些体力岗位的冲击更伤心理。

二是认知污染。大模型可以生成大量看起来“像那么回事”的内容。假新闻、伪学术、伪评论、伪数据分析,会在网络里迅速扩散。对普通读者来说,真假界线变得更模糊。索维尔担心知识分子的“观念脱离后果”,在人工智识分子这里变成“观念脱离来源”:很多内容找不到清晰出处,也没有明确作者,责任变成了一个迷宫。

三是责任失落。当政策建议、判决参考、医疗建议中大量使用模型时,一旦出错,究竟是谁的错?是工程师?是使用者?是监管机构?这种责任的稀释,会削弱一种很重要的文明机制:犯错者需要对自己言行负责,付出代价,社会才能学习。而在算法系统里,错误和偏见可以被当作“统计噪音”轻描淡写,受害者却是真实的人。

对中国来说,这样的责任问题还会和行政权力叠加:当“智能系统”被挂上“国家工程”的牌子,质疑和纠错就会更难。

中国语境下的人工智识分子

谈知识分子,总会想到中国两千多年的文人传统。科举制度把“会写文章的人”送进权力结构,读书人既是道德批评者,又是行政机器的一部分。

在当代,中国的“知识分子”至少有三层:体制内学者和政策顾问,靠研究报告和内部简报影响决策。大学和媒体里的公共写作者,靠专栏、讲座和新媒体账号影响舆论。平台算法筛选出的“网红讲师”和“知识 IP”,用短视频、直播和图文输出观点。

人工智识分子融入这个结构,有几个特别的点。第一是国家层面的工程想象。中国提出过“新一代人工智能发展规划”,把 AI 明确纳入国家战略。 这意味着,大模型不只是一个市场产品,而是被当成“新质生产力”的关键基础设施。教育、医疗、政务、工业,都被鼓励“+AI”。

第二是强监管下的知识边界。针对生成式 AI,中国在 2023 年出台了专门的管理办法,要求算法不得生成“危害国家政权、颠覆社会主义制度、传播谣言”等内容。 这为人工智识分子设定了比较清晰的政治边界。这意味着:在历史叙事上,模型会自然向官方版本收拢。在现实政治上,它不可能成为“异议知识分子”,更可能是“制度内技术顾问”。在文化生产上,它适合作为传统文化的“翻译器”和“整理者”,而不适合作为颠覆叙事的发起者。

第三是对传统文人角色的双重冲击。一方面,人工智识分子非常适合做“整理工作”:数字人朗读古文,模型批量翻译典籍,AI 生成对联、写诗、写书评。这些能力会推动一个新的“机械文人”阶层,抢掉很多入门写作者的饭碗。另一方面,对真正有独立判断、能在夹缝里说话的知识分子来说,大模型又是一个工具:可以更快查资料,更便宜做初步分析,更容易和普通人沟通复杂问题。

所以在中国,人工智识分子既可能加固体制性的知识边界,也可能在边界内部释放一些创造力。它既是新“士大夫”的秘书,也是他们的替身。人工智识分子不仅改变工作方式,也在重塑人们理解中国的角度。

在文化上,大模型可以把浩如烟海的古籍、地方志、档案整理出来,以前需要几十年冷板凳的梳理工作,现在可能在几个月内完成一个初步框架。对研究者和文化爱好者来说,这是前所未有的工具。

但同样重要的是,大模型如何“讲述中国”。训练数据决定叙事风格。如果数据来源偏向官方论述,模型就会天然偏向某种语气;如果加入大量民间材料,模型的声音就会多皱褶一些。这个选择,既是技术问题,也是政治问题。

在历史上,生成式 AI 已经开始进入博物馆、纪念馆、课堂。讲解员的脚本、互动问答,都可能由模型生成或润色。这意味着,普通人接触历史的方式,很大程度上会被“技术话语”过滤过一遍。哪些事件被强调,哪些被淡化,哪些视角不被提起,这些变化是看得见的,也是需要警惕的。

在政治上,人工智识分子一方面会被用作政策工具。政府部门可以用它快速分析文件、起草简报、总结调研。但另一方面,它又可能成为舆情管理的利器,自动生成正向评论、自动纠偏“错误观点”。在这种场景里,人工智识分子延续了索维尔所说的“观念影响权力”的传统,却让权力更难被看见。

在经济上,AI 被视为提高生产率的关键技术。中国近年来反复强调“新质生产力”,AI 是其中的重要支点。金融、制造业、物流、互联网行业,都在用大模型做优化。

这样一来,人工智识分子既是“提高效率的工具”,也是“新的生产要素”。谁控制这些要素,谁就掌握新的经济权力中心。对地方政府、央企、互联网巨头和小型创业公司来说,这是一场新的权力再分配。

在“破坏性创造”中为自己设定方向

在“人工智识分子与社会”的框架里,人类知识分子并不是要被时代淘汰的角色。真正需要调整的是他们的“任务描述”。

过去的知识分子,以“知道答案”为核心价值。谁掌握更多文献,谁能更快写出厚书,谁就有更强话语权。人工智识分子出现后,“知道答案”这件事的稀缺性在快速下降。

接下来,有几类能力会变得更重要:

提出好问题的能力。模型擅长在给定问题下生成内容,却很难自己提出有洞察力的问题。哪些问题值得问,哪些问题不该问,这需要经验、伦理和对现实的敏感。

设计制度和规则的能力。人工智识分子的输出怎样进入司法、医疗、教育等关键领域,需要人去设计边界和流程。哪些可以自动化,哪些必须有人签字,哪些完全不该交给模型,这些都是制度问题。

守住价值底线的能力。技术可以优化过程,却无法替人决定目的。平等、尊严、自由、公正,这些词不是算法算出来的,而是长时间历史斗争的产物。有人必须持续提醒社会:效率不是唯一标准。

从这个意义上说,人类知识分子如果愿意调整角色,不是被人工智识分子取代,而是有机会借助它,从“文本工人”变成“问题发明者”和“价值守门人”。

索维尔提醒读者,要看知识分子的观念在现实中的后果,而不是只看他们在纸面上的优雅。今天,这个提醒同样适用于人工智识分子。

大模型可以在一瞬间写出一篇看起来很漂亮的政策建议,也可以用流畅的语气为任何立场辩护。关键问题是:谁在用这些文本?它们被用来干什么?它们造成了什么长远后果?这些后果由谁承担?

在人类文明的长时间尺度上,人工智识分子的出现,确实像一次“破坏性创造”。它创造出一种前所未有的“知识机器”,同时在破坏旧制度、旧职业、旧安全感。人类社会正在被这股力量推着往前走,却普遍缺乏对终点的清晰想象。

这既是风险,也是机会。如果把人工智识分子当成一股“自然力量”,一切交给技术决定论,那结果很可能是:少数掌握模型和算力的机构,获得前所未有的知识权力,而大多数人被迫适应一个自己从未参与设计的系统。

如果把它当成一个需要被驯化、被民主化、被反复质疑的制度性创新,人类知识分子还有很多事可做。可以重写教育目标,可以重设职业路径,可以参与制定 AI 治理规则,可以用文学、电影、非虚构写作不断提醒公众:每一套技术系统背后,都有具体的人在受益,也有具体的人在受伤。

人工智识分子不会消失。它已经是新的常量。真正的变量,是社会如何划分它的权力边界,人类愿不愿意为此付出思考和博弈的代价。

在这场“破坏性创造”的浪潮里,那些愿意坚持提问、敢于承担责任、愿意为具体的人发声的知识分子——无论是人类的,还是在人的控制下运行的人工系统——才有可能让文明在加速中保持方向感。


浏览(199)
thumb_up(0)
评论(1)
  • 当前共有1条评论
  • 俞先生

    人类最初劳动时使用自己的大脑、双手和双腿。人自己的身体就是原初的机器;后来人类发明了机器,令这种机器脱离人的身体独立运行。机器是人的身体的延伸,而人工智能也是机器的延伸。正像机器是人的身体的生物结构的物理延伸一样,人工智能是机器的进一步物理延伸。人通过劳动不仅创造了自己,而且还创造了一个依附于和服务于自己的物理世界。

    屏蔽 举报回复