DeepSeek的副作用,被越来越多人发现
技术是把双刃剑。
说在前面:
AI确实是趋势,也很大程度上提高效率,特别是DeepSeek开源之后,AI的使用更加普及,现在不管是政务系统,还是企业办公,都要求员工要使用DeepSeek。
但同时,随着使用人数的增加,DeepSeek的副作用,也越来越多的显示出来。
主要有这几个:
1、一本正紧地瞎编
为什么会出现瞎编的情况呢?
我想主要是两个原因:
第一,训练机制
大模型的训练特别强调奖惩机制,这就会让AI倾向于取悦用户,甚至为了完成任务而杜撰和瞎编,当然AI在生成这些信息的时候更天衣无缝,一本正紧的胡说八道,没有知识储备的人90%都会被唬住,信以为真。
如果这些信息被大规模传播之后,再进行二次训练,可能就会成为很多人的共识,估计人类的知识体系可能被颠覆,AI在这方面的效率比社交媒体的信息茧房厉害多了。
第二,语料质量
我们之前说过,开源大模型的问题在于:
它的推理能力是蒸馏而来的,也就是说,它训练的语料都是正确答案,缺少信息标注和原始推理的过程。
这可能在遇到一些错误信息的时候,无法识别,同时因为奖惩机制的关系,迎合用户生成了错误的信息。
所以,腾讯版DeepSeek接入公众号文章做训练,可能真的会增加幻觉的程度。
总结一下:
在一本正紧瞎编这部分,可能是多方面的问题,但如果不及时介入的话,造成的问题还是很严重的:
AI可能提高了很多人的认知下限,但是锁死了绝大部分人的认知上限,大家都活在AI制造的信息茧房里。
有点科幻了。
2、被用来做信息污染
如果说一本正紧的瞎编,是AI的讨好机制,或者说语料不够的原因,那么当这种能力被居心不良的人使用,那简直是如虎添翼。
这几天,看到不少人分享如何用DeepSeek制造爆文,甚至还传出付费教程。
下面这个就是DeepSeek制造出来的爆文,流传非常广:
确实很夸张的小作文,情节存在很多不合理的地方,但是非常有噱头,看的人很多,转发的也很多。
几乎没有人怀疑故事的真实性,但真相是,这是一篇DeepSeek写的小作文。
这几乎改变了整个互联网的信息生态:
以前写一篇非虚构故事,至少要一个团队忙活一个星期,还不一定能出爆文:
有了DeepSeek,人人都可以成为咪蒙。
十分钟生成一篇,总会有一篇爆的。
这也是为什么最近平台开始打击AI信息的原因。
已经产业链化了。
当然,除了信息污染牟利:
还有人故意从源头污染语料,影响AI抓取数据,来生成小作文炒作股市割韭菜。
在生成虚假信息方面,AI比人类的效率高多了,那以后,大家还能分清楚看到的东西,是真的还是假的吗?
AI时代,真实成了最稀缺的东西。
肯定不能这么下去。
3、有没有什么办法来改善这种情况?
想了几个:
1、完善AI的训练机制,增强判断信息真伪的流程。
2、有关部门要做好兜底方案,加强对AI的监管。
图:浙江有很深厚的创业氛围,图为DeepSeek在杭州的办公大楼汇金国际大厦。
3、普通用户要有怀疑的谨慎,尽信AI不如没有AI。
想起来之前美国关于AI发展分成两派:
超级加速和价值对齐,目前看是超级加速派胜利了,但是价值对齐也不能丢啊。
就这样。