随着人工智能技术的快速迭代,尤其是生成式人工智能技术逐渐产业化,“网络水军”经历了从传统人工“水军”1.0阶段,到低智能化机器人“水军”协同生产的2.0阶段,再到智能“水军”3.0阶段的发展过程,实现了从零散到组织化、从人工到机器、从量变到质变的飞跃,并且更具隐蔽性。
尤其是在生成式人工智能技术的加持下,机械式工作的机器人“水军”升级为高智商AI“水军”,成为网络公共事件中引爆舆情和操控舆论的“意见哄客”。一方面,生成式人工智能技术让AI“水军”的信息发布不仅高效,还能高度迎合网民的信息偏好与需求,能根据网民本人、平台及场景特征等进行一对一定制,这些深度伪造的内容更易获得网民认同。另一方面,AI“水军”还不断学习算法,通过机器学习计算并模拟算法偏好,将其经验运用到网络“灌水”实践中。在互联网平台上,算法对“水军”的识别力不足加剧了网民信息获取源的封闭性,客观上加强了“水军”的影响力。
“网络水军”的“水”有多深?
如何治理“网络水军”?
“网络水军”的治理具有紧迫性。“网络水军”的治理已经不是单一部门就能完成的,需要全局性把握,实现多领域、多主体、多手段、多技术工具的协同联动治理。
其次,“网络水军”事件大多涉及公益侵害,受害方是广大社会公众,虽然破坏性强,但若没有明确的经济利益的损失,不少事件缺乏社会公众主张权利的主体,由网民个体利用法律起诉“网络水军”的可能性较低。因此,应尽快在法律框架下明确“网络水军”违法行为的构成要件、公益侵害属性、损害赔偿计算等法律适用规则,由检察机关提起民事公益诉讼,解决谁来替社会公众主张权利的问题,而且要求“网络水军”承担相应的公益损害赔偿,加大对“网络水军”的惩戒力度。就专项立法而言,可以先以行政法规或部门规章的形式制定统一的“‘网络水军’防治条例(办法)”,对“网络水军”的信息传播范围、数量、边界作出较为清晰的界定并进行管理,逐步推进预防、遏制和惩治“网络水军”的专项立法,形成软法预防与阻断、硬法保障与监督,构建软硬法互补式的系统治理体系。
第五,凝聚社会共识,从上中下游全产业链进行梳理,提升社会公众对“网络水军”的认识能力,提高社会公众对“网络水军”的鉴别力。“网络水军”往往把自己包装成文化公司、传媒公司、营销公司、中介公司等,一些商业公司会成为“网络水军”的委托方,扮演了给“网络水军”公司“背书”的角色。一些“网络水军”在社群等渠道招募有偿数字劳动的普通网民和网络“大V”,这些普通网民和网络“大V”缺乏对“灌水”行为所带来恶劣后果的认知。为此,应充分宣传“网络水军”的危害,严控“网络水军”各个运作节点,从委托方、组织方、劳动方等加强管理,从信息传播、资金流动等方面进行多方追踪和阻断,建立案例库,对行业黑话、资金流转方式、组织方式等进行汇总识别,形成全社会对“网络水军”治理的共识,营造更加健康安全的网络环境。
上文略有删减选自|《人民论坛》杂志2024年第19期原标题|人工智能时代“网络水军”的危害与治理策略
作者|中国政法大学光明新闻传播学院教授、博导,网络与新媒体所所长郑满宁