舆情研判中此前AI的应用和近期ChatGPT的介入
舆情精准研判中存在着不少难点,面临着许多挑战;前代AI技术在舆情研判中已经有所应用,也已获得相应进展,但并未达到理想境界。近期ChatGPT的介入,使情况发生了一定程度的改观。
(一)舆情研判面临的挑战
(二)以往AI技术在舆情研判中已有的应用
(三)近期ChatGPT对舆情精准研判的介入
ChatGPT的介入,给舆情研判带来了新的生机和活力,使舆情研判更加精准,前景可期。
1.语言理解和内容生成能力之于舆情精准研判
ChatGPT是AI技术发展的里程碑。AI发展中前一个里程碑当是战胜世界围棋冠军李世石的阿尔法狗。作为一款AI产品,阿尔法狗的专长是与人进行智力和思维的博弈,预测对手下一步和下面几步棋将怎么走,通过高算最终在比赛中胜出。但阿尔法狗与李世石之间没有通过人类语言进行交流,前者也并不生成内容,因此它即使再高明,也不可能被用于进行舆情研判(当然AlphaGo背后的深度强化学习技术本身可能在某些场景中被应用于舆情研判甚至舆情干预)。而ChatGPT则不同。它介入人类生活,是采用基于人类的思维和语言生成内容的方式介入的,用人类的思维与语言和人进行交流沟通,提供使用者所需要的结果。它所具备的而阿尔法狗欠缺的功能是直接生成内容。生成内容的前提是了解内容,理解内容的构成机理、构成法则;结果是生成的内容为使用者所需且能被认可和接受。而这正是进行舆情研判所需要的。以上就显现出了ChatGPT与阿尔法狗及其他AI之间的区别。与它们相比,ChatGPT有其优胜之处。
具体到舆情精准研判上,ChatGPT是能够理解网民通过语言(包括某些转弯抹角的语言)和符号(具有特定含义的符号)所表达的舆情的。在这一点上,它与前代AI有所不同。原因是几乎无所不包的预训练语料库中有足够丰富的相应语料,且进行过标准和要求颇高的预训练。前代AI可以粗略地对语义进行分类、归并、梳理,但是未必能深刻理解网民情绪等要素所具备的丰富的舆情内涵。而ChatGPT能比较深刻地理解网民情绪等所具备的舆情内涵。它不仅知道针对特定人物、事件的负面情绪可以粗分为愤怒、恐惧、悲伤、不满等并统计出各自占比,而且能凭对人的了解,细析每一种情绪更加具体的内涵,探究其起落的因由等。因此,ChatGPT较之一般的AI更具备参与舆情精准研判的可能性。ChatGPT是各类AI中离舆情研判最接近的AI。
2.文本分析和情绪识别在舆情精准研判中的应用
它之所以能如此,与算法在其中所发挥的作用不无关系。ChatGPT是一种基于Transformer模型的语言模型。在建模中使用了算法,实现了高算。结果是:建成了能包含人类语言信息的功能强大的语言模型,乃至其本身可以生成内容,又可以对使用者输给它的内容进行分析处理(模型深度理解和深入分析了输给它的文本或语言,经运行而提供相应产品)。模型既然已经能与人以假乱真地对话,也就是掌握了人类语言的规律,自然可以在分析处理场景中用于文本分析和情绪识别。
从事舆情研判的人士,在利用ChatGPT进行舆情检测、分析、研判时,需要事先掌握一定的舆情信息(网络是舆情信息的集散地,因此须主要掌握网络舆情信息)。在将问题输入ChatGPT时,须对ChatGPT提出明确的要求(让它知道需要它做什么、做到什么程度);对可能发生偏差和错误之处,要对ChatGPT事先作出提示。为了便于ChatGPT进行提示学习和上下文学习,也便于对之进行微调训练,有必要对输入的数据进行相应的标注。在对数据进行标注时,应注意到对体现情绪内涵的语词进行标注,对其程度等级进行标注,以便于后续正确地进行相应处理。
3.在舆情预测和预警中所能发挥的作用
ChatGPT在舆情预测和预警方面,则更进了一步。它具有“上知天文、下知地理”之所长(在这方面优于前代AI技术)。在ChatGPT的预训练语料库中,有海量的历史数据的积累(靠人力和人工很难做到),再加上对概率论、统计学等技术的运用,因此ChatGPT如使用得当可比前代AI技术更精准地预测未来。但是仅仅依靠历史数据推断未来,是远远不够的。在使用ChatGPT的同时,还需要舆情研判者融入有见地、有经验的专家睿智、洞见,把人类智慧和机器智能紧密结合起来。
可在预训练时有意识地让ChatGPT朝预测舆情发展方面进行努力。在具体操作时,“需要将训练数据输入到ChatGPT模型中,进行模型参数的更新和优化。在预测过程中,可以将待分类或待分析的文本输入到ChatGPT模型中,得到对应的分类标签或情感极性”。进行的努力包括:不失时机地更新和优化模型参数(而不是反应迟钝、动作迟缓,疏于更新和优化模型参数);确保待分类或待分析的文本的真实性和分类及分析的准确性;对所得的分类标签或情感极性进行谨慎的审核,以达到应有的可靠性。
ChatGPT在舆情精准研判中的问题和局限性
(一)ChatGPT存在的数据偏见问题
从本质上讲,ChatGPT使用的数据是研发者输入的,或者说是由研发者搜集、筛选、确认、并发出指令后输入模型的。输入的数据本身存在着一些偏见。例如,在价值观问题上的偏见(包含的是研发者所认可的价值观的语料,摒斥了其不认同的价值观的语料),在种族问题上的偏见(狭义的ChatGPT产品本身秉持西方主流社会的种族观,相信我国的类ChatGPT产品肯定会注意这个问题)、在性别问题上的偏见(明里暗里贬低女性,体现了性别歧视)、在地域问题上的偏见(存在着地域优越感),等等。ChatGPT的数据偏见,其实是其研发者的数据偏见的一种折射。在使用ChatGPT进行舆情研判时,需要谨慎防止数据偏见所发生的作用和产生的影响。
(二)ChatGPT语言模型的理解力和应对力问题
ChatGPT语言模型在理解力和应对力方面存在一定局限性。在接触到或被问及语料库中没有包含的语料方面的问题,或者是预训练和微调时没有涉及的问题,ChatGPT就会不露声色地“一本正经说胡话”(且并不易识别和判断)。据此进行舆情研判,就会谬以千里。
另外,ChatGPT对人类复杂语言的理解难免出现偏颇。人类语言中有许多微妙之处:外观是褒、其实是贬的语言现象不在少数,双关、多义、隐喻、反讽等模糊表意、隐晦表意、反向表意的情况经常出现;加之人与人之间的恩怨情仇也常会通过具有特定内涵的语言得到或隐或显的表达。这些情况在舆情层面大量存在。所有这些,都给ChatGPT理解人类语言中的特殊含义带来了困难和障碍。
(三)其他可能的挑战和限制
ChatGPT还会带来其他挑战,存在另一些局限性。有研究者指出:“ChatGPT人工智能技术在与受众信息交互中通过信息转化的方式成功将舆情重构,引起受众间的认知对立与价值冲突,造成网络舆情安全风险多样态。”由于ChatGPT的介入,原本就不平静的社会舆情,因舆情被重构、受众间的认知对立与价值冲突被激发,客观上形成了舆情方面新的难题,成为对舆情精准研判的严峻挑战。
另一不可忽视的现象是:像ChatGPT这样的聊天机器人,它们的概率设计意味着不能保证相同的提示总是产生相同的输出。也就是说,ChatGPT面对同一使用者的相同提问,很可能给出不同的答案和结果。撇开生成的内容中在价值观、种族观等方面存在的偏差,ChatGPT在回答问题的可靠性方面,也并没有达到可以寄予厚望和完全可以信赖的程度。
作为一项新兴AI技术,ChatGPT给舆情精准研判带来了利好。恰当地应用这项技术,可以使舆情研判更加精准。但毋庸讳言,ChatGPT本身存在一定的弊端,在舆情研判中对它不能过度依赖。
从目前情况来看,在舆情研判中审慎使用ChatGPT,应避免其弊端,发挥其优长。从长远考虑,我国需要加强自主开发ChatGPT类大语言模型的技术,使用体现主流价值观的语料和语料库,按维护意识形态安全的需要,进行预训练和模型建构,将“大数据、大模型、大计算”全新范式应用于舆情研判,以不断提升舆情研判的精准度。本文为系列论文的开篇之作,后续将进一步探索大模型类先进AI技术和“大数据、大模型、大计算”全新范式在舆情干预、舆论引导、媒介化治理中的重要地位、价值和作用(即从舆情监测预判预警升级到决策应对处置)。
【作者简介】丁晓蔚(通讯作者),南京大学信息管理学院教授、博士生导师,南京大学普惠三农金融科技创新研究中心负责人,江苏紫金传媒智库研究员赵鑫,上海浦东微热点大数据研究院计算传播实验室主任研究员刘梓航、刘天昊,南京大学普惠三农金融科技创新研究中心助理研究员