文丨卢向华(复旦大学管理学院教授)
数字经济时代,“人”的角色正在发生新的变化。当AI成为了企业的“新员工”,人与AI的协同合作将逐渐成为生产过程中的常态。当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式以提升整体效率?如果人机协同的工作任务“搞砸”了,人类和AI之间如何界定责任?
与AI一起工作,需要最优匹配模式
如果要让人机协作的系统变得更好,组织管理上可以做什么?这一领域的研究尚处于初步阶段,因为大多数企业仍在探索中,成熟的研究较少。
就目前我们所了解的情况而言,人机协同中的组织管理可以归纳为三个主要方面:一是企业任务与人机系统的匹配管理;二是AI员工融入组织后,组织管理方式的调整;三是人和AI在系统中的责任管理。
首先,需要考虑的是工作任务与人机合作模式之间的匹配管理。
用户的异质性会影响人机协作效果,不同任务的性质也会要求不同的人机协作模式。因此,组织需要根据任务的属性来调整人和AI在具体任务中的比重。目前,大家普遍认可的任务匹配管理模式主要有可计算性、主观性及复杂性三个维度。
第一,可计算性维度。如果任务本身需要大量的计算,超出了人脑的处理能力,那么让AI来主导可能会更有效。举例来说,规划从地点A到地点B的路线时,尽管人类可能有经验,但只能从几条已知路径中选择最优路线,而AI可以枚举所有可能路径,从中找出最优解,因此效果更佳。
第二,主观性维度。如果任务具有较强的主观性或需要灵活应变,如医疗服务或餐饮服务,人类可能更适合扮演主导角色。
举例来说,最近的一项研究中发现,对于创意评价这类任务,由于其相对模糊和主观性强,即使使用了具有理论支持的可解释性人工智能,也无法模仿人类专家的判断,特别是在筛选出特别优秀的创意方面。因此,像这样的任务更需要由人类来主导。
然而,如果所有的创意评价都由人类专家来完成,可能会导致案例过多,使专家感到枯燥和疲倦,从而影响他们的客观判断能力。因此,在这项研究中提出了一个解决方案:针对那些低质量的创意,可以先让AI进行筛除,减少专家的工作负担和乏味感。这样,专家就可以将更多精力集中在评估和筛选优秀创意上。
然而,在理财、医疗等需要一定能力完成的任务上,我们更倾向于选择由人类主导的系统来完成。这一发现在一定程度上证实了,企业需要为不同类型的任务匹配不同的人机协作系统。
AI让工作技能提升还是丧失?
随着AI的加入,企业员工的组成也从传统的仅有社会人,转变为社会人与AI机器人的组合。在这种情况下,企业需要面对新的管理挑战,包括如何管理AI员工以及如何调整组织策略以适应AI员工的加入。目前已有大量研究发现,在与AI合作之后,员工对公平性的感知和情绪都会发生很大的变化。
例如,智能审计的引入可能会导致员工感到焦虑和不安全,从而抑制其自主创新的意愿,进而影响员工的绩效。在这种背景下,许多组织行为学领域的学者开始研究,AI员工的引入如何影响员工的心理状态、团队协作、领导力,以及人力资源的计划、招聘、培养和管理过程。
第一种:效益最大化机制,员工会最大程度地利用AI来提高自己的认知能力,从而提高工作绩效。
第二种:干扰最小化机制,AI破坏了员工原有的工作流程,导致员工感到角色冲突,进而使得他们的绩效受损。
研究进一步分析发现,采用效益最大化策略的新员工其绩效提升速度最快,而采用干扰最小化策略的老员工,其绩效相对也表现不错。
因此,论文建议企业在引入这样的AI系统之后,应该着力鼓励新员工更多地采用效益最大化的机制来应对AI系统。换言之,鼓励他们利用AI学习新知识,以提高工作绩效。对于那些已经熟悉了原有工作流程的老员工,组织应该帮助他们通过AI来调整自己的工作框架和流程,从而降低角色冲突,缓解AI所带来的干扰。
然而,对于某些知识型员工来说,AI并不一定会促进技能的提升,反而可能导致一种“去技能化”的趋势。
根据一项2023年的研究,医生在使用诊断辅助系统后,其独立诊断的准确性明显下降,因此AI辅助诊断系统的使用实际上导致了医生的“去技能化”。
另一项研究也发现,手术机器人的引入大大减少了住院医师实际操作训练的需求,从而降低了医生的动手能力。
因此,现在住院医生需要采取不同于以往的方式来提高自己的动手能力,某位医生学者就提出过一个影子学习的方法,通过尽早专业化、抽象演练和监督实践的方法来培养医师的动手能力。
任务失败时,人与AI谁来负责?
除了激励和培养员工以更好地适应人机协同工作的环境之外,对企业而言,还有一个更大的挑战,即如何对人和AI的责任进行认定。特别是当服务失败时,到底由谁来承担责任?
之前关于无人驾驶车出了车祸之后的责任问题,引发了广泛的讨论。主流观点认为,AI系统本质上是机器,无法承担法律责任,因此问责对象应该是系统背后的人或机构。然而,也有研究认为,当算法透明度越来越高后,AI在一定程度上可对其所做的事情负责。
我们团队目前试图在这方面展开一项探索性研究,研究的场景是互联网医疗平台。
随着越来越多的互联网医疗平台采用生成式人工智能提供AI问诊服务,平台是否需要为AI问诊的责任提供支持,成为一个非常有趣的研究话题。
我们希望通过这项研究探索互联网医疗平台是否愿意为AI问诊服务承担责任,以及这种决定如何影响患者使用平台的意愿。我们计划在两个不同的场景下进行研究,分别是纯粹的AI问诊和AI与医生混合问诊。我们将通过一定方式来调控患者对平台承担责任的感知,并检验患者对平台的信任度和使用意愿。在研究过程中,我们还会引入AI问诊和医生问诊的感知中立性作为调节变量。
综上所述,我们建议企业根据不同任务匹配不同的协作模式,并重新思考AI员工和人类员工合作下的激励和培养问题,以及做好AI系统的责任管理。
最后,借用“各美其美,美美与共”这句话,人类与AI协作的理想境界可能是“各智其智、各尽其长”,即充分发挥人类与AI各自的优势,互相学习,从而提升人机协作的整体效能。