“AI情感识别”没你想的那么神通,别被它误导。
编译|智东西李水青
智东西7月26日消息,近日,美国五名专家发表了一篇论文驳斥“根据表情识别情感”的方法论。这些专家耗时两年查阅1000多项研究,证明市面上的许多依托面部表情识别情感的算法缺乏充分的科学依据。
据称,这意味着包括微软、谷歌在内的许多公司的“情感识别算法”的原理可能并不严谨,如果被应用到招聘、医疗、安检等场景中,或对用户产生严重的误导作用。
随着人工智能(AI)被广泛运用于人类决策中,许多研发者表示已经可以打造能解决感情问题的AI工具。
微软、亚马逊及IBM等科技公司都纷纷推广自家的“情感识别算法”。这些产品大多是基于面部表情识别人的感受,例如,如果人们皱眉、撅嘴就意味着生气等。
“情感识别算法”可以被应用到多种场景,比如求职平台软件可以通过自动监测“愤怒”情绪的算法系统,为招聘企业过滤一些情商不达标的候选人。
“一些公司号称他们已经完全可以通过算法识别情感,但是数据表明并非如此。它们的算法可以识别到皱眉,但这不等于检测到愤怒情绪。”美国东北大学心理学教授LisaFeldmanBarrett说。Barrett等五位科学家耗时两年,将其研究成果发表在论文《再论人类情感表达:从人类面部表情辨别情绪的方法论面临的挑战》中。(论文原名为:《EmotionalExpressionsReconsidered:ChallengestoInferringEmotionFromHumanFacialMovements》)
▲研究者使用面部动作编码系统(FACS)来描述成人的面部结构
二、耗时两年,查阅1000多项研究
研究表明,人类情绪的表达方式极其丰富复杂,很难靠简单的面部表情识别。
因此,提供这类“情绪识别算法”的公司往往会误导消费者。
“你确定要以此为基础做决定吗?”Barrett说,“当你在法庭打官司,在医院等诊断或是在机场过安检,你愿意让那30%的概率来‘裁决’你吗?”
三、承认表情有用,也要考虑语言、情境
当然,按照社会约定俗称的习惯,人们会主动地使用表情来表达情绪。但是,当人们进行面对面互动时,并不会只从面部分析彼此的情绪,而是会通过着装、动作、语言等多种因素,联系个人经历、传统习俗、人际关系等多种背景信息。
该论文认为在情绪研究领域存在着各种各样的刻板印象。具体而言,它反驳的是“通过表情来获取情绪‘指纹’”的理论。这种理论源于20世纪60年代心理学家PaulEkman的研究。
▲当人们被要求按照自我理解做表现同种情绪的表情时,这些表情获得的AI判别结果差异很大
“虽然演员能选择的抽象情绪种类有限,但是这些情绪转化为直观的表达,就很复杂了。”Barrett说,“当一个演员要表达愤怒时,他可能会哭、会大喊、会笑或只是静静地坐着,然后思考着复仇计划。你能接受演员因为用“皱眉”表达愤怒而获得奥斯卡奖吗?相信很少有人爱看这种表演。
四、要考虑更多变量和变量的优先级
据称,“情感识别”市场规模已达到200亿美元。业内领先公司之一Affectiva表示,它正在尝试收集更多情绪表达变量。例如,它推出了一种工具,能够通过结合表情和语音来综合衡量驾驶员的情绪。也有其他研究人员正在研究通过步态识别和眼动追踪来识别情感。
Barrett相信,通过更丰富的变量分析,在未来我们将能够更准确地识别情感。“我绝对相信这是可能的。”她说,“但这并不意味着我们不该阻止目前误导性技术的扩散。”
结语:情感识别“不简单”,变量可靠性最关键
当前一些“情感识别算法”选择变量的标准不是变量的“可靠性”,而是这个变量能不能被衡量。“情感识别产品”所用的机器学习是一种过于擅长寻找联系的技术,这可能会导致各种肤浅、甚至虚假的分析。
比如一些机构利用机器学习算法,通过分析保姆在社交网站的发帖,来洞察其“态度”,进而分析保姆态度和公司财报记录、预测股票价格的关系等等。
如果这类误导性的“情绪识别工具”被普及开来,我们可能会慢慢接受它并让它影响我们的社会人格成长历程。社会学家库利(CharlesHortonCooley)认为,来自外部的期待和评价是一面镜子,人类会依据“镜中我”来实施行动,以使自我符合外部的期待和评价。误导性的“情绪识别工具”像一面“哈哈镜”,当人们看到自己的表情被其线性的解释,人自己渐渐也就相信那是真的了。
Barrett说,或许该论文最大的价值在于让我们不要过于简单化地认识人类情绪。情绪的表达是多样、复杂和有情境的。