白宫在7月21日的周五宣布,拜登政府已与七家制造人工智能产品的公司达成协议,以制定旨在自愿确保AI技术安全开发的指导方针。拜登在当天下午对媒体表示:“这些承诺是真实的,而且是具体的”,“AI行业将履行其对美国人民的基本义务,即安全开发、可靠和值得信赖的技术,而该技术能造福社会并维护我们的价值观和我们共同的价值观。”
拜登在白宫罗斯福厅发表讲话。左起为亚马逊网络服务首席执行官亚当·塞利普斯基、OpenAI总裁格雷格·布罗克曼、Meta总裁尼克·克莱格、InflectionAI首席执行官穆斯塔法·苏莱曼,图源:美联社
参与此次活动的公司包括Amazon、Anthropic、Google、Inflection、Meta、Microsoft和OpenAI。其中,Anthropic由DanielaAmodei和DarioAmodei兄妹创立,两人此前由OpenAI研究主管的职位上出走,原因是无法接受OpenAI抛弃“初心”。
事实上,Anthropic虽声称自己依然是非营利性组织,但与OpenAI类似的是,也与巨头进行了某种形式上的绑定。Anthropic已与谷歌建立了合作伙伴关系,以访问谷歌的云计算,其开发的大语言模型Claude2正在对标OpenAI的GPT4。
美国国会众议院军事委员会下属的网络、信息技术与创新小组委员会(CITI)周二(7月18日)举行一场名为“人与机器:战场上的人工智能”的听证会。听证会探讨三个主题,包括美国国防部采用人工智能的现状、哪些结构性障碍阻碍了军队对人工智能更广泛应用及使用上的采纳、美国的潜在对手如何在战场上运用人工智能对抗美国。
Anthropic首席执行官DarioAmodei以及教授YoshuaBengio和StuartRussell在周二参议院人工智能听证会上宣誓,图源:GETTY
根据《华盛顿邮报》报道,7月25日有三位AI领域领军人物在国会听证会上作证,警告人工智能的疯狂发展速度可能会在未来几年内导致严重危害,例如流氓国家或恐怖分子利用该技术制造生物武器。被称为现代人工智能科学之父之一的蒙特利尔大学人工智能教授YoshuaBengio表示,美国应推动国际合作来控制人工智能的发展,并概述了类似于核技术国际规则的制度。Anthropic的DarioAmodei作为CEO表示,他担心尖端人工智能可能会在短短两年内被用来制造危险的病毒和其他生物武器。加州大学伯克利分校计算机科学教授StuartRussell表示,人工智能的工作方式意味着它比其他强大的技术更难完全理解和控制。
目前,不同国家和地区的政府采取了哪些措施管控AI风险、制定政策?在这个过程中,政治的博弈和竞逐将以怎样的形式展开?本文希望基于对世界上主要国家和地区对生成式人工智能的监管和治理的梳理,反思和展望未来人工智能监管的走向和对现有权力体系的影响。
二、世界主要国家和地区现有AI治理政策
中国:全球第一个出台正式法律
在广泛征求各界意见后,《生成式人工智能服务管理暂行办法》于7月13日正式出台,坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管,明确了提供和使用生成式人工智能服务总体要求。《生成式人工智能服务管理暂行办法》的出台,使中国成为全球范围内首个在法律规制层面明确提出生成式人工智能治理方案的主要行为体。
美国:整体立法相对缺失
不过,美国各界对于人工智能的担忧与争论十分激烈,3月10日,美国商会(U.S.ChamberofCommerce)呼吁政府对人工智能技术进行监管,以确保它不会损害经济增长或威胁国家安全;3月21日,纽约大学教授马库斯警告人工智能可能在选举中制造虚假信息,这一担忧在4月拜登宣布竞选连任后,共和党发布由人工智能生成的反击视频得到部分印证;3月29日,生命未来研究所(FutureofLifeInstitute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月,马斯克等人签署了这封公开信;3月31日,美国国会就是否应该暂停高级人工智能训练展开讨论。
4月1日,科技伦理组织人工智能和数字政策中心(CenterforArtificialIntelligenceandDigitalPolicy,简称CAIDP)要求美国联邦贸易委员会(FederalTradeCommission,简称FTC)阻止OpenAI发布GPT-4的新版本;4月8日,在与科学技术顾问委员会的一次会议上,美国总统拜登表示,人工智能可能是危险的,并敦促科技公司在公开产品之前确保其产品安全;4月12日,美国商务部国家电信和信息管理局(NationalTelecommunicationsandInformationAdministration,简称NTIA)希望公众参与开发人工智能审计、评估、认证和其他工具,以建立公众的信任,这是朝着联邦层面潜在的人工智能法规迈出的第一步。
美国土安全部部长马约卡斯,图源:CNN
欧盟与欧洲国家:加速立法与审慎监管
从今年年初始,据POLITICO报道,ChatGPT的卓越表现已经颠覆了欧盟委员会(EuropeanCommission)、欧洲议会(EuropeanParliament)和欧盟理事会(CouncilofEU)为欧盟人工智能规则手册草案《人工智能法案》所做的工作,并促使有关机构重新审视有关人工智能监管的法案。3月22日,路透社又报道称随着人工智能蓬勃发展,欧盟立法者为新法规而争吵;3月31日,意大利更是因涉嫌违规行为为由封锁ChatGPT,这一禁令直到4月28日,在OpenAI回应监管机构后,意大利方解除对ChatGPT的禁令;
除意大利外,4月11日,法国隐私监管机构CNIL介入调查有关ChatGPT的投诉;4月12日,西班牙要求欧盟数据保护委员会讨论ChatGPT;作为对有关争论的回应,4月13日,欧洲数据保护委员会(EDPB)成立了ChatGPT专门工作组,但据Euractiv4月14日报道则称,欧盟议会在人工智能法案的制定上分歧重重;4月19日,欧盟委员会(TheEuropeanCommission)成立了一个新的研究部门欧洲算法透明度中心(TheEuropeanCentreforAlgorithmicTransparency,简称ECAT),该研究部门的任务是审核谷歌和Meta等大型科技公司使用的AI支持算,从而帮助欧盟委员会识别和解决这些平台带来的任何潜在风险。
4月19日,欧盟委员会成立欧洲算法透明度中心,图源:EURACTIV
4月20日,爱尔兰数据监管机构则称无需急于禁止聊天机器人;4月24日,德国监管机构对ChatGPT的《通用数据保护条例》(GDPR)合规性展开调查;同日,欧洲消费者组织敦促欧盟消费者保护机构调查ChatGPT;4月26日,西班牙提出,希望在其担任欧盟轮值主席国期间建立欧盟的人工智能监管法规。
英国方面,早在3月29日,随着ChatGPT的迅速扩展,英国政府敦促监管机构制定人工智能规则,但是选择“适应性强”的人工智能规则,不设立单一的监管机构;4月24日,英国更是成立了1.25亿美元的工作组来推动本国人工智能的发展;5月4日,英国竞争监管机构表示,将开始研究人工智能对消费者、企业和经济的影响,以及是否需要新的控制措施。
5月18日,英国首相苏纳克在G7峰会前召开发布会,图源:inews
日本、俄罗斯、印度
今年以来,俄罗斯的人工智能监管由于战争背景,以审查为主。1月9日,《莫斯科时报》(TheMoscowTimes)称,俄国执政党正在用人工智能清除反战选民;2月18日,俄罗斯推出AI监控工具Oculus以加强其网络审查手段;4月24日,俄罗斯银行Sberbank发布了对标ChatGPT的GigaChat。
G7广岛峰会
5月20日,G7广岛峰会领导人公报发布,在人工智能问题上,G7领导人认为,应“推进关于包容性人工智能治理和互操作性的国际讨论,以实现我们对可信赖的人工智能之共同愿景和目标,(并使人工智能)符合我们共享的民主价值观“。
在峰会期间,G7领导人表示,“需要立即评估生成人工智能的机遇和挑战”,还呼吁制定和采用技术标准,以保持人工智能“值得信赖”,称该技术的治理未能跟上其成长。领导人还敦促经济合作与发展组织等国际组织对(有关人工智能)政策的影响进行分析。
4月30日,G7数字监管领域部长们在日本举行了为期两天的会议,图源:Reuters
G7广岛峰会领导人合影,图源:g7hiroshima.go.jp
三、ChatGPT后AI治理的趋势
监管责任与风险共担
在当前人工智能治理的过程中,政府并非独自行使权力,而是希望激发人工智能企业自身的主体性。早在4月8日,拜登就在科学技术顾问委员会的一次会议上表示,人工智能企业应当在公开产品之前就确保其产品是健康且安全的。近一个月后,美国副总统哈里斯在白宫召集的人工智能科技公司高层与美国高级政府官员的会面中,再次强调了美国政府的这一立场。而美国商务部也希望帮助公司和监管机构制定标准,确保人工智能系统的可信度、合法性与道德性。
与此类似,英国首相苏纳克也希望于5月份召开英国人工智能峰会,与包括OpenAI首席执行官、AlphabetInc.的DeepMind和Anthropic的领导人在内的科技企业高层探讨人工智能风险和收益的问题,从而制定监管政策与基本规则。相比之下,欧盟在与人工智能科技企业对话方面则略显逊色,而是更加凸显自身监管和立法的强势地位。
治理权力分配的多样性
英国声称自己选择了“适应性强”的人工智能监管模式。一方面,英国计划在其人权、健康、安全以及市场竞争等监管机构之间分担管理人工智能(AI)的责任,而非设立一个专门负责监管AI技术的新机构。另一方面,因为希望避免可能扼杀创新的严厉立法,英国政府选择根据安全、透明、公平和问责制等广泛原则采取适应性强的监管方法。这种模式意味着政府可以随着AI技术的发展调整其监管规则。
美国在人工智能监管方面则综合了以上两种模式。一方面,美国白宫和国会就人工智能治理给出政策建议与理念指导,如保证人工智能不侵犯公民权利。另一方面,具体的监管落实则由美国各职能部门根据自己主管的政策领域和自身机构特点进行布置。
AI权力的国家竞逐
譬如,英国就宣布投入1亿英镑(1.245亿美元)以帮助开发类似于ChatGPT的生成式人工智能的基础模型,用于医疗和教育等领域。英国首相苏纳克(RishiSunak)对此表示:“利用人工智能的潜力为发展经济、创造高薪工作、通过医疗和安全方面的进步建设更美好的未来提供了巨大的机会。”他希望通过新的专家工作组投资新兴技术,英国可以继续引领开发安全可靠的人工智能,并将其变成塑造更具创新性的英国经济战略的一部分,并确保英国能够制定某种标准和基本规则。
上文提到,欧洲委员会则成立了一个新的研究部门欧洲算法透明度中心(TheEuropeanCentreforAlgorithmicTransparency,简称ECAT),审核谷歌和Meta等大型科技公司使用的AI支持算法,从而帮助欧盟委员会识别和解决这些平台带来的任何潜在风险。面临美西方的制裁和封锁,俄罗斯则依靠银行系统的庞大资金与资源,在人工智能领域持续追赶。俄罗斯银行Sberbank已经发布了名为GigaChat的人工智能技术作为ChatGPT的竞争对手,试图减少俄罗斯对技术进口的依赖。
不难想象,在可以预见的将来,伴随着国家在人工智能治理方面的职能不断完善,建立具有普遍适用性的人工智能国际标准愈发可能。但在这一过程中,各国在人工智能技术和规则制定方面的竞逐会持续发展,各国在竞争间管理突发风险的要求,也因此扩展到了新领域。
4月24日,俄罗斯银行Sberbank发布名为GigaChat的人工智能,图源:Reuters