人工智能在法律上是否应该赋予其主体地位?回答这个问题,应该从人类发展人工智能的初衷,即为何要发展人工智能的角度去考虑。在此基础上,再来探讨如何发展人工智能的问题。
毫无疑问,发展人工智能的首要动机在于提高生产力,实现人类自身的解放,使人类获得更大、更多的自由,而不是取代人类,使人类成为被驱使的对象。因此,安全可控应该是整个人类社会发展人工智能的基本准则;不安全、不可控的人工智能不应当被发展,应该受到控制乃至禁止。为此目的,必须要从两个方面入手:一是强制性要求人工智能的算法必须公开,接受整个人类社会的监督;同时对人工智能有关的产品实行市场准入管理,只有软硬件都符合技术标准的人工智能产品才能进入市场;二是法律上拒绝承认人工智能的主体地位。
要求人工智能算法公开,这显然会遭到一些业界公司和技术先进国家的反对。现实情况下,技术先进的人工智能公司和国家,往往会以商业秘密或技术秘密为借口拒绝公开其算法,从而实现保持竞争优势的目的。而在学术界,尤其是主流法学界,要么是没有看到安全可控是整个人类发展人工智能的基本准则,要么是出于优先发展本国技术的想法,因而继续秉持传统的思维,将人工智能算法视为商业秘密。这种观念及其产业政策和立法的后果,将有悖于安全可控这一基本准则的落实,最终极可能导致人类发展人工智能事与愿违。
(作者系北京师范大学法学院教授、亚太人工智能法治研究院院长)
THE END