今天人工智能发展的如火如荼,核心原因是机器学习理论。我们要研究人工智能无非就是做一个仿人机器人,让机器达到和人几乎一样的功能。人之所以聪明,最根本的原因是会学习。怎么教会机器学习?从我们小时候教育的过程就可以理解机器和人学习的过程。小学一年级学习加法时,老师课后会布置大量作业,做错了很正常,继续修改就行;通过大量训练和纠错,到小学三年级大家就掌握了加法的本质原理,基本不会犯错了,那么学习的目的就达到了。
人对世界的认知就是一个学习过程,这个学习有一个特点是小样本学习,需要较少的例子就可以学会(当然存在特殊情况,智力有问题的人通常难以有效学习)。比如人对猫和狗的识别,通常看几张图片就认识了。机器怎么学习?例如利用机器学习的方法可以对图像进行分类,然而当模型过于简单(智力水平低)时,训练好的模型只能识别常规的猫和狗,如果对图像进行各种退化处理或者尺度放缩及形变,模型往往会出错,而人通常可以应对各种外界环境的干扰做出正确识别。这就说明一个问题,人的大脑学习是很聪明的过程,看两三张照片就掌握了规律,是小样本学习。机器要完成对猫和狗的正确识别,需要海量训练样本(图片),同一张图在训练前需要做各种尺度、旋转、仿射变换等(数据增强策略),只有输入大量图片机器才能有效掌握识别猫和狗的规律。如同班上聪明的学生通常只需做两三道题就能掌握这种类型题,而智力水平低的学生需要做几百道同类型的题才能掌握规律,当前的机器学习好比智力水平较低的学生。
图1误差函数的变化
(二)机器学习系统
神经网络经历了三次热潮,同时也经历了二次寒冬。图灵在1936年提出图灵机,人工智能从此开始进入第一次热潮。随着计算机技术的发展,人工智能也在不断向前发展。到1974年经历了一次寒冬,因为最早的神经网络只能对线性可分的数据进行分类,学者们就认为神经网络应用具有较大的局限性,而专家系统可以解决更为复杂的问题。直到BP神经网络出现后,其成功地解决了线性不可分数据的正确分类,神经网络迎来了第二次热潮。1987年,由于神经网络需要更多的训练数据,且识别精度有限,而支持向量机(SVM)是小样本学习方法,且表现出更好的分类性能,因此神经网络一度被质疑,进入了第二次寒冬。直到2006年,因为神经网络层的设计不能太深,而人脑的工作机理是深层网络,中间的参数是指数级增长,计算量和模型的复杂性也都是指数级增长;以往的神经网络很难进行深层设计,原因在于无法进行有效训练,而Hinton提出深度学习的概念,通过逐层训练结合微调的方式实现了深层网络的训练,由此人工智能进入了第三次黄金时代。
进入深度学习时代后,人工智能迎来快速发展,在传统的BP神经网络中,我们通常需要人工进行特征提取,然后设计神经网络实现数据分类或回归。比如做人脸识别,实际上是想办法把一个人脸的照片转换成一个向量,在非深度学习的时代这个过程被称为手工提取特征。提取人脸特征后,要对这些特征进行分类,因此需要训练一个分类器,整个提取特征和特征分类分开执行,而深度学习可以把这两个任务融为一体,让机器全部自动学习。尤其是怎么把人脸变成一个向量让机器自己学习,而不需要人帮助,这就是深度学习和传统机器学习最本质的区别,因为它能够自动学习,所以学习出来的特征往往比人工设计的特征要好很多。
深度学习的代表性方法是深度神经网络。深度神经网络最大的成功在于分层表达,当前的深度神经网络可以做到几千层。层的作用就是认知的过程,层越多模型就越复杂,表达能力就越强。比如进行数字识别,第一层里对这个数字的认识就是不同颜色块,说它有什么特征我不知道;第二层就有一种高级信息,有形状和纹理;第三层就是高级语义信息。深度学习繁荣发展的历程。李飞飞的主要贡献是整理了一个图像库ImageNet,里面大概有1500万张图像,而且对很多图像做了标注(共标注了大约120万张图像)。有了这个超级大库后,学者们就可以验证深度学习的有效性。没有大数据作支撑,无法验证各种深度模型的好坏。因此自2010年后,学者们相继参加ImageNet比赛,直到2017年图像分类错误率已降到了非常低的量级,比赛停止。
三、人工智能技术现状
首先是数据的现状,GPT的训练数据大约80万张网页,GPT-2的训练数据大概800万张网页,GPT-3的训练数据达到45TB。大数据一旦到来后,只有大公司高投入才能做这样的事情。现在的机器学习方法有监督式学习和非监督式学习两大类。所谓监督式学习分为分类和回归两个问题。回归问题预测的是一个数值,比如天气预报、股票开盘价预测。机器学习里的两大任务,无非就是分类问题和回归问题。监督学习类似于我们的课堂教育,由老师教给你,错了马上指出,不断让你纠错。这样的学习方式成本高,要交学费,还需要很多老师;非监督学习相反,不需要老师、课堂,自学成才。通常非监督学习不如监督学习,因为自学成才的人较少,而且难度大。但是非监督学习是我们奋斗的目标,让机器能自动学习,而不是不断教它。
介于监督学习和非监督学习中间的是弱监督学习,其分为三种,第一种是不完整的监督,做标记时只有一部分进行标记。比如一套题库中,10套有答案,10套没有答案,这是不完整监督。第二种是不确切监督。给一个大概的答案,可以很具体地标猫和狗,但也可以笼统地标为动物;类似于老师不教步骤,只讲方法。第三种是不正确监督,即老师也有讲错题的时候。
人工智能现在存在的问题主要表现在三个方面,一是模型很大,参数量多,内存消耗高;二是数据标注成本较高;三是多任务执行比较难。现在能见到的机器人有送菜机器人、巡警机器人、捡垃圾机器人,一个机器人能不能完成所有的功能?所以多任务执行比较困难。最大问题是它的计算量太大,耗能方面目前是一个严重问题。AlphaGO下一盘棋的电费大约3000美元。抛开AlphaGO我们看GPT-3,它的参数量是1750亿,人类只有大约860亿神经元。这个模型训练一次成本很高,用电需要19万度,碳排放是8.5万公斤,相当于一辆车从月球开到地球一个来回的碳排放。在碳中和的年代,如何发展人工智能?显然未来我们需要有新的技术作支撑。
四、工智能技术的应用
成果应用1:智慧医疗
在智慧医疗方面,我们开发了一套面向肝功能辅助评估的在线分析系统,输入病人肝脏影像后,直接可以打出结构化报告,如果依赖人工去做,传统方法需要1~2天才能完成。因此这套影像分析系统可以极大提高医生的工作效率。
成果应用2:金属及泡沫材料属性分析
成果应用3:智能地层驱油分析
五、人工智能的未来
人工智能的未来是可信人工智能、超级深度学习和量子机器学习。
当前,数据不断在增长,模型参数也在增长,计算机的计算性能也在增长。因为有计算性能做支撑,所以不害怕数据增长和模型提升,未来的深度学习可以执行的任务非常多,学习能力也很强,能够达到接近人的学习能力,最终实现整体人工智能产业链的布局。