机器之心的进化/理解AI驱动的软件2.0智能革命

就在过去几个月里,因为美联储的加息,科技公司的资本狂欢宣告结束,美国上市的SaaS公司股价基本都跌去了70%,裁员与紧缩是必要选项。但正当市场一片哀嚎的时候,Dall-E2发布了,紧接着就是一大批炫酷的AI公司登场。这些事件在风投界引发了一股风潮,我们看到那些兜售着基于生成式AI(GenerativeAI)产品的公司,估值达到了数十亿美元,虽然收入还不到百万美元,也没有经过验证的商业模式。不久前,同样的故事在Web3上也发生过!感觉我们又将进入一个全新的繁荣时代,但人工智能这次真的能带动科技产业复苏么?

本文将带你领略一次人工智能领域波澜壮阔的发展史,从关键人物推动的学术进展、算法和理念的涌现、公司和产品的进步、还有脑科学对神经网络的迭代影响,这四个维度来深刻理解“机器之心的进化”。先忘掉那些花里胡哨的图片生产应用,我们一起来学点接近AI本质的东西。全文共分为六个章节:

1.AI进化史-前神经网络时代、MachineLearning的跃迁、开启潘多拉的魔盒

2.软件2.0的崛起-软件范式的转移和演化、Software2.0与Bug2.0

3.面向智能的架构-Infrastructure3.0、如何组装智能、智能架构的先锋

4.一统江湖的模型-Transformer的诞生、基础模型、AI江湖的新机会

5.现实世界的AI-自动驾驶新前沿、机器人与智能代理

6.AI进化的未来-透视神经网络、千脑理论、人工智能何时能通用?

大家觉得机器智能能否超过人类么?带着这个问题来阅读,相信看完就会有系统性的答案!

本文在无特别指明的情况下,为了书写简洁,在同一个段落中重复词汇大量出现时,会用AI(ArtificalIntelligence)来代表人工智能,用ML(MachineLearning)来代表机器学习,DL(DeepLearning)来代表深度学习,以及各种英文缩写来优先表达。

对于机器是否真能"知道"、"思考"等问题,我们很难严谨的定义这些。我们对人类心理过程的理解,或许只比鱼对游泳的理解更好一点。

JohnMcCarthy

早在1945年,AlanTuring就已经在考虑如何用计算机来模拟人脑了。他设计了ACE(AutomaticComputingEngine-自动计算引擎)来模拟大脑工作。在给一位同事的信中写道:"与计算的实际应用相比,我对制作大脑运作的模型可能更感兴趣......尽管大脑运作机制是通过轴突和树突的生长来计算的复杂神经元回路,但我们还是可以在ACE中制作一个模型,允许这种可能性的存在,ACE的实际构造并没有改变,它只是记住了数据......"这就是机器智能的起源,至少那时在英国都这样定义。

神经网络是以模仿人脑中的神经元的运作为模型的计算机系统。

AI是伴随着神经网络的发展而出现的。1956年,美国心理学家FrankRosenblatt实现了一个早期的神经网络演示-感知器模型(PerceptronModel),该网络通过监督Learning的方法将简单的图像分类,如三角形和正方形。这是一台只有八个模拟神经元的计算机,这些神经元由马达和转盘制成,与400个光探测器连接。

IBM的Georgetown实验室在这些研究的基础上,实现了最早的机器语言翻译系统,可以在英语和俄语之间互译。1956年的夏天,在DartmouthCollege的一次会议上,AI被定义为计算机科学的一个研究领域,MarvinMinsky(明斯基),JohnMcCarthy(麦卡锡),ClaudeShannon(香农),还有NathanielRochester(罗切斯特)组织了这次会议,他们后来被称为AI的"奠基人"。

DARPA在这个“黄金”时期,将大部分资金投入到AI领域,就在十年后他们还发明了ARPANET(互联网的前身)。早期的AI先驱们试图教计算机做模仿人类的复杂心理任务,他们将其分成五个子领域:推理、知识表述、规划、自然语言处理(NLP)和感知,这些听起来很笼统的术语一直沿用至今。

从专家系统到机器学习

1966年,MarvinMinsky和SeymourPapert在《感知器:计算几何学导论》一书中阐述了因为硬件的限制,只有几层的神经网络仅能执行最基本的计算,一下子浇灭了这条路线上研发的热情,AI领域迎来了第一次泡沫破灭。这些先驱们怎么也没想到,计算机的速度能够在随后的几十年里指数级增长,提升了上亿倍。

在上世纪八十年代,随着电脑性能的提升,新计算机语言Prolog&Lisp的流行,可以用复杂的程序结构,例如条件循环来实现逻辑,这时的人工智能就是专家系统(ExpertSystem),iRobot公司绝对是那个时代明星;但短暂的繁荣之后,硬件存储空间的限制,还有专家系统无法解决具体的、难以计算的逻辑问题,人工智能再一次陷入窘境。

我怀疑任何非常类似于形式逻辑的东西能否成为人类推理的良好模型。

MarvinMinsky

直到IBM深蓝在1997年战胜了国际象棋冠军卡斯帕罗夫后,新的基于概率推论(ProbabilisticReasoning)思路开始被广泛应用在AI领域,随后IBMWatson的项目使用这种方法在电视游戏节目《Jeopardy》中经常击败参赛的人类。

概率推论就是典型的机器学习(MachineLearning)。今天的大多数AI系统都是由ML驱动的,其中预测模型是根据历史数据训练的,并用于对未来的预测。这是AI领域的第一次范式转变,算法不指定如何解决一个任务,而是根据数据来诱导它,动态的达成目标。因为有了ML,才有了大数据(BigData)这个概念。

MachineLearning算法一般通过分析数据和推断模型来建立参数,或者通过与环境互动,获得反馈来学习。人类可以注释这些数据,也可以不注释,环境可以是模拟的,也可以是真实世界。

DeepLearning

DeepLearning在2012年才真正兴起,当时Hinton和他在多伦多的两个学生表明,使用反向传播训练的深度神经网络在图像识别方面击败了最先进的系统,几乎将以前的错误率减半。由于他的工作和对该领域的贡献,Hinton的名字几乎成为DeepLearning的代名词。

数据是新的石油

ImageNet成为DL革命的首选数据集,更确切地说,是由Hinton领导的AlexNet卷积神经网络(CNN-ConvolutionNeuralNetworks)的数据集。ImageNet不仅引领了DL的革命,也为其他数据集开创了先例。自其创建以来,数十种新的数据集被引入,数据更丰富,分类更精确。

神经网络大爆发

在DeepLearning理论和数据集的加持下,2012年以来深度神经网络算法开始大爆发,卷积神经网络(CNN)、递归神经网络(RNN-RecurrentNeuralNetwork)和长短期记忆网络(LSTM-LongShort-TermMemory)等等,每一种都有不同的特性。例如,递归神经网络是较高层的神经元直接连接到较低层的神经元。

来自日本的计算机研究员福岛邦彦(KunihikoFukushima)根据人脑中视觉的运作方式,创建了一个人工神经网络模型。该架构是基于人脑中两种类型的神经元细胞,称为简单细胞和复杂细胞。它们存在于初级视觉皮层中,是大脑中处理视觉信息的部分。简单细胞负责检测局部特征,如边缘;复杂细胞汇集了简单细胞在一个区域内产生的结果。例如,一个简单细胞可能检测到一个椅子的边缘,复杂细胞汇总信息产生结果,通知下一个更高层次的简单细胞,这样逐级识别得到完整结果。

CNN的结构是基于这两类细胞的级联模型,主要用于模式识别任务。它在计算上比大多数其他架构更有效、更快速,在许多应用中,包括自然语言处理和图像识别,已经被用来击败大多数其他算法。我们每次对大脑的工作机制的认知多一点,神经网络的算法和模型也会前进一步!

从2012到现在,深度神经网络的使用呈爆炸式增长,进展惊人。现在MachineLearning领域的大部分研究都集中在DeepLearning方面,就像进入了潘多拉的魔盒被开启了的时代。

GAN

生成对抗网络(GAN-GenerativeAdversarialNetwork)是DeepLearning领域里面另一个重要的里程碑,诞生于2014年,它可以帮助神经网络用更少的数据进行学习,生成更多的合成图像,然后用来识别和创建更好的神经网络。GANs的创造者IanGoodfellow是在蒙特利尔的一个酒吧里想出这个主意的,它由两个神经网络玩着猫捉老鼠的游戏,一个创造出看起来像真实图像的假图像,而另一个则决定它们是否是真的。

GANs将有助于创建图像,还可以创建现实世界的软件模拟,Nvidia就大量采用这种技术来增强他的现实模拟系统,开发人员可以在那里训练和测试其他类型的软件。你可以用一个神经网络来“压缩”图像,另一个神经网络来生成原始视频或图像,而不是直接压缩数据,DemisHassabis在他的一篇论文中就提到了人类大脑“海马体”的记忆回放也是类似的机制。

大规模神经网络

大脑的工作方式肯定不是靠某人用规则来编程。

GeoffreyHinton

大规模神经网络的竞赛从成立于2011年的GoogleBrain开始,现在属于GoogleResearch。他们推动了TensorFlow语言的开发,提出了万能模型Transformer的技术方案并在其基础上开发了BERT,我们在第四章中将详细讨论这些。

DeepMind是这个时代的传奇之一,在2014年被Google以5.25亿美元收购的。它专注游戏算法,其使命是"解决智能问题",然后用这种智能来"解决其他一切问题"!DeepMind的团队开发了一种新的算法DeepQ-Network(DQN),它可以从经验中学习。2015年10月AlphaGo项目首次在围棋中击败人类冠军李世石;之后的AlphaGoZero用新的可以自我博弈的改进算法让人类在围棋领域再也无法翻盘。

另一个传奇OpenAI,它是一个由ElonMusk,SamAltman,PeterThiel,还有ReidHoffman在2015年共同出资十亿美金创立的科研机构,其主要的竞争对手就是DeepMind。OpenAI的使命是通用人工智能(AGI–ArtificialGeneralIntelligence),即一种高度自主且在大多数具有经济价值的工作上超越人类的系统。2020年推出的GPT-3是目前最好的自然语言生成工具(NLP-NaturalLanguageProcessing)之一,通过它的API可以实现自然语言同步翻译、对话、撰写文案,甚至是代码(Codex),以及现在最流行的生成图像(DALLE)。

GartnerAIHypeCycle

Gartner的技术炒作周期(HypeCycle)很值得一看,这是他们2022年最新的关于AI领域下各个技术发展的成熟度预估,可以快速了解AI进化史这一章中不同技术的发展阶段。

Software2.0概念的最早提出人是AndrejKarpathy,这位从小随家庭从捷克移民来加拿大的天才少年在多伦多大学师从GeoffreyHinton,然后在斯坦福李飞飞团队获得博士学位,主要研究NLP和计算机视觉,同时作为创始团队成员加入了OpenAI,DeepLearning的关键人物和历史节点都被他点亮。在2017年被ElonMusk挖墙脚到了Tesla负责自动驾驶研发,然后就有了重构的FSD(FullSelf-Driving)。

按照AndrejKarpathy的定义-“软件2.0使用更抽象、对人类不友好的语言生成,比如神经网络的权重。没人参与编写这些代码,一个典型的神经网络可能有数百万个权重,用权重直接编码比较困难”。Andrej说他以前试过,这几乎不是人类能干的事儿。。

在创建深度神经网络时,程序员只写几行代码,让神经网络自己学习,计算权重,形成网络连接,而不是手写代码。这种软件开发的新范式始于第一个MachineLearning语言TensorFlow,我们也把这种新的编码方式被称为软件2.0。在DeepLearning兴起之前,大多数人工智能程序是用Python和JavaScript等编程语言手写的。人类编写了每一行代码,也决定了程序的所有规则。

相比之下,随着DeepLearning技术的出现,程序员利用这些新方式,给程序指定目标。如赢得围棋比赛,或通过提供适当输入和输出的数据,如向算法提供具有"SPAM”特征的邮件和其他没有"SPAM”特征的邮件。编写一个粗略的代码骨架(一个神经网络架构),确定一个程序空间的可搜索子集,并使用我们所能提供的算力在这个空间中搜索,形成一个有效的程序路径。在神经网络里,我们一步步地限制搜索范围到连续的子集上,搜索过程通过反向传播和随机梯度下降(StochasticGradientDescent)而变得十分高效。

神经网络不仅仅是另一个分类器,它代表着我们开发软件的范式开始转移,它是软件2.0。

软件1.0人们编写代码,编译后生成可以执行的二进制文件;但在软件2.0中人们提供数据和神经网络框架,通过训练将数据编译成二进制的神经网络。在当今大多数实际应用中,神经网络结构和训练系统日益标准化为一种商品,因此大多数软件2.0的开发都由模型设计实施和数据清理标记两部分组成。这从根本上改变了我们在软件开发迭代上的范式,团队也会因此分成了两个部分:2.0程序员负责模型和数据,而那些1.0程序员则负责维护和迭代运转模型和数据的基础设施、分析工具以及可视化界面。

这个中间态也叫大数据和算法推荐。在现实生活中,这样的产品可以是Amazon的商品推荐,它们可以预测客户会感兴趣什么,可以是Facebook好友推荐,还可以是Netflix电影推荐或Tiktok的短视频推荐。还有呢?Waze的路由算法、Airbnb背后的排名算法等等,总之琳琅满目。

数据产品有几个重要特点:1、它们都不是软件的主要功能,通常是为了增加体验,达成更好的用户活跃以及销售目标;2、能够随着数据的增加而进化;3、大部分都是基于传统ML实现的,最重要的一点数据产品是可解释的。

但有些行业正在改变,MachineLearning是主体。当我们放弃通过编写明确的代码来解决复杂问题时,这个到2.0技术栈的转变就发生了,在过去几年中,很多领域都在突飞猛进。语音识别曾经涉及大量的预处理、高斯混合模型和隐式Markov模型,但今天几乎完全被神经网络替代了。早在1985年,知名信息论和语言识别专家FredJelinek就有一句经常被引用的段子:“每当我解雇一个语言学家,我们的语音识别系统的性能就会得到提高”。

除了大家熟悉的图像语音识别、语音合成、机器翻译、游戏挑战之外,AI在很多传统系统也看到了早期的转型迹象。例如TheCaseforLearnedIndexStructures用神经网络取代了数据管理系统的核心组件,在速度上比B-Trees缓存优化达快70%,同时节省了一个数量级的内存。

为什么我们应该倾向于将复杂的程序移植到软件2.0中?AndrejKarpathy在《Software2.0》中给出了一个简单的答案:它们在实践中表现得更好!

容易被写入芯片

由于神经网络的指令集相对较小,主要是矩阵乘法(MatrixMultiplication)和阈值判断(ThresholdingatZero),因此把它们写入芯片要容易得多,例如使用定制的ASIC、神经形态芯片等等(AlanTuring在设计ACE时就这样考虑了)。例如,小而廉价的芯片可以带有一个预先训练好的卷积网络,它们可以识别语音、合成音频、处理视觉信号。当我们周围充斥着低能耗的智能时,世界将会因此而大不同(好坏皆可)。

非常敏捷

敏捷开发意味着灵活高效。如果你有一段C++代码,有人希望你把它的速度提高一倍,那么你需要系统性的调优甚至是重写。然而,在软件2.0中,我们在网络中删除一半的通道,重新训练,然后就可以了。。它的运行速度正好提升两倍,只是输出更差一些,这就像魔法。相反,如果你有更多的数据或算力,通过添加更多的通道和再次训练,你的程序就能工作得更好。

模块可以融合成一个最佳的整体

做过软件开发的同学都知道,程序模块通常利用公共函数、API或远程调用来通讯。然而,如果让两个原本分开训练的软件2.0模块进行互动,我们可以很容易地通过整体进行反向传播来实现。想象一下,如果你的浏览器能够自动整合改进低层次的系统指令,来提升网页加载效率,这将是一件令人惊奇的事情。但在软件2.0中,这是默认行为。

它做得比你好

对于传统软件,即软件1.0,大多数程序都通过源代码保存,这些代码可能少至数千行,多至上亿行。据说,谷歌的整个代码库大约有20亿行代码。无论代码有多少,传统的软件工程实践表明,使用封装和模块化设计,有助于创建可维护的代码,很容易隔离Bug来进行修改。

但在新的范式中,程序被存储在内存中,作为神经网络架构的权重,程序员编写的代码很少。软件2.0带来了两个新问题:不可解释和数据污染。

因为训练完成的神经网络权重,工程师无法理解(不过现在对理解神经网络的研究有了很多进展,第六章会讲到),所以我们无法知道正确的执行是为什么?错误又是因为什么?这个和大数据算法有很大的不同,虽然大多数的应用只关心结果,无需解释;但对于一些安全敏感的领域,比如自动驾驶和医疗应用,这确实很重要。

在短期内,软件2.0将变得越来越普遍,那些没法通过清晰算法和软件逻辑化表述的问题,都会转入2.0的新范式,现实世界并不适合整齐的封装。就像明斯基说的,软件开发应该更多的关心目标而不是过程,这种范式有机会颠覆整个开发生态,软件1.0将成为服务于软件2.0周边系统,一同来搭建面向智能的架构。有越来越清楚的案例表明,当我们开发通用人工智能(AGI)时,它一定会写在软件2.0中。

正如在计算机发展的早期,人们需要汇编语言、编译器和操作系统方面的专家来开发一个简单的应用程序,所以今天你需要大量的数据和分布式系统才能大规模地部署人工智能。经济学大师AndrewMcAfee和ErikBrynjolfsson在他们的著作《Machine,Platform,Crowd:HarnessingOurDigitalFuture》中讽刺地调侃:“我们的机器智能时代仍然是人力驱动的”。

好在GANs的出现让完全依赖人工数据的训练成本大幅下降,还有GoogleAI在持续不断的努力让AI的基础设施平民化。但这一切还在很早期,我们需要新的智能基础设施,让众包数据变成众包智能,把人工智能的潜力从昂贵的科研机构和少数精英组织中释放出来,让其工程化。

应用程序和基础设施的发展是同步的。

Infrastructure1.0-C/S(客户端/服务器时代)

商业互联网在上世纪90年代末期成熟起来,这要归功于x86指令集(Intel)、标准化操作系统(Microsoft)、关系数据库(Oracle)、以太网(Cisco)和网络数据存储(EMC)。Amazon,eBay,Yahoo,甚至最早的Google和Facebook都建立在这个我们称之为Infrastructure1.0的基础上。

Infrastructure2.0-Cloud(云时代)

AmazonAWS、GoogleCloud还有MicrosoftAzure定义了一种新的基础设施类型,这种基础设施是无需物理部署可持续运行的、可扩展的、可编程的,它们有些是开源,例如Linux、MySQL、Docker、Kubernetes、Hadoop、Spark等等,但大多数都是要钱的,例如边缘计算服务Cloudflare、数据库服务MangoDB、消息服务Twilio、支付服务Stripe,所有这些加在一起定义了云计算时代。

归根结底,这一代技术把互联网扩展到数十亿的终端用户,并有效地存储了从用户那里获取的信息。Infrastructure2.0的创新催化了数据急剧增长,结合算力和算法飞速进步,为今天的MachineLearning时代搭建了舞台。

在现实世界的MachineLearning系统中,只有一小部分是由ML代码组成的,如中间的小黑盒所示,其周边基础设施巨大而繁杂。一个“智能”的应用程序,数据非常密集,计算成本也非常高。这些特性使得ML很难适应已经发展了七十多年的通用的冯诺依曼计算范式。为了让MachineLearning充分发挥其潜力,它必须走出今天的学术殿堂,成为一门工程学科。这实际上意味着需要有新的抽象架构、接口、系统和工具,使开发人员能够方便地开发和部署这些智能应用程序。

想要成功构建和部署人工智能,需要一个复杂的流程,这里涉及多个独立的系统。首先,需要对数据进行采集、清理和标记;然后,必须确定预测所依据的特征;最后,开发人员必须训练模型,并对其进行验证和持续优化。从开始到结束,现在这个过程可能需要几个月或者是数年,即使是行业中最领先的公司或者研究机构。

好在除了算法和模型本身之外,组装智能架构中每个环节的效率都在提升,更高的算力和分布式计算框架,更快的网络和更强大的工具。在每一层技术栈,我们都开始看到新的平台和工具出现,它们针对MachineLearning的范式进行了优化,这里面机会丰富。

参照智能架构领域的投资专家AmplifyPartners的分类,简单做个技术栈说明。

为MachineLearning优化的高性能芯片,它们内置多计算核心和高带宽内存(HBM),可以高度并行化,快速执行矩阵乘法和浮点数学神经网络计算,例如Nvidia的H100TensorCoreGPU还有Google的TPU;

能够完全发挥硬件效率的系统软件,可以将计算编译到晶体管级别。Nvidia在2006年就推出的CUDA到现在也都保持着领先地位,CUDA是一个软件层,可以直接访问GPU的虚拟指令集,执行内核级别的并行计算;

用于训练和推理的分布式计算框架(DistributedComputingFrameworks),可以有效地跨多个节点,扩展模型的训练操作;

数据和元数据管理系统,为创建、管理、训练和预测数据而设计,提供了一个可靠、统一和可重复使用的管理通道。

MachineLearning持续集成平台(MLOps),模型解释器,质保和可视化测试工具,可以大规模的监测,调试,优化模型和应用;

封装了整个MachineLearning工作流的终端平台(EndtoEndMLPlatform),抽象出全流程的复杂性,易于使用。几乎所有的拥有大用户数据量的2.0架构公司,都有自己内部的3.0架构集成系统,Uber的Michelangelo平台就用来训练出行和订餐数据;Google的TFX则是面向公众提供的终端ML平台,还有很多初创公司在这个领域,例如DeterminedAI。

总的来说,Infrastructure3.0将释放AI/ML的潜力,并为人类智能系统的构建添砖加瓦。与前两代架构一样,虽然上一代基础设施的巨头早已入场,但每一次范式转移,都会有有新的项目、平台和公司出现,并挑战目前的在位者。

DeepLearning被大科技公司看上的关键时刻是在2010年。在PaloAlto的一家日餐晚宴上,斯坦福大学教授AndrewNg在那里会见了Google的CEOLarryPage和当时担任GoogleX负责人的天才计算机科学家SebastianThrun。就在两年前,Andrew写过一篇关于将GPU应用于DL模型有效性分析论文。要知道DL在2008年是非常不受欢迎的,当时是算法的天下。

几乎在同一时期,Nvidia的CEOJensenHuang也意识到GPU对于DL的重要性,他是这样形容的:"DeepLearning就像大脑,虽然它的有效性是不合理的,但你可以教它做任何事情。这里有一个巨大的障碍,它需要大量的计算,而我们就是做GPU的,这是一个可用于DeepLearning的近乎理想的计算工具"。

以上故事的细节来自Forbes在2016年的一篇深度报道。自那时起,Nvidia和Google就走上了DeepLearning的智能架构之路,一个从终端的GPU出发,另一个从云端的TPU开始。

Nvidia今天赚的大部分钱的来自游戏行业,通过销售GPU,卖加速芯片的事情AMD和很多创业公司都在做,但Nvidia在软件堆栈上的能力这些硬件公司无人能及,因为它有从内核到算法全面控制的CUDA,还能让数千个芯片协同工作。这种整体控制力,让Nvidia可以发展云端算力服务,自动驾驶硬件以及嵌入式智能机器人硬件,以及更加上层的AI智能应用和Omniverse数字模拟世界。

Google拥抱AI的方式非常学术,他们最早成立了GoogleBrain尝试大规模神经网络训练,点爆了这个领域的科技树,像GANs这样充满灵感的想法也是来自于Google(IanGoodfellow同学当时任职于GoogleBrain)。在2015年前后Google先后推出了TensorFlow还有TPU(TensorProcessingUnit-张量芯片),同年还收购了DeepMind来扩张研究实力。GoogleAI更倾向于用云端的方式给大众提供AI/ML的算力和全流程工具,然后通过投资和收购的方式把智能融入到自己的产品线。

正如过去二十年见证了“云计算技术栈”的出现一样,在接下来的几年里,我们也期待着一个巨大的基础设施和工具生态系统将围绕着智能架构-Infrastructure3.0建立起来。Google目前正处于这个领域的前沿,他们试图自己的大部分代码用软件2.0的范式重写,并在新的智能架构里运行,因为一个有可能一统江湖的“模型”的已经出现,虽然还非常早期,但机器智能对世界的理解很快将趋向一致,就像我们的大脑皮质层理解世界那样。

想象一下,你去五金店,看到架子上有一种新款的锤子。你或许已经听说过这种锤子了,它比其他的锤子更快、更准;而且在过去的几年里,许多其他的锤子在它面前都显得过时了。你只需要加一个配件再扭一下,它就变成了一个锯子,而且和其它的锯子一样快、一样准。事实上,这个工具领域的前沿专家说,这个锤子可能预示着所有的工具都将集中到单一的设备中。

类似的故事也在AI的工具中上演,这种多用途的新型锤子是一种神经网络,我们称之为Transformer(转换器模型-不是动画片里的变形金刚),它最初被设计用来处理自然语言,但最近已经开始影响AI行业的其它领域了。

2017年GoogleBrain和多伦多大学的研究人员一同发表了一篇名为《AttentionIsAllYouNeed》的论文,里面提到了一个自然语言处理(NLP)的模型Transformer,这应该是继GANs之后DeepLearning领域最重大的发明。2018年Google在Transformer的基础上实现并开源了第一款自然语言处理模型BERT;虽然研究成果来自Google,但很快被OpenAI采用,创建了GPT-1和最近的火爆的GPT-3。其他公司还有开源项目团队紧随其后,实现了自己的Transformer模型,例如Cohere,AI21,Eleuther(致力于让AI保持开源的项目);也有用在其它领域的创新,例如生成图像的Dall-E2、MidJourney、StableDiffusion、DiscoDiffusion,Imagen和其它许多。

自然语言处理这个课题在上世纪五十年代开创AI学科的时候就明确下来了,但只到有了DeepLearning之后,它的准确度和表达合理性才大幅提高。序列传导模型(Seq2Seq)是用于NLP领域的一种DL模型,在机器翻译、文本摘要和图像字幕等方面取得了很大的成功,2016年之后Google在搜索提示、机器翻译等项目上都有使用。序列传导模型是在输入端一个接一个的接收并编码项目(可以是单词、字母、图像特征或任何计算机可以读取的数据),并在同步在输出端一个接一个解码输出项目的模型。

在机器翻译的案例中,输入序列就是一系列单词,经过训练好的神经网络中复杂的矩阵数学计算,在输出端的结果就是一系列翻译好的目标词汇。

好奇心强的同学,如果想了解Transformer模型的具体工作原理,推荐阅读GiulianoGiacaglia的这篇《HowTransformersWork》。

斯坦福大学CRFM&HAI的研究人员在2021年8月的一篇名为《OntheOpportunitiesandRisksofFoundationModels》的论文中将Transformer称为FoundationModels(基础模型),他们认为这个模型已经推动了AI领域新一轮的范式转移。事实上,过去两年在arVix上发表的关于AI的论文中,70%都提到了Transformer,这与2017年IEEE的一项研究相比是一个根本性的转变,那份研究的结论是RNN和CNN是当时最流行的模型。

从NLP到GenerativeAI

Transformer将数据从一维字符串(如句子)转换为二维数组(如图像)的多功能性表明,这种模型可以处理许多其他类型的数据。就在10年前,AI领域的不同分支几乎没有什么可以交流的,计算机科学家AtlasWang这样表述,“我认为Transformer之所以如此受欢迎,是因为它暗示了一种变得通用的潜力,可能是朝着实现某种神经网络结构大融合方向的重要一步,这是一种通用的计算机视觉方法,或许也适用于其它的机器智能任务”。

更多基于Transformer模型的GenerativeAI案例,推荐好友Rokey的这篇《AI时代的巫师与咒语》,这应该是中文互联网上写得最详细清晰的一篇。

涌现和同质化

FoundationModels的意义可以用两个词来概括:涌现和同质化。涌现是未知和不可预测的,它是创新和科学发现的源头。同质化表示在广泛的应用中,构建MachineLearning的方法论得到了整合;它让你可以用统一的方法完成不同的工作,但也创造了单点故障。我们在Bug2.0那一小节中提到的数据污染会被快速放大,现在还会波及到所有领域。

AI的进化史一个不断涌现和同质化的过程。随着ML的引入,可以从实例中学习(算法概率推论);随着DL的引入,用于预测的高级特征出现;随着基础模型(FoundationModels)的出现,甚至出现了更高级的功能,在语境中学习。同时,ML将算法同质化(例如RNN),DL将模型架构同质化(例如CNN),而基础模型将模型本身同质化(如GPT-3)。

一个基础模型如果可以集中来自各种模式的数据。那么这个模型就可以广泛的适应各种任务。

除了在翻译、文本创作、图像生成、语音合成、视频生成这些耳熟能详的领域大放异彩之外,基础模型也被用在了专业领域。

大规模语言模型

这种通用化的特征,让大规模神经网络的训练变得非常有意义。自然语言又是所有可训练数据中最丰富的,它能够让基础模型在语境中学习,转换成各种需要的媒体内容,自然语言=编程方式=通用界面。

因此,大规模语言模型(LLMs-LargeScaleLanguageModels)成了科技巨头和新创业公司必争之地。在这个军备竞赛之中,财大气粗就是优势,它们可以花费数亿美元采购GPU来培训LLMs,例如OpenAI的GPT-3有1750亿个参数,DeepMind的Gopher有2800亿个参数,Google自己的GLaM和LaMDA分别有1.2万亿个参数和1370亿个参数,Microsoft与Nvidia合作的Megatron-TuringNLG有5300亿个参数。

但AI有个特征它是涌现的,大多数情况挑战是科学问题,而不是工程问题。在MachineLearning中,从算法和体系结构的角度来看,还有很大的进步空间。虽然,增量的工程迭代和效率提高似乎有很大的空间,但越来越多的LLMs创业公司正在筹集规模较小的融资(1000万至5000万美元),它们的假设是,未来可能会有更好的模型架构,而非纯粹的可扩展性。

随着模型规模和自然语言理解能力的进一步增强(扩大训练规模和参数就行),我们可以预期非常多的专业创作和企业应用会得到改变甚至是颠覆。企业的大部分业务实际上是在“销售语言”——营销文案、邮件沟通、客户服务,包括更专业的法律顾问,这些都是语言的表达,而且这些表达可以二维化成声音、图像、视频,也能三维化成更真实的模型用于元宇宙之中。机器能理解文档或者直接生成文档,将是自2010年前后的移动互联网革命和云计算以来,最具颠覆性的转变之一。参考移动时代的格局,我们最终也会有三种类型的公司:

1、平台和基础设施

2、平台上的独立应用

因为有了移动设备的定位、感知、相机等硬件特性,才有了像Instagram,Uber,Doordash这种离开手机就不会存在的服务。现在基于LLMs服务或者训练Transformer模型,也会诞生一批新的应用,例如Jasper(创意文案)、Synthesia(合成语音与视频),它们会涉及Creator&VisualTools、Sales&Marketing、CustomerSupport、Doctor&Lawyers、Assistants、Code、Testing、Security等等各种行业,如果没有先进的MachineLearning突破,这些就不可能存在。

3、现有产品智能化

在移动互联网的革命中,大部分有价值的移动业务依旧被上个时代的巨头所占据。例如,当许多初创公司试图建立“MobileCRM”应用时,赢家是增加了移动支持的CRM公司,Salesforce没有被移动应用取代。同样,Gmail、MicrosoftOffice也没有被移动应用取代,他们的移动版做得还不错。最终,MachineLearning将被内置到用户量最大的CRM工具中,Salesforce不会被一个全新由ML驱动的CRM取代,就像GoogleWorkspace正在全面整合它们的AI成果一样。

我们正处于智能革命的初期,很难预测将要发生的一切。例如Uber这样的应用,你按下手机上的按钮,就会有一个陌生人开车来接你,现在看来稀疏平常,但智能手机刚出现的时候你绝对想不到这样的应用和交互界面。那些人工智能的原生应用也将如此,所以请打开脑洞,最有趣的应用形态还在等你去发掘。

我们已经感受了基础模型的强大,但这种方法真能产生的智力和意识么?今天的人工智能看起来非常像工具,而不像智能代理。例如,像GPT-3在训练过程中不断学习,但是一旦模型训练完毕,它的参数的各种权重就设置好了,不会随着模型的使用而发生新的学习。想象一下,如果你的大脑被冻结在一个瞬间,可以处理信息,但永远不会学到任何新的东西,这样的智能是你想要的么?Transformer模型现在就是这样工作的,如果他们变得有知觉,可以动态的学习,就像大脑的神经元无时不刻不在产生新的连接那样,那它们更高级的形态可能代表一种新的智能。我们会在第六章聊一下这个话题,在这之前,先来看看AI如何在现实世界中生存的。

过去对无人操作电梯的担忧与我们今天听到的对无人驾驶汽车的担忧十分相似。

GarryKasparov

现实世界的AI(RealWorldAI),按照ElonMusk的定义就是“模仿人类来感知和理解周围的世界的AI”,它们是可以与人类世界共处的智能机器。我们在本文前面四章中提到的用AI来解决的问题,大多数都是你输入数据或者提出目标,然后AI反馈给你结果或者完成目标,很少涉及和真实世界的环境互动。在真实世界中,收集大量数据是极其困难的,除非像Tesla一样拥有几百万辆带着摄像头还实时联网的电车来帮你采集数据;其次感知、计划再到行动,应该会涉及到多种神经网络和智能算法的组合,就像大脑控制人的行为那样,这同样也是对研发和工程学的极端挑战。但在Transformer模型诞生之后,能够征服现实世界的AI又有了新的进展。

技术路线的选择

一辆可以自动驾驶汽车,实际上就是一台是需要同时解决硬件和软件问题的机器人。它需要用摄像头、雷达或其他硬件设备来感知周围环境,软件则是在了解环境和物理位置的情况下规划路线,最终让车辆驶达目的地。

目前的自动驾驶主要两大流派:纯视觉的系统和基于激光雷达的系统。Google的Waymo是激光雷达方案的先驱,还有刚破产的ArgoAI也是,其实大部分都是这个流派,因为优势很明显,激光雷达可以精准的识别三维世界,不需要太复杂的神经网络训练就能轻松上路,但大功率激光雷达的成本是个大问题;采用纯视觉方案的只有Tesla和Comma这样的另类公司,它们完全靠摄像头和软件,无需任何辅助感知硬件。

激光雷达还有另一个问题,它眼中的世界没有色彩也没有纹理,必须配合摄像头才能描绘真实世界的样子。但两种数据混合起来会让算法极其复杂,因此Tesla完全放弃了激光雷达,甚至是超声波雷达,节省成本是很重要的一个原因,另一个原因是现实世界都道路都是为人类驾驶设计的,人只靠视觉就能完成这个任务为什么人工智能不行?这个理由很具ElonMusk的风格,只需要加大在神经网络上的研发投入就可以。

让车看见和思考

为了让车可以像人一样思考,Tesla模拟了人类大脑处理视觉信息的方式,这是一套的由多种神经网络和逻辑算法组合而成的复杂流程。

FSD的自动驾驶步骤大概如下:

1.视觉影像收集:通过车载的6个1280x960解析度的摄像头,采集12bit色深的视频,识别出环境中的各种物体和Triggers(道路情况)

2.向量空间生成:人类看到的世界是大脑根据感知数据实时构建还原的三维世界,Tesla用同样的机制把车周围世界的全部信息都投射到四维向量空间中,再做成动态的BEV鸟瞰图,让车在立体的空间中行使和预测,从而可以精准控制。在2021年之前采用的是基于Transformer模型的HydraNets,现在已经升级到最新的OccupancyNetworks,它可以更加精准的识别物体在3D空间中的占用情况

3.神经网络路线规划:采用蒙特卡洛算法(mcts)在神经网络的引导下计算,快速完成自己路径的搜索规划,而且算法还能给所有移动的目标都做计划,并且可以及时改变计划。看别人的反应作出自己的决策,这不就是人类思维么?

TeslaFSD能够如此快速的感知和决策,还得靠背后超级电脑TeslaDojo的神经网络训练,这和OpenAI还有Google训练LLMs类似,只不过这些数据不来自互联网,而是跑在路上的每一辆Tesla汽车,通过ShadowMode为Dojo提供真实的3D空间训练数据。

大自然选择了眼睛来作为最重要的信息获取器官,也许是冥冥之中的进化必然。一个有理论认为5.3亿年前的寒武纪物种大爆发的部分原因是因为能看见世界了,它让新的物种可以在快速变化的环境中移动和导航、规划行动了先和环境做出互动,生存概率大幅提高。同理,让机器能看见,会不会一样让这个新物种大爆发呢?

并不是所有的机器人都具备感知现实世界的智能。对于一个在仓库搬运货物的机器人来说,它们不需要大量的DeepLearning,因为环境是已知的和可预测的,大部分在特定环境中使用的自动驾驶汽车也是一样的道理。就像让人惊叹的BostonDynamic公司机器人的舞蹈,他们有世界上最好的机器人控制技术,但要做那些安排好的动作,用程序把规则写好就行。很多看官都会觉得Tesla在今年九月发布的机器人TeslaOptimus那慢悠悠的动作和BostonDynamic的没法比,但拥有一个优秀的机器大脑和可以量产的设计更重要。

自动驾驶和真实世界互动的核心是安全,不要发生碰撞;但AI驱动的机器人的核心是和真实世界发生互动,理解语音,抓握避让物体,完成人类下达的指令。驱动Tesla汽车的FSD技术同样会用来驱动TeslaOptimus机器人,他们有相同的心脏(FSDComputer)和相同的大脑(TeslaDojo)。但训练机器人比训练自动驾驶还要困难,毕竟没有几百万个已经投入使用的Optimus帮你从现实世界采集数据,这时Metaverse概念中的虚拟世界就能展露拳脚了。

虚拟世界中的模拟真实

为机器人感知世界建立新的基础模型将需要跨越不同环境大量数据集,那些虚拟环境、机器人交互、人类的视频、以及自然语言都可以成为这些模型的有用数据源,学界对使用这些数据在虚拟环境中训练的智能代理有个专门的分类EAI(Embodiedartificialintelligence)。在这一点上,李飞飞再次走在了前列,她的团队发布了一个标准化的模拟数据集BEHAVIOR,包含100个类人常见动作,例如捡玩具、擦桌子、清洁地板等等,EAI们可以在任何虚拟世界中进行测试,希望这个项目能像ImageNet那样对人工智能的训练数据领域有杰出的学术贡献。

在虚拟世界中做模拟,Meta和Nvidia自然不能缺席。佐治亚理工学院的计算机科学家DhruvBatra也是MetaAI团队的主管,他们创造了一个名叫AI栖息地(AIHabitat)虚拟世界,目标是希望提高模拟速度。在这里智能代理只需挂机20分钟,就可以学成20年的模拟经验,这真是元宇宙一分钟,人间一年呀。Nvidia除了给机器人提供计算模块之外,由Omniverse平台提供支持的NVIDIAIsaacSim是一款可扩展的机器人模拟器与合成数据生成工具,它能提供逼真的虚拟环境和物理引擎,用于开发、测试和管理智能代理。

机器人本质上是具体化的智能代理,许多研究人员发现在虚拟世界中训练成本低廉、受益良多。随着参与到这个领域的公司越来越多,那么数据和训练的需求也会越来越大,势必会有新的适合EAI的基础模型诞生,这里面潜力巨大。

AmazonPrime最新的科幻剧集《ThePeripheral》,改编自WilliamGibson在2014年的出版的同名小说,女主角就可以通过脑机接口进入到未来的智能代理。以前一直觉得Metaverse是人类用来逃避现实世界的,但对于机器人来说,在Metaverse中修行才是用来征服现实世界的。

ARKInvest在他们的BigIdeas2022报告中提到,根据莱特定律,AI相对计算单元(RCU-AIRelativeComputeUnit)的生产成本可以每年下降39%,软件的改进则可以在未来八年内贡献额外37%的成本下降。换句话说,到2030年,硬件和软件的融合可以让人工智能训练的成本以每年60%的速度下降。

AI硬件和软件公司的市值可以以大约50%的年化速度扩大,从2021年的2.5万亿美元剧增到2030年的87万亿美元。

通过将知识工作者的任务自动化,AI应能提高生产力并大幅降低单位劳动成本,从生成式AI的应用的大爆发就可以看出端倪;但用来大幅降低体力劳动的成本,现实世界的AI还有更长的路要走。我们原以为着AI会让体力劳动者失业,却不知道它们确有潜力让脑力劳动者先下岗了。

科幻小说家ArthurClarke这样说过:"任何先进的技术都与魔法无异"!如果回到19世纪,想象汽车在高速路上以100多公里的时速行驶,或者用手机与地球另一端的人视频通话,那都不可想象的。自1956年DartmouthWorkshop开创了人工智能领域以来,让AI比人类更好地完成智力任务,我们向先辈们的梦想前进了一大步。虽然,有些人认为这可能永远不会发生,或者是在非常遥远的未来,但新的模型会让我们更加接近大脑工作的真相。对大脑的全面了解,才是AI通用化(AGI)的未来。

科学家们发现,当用不同的神经网络训练同一个数据集时,这些网络中存在相同的神经元。由此他们提出了一个假设:在不同的网络中存在着普遍性的特征。也就是说,如果不同架构的神经网训练同一数据集,那么有一些神经元很可能出现在所有不同的架构中。

这并不是唯一惊喜。他们还发现,同样的特征检测器也存在与不同的神经网络中。例如,在AlexNet、InceptionV1、VGG19和ResnetV2-50这些神经网络中发现了曲线检测器(CurveDetectors)。。不仅如此,他们还发现了更复杂的GaborFilter,这通常存在于生物神经元中。它们类似于神经学定义的经典"复杂细胞",难道我们的大脑的神经元也存在于人工神经网络中?

OpenAI的研究团队表示,这些神经网络是可以被理解的。通过他们的Microscope项目,你可以可视化神经网络的内部,一些代表抽象的概念,如边缘或曲线,而另一些则代表狗眼或鼻子等特征。不同神经元之间的连接,还代表了有意义的算法,例如简单的逻辑电路(AND、OR、XOR),这些都超过了高级的视觉特征。

大脑中的Transformer

来自UniversityCollegeLondon的两位神经科学家TimBehrens和JamesWhittington帮助证明了我们大脑中的一些结构在数学上的功能与Transformer模型的机制类似,具体可以看这篇《HowTransformersSeemtoMimicPartsoftheBrain》,研究显示了Transformer模型精确地复制在他们大脑海马体中观察到的那些工作模式。

去年,麻省理工学院的计算神经科学家MartinSchrimpf分析了43种不同的神经网络模型,和大脑神经元活动的磁共振成像(fMRI)还有皮层脑电图(EEG)的观测做对比。他发现Transformer是目前最先进的神经网络,可以预测成像中发现的几乎所有的变化。计算机科学家YujinTang最近也设计了一个Transformer模型,并有意识的向其随机、无序的地发送大量数据,模仿人体如何将感官数据传输到大脑。他们的Transformer模型,就像我们的大脑一样,能够成功地处理无序的信息流。

尽管研究在突飞猛进,但Transformer这种通用化的模型只是朝着大脑工作的精准模型迈出的一小步,这是起点而不是探索的终点。Schrimpf也指出,即使是性能最好的Transformer模型也是有限的,它们在单词和短语的组织表达上可以很好地工作,但对于像讲故事这样的大规模语言任务就不行了。这是一个很好的方向,但这个领域非常复杂!

JeffHawkins是PalmComputing和Handspring的创始人,也是PalmPilot和Treo的发明人之一。创办企业之后,他转向了神经科学的工作,创立了红木理论神经科学中心(RedwoodCenter),从此专注人类大脑工作原理的研究。《AThousandBrains》这本书详细的解释了他最重要的研究成,湛庐文化在今年九月推出了中文版《千脑智能》。

大脑新皮层(Neocortex)是智力的器官。几乎所有我们认为是智力的行为,如视觉、语言、音乐、数学、科学和工程,都是由新皮层创造的。Hawkins对它工作机理采取了一种新的解释框架,称为"ThousandBrainsTheory",即你的大脑被组织成成千上万个独立的计算单元,称为皮质柱(CorticalColumns)。这些柱子都以同样的方式处理来自外部世界的信息,并且每个柱子都建立了一个完整的世界模型。但由于每根柱子与身体的其他部分有不同的联系,所以每根柱子都有一个独特的参考框架。你的大脑通过进行投票来整理出所有这些模型。因此,大脑的基本工作不是建立一个单一的思想,而是管理它每时每刻都有的成千上万个单独的思想。

我们可以把运行Transformer训练的神经网络的电脑想象成一个及其简陋的人工皮质柱,给它灌输各种数据,它输出预测数据(参考第四、五两章的讲解来理解)。但大脑新皮层有20多万个这样的小电脑在分布式计算,他们连接着各种感知器官输入的数据,最关键的是大脑无需预训练,神经元自己生长就完成了学习,相当于把人造的用于训练的超级电脑和预测数据的电脑整合了。在科学家没有给大脑完成逆向工程之前,AGI的进展还举步维艰。

千脑理论本质上是一种感觉-运动理论(Sensory-MotorTheory),它解释了我们如何通过看到、移动和感知三维空间来学习、识别物体。在该理论中,每个皮质柱都有完整物体的模型,因此知道在物体的每个位置应该感应到什么。如果一个柱子知道其输入的当前位置以及眼睛是如何移动的,那么它就可以预测新的位置以及它在那里将感应到什么。这就像看一张城镇地图,预测如果你开始朝某个方向走,你会看到什么一样。有没有觉得这个过程和Tesla的纯视觉自动驾驶的实现方法很像?感知、建模、预测和行动。

要像大脑一样学习

自我监督:新皮层的计算单位是皮质柱,每个柱子都是一个完整的感觉-运动系统,它获得输入,并能产生行为。比如说,一个物体移动时的未来位置,或者一句话中的下一个词,柱子都会预测它的下一次输入会是什么。预测是皮质柱测试和更新其模型的方法。如果结果和预测不同,这个错误的答案就会让大脑完成一次修正,这种方式就是自我监督。现在最前沿的神经网络正BERT、RoBERTa、XLM-R正在通过预先训练的系统来实现“自我监督”。

持续学习:大脑通过神经元组织来完成持续学习。当一个神经元学一个新的模式时,它在一个树突分支上形成新的突触。新的突触并不影响其他分支上先前学到的突触。因此,学新的东西不会迫使神经元忘记或修改它先前学到的东西。今天,大多数Al系统的人工神经元并没有这种能力,他们经历了一个漫长的训练,当完成后他们就被部署了。这就是它们不灵活的原因之一,灵活性要求不断调整以适应不断变化的条件和新知识。

多模型机制的:新皮层由数以万计的皮质柱组成,每根柱子都会学物体的模型,使多模型设计发挥作用的关键是投票。每一列都在一定程度上独立运作,但新皮层中的长距离连接允许各列对其感知的对象进行投票。智能机器的"大脑"也应该由许多几乎相同的元素(模型)组成,然后可以连接到各种可移动的传感器。

为什么需要通用人工智能(AGI)

AI将从我们今天看到的专用方案过渡到更多的通用方案,这些将在未来占据主导地位,Hawkins认为主要有两个原因:

第一个就和通用电脑战胜专用电脑的原因一样。通用电脑有更好的成效比,这导致了技术的更快进步。随着越来越多的人使用相同的设计,更多的努力被用于加强最受欢迎的设计和支持它们的生态系统,导致成本降低和性能的提升。这是算力指数式增长的基本驱动力,它塑造了二十世纪后半叶的工业和社会。

Al将通用化的第二个原因是,机器智能的一些最重要的未来应用将需要通用方案的灵活性,例如ElonMusk就希望可以有通用智能的机器人来帮忙探索火星。这些应用将需要处理很多无法预料的问题,并设计出新颖的解决方案,而今天的专用的DeepLearning模型还无法做到这一点。

通用人工智能(AGI)这是AI领域的终极目标,应该也是人类发明了机器计算之后的终极进化方向。回顾机器之心六十多年的进化,我们似乎找到了方法,就是模仿人类的大脑。MachineLearning要完成这块拼图,需要有数据、算力还有模型的改进。

数据应该是拼图中最容易实现的。按秒来计算,ImageNet数据集的大小已经接近人从出生到大学毕业视觉信号的数据量;Google公司创建的新模型HNDetection,用来理解房屋和建筑物外墙上的街道号码的数据集大小,已经可以和人一生所获取的数据量所媲美。要像人类一样,使用更少的数据和更高的抽象来学习,才是神经网络的发展方向。

算力可以分解为两个部分:神经网络的参数(神经元的数量和连接)规模以及单位计算的成本。下图可以看到,人工神经网络与人脑的大小仍有数量级的差距,但它们在某些哺乳动物面前,已经具备竞争力了。

我们每花一美元所能得到的计算能力一直在呈指数级增长。现在大规模基础模型所用到的计算量每3.5个月就会翻一番。

当AI变得比人类更聪明、我们称这一刻为奇点。一些人预测,奇点最快将于2045年到来。NickBostrom和VincentC.Müller在2017年的一系列会议上对数百名AI专家进行了调查,奇点(或人类水平的机器智能)会在哪一年发生,得到的答复如下:

乐观预测的年份中位数(可能性10%)-2022

现实预测的年份中位数(可能性50%)-2040

悲观预测的年份中位数(可能性90%)-2075

因此,在AI专家眼里很有可能在未来的20年内,机器就会像人类一样聪明。

这意味着对于每一项任务,机器都将比人类做得更好;当计算机超过人类时,一些人认为,他们就可以继续变得更好。换句话说,如果我们让机器和我们一样聪明,没有理由不相信它们能让自己变得更聪明,在一个不断改进的机器之心进化的螺旋中,会导致超级智能的出现。

从工具进化到数字生命

按照上面的专家预测,机器应该具有自我意识和超级智能。到那时,我们对机器意识的概念将有一些重大的转变,我们将面对真正的数字生命形式(DILIs-DigitalLifeforms)。

一旦你有了可以快速进化和自我意识的DILIs,围绕物种竞争会出现了一些有趣的问题。DILIs和人类之间的合作和竞争的基础是什么?如果你让一个有自我意识的DILIs能模拟疼痛,你是在折磨一个有感知的生命吗?

这些DILIs将能够在服务器上进行自我复制和编辑(应该假设在某个时候,世界上的大多数代码将由可以自我复制的机器来编写),这可能会加速它们的进化。想象一下,如果你可以同时创建100,000,000个你自己的克隆体,修改你自己的不同方面,创建你自己的功能函数和选择标准,DILIs应该能够做到这一切(假设有足够的算力和能量资源)。关于DILIs这个有趣的话题在《Life3.0》和《Superintelligence:Paths,Dangers,Strategies》这两本书中有详细的讨论。

历史学家ThomasKuhn在其著名的《TheStructureofScientificRevolutions》一书中认为,大多数科学进步是基于广泛接受的理论框架,他称之为科学范式。偶尔,一个既定的范式被推翻,被一个新的范式所取代-Kuhn称之为科学革命。我们正处在AI的智能革命之中!

最后,送上一首AI创作的曲子《IAmAI》,Nvidia每年的GTC大会上都会更新一次内容,看看AI如何从各个行业渗透到我们的生活。

THE END
1.油门焊死在了脚上,白车撞墙后再撞宝马车家号发现车生活油门焊死在了脚上,白车撞墙后再撞宝马汽车有文化 发布于 河北 0 浏览 2024-11-22 11:39 播放器加载中 本内容来自汽车之家创作者,不代表汽车之家的观点和立场。 标签: #用车攻略 纠错/举报 0 收藏 分享 简介: 油门焊死在了脚上,白车撞墙后再撞宝马 https://chejiahao.autohome.com.cn/info/18189367
2.暴雪后车被积雪覆盖,车主开始挖呀挖呀挖,有经验的都先挖车牌!导演勇闯红灯区,揭露广东黑老大的灰色产业链,主角被抓才敢上映 毒舌混知所 698跟贴 打开APP 盘点那些讽刺性极强的瞬间,就这奇葩的操作,真是让人难以理解 欢乐搞笑配音 2726跟贴 打开APP 揪头发把4个逃课女生揪回学校的是个好校长,是学生之福! 北京作家编剧肥猪满圈 684跟贴 嚣张男子乱停车被砸,还无耻要赔偿https://m.163.com/v/video/VKH58TNVI.html
3.#市民投诉路面刚做好又重新挖开#,住建局来自发现微视频【#市民投诉路面刚做好又重新挖开#,住建局:因效果不佳进行二次优化】11月27日(采访时间),广州海珠区。据市民报料称路面反复施工,上个月刚做好的地面,又用挖掘机全部都挖烂了。记者从海珠区住建局了解到,由于该路口没有设置交通信号灯,机动车通行面积较广,致使现场交通状况混乱,因此工程计划缩减一定的机动车通https://weibo.com/6473970060/P2mNx1x59
4.一线鲍是什么梗到今年1-10月,新能源汽车新车销量已经达到汽车新车总销量的39.6%。7-10月,中国新能源汽车渗透率已经连续4个月突破50%。,特朗普再挖福克斯墙脚:这次轮到然而,就在美国总统拜登任期将尽之时,他此时突然“开了绿灯”。 美国银行经济学家Aditya Bhave表示,受飓风米尔顿影响的各州可自由支配商品支出减少以及不利的http://www.cbswqly.com/index.php?id=nlwzxh-718033
5.微博对规章制度和法律法规还是需要有一些敬畏之心的@FATIII @航空物语 转发 评论 赞 _西乡塘逮虾户 11-8 16:20 来自vivo X90 Pro+ 我草,这成色现在起码能卖30+ @爱车的小鲍: #好车分享# 丰田LC80,每排都三个座位,最多能坐9个人。 转发 评论 赞 _西乡塘逮虾户 11-8 16:15 来自vivo X90 Pro+ 你能https://m.weibo.cn/u/1811539915
6.汽车之家发布口碑总是被删车友交流还有一点,小米、懂car帝、汽车之家都是帝都企业,南方车企的背景自然是比不过的,不要被网络营销带了节奏,真正要买车的就去试驾,看热闹的口下积德,都是自主品牌,没必要。 最后,挖墙脚这个事儿虽然是商业行为,但是真心觉得不耻。当然不知道真正内幕是什么,也不敢乱说,或许吉利伤了人家院长的心也不一定。但是有https://www.dongchedi.com/tag/ugc/11009167
7.埃隆马斯克在研发团队的建设方面,怀揣着一大笔钱的埃隆?马斯克开始到各大航天公司去游说,说白了,就是去挖墙脚。当那些同样怀揣航天梦却因大环境而郁郁寡欢的技术专家见到埃隆?马斯克时自然对这样一个性格坚毅、钱又多的人丧失免疫能力,于是乎,美国最大的发动机制造商TRW的液体推进器专家Mueller被挖了过来,在业内谁都知道https://www.qcwp.com/wapNews/266222.html
8.图钢铁侠的偶像技术狂人埃隆·马斯克马斯克开始到各大航天公司去游说,说白了,就是去挖墙脚。当那些同样怀揣航天梦却因大环境而郁郁寡欢的技术专家见到埃隆?马斯克时自然对这样一个性格坚毅、钱又多的人丧失免疫能力,于是乎,美国最大的发动机制造商TRW的液体推进器专家Mueller被挖了过来,在业内谁都知道,除了他,没有人制造过那么大的发动机了。另外,http://www.360doc.com/content/13/0625/17/9420564_295456565.shtml
9.凶宅我之前写过一篇隔壁邻居挖墙脚找狐仙的经历(你问我找到了没?当然是没找到啦~),这一次要讲的事还是发生在我租住的那间房子里,只是这次的略惊悚。 狐仙在华夏历史上出现过很多惊艳绝伦之人,因为他们的出现足以改变了历史发展的轨迹。这些人中有很多都是非常厉害的预言家,精通奇门,数术阴阳,能够推算未来。比如https://330476.com/tag/%E5%87%B6%E5%AE%85
10.被小扎偷偷挖墙脚近百名工程师跳槽苹果罕见发放巨额奖金:最高达在元宇宙爆火、新能源汽车领域打得不可开交的年代,美国硅谷正在上演一场悄无声息的“抢人大战”。 据澎湃新闻援引美国《福布斯》网站28日报道,为了留住人才,苹果公司日前向一些工程师以发放股票的形式给予了最高达18万美元(约合115万元人民币) 的奖励,以避免他们跳槽去扎克伯格旗下脸书母公司Meta等竞争对手。 https://wap.eastmoney.com/a/202112292230323635.html
11.早报百度与今日头条互斥对方“黑公关”;索罗斯称谷歌时日无多打败竞争对手的重要一步:挖墙脚 @新浪科技【苹果公司拟重新设计iBooks应用以挑战亚马逊】凌晨消息,彭博社报道,苹果公司将重新设计iBooks应用,借此再次尝试挑战亚马逊在数字图书市场上的主导地位,并已在12月份聘用了前亚马逊旗下有声读物部门Audible前高级副总裁卡西夫·扎法尔来帮助设计。据说,重新设计后的iBooks应用将在https://www.huxiu.com/article/231195.html